KR102443304B1 - Device for Recognition and Recognition Method of Input Language Through Machine Learning - Google Patents
Device for Recognition and Recognition Method of Input Language Through Machine Learning Download PDFInfo
- Publication number
- KR102443304B1 KR102443304B1 KR1020200162142A KR20200162142A KR102443304B1 KR 102443304 B1 KR102443304 B1 KR 102443304B1 KR 1020200162142 A KR1020200162142 A KR 1020200162142A KR 20200162142 A KR20200162142 A KR 20200162142A KR 102443304 B1 KR102443304 B1 KR 102443304B1
- Authority
- KR
- South Korea
- Prior art keywords
- language
- input
- unit
- machine learning
- warning
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/32—Monitoring with visual or acoustical indication of the functioning of the machine
- G06F11/324—Display of status information
- G06F11/327—Alarm or error message display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 사용자의 움직임을 감지하여 입력되는 언어의 종류를 인식하는 것으로, 보다 상세하게는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법에 관한 것이다. 이를 위해, 사용자(5)의 신체 일부에 부착되어 사용자(5)의 언어 입력시 발생하는 동작을 감지하는 관성센서(130); 언어 입력에 관한 동작을 기계학습하는 기계학습부(330); 기계학습부(330)로부터의 학습 모델 및 관성센서(130)의 동작신호에 기초하여 언어를 제 1 언어로 추론하는 추론부(230); 언어가 입력되는 입력장치에 구비되고, 입력된 언어를 제 2 언어로 판단하는 제 2 제어부(210); 제 1 언어와 제 2 언어가 같은 언어인지를 판단하는 제 2 제어부(210); 및 제 1 언어와 제 2 언어가 다를 경우 경고를 발생하는 경고수단을 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치가 제공된다.The present invention recognizes a type of input language by sensing a user's movement, and more particularly, relates to an apparatus and method for recognizing an input language through machine learning. To this end, an inertial sensor 130 attached to a body part of the user 5 to detect a motion occurring when the user 5 inputs a language; a machine learning unit 330 for machine learning an operation related to language input; an inference unit 230 for inferring a language as a first language based on a learning model from the machine learning unit 330 and an operation signal of the inertial sensor 130; a second control unit 210 provided in an input device into which a language is input and determining the input language as a second language; a second control unit 210 that determines whether the first language and the second language are the same language; and warning means for generating a warning when the first language and the second language are different from each other.
Description
본 발명은 사용자의 움직임을 감지하여 입력되는 언어의 종류를 인식하는 것으로, 보다 상세하게는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법에 관한 것이다. The present invention recognizes a type of input language by sensing a user's movement, and more particularly, relates to an apparatus and method for recognizing an input language through machine learning.
컴퓨터의 소프트웨어(예 : 워드프로세서, 채팅, 엑셀, 파워포인트 등) 상에서 키보드를 통해 언어(예 : 한국어)를 입력하는 경우가 많다. 그런데, 사용자가 한국어를 입력하더라도 실수로 또는 자동으로 컴퓨터의 자판이 영어로 변환되어 있어서 알파벳이 입력되는 경우가 있다. 또는 그 반대로 사용자가 영어를 입력하고자 하더라도 컴퓨터의 자판이 한글로 변환되어 있어서 한글이 입력되는 경우가 있다. In many cases, the language (eg Korean) is input through the keyboard on the computer software (eg word processor, chatting, Excel, PowerPoint, etc.). However, even when the user inputs Korean, there are cases in which the alphabet is input because the keyboard of the computer is converted into English by mistake or automatically. Or, conversely, even if the user wants to input English, the keyboard of the computer is converted into Korean, so that Hangul is inputted.
이러한 오류 입력이 발생하는 경우, 사용자는 입력된 글자를 모두 지우고 자판의 언어를 원하는 한글로 전환한 뒤 다시 한글을 입력해야 했다. 일부 워드프로세서에서는 이러한 오류 입력을 인식하여 자동으로 한글 변환해주는 기능도 있으나 특정 소프트웨어에 국한되어 일반적으로 사용되질 못했다. When such an error input occurred, the user had to erase all the entered characters, switch the keyboard language to the desired Korean, and then re-enter Korean. Some word processors recognize these error inputs and automatically convert them into Hangul, but they are limited to specific software and have not been generally used.
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 해결하고자 하는 과제는 사용자에게 부착된 웨어러블기기에서 입력 동작을 인식하고, 입력동작에 따라 추론된 제 1 언어가 입력된 제 2 언어와 같은지 여부를 비교판단하도록 하는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법을 제공하는 것이다. Accordingly, the present invention has been devised to solve the above problems, and the object of the present invention is to recognize an input operation in a wearable device attached to a user, and input the first language inferred according to the input operation. An object of the present invention is to provide an apparatus for recognizing an input language and a method for recognizing an input language through machine learning to compare and determine whether it is the same as a second language.
본 발명의 제 2 목적은, 언어별 입력 동작의 특징을 기계학습함으로써 입력동작으로 입력되는 제 1 언어를 정확히 추론할 수 있는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법을 제공하는 것이다. A second object of the present invention is to provide an apparatus for recognizing an input language and a method for recognizing an input language through machine learning that can accurately infer a first language input as an input operation by machine learning the characteristics of an input operation for each language.
본 발명의 제 3 목적은 추론된 제 1 언어와 입력된 제 2 언어가 동일한지 여부를 판단하여 사용자에게 경고할 수 있는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법을 제공하는 것이다. A third object of the present invention is to provide an apparatus and method for recognizing an input language through machine learning that can warn a user by determining whether an inferred first language and an input second language are the same.
다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood
상기의 기술적 과제를 달성하기 위하여, 사용자(5)의 신체 일부에 부착되어 사용자(5)의 언어 입력시 발생하는 동작을 감지하는 관성센서(130); 언어 입력에 관한 동작을 기계학습하는 기계학습부(330); 기계학습부(330)로부터의 학습 모델 및 관성센서(130)의 동작신호에 기초하여 언어를 제 1 언어로 추론하는 추론부(230); 언어가 입력되는 입력장치에 구비되고, 입력된 언어를 제 2 언어로 판단하는 제 2 제어부(210); 제 1 언어와 제 2 언어가 같은 언어인지를 판단하는 제 2 제어부(210); 및 제 1 언어와 제 2 언어가 다를 경우 경고를 발생하는 경고수단;을 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치가 제공된다. In order to achieve the above technical task, an
또한, 관성센서(130)는 웨어러블기기(100) 내에 구비될 수 있다. Also, the
또한, 기계학습부(330)는 언어 입력에 관한 동작의 진폭, 주기 및 반복되는 부분 파형 중 적어도 하나에 기초하여 기계학습을 하고, 지도학습(supervised learning) 기법으로 학습할 수 있다. Also, the
또한, 관성센서(130)는 웨어러블기기(100)에 탑재되고, 웨어러블기기(100)는 통신을 위한 제 1 통신부(120)를 더 포함하며, 추론부(230) 및 제 2 제어부(210)는 입력장치에 탑재되고, 입력장치는 제 1 통신부(120)와의 통신을 위한 제 2 통신부(220)를 더 포함할 수 있다. In addition, the
또한, 기계학습부(330)는 서버(300)에 탑재되고, 서버(300)는 제 2 통신부(220)와의 통신을 위한 제 3 통신부(320)를 더 포함할 수 있다. In addition, the
또한, 경고수단은 웨어러블기기(100)에 탑재되는 제 1 경고부(130) 및 입력장치에 탑재되는 제 2 경고부(240) 중 적어도 하나이다. In addition, the warning means is at least one of the
또한, 입력장치는 컴퓨터(10), 스마트폰(20), 태블릿PC 중 하나이다. In addition, the input device is one of the
상기와 같은 본 발명의 목적은 또 다른 카테고리로써, 기계학습부(330)가 사용자(5)의 언어 입력시 발생하는 동작을 기계학습하는 단계(S200); 및 제 3 통신부(320)가 기계학습의 모델을 입력장치의 추론부(210)로 전송하는 단계(S220);가 사전에 수행되거나 정기적으로 수행되면서, 사용자(5)의 신체 일부에 부착된 관성센서(130)가 사용자(5)의 언어 입력시 발생하는 동작으로부터 동작신호를 검출하는 단계(S100, S110); 제 1 통신부(120)가 동작신호를 입력장치로 전송하는 단계(S120); 추론부(230)가 동작신호에 기초하여 입력언어를 제 1 언어로 추론하는 단계(S130); 입력장치의 제 2 제어부(210)가 입력된 제 2 언어와 추론된 제 1 언어가 같은 언어인지를 판단하는 단계(S140); 만약, 제 1 언어와 제 2 언어가 다를 경우 경고수단이 경고를 발생하는 단계(S150);를 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식방법에 의해서도 달성될 수 있다. As another object of the present invention as described above, the
또한, 경고단계(S150)는, 제 2 제어부(210)가 제 2 언어를 제 1 언어로 변환하는 단계를 더 포함할 수 있다. In addition, the warning step ( S150 ) may further include the step of the
또한, 제 1, 2 언어는 한국어, 영어, 일본어, 중국어, 스페인어, 독일어, 프랑스어를 포함하는 그룹으로부터 서로 다르게 선택되는 언어일 수 있다. Also, the first and second languages may be languages selected differently from a group including Korean, English, Japanese, Chinese, Spanish, German, and French.
본 발명의 일실시예에 따르면, 사용자에게 부착된 웨어러블기기에서 입력 동작을 인식하고, 입력동작에 따라 추론된 제 1 언어가 입력된 제 2 언어와 같은지 여부를 비교판단할 수 있다. 따라서, 사용자는 웨어러블기기의 착용만으로 잘못된 언어의 입력을 통지받을 수 있고, 한영 오타를 방지할 수 있다. 만약 사용자(5)가 시각장애인 경우에도 키보드의 한/영 구분을 편리하게 할 수 있다. According to an embodiment of the present invention, the wearable device attached to the user may recognize an input operation, and compare and determine whether the first language inferred according to the input operation is the same as the input second language. Accordingly, the user may be notified of input of an incorrect language only by wearing the wearable device, and it is possible to prevent typos in Korean and English. Even if the
또한, 언어별 입력 동작의 특징을 기계학습함으로써 입력동작으로 입력되는 제 1 언어를 정확히 추론할 수 있다. 이는 언어의 구조와 자판의 위치에 기초한 것이므로 사용자의 성별, 나이, 입력속도 등과 무관하여 제 1 언어를 정확히 추론할 수 있다. In addition, it is possible to accurately infer the first language input as the input motion by machine learning the characteristics of the input motion for each language. Since this is based on the structure of the language and the location of the keyboard, the first language can be accurately inferred regardless of the user's gender, age, input speed, etc.
또한, 추론된 제 1 언어와 입력된 제 2 언어가 동일한지 여부를 판단하여 사용자에게 경고할 수 있다. 따라서, 사용자는 즉시 잘못된 언어의 입력을 인지할 수 있고, 고치거나 자판을 변경할 수 있다. In addition, it is possible to warn the user by determining whether the inferred first language and the input second language are the same. Accordingly, the user can immediately recognize the input of the wrong language, and can correct or change the keyboard.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치를 컴퓨터에서 사용하고 있는 사용상태도,
도 2는 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치를 스마트폰에서 사용하고 있는 사용상태도,
도 3은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치의 개략적인 블럭도,
도 4a는 한국어를 입력할 때 본 발명에 따른 웨어러블기기(100)의 관성센서(130)가 감지하는 프로파일을 나타내는 그래프,
도 4b는 영어를 입력할 때 본 발명에 따른 웨어러블기기(100)의 관성센서(130)가 감지하는 프로파일을 나타내는 그래프,
도 5는 본 발명의 구성요소인 기계학습부(330)의 구체적인 내부 블럭도,
도 6은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식방법을 나타내는 흐름도이다. The following drawings attached to this specification illustrate preferred embodiments of the present invention, and serve to further understand the technical spirit of the present invention together with the detailed description of the present invention to be described later. It should not be construed as being limited only to
1 is a state diagram in which an apparatus for recognizing an input language through machine learning is used in a computer according to an embodiment of the present invention;
2 is a state diagram of using a device for recognizing an input language through machine learning in a smart phone according to an embodiment of the present invention;
3 is a schematic block diagram of an apparatus for recognizing an input language through machine learning according to an embodiment of the present invention;
4A is a graph showing a profile detected by the
4b is a graph showing a profile detected by the
5 is a detailed internal block diagram of the
6 is a flowchart illustrating a method for recognizing an input language through machine learning according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiment described in the text. That is, since the embodiment is capable of various changes and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, it should not be understood that the scope of the present invention is limited thereby.
본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of the terms described in the present invention should be understood as follows.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as “first” and “second” are for distinguishing one component from another, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component. When a component is referred to as being “connected to” another component, it may be directly connected to the other component, but it should be understood that other components may exist in between. On the other hand, when it is mentioned that a certain element is "directly connected" to another element, it should be understood that the other element does not exist in the middle. On the other hand, other expressions describing the relationship between elements, that is, "between" and "between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood as including the plural expression unless the context clearly dictates otherwise, and terms such as "comprises" or "have" refer to the specified feature, number, step, action, component, part or these It is intended to indicate that a combination exists, and it should be understood that it does not preclude the possibility of the existence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Terms defined in a commonly used dictionary should be interpreted as having the meaning consistent with the context of the related art, and cannot be interpreted as having an ideal or excessively formal meaning unless explicitly defined in the present invention.
실시예의embodiment 구성 composition
이하, 첨부된 도면을 참조하여 바람직한 실시예의 구성을 상세히 설명하기로 한다. 도 1은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치를 컴퓨터에서 사용하고 있는 사용상태도이고, 도 2는 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치를 스마트폰에서 사용하고 있는 사용상태도이다. 도 1 및 도 2에 도시된 바와 같이, 사용자는 웨어러블기기(100, wearable device)를 착용하고 언어를 입력한다. Hereinafter, the configuration of the preferred embodiment will be described in detail with reference to the accompanying drawings. 1 is a state diagram of a computer using an apparatus for recognizing an input language through machine learning according to an embodiment of the present invention, and FIG. 2 is an apparatus for recognizing an input language through machine learning according to an embodiment of the present invention. It is a usage state diagram in use in a smartphone. 1 and 2 , a user wears a
본 발명에서 웨어러블기기(100)는 시계, 반지, 안경, 목걸이, 헤드폰 뿐만 아니라 의류, 모자, 신발, 핸드백, 가방 등에 구비되는 전자기기를 포함한다. 웨어러블기기(100)는 독립된 전원(예 : 2차전지)과 디스플레이(예 : 터치스크린 또는 LED) 및 입력장치(버튼, 터치 등)을 포함한다. 본 발명에서 웨어러블기기의 일실시예로써 스마트워치(smart watch)를 도시하고 설명한다. 웨어러블기기(100)는 사용자(5)의 손목에 착용된다. In the present invention, the
입력장치는 컴퓨터(10)의 키보드(14)이거나 스마트폰(20)의 키보드 어플리케이션(22)이 될 수 있다. The input device may be the
도 3은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치의 개략적인 블럭도이다. 도 3에 도시된 바와 같이, 웨어러블기기(100)는 제 1 제어부(110), 제 1 통신부(120) 및 관성센서(130)를 포함한다. 3 is a schematic block diagram of an apparatus for recognizing an input language through machine learning according to an embodiment of the present invention. As shown in FIG. 3 , the
제 1 제어부(110)는 마이컴, CPU 또는 AP(어플리케이션 프로세서)가 될 수 있다. The
제 1 통신부(120)는 입력장치와 양방향 데이터 통신이 가능하고, 유선 또는 무선이 가능하다. 제 1 통신부(120)는 와이파이, NFC, 4G 통신망, 무선-LAN, 블루투스와 같은 무선 모듈이 될 수 있고, USB 케이블과 같은 유선 통신모듈이 될 수 있다. 제 1 통신부(120)는 관성센서(130)의 동작신호를 전송하고, "경고"를 수신할 수 있다. The
관성센서(130)는 자이로센서, 가속도 센서 등이 될 수 있고, 사용자(5)의 언어 입력동안 발생하는 3차원 진동을 감지하여 시계열의 동작신호로 출력한다. The
제 1 경고부(140)는 다른 언어가 입력되었을 때, 사용자에게 경고를 보내기 위한 구성요소이다. 제 1 경고부(140)는 웨어러블기기(100)의 LED, LCD, 스피커, 부져, 진동발생장치 등이 될 수 있다. The
입력장치는 컴퓨터(10) 또는 스마트폰(20) 또는 태블릿PC나 노트북이 될 수 있다. 제 2 제어부(210)는 마이컴, CPU 또는 AP(어플리케이션 프로세서)가 될 수 있다. The input device may be a
제 2 통신부(220)는 웨어러블기기(100)와 양방향 데이터 통신이 가능하고, 서버(300)와 데이터 통신이 가능하며, 유선 또는 무선이 가능하다. 제 2 통신부(220)는 와이파이, NFC, 4G 통신망, 무선-LAN, 블루투스와 같은 무선 모듈이 될 수 있고, USB 케이블, 랜선, 광통신선, 전용선과 같은 유선 통신모듈이 될 수 있다. 제 2 통신부(220)는 제 1 통신부(120)로부터 동작신호를 수신하고, "경고"를 송신할 수 있다. 제 2 통신부(220)는 서버(300)로부터 기계학습의 모델을 수신한다. The
추론부(230)는 기계학습부(330)가 학습한 모델이 탑재되며, 수신된 동작신호가 입력되었을 때, 무슨 언어인지를 추론하여 출력한다. The
제 2 경고부(140)는 다른 언어가 입력되었을 때, 사용자에게 경고를 보내기 위한 구성요소이다. 제 2 경고부(240)는 입력장치의 LED, LCD, 스피커, 부져, 진동발생장치 등이 될 수 있다. The
서버(300)는 제 3 통신부(320), 제 3 제어부(310) 및 기계학습부(330)를 포함한다. 제 3 통신부(320)는 입력장치 또는 웨어러블기기(100)와 양방향 데이터 통신이 가능하고, 유선 또는 무선이 가능하다. 제 3 통신부(320)는 와이파이, NFC, 4G 통신망, 무선-LAN, 블루투스와 같은 무선 모듈이 될 수 있고, USB 케이블, 랜선, 광통신선, 전용선과 같은 유선 통신모듈이 될 수 있다. 제 3 통신부(320)는 제 1 통신부(120) 또는 제 2 통신부(220)로부터 동작신호를 수신할 수 있다. 제 3 통신부(320)는 웨어러블기기(100) 또는 입력장치로 기계학습의 모델을 전송한다. The
기계학습부(330)는 언어와 동작신호로 이루어진 다수의 데이터 세트를 학습훈련 데이터(training data)로서 입력받아 기계학습(딥러닝)함으로써 모델을 생성한다. 모델 생성의 학습형태는 지도학습(supervised learning) 기법이 사용된다. 지도학습 기법은 학습훈련 데이터 내에 동작신호(340)와 언어가 같이 포함되어 입력됨으로서 학습하는 기법이다. 지도학습(supervised learning) 기법의 구체적인 방법으로는 SVM(Support Vector Machine), 나이브 베이즈 분류기(Naive bayes classifiers), 판단트리(Decision tree), 랜덤 포레스트(Random forest) 등의 방법이 적용될 수 있으며, 피드포워드(feed-forward) 신경망(Neural Network), 합성곱 신경망(CNN, Convolutional Neural Network), 순환(Recurrent) 신경망도 활용될 수 있다. 즉, 기계학습부(330)는 동작신호(340)의 진폭, 주기 및 반복되는 부분 파형, 특징점 등을 추출하여 딥러닝에 사용한다. The
이러한 기계학습부(330)는 대량의 데이터를 학습하기 위해 서버(300)에 구비하였으나 선택에 따라 컴퓨터(10), 스마트폰(20) 또는 웨어러블기기(100) 내에 구비할 수도 있다. The
도 5는 본 발명의 구성요소인 기계학습부(330)의 구체적인 내부 블럭도이다. 비록, 도 5에서는 피드포워드 신경망을 모델로 도시하고 설명하였으나, 기계학습부(330)가 반드시 이에 국한되는 것은 아니면 전술한 다양한 기법이 적용될 수 있다. 기계학습부(330)의 입력으로는 동작신호(340)와 언어(예 : 한국어)가 입력되고, 추론되는 출력은 각 언어(350)의 종류별 확률(예 : 한국어 95.1%, 몽골어 2.1%, 영어 0.1% 등)이 된다. 보다 구체적으로 '1'은 한국어, '2'는 영어, '3'은 일본어, '4'는 중국어, '5'는 스페인어, '6'은 독일어, '7'은 프랑스어와 같이 매칭하여 숫자를 입력한다. 추론되는 제 1 언어(350)는 가장 확률이 높은 언어가 된다.5 is a detailed internal block diagram of the
기계학습부(330) 중 활성 함수는 신경망의 개별 뉴런에 들어오는 입력신호의 총합을 출력신호로 변환하는 함수하며, 활성 함수는 ReLU(rectified linear unit)를 사용하였다. The activation function of the
아핀(Affine) 레이어(또는 아핀 변환)에서는 행렬의 내적 연산이 이루어진다. 이러한 ReLU 레이어와 Affine 레이어는 필요에 따라 복수층을 배열하도록 기계학습부(330)의 모델을 설계할 수 있다. In the affine layer (or affine transform), the dot product operation of a matrix is performed. The model of the
소프트맥스(Soft Max) 함수는 하나의 언어를 추론한다. 소프트맥스 함수는 0과 1.0 사이의 실수로서 함수의 출력을 분류의 확률로 해석한다. The Soft Max function infers one language. The softmax function interprets the output of the function as a real number between 0 and 1.0 as a probability of classification.
실시예의embodiment 동작 movement
이하, 첨부된 도면을 참조하여 바람직한 실시예의 동작을 상세히 설명하기로 한다.Hereinafter, the operation of the preferred embodiment will be described in detail with reference to the accompanying drawings.
도 4a는 한국어를 입력할 때 본 발명에 따른 웨어러블기기(100)의 관성센서(130)가 감지하는 시계열 프로파일을 나타내는 그래프이고, 도 4b는 영어를 입력할 때 본 발명에 따른 웨어러블기기(100)의 관성센서(130)가 감지하는 시계열 프로파일을 나타내는 그래프이다. 도 4a 및 도 4b에 도시된 바와 같이, 한국어를 입력하는 경우 단어의 구조(예 : 가나다라) 및 자판의 배치에 따라 한국어만의 독특한 동작신호가 검출된다. 즉, 한국어 입력은 영어 입력에 비해 진폭이 크다는 것을 알 수 있고, 이는 기계학습을 통해 분리해 낼 수 있다. 또한, 동작신호에서 이러한 특징들을 일일이 분리하여 입력하지 않아도 되고, 검출된 신호 전체를 학습훈련 데이터로 사용하는 편리성이 있다. 4A is a graph showing a time series profile detected by the
도 6은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식방법을 나타내는 흐름도이다. 도 6에 도시된 바와 같이, 먼저, 도 5와 같은 기계학습부(330)가 사용자(5)의 언어 입력시 발생하는 동작을 기계학습한다(S200).6 is a flowchart illustrating a method for recognizing an input language through machine learning according to an embodiment of the present invention. As shown in FIG. 6 , first, the
학습이 완료된 모델은 제 3 통신부(320)를 통해 입력장치의 추론부(210)로 전송된다(S220). 추론부(210)는 모델을 저장하고, 모델을 이용하여 추론할 수 있는 상태가 된다. 이러한 과정은 사전에 수행되며, 정기적으로 또는 부정기적으로 반복됨으로써 사용자의 습관이나 사용 형태를 반영한 최신의 모델로 유지되도록 한다. The learned model is transmitted to the
그 다음, 사용자(5)가 웨어러블기기(100)를 손목에 착용하고 컴퓨터(10)의 키보드(140)에 제 1 언어(예 : 한국어)를 입력한다(S100). 그러면, 관성센서(130)가 사용자(5)의 타이핑시 발생하는 손목 동작, 손가락의 동작, 타이핑시의 충격 등으로부터 동작신호를 검출한다(S110).Next, the
그 다음, 제 1 통신부(120)가 동작신호를 입력장치로 전송한다(S120).Then, the
전송된 동작신호는 추론부(230)로 보내져서 추론부(230)가 동작신호에 기초하여 입력언어를 제 1 언어(예 : 한국어)로 추론한다(S130).The transmitted motion signal is sent to the
그 다음, 컴퓨터(10)의 제 2 제어부(210)가 실제로 타이핑되어 입력된 제 2 언어와 추론된 제 1 언어가 같은 언어인지를 판단한다(S140). 만약, 추론된 제 1 언어가 한국어이고, 입력된 제 2 언어도 한국어라면 같은 언어라고 판단하여 별다른 경고없이 단어를 계속 입력받는다. Next, the
그런데, 만약, 제 1 언어(예 : 한국어)와 제 2 언어(예 : 영어)가 다를 경우 경고수단이 경고를 발생한다(S150). 이는 사용자(5)가 실수로 언어전환 키를 눌렀거나 워드프로세서가 자동으로 언어를 전환했거나, 프로그램이 처음 시작될 때 디폴트로 내정된 언어로 변경되는 등의 의도치 않은 이벤트로 인해 발생한다. However, if the first language (eg, Korean) and the second language (eg, English) are different, the warning means generates a warning (S150). This occurs due to an unintentional event such as the
경고단계(S150)에서 웨어러블기기(100)는 경고음, 진동, LCD 화면의 점멸 등을 통해 잘못된 입력임을 사용자(5)에게 고지한다. 입력장치에서는 경고음, 경고 문자, 화면 점멸 등을 통해 잘못된 입력임을 사용자(5)에게 고지한다. In the warning step (S150), the
그리고, 선택적으로 제 2 제어부(210)가 제 2 언어(영어)를 제 1 언어(한국어)로 자동 변환하여 사용자(5)의 편의성을 높힐 수 있다. And, optionally, the
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The detailed description of the preferred embodiments of the present invention disclosed as described above is provided to enable any person skilled in the art to make and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way in combination with each other. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that are not explicitly cited in the claims may be combined to form an embodiment or may be included as a new claim by amendment after filing.
5 : 사용자,
10 : 입력장치(컴퓨터),
12 : 모니터,
14 : 키보드,
20 : 입력장치(스마트폰),
22 : 키보드어플리케이션,
100 : 웨어러블기기,
110 : 제 1 제어부,
120 : 제 1 통신부,
130 : 관성센서,
140 : 제 1 경고부,
210 : 제 2 제어부,
220 : 제 2 통신부,
230 : 추론부,
240 : 제 2 경고부,
300 : 서버,
310 : 제 3 제어부,
320 : 제 3 통신부,
330 : 기계학습부,
340 : 동작신호,
350 : 제 1 언어.5: user;
10: input device (computer),
12: monitor,
14: keyboard,
20: input device (smartphone),
22: keyboard application,
100: wearable device,
110: a first control unit;
120: a first communication unit;
130: inertial sensor,
140: first warning unit;
210: a second control unit;
220: a second communication unit;
230: reasoning unit,
240: a second warning unit;
300 : server,
310: a third control unit;
320: a third communication unit;
330: machine learning unit,
340: operation signal,
350: first language.
Claims (11)
상기 언어 입력에 관한 동작을 기계학습하는 기계학습부(330);
상기 기계학습부(330)로부터의 학습 모델 및 상기 관성센서(130)의 동작신호에 기초하여 상기 언어를 제 1 언어로 추론하는 추론부(230);
상기 언어가 입력되는 입력장치에 구비되고, 입력된 언어를 제 2 언어로 판단하는 제 2 제어부(210);
상기 제 1 언어와 상기 제 2 언어가 같은 언어인지를 판단하는 상기 제 2 제어부(210); 및
상기 제 1 언어와 상기 제 2 언어가 다를 경우 경고를 발생하는 경고수단;을 포함하고,
상기 경고수단은 웨어러블기기(100)에 탑재되는 제 1 경고부(130) 및 상기 입력장치에 탑재되는 제 2 경고부(240)이고,
상기 관성센서(130)는 상기 웨어러블기기(100)에 탑재되고,
상기 웨어러블기기(100)는 통신을 위한 제 1 통신부(120)를 더 포함하며,
상기 추론부(230) 및 상기 제 2 제어부(210)는 입력장치에 탑재되고,
상기 입력장치는 상기 제 1 통신부(120)와의 통신을 위한 제 2 통신부(220)를 더 포함하며,
상기 기계학습부(330)는 상기 언어 입력에 관한 동작의 진폭, 주기 및 반복되는 부분 파형에 기초하여 지도학습(supervised learning) 기법으로 기계학습을 하고,
상기 입력장치는 컴퓨터(10), 스마트폰(20), 태블릿PC 중 하나인 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.an inertial sensor 130 attached to a body part of the user 5 to detect a motion occurring when the user 5 inputs a language;
a machine learning unit 330 for machine learning an operation related to the language input;
an inference unit 230 for inferring the language as a first language based on a learning model from the machine learning unit 330 and an operation signal of the inertial sensor 130;
a second control unit 210 provided in an input device into which the language is input, and configured to determine the input language as a second language;
the second control unit 210 for determining whether the first language and the second language are the same language; and
and warning means for generating a warning when the first language and the second language are different.
The warning means is a first warning unit 130 mounted on the wearable device 100 and a second warning unit 240 mounted on the input device,
The inertial sensor 130 is mounted on the wearable device 100,
The wearable device 100 further includes a first communication unit 120 for communication,
The reasoning unit 230 and the second control unit 210 are mounted on the input device,
The input device further includes a second communication unit 220 for communication with the first communication unit 120,
The machine learning unit 330 performs machine learning by a supervised learning technique based on the amplitude, period, and repeated partial waveforms of the operation related to the language input,
The input device is a computer 10, a smart phone 20, a device for recognizing an input language through machine learning, characterized in that one of a tablet PC.
상기 기계학습부(330)는 서버(300)에 탑재되고,
상기 서버(300)는 상기 제 2 통신부(220)와의 통신을 위한 제 3 통신부(320)를 더 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.The method of claim 1,
The machine learning unit 330 is mounted on the server 300,
The server 300 is an input language recognition apparatus through machine learning, characterized in that it further comprises a third communication unit (320) for communication with the second communication unit (220).
기계학습부(330)가 사용자(5)의 언어 입력시 발생하는 동작의 진폭, 주기 및 반복되는 부분 파형을 지도학습(supervised learning) 기법으로 기계학습하는 단계(S200); 및
제 3 통신부(320)가 상기 기계학습의 모델을 입력장치의 추론부(210)로 전송하는 단계(S220);가 사전에 수행되거나 정기적으로 수행되면서,
사용자(5)의 신체 일부에 부착된 웨어러블기기(100)에 탑재된 관성센서(130)가 상기 사용자(5)의 언어 입력시 발생하는 동작으로부터 동작신호를 검출하는 단계(S100, S110);
제 1 통신부(120)가 상기 동작신호를 입력장치로 전송하는 단계(S120);
추론부(230)가 상기 동작신호에 기초하여 입력언어를 제 1 언어로 추론하는 단계(S130);
상기 입력장치의 제 2 제어부(210)가 입력된 제 2 언어와 추론된 상기 제 1 언어가 같은 언어인지를 판단하는 단계(S140);
만약, 상기 제 1 언어와 상기 제 2 언어가 다를 경우 상기 웨어러블기기(100)에 탑재되는 제 1 경고부(130) 및 상기 입력장치에 탑재되는 제 2 경고부(240)가 경고를 발생하는 단계(S150);를 포함하고,
상기 경고단계(S150)는, 상기 제 2 제어부(210)가 상기 제 2 언어를 상기 제 1 언어로 변환하는 단계를 더 포함하고,
상기 입력장치는 컴퓨터(10), 스마트폰(20), 태블릿PC 중 하나이고,
상기 제 1, 2 언어는 한국어, 영어, 일본어, 중국어, 스페인어, 독일어, 프랑스어를 포함하는 그룹으로부터 서로 다르게 선택되는 언어인 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식방법.As a recognition method using the input language recognition device according to claim 1 or 6,
The machine learning unit 330 machine learning the amplitude, period, and repeated partial waveforms of the motion generated when the user 5 inputs a language (S200) using a supervised learning technique; and
Step (S220) of the third communication unit 320 transmitting the machine learning model to the inference unit 210 of the input device; is performed in advance or is performed regularly,
detecting, by the inertial sensor 130 mounted on the wearable device 100 attached to the body part of the user 5, an operation signal from the operation generated when the user 5 inputs a language (S100, S110);
The first communication unit 120 transmitting the operation signal to the input device (S120);
Inferring, by the reasoning unit 230, the input language as the first language based on the operation signal (S130);
determining, by the second control unit 210 of the input device, whether the input second language and the inferred first language are the same language (S140);
If the first language and the second language are different, the first warning unit 130 mounted on the wearable device 100 and the second warning unit 240 mounted on the input device generate a warning (S150); including;
The warning step (S150) further includes the step of the second control unit 210 converting the second language into the first language,
The input device is one of a computer 10, a smartphone 20, and a tablet PC,
The first and second languages are languages selected differently from a group including Korean, English, Japanese, Chinese, Spanish, German, and French.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200162142A KR102443304B1 (en) | 2020-11-27 | 2020-11-27 | Device for Recognition and Recognition Method of Input Language Through Machine Learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200162142A KR102443304B1 (en) | 2020-11-27 | 2020-11-27 | Device for Recognition and Recognition Method of Input Language Through Machine Learning |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220074066A KR20220074066A (en) | 2022-06-03 |
KR102443304B1 true KR102443304B1 (en) | 2022-09-15 |
Family
ID=81982491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200162142A KR102443304B1 (en) | 2020-11-27 | 2020-11-27 | Device for Recognition and Recognition Method of Input Language Through Machine Learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102443304B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100634496B1 (en) * | 2003-06-16 | 2006-10-13 | 삼성전자주식회사 | Input language recognition method and apparatus and method and apparatus for automatically interchanging input language modes employing the same |
JP2015038705A (en) * | 2013-08-19 | 2015-02-26 | キヤノン株式会社 | Electronic apparatus, control method and program for the same, and memory medium |
JP2017037488A (en) * | 2015-08-10 | 2017-02-16 | 株式会社日本総合研究所 | Input support device, input support method, and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100634530B1 (en) | 2004-10-05 | 2006-10-16 | 삼성전자주식회사 | Method and apparatus for character input and function selection by combining user's key input and motion |
KR101809278B1 (en) | 2011-11-07 | 2017-12-15 | 한국전자통신연구원 | Apparatus and method of inputting characters by sensing motion of user |
KR102188268B1 (en) * | 2014-10-08 | 2020-12-08 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
KR102474245B1 (en) * | 2017-06-02 | 2022-12-05 | 삼성전자주식회사 | System and method for determinig input character based on swipe input |
KR101968167B1 (en) * | 2017-09-25 | 2019-04-11 | 이은규 | Method and system for security service using biometric and behavior information |
-
2020
- 2020-11-27 KR KR1020200162142A patent/KR102443304B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100634496B1 (en) * | 2003-06-16 | 2006-10-13 | 삼성전자주식회사 | Input language recognition method and apparatus and method and apparatus for automatically interchanging input language modes employing the same |
JP2015038705A (en) * | 2013-08-19 | 2015-02-26 | キヤノン株式会社 | Electronic apparatus, control method and program for the same, and memory medium |
JP2017037488A (en) * | 2015-08-10 | 2017-02-16 | 株式会社日本総合研究所 | Input support device, input support method, and program |
Also Published As
Publication number | Publication date |
---|---|
KR20220074066A (en) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11493993B2 (en) | Systems, methods, and interfaces for performing inputs based on neuromuscular control | |
US20060125659A1 (en) | Text input method and apparatus using bio-signals | |
Streli et al. | TapType: Ten-finger text entry on everyday surfaces via Bayesian inference | |
US9531404B2 (en) | Computer input device and method of using the same | |
US20110163956A1 (en) | Bimanual Gesture Based Input and Device Control System | |
CN104903836A (en) | Method and device for typing on mobile computing devices | |
Gu et al. | Qwertyring: Text entry on physical surfaces using a ring | |
Lee et al. | AirTouch: Synchronizing in-air hand gesture and on-body tactile feedback to augment mobile gesture interaction | |
KR102269466B1 (en) | Method and apparatus for inputting character based on motion recognition | |
US20220058529A1 (en) | Detecting Human Input Activity in a Cognitive Environment Using Wearable Inertia and Audio Sensors | |
CN111837094A (en) | Information processing apparatus, information processing method, and program | |
Farooq et al. | A comparison of hardware based approaches for sign language gesture recognition systems | |
MX2022011556A (en) | Electronic aerosol provision system. | |
KR102443304B1 (en) | Device for Recognition and Recognition Method of Input Language Through Machine Learning | |
KR101497829B1 (en) | Watch type device utilizing motion input | |
US20150355723A1 (en) | Finger position sensing and display | |
EP4184292A1 (en) | A communications system and a method for communicating information | |
KR101521288B1 (en) | Apparatus for glove-type wireless interface and operating method thereof | |
KR100634530B1 (en) | Method and apparatus for character input and function selection by combining user's key input and motion | |
CN104932695B (en) | Message input device and data inputting method | |
Krishnan et al. | Gesture recognizer and communicator using flex sensors and accelerometer with logistic regression | |
Ravikumar et al. | A fuzzy-logic based morse code entry system with a touch-pad interface for physically disabled persons | |
Udapola et al. | Braille messenger: Adaptive learning based non-visual touch screen text input for the blind community using braille | |
Greenspun et al. | Ring GINA: a wearable computer interaction device | |
Chunawale et al. | Machine Learning based Stress Detection using Keyboard Typing Behavior |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |