KR101322239B1 - Apparatus for inputting letters based on motion and Method thereof - Google Patents
Apparatus for inputting letters based on motion and Method thereof Download PDFInfo
- Publication number
- KR101322239B1 KR101322239B1 KR1020090106220A KR20090106220A KR101322239B1 KR 101322239 B1 KR101322239 B1 KR 101322239B1 KR 1020090106220 A KR1020090106220 A KR 1020090106220A KR 20090106220 A KR20090106220 A KR 20090106220A KR 101322239 B1 KR101322239 B1 KR 101322239B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- unit
- input
- user
- content
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 동작 기반 문자 입력 장치 및 그 방법에 관한 것으로, 특히 관성 센서를 기반으로 한 동작 인식을 이용하여 문자를 입력하는 기술을 이용한 동작 기반 문자 입력 장치 및 그 방법에 관한 것이다. 본 발명은 동작을 이용한 문자 입력의 효율성을 향상시킬 수 있는 방법과 동작에 고유한 속성을 이용하여 입력 콘텐츠의 형태를 다양화할 수 있는 방법을 제시하였다. 본 발명의 실시예에 따른 동작 기반 문자 입력 장치는 사용자의 동작 변화를 센서를 이용하여 신호로 검출하는 입력부; 및 입력부의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리는 동작 해석 응용수단을 포함하는 것을 특징으로 한다.The present invention relates to a motion-based text input device and a method thereof, and more particularly, to a motion-based text input device and a method using a technology for inputting text using motion recognition based on an inertial sensor. The present invention provides a method for improving the efficiency of text input using an operation and a method for diversifying the form of input content using attributes unique to the operation. Motion-based text input device according to an embodiment of the present invention comprises an input unit for detecting a change in the user's motion as a signal using a sensor; And a motion analysis application means for recognizing a character by distinguishing an operation having a meaning from a signal of the input unit and informing a user of the time when the operation is divided.
관성 센서, 동작 센싱, 동작 구분, 문자 입력 Inertial sensor, motion sensing, motion separator, character input
Description
본 발명은 동작 기반 문자 입력 장치 및 그 방법에 관한 것으로, 특히 관성 센서를 기반으로 한 동작 인식을 이용하여 문자를 입력하는 기술을 이용한 동작 기반 문자 입력 장치 및 그 방법에 관한 것이다.The present invention relates to a motion-based text input device and a method thereof, and more particularly, to a motion-based text input device and a method using a technology for inputting text using motion recognition based on an inertial sensor.
본 발명은 지식경제부 및 정보통신연구진흥원의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-039-01, 과제명:인간-로봇 상호작용 매개 기술 개발].The present invention is derived from the research conducted as part of the IT source technology development project of the Ministry of Knowledge Economy and the Ministry of Information and Communication Research and Development. [Task management number: 2008-F-039-01, Task name: Development of human-robot interaction mediation technology] ].
근래에 들어 가전 기기들의 정보화가 이루어지고, 그에 따른 보다 많은 정보를 처리할 수 있게 됨으로써 일상생활 속에서 보다 편하게 가전 기기로 문자를 입력할 필요성이 커졌다. 이러한 필요성은 가전 기기 뿐만 아니라 모바일 장치에서도 요구되고 있다. 예를 들어, 이동전화기는 단문 전송에서부터 웹 브라우징에 이르기까지 보다 다변화 및 확대되어 가고 있는 실정이고, 그에 따라 보다 편리한 문자 입력기능의 필요성이 높아지고 있다.In recent years, the informatization of home appliances has been made, and as a result, more information can be processed, thereby increasing the need to input text into home appliances more conveniently in daily life. This need is demanded not only in home appliances but also in mobile devices. For example, mobile phones are becoming more diversified and expanded from short text transmission to web browsing. Accordingly, the need for more convenient text input functions is increasing.
종래의 모바일 기기에서의 문자 입력 방법은 대개 키보드 입력 방식을 취한 다. 이러한 방식은 여러 가지의 편의 기능을 함께 사용할 경우 보다 효과적으로 단문 메시지를 입력할 수 있다는 장점을 지닌다. 그러나, 키보드 입력 방식은 소형 기기일수록 키보드 버튼의 크기가 작아지고, 해당 키보드 편성에 익숙해지는데 시간이 많이 걸린다는 단점이 갖는다. 이러한 단점은 특히 노령의 사용자에게는 더욱 큰 장벽으로 작용한다. 또 상술한 문자 입력 대상 장치를 닌텐도 Wii와 같은 게임기나 IPTV와 같은 정보 가전 기기로 확대해 생각해 보면, 키보드를 이용한 문자 입력은 자연스럽지 못하여 불편함을 초래할 수 있다. 이는 장치를 제어하기 위한 리모트 컨트롤러가 더 많은 버튼을 포함해야 하기 때문에 형태가 복잡해지며 사용법도 그에 따라 복잡해지기 때문이다. 이처럼 복잡한 인터페이스는 사용상에 혼돈과 불편함을 초래하기 쉽다.Character input methods in a conventional mobile device usually take a keyboard input method. This method has a merit of inputting a short message more effectively when using various convenience functions together. However, the keyboard input method has a disadvantage that the smaller the device, the smaller the size of the keyboard button, and the longer it takes to get used to the keyboard configuration. This disadvantage is especially a great barrier for older users. In addition, when the above-described character input target device is expanded to an information appliance such as a game machine such as Nintendo Wii or an IPTV, character input using a keyboard may be unnatural and may cause inconvenience. This is because the remote controller for controlling the device has to include more buttons, which makes the form complicated and the usage accordingly. Such complex interfaces are prone to confusion and inconvenience in use.
그래서, 최근 보다 직관적인 입력 인터페이스로서 동작을 이용한 문자 입력 방법이 일부 제안되고 있다. 예를 들어, 가속도 센서를 이용하여 동작 신호를 측정하고 이를 처리하여 동작을 통해 입력한 획을 구분하는 방법, 가속도 센서와 각속도 센서를 포함하는 휴대 장치를 이용하여 사용자의 동작 신호를 검출 인식하고 인식 결과를 장치 제어에 활용하는 방법 등이 있다. Thus, some recent text input methods using motions have been proposed as a more intuitive input interface. For example, a method of measuring an operation signal using an acceleration sensor and processing the same to classify strokes input through the operation, and detecting and recognizing and recognizing a user's operation signal using a portable device including an acceleration sensor and an angular velocity sensor. The results can be used to control the device.
그러나, 종래의 동작을 기반으로 한 문자 인식 방법은 문자 입력의 효율성을 제고하고 동작 입력의 특성을 추가적으로 활용하는데 미치지 못하였다. 기존 기술이 해결하지 못한 동작 기반 문자 입력의 문제점은 다음과 같다.However, the character recognition method based on the conventional motion did not improve the efficiency of the text input and further utilize the characteristics of the motion input. Problems of motion-based character input that the existing technology has not solved are as follows.
첫째, 동작 세분화 작용으로 인한 입력 지연 현상 때문에 문자 입력 속도가 느려진다. 동작 인식을 위해서는 동작을 세분화해야 하는데 세분화 기술이 제대로 동작하기 위해서 동작과 동작 사이에 휴지기가 반드시 필요하다. 즉, 사용자는 동작과 동작 사이에 잠시 동안 동작을 멈추거나 동작의 강도를 미세한 수준으로 유지해 주어야만 하는 것이다. 사용자는 동작을 어느 시간만큼 멈추고 있어야 하는지 본능적으로 알기 어렵기 때문에 시스템을 사용하는 과정에서 스스로 적당한 휴지기 길이를 알아서 습득해야 한다. 이러한 제약 사항은 단순하여 사용상에 큰 제약이 되지 않는다고 생각할 수도 있으나, 사용 초기에 사용자가 생소함 때문에 큰 불편을 느낄 수 있고 사용 방법에 익숙해지기 전에 포기해 버릴 가능성도 높다. 또한, 익숙해진 사용자라 하더라도 연속으로 문자를 입력하는 경우 자신이 입력한 동작이 제대로 구분되도록 최대한 동작 휴지기를 활용하려는 성향이 커질 수 있으므로 문자 입력 속도가 늦어질 수 있다.First, character input speed is slowed down due to input delay due to motion segmentation. In order to recognize the motion, the motion must be subdivided. In order for the segmentation technology to work properly, a pause is required between the motion and the motion. That is, the user must stop the motion for a while or maintain the intensity of the motion at a minute level between the motion and the motion. It is difficult for the user to instinctively know how long the motion should be stopped, so the user needs to learn the appropriate length of the rest period while using the system. You may think that these constraints are simple and do not impose any restrictions on use, but you may feel uncomfortable because you are new to the beginning, and you may give up before you get used to them. In addition, even if the user is familiar with the continuous input of the character, the type of his input may be slowed down because the propensity to utilize the maximum operation pause can be increased to properly distinguish the operation.
둘째, 동작은 직관적이지만 다수의 문자를 입력하려면 육체적인 피로가 동반된다. 동작을 통해 문자를 입력하는 것이 다른 방법에 비해 보다 직관적인 것은 사실이지만 반복적으로 입력 행위를 수행하다 보면 신체적으로 무리가 따를 수 밖에 없다.Second, the operation is intuitive, but to enter a large number of characters is accompanied by physical fatigue. It is true that entering text through gestures is more intuitive than other methods, but it can only be physically followed by repeated typing.
셋째, 동작이 표현할 수 있는 부가 정보를 활용하는 방안을 제시하지 못하였다. 동작은 빠르기, 크기 등 동작 속성을 포함하며, 이러한 동작 속성은 부가적인 정보를 표현하는 근거가 될 수 있다. 동일한 문자를 입력하더라도 동작의 속성에 따라 문자의 화면 표시 형태 또는 음성 표시 방법에 차별화 요소를 첨가할 수 있을 것이다.Third, it could not suggest a way to utilize additional information that can be expressed by the action. Actions include action attributes such as speed and size, and these action attributes may be the basis for expressing additional information. Even if the same character is input, a differentiation factor may be added to the screen display form or the voice display method of the character according to the attribute of the operation.
따라서, 본 발명에서는 앞서 언급한 기존 기술들의 한계점 및 미비점을 보완함으로써 문자 입력 속도를 높이고, 동작 수행의 피로도를 낮추며, 동작 특유의 속성 정보를 기반으로 확장된 정보 전달을 성취할 수 있는 방법을 제안한다.Accordingly, the present invention proposes a method for increasing the character input speed, reducing the fatigue of performing the operation, and achieving the extended information transmission based on the attribute information unique to the motion by supplementing the limitations and deficiencies of the above-mentioned existing technologies. do.
본 발명의 목적은 동작을 이용한 문자 입력의 효율성을 향상시킬 수 있는 방법과 동작에 고유한 속성을 이용하여 입력 콘텐츠의 형태를 다양화할 수 있는 방법을 제공하는 것이다.An object of the present invention is to provide a method for improving the efficiency of text input using an operation and a method for diversifying the form of input content using attributes unique to the operation.
본 발명의 실시예에 따른 동작 기반 문자 입력 장치는 사용자의 동작 변화를 센서를 이용하여 신호로 검출하는 입력부; 및 입력부의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리는 동작 해석 응용수단을 포함하는 것을 특징으로 한다.Motion-based text input device according to an embodiment of the present invention comprises an input unit for detecting a change in the user's motion as a signal using a sensor; And a motion analysis application means for recognizing a character by distinguishing an operation having a meaning from a signal of the input unit and informing a user of the time when the operation is divided.
또, 동작 해석 응용수단은, 입력부의 신호로부터 사용자의 동작 방식을 분석하여 동작을 속성화하는 것이 바람직하다.The motion analysis application means preferably analyzes the user's motion method from the signal of the input unit and attributes the motion.
또, 동작 해석 응용수단은, 입력부의 신호로부터 의미를 갖는 동작 구간을 구분하고, 구분된 동작 구간의 신호를 해석하여 동작을 인식한 동작데이터를 생성하는 동작 해석부; 및 동작 해석부로부터 동작을 구분한 시점을 전달받고, 해당 동작을 구분한 사실을 사용자에게 알림으로써 사용자에 의해서 다음 동작을 입력하도록 하는 피드백부;를 포함하는 것이 바람직하다.The motion analysis application means may further include: a motion analysis unit for distinguishing an operation section having a meaning from a signal of an input unit, and analyzing the signals of the divided operation sections to generate motion data that recognizes the operation; And a feedback unit for receiving a time point of dividing an action from the action analyzing unit and notifying the user of the fact that the action is divided, so as to input a next action by the user.
또, 동작 해석부의 동작데이터는, 입력부의 신호로부터 사용자의 동작 방식 을 분석하여 동작을 속성화한 동작 속성 정보를 포함하는 것이 바람직하다.In addition, the motion data of the motion analysis unit preferably includes motion attribute information obtained by analyzing a user's motion method from the signal of the input unit and attributeing the motion.
또, 동작데이터 근거로 동작의 속성 정보에 해당하는 콘텐츠를 생성하여 표시되도록 하는 동작 응용부;를 추가로 포함하는 것이 바람직하다.The apparatus may further include an operation application unit for generating and displaying content corresponding to the attribute information of the operation based on the operation data.
또, 동작 응용부는, 동작 속성 정보를 기반으로 화상, 음성, 진동 중 적어도 하나 이상의 콘텐츠를 생성하는 콘텐츠 생성부; 및 생성된 콘텐츠를 외부로 표출하는 표시부를 포함하는 것이 바람직하다.The operation application unit may further include: a content generation unit generating at least one content of an image, a voice, and a vibration based on the operation attribute information; And a display unit that displays the generated content to the outside.
또, 동작 응용부의 콘텐츠 생성 방식은, 동작데이터의 단위별로 즉각 개별 콘텐츠를 생성하는 단위 콘텐츠 생성 모드, 동작데이터의 단위를 축척하여 종합 콘텐츠를 생성하는 종합 콘텐츠 생성 모드, 동작데이터를 근거로 해당 입력 동작을 대치하는 콘텐츠를 생성하는 대체 콘텐츠 생성 모드 중 적어도 하나 이상을 포함하는 것이 바람직하다.In addition, the content generation method of the operation application unit includes a unit content generation mode for instantly generating individual content for each unit of motion data, a comprehensive content generation mode for generating comprehensive content by scaling a unit of motion data, and a corresponding input based on the motion data. It is preferred to include at least one or more of the alternative content generation mode for generating content to replace the operation.
또, 센서는, 가속도 센서, 각속도센서 중 적어도 하나 이상을 갖는 관성 센서인 것이 바람직하다.Moreover, it is preferable that a sensor is an inertial sensor which has at least 1 or more of an acceleration sensor and an angular velocity sensor.
한편, 동작 기반 문자 입력 방법은 사용자의 동작 변화를 센서를 이용하여 검출한 신호로 입력 받는 입력 단계; 입력 단계의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리는 동작 해석 응용 단계를 포함하는 것을 특징으로 한다.On the other hand, the motion-based text input method comprises the input step of receiving a change in the user's motion as a signal detected by the sensor; Characterized by distinguishing the action having a meaning from the signal of the input step, characterized in that it comprises a motion analysis application step for notifying the user of the time when the action is separated.
또, 동작 해석 응용단계는, 입력 단계의 신호로부터 사용자의 동작 방식을 분석하여 동작을 속성화하는 것이 바람직하다.In the motion analysis application step, it is preferable to analyze the motion method of the user from the signal of the input step to attribute the motion.
또, 동작 해석 응용 단계는, 입력 단계의 신호로부터 의미를 갖는 동작 구간 을 구분하고, 구분된 동작 구간의 신호를 해석하여 동작을 인식한 동작데이터를 생성하는 동작 해석 단계; 및 동작 해석 단계에서 동작을 구분한 시점을 근거로 해당 동작을 구분한 사실을 사용자에게 알림으로써 사용자에 의해서 다음 동작을 입력하도록 하는 피드백 단계;를 포함하는 것이 바람직하다.The motion analysis application step may include: a motion analysis step of distinguishing an operation section having a meaning from a signal of an input step, and analyzing motion signals of the divided operation sections to generate motion data that recognizes the operation; And a feedback step of inputting the next operation by the user by notifying the user of the fact that the operation is classified based on the time point at which the operation is divided in the operation analysis step.
또. 동작 해석 단계의 동작데이터는, 입력 단계의 신호로부터 사용자의 동작 방식을 분석하여 동작을 속성화한 동작 속성 정보를 포함하는 것이 바람직하다.In addition. The motion data of the motion analysis step preferably includes motion attribute information obtained by analyzing the user's motion method from the signal of the input step to attribute the motion.
또, 동작데이터 근거로 동작의 속성 정보에 해당하는 콘텐츠를 생성하여 표시되도록 하는 동작 응용 단계를 추가로 포함하는 것이 바람직하다.The method may further include an operation application step of generating and displaying content corresponding to attribute information of the operation on the basis of the operation data.
또, 동작 응용 단계는, 동작 속성 정보를 기반으로 화상, 음성, 진동 중 적어도 하나 이상의 콘텐츠를 생성하는 콘텐츠 생성 단계; 및 생성된 콘텐츠를 외부로 표출하는 표시 단계를 포함하는 것이 바람직하다.The operation application step may further include: a content generation step of generating at least one content of image, sound, and vibration based on the operation attribute information; And a display step of expressing the generated content to the outside.
또, 동작 응용 단계의 콘텐츠 생성 방식은, 동작데이터의 단위별로 즉각 개별 콘텐츠를 생성하는 단위 콘텐츠 생성 모드, 동작데이터의 단위를 축척하여 종합 콘텐츠를 생성하는 종합 콘텐츠 생성 모드, 동작데이터를 근거로 해당 입력 동작을 대치하는 콘텐츠를 생성하는 대체 콘텐츠 생성 모드 중 적어도 하나 이상을 포함하는 것이 바람직하다.In addition, the content generation method of the operation application step is applicable based on a unit content generation mode for instantly generating individual content for each unit of motion data, a comprehensive content generation mode for generating comprehensive content by scaling a unit of motion data, and operation data. It is preferable to include at least one or more of the alternative content generation mode for generating content that replaces the input operation.
본 발명에 따르면, 동작 구간 분리 피드백은 최대한 빠른 동작 입력 가능 시점을 사용자에게 지시해 줌으로써 동작 입력 속도를 향상시킬 뿐 아니라, 사용자가 갖는 동작 간 휴지기에 대한 인지적 부담을 줄여준다. According to the present invention, the motion segmentation feedback not only improves the motion input speed by instructing the user of the fastest possible operation input time, but also reduces the cognitive burden on the user's pause between motions.
또, 본 발명은 동작 속성을 이용한 콘텐츠 확장 방법은 동작 고유의 특성을 콘텐츠에 반영함으로써 보다 감성적인 콘텐츠 표현을 가능하게 할 뿐 아니라 간단한 동작으로 긴 문장을 입력할 수 있는 수단을 제공하므로 동작을 기반으로 한 콘텐츠 입력의 육체적 부담을 줄여줄 수 있다. In addition, the present invention provides a method for expanding a content using an action property because it provides a means for inputting a long sentence with a simple action as well as enabling a more emotional content expression by reflecting an action-specific characteristic to the content. Therefore, the physical burden of inputting a content can be reduced.
결과적으로 본 발명은 동작 기반 문자 입력의 단점을 최소화하고 동작 고유의 유용성을 확대함으로써 관련 기술의 상용화와 시장 형성에 기여하리라 사료된다.As a result, the present invention is expected to contribute to the commercialization and market formation of related technologies by minimizing the disadvantages of motion-based text input and expanding the inherent usefulness.
이하에서는 첨부된 도면들을 참조하여 본 발명을 보다 상세하게 설명하도록 한다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.Hereinafter, with reference to the accompanying drawings to describe the present invention in more detail. In describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
도 1은 본 발명의 실시예에 따른 동작 기반 문자 입력 장치를 개략적으로 도시한 도면이고, 도 2는 동작 기반 문자 입력시 동작 입력 지연 시간을 예시한 도면이고, 도 3 및 도 4는 도 1에 따른 동작 기반 문자 입력 장치의 문자 입력 예를 도시한 도면이고, 도 5는 본 발명에 따른 사전DB 내용을 예시한 도면이고, 도 6은 본 발명에 따른 대체 콘텐츠 생성 과정을 예시한 도면이고, 도 7은 본 발명의 실시예에 따른 동작 기반 문자 입력 장치의 동작 예를 도시한 도면이다. 1 is a view schematically showing a motion-based text input apparatus according to an embodiment of the present invention, FIG. 2 is a view illustrating a motion input delay time when inputting a motion-based text, and FIGS. 3 and 4 are shown in FIG. 1. FIG. 5 is a diagram illustrating an example of a text input of an operation-based text input apparatus. FIG. 5 is a diagram illustrating contents of a dictionary DB according to the present invention. FIG. 6 is a diagram illustrating a process of generating alternative content according to the present invention. 7 is a diagram illustrating an operation example of an operation-based character input device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일실시예에 따른 동작 기반 문자 입력 장치는 입력부(10), 통신부(30), 동작 해석 응용수단(100), 사전부(200), 사전 편집기(50)를 포함하여 구성된다.Referring to FIG. 1, a motion-based text input device according to an embodiment of the present invention may include an
입력부(10)는 사용자의 동작 변화를 구비된 센서(20)를 이용하여 신호로써 검출하게 된다. 즉, 입력부(10)는 사람의 동작 변화를 감지하는 센서(20)를 구비하고, 그 센서(20)에 의해서 감지된 사용자의 동작 변화를 처리하여 신호를 생성하게 된다. 입력부(10)는 생성된 신호를 하술된 통신부(30)를 통해 동작 해석 응용수단(100)으로 전달하게 된다. 본 발명에서 입력부(10)는 휴대 가능한 형태로 구성되는 것이 바람직하다. 예를 들어, 리모트 콘트롤러 또는 PDA 등을 채용할 수 있을 것이다.The
여기서, 센서(20)는 가속도 센서, 각속도센서 중 적어도 하나 이상을 갖는 관성 센서를 채용하는 것이 바람직하다. 그래서 입력부(10)는 사용자의 동작방향 또는 동작 강도, 위치 등을 해당 센서(20)를 통해 감지해서 신호로 생성하게 된다. Here, the
통신부(30)는 입력부(10)에서 발생된 검출 신호를 데이터의 형태로 전달하도록 구성되는데, 통신부(30)는 전송 데이터를 유선 또는 무선 전송 방식으로 전송하도록 구성될 수 있다. 예를 들어, 통신부(30)는 직렬유선인터페이스(RS-232C), 지그비(ZigBee), 블루투스(Bluetooth) 등 다양한 데이터 전송 방식을 활용할 수 있다.The
여기서, 통신부(30)의 전송 데이터는 부가적인 정보를 포함할 수 있으나, 통 신부(30)는 기본적으로 입력부(10)의 센서(20)에서의 측정값을 샘플링율(Sampling Rate)에 따른 전송 속도로 전송하는 역할을 한다. 예를 들어, 입력부(10)에 센서로서 3축 가속도 센서를 장착하고 있다면, 하나의 데이터 전송 요소는 세 개의 숫자(x, y, z 각 축의 가속도 센서 측정값)를 포함하게 될 것이다.Here, the transmission data of the
동작 해석 응용수단(100)은 상술한 입력부(10)의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리도록 구성된다. The motion analysis application means 100 is configured to recognize a character by distinguishing an operation having a meaning from the signal of the
또, 동작 해석 응용수단(100)은 도면상에 입력부(10)와 기능상 분리된 그림으로 그려져 있으나, 실제 실시할 때에는 입력부(10) 내에 내장될 수도 있다. 이 경우 통신부(30)는 장치 내부 데이터 전송 통로가 될 것이다.In addition, although the motion analysis application means 100 is drawn in the figure as a functionally separated picture from the
또한, 동작 해석 응용수단(100)은 입력부(10)의 신호로부터 의미를 갖는 동작 구간을 구분하고, 구분된 동작 구간의 신호를 해석하여 동작을 인식한 동작데이터를 생성하는 동작 해석부(120), 동작 해석부(120)로부터 동작을 구분한 시점을 전달받고, 해당 동작을 구분한 사실을 사용자에게 알림으로써 사용자에 의해서 다음 동작을 입력하도록 하는 피드백부(110)를 포함하여 구성된다.In addition, the operation analysis application means 100 distinguishes an operation section having a meaning from a signal of the
또, 동작 해석 응용수단(100)은 동작데이터 근거로 동작의 속성 정보에 해당하는 콘텐츠를 생성하여 표시되도록 하는 동작 응용부(130)를 추가로 포함하는 것이 바람직하다. 이러한 동작 응용부(130)에 대한 설명은 하술 하도록 한다. In addition, the operation analysis application means 100 preferably further includes an
사전부(200)는 동작데이터 등을 저장, 검색, 출력 등을 담당하게 된다. 사전부(200)는 데이터를 저장하는 사전 DB(230), 데이터를 사전 DB(230)에 저장시키는 사전 등록부(210), 데이터를 출력하는 사전 검색부(S220)를 포함하여 구성된다. 이러한 사전부(200)에 대한 세부 구성은 데이터의 입출력을 처리하는 것이라면 어떠한 형식이라도 가능할 것이다.The
도 2 및 도 3을 참조하면, 동작 해석부(120)는 입력부(10)를 통해 동작이 입력되면, 수신한 신호를 해석하고, 그에 따라 의미 있는 동작 구간을 분리하여 어떤 동작이 이루어졌는지 인식하는 기능을 수행한다. 동작 구간 분리는 동작 사이의 동작 휴지기를 감지하여 동작이 실제 이루어진 신호 구간을 분리해내는 기능이다. 예컨데, 도 3 e1, e2)에 도시된 것처럼 사용자가 입력부(10)를 이용하여 글자 ‘가’와 ‘나’를 썼을 경우, 동작 해석부(120)는 두 글자 사이의 동작 휴지기를 감지하여 각 글자가 쓰여진 신호 구간을 뽑아내는 것이다.Referring to FIGS. 2 and 3, when an operation is input through the
그러나, 통상 관성 센서 기반의 동작구간 분리 기능은 통상적으로 기능상의 한계로 인해 사용자가 동작과 동작 사이에 일정 시간 동안 동작을 멈춰주어야 한다는 제약 사항을 갖는다. 예컨데, 사용자는 일반적으로 동작 인식이 완료되어 그 결과를 확인한 시점, 즉 도면부호 c와 d시점 사이에 다음 동작을 시작한다. 보다 동작 입력에 숙련된 경우 심리적으로 동작 구분이 완료되었을 것이라는 추측 하에 다음 동작을 입력한다면 도면부호 a에서 b사이의 어느 시점부터 도면 부호 c시점 사이에 다음 동작 입력이 시작될 것이다.However, the inertial sensor-based operation section separation function typically has a limitation that the user must stop the operation for a certain time between the operation due to the functional limitation. For example, the user generally starts the next operation between the time when the motion recognition is completed and the result is confirmed, that is, the time points c and d. If the user is more experienced in inputting a motion, the next motion input will be started between the time points c and c at some point between a and b if he inputs the next motion on the assumption that psychological classification has been completed.
예를 들어, 도 3 e3)에 도시된 것처럼 사용자가 연속되는 글자를 너무 빨리 써버리면, 동작 해석부(120)는 두 동작을 구별해낼 수 없다. 따라서, 사용자는 동 작의 확실한 구분을 위해 동작과 동작 사이에 의도적으로 충분한 휴지기를 갖게 되는데 이로 인해 동작 입력 속도가 저하된다.For example, if the user writes consecutive letters too quickly, as shown in FIG. 3 e3), the
따라서, 본 발명에서 피드백부(110)는 동작이 구분되는 시점을 즉시 사용자에게 알려줌으로써 사용자가 다음 동작을 입력해도 된다는 사실을 인지할 수 있도록 해주게 된다. 이러한 처리 과정을 살펴보면, 동작 해석부(120)는 동작을 구분한 시점에 피드백부(110)로 동작 구분 사실을 알린다. 피드백부(110)는 시각(화면 표시, 불빛 등), 청각(버저음 등) 또는 촉각(입력장치 진동 등)을 통해 사용자에게 동작 구분 사실을 알린다. 이처럼 사용자는 피드백을 인지하는 즉시 다음 동작을 입력할 수 있으므로, 동작 간 휴지기에 대한 부가적인 인지적 고려 없이 동작을 입력할 수 있으므로 동작 구분 시점부터 사용자의 다음 동작 입력까지의 지연 시간을 최소화할 수 있다.Therefore, in the present invention, the
이처럼, 본 발명에 의하여 동작 구간 분리 피드백이 제공되면 사용자는 안전하게 도면부호 a와 b시점 사이에 다음 동작 입력을 시작할 수 있으므로, 동작 입력 속도는 크게 향상될 수 있다.As such, when the operation section separation feedback is provided according to the present invention, the user can safely start the next operation input between the points a and b, and thus the operation input speed can be greatly improved.
한편, 동작 응용부(130)는 동작데이터를 근거로 동작의 속성 정보에 해당하는 콘텐츠를 생성하여 표시하게 된다. 즉, 동작 해석부(120)는 구분된 동작 구간의 신호를 해석하고, 그 동작의 내용을 파악하여 동작데이터를 생성한다. 여기서, 동작데이터는 동작의 의미, 즉 ‘A’를 쓴 것인지 ‘B’를 쓴 것 인지를 나타내는 의 미 정보와 함께 동작 속성(Motion Property) 정보를 포함한다. 이처럼 기존의 동작 기반 문자 입력 방법들과 달리 본 발명에서는 동작의 속성화(Characterization)를 통한 동작 속성 정보 추출 과정을 포함한다.On the other hand, the
여기서, 동작 속성은 동작이 이루어진 방식에 대한 정보를 가리킨다. 예를 들면, 동작을 얼마나 빨리 했는가, 또는 동작을 얼마나 크게 했는가와 같은 정보다. 본 발명의 일실시 예에서는 다음과 같은 동작의 속성을 추출할 수 있다. Here, the operation attribute refers to information on how the operation was made. For example, how fast did the action or how big the action was. In an embodiment of the present invention, properties of the following operation may be extracted.
임의의 동작 M에 대하여; For any operation M;
- V(M의 빠르기) = (M의 이동 길이) / (M의 지속 시간)-V (M's fast) = (M's travel length) / (M's duration)
- L(M의 크기 ) = (M의 이동 길이) / (M과 동일한 동작들의 평균 이동 길이)L (size of M) = (M travel length) / (average travel length of operations equal to M)
- S(M의 날카로움): 동작이 그리는 궤적을 구성하는 단위 선분들이 연속적으로 이루는 각도의 평균값. 값이 클수록 M은 날카로운 동작이라고 판단할 수 있다. S (sharpness of M): The average value of the angles made by the unit segments that make up the trajectory that the motion draws. The larger the value, the more it can be determined that M is a sharp motion.
예를 들어, M이 하트문자(‘♡’)를 그린 동작이라고 하자. For example, let's say that M draws a heart character ('♡').
도 4 f1)에 도시된 것처럼, 하트문자를 크고 빠르게 쓰면, V와 L의 값은 커진다. 그리고 도 4 f2)에 도시된 거처럼, 하트문자를 크고 느리게 쓰면, V의 값은 작아지고 L의 값은 커진다. 또, 도 4 f3)에서처럼 하트문자를 느리고 작게 쓰면 V의 값은 더 작아지고 L의 값도 작아진다. 이처럼, 사용자 동작을 수행하는 방법에 따라 예시한 동작 속성값들은 변화하게 된다.As shown in Fig. 4 f1), when the heart character is written large and fast, the values of V and L become large. And as shown in Fig. 4 f2), when the heart character is written large and slow, the value of V becomes small and the value of L becomes large. Also, as shown in FIG. 4 f3), when the heart character is slow and small, the value of V becomes smaller and the value of L becomes smaller. As such, the illustrated action attribute values change according to a method of performing a user action.
그래서, 동작 응용부(130)는 동작 해석부(120)로 부터 전달받은 동작데이터 를 기반으로 콘텐츠를 생성하고 이를 화면에 표시하거나 음성으로 합성하거나 원격 장치로 전송하는 등의 동작 활용 기능을 수행한다. Thus, the
또, 동작 응용부(130)는 상술한 방식에 따라 콘텐츠를 생성하는 콘텐츠 생성부(132) 및 생성된 콘텐츠를 표시하는 표시부(134)를 포함하여 구성된다. 콘텐츠 생성부(132)는 동작데이터의 내용을 기반으로 다양한 콘텐츠를 생성하는 역할을 수행한다. 생성된 콘텐츠는 표시부(134)를 통해 사용자 또는 원격 장치(예컨대, TV, 모니터 등)로 전달된다. 이러한 콘텐츠는 동작 해석 응용수단(100)을 저장 실행하는 장치에 화상, 음성, 또는 진동 등으로 표시될 수도 있고, 사용자가 지정한 원격 장치로 전송될 수도 있다.In addition, the
여기서, 동작 응용부(130)의 콘텐츠 생성 방식은, 동작데이터의 단위별로 즉각 개별 콘텐츠를 생성하는 단위 콘텐츠 생성 모드, 동작데이터의 단위를 축척하여 종합 콘텐츠를 생성하는 종합 콘텐츠 생성 모드, 동작데이터를 근거로 해당 입력 동작을 대치하는 콘텐츠를 생성하는 대체 콘텐츠 생성 모드 중 적어도 하나 이상을 포함하는 것이 바람직하다. Herein, the content generation method of the
이하, 콘텐츠 생성부의 콘텐츠 생성 방식에 따른 세가지 모드(Mode)를 예시하면 다음과 같다. Hereinafter, three modes according to the content generation method of the content generation unit will be described.
1) 단위 콘텐츠 생성 모드1) Unit Content Creation Mode
단위 콘텐츠 생성 모드는 단위 입력 동작데이터를 즉시 개별 콘텐츠로 생성하는 모드이다. 예를 들어, 사용자가 크고 빠른 동작으로 하트문자를 입력하면, 동작데이터는 [C=‘♡’, V=80, L=150]과 같은 데이터를 담고 있게 된다. 콘텐츠 생성부(132)는 C의 값으로 저장되어 있는 문자를 그대로 콘텐츠로 만들되, 문자의 크기와 색상 등 문자 속성을 V와 L의 값을 참조하여 상황에 따라 다르게 생성한다. 매 입력 동작에 대하여 이와 같은 콘텐츠 생성 절차를 수행하는 것이 단위 콘텐츠 생성 모드이다.The unit content generation mode is a mode in which unit input operation data is immediately generated as individual content. For example, when a user inputs a heart character in a large and fast motion, the motion data contains data such as [C = '♡', V = 80, L = 150]. The
2) 종합 콘텐츠 생성 모드2) Comprehensive Content Creation Mode
단위 입력 동작데이터를 축적하여 단어 단위, 문장 단위, 또는 문서 단위의 콘텐츠로 생성하는 모드이다. 예를 들어, N개의 문자로 이루어진 단어의 경우, 각 문자를 쓰는 동작의 속성을 평균하여 그 값에 따라 서로 다른 형태로 단어 콘텐츠를 생성할 수 있다. 문장의 경우 및 문서의 경우 각 구성 문자를 쓸 때 행한 동작의 속성을 평균하여 해당 콘텐츠를 서로 다른 형태로 생성할 수 있다.In this mode, unit input operation data is accumulated and generated in word units, sentence units, or document units. For example, in the case of a word consisting of N letters, the word content may be generated in a different form according to the value by averaging the attributes of each letter writing operation. In the case of a sentence and a document, the corresponding content may be generated in a different form by averaging the attributes of an operation performed when each component character is written.
3) 대체콘텐츠 생성 모드3) Alternative Content Creation Mode
대체콘텐츠 생성 모드는 입력 동작데이터를 근거로 하여 입력 동작을 대치하는 콘텐츠를 생성하는 모드이다. 상술한 1)의 예에서 보듯이 사용자가 특정한 동작 속성으로 하트문자를 입력했다고 했을 경우, 콘텐츠 생성부(132)는 그 문자를 적절한 대체 콘텐츠로 변환하여 생성할 수 있다. 예를 들어, 하트문자를 작고 느리게 쓰면 “I Like You”라는 문장을 생성하고, 하트를 작고 빠르게 쓰면 “ I need You ”라는 문장을 생성하고, 크게 쓰면 “ I Love You”라는 문장을 생성할 수 있다. 즉, 동작의 의미와 속성을 반영한 새로운 대체콘텐츠를 생성하는 동작 모드이다.The alternative content generation mode is a mode for generating content that replaces the input operation based on the input operation data. As shown in the above example 1), when the user inputs a heart character as a specific operation attribute, the
상술한 각 동작모드로의 전환은 동작모드 전환을 위한 별도의 동작을 사전에 설정해 놓고 활용하면 된다. 예를 들어, 입력부(10)를 이용하요 사용자가 원을 두 번 그리는 동작은 단위 콘텐츠 생성 모드, 사각형을 그리는 동작은 종합 콘텐츠 생성 모드, 별을 그리는 동작은 대체 콘텐츠 생성 모드로 동작하도록 만드는 것으로 설정해 놓을 수 있다. 사용자가 “너무너무 사랑해. 너의 철수가”라는 메시지를 작성하고 싶다면, 별을 그려서 대체 콘텐츠 생성 모드로 옮긴 다음 큰 동작으로 하트문자를 그려서 대체 콘텐츠인 “너무너무 사랑해.”를 입력하고, 사각형을 그려서 종합 콘텐츠 생성 모드로 옮긴 다음 “너의 철수가”의 자음 모음을 순서대로 동작으로 입력하면 된다.Switching to each operation mode described above may be performed by setting a separate operation for switching operation modes in advance. For example, using the
도 5를 참조하면, 상술한 사전 DB(230)는 상술한 콘텐츠를 생성하기 위한 동작 데이터 등을 저장하게 된다. 상술한 도 5의 도면부호 201과 202에서 보듯이 사전 DB(230)는 입력 문자의 내용인 C의 값과 동작 속성값 V, L의 범위에 따라 어떤 대체콘텐츠가 생성되어야 하는지 표현한다. 그리고, 도 5의 도면부호 203에서 보듯이 동작 속성값의 범위를 지정하지 않으면 입력 동작의 속성을 고려하지 않고 대체 콘텐츠를 생성하게 된다. 이와 같이 동작 내용과 동작 속성값들을 선택적으로 설정함으로써 원하는 대로 대체콘텐츠를 생성하도록 할 수 있다. 도 5의 대체콘텐츠 내용을 보면 콘텐츠의 내용 외에 속성이 지정되어 있는 것을 볼 수 있다. 도면부호 201의 대체콘텐츠에서 FS는 폰트의 크기, FC는 폰트의 색상을 나타낸다. 도면부호 202의 대체콘텐츠의 Vol은 음향의 크기를 나타낸다. 이와 같이 대체콘텐츠의 속성을 선택적으로 지정함으로써 화면에 표시하는 경우 콘텐츠의 모양을 지정할 수 있고 음성합성을 통해 표시하는 경우 볼륨, 억양, 빠르기 등을 설정할 수도 있다.Referring to FIG. 5, the above-described
이러한 사전DB(230)의 내용 등록은 별도의 오프라인 수단을 통해 수행할 수도 있고 입력부(10)만을 이용하여 온라인으로 수행할 수도 있다. 오프라인 수단을 이용하는 경우, 사전편집기(50)를 실행한다. 사전편집기(50)는 테이블 형태로 사전 DB(230)의 내용을 열람 및 편집할 수 있는 수단이다. 별도의 컴퓨팅 장치 상에서 사전편집기(50)를 구동하여 동작데이터 매칭 조건과 대체콘텐츠를 입력함으로써 새로운 대체콘텐츠를 입력할 수 있다. 입력이 완료된 후에는 통신부(30)를 통해 사전 등록부(210)로 전송함으로써 사전DB(112)에 내용을 저장한다. Registration of the contents of the
여기서, 온라인으로 입력하는 경우의 처리 절차는 도 6에 보는 바와 같다. 사용자는 먼저 대체 콘텐츠 생성 기능을 가동하기 위한 사전 설정 동작을 수행한다(401~404). 대체 콘텐츠 생성 기능 실행 동작이 입력되면(405), 동작 모드는 대체콘텐츠 생성 모드 1번으로 변환되고(406), 대체콘텐츠 생성 모드가 개시되었음을 사용자에게 알린다(407). 알림은 피드백부(110)에 의해 실행되며 화상, 소리, 진동 등의 매개체를 통해 표시된다(408). 이후 입력되는 첫번째 동작은 임시 저장하는데(409), 이 입력 동작은 대체콘텐츠에 대한 키(Key)가 된다. 다시 피드백부(110)를 통해 사용자에게 현재 입력동작에 대한 대체콘텐츠를 입력하라는 통보를 표시한다(410). 이후 사용자가 입력하는 동작들은 해석 과정을 거쳐 축적 저장된다(411, 412, 416). 최종적으로 사용자가 대체콘텐츠 생성 과정을 종료하라는 동작을 입력하면(413), 409 단계에서 저장한 입력 동작과 416 단계를 통해 축적한 콘텐츠를 쌍으로 하여 사전 DB(230)에 저장한 후(414), 일반 작동 모드로 돌아가게 된다(415).Here, the processing procedure in the case of inputting online is as shown in FIG. The user first performs a preset operation for operating the alternative content generation function (401 to 404). When the alternative content generation function execution operation is input (405), the operation mode is converted to the alternative content generation mode 1 (406), and notifies the user that the alternative content generation mode has been started (407). The notification is executed by the
입력부(10)만을 이용한 대체콘텐츠 입력 작업을 통해서는 동작데이터 매칭 조건이나 대체콘텐츠 속성을 세세하게 입력하기 어렵다. 입력부(10)에 키보드가 부착된 경우에는 부가적인 입력 과정을 통해 이러한 값들을 추가 입력할 수 있을 것이다. 또는, 사전등록부(220)를 이용하여 오프라인 상에서 사전 DB(230)의 내용을 열람 및 편집하는 과정을 별도로 수행함으로써 온라인 상에서 등록한 대체콘텐츠의 내용을 보완/확장할 수 있다.Through the alternative content input operation using only the
이하, 본 발명의 실시예에 따른 동작 기반 문자 입력 장치의 동작 순서를 도면을 참조하여 설명하도록 한다. Hereinafter, an operation sequence of an action-based character input device according to an embodiment of the present invention will be described with reference to the drawings.
우선, 입력부(10)는 관성 센서(20)를 이용하여 사람의 동작 변화를 신호로 검출한다. 검출된 신호는 통신부(30)를 통해 동작 해석 응용수단(100)으로 전달된다(S10). 그러면 동작 해석부(120)는 동작 구분 여부를 판단한다(S20). 즉 동작 해 석부(120)는 입력부(10)를 통해 동작이 입력되면, 수신한 신호를 해석하고, 그에 따라 의미 있는 동작 구간을 분리하여 어떤 동작이 이루어졌는지 인식한다. 동작 해석부(120)는 동작이 구분되기 이전까지 대기 상태를 유지한다(S22). 예를 들어, 사용자는 하나의 동작을 입력부(10)를 이용하여 수행한 후 동작 휴지기를 갖게 된다.First, the
이때, 동작 해석부(120)는 입력된 동작을 구분하여 동작 데이터를 생성하게 되면, 구분한 시점을 피드백부(110)로 전달한다. 그러면 피드백부(110)는 해당 동작을 구분한 사실을 사용자에게 알림으로써 사용자에 의해서 다음 동작을 입력하도록 한다(S30). In this case, when the
다음, 동작 해석부(120)는 사전부(200)를 통해 구분된 동작 구간의 신호를 해석하고, 그 동작의 내용을 파악하여 동작데이터를 생성한다(S40). 예를 들어, 사용자가 'A'를 입력했다면, 동작 해석부(120)는 입력된 동작과 매칭되는 사전DB(230)의 동작데이터를 근거로 동작의 의미, 즉 ‘A’를 쓴 것인지 해석하게 된다. Next, the
이때, 동작 응용부(130)는 설정된 동작 모드를 확인하고(S50), 해당 모드에 따라 동작 속성(Motion Property) 정보와 사전DB(230)의 동작 데이터를 매칭시켜 해당 콘텐츠를 외부로 표시하게 된다(S60). At this time, the
여기서, 동작 응용부(130)는 설정된 동작 모드가 단위 콘텐츠 생성 모드인 경우, 단위 입력 동작데이터를 즉시 개별 콘텐츠로 생성하여 표시하게 된다. 예를 들어, 사용자가 크고 빠른 동작으로 하트문자를 입력하면, 동작데이터는 [C=‘♡ ’, V=80, L=150]과 같은 데이터를 담고 있게 된다. 콘텐츠 생성부(132)는 C의 값으로 저장되어 있는 문자를 그대로 콘텐츠로 만들되, 문자의 크기와 색상 등 문자 속성을 V와 L의 값을 참조하여 상황에 따라 다르게 생성한다. Here, when the set operation mode is the unit content generation mode, the
또, 동작 응용부(130)는 설정된 동작 모드가 종합 콘텐츠 생성 모드인 경우, 단위 입력 동작데이터를 축적하여 단어 단위, 문장 단위, 또는 문서 단위의 콘텐츠로 생성하여 표시하게 된다. 예를 들어, N개의 문자로 이루어진 단어의 경우, 각 문자를 쓰는 동작의 속성을 평균하여 그 값에 따라 서로 다른 형태로 단어 콘텐츠를 생성하여 표시하게 된다. In addition, when the set operation mode is the comprehensive content generation mode, the
또한, 동작 응용부(130)는 설정된 동작 모드가 대체콘텐츠 생성 모드인 경우입력 동작데이터를 근거로 하여 입력 동작을 대치하는 콘텐츠를 생성하여 표시하게 된다. 예를 들어, 하트문자를 작고 느리게 쓰면 “I Like You”라는 문장을 생성하고, 하트를 작고 빠르게 쓰면 “ I need You ”라는 문장을 생성하고, 크게 쓰면 “ I Love You”라는 문장을 생성하여 표시하게 된다. In addition, when the set operation mode is the alternative content generation mode, the
이처럼, 본 발명에서는 동작 입력시 동작 구분 시점을 최대한 빠른 동작 입력 가능 시점을 사용자에게 지시해 준다. 그에 따라 동작 입력 속도를 향상시킬 뿐 아니라, 사용자가 갖는 동작 간 휴지기에 대한 인지적 부담을 줄여준다. As described above, the present invention instructs the user of a point in time at which an operation can be input as soon as possible. This not only improves the speed of motion input, but also reduces the cognitive burden on user pauses between actions.
또, 본 발명에서 동작 속성을 이용한 콘텐츠 확장 방법은 동작 고유의 특성을 콘텐츠에 반영하게 된다. 그에 따라 보다 감성적인 콘텐츠 표현을 가능하게 할 뿐 아니라 간단한 동작으로 긴 문장을 입력할 수 있게 된다. In addition, in the present invention, the content extension method using the action attribute reflects the action-specific characteristics in the content. Accordingly, not only the emotional content can be expressed but also a long sentence can be input with a simple operation.
이처럼, 본 발명에서는 동작을 기반으로 한 콘텐츠 입력의 육체적 부담을 줄여줄 수 있다. 결과적으로 본 발명에 의한 장치는 동작 기반 문자 입력의 단점을 최소화하고 동작 고유의 유용성을 확대함으로써 관련 기술의 상용화와 시장 형성에 기여하리라 사료된다.As such, in the present invention, the physical burden of content input based on the operation can be reduced. As a result, the device according to the present invention is expected to contribute to the commercialization and market formation of related technologies by minimizing the disadvantages of motion-based text input and expanding the inherent usefulness.
이상, 본 발명을 구성 및 동작에 근거하여 구체적으로 설명하였지만, 본 발명은 상기 기술한 예에 한정되는 것이 아니라, 후술하는 특허 청구 범위의 범주 내에서 여러 가지 변형이 가능한 것은 물론이다.As mentioned above, although this invention was demonstrated concretely based on the structure and operation | movement, this invention is not limited to the above-mentioned example, Of course, various changes are possible within the scope of the following claim.
도 1은 본 발명의 실시예에 따른 동작 기반 문자 입력 장치를 개략적으로 도시한 도면.1 is a view schematically showing a gesture-based character input device according to an embodiment of the present invention.
도 2는 동작 기반 문자 입력시 동작 입력 지연 시간을 예시한 도면.2 is a diagram illustrating an operation input delay time when an operation-based character is input.
도 3 및 도 4는 도 1에 따른 동작 기반 문자 입력 장치의 문자 입력 예를 도시한 도면.3 and 4 are diagrams illustrating examples of text input of the motion-based text input apparatus according to FIG. 1.
도 5는 본 발명에 따른 사전DB 내용을 예시한 도면.5 is a diagram illustrating the contents of a dictionary DB according to the present invention.
도 6은 본 발명에 따른 대체 콘텐츠 생성 과정을 예시한 도면.6 is a diagram illustrating an alternative content generation process according to the present invention.
도 7은 본 발명의 실시예에 따른 동작 기반 문자 입력 장치의 동작 예를 도시한 도면. 7 is a diagram illustrating an operation example of an operation-based character input device according to an embodiment of the present invention.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
10 : 입력부 20 : 센서10: input unit 20: sensor
30 : 통신부 50 : 사전 편집기30: communication unit 50: dictionary editor
100 : 동작 해석 응용수단 110 : 피드백부100: motion analysis application means 110: feedback unit
120 : 동작 해석부 130 : 동작 응용부120: motion analysis unit 130: motion application unit
132 : 콘텐츠 생성부 134 : 표시부132: content generation unit 134: display unit
200 : 사전부 210 : 사전 등록부200: dictionary 210: dictionary register
220 : 사전 검색부 230 : 사전 DB220: dictionary search unit 230: dictionary DB
Claims (15)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080123486 | 2008-12-05 | ||
KR20080123486 | 2008-12-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100065087A KR20100065087A (en) | 2010-06-15 |
KR101322239B1 true KR101322239B1 (en) | 2013-10-25 |
Family
ID=42364589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090106220A KR101322239B1 (en) | 2008-12-05 | 2009-11-04 | Apparatus for inputting letters based on motion and Method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101322239B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070060580A (en) * | 2005-12-09 | 2007-06-13 | 한국전자통신연구원 | Apparatus and method for handwriting recognition using acceleration sensor |
-
2009
- 2009-11-04 KR KR1020090106220A patent/KR101322239B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070060580A (en) * | 2005-12-09 | 2007-06-13 | 한국전자통신연구원 | Apparatus and method for handwriting recognition using acceleration sensor |
Also Published As
Publication number | Publication date |
---|---|
KR20100065087A (en) | 2010-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6903808B2 (en) | Real-time handwriting recognition management | |
KR102342624B1 (en) | Handwriting keyboard for screens | |
US10126826B2 (en) | System and method for interaction with digital devices | |
CN106687889B (en) | Display portable text entry and editing | |
KR102284238B1 (en) | Input display device, input display method, and program | |
US20140368434A1 (en) | Generation of text by way of a touchless interface | |
KR20160014465A (en) | electronic device for speech recognition and method thereof | |
KR20140112910A (en) | Input controlling Method and Electronic Device supporting the same | |
KR101457116B1 (en) | Electronic apparatus and Method for controlling electronic apparatus using voice recognition and motion recognition | |
WO2015059976A1 (en) | Information processing device, information processing method, and program | |
WO2014041607A1 (en) | Information processing device, information processing method, and program | |
JP7405093B2 (en) | Information processing device and information processing method | |
CN104657054A (en) | Clicking-reader-based learning method and device | |
KR101567154B1 (en) | Method for processing dialogue based on multiple user and apparatus for performing the same | |
Wang et al. | A gesture-based method for natural interaction in smart spaces | |
KR101322239B1 (en) | Apparatus for inputting letters based on motion and Method thereof | |
KR20110009614A (en) | Apparatus for predicting intention of user using multi modal information and method thereof | |
Chen et al. | Slideshow: Gesture-aware ppt presentation | |
KR20170029390A (en) | Method for voice command mode activation | |
JP2018022528A (en) | Input display device, input display method, and input display program | |
KR20130078494A (en) | Display apparatus and method for controlling display apparatus thereof | |
JP2015225506A (en) | Image processing device and program | |
KR101407151B1 (en) | Apparatus inputting hangul with touch screen and control method thereof | |
KR20130081543A (en) | Memo input device, memo display method using the same in terminal and memo system | |
KR20150066156A (en) | Display apparatus and Method for controlling display item thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160927 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |