KR101322239B1 - Apparatus for inputting letters based on motion and Method thereof - Google Patents

Apparatus for inputting letters based on motion and Method thereof Download PDF

Info

Publication number
KR101322239B1
KR101322239B1 KR1020090106220A KR20090106220A KR101322239B1 KR 101322239 B1 KR101322239 B1 KR 101322239B1 KR 1020090106220 A KR1020090106220 A KR 1020090106220A KR 20090106220 A KR20090106220 A KR 20090106220A KR 101322239 B1 KR101322239 B1 KR 101322239B1
Authority
KR
South Korea
Prior art keywords
motion
unit
input
user
content
Prior art date
Application number
KR1020090106220A
Other languages
Korean (ko)
Other versions
KR20100065087A (en
Inventor
장민수
김재홍
손주찬
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20100065087A publication Critical patent/KR20100065087A/en
Application granted granted Critical
Publication of KR101322239B1 publication Critical patent/KR101322239B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 동작 기반 문자 입력 장치 및 그 방법에 관한 것으로, 특히 관성 센서를 기반으로 한 동작 인식을 이용하여 문자를 입력하는 기술을 이용한 동작 기반 문자 입력 장치 및 그 방법에 관한 것이다. 본 발명은 동작을 이용한 문자 입력의 효율성을 향상시킬 수 있는 방법과 동작에 고유한 속성을 이용하여 입력 콘텐츠의 형태를 다양화할 수 있는 방법을 제시하였다. 본 발명의 실시예에 따른 동작 기반 문자 입력 장치는 사용자의 동작 변화를 센서를 이용하여 신호로 검출하는 입력부; 및 입력부의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리는 동작 해석 응용수단을 포함하는 것을 특징으로 한다.The present invention relates to a motion-based text input device and a method thereof, and more particularly, to a motion-based text input device and a method using a technology for inputting text using motion recognition based on an inertial sensor. The present invention provides a method for improving the efficiency of text input using an operation and a method for diversifying the form of input content using attributes unique to the operation. Motion-based text input device according to an embodiment of the present invention comprises an input unit for detecting a change in the user's motion as a signal using a sensor; And a motion analysis application means for recognizing a character by distinguishing an operation having a meaning from a signal of the input unit and informing a user of the time when the operation is divided.

관성 센서, 동작 센싱, 동작 구분, 문자 입력 Inertial sensor, motion sensing, motion separator, character input

Description

동작 기반 문자 입력 장치 및 그 방법{Apparatus for inputting letters based on motion and Method thereof}Apparatus for inputting letters based on motion and method about

본 발명은 동작 기반 문자 입력 장치 및 그 방법에 관한 것으로, 특히 관성 센서를 기반으로 한 동작 인식을 이용하여 문자를 입력하는 기술을 이용한 동작 기반 문자 입력 장치 및 그 방법에 관한 것이다.The present invention relates to a motion-based text input device and a method thereof, and more particularly, to a motion-based text input device and a method using a technology for inputting text using motion recognition based on an inertial sensor.

본 발명은 지식경제부 및 정보통신연구진흥원의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-039-01, 과제명:인간-로봇 상호작용 매개 기술 개발].The present invention is derived from the research conducted as part of the IT source technology development project of the Ministry of Knowledge Economy and the Ministry of Information and Communication Research and Development. [Task management number: 2008-F-039-01, Task name: Development of human-robot interaction mediation technology] ].

근래에 들어 가전 기기들의 정보화가 이루어지고, 그에 따른 보다 많은 정보를 처리할 수 있게 됨으로써 일상생활 속에서 보다 편하게 가전 기기로 문자를 입력할 필요성이 커졌다. 이러한 필요성은 가전 기기 뿐만 아니라 모바일 장치에서도 요구되고 있다. 예를 들어, 이동전화기는 단문 전송에서부터 웹 브라우징에 이르기까지 보다 다변화 및 확대되어 가고 있는 실정이고, 그에 따라 보다 편리한 문자 입력기능의 필요성이 높아지고 있다.In recent years, the informatization of home appliances has been made, and as a result, more information can be processed, thereby increasing the need to input text into home appliances more conveniently in daily life. This need is demanded not only in home appliances but also in mobile devices. For example, mobile phones are becoming more diversified and expanded from short text transmission to web browsing. Accordingly, the need for more convenient text input functions is increasing.

종래의 모바일 기기에서의 문자 입력 방법은 대개 키보드 입력 방식을 취한 다. 이러한 방식은 여러 가지의 편의 기능을 함께 사용할 경우 보다 효과적으로 단문 메시지를 입력할 수 있다는 장점을 지닌다. 그러나, 키보드 입력 방식은 소형 기기일수록 키보드 버튼의 크기가 작아지고, 해당 키보드 편성에 익숙해지는데 시간이 많이 걸린다는 단점이 갖는다. 이러한 단점은 특히 노령의 사용자에게는 더욱 큰 장벽으로 작용한다. 또 상술한 문자 입력 대상 장치를 닌텐도 Wii와 같은 게임기나 IPTV와 같은 정보 가전 기기로 확대해 생각해 보면, 키보드를 이용한 문자 입력은 자연스럽지 못하여 불편함을 초래할 수 있다. 이는 장치를 제어하기 위한 리모트 컨트롤러가 더 많은 버튼을 포함해야 하기 때문에 형태가 복잡해지며 사용법도 그에 따라 복잡해지기 때문이다. 이처럼 복잡한 인터페이스는 사용상에 혼돈과 불편함을 초래하기 쉽다.Character input methods in a conventional mobile device usually take a keyboard input method. This method has a merit of inputting a short message more effectively when using various convenience functions together. However, the keyboard input method has a disadvantage that the smaller the device, the smaller the size of the keyboard button, and the longer it takes to get used to the keyboard configuration. This disadvantage is especially a great barrier for older users. In addition, when the above-described character input target device is expanded to an information appliance such as a game machine such as Nintendo Wii or an IPTV, character input using a keyboard may be unnatural and may cause inconvenience. This is because the remote controller for controlling the device has to include more buttons, which makes the form complicated and the usage accordingly. Such complex interfaces are prone to confusion and inconvenience in use.

그래서, 최근 보다 직관적인 입력 인터페이스로서 동작을 이용한 문자 입력 방법이 일부 제안되고 있다. 예를 들어, 가속도 센서를 이용하여 동작 신호를 측정하고 이를 처리하여 동작을 통해 입력한 획을 구분하는 방법, 가속도 센서와 각속도 센서를 포함하는 휴대 장치를 이용하여 사용자의 동작 신호를 검출 인식하고 인식 결과를 장치 제어에 활용하는 방법 등이 있다. Thus, some recent text input methods using motions have been proposed as a more intuitive input interface. For example, a method of measuring an operation signal using an acceleration sensor and processing the same to classify strokes input through the operation, and detecting and recognizing and recognizing a user's operation signal using a portable device including an acceleration sensor and an angular velocity sensor. The results can be used to control the device.

그러나, 종래의 동작을 기반으로 한 문자 인식 방법은 문자 입력의 효율성을 제고하고 동작 입력의 특성을 추가적으로 활용하는데 미치지 못하였다. 기존 기술이 해결하지 못한 동작 기반 문자 입력의 문제점은 다음과 같다.However, the character recognition method based on the conventional motion did not improve the efficiency of the text input and further utilize the characteristics of the motion input. Problems of motion-based character input that the existing technology has not solved are as follows.

첫째, 동작 세분화 작용으로 인한 입력 지연 현상 때문에 문자 입력 속도가 느려진다. 동작 인식을 위해서는 동작을 세분화해야 하는데 세분화 기술이 제대로 동작하기 위해서 동작과 동작 사이에 휴지기가 반드시 필요하다. 즉, 사용자는 동작과 동작 사이에 잠시 동안 동작을 멈추거나 동작의 강도를 미세한 수준으로 유지해 주어야만 하는 것이다. 사용자는 동작을 어느 시간만큼 멈추고 있어야 하는지 본능적으로 알기 어렵기 때문에 시스템을 사용하는 과정에서 스스로 적당한 휴지기 길이를 알아서 습득해야 한다. 이러한 제약 사항은 단순하여 사용상에 큰 제약이 되지 않는다고 생각할 수도 있으나, 사용 초기에 사용자가 생소함 때문에 큰 불편을 느낄 수 있고 사용 방법에 익숙해지기 전에 포기해 버릴 가능성도 높다. 또한, 익숙해진 사용자라 하더라도 연속으로 문자를 입력하는 경우 자신이 입력한 동작이 제대로 구분되도록 최대한 동작 휴지기를 활용하려는 성향이 커질 수 있으므로 문자 입력 속도가 늦어질 수 있다.First, character input speed is slowed down due to input delay due to motion segmentation. In order to recognize the motion, the motion must be subdivided. In order for the segmentation technology to work properly, a pause is required between the motion and the motion. That is, the user must stop the motion for a while or maintain the intensity of the motion at a minute level between the motion and the motion. It is difficult for the user to instinctively know how long the motion should be stopped, so the user needs to learn the appropriate length of the rest period while using the system. You may think that these constraints are simple and do not impose any restrictions on use, but you may feel uncomfortable because you are new to the beginning, and you may give up before you get used to them. In addition, even if the user is familiar with the continuous input of the character, the type of his input may be slowed down because the propensity to utilize the maximum operation pause can be increased to properly distinguish the operation.

둘째, 동작은 직관적이지만 다수의 문자를 입력하려면 육체적인 피로가 동반된다. 동작을 통해 문자를 입력하는 것이 다른 방법에 비해 보다 직관적인 것은 사실이지만 반복적으로 입력 행위를 수행하다 보면 신체적으로 무리가 따를 수 밖에 없다.Second, the operation is intuitive, but to enter a large number of characters is accompanied by physical fatigue. It is true that entering text through gestures is more intuitive than other methods, but it can only be physically followed by repeated typing.

셋째, 동작이 표현할 수 있는 부가 정보를 활용하는 방안을 제시하지 못하였다. 동작은 빠르기, 크기 등 동작 속성을 포함하며, 이러한 동작 속성은 부가적인 정보를 표현하는 근거가 될 수 있다. 동일한 문자를 입력하더라도 동작의 속성에 따라 문자의 화면 표시 형태 또는 음성 표시 방법에 차별화 요소를 첨가할 수 있을 것이다.Third, it could not suggest a way to utilize additional information that can be expressed by the action. Actions include action attributes such as speed and size, and these action attributes may be the basis for expressing additional information. Even if the same character is input, a differentiation factor may be added to the screen display form or the voice display method of the character according to the attribute of the operation.

따라서, 본 발명에서는 앞서 언급한 기존 기술들의 한계점 및 미비점을 보완함으로써 문자 입력 속도를 높이고, 동작 수행의 피로도를 낮추며, 동작 특유의 속성 정보를 기반으로 확장된 정보 전달을 성취할 수 있는 방법을 제안한다.Accordingly, the present invention proposes a method for increasing the character input speed, reducing the fatigue of performing the operation, and achieving the extended information transmission based on the attribute information unique to the motion by supplementing the limitations and deficiencies of the above-mentioned existing technologies. do.

본 발명의 목적은 동작을 이용한 문자 입력의 효율성을 향상시킬 수 있는 방법과 동작에 고유한 속성을 이용하여 입력 콘텐츠의 형태를 다양화할 수 있는 방법을 제공하는 것이다.An object of the present invention is to provide a method for improving the efficiency of text input using an operation and a method for diversifying the form of input content using attributes unique to the operation.

본 발명의 실시예에 따른 동작 기반 문자 입력 장치는 사용자의 동작 변화를 센서를 이용하여 신호로 검출하는 입력부; 및 입력부의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리는 동작 해석 응용수단을 포함하는 것을 특징으로 한다.Motion-based text input device according to an embodiment of the present invention comprises an input unit for detecting a change in the user's motion as a signal using a sensor; And a motion analysis application means for recognizing a character by distinguishing an operation having a meaning from a signal of the input unit and informing a user of the time when the operation is divided.

또, 동작 해석 응용수단은, 입력부의 신호로부터 사용자의 동작 방식을 분석하여 동작을 속성화하는 것이 바람직하다.The motion analysis application means preferably analyzes the user's motion method from the signal of the input unit and attributes the motion.

또, 동작 해석 응용수단은, 입력부의 신호로부터 의미를 갖는 동작 구간을 구분하고, 구분된 동작 구간의 신호를 해석하여 동작을 인식한 동작데이터를 생성하는 동작 해석부; 및 동작 해석부로부터 동작을 구분한 시점을 전달받고, 해당 동작을 구분한 사실을 사용자에게 알림으로써 사용자에 의해서 다음 동작을 입력하도록 하는 피드백부;를 포함하는 것이 바람직하다.The motion analysis application means may further include: a motion analysis unit for distinguishing an operation section having a meaning from a signal of an input unit, and analyzing the signals of the divided operation sections to generate motion data that recognizes the operation; And a feedback unit for receiving a time point of dividing an action from the action analyzing unit and notifying the user of the fact that the action is divided, so as to input a next action by the user.

또, 동작 해석부의 동작데이터는, 입력부의 신호로부터 사용자의 동작 방식 을 분석하여 동작을 속성화한 동작 속성 정보를 포함하는 것이 바람직하다.In addition, the motion data of the motion analysis unit preferably includes motion attribute information obtained by analyzing a user's motion method from the signal of the input unit and attributeing the motion.

또, 동작데이터 근거로 동작의 속성 정보에 해당하는 콘텐츠를 생성하여 표시되도록 하는 동작 응용부;를 추가로 포함하는 것이 바람직하다.The apparatus may further include an operation application unit for generating and displaying content corresponding to the attribute information of the operation based on the operation data.

또, 동작 응용부는, 동작 속성 정보를 기반으로 화상, 음성, 진동 중 적어도 하나 이상의 콘텐츠를 생성하는 콘텐츠 생성부; 및 생성된 콘텐츠를 외부로 표출하는 표시부를 포함하는 것이 바람직하다.The operation application unit may further include: a content generation unit generating at least one content of an image, a voice, and a vibration based on the operation attribute information; And a display unit that displays the generated content to the outside.

또, 동작 응용부의 콘텐츠 생성 방식은, 동작데이터의 단위별로 즉각 개별 콘텐츠를 생성하는 단위 콘텐츠 생성 모드, 동작데이터의 단위를 축척하여 종합 콘텐츠를 생성하는 종합 콘텐츠 생성 모드, 동작데이터를 근거로 해당 입력 동작을 대치하는 콘텐츠를 생성하는 대체 콘텐츠 생성 모드 중 적어도 하나 이상을 포함하는 것이 바람직하다.In addition, the content generation method of the operation application unit includes a unit content generation mode for instantly generating individual content for each unit of motion data, a comprehensive content generation mode for generating comprehensive content by scaling a unit of motion data, and a corresponding input based on the motion data. It is preferred to include at least one or more of the alternative content generation mode for generating content to replace the operation.

또, 센서는, 가속도 센서, 각속도센서 중 적어도 하나 이상을 갖는 관성 센서인 것이 바람직하다.Moreover, it is preferable that a sensor is an inertial sensor which has at least 1 or more of an acceleration sensor and an angular velocity sensor.

한편, 동작 기반 문자 입력 방법은 사용자의 동작 변화를 센서를 이용하여 검출한 신호로 입력 받는 입력 단계; 입력 단계의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리는 동작 해석 응용 단계를 포함하는 것을 특징으로 한다.On the other hand, the motion-based text input method comprises the input step of receiving a change in the user's motion as a signal detected by the sensor; Characterized by distinguishing the action having a meaning from the signal of the input step, characterized in that it comprises a motion analysis application step for notifying the user of the time when the action is separated.

또, 동작 해석 응용단계는, 입력 단계의 신호로부터 사용자의 동작 방식을 분석하여 동작을 속성화하는 것이 바람직하다.In the motion analysis application step, it is preferable to analyze the motion method of the user from the signal of the input step to attribute the motion.

또, 동작 해석 응용 단계는, 입력 단계의 신호로부터 의미를 갖는 동작 구간 을 구분하고, 구분된 동작 구간의 신호를 해석하여 동작을 인식한 동작데이터를 생성하는 동작 해석 단계; 및 동작 해석 단계에서 동작을 구분한 시점을 근거로 해당 동작을 구분한 사실을 사용자에게 알림으로써 사용자에 의해서 다음 동작을 입력하도록 하는 피드백 단계;를 포함하는 것이 바람직하다.The motion analysis application step may include: a motion analysis step of distinguishing an operation section having a meaning from a signal of an input step, and analyzing motion signals of the divided operation sections to generate motion data that recognizes the operation; And a feedback step of inputting the next operation by the user by notifying the user of the fact that the operation is classified based on the time point at which the operation is divided in the operation analysis step.

또. 동작 해석 단계의 동작데이터는, 입력 단계의 신호로부터 사용자의 동작 방식을 분석하여 동작을 속성화한 동작 속성 정보를 포함하는 것이 바람직하다.In addition. The motion data of the motion analysis step preferably includes motion attribute information obtained by analyzing the user's motion method from the signal of the input step to attribute the motion.

또, 동작데이터 근거로 동작의 속성 정보에 해당하는 콘텐츠를 생성하여 표시되도록 하는 동작 응용 단계를 추가로 포함하는 것이 바람직하다.The method may further include an operation application step of generating and displaying content corresponding to attribute information of the operation on the basis of the operation data.

또, 동작 응용 단계는, 동작 속성 정보를 기반으로 화상, 음성, 진동 중 적어도 하나 이상의 콘텐츠를 생성하는 콘텐츠 생성 단계; 및 생성된 콘텐츠를 외부로 표출하는 표시 단계를 포함하는 것이 바람직하다.The operation application step may further include: a content generation step of generating at least one content of image, sound, and vibration based on the operation attribute information; And a display step of expressing the generated content to the outside.

또, 동작 응용 단계의 콘텐츠 생성 방식은, 동작데이터의 단위별로 즉각 개별 콘텐츠를 생성하는 단위 콘텐츠 생성 모드, 동작데이터의 단위를 축척하여 종합 콘텐츠를 생성하는 종합 콘텐츠 생성 모드, 동작데이터를 근거로 해당 입력 동작을 대치하는 콘텐츠를 생성하는 대체 콘텐츠 생성 모드 중 적어도 하나 이상을 포함하는 것이 바람직하다.In addition, the content generation method of the operation application step is applicable based on a unit content generation mode for instantly generating individual content for each unit of motion data, a comprehensive content generation mode for generating comprehensive content by scaling a unit of motion data, and operation data. It is preferable to include at least one or more of the alternative content generation mode for generating content that replaces the input operation.

본 발명에 따르면, 동작 구간 분리 피드백은 최대한 빠른 동작 입력 가능 시점을 사용자에게 지시해 줌으로써 동작 입력 속도를 향상시킬 뿐 아니라, 사용자가 갖는 동작 간 휴지기에 대한 인지적 부담을 줄여준다. According to the present invention, the motion segmentation feedback not only improves the motion input speed by instructing the user of the fastest possible operation input time, but also reduces the cognitive burden on the user's pause between motions.

또, 본 발명은 동작 속성을 이용한 콘텐츠 확장 방법은 동작 고유의 특성을 콘텐츠에 반영함으로써 보다 감성적인 콘텐츠 표현을 가능하게 할 뿐 아니라 간단한 동작으로 긴 문장을 입력할 수 있는 수단을 제공하므로 동작을 기반으로 한 콘텐츠 입력의 육체적 부담을 줄여줄 수 있다. In addition, the present invention provides a method for expanding a content using an action property because it provides a means for inputting a long sentence with a simple action as well as enabling a more emotional content expression by reflecting an action-specific characteristic to the content. Therefore, the physical burden of inputting a content can be reduced.

결과적으로 본 발명은 동작 기반 문자 입력의 단점을 최소화하고 동작 고유의 유용성을 확대함으로써 관련 기술의 상용화와 시장 형성에 기여하리라 사료된다.As a result, the present invention is expected to contribute to the commercialization and market formation of related technologies by minimizing the disadvantages of motion-based text input and expanding the inherent usefulness.

이하에서는 첨부된 도면들을 참조하여 본 발명을 보다 상세하게 설명하도록 한다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.Hereinafter, with reference to the accompanying drawings to describe the present invention in more detail. In describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 실시예에 따른 동작 기반 문자 입력 장치를 개략적으로 도시한 도면이고, 도 2는 동작 기반 문자 입력시 동작 입력 지연 시간을 예시한 도면이고, 도 3 및 도 4는 도 1에 따른 동작 기반 문자 입력 장치의 문자 입력 예를 도시한 도면이고, 도 5는 본 발명에 따른 사전DB 내용을 예시한 도면이고, 도 6은 본 발명에 따른 대체 콘텐츠 생성 과정을 예시한 도면이고, 도 7은 본 발명의 실시예에 따른 동작 기반 문자 입력 장치의 동작 예를 도시한 도면이다. 1 is a view schematically showing a motion-based text input apparatus according to an embodiment of the present invention, FIG. 2 is a view illustrating a motion input delay time when inputting a motion-based text, and FIGS. 3 and 4 are shown in FIG. 1. FIG. 5 is a diagram illustrating an example of a text input of an operation-based text input apparatus. FIG. 5 is a diagram illustrating contents of a dictionary DB according to the present invention. FIG. 6 is a diagram illustrating a process of generating alternative content according to the present invention. 7 is a diagram illustrating an operation example of an operation-based character input device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 동작 기반 문자 입력 장치는 입력부(10), 통신부(30), 동작 해석 응용수단(100), 사전부(200), 사전 편집기(50)를 포함하여 구성된다.Referring to FIG. 1, a motion-based text input device according to an embodiment of the present invention may include an input unit 10, a communication unit 30, an operation analysis application unit 100, a dictionary unit 200, and a dictionary editor 50. It is configured to include.

입력부(10)는 사용자의 동작 변화를 구비된 센서(20)를 이용하여 신호로써 검출하게 된다. 즉, 입력부(10)는 사람의 동작 변화를 감지하는 센서(20)를 구비하고, 그 센서(20)에 의해서 감지된 사용자의 동작 변화를 처리하여 신호를 생성하게 된다. 입력부(10)는 생성된 신호를 하술된 통신부(30)를 통해 동작 해석 응용수단(100)으로 전달하게 된다. 본 발명에서 입력부(10)는 휴대 가능한 형태로 구성되는 것이 바람직하다. 예를 들어, 리모트 콘트롤러 또는 PDA 등을 채용할 수 있을 것이다.The input unit 10 detects a signal using a sensor 20 provided with a change in the user's motion. That is, the input unit 10 includes a sensor 20 that detects a change in the motion of a person, and generates a signal by processing the change in the user's motion detected by the sensor 20. The input unit 10 transmits the generated signal to the motion analysis application means 100 through the communication unit 30 described below. In the present invention, the input unit 10 is preferably configured in a portable form. For example, a remote controller or a PDA may be employed.

여기서, 센서(20)는 가속도 센서, 각속도센서 중 적어도 하나 이상을 갖는 관성 센서를 채용하는 것이 바람직하다. 그래서 입력부(10)는 사용자의 동작방향 또는 동작 강도, 위치 등을 해당 센서(20)를 통해 감지해서 신호로 생성하게 된다. Here, the sensor 20 preferably employs an inertial sensor having at least one of an acceleration sensor and an angular velocity sensor. Thus, the input unit 10 generates a signal by detecting a user's motion direction or motion intensity, position, etc. through the corresponding sensor 20.

통신부(30)는 입력부(10)에서 발생된 검출 신호를 데이터의 형태로 전달하도록 구성되는데, 통신부(30)는 전송 데이터를 유선 또는 무선 전송 방식으로 전송하도록 구성될 수 있다. 예를 들어, 통신부(30)는 직렬유선인터페이스(RS-232C), 지그비(ZigBee), 블루투스(Bluetooth) 등 다양한 데이터 전송 방식을 활용할 수 있다.The communication unit 30 is configured to transmit the detection signal generated in the input unit 10 in the form of data, and the communication unit 30 may be configured to transmit the transmission data by wire or wireless transmission. For example, the communication unit 30 may utilize various data transmission methods such as a serial wired interface (RS-232C), ZigBee, and Bluetooth.

여기서, 통신부(30)의 전송 데이터는 부가적인 정보를 포함할 수 있으나, 통 신부(30)는 기본적으로 입력부(10)의 센서(20)에서의 측정값을 샘플링율(Sampling Rate)에 따른 전송 속도로 전송하는 역할을 한다. 예를 들어, 입력부(10)에 센서로서 3축 가속도 센서를 장착하고 있다면, 하나의 데이터 전송 요소는 세 개의 숫자(x, y, z 각 축의 가속도 센서 측정값)를 포함하게 될 것이다.Here, the transmission data of the communication unit 30 may include additional information, but the communication unit 30 basically transmits the measured value of the sensor 20 of the input unit 10 according to the sampling rate. It serves to transmit at speed. For example, if the input unit 10 is equipped with a three-axis acceleration sensor as a sensor, one data transmission element will contain three numbers (acceleration sensor measurements on each of the x, y, and z axes).

동작 해석 응용수단(100)은 상술한 입력부(10)의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리도록 구성된다. The motion analysis application means 100 is configured to recognize a character by distinguishing an operation having a meaning from the signal of the input unit 10 described above, and to notify a user of the time at which the operation is divided.

또, 동작 해석 응용수단(100)은 도면상에 입력부(10)와 기능상 분리된 그림으로 그려져 있으나, 실제 실시할 때에는 입력부(10) 내에 내장될 수도 있다. 이 경우 통신부(30)는 장치 내부 데이터 전송 통로가 될 것이다.In addition, although the motion analysis application means 100 is drawn in the figure as a functionally separated picture from the input unit 10, it may be embedded in the input unit 10 in practice. In this case, the communication unit 30 will be an internal data transmission path.

또한, 동작 해석 응용수단(100)은 입력부(10)의 신호로부터 의미를 갖는 동작 구간을 구분하고, 구분된 동작 구간의 신호를 해석하여 동작을 인식한 동작데이터를 생성하는 동작 해석부(120), 동작 해석부(120)로부터 동작을 구분한 시점을 전달받고, 해당 동작을 구분한 사실을 사용자에게 알림으로써 사용자에 의해서 다음 동작을 입력하도록 하는 피드백부(110)를 포함하여 구성된다.In addition, the operation analysis application means 100 distinguishes an operation section having a meaning from a signal of the input unit 10, and analyzes a signal of the divided operation section to generate motion data that recognizes an operation. In addition, the operation analysis unit 120 is configured to include a feedback unit 110 for receiving a time point at which the operation is divided and inputting the next operation by the user by notifying the user of the fact that the operation is divided.

또, 동작 해석 응용수단(100)은 동작데이터 근거로 동작의 속성 정보에 해당하는 콘텐츠를 생성하여 표시되도록 하는 동작 응용부(130)를 추가로 포함하는 것이 바람직하다. 이러한 동작 응용부(130)에 대한 설명은 하술 하도록 한다. In addition, the operation analysis application means 100 preferably further includes an operation application unit 130 to generate and display the content corresponding to the attribute information of the operation on the basis of the operation data. This operation application unit 130 will be described below.

사전부(200)는 동작데이터 등을 저장, 검색, 출력 등을 담당하게 된다. 사전부(200)는 데이터를 저장하는 사전 DB(230), 데이터를 사전 DB(230)에 저장시키는 사전 등록부(210), 데이터를 출력하는 사전 검색부(S220)를 포함하여 구성된다. 이러한 사전부(200)에 대한 세부 구성은 데이터의 입출력을 처리하는 것이라면 어떠한 형식이라도 가능할 것이다.The dictionary unit 200 is responsible for storing, retrieving, and outputting operation data. The dictionary unit 200 is configured to include a dictionary DB 230 for storing data, a dictionary register 210 for storing data in the dictionary DB 230, and a dictionary search unit S220 for outputting data. The detailed configuration of the dictionary unit 200 may be in any form as long as it processes input / output of data.

도 2 및 도 3을 참조하면, 동작 해석부(120)는 입력부(10)를 통해 동작이 입력되면, 수신한 신호를 해석하고, 그에 따라 의미 있는 동작 구간을 분리하여 어떤 동작이 이루어졌는지 인식하는 기능을 수행한다. 동작 구간 분리는 동작 사이의 동작 휴지기를 감지하여 동작이 실제 이루어진 신호 구간을 분리해내는 기능이다. 예컨데, 도 3 e1, e2)에 도시된 것처럼 사용자가 입력부(10)를 이용하여 글자 ‘가’와 ‘나’를 썼을 경우, 동작 해석부(120)는 두 글자 사이의 동작 휴지기를 감지하여 각 글자가 쓰여진 신호 구간을 뽑아내는 것이다.Referring to FIGS. 2 and 3, when an operation is input through the input unit 10, the operation analysis unit 120 analyzes a received signal and separates a meaningful operation section accordingly to recognize which operation is performed. Perform the function. The operation section separation is a function for detecting an operation pause between operations to separate a signal section in which the operation is actually performed. For example, when the user wrote the letters 'a' and 'b' using the input unit 10 as illustrated in FIGS. 3 e1 and e2), the motion analysis unit 120 detects an operation pause between two letters to detect each pause. It is to extract the signal section in which letters are written.

그러나, 통상 관성 센서 기반의 동작구간 분리 기능은 통상적으로 기능상의 한계로 인해 사용자가 동작과 동작 사이에 일정 시간 동안 동작을 멈춰주어야 한다는 제약 사항을 갖는다. 예컨데, 사용자는 일반적으로 동작 인식이 완료되어 그 결과를 확인한 시점, 즉 도면부호 c와 d시점 사이에 다음 동작을 시작한다. 보다 동작 입력에 숙련된 경우 심리적으로 동작 구분이 완료되었을 것이라는 추측 하에 다음 동작을 입력한다면 도면부호 a에서 b사이의 어느 시점부터 도면 부호 c시점 사이에 다음 동작 입력이 시작될 것이다.However, the inertial sensor-based operation section separation function typically has a limitation that the user must stop the operation for a certain time between the operation due to the functional limitation. For example, the user generally starts the next operation between the time when the motion recognition is completed and the result is confirmed, that is, the time points c and d. If the user is more experienced in inputting a motion, the next motion input will be started between the time points c and c at some point between a and b if he inputs the next motion on the assumption that psychological classification has been completed.

예를 들어, 도 3 e3)에 도시된 것처럼 사용자가 연속되는 글자를 너무 빨리 써버리면, 동작 해석부(120)는 두 동작을 구별해낼 수 없다. 따라서, 사용자는 동 작의 확실한 구분을 위해 동작과 동작 사이에 의도적으로 충분한 휴지기를 갖게 되는데 이로 인해 동작 입력 속도가 저하된다.For example, if the user writes consecutive letters too quickly, as shown in FIG. 3 e3), the motion analysis unit 120 may not distinguish between the two motions. Therefore, the user intentionally has a sufficient rest period between the operation and the operation in order to clearly distinguish the operation, which lowers the operation input speed.

따라서, 본 발명에서 피드백부(110)는 동작이 구분되는 시점을 즉시 사용자에게 알려줌으로써 사용자가 다음 동작을 입력해도 된다는 사실을 인지할 수 있도록 해주게 된다. 이러한 처리 과정을 살펴보면, 동작 해석부(120)는 동작을 구분한 시점에 피드백부(110)로 동작 구분 사실을 알린다. 피드백부(110)는 시각(화면 표시, 불빛 등), 청각(버저음 등) 또는 촉각(입력장치 진동 등)을 통해 사용자에게 동작 구분 사실을 알린다. 이처럼 사용자는 피드백을 인지하는 즉시 다음 동작을 입력할 수 있으므로, 동작 간 휴지기에 대한 부가적인 인지적 고려 없이 동작을 입력할 수 있으므로 동작 구분 시점부터 사용자의 다음 동작 입력까지의 지연 시간을 최소화할 수 있다.Therefore, in the present invention, the feedback unit 110 immediately informs the user of the time at which the operation is divided so that the user can recognize the fact that the user may input the next operation. Looking at this process, the motion analysis unit 120 informs the feedback of the operation classification to the feedback unit 110 at the time when the operation is divided. The feedback unit 110 notifies the user of the fact of the operation by visual (screen display, light, etc.), hearing (buzzing sound, etc.), or tactile sense (input device vibration, etc.). In this way, the user can input the next motion as soon as the user recognizes the feedback. Therefore, the user can input the motion without additional cognitive consideration of the pause between the motions, thereby minimizing the delay time from the point of operation separation to the user's next motion input. have.

이처럼, 본 발명에 의하여 동작 구간 분리 피드백이 제공되면 사용자는 안전하게 도면부호 a와 b시점 사이에 다음 동작 입력을 시작할 수 있으므로, 동작 입력 속도는 크게 향상될 수 있다.As such, when the operation section separation feedback is provided according to the present invention, the user can safely start the next operation input between the points a and b, and thus the operation input speed can be greatly improved.

한편, 동작 응용부(130)는 동작데이터를 근거로 동작의 속성 정보에 해당하는 콘텐츠를 생성하여 표시하게 된다. 즉, 동작 해석부(120)는 구분된 동작 구간의 신호를 해석하고, 그 동작의 내용을 파악하여 동작데이터를 생성한다. 여기서, 동작데이터는 동작의 의미, 즉 ‘A’를 쓴 것인지 ‘B’를 쓴 것 인지를 나타내는 의 미 정보와 함께 동작 속성(Motion Property) 정보를 포함한다. 이처럼 기존의 동작 기반 문자 입력 방법들과 달리 본 발명에서는 동작의 속성화(Characterization)를 통한 동작 속성 정보 추출 과정을 포함한다.On the other hand, the operation application unit 130 generates and displays the content corresponding to the attribute information of the operation based on the operation data. That is, the motion analysis unit 120 analyzes signals of the divided operation section, grasps the contents of the motion, and generates motion data. Here, the motion data includes motion property information along with meaning information indicating the meaning of motion, that is, whether "A" or "B" is written. As described above, unlike the existing motion-based text input methods, the present invention includes a process of extracting motion property information through characterization of motion.

여기서, 동작 속성은 동작이 이루어진 방식에 대한 정보를 가리킨다. 예를 들면, 동작을 얼마나 빨리 했는가, 또는 동작을 얼마나 크게 했는가와 같은 정보다. 본 발명의 일실시 예에서는 다음과 같은 동작의 속성을 추출할 수 있다. Here, the operation attribute refers to information on how the operation was made. For example, how fast did the action or how big the action was. In an embodiment of the present invention, properties of the following operation may be extracted.

임의의 동작 M에 대하여; For any operation M;

- V(M의 빠르기) = (M의 이동 길이) / (M의 지속 시간)-V (M's fast) = (M's travel length) / (M's duration)

- L(M의 크기 ) = (M의 이동 길이) / (M과 동일한 동작들의 평균 이동 길이)L (size of M) = (M travel length) / (average travel length of operations equal to M)

- S(M의 날카로움): 동작이 그리는 궤적을 구성하는 단위 선분들이 연속적으로 이루는 각도의 평균값. 값이 클수록 M은 날카로운 동작이라고 판단할 수 있다. S (sharpness of M): The average value of the angles made by the unit segments that make up the trajectory that the motion draws. The larger the value, the more it can be determined that M is a sharp motion.

예를 들어, M이 하트문자(‘♡’)를 그린 동작이라고 하자. For example, let's say that M draws a heart character ('♡').

도 4 f1)에 도시된 것처럼, 하트문자를 크고 빠르게 쓰면, V와 L의 값은 커진다. 그리고 도 4 f2)에 도시된 거처럼, 하트문자를 크고 느리게 쓰면, V의 값은 작아지고 L의 값은 커진다. 또, 도 4 f3)에서처럼 하트문자를 느리고 작게 쓰면 V의 값은 더 작아지고 L의 값도 작아진다. 이처럼, 사용자 동작을 수행하는 방법에 따라 예시한 동작 속성값들은 변화하게 된다.As shown in Fig. 4 f1), when the heart character is written large and fast, the values of V and L become large. And as shown in Fig. 4 f2), when the heart character is written large and slow, the value of V becomes small and the value of L becomes large. Also, as shown in FIG. 4 f3), when the heart character is slow and small, the value of V becomes smaller and the value of L becomes smaller. As such, the illustrated action attribute values change according to a method of performing a user action.

그래서, 동작 응용부(130)는 동작 해석부(120)로 부터 전달받은 동작데이터 를 기반으로 콘텐츠를 생성하고 이를 화면에 표시하거나 음성으로 합성하거나 원격 장치로 전송하는 등의 동작 활용 기능을 수행한다. Thus, the motion application unit 130 generates a content based on the motion data received from the motion analysis unit 120 and performs an operation utilization function such as displaying it on a screen, synthesizing it by voice, or transmitting it to a remote device. .

또, 동작 응용부(130)는 상술한 방식에 따라 콘텐츠를 생성하는 콘텐츠 생성부(132) 및 생성된 콘텐츠를 표시하는 표시부(134)를 포함하여 구성된다. 콘텐츠 생성부(132)는 동작데이터의 내용을 기반으로 다양한 콘텐츠를 생성하는 역할을 수행한다. 생성된 콘텐츠는 표시부(134)를 통해 사용자 또는 원격 장치(예컨대, TV, 모니터 등)로 전달된다. 이러한 콘텐츠는 동작 해석 응용수단(100)을 저장 실행하는 장치에 화상, 음성, 또는 진동 등으로 표시될 수도 있고, 사용자가 지정한 원격 장치로 전송될 수도 있다.In addition, the operation application unit 130 is configured to include a content generation unit 132 for generating content and a display unit 134 for displaying the generated content in the manner described above. The content generator 132 generates various contents based on the contents of the operation data. The generated content is delivered to the user or remote device (eg, TV, monitor, etc.) through the display unit 134. Such content may be displayed as an image, a voice, a vibration, or the like on a device that stores and executes the motion analysis application means 100, or may be transmitted to a remote device designated by a user.

여기서, 동작 응용부(130)의 콘텐츠 생성 방식은, 동작데이터의 단위별로 즉각 개별 콘텐츠를 생성하는 단위 콘텐츠 생성 모드, 동작데이터의 단위를 축척하여 종합 콘텐츠를 생성하는 종합 콘텐츠 생성 모드, 동작데이터를 근거로 해당 입력 동작을 대치하는 콘텐츠를 생성하는 대체 콘텐츠 생성 모드 중 적어도 하나 이상을 포함하는 것이 바람직하다. Herein, the content generation method of the operation application unit 130 may include a unit content generation mode for instantly generating individual content for each unit of motion data, a comprehensive content generation mode for generating comprehensive content by scaling a unit of motion data, and operation data. It is preferable to include at least one or more of the alternative content generation mode for generating content that replaces the corresponding input operation on the basis.

이하, 콘텐츠 생성부의 콘텐츠 생성 방식에 따른 세가지 모드(Mode)를 예시하면 다음과 같다. Hereinafter, three modes according to the content generation method of the content generation unit will be described.

1) 단위 콘텐츠 생성 모드1) Unit Content Creation Mode

단위 콘텐츠 생성 모드는 단위 입력 동작데이터를 즉시 개별 콘텐츠로 생성하는 모드이다. 예를 들어, 사용자가 크고 빠른 동작으로 하트문자를 입력하면, 동작데이터는 [C=‘♡’, V=80, L=150]과 같은 데이터를 담고 있게 된다. 콘텐츠 생성부(132)는 C의 값으로 저장되어 있는 문자를 그대로 콘텐츠로 만들되, 문자의 크기와 색상 등 문자 속성을 V와 L의 값을 참조하여 상황에 따라 다르게 생성한다. 매 입력 동작에 대하여 이와 같은 콘텐츠 생성 절차를 수행하는 것이 단위 콘텐츠 생성 모드이다.The unit content generation mode is a mode in which unit input operation data is immediately generated as individual content. For example, when a user inputs a heart character in a large and fast motion, the motion data contains data such as [C = '♡', V = 80, L = 150]. The content generating unit 132 makes the text stored as the value of C as content, but generates a character attribute such as the size and color of the character differently depending on the situation with reference to the values of V and L. The unit content generation mode performs the content generation procedure for each input operation.

2) 종합 콘텐츠 생성 모드2) Comprehensive Content Creation Mode

단위 입력 동작데이터를 축적하여 단어 단위, 문장 단위, 또는 문서 단위의 콘텐츠로 생성하는 모드이다. 예를 들어, N개의 문자로 이루어진 단어의 경우, 각 문자를 쓰는 동작의 속성을 평균하여 그 값에 따라 서로 다른 형태로 단어 콘텐츠를 생성할 수 있다. 문장의 경우 및 문서의 경우 각 구성 문자를 쓸 때 행한 동작의 속성을 평균하여 해당 콘텐츠를 서로 다른 형태로 생성할 수 있다.In this mode, unit input operation data is accumulated and generated in word units, sentence units, or document units. For example, in the case of a word consisting of N letters, the word content may be generated in a different form according to the value by averaging the attributes of each letter writing operation. In the case of a sentence and a document, the corresponding content may be generated in a different form by averaging the attributes of an operation performed when each component character is written.

3) 대체콘텐츠 생성 모드3) Alternative Content Creation Mode

대체콘텐츠 생성 모드는 입력 동작데이터를 근거로 하여 입력 동작을 대치하는 콘텐츠를 생성하는 모드이다. 상술한 1)의 예에서 보듯이 사용자가 특정한 동작 속성으로 하트문자를 입력했다고 했을 경우, 콘텐츠 생성부(132)는 그 문자를 적절한 대체 콘텐츠로 변환하여 생성할 수 있다. 예를 들어, 하트문자를 작고 느리게 쓰면 “I Like You”라는 문장을 생성하고, 하트를 작고 빠르게 쓰면 “ I need You ”라는 문장을 생성하고, 크게 쓰면 “ I Love You”라는 문장을 생성할 수 있다. 즉, 동작의 의미와 속성을 반영한 새로운 대체콘텐츠를 생성하는 동작 모드이다.The alternative content generation mode is a mode for generating content that replaces the input operation based on the input operation data. As shown in the above example 1), when the user inputs a heart character as a specific operation attribute, the content generation unit 132 may generate the character by converting the character into appropriate substitute content. For example, if you write small and slow hearts, you can create a sentence called “I Like You.” If you write small and fast hearts, you can create a sentence of “I need You.” have. That is, it is an operation mode for creating a new alternative content reflecting the meaning and properties of the operation.

상술한 각 동작모드로의 전환은 동작모드 전환을 위한 별도의 동작을 사전에 설정해 놓고 활용하면 된다. 예를 들어, 입력부(10)를 이용하요 사용자가 원을 두 번 그리는 동작은 단위 콘텐츠 생성 모드, 사각형을 그리는 동작은 종합 콘텐츠 생성 모드, 별을 그리는 동작은 대체 콘텐츠 생성 모드로 동작하도록 만드는 것으로 설정해 놓을 수 있다. 사용자가 “너무너무 사랑해. 너의 철수가”라는 메시지를 작성하고 싶다면, 별을 그려서 대체 콘텐츠 생성 모드로 옮긴 다음 큰 동작으로 하트문자를 그려서 대체 콘텐츠인 “너무너무 사랑해.”를 입력하고, 사각형을 그려서 종합 콘텐츠 생성 모드로 옮긴 다음 “너의 철수가”의 자음 모음을 순서대로 동작으로 입력하면 된다.Switching to each operation mode described above may be performed by setting a separate operation for switching operation modes in advance. For example, using the input unit 10, the user draws a circle twice to create a unit content generation mode, a rectangle draws a comprehensive content generation mode, and a star draws an action to create an alternative content generation mode. Can be set. The user said, “I love you so much. If you want to write your own message, you can draw a star to move to alternative content creation mode, then use a big gesture to draw a heart character, enter the alternative content “I love you too much.” Then enter the consonant vowels in “Your withdrawal” in order.

도 5를 참조하면, 상술한 사전 DB(230)는 상술한 콘텐츠를 생성하기 위한 동작 데이터 등을 저장하게 된다. 상술한 도 5의 도면부호 201과 202에서 보듯이 사전 DB(230)는 입력 문자의 내용인 C의 값과 동작 속성값 V, L의 범위에 따라 어떤 대체콘텐츠가 생성되어야 하는지 표현한다. 그리고, 도 5의 도면부호 203에서 보듯이 동작 속성값의 범위를 지정하지 않으면 입력 동작의 속성을 고려하지 않고 대체 콘텐츠를 생성하게 된다. 이와 같이 동작 내용과 동작 속성값들을 선택적으로 설정함으로써 원하는 대로 대체콘텐츠를 생성하도록 할 수 있다. 도 5의 대체콘텐츠 내용을 보면 콘텐츠의 내용 외에 속성이 지정되어 있는 것을 볼 수 있다. 도면부호 201의 대체콘텐츠에서 FS는 폰트의 크기, FC는 폰트의 색상을 나타낸다. 도면부호 202의 대체콘텐츠의 Vol은 음향의 크기를 나타낸다. 이와 같이 대체콘텐츠의 속성을 선택적으로 지정함으로써 화면에 표시하는 경우 콘텐츠의 모양을 지정할 수 있고 음성합성을 통해 표시하는 경우 볼륨, 억양, 빠르기 등을 설정할 수도 있다.Referring to FIG. 5, the above-described dictionary DB 230 stores operation data for generating the above-described content. As shown in reference numerals 201 and 202 of FIG. 5, the dictionary DB 230 expresses what alternative content should be generated according to the value of C, which is the content of the input character, and the range of the operation attribute values V and L. As shown by reference numeral 203 of FIG. 5, if the range of the action attribute value is not specified, the replacement content is generated without considering the attribute of the input operation. Thus, by selectively setting the operation content and the operation attribute values, it is possible to generate the replacement content as desired. Looking at the contents of the alternative content of Figure 5 it can be seen that the property is specified in addition to the content of the content. In the alternative content of 201, FS denotes the font size, and FC denotes the font color. Vol of the alternative content at 202 denotes the volume of sound. In this way, by selectively specifying the attributes of the alternative content, the appearance of the content may be specified when displaying on the screen, and the volume, intonation, and speed may be set when displaying through the speech synthesis.

이러한 사전DB(230)의 내용 등록은 별도의 오프라인 수단을 통해 수행할 수도 있고 입력부(10)만을 이용하여 온라인으로 수행할 수도 있다. 오프라인 수단을 이용하는 경우, 사전편집기(50)를 실행한다. 사전편집기(50)는 테이블 형태로 사전 DB(230)의 내용을 열람 및 편집할 수 있는 수단이다. 별도의 컴퓨팅 장치 상에서 사전편집기(50)를 구동하여 동작데이터 매칭 조건과 대체콘텐츠를 입력함으로써 새로운 대체콘텐츠를 입력할 수 있다. 입력이 완료된 후에는 통신부(30)를 통해 사전 등록부(210)로 전송함으로써 사전DB(112)에 내용을 저장한다.  Registration of the contents of the dictionary DB 230 may be performed through a separate offline means or online using only the input unit 10. When using the offline means, the dictionary editor 50 is executed. The dictionary editor 50 is a means for viewing and editing the contents of the dictionary DB 230 in the form of a table. The new substitute content may be input by driving the pre-editer 50 on a separate computing device to input the operation data matching condition and the substitute content. After the input is completed, the contents are stored in the dictionary DB 112 by transmitting to the dictionary register 210 through the communication unit 30.

여기서, 온라인으로 입력하는 경우의 처리 절차는 도 6에 보는 바와 같다. 사용자는 먼저 대체 콘텐츠 생성 기능을 가동하기 위한 사전 설정 동작을 수행한다(401~404). 대체 콘텐츠 생성 기능 실행 동작이 입력되면(405), 동작 모드는 대체콘텐츠 생성 모드 1번으로 변환되고(406), 대체콘텐츠 생성 모드가 개시되었음을 사용자에게 알린다(407). 알림은 피드백부(110)에 의해 실행되며 화상, 소리, 진동 등의 매개체를 통해 표시된다(408). 이후 입력되는 첫번째 동작은 임시 저장하는데(409), 이 입력 동작은 대체콘텐츠에 대한 키(Key)가 된다. 다시 피드백부(110)를 통해 사용자에게 현재 입력동작에 대한 대체콘텐츠를 입력하라는 통보를 표시한다(410). 이후 사용자가 입력하는 동작들은 해석 과정을 거쳐 축적 저장된다(411, 412, 416). 최종적으로 사용자가 대체콘텐츠 생성 과정을 종료하라는 동작을 입력하면(413), 409 단계에서 저장한 입력 동작과 416 단계를 통해 축적한 콘텐츠를 쌍으로 하여 사전 DB(230)에 저장한 후(414), 일반 작동 모드로 돌아가게 된다(415).Here, the processing procedure in the case of inputting online is as shown in FIG. The user first performs a preset operation for operating the alternative content generation function (401 to 404). When the alternative content generation function execution operation is input (405), the operation mode is converted to the alternative content generation mode 1 (406), and notifies the user that the alternative content generation mode has been started (407). The notification is executed by the feedback unit 110 and displayed through a medium such as an image, a sound, and a vibration (408). After that, the first operation to be input is temporarily stored (409), and this input operation becomes a key for the alternative content. The feedback unit 110 displays a notification to the user to input the alternative content for the current input operation (410). Thereafter, the operations input by the user are accumulated and stored through an analysis process (411, 412, 416). Finally, when the user inputs an operation to terminate the alternative content generation process (413), the input operation stored in step 409 and the accumulated content in step 416 are stored in the dictionary DB 230 in pairs (414). The routine then returns to normal operation mode (415).

입력부(10)만을 이용한 대체콘텐츠 입력 작업을 통해서는 동작데이터 매칭 조건이나 대체콘텐츠 속성을 세세하게 입력하기 어렵다. 입력부(10)에 키보드가 부착된 경우에는 부가적인 입력 과정을 통해 이러한 값들을 추가 입력할 수 있을 것이다. 또는, 사전등록부(220)를 이용하여 오프라인 상에서 사전 DB(230)의 내용을 열람 및 편집하는 과정을 별도로 수행함으로써 온라인 상에서 등록한 대체콘텐츠의 내용을 보완/확장할 수 있다.Through the alternative content input operation using only the input unit 10, it is difficult to input the motion data matching condition or the alternative content attribute in detail. If a keyboard is attached to the input unit 10, these values may be additionally input through an additional input process. Alternatively, by separately performing the process of viewing and editing the contents of the dictionary DB 230 offline using the preregistration unit 220, the contents of the replacement contents registered online may be supplemented / expanded.

이하, 본 발명의 실시예에 따른 동작 기반 문자 입력 장치의 동작 순서를 도면을 참조하여 설명하도록 한다. Hereinafter, an operation sequence of an action-based character input device according to an embodiment of the present invention will be described with reference to the drawings.

우선, 입력부(10)는 관성 센서(20)를 이용하여 사람의 동작 변화를 신호로 검출한다. 검출된 신호는 통신부(30)를 통해 동작 해석 응용수단(100)으로 전달된다(S10). 그러면 동작 해석부(120)는 동작 구분 여부를 판단한다(S20). 즉 동작 해 석부(120)는 입력부(10)를 통해 동작이 입력되면, 수신한 신호를 해석하고, 그에 따라 의미 있는 동작 구간을 분리하여 어떤 동작이 이루어졌는지 인식한다. 동작 해석부(120)는 동작이 구분되기 이전까지 대기 상태를 유지한다(S22). 예를 들어, 사용자는 하나의 동작을 입력부(10)를 이용하여 수행한 후 동작 휴지기를 갖게 된다.First, the input unit 10 detects an operation change of a person as a signal using the inertial sensor 20. The detected signal is transmitted to the operation analysis application means 100 through the communication unit 30 (S10). Then, the operation analysis unit 120 determines whether the operation is divided (S20). In other words, when an operation is input through the input unit 10, the operation interpreter 120 interprets the received signal and recognizes what operation is performed by separating the meaningful operation section accordingly. The operation analysis unit 120 maintains the standby state until the operation is divided (S22). For example, a user performs an operation pause after performing one operation using the input unit 10.

이때, 동작 해석부(120)는 입력된 동작을 구분하여 동작 데이터를 생성하게 되면, 구분한 시점을 피드백부(110)로 전달한다. 그러면 피드백부(110)는 해당 동작을 구분한 사실을 사용자에게 알림으로써 사용자에 의해서 다음 동작을 입력하도록 한다(S30). In this case, when the motion analysis unit 120 generates motion data by dividing the input motion, the motion analysis unit 120 transmits the divided time to the feedback unit 110. Then, the feedback unit 110 inputs the next operation by the user by notifying the user of the fact that the operation is divided (S30).

다음, 동작 해석부(120)는 사전부(200)를 통해 구분된 동작 구간의 신호를 해석하고, 그 동작의 내용을 파악하여 동작데이터를 생성한다(S40). 예를 들어, 사용자가 'A'를 입력했다면, 동작 해석부(120)는 입력된 동작과 매칭되는 사전DB(230)의 동작데이터를 근거로 동작의 의미, 즉 ‘A’를 쓴 것인지 해석하게 된다. Next, the operation analysis unit 120 analyzes the signals of the operation section divided by the dictionary unit 200, grasps the contents of the operation and generates operation data (S40). For example, if the user inputs 'A', the motion analysis unit 120 interprets the meaning of the motion, that is, writing 'A' based on the motion data of the dictionary DB 230 matching the input motion. do.

이때, 동작 응용부(130)는 설정된 동작 모드를 확인하고(S50), 해당 모드에 따라 동작 속성(Motion Property) 정보와 사전DB(230)의 동작 데이터를 매칭시켜 해당 콘텐츠를 외부로 표시하게 된다(S60). At this time, the operation application unit 130 checks the set operation mode (S50), and matches the motion property information (Motion Property) information and the motion data of the dictionary DB 230 according to the mode to display the corresponding content to the outside. (S60).

여기서, 동작 응용부(130)는 설정된 동작 모드가 단위 콘텐츠 생성 모드인 경우, 단위 입력 동작데이터를 즉시 개별 콘텐츠로 생성하여 표시하게 된다. 예를 들어, 사용자가 크고 빠른 동작으로 하트문자를 입력하면, 동작데이터는 [C=‘♡ ’, V=80, L=150]과 같은 데이터를 담고 있게 된다. 콘텐츠 생성부(132)는 C의 값으로 저장되어 있는 문자를 그대로 콘텐츠로 만들되, 문자의 크기와 색상 등 문자 속성을 V와 L의 값을 참조하여 상황에 따라 다르게 생성한다. Here, when the set operation mode is the unit content generation mode, the operation application unit 130 immediately generates and displays unit input operation data as individual content. For example, if a user inputs a heart character in a large and fast motion, the motion data will contain data such as [C = '♡', V = 80, L = 150]. The content generating unit 132 makes the text stored as the value of C as content, but generates a character attribute such as the size and color of the character differently depending on the situation with reference to the values of V and L.

또, 동작 응용부(130)는 설정된 동작 모드가 종합 콘텐츠 생성 모드인 경우, 단위 입력 동작데이터를 축적하여 단어 단위, 문장 단위, 또는 문서 단위의 콘텐츠로 생성하여 표시하게 된다. 예를 들어, N개의 문자로 이루어진 단어의 경우, 각 문자를 쓰는 동작의 속성을 평균하여 그 값에 따라 서로 다른 형태로 단어 콘텐츠를 생성하여 표시하게 된다. In addition, when the set operation mode is the comprehensive content generation mode, the operation application unit 130 accumulates unit input operation data and generates and displays content in word units, sentence units, or document units. For example, in the case of a word consisting of N letters, the attributes of each letter-writing operation are averaged, and word content is generated and displayed in different forms according to the value.

또한, 동작 응용부(130)는 설정된 동작 모드가 대체콘텐츠 생성 모드인 경우입력 동작데이터를 근거로 하여 입력 동작을 대치하는 콘텐츠를 생성하여 표시하게 된다. 예를 들어, 하트문자를 작고 느리게 쓰면 “I Like You”라는 문장을 생성하고, 하트를 작고 빠르게 쓰면 “ I need You ”라는 문장을 생성하고, 크게 쓰면 “ I Love You”라는 문장을 생성하여 표시하게 된다. In addition, when the set operation mode is the alternative content generation mode, the operation application unit 130 generates and displays content that replaces the input operation based on the input operation data. For example, if you write small and slow hearts, the sentence “I Like You” will be created. If you write small and fast hearts, the sentence “I need You” will be created. If you write large, the sentence “I Love You” will be created and displayed. Done.

이처럼, 본 발명에서는 동작 입력시 동작 구분 시점을 최대한 빠른 동작 입력 가능 시점을 사용자에게 지시해 준다. 그에 따라 동작 입력 속도를 향상시킬 뿐 아니라, 사용자가 갖는 동작 간 휴지기에 대한 인지적 부담을 줄여준다. As described above, the present invention instructs the user of a point in time at which an operation can be input as soon as possible. This not only improves the speed of motion input, but also reduces the cognitive burden on user pauses between actions.

또, 본 발명에서 동작 속성을 이용한 콘텐츠 확장 방법은 동작 고유의 특성을 콘텐츠에 반영하게 된다. 그에 따라 보다 감성적인 콘텐츠 표현을 가능하게 할 뿐 아니라 간단한 동작으로 긴 문장을 입력할 수 있게 된다. In addition, in the present invention, the content extension method using the action attribute reflects the action-specific characteristics in the content. Accordingly, not only the emotional content can be expressed but also a long sentence can be input with a simple operation.

이처럼, 본 발명에서는 동작을 기반으로 한 콘텐츠 입력의 육체적 부담을 줄여줄 수 있다. 결과적으로 본 발명에 의한 장치는 동작 기반 문자 입력의 단점을 최소화하고 동작 고유의 유용성을 확대함으로써 관련 기술의 상용화와 시장 형성에 기여하리라 사료된다.As such, in the present invention, the physical burden of content input based on the operation can be reduced. As a result, the device according to the present invention is expected to contribute to the commercialization and market formation of related technologies by minimizing the disadvantages of motion-based text input and expanding the inherent usefulness.

이상, 본 발명을 구성 및 동작에 근거하여 구체적으로 설명하였지만, 본 발명은 상기 기술한 예에 한정되는 것이 아니라, 후술하는 특허 청구 범위의 범주 내에서 여러 가지 변형이 가능한 것은 물론이다.As mentioned above, although this invention was demonstrated concretely based on the structure and operation | movement, this invention is not limited to the above-mentioned example, Of course, various changes are possible within the scope of the following claim.

도 1은 본 발명의 실시예에 따른 동작 기반 문자 입력 장치를 개략적으로 도시한 도면.1 is a view schematically showing a gesture-based character input device according to an embodiment of the present invention.

도 2는 동작 기반 문자 입력시 동작 입력 지연 시간을 예시한 도면.2 is a diagram illustrating an operation input delay time when an operation-based character is input.

도 3 및 도 4는 도 1에 따른 동작 기반 문자 입력 장치의 문자 입력 예를 도시한 도면.3 and 4 are diagrams illustrating examples of text input of the motion-based text input apparatus according to FIG. 1.

도 5는 본 발명에 따른 사전DB 내용을 예시한 도면.5 is a diagram illustrating the contents of a dictionary DB according to the present invention.

도 6은 본 발명에 따른 대체 콘텐츠 생성 과정을 예시한 도면.6 is a diagram illustrating an alternative content generation process according to the present invention.

도 7은 본 발명의 실시예에 따른 동작 기반 문자 입력 장치의 동작 예를 도시한 도면. 7 is a diagram illustrating an operation example of an operation-based character input device according to an embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

10 : 입력부 20 : 센서10: input unit 20: sensor

30 : 통신부 50 : 사전 편집기30: communication unit 50: dictionary editor

100 : 동작 해석 응용수단 110 : 피드백부100: motion analysis application means 110: feedback unit

120 : 동작 해석부 130 : 동작 응용부120: motion analysis unit 130: motion application unit

132 : 콘텐츠 생성부 134 : 표시부132: content generation unit 134: display unit

200 : 사전부 210 : 사전 등록부200: dictionary 210: dictionary register

220 : 사전 검색부 230 : 사전 DB220: dictionary search unit 230: dictionary DB

Claims (15)

사용자의 동작 변화를 센서를 이용하여 신호로 검출하는 입력부; 및An input unit for detecting a change in a user's motion as a signal using a sensor; And 상기 입력부의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리는 동작 해석 응용수단을 포함하고, A motion analysis application means for recognizing a character by distinguishing an operation having a meaning from a signal of the input unit and informing a user of a time when the operation is classified; 상기 동작 해석 응용수단은,The motion analysis application means, 상기 입력부의 신호로부터 사용자의 동작 방식을 분석하여 동작을 속성화하는 것을 특징으로 하는 동작 기반 문자 입력 장치.Motion-based character input device characterized in that the attribute of the operation by analyzing the user's operation method from the signal of the input unit. 삭제delete 청구항 1에 있어서, The method according to claim 1, 상기 동작 해석 응용수단은,The motion analysis application means, 상기 입력부의 신호로부터 의미를 갖는 동작 구간을 구분하고, 구분된 동작 구간의 신호를 해석하여 동작을 인식한 동작데이터를 생성하는 동작 해석부; 및An operation analysis unit for distinguishing an operation section having a meaning from a signal of the input unit, and analyzing the signals of the divided operation section to generate operation data recognizing the operation; And 상기 동작 해석부로부터 동작을 구분한 시점을 전달받고, 해당 동작을 구분한 사실을 사용자에게 알림으로써 사용자에 의해서 다음 동작을 입력하도록 하는 피드백부;를 포함하는 것을 특징으로 하는 동작 기반 문자 입력 장치.And a feedback unit for receiving a time point at which the action is separated from the motion analysis unit, and notifying the user of the fact that the action is separated, so as to input a next action by the user. 청구항 3에 있어서, The method of claim 3, 상기 동작 해석부의 동작데이터는,The operation data of the operation analysis unit, 상기 입력부의 신호로부터 사용자의 동작 방식을 분석하여 동작을 속성화한 동작 속성 정보를 포함하는 것을 특징으로 하는 동작 기반 문자 입력 장치.And motion attribute information that analyzes an operation method of a user from the signal of the input unit and attribute the action. 청구항 4에 있어서, The method of claim 4, 상기 동작데이터 근거로 동작의 속성 정보에 해당하는 콘텐츠를 생성하여 표시되도록 하는 동작 응용부;를 추가로 포함하는 것을 특징으로 하는 동작 기반 문자 입력 장치.And an action application unit for generating and displaying content corresponding to the attribute information of the action based on the action data. 청구항 5에 있어서, The method of claim 5, 상기 동작 응용부는,The operation application unit, 상기 동작 속성 정보를 기반으로 화상, 음성, 진동 중 적어도 하나 이상의 콘텐츠를 생성하는 콘텐츠 생성부; 및A content generation unit generating at least one content of an image, sound, and vibration based on the operation attribute information; And 상기 생성된 콘텐츠를 외부로 표출하는 표시부를 포함하는 것을 특징으로 하는 동작 기반 문자 입력 장치.And a display unit for displaying the generated content to the outside. 청구항 5에 있어서, The method of claim 5, 상기 동작 응용부의 콘텐츠 생성 방식은,The content generation method of the operation application unit, 동작데이터의 단위별로 즉각 개별 콘텐츠를 생성하는 단위 콘텐츠 생성 모 드, 동작데이터의 단위를 축척하여 종합 콘텐츠를 생성하는 종합 콘텐츠 생성 모드, 동작데이터를 근거로 해당 입력 동작을 대치하는 콘텐츠를 생성하는 대체 콘텐츠 생성 모드 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 동작 기반 문자 입력 장치.A unit content generation mode that immediately generates individual content for each unit of motion data, a comprehensive content generation mode for generating comprehensive content by scaling units of motion data, and an alternative for generating content that replaces the corresponding input action based on motion data And at least one of a content generation mode. 청구항 1에 있어서, The method according to claim 1, 상기 센서는,The sensor, 가속도 센서, 각속도센서 중 적어도 하나 이상을 갖는 관성 센서인 것을 특징으로 하는 동작 기반 문자 입력 장치.Motion-based character input device, characterized in that the inertial sensor having at least one of the acceleration sensor, the angular velocity sensor. 사용자의 동작 변화를 센서를 이용하여 검출한 신호로 입력 받는 입력 단계;An input step of receiving a change in a user's motion as a signal detected using a sensor; 상기 입력 단계의 신호로부터 의미를 갖는 동작을 구분하여 문자를 인식하되, 동작을 구분한 시점을 사용자에게 알리는 동작 해석 응용 단계를 포함하고, A motion analysis application step of recognizing a character by distinguishing an operation having a meaning from the signal of the input step, and informing a user of a time when the operation is classified; 상기 동작 해석 응용단계는,The motion analysis application step, 상기 입력 단계의 신호로부터 사용자의 동작 방식을 분석하여 동작을 속성화하는 것을 특징으로 하는 동작 기반 문자 입력 방법.Motion-based character input method characterized in that the attribute of the motion by analyzing the user's motion method from the signal of the input step. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020090106220A 2008-12-05 2009-11-04 Apparatus for inputting letters based on motion and Method thereof KR101322239B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080123486 2008-12-05
KR20080123486 2008-12-05

Publications (2)

Publication Number Publication Date
KR20100065087A KR20100065087A (en) 2010-06-15
KR101322239B1 true KR101322239B1 (en) 2013-10-25

Family

ID=42364589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090106220A KR101322239B1 (en) 2008-12-05 2009-11-04 Apparatus for inputting letters based on motion and Method thereof

Country Status (1)

Country Link
KR (1) KR101322239B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070060580A (en) * 2005-12-09 2007-06-13 한국전자통신연구원 Apparatus and method for handwriting recognition using acceleration sensor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070060580A (en) * 2005-12-09 2007-06-13 한국전자통신연구원 Apparatus and method for handwriting recognition using acceleration sensor

Also Published As

Publication number Publication date
KR20100065087A (en) 2010-06-15

Similar Documents

Publication Publication Date Title
JP6903808B2 (en) Real-time handwriting recognition management
KR102342624B1 (en) Handwriting keyboard for screens
US10126826B2 (en) System and method for interaction with digital devices
CN106687889B (en) Display portable text entry and editing
KR102284238B1 (en) Input display device, input display method, and program
US20140368434A1 (en) Generation of text by way of a touchless interface
KR20160014465A (en) electronic device for speech recognition and method thereof
KR20140112910A (en) Input controlling Method and Electronic Device supporting the same
KR101457116B1 (en) Electronic apparatus and Method for controlling electronic apparatus using voice recognition and motion recognition
WO2015059976A1 (en) Information processing device, information processing method, and program
WO2014041607A1 (en) Information processing device, information processing method, and program
JP7405093B2 (en) Information processing device and information processing method
CN104657054A (en) Clicking-reader-based learning method and device
KR101567154B1 (en) Method for processing dialogue based on multiple user and apparatus for performing the same
Wang et al. A gesture-based method for natural interaction in smart spaces
KR101322239B1 (en) Apparatus for inputting letters based on motion and Method thereof
KR20110009614A (en) Apparatus for predicting intention of user using multi modal information and method thereof
Chen et al. Slideshow: Gesture-aware ppt presentation
KR20170029390A (en) Method for voice command mode activation
JP2018022528A (en) Input display device, input display method, and input display program
KR20130078494A (en) Display apparatus and method for controlling display apparatus thereof
JP2015225506A (en) Image processing device and program
KR101407151B1 (en) Apparatus inputting hangul with touch screen and control method thereof
KR20130081543A (en) Memo input device, memo display method using the same in terminal and memo system
KR20150066156A (en) Display apparatus and Method for controlling display item thereof

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160927

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee