KR20130078391A - Method for making electronic documents by hybrid basis using direct inputs and voice commands, and computer-readable recording medium storing electronic documents making program by hybrid basis - Google Patents

Method for making electronic documents by hybrid basis using direct inputs and voice commands, and computer-readable recording medium storing electronic documents making program by hybrid basis Download PDF

Info

Publication number
KR20130078391A
KR20130078391A KR1020110147308A KR20110147308A KR20130078391A KR 20130078391 A KR20130078391 A KR 20130078391A KR 1020110147308 A KR1020110147308 A KR 1020110147308A KR 20110147308 A KR20110147308 A KR 20110147308A KR 20130078391 A KR20130078391 A KR 20130078391A
Authority
KR
South Korea
Prior art keywords
input
voice
data
command
electronic document
Prior art date
Application number
KR1020110147308A
Other languages
Korean (ko)
Other versions
KR101372837B1 (en
Inventor
윤상원
Original Assignee
주식회사 인프라웨어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인프라웨어 filed Critical 주식회사 인프라웨어
Priority to KR1020110147308A priority Critical patent/KR101372837B1/en
Publication of KR20130078391A publication Critical patent/KR20130078391A/en
Application granted granted Critical
Publication of KR101372837B1 publication Critical patent/KR101372837B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: An electronic document input method of a hybrid type capable of using a direct input and a voice command, and a recording medium which is readable with a computer which recorded an electronic document input program of the hybrid type are provided to automatically convert a shape, which is rapidly inputted by the direct input method, into an object corresponding to the desired voice command, thereby improving the quality of the electronic document. CONSTITUTION: A primitive shaped data, which is inputted by a direct input method, is received in an electronic document input window which is equipped with a user interface (UI) screen, and a voice signal is received from a user (S5). A correction effect is calculated by performing the voice recognition process of the voice signal. The content data is obtained by applying the correction effect to the primitive shaped data, and the content data is implemented as the UI screen (S7). The primitive shaped data includes the figure-shape data and the character-shape data, and the content data includes the figure data and the character data. [Reference numerals] (AA) Start; (BB) End; (S1) Input handwriting; (S2) End successive handwriting trials; (S3) Wait a voice input; (S4) Voice signal over a predetermined decibel; (S5) Voice input; (S6) End successive voice input trials?; (S7) Apply a correction effect depending on voice recognition

Description

직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법, 그리고 하이브리드 방식의 전자문서 입력 프로그램을 기록한 컴퓨터로 판독가능한 기록매체{Method for making electronic documents by hybrid basis using direct inputs and voice commands, and computer-readable recording medium storing electronic documents making program by hybrid basis}Method for making electronic documents by hybrid basis using direct inputs and voice commands, and computer- readable recording medium storing electronic documents making program by hybrid basis}

본 발명은 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법, 그리고 하이브리드 방식의 전자문서 입력 프로그램을 기록한 컴퓨터로 판독가능한 기록매체에 관한 것이다. 더욱 상세하게는 본 발명은 핸드라이팅이나 마우스, 디지타이저 등의 조작을 통해 전자문서에 각종 내용, 예컨대 도형이나 글자를 입력하고, 그 입력된 내용을 음성 명령을 통하여 보정하는 하이브리드 방식의 전자문서 작성 프로세스를 제공하는 기술을 제공한다.
The present invention relates to a hybrid electronic document input method using direct input and voice commands, and a computer-readable recording medium recording a hybrid electronic document input program. More specifically, the present invention provides a hybrid electronic document creation process of inputting various contents, such as figures or letters, into an electronic document through handwriting, a mouse, and a digitizer, and correcting the input contents through voice commands. Provide the technology to provide.

현재 모바일 스마트 운영체제의 발달로 인하여 스마트폰이나 태블릿 단말 등과 같은 터치스크린을 구비한 터치 단말기 상에서 파워포인트나 워드프로세서와 같은 오피스 프로그램에 대한 실행이 가능하다. 그에 따라 터치 단말기 상에서도 개인용컴퓨터에서와 마찬가지로 오피스 프로그램으로 전자문서를 작성할 때 각종 내용, 예컨대 문자나 도형(예: 네모, 세모, 흐름도)을 입력할 경우가 자주 발생한다. 이러한 조작은 터치로도 이루어질 수도 있지만 마우스나 디지타이저 등과 같은 도구를 통해서 이루어질 수도 있다.Due to the development of the mobile smart operating system, it is possible to execute an office program such as a power point or a word processor on a touch terminal having a touch screen such as a smartphone or a tablet terminal. As a result, when creating an electronic document using an office program on a touch terminal as in a personal computer, various contents such as letters or figures (eg, squares, triangles, and flowcharts) are frequently input. Such manipulation may be performed by touch, but may also be performed through a tool such as a mouse or a digitizer.

이러한 경우에 마치 개인용컴퓨터에서 마우스 입력장치를 조작하는 것과 마찬가지로 문자 입력의 경우에는 가상키보드 등과 같이 UI 화면으로 구현가능한 문자입력모듈을 화면에 호출하여 문자를 입력하고, 도형 입력의 경우에는 메뉴에서 도형 형상을 선택하고 터치스크린에 구현된 UI 화면에서 위치를 잡은 다음 도형의 속성을 설정함으로써 도형을 입력하는 방식을 취한다.In this case, as in the case of operating a mouse input device in a personal computer, in the case of text input, a character input module that can be implemented as a UI screen such as a virtual keyboard is called on the screen to input characters, and in the case of figure input, a figure is input from a menu. The user selects a shape, takes a position on the UI screen implemented on the touch screen, and sets a property of the figure to input the figure.

한편, 터치 인터페이스를 기반으로 한 터치 단말기만의 입력 방식으로는 터치스크린을 통해 핸드라이팅(hand-writing)을 하는 방식이 있다. 일반적으로는 타블랫 등을 이용하여 드로잉(drawing)을 하는 용도로 많이 사용되어 왔는데, 이와 같이 UI 화면에 구현된 전자문서 상으로 사용자의 터치에 의한 핸드라이팅으로 드로잉을 하는 경우에는 터치스크린에 핸드라이팅한 내용이 그대로 인식되어 이미지 파일로 저장되었다.Meanwhile, an input method of only a touch terminal based on a touch interface is a method of handwriting through a touch screen. In general, it has been widely used for drawing by using a tablet or the like. When drawing by handwriting by a user's touch on the electronic document implemented on the UI screen, the user touches the touch screen. The writing was recognized and saved as an image file.

이러한 핸드라이팅을 이용하여 전자문서에 각종 내용을 입력하는 것을 생각할 수도 있으나, 이 경우 핸드라이팅으로 내용을 입력한 상태가 소프트웨어 메뉴나 아이콘에 대한 선택버튼에 의해 입력되는 경우보다 정확도가 떨어지고 아무래도 입력하고자 의도했던 내용과는 다르게 인식되거나 매끄럽지 않은 형상으로 입력되는 경우가 자주 발생한다.It may be considered to input various contents into an electronic document by using such handwriting, but in this case, the accuracy of inputting the contents by handwriting is less accurate than when inputted by a selection button for a software menu or an icon. Frequently, the input is not recognized or input in a shape that is different from the intended content.

또한, 도형의 경우에는 마우스나 디지타이저 등의 입력장치를 이용해서 직접 형상을 전자문서에 입력하는 경우도 있는데, 사용자가 아무리 심혈을 기울여 작성하더라도 아무래도 프로그램 메뉴나 아이콘 등을 이용하여 도형 형상을 선택하고 속성을 설정하는 것에 비하면 품질이 조악할 수밖에 없다. 또한, 종래의 전자문서 소프트웨어에서는 핸드라이팅이나 마우스, 디지타이저 등을 이용하여 내용을 직접 입력하는 모드의 경우, 인식율이 떨어져 입력 후 보정이 필요하거나 입력된 내용에 추가 동작을 해야 하는 경우가 발생하나, 필기 입력시 이런 보정과 함께 편집을 함께 하기는 어려운 문제가 있다.
Also, in the case of a figure, a shape may be directly input into an electronic document by using an input device such as a mouse or a digitizer. Compared to setting the property, the quality is inevitably poor. In addition, in the conventional electronic document software, in the mode of directly inputting contents using handwriting, a mouse, a digitizer, and the like, the recognition rate is lowered, so that correction may be required after input or additional operations on the input contents may occur. It is difficult to edit together with this correction when writing.

[관련기술문헌][Related Technical Literature]

1. 오타를 방지하는 터치스크린 상의 키보드자판 배치디자인과 문자입력방식 (특허출원 제10-2010-0046193호)
1. Keyboard keyboard layout design and character input method on touch screen to prevent typos (Patent Application No. 10-2010-0046193)

본 발명의 목적은 핸드라이팅이나 마우스, 디지타이저 등을 이용한 직접 입력 방식으로 전자문서 상에 각종 내용(예: 도형, 글자)을 1차적으로 입력한 후에 그 입력 내용을 사용자의 음성 명령을 기반으로 정정 내지 교정하기 위한 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법, 그리고 하이브리드 방식의 전자문서 입력 프로그램을 기록한 컴퓨터로 판독가능한 기록매체를 제공함에 있다.
An object of the present invention is to directly input various contents (eg, figures, letters) on an electronic document by using a handwriting, a mouse, a digitizer, etc., and then correct the input contents based on a user's voice command. The present invention provides a hybrid electronic document input method using direct input and voice commands for calibrating, and a computer-readable recording medium recording a hybrid electronic document input program.

본 발명은 상기와 같은 기술적 과제를 달성하기 위한 것으로서, 본 발명에 따른 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법은, UI 화면으로 구현된 전자문서 입력창에 직접 입력 방식으로 입력된 원시 형상 데이터를 제공받는 제 1 단계; 사용자로부터 음성 신호를 제공받는 제 2 단계; 음성 신호에 대해 음성 인식 처리를 수행하여 보정이펙트를 산출하는 제 3 단계; 보정이펙트를 적용하여 원시 형상 데이터를 변환하여 그에 대응되는 내용 데이터를 획득하는 제 4 단계; 위 변환을 통해 획득된 내용 데이터를 UI 화면으로 구현하는 제 5 단계;를 포함하여 구성된다.The present invention is to achieve the above technical problem, the hybrid electronic document input method using a direct input and a voice command according to the present invention, is input directly to the electronic document input window implemented as a UI screen A first step of receiving raw shape data; Receiving a voice signal from a user; A third step of performing a speech recognition process on the speech signal to calculate a correction effect; Applying a correction effect to convert raw shape data to obtain content data corresponding thereto; And a fifth step of implementing the content data obtained through the above conversion into the UI screen.

이때, 본 발명의 전자문서 입력 방법에서 보정이펙트를 산출하는 단계는, 음성 신호가 등록된 음성 명령어인지 여부를 판단하는 단계(a); 등록된 음성 명령어에 해당하는 경우, 등록된 음성 명령어에 따른 보정이펙트를 산출하는 단계(b); 등록된 음성 명령어에 해당하지 않는 경우, 명령어 분석서버를 액세스하여 음성 신호에 대한 자연어 분석을 요청하는 단계(c); 명령어 분석서버로부터 자연어 분석 결과를 제공받으면 음성 신호에 해당하는 신규 보정이펙트를 산출하는 단계(d);를 포함하는 것이 바람직하다.In this case, the step of calculating the correction effect in the electronic document input method of the present invention includes: determining whether the voice signal is a registered voice command (a); (B) calculating a correction effect according to the registered voice command when it corresponds to the registered voice command; (C) requesting a natural language analysis of a voice signal by accessing the command analysis server when the voice command does not correspond to the registered voice command; And (d) calculating a new correction effect corresponding to the voice signal when the natural language analysis result is provided from the command analysis server.

이러한 과제를 달성하기 위한 본 발명에 따른 하이브리드 방식의 전자문서 입력 프로그램을 기록한 컴퓨터로 판독가능한 기록매체는, UI 화면으로 구현된 전자문서 입력창에 직접 입력 방식으로 원시 형상 데이터를 입력받고, 원시 형상 데이터를 위한 연속적 직접 입력이 단절되는 경우에 사용자로부터의 마이크(30)를 통한 음성 신호의 입력을 대기하도록 제어하는 문서편집-기능단(40); 원시 형상 데이터의 입력이 완료되면 마이크(30)로 음성 신호를 제공받는 음성-입력기능단(51); 음성 신호에 대한 음성 인식 처리를 통해 보정이펙트를 산출하는 명령어-분석기능단(52); 보정이펙트를 적용하여 원시 형상 데이터를 변환하여 그에 대응되는 내용 데이터를 획득하고, 획득된 내용 데이터를 UI 화면으로 구현하는 이펙트-적용기능단(53);을 포함하여 구성된다.A computer-readable recording medium recording a hybrid type electronic document input program according to the present invention for achieving the above object receives raw shape data by a direct input method into an electronic document input window implemented as a UI screen, and a raw shape. A text editing-function stage 40 which controls to wait for input of a voice signal through the microphone 30 from the user when the continuous direct input for the data is cut off; A voice-input functional stage 51 which receives a voice signal to the microphone 30 when the input of the raw shape data is completed; A command-analysis function stage 52 for calculating a correction effect through a speech recognition process on the speech signal; An effect-applying function stage 53 for converting the raw shape data by applying the correction effect to obtain content data corresponding thereto, and for implementing the acquired content data as a UI screen.

이때, 본 발명에서 명령어-분석기능단(52)은 음성 신호가 등록된 음성 명령어인지 여부를 판단하여, 등록된 음성 명령어에 해당하는 경우에는 등록된 음성 명령어에 따른 보정이펙트를 산출하는 한편, 등록된 음성 명령어에 해당하지 않는 경우에는 명령어 분석서버를 액세스하여 음성 신호에 대한 자연어 분석을 요청하고 그에 따른 자연어 분석 결과를 제공받으면 음성 신호에 해당하는 신규 보정이펙트를 산출하는 것이 바람직하다. 한편, 본 발명에서 원시 형상 데이터는 도형-형상 데이터와 문자-형상 데이터를 포함하고, 내용 데이터는 도형 데이터와 문자 데이터를 포함하여 이루어진다.
At this time, in the present invention, the command-analysis function unit 52 determines whether the voice signal is a registered voice command, and calculates a correction effect according to the registered voice command while registering the voice signal. If it does not correspond to the voice command, it is preferable to calculate a new correction effect corresponding to the voice signal when the command analysis server is accessed to request a natural language analysis of the voice signal and the natural language analysis result is provided accordingly. On the other hand, in the present invention, the raw shape data includes figure-shape data and text-shape data, and the content data includes figure data and text data.

본 발명에 따르면, 핸드라이팅이나 마우스, 디지타이저 등을 사용한 직접 입력 방식으로 사용자가 급하게 입력한 도형을 사용자가 원하는 음성 명령어에 해당하는 객체로 자동변환해 줌으로써, 전자문서 작성시 도형입력 방식을 개선하고 직접 입력 방식으로 작성한 전자 문서의 품질을 향상시킬 수 있다.According to the present invention, by automatically converting a figure input by the user in a direct input method using a handwriting, a mouse, a digitizer, etc. into an object corresponding to a voice command desired by the user, thereby improving the shape input method when creating an electronic document. The quality of electronic documents created by direct input can be improved.

즉, 각종의 사용자 단말기 상에서 전자문서 작성할 때 보다 효율적이고 정확하게 도형을 입력한 뒤, 일반적인 핸드라이팅이나 마우스, 디지타이저을 이용한 입력이 아닌 사용자 편의 중심적인 음성 명령으로 도형에 대한 보정이 가능함으로써, 전자문서 작성의 이용도를 높일 수 있다.
In other words, the user can input the figure more efficiently and accurately when creating electronic documents on various user terminals, and then correct the figure by using user-oriented voice commands instead of general handwriting, mouse, or digitizer. Can increase the availability.

[도 1]은 본 발명에 따른 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법이 구현되는 문서편집-기능단과, 그 입력된 내용을 음성 명령을 통하여 보정하기 위한 문서보정-기능부를 설명하기 위한 도면.
[도 2]는 본 발명에서 터치 단말기가 통신망을 통해 명령어 분석서버에 연결된 상태를 나타내는 도면.
[도 3] 내지 [도 7]은 단말기의 터치스크린에 구현되는 UI 화면으로서 특히 도형을 직접 입력하는 과정을 설명하기 위한 도면.
[도 8]과 [도 9]는 본 발명에 따른 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법을 나타내는 흐름도.
1 is a document editing function for implementing a hybrid electronic document input method using a direct input and a voice command according to the present invention, and a document correction-function unit for correcting the input contents through a voice command. Drawing for.
2 is a view showing a state in which the touch terminal is connected to the command analysis server through a communication network in the present invention.
3 to 7 are views for explaining a process of directly inputting a figure as a UI screen implemented on a touch screen of a terminal.
8 and 9 are flowcharts illustrating a hybrid electronic document input method using direct input and voice commands according to the present invention.

이하에서는 도면을 참조하여 본 발명을 상세하게 설명한다. 본 발명에서는 일 실시예로서 터치스크린 상에서 사용자가 핸드라이팅으로 도형 형상을 입력하는 경우를 중심으로 설명을 전개한다. 하지만, 본 발명의 기술적 사상은 이러한 분야에 한정되지 않으며, 마우스나 디지타이저 등을 이용하여 직접입력 방식으로 각종 내용, 예를 들어 문자나 도형(예: 네모, 세모, 흐름도)을 입력하는 경우에도 널리 적용될 수 있는 것으로 이해되어야 한다.Hereinafter, the present invention will be described in detail with reference to the drawings. In an embodiment of the present invention, the description will be focused on a case where a user inputs a figure shape by handwriting on a touch screen. However, the technical idea of the present invention is not limited to such a field, and even when a user inputs various contents, for example, a letter or a figure (eg, a square, a triangle, or a flowchart) by a direct input method using a mouse or a digitizer. It should be understood as applicable.

[도 1]은 본 발명의 실시예에 따른 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법이 구현되는 문서편집-기능단(40)과, 그 입력된 내용을 음성 명령을 통하여 보정하기 위한 문서보정-기능부(50)를 설명하기 위한 도면이다. [도 2]는 본 발명의 터치 단말기(1)가 통신망(2)을 통해 명령어 분석서버(3)에 연결된 상태를 나타내는 도면이다.1 is a document editing-function stage 40 in which a hybrid electronic document input method using a direct input and a voice command according to an embodiment of the present invention is implemented, and the input contents are corrected through a voice command. It is a figure for demonstrating the document correction-function part 50 for it. 2 is a diagram illustrating a state in which the touch terminal 1 of the present invention is connected to the command analysis server 3 through a communication network 2.

본 실시예의 터치 단말기(1)는 입력부(10), 문서편집-기능단(40), 문서보정-기능부(50), 제어부(60), 송수신부(70), 저장부(80), 이펙트저장부(90)를 포함하여 이루어지며, 이중에서 입력부(10)는 터치스크린(20)과 마이크(30)를 구비한다. 문서보정-기능부(50)는 음성-입력기능단(51), 명령어-분석기능단(52), 이펙트-적용기능단(53)을 포함하여 이루어진다.The touch terminal 1 according to the present embodiment includes an input unit 10, a document editing function group 40, a document correction function unit 50, a control unit 60, a transceiver unit 70, a storage unit 80, and an effect. It comprises a storage unit 90, of which the input unit 10 is provided with a touch screen 20 and a microphone (30). The document correction-function unit 50 includes a voice-input function unit 51, a command-analysis function unit 52, and an effect-application function unit 53.

먼저, 터치스크린(10)은 사용자에 의한 터치 입력(핸드라이팅 입력)을 제공하는 구성요소이며, 제어부(60)에 의하여 저장부(80)에 저장되어 있던 전자문서 프로그램이 구현되면 전자문서(예: 파워포인트) 상에 각종 내용을 입력하기 위한 입력창(미도시)을 UI 화면 터치 인터페이스로 형성된다. 이처럼 전자문서에 입력하는 내용으로는 문자나 도형을 생각할 수 있다.First, the touch screen 10 is a component that provides a touch input (handwriting input) by a user. When the electronic document program stored in the storage unit 80 is implemented by the controller 60, an electronic document (eg The input window (not shown) for inputting various contents on the PowerPoint is formed as a UI screen touch interface. As such, characters or figures can be thought of as the contents entered in the electronic document.

이어서 문서편집-기능단(40)에 대해 살펴본다. 문서편집-기능단(40)은 예컨대 터치스크린(20)의 핸드라이팅 조작에 의해 원시 형상 데이터를 입력받는다. 문서편집-기능단(40)은 각각의 원시 형상 데이터에 대한 연속적 입력이 단절되는지 여부를 실시간으로 판단한다. 보다 구체적으로 문서편집-기능단(40)은 미리 설정된 시간 동안의 터치 단말기(1) 사용자의 입력이 없는 경우 연속적 핸드라이팅이 종료되었다고 판단한다. 이때, 연속적 핸드라이팅이 종료되었는지 여부 판단에 사용되는 시간은 1초 내지 5초가 바람직하나 이에 한정하지 않는다.Next, the document editing function group 40 will be described. The document editing-function stage 40 receives the raw shape data, for example, by handwriting manipulation of the touch screen 20. The text editing-function stage 40 determines in real time whether successive inputs to each raw shape data are broken. More specifically, the document editing-functional unit 40 determines that the continuous handwriting is terminated when there is no input by the user of the touch terminal 1 for a preset time. In this case, the time used for determining whether the continuous handwriting is finished is preferably 1 second to 5 seconds, but is not limited thereto.

한편, 직접 입력 방식으로 전자문서를 작성하는 기술에 대해서는 본 출원인이 대한민국 특허출원 제10-2011-0099442호(출원일 2011.09.29) "직접입력 방식의 전자문서 입력 방법, 그리고 직접입력 방식의 전자문서 입력 프로그램을 기록한 컴퓨터로 판독가능한 기록매체"을 통하여 상세하게 기술하였으며, 본 발명이 위 특허출원의 직접 입력 프로세스를 그대로 따르는 것은 아니지만 본 발명의 기술적 사항을 이해할 목적으로 활용될 수 있으며, 그에 따라 본 명세서에서는 이와 중복되는 내용은 생략하기로 한다.On the other hand, as for the technology of creating an electronic document by a direct input method, the applicant of the Republic of Korea Patent Application No. 10-2011-0099442 (filed September 29, 2011) "Direct input method of the electronic document input method, and direct input method electronic document A computer-readable recording medium recording an input program is described in detail, and the present invention does not directly follow the direct input process of the above patent application, but may be used for the purpose of understanding the technical matters of the present invention. In the specification, duplicate description thereof will be omitted.

직접 입력 방식으로 전자문서에 내용을 입력하는 일 예로서 특히 도형을 입력하는 기술의 개념에 대해서는 [도 3] 내지 [도 7]에 걸쳐 예시적으로 개시되어 있다. 개략적으로는 사용자가 핸드라이팅과 같은 직접 입력 방식으로 도형-형상 데이터를 제공하면 문서편집-기능단(40)은 이렇게 입력된 도형-형상 데이터를 저장하고 있다가, 후술하는 바와 같이 사용자가 음성 입력을 통해 보정이펙트를 제공하면 그에 따라 도형-형상 데이터를 내용 데이터로 변환하고 바람직하게는 주변의 다른 도형들과 어울리도록 배치한다. [도 3] 내지 [도 7]에 개시되어 있지는 않으나 본 발명에서는 사용자가 전자문서 상에 직접 입력 방식으로 문자나 기타 다른 내용을 입력할 수도 있다.As an example of inputting content into an electronic document by a direct input method, a concept of technology for inputting a figure is exemplarily disclosed in FIGS. 3 to 7. In general, when the user provides the figure-shape data by a direct input method such as handwriting, the document editing-function stage 40 stores the figure-shape data input as described above. When the correction effect is provided, the figure-shape data is converted into the content data accordingly, and preferably arranged to match the other figures around. Although not shown in FIGS. 3 to 7, in the present invention, a user may input text or other content directly on an electronic document.

문서편집-기능단(40)은 연속적 핸드라이팅이 완료되었다고 판단하면 그 입력내용을 저장부(80)에 임시 저장한다. 그리고 나서, 문서편집-기능단(40)은 문서보정-기능부(50)에게 이를 통지함으로써 음성 입력모드로 진행하며, 이때 문서보정-기능부(50)는 단말기(1)의 마이크(30)를 통하여 사용자의 음성 신호가 입력하기를 대기하도록 한다.If the document editing-function stage 40 determines that the continuous handwriting has been completed, the input content is temporarily stored in the storage unit 80. Then, the document editing-function unit 40 proceeds to the voice input mode by notifying the document correction-function unit 50 of this, wherein the document correction-function unit 50 is the microphone 30 of the terminal 1. Wait for the user's voice signal to enter.

이하에서는 문서보정-기능부(50)를 구성하는 각 구성요소인 음성-입력기능단(51), 명령어-분석기능단(52), 이펙트-적용기능단(53)을 중심으로 문서보정-기능부(50)에 대하여 살펴본다.Hereinafter, the document correction-function centering on the voice-input function stage 51, the command-analysis function stage 52, and the effect-applying function stage 53, which are the components constituting the document correction-function unit 50, will be described. The section 50 will be described.

먼저 음성-입력기능단(51)을 살펴보면, 문서편집-기능단(40)으로부터 연속적 핸드라이팅 완료가 통지됨에 따라 음성 신호 입력을 대기하며, 사용자에 의해 마이크(30)로 음성 신호가 입력되면, 기설정된 데시벨(decibel) 이상의 음성 신호인지 여부를 판단한다.First, referring to the voice-input function stage 51, the voice signal input is waited as the completion of continuous handwriting is notified from the document editing-function stage 40, and the voice signal is input to the microphone 30 by the user. It is determined whether the voice signal is equal to or greater than a predetermined decibel.

음성-입력기능단(51)은 위 판단 결과 기설정된 데시벨 이상인 충분히 큰 소리의 음성 신호가 입력된 경우, 마이크(30)를 통해 사용자의 음성 신호를 입력받아 저장부(80)에 임시 저장하도록 제어부(60)에 요청한다. 반대로 위 판단 결과 기설정된 데시벨 이상의 음성 신호가 입력되지 않은 경우에는 음성-입력기능단(51)은 당해 음성 신호를 무시하고 핸드라이팅 입력모드를 다시 진행하도록 문서편집-기능단(40)에게 요청한다.When the voice-input function terminal 51 receives a voice signal with a sufficiently loud sound that is greater than or equal to a predetermined decibel as a result of the above determination, the voice-input function unit 51 receives a user's voice signal through the microphone 30 and temporarily stores it in the storage unit 80. Ask 60. On the contrary, if the voice signal of more than the predetermined decibel is not inputted as a result of the above determination, the voice-input functional unit 51 requests the document editing-functional unit 40 to ignore the voice signal and resume the handwriting input mode. .

또한, 음성-입력기능단(51)은 마이크(30)를 통한 사용자의 음성에 대한 연속적 입력이 단절되는지 여부를 실시간으로 판단한다. 보다 구체적으로 음성-입력기능단(51)은 미리 설정된 시간 동안의 사용자의 마이크(30)릍 통한 음성 신호 입력이 없는 경우 음성 명령어 입력이 종료되었다고 판단한다. 여기서 연속적 음성 신호 입력이 종료되었다고 판단되는 미리 설정된 시간은 1초 내지 3초로 설정되는 것이 바람직하나 이에 한정되지는 않는다.In addition, the voice-input function stage 51 determines in real time whether the continuous input to the user's voice through the microphone 30 is cut off. More specifically, the voice input unit 51 determines that the input of the voice command is terminated when there is no input of a voice signal through the user's microphone 30 for a preset time. In this case, the predetermined time determined to be the end of the continuous voice signal input is preferably set to 1 second to 3 seconds, but is not limited thereto.

다음으로 명령어-분석기능단(52)은 음성-입력기능단(51)에 의해 연속적 음성 신호 입력 종료 판단에 따라 그 입력된 음성 신호를 분석하여 음성 명령어를 인식한다. 구체적으로 살펴보면, 명령어-분석기능단(52)은 마이크(30)를 통해 사용자의 음성 신호가 인식되면 그 인식된 음성 신호의 내용 분석을 통해 등록된 음성 명령어인지 여부를 판단한다.Next, the command-analysis function stage 52 analyzes the input voice signal by the voice-input function stage 51 to recognize the voice command in accordance with the determination of the termination of the continuous voice signal input. In detail, the command-analyzing function unit 52 determines whether the voice command is registered by analyzing the contents of the recognized voice signal when the voice signal of the user is recognized through the microphone 30.

판단 결과 인식된 음성 신호가 등록된 음성 명령어에 해당하지 않는 경우, 명령어-분석기능단(52)은 송수신부(70)를 제어하여 통신망(2)을 통해 명령어 분석서버(3)로의 네트워크 액세스를 통해 그 입력된 음성 데이터를 전송하여 자연어 분석을 요청한다. 본 발명에서 자연어란 명령어 분석서버(3)에 미리 구축된 다양한 음성 신호에 해당하는 방대한 데이터베이스를 기초로 가장 매칭되는 음성 명령어로 추출된 단어를 의미한다.As a result of the determination, when the recognized voice signal does not correspond to the registered voice command, the command-analysis function unit 52 controls the transceiver 70 to perform network access to the command analysis server 3 through the communication network 2. The input voice data is transmitted to request natural language analysis. In the present invention, the natural language means a word extracted with the most matching voice command based on a vast database corresponding to various voice signals pre-built in the command analysis server 3.

한편, 명령어-분석기능단(52)은 통신망(2)을 통해 명령어 분석서버(3)로부터 분석되어 도출된 자연어 및 그와 매칭되는 신규 보정이펙트 데이터를 수신한 뒤, 이를 이펙트저장부(90)에 저장한다. 이펙트저장부(90)는 저장부(80)와 달리 임시적인 데이터의 저장 공간으로 미리 설정된 주기에 따라 데이터가 삭제되더라도 무방한데, 저장부(80)와 일체로 구성될 수도 있다.On the other hand, the command-analysis function stage 52 receives the natural language and new correction effect data matched with the natural language derived from the command analysis server 3 through the communication network (2), the effect storage unit 90 Store in Unlike the storage unit 80, the effect storage unit 90 may be a storage space for temporary data, and data may be deleted according to a predetermined period. The effect storage unit 90 may be integrated with the storage unit 80.

이펙트-적용기능단(53)은 핸드라이팅으로 입력된 원시 형상 데이터에 대해 명령어-분석기능단(52)의 사용자 음성 인식에 따라 도출된 보정이펙트를 적용한 후, 그 적용 결과를 터치스크린(20)의 UI 화면으로 출력하도록 제어한다. 여기서 사용되는 보정이펙트는 이펙트저장부(90)에 미리 저장된 보정이펙트 데이터일 수도 있고, 명령어-분석기능단(52)에 의해 명령어 분석서버(3)로부터 수신된 신규 보정이펙트 데이터가 될 수도 있다.The effect-application function stage 53 applies the correction effect derived according to the user speech recognition of the command-analysis function stage 52 to the raw shape data inputted by handwriting, and then applies the result of the application to the touch screen 20. Controls the output to the UI screen. The correction effect used here may be correction effect data previously stored in the effect storage unit 90, or may be new correction effect data received from the command analysis server 3 by the command-analysis function unit 52.

이와 같은 구성에 따라, 터치스크린 기반 기기에서 사용자가 핸드라이팅을 통하여 도형이나 문자를 입력할 때 인식이 잘못되거나 추가 동작을 통해 보정해야 하는 경우에 있어서 불편함을 해소하고 새로운 입력 방법을 제안함으로써 사용자의 편리함을 도모할 수 있다.
According to such a configuration, when a user inputs a figure or a character through handwriting in a touch screen-based device, it is possible to solve the inconvenience and suggest a new input method when the user needs to correct it through an additional operation. We can plan convenience.

[도 8]과 [도 9]은 본 발명에 따른 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법을 나타내는 흐름도이다. 대부분의 기술적 구성이 [도 1] 내지 [도 2]를 참조하여 이미 설명한 바와 공통되므로, 이하에서는 흐름에 대해서만 순차적으로 설명한다. 프로세스의 순서는 [도 8]과 [도 9]에 도시된 것에 한정되지 않으며, 발명의 목적을 달성하는 범위 내에서 일부 단계가 서로 순서를 바꾸어 구성될 수 있다.8 and 9 are flowcharts illustrating a hybrid electronic document input method using direct input and a voice command according to the present invention. Since most technical configurations are common to those already described with reference to [FIGS. 1] to [FIG. 2], only the flow will be described sequentially below. The order of the processes is not limited to those shown in [Fig. 8] and [Fig. 9], and some steps may be configured in reverse order within the scope of the object of the invention.

먼저, [도 8]을 참조하면, 문서편집-기능단(40)은 터치 단말기(1)의 사용자에 의한 터치스크린(20) 조작을 통해 핸드라이팅 입력에 따라 내용 데이터(도형 데이터, 문자 데이터)를 입력받는다(S1).First, referring to FIG. 8, the document editing function unit 40 performs content data (figure data, character data) according to a handwriting input through manipulation of the touch screen 20 by a user of the touch terminal 1. To receive the input (S1).

문서편집-기능단(40)은 단계(S1)에서의 내용 데이터에 대한 연속적 입력이 단절되는지 여부를 판단한다(S2). 보다 구체적으로 문서편집-기능단(40)은 미리 설정된 시간 동안의 사용자의 입력이 없는 경우 연속적 핸드라이팅이 종료되었다고 판단한다.The document editing-function stage 40 determines whether the continuous input to the content data in step S1 is cut off (S2). More specifically, the document editing-functional unit 40 determines that continuous handwriting is terminated when there is no user input for a preset time.

단계(S2)의 판단에 따라 연속적 핸드라이팅이 종료되었다고 판단되면 문서보정-기능부(50)는 단말기(1)의 마이크(30)를 통해 사용자가 보정 목적의 음성 신호가 입력되는지 대기한다(S3).If it is determined that the continuous handwriting is finished according to the determination of step S2, the document correction-function unit 50 waits for the user to input a voice signal for correction purpose through the microphone 30 of the terminal 1 (S3). ).

단계(S3)의 음성 신호 입력 대기에 따라 사용자에 의해 마이크(30)로 음성 신호가 입력되면, 문서보정-기능부(50)는 먼저 기설정된 데시벨 이상의 충분히 큰 음성 신호인지 여부를 판단한다(S4).When the voice signal is input to the microphone 30 by the user in accordance with the waiting for the voice signal input in step S3, the document correction-function unit 50 first determines whether the voice signal is sufficiently loud than the predetermined decibel (S4). ).

단계(S4)의 판단 결과 기설정된 데시벨 이상의 충분히 큰 소리의 음성 신호가 입력된 경우에는 문서보정-기능부(50)는 마이크(30)를 통해 사용자의 음성 신호를 입력받아 저장부(80)에 저장한다(S5). 반대로, 단계(S4)의 판단 결과 기설정된 데시벨 이상의 음성 신호가 입력되지 않은 경우라면 문서보정-기능부(50)는 단계(S1)로 회귀하여 핸드라이팅 입력모드를 다시 진행하도록 문서편집-기능단(40)에게 요청한다.If the voice signal of a sufficiently loud sound equal to or greater than a predetermined decibel is input as a result of the determination in step S4, the document correction-function unit 50 receives the user's voice signal through the microphone 30 and enters the storage unit 80. Save (S5). On the contrary, if the voice signal of the predetermined decibel or more is not input as a result of the determination in step S4, the document correction-function unit 50 returns to step S1 to resume the handwriting input mode. Ask 40.

한편, 단계(S5) 이후, 문서보정-기능부(50)는 마이크(30)를 통한 사용자의 음성 신호에 대해 연속적 입력이 종료되었는지 여부를 판단한다(S6). 좀더 구체적으로는 문서보정-기능부(50)는 미리 설정된 시간동안(예: 2초) 마이크(30)릍 통한 음성 신호 입력이 없는 경우에는 사용자로부터 제공되는 음성 명령어 입력이 완료되었다고 판단한다.On the other hand, after step S5, the document correction-function unit 50 determines whether the continuous input for the user's voice signal through the microphone 30 is terminated (S6). More specifically, the document correction function 50 determines that the input of the voice command provided by the user is completed when there is no input of the voice signal through the microphone 30 for a preset time (for example, 2 seconds).

단계(S6) 이후, 문서보정-기능부(50)는 저장부(80)에 저장된 음성 신호를 인식한 뒤, 그 음성 인식 결과에 따라, 앞서 단계(S1)에서 핸드라이팅으로 입력된 내용 데이터에 음성 신호에 해당하는 보정이펙트를 적용하여 터치스크린(20)으로 출력하도록 제어한다(S7).After the step S6, the document correction-function unit 50 recognizes the voice signal stored in the storage unit 80, and according to the result of the voice recognition, on the content data previously inputted by handwriting in step S1. The control effect is applied to the touch screen 20 by applying a correction effect corresponding to the voice signal (S7).

본 실시예에서 보정이펙트를 적용하는 예를 살펴본다. 사용자가 터치스크린(20) 상에서 [도 7](a)와 같이 원형 비슷한 형상을 입력하고, 음성으로 "도형 변환"이라고 발음하면, 음성 인식을 통해 [도 7](b)와 같이 타원으로 데이터 처리가 수행된다. 사용자가 터치스크린(20) 상에서 핸드라이팅으로 필기체 입력을 시행한 후에 음성으로 "텍스트 변환"이라고 발음하면, 음성 인식을 통해 그 필기체에 따른 문자 내용이 전자문서에 입력된다. 또한, "검게 색칠"이라는 음성 입력이 제공된다면 [도 7](b)에서와 같이 획득된 타원 내부를 검은 색으로 색칠한다. 마찬가지로, "지워"라는 음성 입력이 제공되면 현재 선택된 데이터를 전자문서에서 삭제하도록 처리하고, "원형 변환"이라는 음성 입력에 대해서는 타원 데이터를 원형으로 변경하여 전자문서에 입력한다. 마찬가지로, 바람직하게는 예를 들어 '위로', '아래로', '왼쪽', '오른쪽' 등과 같은 발음을 통하여 도형이나 문자의 배치 지점을 이동시킬 수 있다.
In the present embodiment looks at an example of applying the correction effect. When the user inputs a circular-like shape as shown in [a] of FIG. 7 (a) on the touch screen 20 and pronounces "shape conversion" as a voice, the data is elliptical as shown in [b] of FIG. 7 through voice recognition. Processing is performed. When a user performs handwriting input by handwriting on the touch screen 20 and pronounces "text conversion" by voice, the text content corresponding to the handwriting is input to the electronic document through voice recognition. In addition, if a voice input of “black coloring” is provided, the inside of the obtained ellipse is colored in black as shown in FIG. 7 (b). Similarly, if a voice input of "erasing" is provided, the currently selected data is processed to be deleted from the electronic document, and for the voice input of "conversion", the elliptic data is changed into a circle and input into the electronic document. Similarly, the arrangement point of the figure or the character may be moved, for example, through pronunciation such as 'up', 'down', 'left', 'right' and the like.

다음으로 [도 9]를 참조하여 [도 8]의 단계(S8)에 따른 음성 인식 및 보정이펙트 적용 과정을 보다 구체적으로 살펴본다. 문서보정-기능부(50)는 마이크(30)를 통해 사용자의 음성신호가 인식되면(S11), 그 인식된 음성 신호 분석을 통해 등록된 음성 명령어인지 여부를 판단한다(S12).Next, the process of applying the speech recognition and correction effect according to step S8 of FIG. 8 will be described in more detail with reference to FIG. 9. If the user's voice signal is recognized through the microphone 30 (S11), the document correction-function unit 50 determines whether the voice command is registered by analyzing the recognized voice signal (S12).

단계(S12)의 판단 결과 인식된 음성 신호가 등록된 음성 명령어에 해당하는 경우에는 문서보정-기능부(50)는 핸드라이팅을 통해 입력된 내용 데이터(도형 데이터, 문자 데이터)에 음성 명령어에 따른 보정이펙트를 적용한 뒤, 그 보정된 결과물을 터치스크린(20)으로 출력한다(S13).If the recognized voice signal corresponds to the registered voice command as a result of the determination in step S12, the document correction-function unit 50 may be configured according to the voice command to the content data (figure data and text data) input through handwriting. After applying the correction effect, the corrected result is output to the touch screen 20 (S13).

한편, 단계(S12)의 판단 결과 인식된 음성 신호가 등록된 음성 명령어에 해당하지 않는 경우에는 문서보정-기능부(50)는 송수신부(70)를 제어하여 통신망(2)을 통해 명령어 분석서버(3)로 네트워크 액세스를 실행하며, 이를 통해 음성 신호에 대한 자연어 분석을 요청한다(S14).On the other hand, if the recognized speech signal does not correspond to the registered voice command as a result of the determination of step S12, the document correction-function unit 50 controls the transceiver 70 to control the command analysis server through the communication network (2) In step (3), the network access is performed, and through this, a natural language analysis of the voice signal is requested (S14).

단계(S14) 이후, 문서보정-기능부(50)는 명령어 분석서버(3)로부터 자연어 분석에 따라 보정이펙트를 적용시키는 위한 신규 보정이펙트 데이터를 수신하여, 수신된 신규 보정이펙트 데이터를 핸드라이팅을 통해 입력된 내용 데이터에 적용시킨 뒤, 터치스크린(20)을 통해 출력한다(S15).
After step S14, the document correction-function unit 50 receives new correction effect data for applying the correction effect from the command analysis server 3 according to the natural language analysis, and performs handwriting on the received new correction effect data. After applying to the input content data, and outputs through the touch screen (20) (S15).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드의 형태로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied in the form of computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어웨이브(예컨대, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산된 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인 프로그램, 코드, 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, including those implemented in the form of carrier waves (eg, transmission over the Internet). . The computer-readable recording medium can also be stored and executed by a computer-readable code in a distributed manner on a networked computer system. And functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이상과 같이, 본 명세서와 도면에는 본 발명의 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예가 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명하다.
As described above, the embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention. And is not intended to limit the scope of the invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

1: 터치 단말기
2: 통신망
3: 명령어 분석서버
10: 입력부
20: 터치스크린
30: 마이크
40: 문서편집-기능단
50: 문서보정-기능부
51: 음성-입력기능단
52: 명령어-분석기능단
53: 이펙트-적용기능단
60: 제어부
70: 송수신부
80: 저장부
90: 이펙트저장부
1: touch terminal
2: network
3: command analysis server
10: Input unit
20: touch screen
30: microphone
40: Edit text-functional group
50: Document Correction-Function
51: voice-input stage
52: command-analysis function
53: Effect-Apply Function
60:
70: transceiver
80: storage
90: effect storage unit

Claims (6)

UI 화면으로 구현된 전자문서 입력창에 직접 입력 방식으로 입력된 원시 형상 데이터를 제공받는 제 1 단계;
사용자로부터 음성 신호를 제공받는 제 2 단계;
상기 음성 신호에 대해 음성 인식 처리를 수행하여 보정이펙트를 산출하는 제 3 단계;
상기 보정이펙트를 적용하여 상기 원시 형상 데이터를 변환하여 그에 대응되는 내용 데이터를 획득하는 제 4 단계;
상기 변환을 통해 획득된 내용 데이터를 UI 화면으로 구현하는 제 5 단계;
를 포함하여 구성되는 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법.
A first step of receiving raw shape data input by a direct input method into an electronic document input window implemented as a UI screen;
Receiving a voice signal from a user;
A third step of performing a speech recognition process on the speech signal to calculate a correction effect;
A fourth step of applying the correction effect to convert the raw shape data to obtain content data corresponding thereto;
A fifth step of implementing content data obtained through the conversion into a UI screen;
Hybrid electronic document input method using a direct input and a voice command comprising a.
청구항 1에 있어서,
상기 제 3 단계는,
상기 음성 신호가 등록된 음성 명령어인지 여부를 판단하는 단계(a);
등록된 음성 명령어에 해당하는 경우, 상기 등록된 음성 명령어에 따른 보정이펙트를 산출하는 단계(b);
등록된 음성 명령어에 해당하지 않는 경우, 명령어 분석서버를 액세스하여 상기 음성 신호에 대한 자연어 분석을 요청하는 단계(c);
상기 명령어 분석서버로부터 자연어 분석 결과를 제공받으면 상기 음성 신호에 해당하는 신규 보정이펙트를 산출하는 단계(d);
를 포함하는 것을 특징으로 하는 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법.
The method according to claim 1,
In the third step,
Determining whether the voice signal is a registered voice command (a);
(B) calculating a correction effect according to the registered voice command when it corresponds to a registered voice command;
(C) requesting a natural language analysis of the voice signal by accessing the command analysis server if it does not correspond to the registered voice command;
Calculating a new correction effect corresponding to the speech signal when the natural language analysis result is received from the command analysis server;
Hybrid input electronic document input method using a direct input and a voice command comprising a.
청구항 2에 있어서,
상기 원시 형상 데이터는 도형-형상 데이터와 문자-형상 데이터를 포함하고,
상기 내용 데이터는 도형 데이터와 문자 데이터를 포함하는 것을 특징으로 하는 직접입력과 음성 명령을 이용한 하이브리드 방식의 전자문서 입력 방법.
The method according to claim 2,
The raw shape data includes figure-shape data and text-shape data,
And the content data comprises figure data and text data.
UI 화면으로 구현된 전자문서 입력창에 직접 입력 방식으로 원시 형상 데이터를 입력받고, 상기 원시 형상 데이터를 위한 연속적 직접 입력이 단절되는 경우에 사용자로부터의 마이크(30)를 통한 음성 신호의 입력을 대기하도록 제어하는 문서편집-기능단(40);
상기 원시 형상 데이터의 입력이 완료되면 마이크(30)로 음성 신호를 제공받는 음성-입력기능단(51);
상기 음성 신호에 대한 음성 인식 처리를 통해 보정이펙트를 산출하는 명령어-분석기능단(52);
상기 보정이펙트를 적용하여 상기 원시 형상 데이터를 변환하여 그에 대응되는 내용 데이터를 획득하고, 상기 획득된 내용 데이터를 UI 화면으로 구현하는 이펙트-적용기능단(53);
을 포함하여 구성되는 하이브리드 방식의 전자문서 입력 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
When the raw shape data is input to the electronic document input window implemented as a UI screen by a direct input method and the continuous direct input for the raw shape data is cut off, the user waits for input of a voice signal through the microphone 30 from the user. A text editing-functionality step 40 to control such that;
A voice-input functional stage 51 for receiving a voice signal through the microphone 30 when the input of the raw shape data is completed;
A command-analyzing function stage 52 for calculating a correction effect through a speech recognition process on the speech signal;
An effect-applying function stage 53 for applying the correction effect to convert the raw shape data to obtain content data corresponding thereto, and to implement the obtained content data as a UI screen;
Computer-readable recording medium recording a hybrid type electronic document input program comprising a.
청구항 4에 있어서,
상기 명령어-분석기능단(52)은,
상기 음성 신호가 등록된 음성 명령어인지 여부를 판단하여, 등록된 음성 명령어에 해당하는 경우에는 상기 등록된 음성 명령어에 따른 보정이펙트를 산출하는 한편, 등록된 음성 명령어에 해당하지 않는 경우에는 명령어 분석서버를 액세스하여 상기 음성 신호에 대한 자연어 분석을 요청하고 그에 따른 자연어 분석 결과를 제공받으면 상기 음성 신호에 해당하는 신규 보정이펙트를 산출하는 것을 특징으로 하는 하이브리드 방식의 전자문서 입력 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
The method of claim 4,
The command-analysis function stage 52,
It is determined whether the voice signal is a registered voice command, and if the voice signal corresponds to a registered voice command, a correction effect according to the registered voice command is calculated. Requesting a natural language analysis of the speech signal and receiving a natural language analysis result to calculate a new correction effect corresponding to the speech signal. Record carrier.
청구항 5에 있어서,
상기 원시 형상 데이터는 도형-형상 데이터와 문자-형상 데이터를 포함하고,
상기 내용 데이터는 도형 데이터와 문자 데이터를 포함하는 것을 특징으로 하는 하이브리드 방식의 전자문서 입력 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
The method according to claim 5,
The raw shape data includes figure-shape data and text-shape data,
And the content data includes figure data and text data.
KR1020110147308A 2011-12-30 2011-12-30 Method for making electronic documents by hybrid basis using direct inputs and voice commands, and computer-readable recording medium for the same KR101372837B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110147308A KR101372837B1 (en) 2011-12-30 2011-12-30 Method for making electronic documents by hybrid basis using direct inputs and voice commands, and computer-readable recording medium for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110147308A KR101372837B1 (en) 2011-12-30 2011-12-30 Method for making electronic documents by hybrid basis using direct inputs and voice commands, and computer-readable recording medium for the same

Publications (2)

Publication Number Publication Date
KR20130078391A true KR20130078391A (en) 2013-07-10
KR101372837B1 KR101372837B1 (en) 2014-03-13

Family

ID=48991369

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110147308A KR101372837B1 (en) 2011-12-30 2011-12-30 Method for making electronic documents by hybrid basis using direct inputs and voice commands, and computer-readable recording medium for the same

Country Status (1)

Country Link
KR (1) KR101372837B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021002586A1 (en) * 2019-07-04 2021-01-07 주식회사 포시에스 Method and device for displaying electronic document through switching between various input schemes

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105988567B (en) * 2015-02-12 2023-03-28 北京三星通信技术研究有限公司 Handwritten information recognition method and device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4436087B2 (en) * 2003-07-29 2010-03-24 日本放送協会 Character data correction device, character data correction method, and character data correction program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021002586A1 (en) * 2019-07-04 2021-01-07 주식회사 포시에스 Method and device for displaying electronic document through switching between various input schemes

Also Published As

Publication number Publication date
KR101372837B1 (en) 2014-03-13

Similar Documents

Publication Publication Date Title
US10489112B1 (en) Method for user training of information dialogue system
JP4942970B2 (en) Recovery from verb errors in speech recognition
WO2020029500A1 (en) Voice command customization method, device, apparatus, and computer storage medium
US10360906B2 (en) Computer proxy messaging bot
US20160103812A1 (en) Typing assistance for editing
US20160328205A1 (en) Method and Apparatus for Voice Operation of Mobile Applications Having Unnamed View Elements
US20140088970A1 (en) Method and device for user interface
US11935521B2 (en) Real-time feedback for efficient dialog processing
US20140068517A1 (en) User interface apparatus in a user terminal and method for supporting the same
KR20140094744A (en) Method and apparatus for post-editing voice recognition results in portable device
US20190026019A1 (en) System and method for mixed content digital ink interactivity
KR101158679B1 (en) Method for directly inputting figure on electronic document, and computer-readable recording medium storing program of directly inputting figure on electronic document
CN103177724A (en) Method, device and terminal for text operating controlled by voice
US11810553B2 (en) Using backpropagation to train a dialog system
US11163377B2 (en) Remote generation of executable code for a client application based on natural language commands captured at a client device
AU2019201441B2 (en) Electronic device for processing user voice input
KR101372837B1 (en) Method for making electronic documents by hybrid basis using direct inputs and voice commands, and computer-readable recording medium for the same
CN104077105A (en) Information processing method and electronic device
JP2002116797A (en) Voice processor and method for voice recognition and storage medium
US20190279623A1 (en) Method for speech recognition dictation and correction by spelling input, system and storage medium
KR20010075838A (en) Apparatus and method for processing multimodal interface
US11462208B2 (en) Implementing a correction model to reduce propagation of automatic speech recognition errors
TWI770395B (en) Device and method of a voice-activated banking transfer application on a tv
US11886801B1 (en) System, method and device for multimodal text editing
US11195509B2 (en) System and method for interactive virtual assistant generation for assemblages

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170213

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180206

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee