KR102417257B1 - Apparatus and method for filling electronic document based on eye tracking and speech recognition - Google Patents

Apparatus and method for filling electronic document based on eye tracking and speech recognition Download PDF

Info

Publication number
KR102417257B1
KR102417257B1 KR1020200040752A KR20200040752A KR102417257B1 KR 102417257 B1 KR102417257 B1 KR 102417257B1 KR 1020200040752 A KR1020200040752 A KR 1020200040752A KR 20200040752 A KR20200040752 A KR 20200040752A KR 102417257 B1 KR102417257 B1 KR 102417257B1
Authority
KR
South Korea
Prior art keywords
entry
electronic document
user
item
entry item
Prior art date
Application number
KR1020200040752A
Other languages
Korean (ko)
Other versions
KR20210123530A (en
Inventor
박미경
Original Assignee
주식회사 포시에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포시에스 filed Critical 주식회사 포시에스
Priority to KR1020200040752A priority Critical patent/KR102417257B1/en
Publication of KR20210123530A publication Critical patent/KR20210123530A/en
Application granted granted Critical
Publication of KR102417257B1 publication Critical patent/KR102417257B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

시선 추적 및 음성 인식 기반의 전자문서 작성 장치 및 방법이 개시되며, 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 방법은, 복수의 기입 항목을 포함하는 전자문서를 표시하는 단계, 상기 표시된 전자문서에 대한 사용자의 시선 정보를 획득하는 단계, 상기 시선 정보에 기초하여 상기 사용자가 응시하는 기입 항목을 식별하는 단계, 상기 식별된 기입 항목에 대한 상기 사용자의 음성 입력을 수신하는 단계 및 상기 수신된 음성 입력을 기초로 상기 식별된 기입 항목에 대응하는 필드값을 기입하는 단계를 포함할 수 있다.An apparatus and method for creating an electronic document based on eye tracking and voice recognition are disclosed, and the method for creating an electronic document based on eye tracking and voice recognition according to an embodiment of the present application includes the steps of displaying an electronic document including a plurality of entry items , obtaining the user's gaze information for the displayed electronic document; and writing a field value corresponding to the identified entry item based on the received voice input.

Description

시선 추적 및 음성 인식 기반의 전자문서 작성 장치 및 방법{APPARATUS AND METHOD FOR FILLING ELECTRONIC DOCUMENT BASED ON EYE TRACKING AND SPEECH RECOGNITION}Apparatus and method for creating electronic documents based on eye tracking and voice recognition

본원은 시선 추적 및 음성 인식 기반의 전자문서 작성 장치 및 방법에 관한 것이다.The present application relates to an apparatus and method for creating an electronic document based on eye tracking and voice recognition.

일반적으로 업무 영역에서 다양한 양식의 문서가 발생하게 되고, 이러한 문서들은 종래에는 종이에 인쇄된 형태로 작성되었다면, 최근 다양한 문서들을 전자적인 형태로 생성하는 전자문서 및 전자서명 서비스가 도입되어 활용되고 있으며, 정부의 페이퍼리스(Paperless) 정책과 맞물려 급속한 성장 추세를 보이고 있다.In general, various types of documents are generated in the work area, and if these documents were conventionally written in printed form, electronic documents and electronic signature services that generate various documents in electronic form have recently been introduced and utilized. , is showing a rapid growth trend in line with the government's paperless policy.

또한, 스마트 디바이스의 대중화에 따라 음성 기반 서비스를 이용하는 사용자 경험은 지속적으로 축적되어 왔다. 현재 음성 기반 서비스의 대부분은 개인의 일상 생활에 연계된 기능을 제공하고 있으며, 앞으로는 기업의 업무 영역에까지 확장될 것으로 예상된다.In addition, with the popularization of smart devices, user experiences using voice-based services have been continuously accumulated. Currently, most of the voice-based services provide functions related to an individual's daily life, and it is expected to expand to the business area of companies in the future.

따라서, 음성 입력 등을 기초로 전자문서를 생성하는 기술 및 시스템이나 음성 입력 등을 기초로 전자 문서를 제어 및 관리할 수 있는 기술 및 시스템 개발의 필요성이 증대되고 있다.Accordingly, the need for developing a technology and system for generating an electronic document based on a voice input or the like or a technology and system capable of controlling and managing an electronic document based on a voice input is increasing.

그러나, 현재까지의 음성을 통한 전자문서 작성 기술은 음성이 포함된 컨텐츠(영화, 온라인에 업로드된 동영상 등)에 대한 자막을 생성하거나 인터뷰 내용을 단순 받아쓰기 하는 등 음성 전체의 텍스트화(전사, Transcription)에만 편중되어 있었다.However, the technology for creating electronic documents through voice so far has turned the entire voice into text (transcription, transcription), such as creating subtitles for content (movies, videos uploaded online, etc.) ) was concentrated only on

한편, 신체의 오감 중 가장 민감하며 반응이 빠른 시각은 인간의 가장 중요한 정보 취득 루트라 할 수 있다. 이와 관련하여 시선 추적(Eye Tracking, Gaze Tracking) 기술은 사용자의 시선이 어느 곳을 향하고 있는지를 파악하는 것으로써 이러한 시선 추적 기술은 구글, 페이스북, 애플 등 글로벌 기업들이 주목하는 차세대 핵심 기술로 평가 받고 있을 뿐만 아니라, VR, AR 및 다양한 IT 기기와의 접목이 활발히 진행되고 있으며, 차세대 게임, 운전자의 시선정보 분석, 홍채정보 인식을 기반으로 한 금융 결제 및 시청 연령 제한 기능 등 다양한 분야에서의 활용 가능성이 높을 것으로 평가되는 추세이나 이러한 사용자의 시선을 추적하는 기술을 접목하여 표출된 전자문서에 대한 작성 프로세스를 보조하는 기법에 대하여는 개발 및 도입이 아직 미비한 실정이다.On the other hand, the most sensitive and quick-response of the body's five senses is the human's most important information acquisition route. In this regard, Eye Tracking (Gaze Tracking) technology detects where the user's gaze is directed. In addition, VR, AR, and integration with various IT devices are actively being carried out, and use in various fields such as next-generation games, analysis of driver's gaze information, financial payment based on iris information recognition, and viewing age restriction function. Although the trend is evaluated to be highly likely, the development and introduction of techniques to assist the creation process of the displayed electronic documents by grafting the technology of tracking the user's gaze are still insufficient.

본원의 배경이 되는 기술은 한국등록특허공보 제10-1922589호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-1922589.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 사용자가 응시하는 기입 항목에 대한 음성 입력을 기초로 전자문서를 작성하도록 하는 시선 추적 및 음성 인식 기반의 전자문서 작성 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application aims to solve the problems of the prior art described above, and to provide an electronic document creation apparatus and method based on eye tracking and voice recognition for creating an electronic document based on a voice input for a entry item that a user gazes at. The purpose.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 방법은, 복수의 기입 항목을 포함하는 전자문서를 표시하는 단계, 상기 표시된 전자문서에 대한 사용자의 시선 정보를 획득하는 단계, 상기 시선 정보에 기초하여 상기 사용자가 응시하는 기입 항목을 식별하는 단계, 상기 식별된 기입 항목에 대한 상기 사용자의 음성 입력을 수신하는 단계 및 상기 수신된 음성 입력을 기초로 상기 식별된 기입 항목에 대응하는 필드값을 기입하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, the method for creating an electronic document based on eye tracking and voice recognition according to an embodiment of the present application includes the steps of displaying an electronic document including a plurality of entry items, the displayed electronic document Acquiring gaze information of a user for , identifying an entry item that the user gazes on based on the gaze information, receiving the user's voice input for the identified entry item, and the received voice and filling in a field value corresponding to the identified entry item based on the input.

또한, 상기 기입 항목을 식별하는 단계는, 상기 사용자가 상기 표시된 전자문서에서 소정의 기입 항목에 대응되는 영역을 미리 설정된 임계 시간 이상 응시한 것으로 판단되면, 해당 기입 항목과 연계된 상기 음성 입력을 수신 가능한 상태인 입력 모드로 전환할 수 있다.In addition, in the step of identifying the entry item, if it is determined that the user gazed at an area corresponding to a predetermined entry item in the displayed electronic document for a preset threshold time or longer, receiving the voice input associated with the entry item You can switch to the input mode that is possible.

또한, 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 방법은, 상기 필드값을 기입하는 단계 이후에, 상기 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보에 기초하여 상기 필드값이 기입된 기입 항목의 다음 순서에 해당하는 기입 항목을 강조되도록 표시하는 단계를 포함할 수 있다.In addition, in the method for creating an electronic document based on eye tracking and voice recognition according to an embodiment of the present application, after the step of writing the field value, the field value based on preset writing order information for the plurality of entry items and displaying the entry items corresponding to the next order of the written entry items to be highlighted.

또한, 상기 기입 순서 정보는, 상기 표시된 전자문서에 포함된 복수의 기입 항목 중 소정의 필수 기입 항목에 대한 기입 순서를 미리 정의한 것일 수 있다.In addition, the writing order information may be a predefined writing order for a predetermined essential writing item among a plurality of writing items included in the displayed electronic document.

또한, 상기 전자문서를 표시하는 단계는, 상기 기입 순서 정보에 기초하여 최초 작성 항목에 해당하는 기입 항목을 강조되도록 표시하는 단계를 포함할 수 있다.In addition, the displaying of the electronic document may include displaying an entry item corresponding to the first creation item to be highlighted based on the writing order information.

또한, 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 방법은, 상기 기입 항목을 식별하는 단계 이후에, 상기 입력 모드로 전환된 후 미리 설정된 대기 시간 내에 상기 음성 입력이 수신되지 않으면, 해당 기입 항목에 대한 가이드 정보를 표시하는 단계를 포함할 수 있다.In addition, in the method for creating an electronic document based on eye tracking and voice recognition according to an embodiment of the present application, after the step of identifying the entry item, the voice input is not received within a preset waiting time after switching to the input mode Otherwise, the method may include displaying guide information for the corresponding entry item.

한편, 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 장치는, 복수의 기입 항목을 포함하는 전자문서를 표시하는 표시부, 상기 표시된 전자문서에 대한 사용자의 시선 정보를 획득하고, 상기 시선 정보에 기초하여 상기 사용자가 응시하는 기입 항목을 식별하는 시선 분석부 및 상기 식별된 기입 항목에 대한 상기 사용자의 음성 입력을 수신하고, 상기 수신된 음성 입력을 기초로 상기 식별된 기입 항목에 대응하는 필드값을 기입하는 음성 처리부를 포함할 수 있다.On the other hand, the electronic document creation apparatus based on eye tracking and voice recognition according to an embodiment of the present application obtains a display unit for displaying an electronic document including a plurality of entry items, and information about a user's gaze on the displayed electronic document, Receives a gaze analysis unit for identifying the entry item that the user gazes at based on the gaze information and the user's voice input for the identified entry item, and adds the identified entry item based on the received voice input It may include a voice processing unit for writing a corresponding field value.

또한, 상기 시선 분석부는, 상기 사용자가 상기 표시된 전자문서에서 소정의 기입 항목에 대응되는 영역을 미리 설정된 임계 시간 이상 응시한 것으로 판단되면, 해당 기입 항목과 연계된 상기 음성 입력을 수신 가능한 상태인 입력 모드로 전환할 수 있다.In addition, when it is determined that the user gazes at an area corresponding to a predetermined entry item in the displayed electronic document for more than a preset threshold time, the gaze analyzer is configured to receive the voice input associated with the entry item. mode can be switched.

또한, 상기 표시부는, 상기 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보에 기초하여 상기 필드값이 기입된 기입 항목의 다음 순서에 해당하는 기입 항목을 강조되도록 표시할 수 있다.Also, the display unit may display an entry item corresponding to a next order of the entry item in which the field value is written to be highlighted based on preset writing order information for the plurality of entry items.

또한, 상기 표시부는, 상기 기입 순서 정보에 기초하여 최초 작성 항목에 해당하는 기입 항목을 강조되도록 표시할 수 있다.In addition, the display unit may display a writing item corresponding to the first writing item to be emphasized based on the writing order information.

또한, 상기 표시부는, 상기 입력 모드로 전환된 후 미리 설정된 대기 시간 내에 상기 음성 입력이 수신되지 않으면, 해당 기입 항목에 대한 가이드 정보를 표시할 수 있다.Also, if the voice input is not received within a preset waiting time after switching to the input mode, the display unit may display guide information for a corresponding entry item.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.

전술한 본원의 과제 해결 수단에 의하면, 사용자가 응시하는 기입 항목에 대한 음성 입력을 기초로 전자문서를 작성하도록 하는 시선 추적 및 음성 인식 기반의 전자문서 작성 장치 및 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide an electronic document creation apparatus and method based on eye tracking and voice recognition that allows a user to create an electronic document based on a voice input for an entry item staring at.

전술한 본원의 과제 해결 수단에 의하면, 사용자가 표출된 전자문서에 포함된 기입 항목을 응시하고, 응시한 기입 항목에 대응하는 내용을 발화하는 과정의 반복을 통해 전자문서가 자동으로 완성되므로, 사용자가 별도의 입력 수단이나 복잡한 조작 없이도 편리하게 전자문서를 작성할 수 있다.According to the above-described problem solving means of the present application, the electronic document is automatically completed through repetition of the process of the user staring at the entry item included in the displayed electronic document and uttering the content corresponding to the gazed entry item, so that the user can conveniently create electronic documents without additional input means or complicated operations.

전술한 본원의 과제 해결 수단에 의하면, 사용자가 전자문서의 완성을 위하여 기입해야 하는 기입 항목을 강조되게 표시하고 강조된 기입 항목을 사용자가 응시하면서 전자문서를 작성하도록 하여 전자문서에 반영된 내용을 사용자가 잘 숙지하도록 할 수 있다.According to the above-described problem solving means of the present application, the entry items to be filled in by the user to complete the electronic document are highlighted, and the contents reflected in the electronic document are displayed by the user while the user gazes at the highlighted entry items to create the electronic document. can make you familiar with it.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.

도 1은 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 장치의 전체적인 동작 및 기능을 설명하기 위한 개념도이다.
도 2는 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 장치의 개략적인 구성도이다.
도 3a 내지 도 3c는 소정의 전자문서에 대하여 사용자의 시선 정보에 기초하여 사용자가 응시하는 기입 항목을 식별하고, 식별된 기입 항목에 대한 필드값을 사용자의 음성 입력을 기초로 기입하는 과정을 설명하기 위한 도면이다.
도 4는 기입 항목에 대한 가이드 정보를 설명하기 위한 도면이다.
도 5는 기입 항목과 연계된 내용 정보의 분량에 기초하여 미리 설정된 임계 시간이 기입 항목 각각에 대하여 개별적으로 설정되는 것을 설명하기 위한 도면이다.
도 6은 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 방법에 대한 동작 흐름도이다.
1 is a conceptual diagram for explaining the overall operation and function of an electronic document creation apparatus based on eye tracking and voice recognition according to an embodiment of the present application.
2 is a schematic configuration diagram of an electronic document creation apparatus based on eye tracking and voice recognition according to an embodiment of the present application.
3A to 3C illustrate a process of identifying an entry item that the user gazes at based on the user's gaze information with respect to a predetermined electronic document, and entering a field value for the identified entry item based on the user's voice input It is a drawing for
4 is a diagram for explaining guide information for entry items.
FIG. 5 is a diagram for explaining that a preset threshold time is individually set for each entry item based on the amount of content information associated with the entry item; FIG.
6 is an operation flowchart of a method for creating an electronic document based on eye tracking and voice recognition according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily carry out. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned “on”, “on”, “on”, “on”, “under”, “under”, or “under” another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

본원은 시선 추적 및 음성 인식 기반의 전자문서 작성 장치 및 방법에 관한 것이다.The present application relates to an apparatus and method for creating an electronic document based on eye tracking and voice recognition.

도 1은 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 장치의 전체적인 동작 및 기능을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining the overall operation and function of an electronic document creation apparatus based on eye tracking and voice recognition according to an embodiment of the present application.

도 1을 참조하면, 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 장치(100)(이하, '전자문서 작성 장치(100)'라 한다.)는, 사용자(1)가 작성하려는 작성 대상 전자문서(10)를 표시하고, 표시된 전자문서(10)에 대한 사용자(1)의 시선 정보에 기초하여 기입 항목을 식별하고, 식별된 기입 항목에 대한 사용자(1)의 음성 입력에 기초하여 기입 항목에 대응하는 필드값을 기입하는 방식으로 전자문서를 완성할 수 있다.Referring to FIG. 1 , an electronic document creation apparatus 100 based on eye tracking and voice recognition according to an embodiment of the present application (hereinafter, referred to as an 'electronic document creation apparatus 100'), a user 1 Displaying the writing target electronic document 10 to be written, identifying the entry item based on the gaze information of the user 1 on the displayed electronic document 10, and inputting the user 1's voice with respect to the identified entry item The electronic document may be completed in a manner of writing field values corresponding to the entry items based on the .

도 2는 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 장치의 개략적인 구성도이다.2 is a schematic configuration diagram of an electronic document creation apparatus based on eye tracking and voice recognition according to an embodiment of the present application.

도 2를 참조하면, 전자문서 작성 장치(100)는, 표시부(110), 시선 분석부(120) 및 음성 처리부(130)를 포함할 수 있다.Referring to FIG. 2 , the electronic document creation apparatus 100 may include a display unit 110 , a gaze analysis unit 120 , and a voice processing unit 130 .

표시부(110)는, 복수의 기입 항목을 포함하는 전자문서를 표시할 수 있다. 본원의 일 실시예에 따르면, 표시부(110)는 소정의 전자문서(10)에 대한 작성 프로세스가 개시되면, 해당 전자문서(10)의 서식에 포함되는 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보에 기초하여 최초 작성 항목에 해당하는 기입 항목을 강조되도록 표시할 수 있다.The display unit 110 may display an electronic document including a plurality of entry items. According to one embodiment of the present application, when the creation process of the predetermined electronic document 10 is started, the display unit 110 includes preset writing order information for a plurality of entry items included in the form of the corresponding electronic document 10 . Based on the , it is possible to highlight the entry item corresponding to the first written entry.

본원의 일 실시예에 따르면, 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보란, 표시부(110)에 의해 표시되는 전자문서(10)의 서식에 포함되는 복수의 기입 항목 중 소정의 필수 기입 항목에 대한 기입 순서를 미리 정의한 것을 의미하는 것일 수 있으나, 이에만 한정되는 것은 아니다.According to an embodiment of the present application, the preset writing order information for a plurality of entry items is a predetermined required entry item among a plurality of entry items included in the form of the electronic document 10 displayed by the display unit 110 . It may mean that the writing order is predefined, but is not limited thereto.

도 3a 내지 도 3c는 소정의 전자문서에 대하여 사용자의 시선 정보에 기초하여 사용자가 응시하는 기입 항목을 식별하고, 식별된 기입 항목에 대한 필드값을 사용자의 음성 입력을 기초로 기입하는 과정을 설명하기 위한 도면이다.3A to 3C illustrate a process of identifying an entry item that the user gazes at based on the user's gaze information with respect to a predetermined electronic document, and entering a field value for the identified entry item based on the user's voice input It is a drawing for

도 3a를 참조하면, 사용자가 작성하려는 전자문서(10)의 서식이 '휴가신청서'이면, 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보에서 최초 작성 항목에 해당하는 기입 항목은 예시적으로 '1. 일시' 라벨의 하위 항목인 '휴가 시작 일시'일 수 있다. 이와 관련하여, 표시부(110)는 '휴가신청서' 서식에 해당하는 전자문서를 표시하되, 최초 작성 항목인 '휴가 시작 일시'에 대한 기입 항목을 강조되도록 표시할 수 있다.Referring to FIG. 3A , if the form of the electronic document 10 to be written by the user is 'a leave application', the entry item corresponding to the first entry in the preset entry order information for a plurality of entry entries is exemplarily '1' . It may be 'vacation start date and time', which is a sub-item of the 'date and time' label. In this regard, the display unit 110 may display the electronic document corresponding to the 'leave application form', but highlight the entry item for 'vacation start date and time', which is the first written item.

여기서, 기입 항목이 강조되도록 표시되는 것은 사용자가 응시하는 기입 항목을 나타내거나 기입 항목 간의 순서를 나타내기 위한 것일 수 있다. 이하에서는, 사용자가 응시하는 기입 항목을 강조하거나 기입 항목 간의 순서를 나타내기 위하여 소정의 기입 항목에 대응되는 영역을 강조 표시하는 것을 후술하는 입력 모드 전환을 나타내기 위한 표시와 구분하기 위하여 '제1강조 표시'라 지칭하도록 한다. 또한, 이러한 제1강조 표시의 용어와 대비하여 입력 모드 전환을 나타내기 위한 표시는 '제2강조 표시'라 지칭하도록 한다.Here, the highlighting of the entry items may be to indicate the entry items that the user stares at or to indicate the order between entry items. Hereinafter, in order to distinguish the area corresponding to a predetermined entry item in order to emphasize the entry item that the user stares at or to indicate the order between the entry items, from the display for indicating the input mode change to be described later, 'first Let's call it 'highlight'. In addition, in contrast to the term of the first highlight display, the display for indicating the input mode change will be referred to as a 'second highlight display'.

시선 분석부(120)는, 표시된 전자문서에 대한 사용자의 시선 정보를 획득할 수 있다.The gaze analyzer 120 may acquire the user's gaze information on the displayed electronic document.

또한, 시선 분석부(120)는, 획득된 사용자의 시선 정보에 기초하여 사용자가 응시하는 기입 항목을 식별할 수 있다.Also, the gaze analyzer 120 may identify the entry item that the user gazes at based on the obtained gaze information of the user.

본원의 일 실시예에 따르면, 사용자가 응시하는 기입 항목을 나타내는 제1강조 표시는 사용자가 소정의 기입 항목에 대응되는 영역을 미리 설정된 제1임계 시간 이상 응시하면 출력되는 것일 수 있다. 또한, 기입 항목 간의 순서를 나타내는 제1강조 표시는 사용자가 소정의 기입 항목에 대한 필드값의 입력을 완료하면 다음 순서의 기입 항목에 대하여 자동으로 출력되는 것일 수 있다.According to an embodiment of the present application, the first highlight display indicating the entry item that the user stares at may be output when the user gazes at an area corresponding to the predetermined entry item for a preset first threshold time or longer. In addition, the first highlight display indicating the order between the entry items may be automatically output for the entry items in the next order when the user completes inputting a field value for a predetermined entry item.

본원의 일 실시예에 따르면, 시선 분석부(120)는 전자문서 작성 장치(100)에 구비된 카메라 모듈(미도시)에 의해 촬영된 사용자의 얼굴 영역을 포함하는 영상에 기초하여 표시부(110)에 의해 전자문서가 표시되는 디스플레이 영역에서 사용자가 응시하는 위치를 식별하고, 식별된 위치에 해당하는 기입 항목을 파악하는 것일 수 있다. 달리 말해, 시선 분석부(120)는 사용자의 시선 정보를 추출하기 위하여 사용자의 얼굴 영역을 포함하는 영상을 촬영하는 카메라 모듈을 포함할 수 있다.According to one embodiment of the present application, the gaze analysis unit 120 is displayed on the basis of an image including the user's face area photographed by a camera module (not shown) provided in the electronic document creation apparatus 100 , the display unit 110 . In the display area where the electronic document is displayed by the , it may be to identify the position where the user gazes, and to identify the entry item corresponding to the identified position. In other words, the gaze analyzer 120 may include a camera module that captures an image including the user's face region in order to extract the user's gaze information.

다른 예로, 시선 분석부(120)는 전자문서 작성 장치(100)와 별도로 마련되어 사용자가 착용하는 아이 트래커 디바이스(미도시)로부터 사용자의 시선 정보를 획득하는 것일 수 있다. 예를 들면, 아이 트래커 디바이스(미도시)는 사용자가 착용할 수 있도록 안경 형태로 구비되는 것일 수 있으나, 이에만 한정되는 것은 아니다.As another example, the gaze analyzer 120 may be provided separately from the electronic document creation apparatus 100 to obtain the user's gaze information from an eye tracker device (not shown) worn by the user. For example, the eye tracker device (not shown) may be provided in the form of glasses to be worn by the user, but is not limited thereto.

아이 트래커 디바이스(미도시)와 연계하여 사용자의 시선 정보를 획득하는 경우, 전자문서 작성 장치(100) 및 아이 트래커 디바이스(미도시) 상호간은 네트워크를 통해 통신할 수 있다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.When the user's gaze information is obtained in connection with the eye tracker device (not shown), the electronic document creation apparatus 100 and the eye tracker device (not shown) may communicate with each other through a network. The network refers to a connection structure in which information exchange is possible between each node, such as terminals and servers. Examples of such a network include a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network, and 5G Network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), wifi network, A Bluetooth network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but are not limited thereto.

또한, 본원의 일 실시예에 따르면, 시선 분석부(120)는, 획득된 사용자의 시선 정보에 기초하여 사용자가 표시된 전자문서에서 소정의 기입 항목에 대응되는 영역을 미리 설정된 임계 시간 이상 응시한 것으로 판단되면, 해당 기입 항목과 연계된 음성 입력을 수신 가능한 상태인 입력 모드로 전환할 수 있다.In addition, according to an embodiment of the present application, the gaze analysis unit 120 determines that the user gazes at an area corresponding to a predetermined entry item in the displayed electronic document for a preset threshold time or longer, based on the acquired gaze information of the user. If it is determined, it is possible to switch to an input mode in which a voice input associated with the corresponding entry item can be received.

본원의 일 실시예에 따르면, 소정의 기입 항목에 대한 입력 모드로의 전환을 위한 미리 설정된 임계 시간은 전술한 제1임계 시간과 구분되는 제2임계 시간으로 지칭될 수 있다. 여기서, 제2임계 시간은 입력 모드 전환을 판단하기 위하여 해당 기입 항목에 대하여 제1강조 표시가 출력된 후 사용자가 해당 기입 항목을 응시하는 시점으로부터 카운트된 사용자의 응시 시간과 비교되는 것일 수 있다. 또한, 시선 분석부(120)에 의해 사용자가 소정의 기입 항목을 제2임계 시간 이상 응시한 것으로 판단되면, 표시부(110)는 해당 기입 항목에 대한 입력 모드가 개시된 것을 표시하는 제2강조 표시를 출력할 수 있다.According to an embodiment of the present disclosure, a preset threshold time for switching to an input mode for a predetermined writing item may be referred to as a second threshold time differentiated from the above-described first threshold time. Here, the second threshold time may be compared with the user's gaze time counted from the point in time when the user gazes at the entry item after the first highlight mark is output for the entry item in order to determine the input mode conversion. In addition, when it is determined by the gaze analysis unit 120 that the user gazes at a predetermined entry item for more than a second threshold time, the display unit 110 displays a second highlight display indicating that the input mode for the entry is started. can be printed out.

종합하면, 사용자가 소정의 필드값이 미입력된 기입 항목을 제1임계 시간 이상 응시하면, 해당 기입 항목이 제1강조 표시되고, 해당 기입 항목에 대한 제1강조 표시가 출력된 후 사용자가 해당 기입 항목을 제2임계 시간 이상 더 응시하면, 해당 기입 항목에 대한 입력 모드로 전환되어 제2강조 표시가 출력될 수 있다. 다른 예로, 사용자가 소정의 기입 항목에 대한 필드값의 기입을 완료하면, 미리 설정된 기입 순서 상 다음 순서의 기입 항목이 제1강조 표시되고, 해당 기입 항목에 대한 제1강조 표시가 출력된 후 사용자가 해당 기입 항목을 제2임계 시간 이상 응시하면 해당 기입 항목에 대한 입력 모드로 전환되어 제2강조 표시가 출력될 수 있다.In summary, when the user gazes at an entry item for which a predetermined field value has not been input for more than a first threshold time, the entry item is first highlighted, and after the first highlight display for the entry item is output, the user enters the entry When the item is stared at the item for more than the second threshold time, the input mode is switched to the input item, and a second highlight mark may be output. As another example, when the user completes writing a field value for a predetermined entry item, the next entry in the preset writing order is first highlighted, and after the first highlighting of the entry is output, the user When the user gazes at the entry item for more than the second threshold time, it may be switched to an input mode for the entry item and a second highlight mark may be output.

또한, 본원의 일 실시예에 따른 전자문서 작성 장치(100)는 미리 설정된 기입 순서 정보에 기초하여 소정의 필수 기입 항목에 대한 필드값이 미입력된 상태에서 미입력된 필수 기입 항목에 대한 후순위(후순서)에 해당하는 기입 항목을 사용자가 제1임계 시간 이상 응시하는 경우에는, 응시하는 기입 항목에 대한 제1강조 표시를 출력하는 것이 아니라 사용자가 필드값을 미입력하고 건너뛴 필수 기입 항목에 대한 제1강조 표시가 출력되도록 동작할 수 있다. 또한, 본원의 구현예에 따라 표시부(110)는 건너뛴 필수 기입 항목에 대한 제1강조 표시가 출력되는 경우, 해당 기입 항목에 대한 필드값의 기입이 누락되었음을 사용자가 인식하도록 하는 안내 표시를 함께 출력할 수 있다.In addition, the electronic document writing apparatus 100 according to an embodiment of the present application provides a sub-order (sub-order) of the non-input mandatory entry item in a state in which a field value for a predetermined required entry item is not input based on preset writing order information. ), when the user stares at the entry for more than the first threshold time, the first highlight for the required entry that the user skips without entering a field value instead of outputting the first highlight for the entry entry to stare at It can operate to display a highlight. In addition, according to the embodiment of the present application, when the first highlighting mark for the skipped mandatory entry item is output, the display unit 110 displays a guide display for allowing the user to recognize that the entry of the field value for the corresponding entry item is omitted. can be printed out.

또한, 본원의 일 실시예에 따르면, 전술한 필수 기입 항목에 대한 필드값 누락을 사용자가 인식하도록 출력되는 안내 표시에도 불구하고 사용자가 후순위(후순서)에 해당하는 기입 항목에 대한 시선을 유지하는 경우에는, 후순위(후순서)에 해당하는 기입 항목에 대한 입력 프로세스가 개시되며, 이 때 표시부(110)는 후순위(후순서) 기입 항목에 대한 제1강조 표시를 출력할 수 있다.In addition, according to an embodiment of the present application, in spite of the guidance display output to the user to recognize the omission of the field value for the above-described essential entry item, the user maintains his/her gaze on the entry item corresponding to the lower priority (sub-order). In this case, an input process for the entry item corresponding to the lower priority (lower order) is started, and in this case, the display unit 110 may output a first highlight mark for the entry item corresponding to the lower priority (lower order).

또한, 본원의 일 실시예에 따르면, 사용자의 시선 정보에 기초하여 식별된 기입 항목(달리 말해, 입력 모드로 전환된 기입 항목)에 대한 입력이 이루어지는 도중(입력 모드 도중)에 사용자가 다른 기입 항목을 제1임계 시간 이상 응시하면, 입력 모드에 있었던 기입 항목에 대한 필드값은 해당 시점(다른 기입 항목을 제1임계 시간 이상 응시한 것으로 판단된 시점)까지 사용자가 인가한 음성 입력에 기초하여 기입되고, 사용자가 제1임계 시간 이상 응시한 다른 기입 항목에 대한 제1강조 표시가 출력되어 사용자가 응시한 다른 기입 항목에 대한 입력 프로세스가 개시될 수 있다.In addition, according to an embodiment of the present application, while an input to the entry item identified based on the user's gaze information (in other words, the entry item switched to the input mode) is being made (during the input mode), the user enters another entry item When the user gazes at for more than the first threshold time, the field value for the entry item that was in the input mode is entered based on the voice input approved by the user until the corresponding point in time (the point in time when it is determined that the other entry item has been gazed at for more than the first threshold time) and a first highlight mark for another entry item that the user stares at for more than a first threshold time may be output, and an input process for another entry item that the user stares at may be started.

이와 관련하여, 본원의 전자문서 작성 장치(100)는 사용자가 작성 중인 기입 항목 외의 기입 항목에 해당하는 영역을 제1임계 시간 미만으로 짧게 응시하는 경우에는 그러한 시선 이동에도 불구하고 입력 모드에 해당하는 기입 항목이 변경되지 않도록 구현됨으로써, 입력 진행 중 발생하는 사용자의 짧은 시선 이동은 무시될 수 있도록 함으로써 사용자의 시선 이동에 따라 과도하게 기입 항목의 입력 모드가 변경되는 것을 방지하여 사용자의 시선 정보에 기초한 자연스러운 전자문서 작성이 이루어지도록 할 수 있다.In this regard, when the user gazes at an area corresponding to a writing item other than the writing item being written for less than the first threshold time, the electronic document writing apparatus 100 of the present application corresponds to the input mode despite such gaze movement. It is implemented so that the entry item is not changed, so that a short gaze movement of the user that occurs during the input process can be ignored, thereby preventing the input mode of the entry item from being excessively changed according to the gaze movement of the user, and It is possible to create natural electronic documents.

또한, 본원의 일 실시예에 따르면, 제2임계 시간은 제1임계 시간보다 크게 설정될 수 있다. 예시적으로 제1임계 시간은 1초이고 제2임계 시간이 5초로 설정되면, 사용자가 소정의 기입 항목을 1초 이상 응시하면 제1강조 표시(예를 들면, 음영 표시 생성)되고, 해당 기입 항목을 5초 이상 더 응시하면 제2강조 표시(예를 들면, 생성된 음영 표시가 점멸)되며 입력 모드로 전환될 수 있다. 이와 관련하여 사용자는 제2강조 표시를 시각을 통해 확인하여 해당 기입 항목에 대한 필드값을 입력하기 위한 음성 입력을 발화할 수 있다.Also, according to an embodiment of the present application, the second threshold time may be set to be greater than the first threshold time. Exemplarily, if the first threshold time is 1 second and the second threshold time is set to 5 seconds, when the user gazes at a predetermined entry item for 1 second or longer, a first highlight is displayed (eg, a shaded indication is generated), and the corresponding entry is displayed. Staring at the item for more than 5 seconds results in a second highlight (eg, the generated shading indicator flashes) and can be switched to input mode. In this regard, the user may visually confirm the second highlight mark and utter a voice input for inputting a field value for the corresponding entry item.

또한, 본원의 구현예에 따라 제1임계 시간 및/또는 제2임계 시간은 동일한 전자문서에 대한 것이라도 각각의 기입 항목에 따라 상이하게 설정될 수 있는데, 이러한 기입 항목 별 임계 시간 설정은 도 5를 참조하여 상세히 후술하도록 한다.In addition, according to the embodiment of the present application, the first threshold time and/or the second threshold time may be set differently according to each entry item even for the same electronic document. It will be described later in detail with reference to .

또한, 본원의 일 실시예에 따르면, 제1강조 표시는 소정의 기입 항목에 대응하는 영역에 표출된 전자문서의 나머지 영역과 구분되는 색상, 음영, 패턴 등이 삽입되는 것이고, 제2강조 표시는 해당 기입 항목에 대하여 제1강조 표시에서 삽입된 색상, 음영, 패턴 등에 대한 점멸이 반복되도록 표시되는 것일 수 있다.In addition, according to an embodiment of the present application, the first highlight mark is to insert a color, shade, pattern, etc. that are distinguished from the rest of the displayed electronic document area in the area corresponding to the predetermined entry item, and the second highlight mark is The color, shade, pattern, etc. inserted in the first highlight display for the corresponding entry item may be displayed so that blinking is repeated.

다만, 제1강조 표시 및 제2강조 표시의 표시 유형은 이에만 한정되는 것은 아니고, 기입 항목 간 순서를 반영하여 사용자의 시선을 유도하거나 사용자가 응시하는 기입 항목을 사용자에게 인식시키기 위한 제1강조 표시와 구체적인 필드값을 기입하기 위하여 선택되어 음성 입력을 인가할 수 있는 입력 모드로 전환된 기입 항목을 사용자에게 인식시키기 위한 제2강조 표시가 사용자에 의해 구분되어 인식되기만 하면 세부적인 표시 방식은 특정한 방식으로 한정되지 않는다.However, the display types of the first highlight display and the second highlight display are not limited thereto, and the first emphasis is used to induce the user's gaze by reflecting the order between the items to be entered or to make the user recognize the items to be entered by the user. As long as the display and the second highlight mark for recognizing the input item selected for entering a specific field value and converted into an input mode for applying a voice input to the user are recognized separately by the user, the detailed display method is specific not limited in the way

음성 처리부(130)는, 식별된 기입 항목에 대한 사용자의 음성 입력을 수신할 수 있다. 또한, 음성 처리부(130)는, 수신된 음성 입력을 기초로 식별된 기입 항목에 대응하는 필드값을 기입할 수 있다. 즉, 음성 처리부(130)는 음성에 대한 문자화(Speech-to-text, STT) 기능을 탑재하여 수신된 음성 입력으로부터 필드값을 추출하고 추출된 필드값을 기입할 수 있다.The voice processing unit 130 may receive a user's voice input for the identified entry item. Also, the voice processing unit 130 may write a field value corresponding to the entry item identified based on the received voice input. That is, the voice processing unit 130 may be equipped with a speech-to-text (STT) function to extract a field value from a received voice input and write the extracted field value.

구체적으로 본원의 일 실시예에 따르면, 사용자로부터 수신된 음성 입력에는 기입 항목에 대하여 실제 입력될 필드값과 함께 정제되지 않은 발화 일부가 포함되거나 음성 입력의 형식과 기입 항목에서 요구하는 필드값의 형식이 불일치할 수 있다. 본원의 음성 처리부(130)는 이러한 상황을 고려하여 수신된 음성 입력을 전자문서(10)의 서식에 부합하도록 정제된 필드값으로 가공(정규화)하여 기입 항목에 대한 기입을 처리할 수 있다.Specifically, according to an exemplary embodiment of the present disclosure, the voice input received from the user includes a portion of an unrefined utterance together with the field value to be actually input with respect to the entry item, or the form of the voice input and the format of the field value required by the entry item. This may be inconsistent. The voice processing unit 130 of the present application may process (normalize) the inputted item by processing (normalizing) the received voice input into a field value refined to conform to the format of the electronic document 10 in consideration of this situation.

이하에서는, 음성 처리부(130)에 의해 수신된 음성 입력이 기입 항목에 실제로 기입되는 필드값으로 가공(정규화)되는 과정을 상세히 서술하기로 한다.Hereinafter, a process in which a voice input received by the voice processing unit 130 is processed (normalized) into a field value actually written in the entry item will be described in detail.

본원의 일 실시예에 따르면, 음성 처리부(130)는, 수신된 음성 입력의 첫 분절이 조사인지 여부를 판단하여 처리할 수 있다. 이 때, 음성 처리부(130)는 수신된 음성 입력의 첫 분절이 조사인 경우, 해당 분절을 삭제할 수 있다.According to an embodiment of the present application, the voice processing unit 130 may determine whether the first segment of the received voice input is a survey and process it. In this case, when the first segment of the received voice input is a survey, the voice processing unit 130 may delete the corresponding segment.

또한, 본원의 일 실시예에 따르면, 음성 처리부(130)는, 상기 첫 분절을 제외한 나머지 분절들을 결합하고, 결합된 분절에 대해 형태소 분석을 수행할 수 있다. 또한, 음성 처리부(130)는 형태소 분석 결과를 역방향으로 탐색하여 실질 형태소를 탐지할 수 있다.Also, according to an exemplary embodiment of the present disclosure, the speech processing unit 130 may combine segments other than the first segment and perform morphological analysis on the combined segment. Also, the voice processing unit 130 may detect the actual morpheme by searching the morpheme analysis result in the reverse direction.

또한, 본원의 일 실시예에 따르면, 음성 처리부(130)는, 탐지된 실질 형태소를 해당 기입 항목에서 요구하는 형식(품사 등)에 부합하도록 변환할 수 있다.Also, according to an embodiment of the present disclosure, the voice processing unit 130 may convert the detected real morpheme to conform to a format (part of speech, etc.) required by the corresponding entry item.

예를 들어, 음성 처리부(130)는 해당 기입 항목에 명사 형태의 필드값이 기입될 것이 요구되나, 음성 입력으로부터 탐지된 실질 형태소가 명사 형태가 아닌 경우, 탐지된 실질 형태소를 명사 형태로 변환할 수 있다. 예를 들어, 음성 처리부(130)는 용언(동사, 형용사) 형태의 실질 형태소 뒤에 '-ㅁ' 또는 '-음'을 결합하여 상기 명사 형태로의 변환을 수행할 수 있다.For example, the voice processing unit 130 requires that a field value in a noun form be entered in the corresponding entry item, but if the real morpheme detected from the voice input is not in the noun form, it can convert the detected real morpheme into a noun form. can For example, the voice processing unit 130 may convert into the noun form by combining '-ㅁ' or '-sound' after the actual morpheme in the form of a verb (verb, adjective).

다른 예로, 음성 처리부(130)는 해당 기입 항목에 대한 필드값이 날짜 형식(예를 들면, 년-월-일 꼴)으로 입력될 것이 요구되는 경우, 탐지된 실질 형태소를 날짜 형식으로 변환할 수 있다. 구체적으로, 탐지된 실질 형태소가 '오늘'인 경우, 해당일의 날짜를 날짜 형식에 부합하도록 변환하여 기입할 수 있다.As another example, the voice processing unit 130 may convert the detected real morpheme into a date format when it is requested that the field value for the corresponding entry item be input in a date format (eg, year-month-day format). have. Specifically, when the detected real morpheme is 'today', the date of the corresponding day may be converted to conform to the date format and entered.

또 다른 예로, 탐지된 실질 형태소가 '숫자 타입'이며 해당 기입 항목에 대한 필드값 역시 동일한 숫자 타입으로 입력될 것이 요구되면, 추가적인 변환 없이 숫자 정보 자체를 기입할 수도 있다.As another example, if the detected real morpheme is a 'numeric type' and it is requested that a field value for a corresponding entry item also be input in the same numeric type, numeric information itself may be written without additional conversion.

또한, 본원의 일 실시예에 따르면, 해당 전자문서 기입 항목의 형식이 콤보 박스, 체크박스, 라디오 버튼 등의 목록형 기입 항목(도 3c의 '2. 구분' 라벨 참조)에 해당하나, 수신된 음성 입력으로부터 탐지된 실질 형태소가 미리 설정된 선택 항목 중 어느 하나에 정확하게 부합하지 않으면, 음성 처리부(130)는 레벤슈타인 편집 거리 알고리즘 등을 기초하여, 탐지된 실질 형태소에 포함된 내용과 가장 근접한 선택 항목(콤보박스, 체크박스, 라디오 버튼 등)을 선택하여 필드값으로 할당할 수 있다.In addition, according to an embodiment of the present application, the format of the corresponding electronic document entry item corresponds to a list-type entry item such as a combo box, a check box, and a radio button (refer to the '2. Category' label in FIG. 3C), but the received If the real morpheme detected from the voice input does not exactly match any one of the preset selection items, the voice processing unit 130 based on the Levenstein edited distance algorithm or the like, the selection item closest to the content included in the detected real morpheme. (Combo box, check box, radio button, etc.) can be selected and assigned as a field value.

또한, 표시부(110)는 음성 처리부(130)에 의해 가공(정규화)되어 기입된 필드값을 표시할 수 있다.Also, the display unit 110 may display a field value processed (normalized) by the voice processing unit 130 and written therein.

또한, 본원의 일 실시예에 따르면, 전술한 과정을 통해 소정의 기입 항목에 대한 필드값이 사용자의 음성 입력에 기초하여 기입되고 나면, 표시부(110)는 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보에 기초하여 필드값이 기입된 기입 항목의 다음 순서에 해당하는 기입 항목을 강조되도록 표시할 수 있다.In addition, according to an embodiment of the present application, after field values for a predetermined entry item are entered based on a user's voice input through the above-described process, the display unit 110 displays a preset writing order for a plurality of entry items. Based on the information, the entry item corresponding to the next order of the entry entry in which the field value is written may be displayed to be highlighted.

예시적으로, 도 3b를 참조하면, '1. 일시' 라벨의 하위 항목에 해당하는 기입 항목인 '휴가 시작 일시'에 대한 필드값(도 3b를 참조하면, '2020-03-23 09:00 부터')의 기입이 완료되면, 표시부(110)는 미리 설정된 기입 순서 정보에 기초하여 '휴가 시작 일시'의 다음 순서에 해당하는 기입 항목인 '휴가 종료 일시'가 강조되도록 표시(제1강조 표시)할 수 있다.Illustratively, referring to FIG. 3B, '1. When the entry of the field value (refer to FIG. 3b, 'from 09:00 on March 23, 2020') for the entry item corresponding to the sub-item of the date and time label is completed, the display unit 110 may display (first highlighting) to be highlighted (first highlight), which is an entry item corresponding to the next order of 'vacation start date and time', based on preset writing order information.

또한, 도 3c를 참조하면, 콤보박스, 체크박스, 라디오 버튼 등 복수의 선택 항목을 포함하도록 미리 생성된 목록에서 사용자가 소정의 선택 항목을 선택하는 방식의 목록형 기입 항목의 경우, 표시부(110)는 해당 목록형 기입 항목을 나타내는 라벨(도 3c를 참조하면, '2. 구분') 및 전체 선택 항목을 함께 강조 표시하여 사용자가 선택 가능한 전체 선택 항목의 유형을 인식하도록 할 수 있다.Also, referring to FIG. 3C , in the case of a list-type entry item in which the user selects a predetermined selection item from a list previously created to include a plurality of selection items such as a combo box, a check box, and a radio button, the display unit 110 ) can be highlighted together with a label indicating a corresponding list-type entry item (refer to FIG. 3C, '2. Classification') and all selection items to allow the user to recognize the types of all selectable selection items.

이러한 목록형 기입 항목에 대하여 사용자는 표시된 전체 선택 항목 중 적어도 하나 이상의 선택 항목에 해당하는 음성 입력을 발화함으로써 소정의 선택 항목을 선택할 수 있다.With respect to such a list-type entry item, the user may select a predetermined selection item by uttering a voice input corresponding to at least one selection item among all displayed selection items.

도 4는 기입 항목에 대한 가이드 정보를 설명하기 위한 도면이다.4 is a diagram for explaining guide information for entry items.

도 4를 참조하면, 본원의 일 실시예에 따른 표시부(110)는 소정의 기입 항목이 식별된 후(달리 말해, 소정의 기입 항목과 연계된 입력 모드로 전환된 후) 미리 설정된 대기 시간 내에 식별된 기입 항목에 대한 필드값의 기입을 위한 음성 입력이 수신되지 않으면, 해당 기입 항목에 대한 가이드 정보를 표시할 수 있다.Referring to FIG. 4 , the display unit 110 according to an embodiment of the present application identifies a predetermined writing item within a preset waiting time after it is identified (in other words, after switching to an input mode associated with the predetermined writing item) If a voice input for writing a field value for the entered entry is not received, guide information for the corresponding entry may be displayed.

즉, 본원의 일 실시예에 따른 전자문서 작성 장치(100)는 소정의 기입 항목에 대하여 입력 모드로의 전환이 이루어진 후에도 해당 기입 항목에 대한 음성 입력을 사용자가 발화하지 않아 해당 기입 항목에 대하여 미리 설정된 대기 시간 이상 입력이 되지 않고 있으면, 사용자가 해당 기입 항목에 대하여 입력(작성)에 어려움을 겪고 있는 것으로 판단하고, 해당 기입 항목의 입력에 도움을 줄 수 있는 안내 정보(도 4를 참조하면 '휴가사유를 간략하게 입력해주세요.')를 포함하는 가이드 정보를 사용자에게 제공할 수 있다.That is, in the electronic document writing apparatus 100 according to an embodiment of the present application, the user does not utter a voice input for a predetermined entry item even after the switch to the input mode is performed for the predetermined entry item, so that the entry item is pre-recorded. If no input is made for more than the set waiting time, it is determined that the user is having difficulty in inputting (writing) the corresponding entry item, and guide information (refer to FIG. 4 , ' Please provide a brief reason for the vacation.'), including guide information, can be provided to the user.

이와 관련하여, 본원의 일 실시예에 따르면, 가이드 정보의 내용 및 가이드 정보가 표시되기 위한 대기 시간은 전자문서(10)의 서식마다 상이하게 결정될 수 있다. 또한, 가이드 정보의 내용 및 가이드 정보가 표시되기 위한 대기 시간은 동일한 전자문서(10)에 대한 것이라도 기입 항목 각각에 대하여 상이하게 결정될 수 있다.In this regard, according to an embodiment of the present application, the content of the guide information and the waiting time for displaying the guide information may be determined differently for each format of the electronic document 10 . In addition, the content of the guide information and the waiting time for displaying the guide information may be determined differently for each entry item even for the same electronic document 10 .

또한, 본원의 일 실시예에 따르면, 음성 처리부(130)는 사용자가 인가한 음성 입력이 해당 기입 항목에 따라 적합하게 입력되었는지 여부를 판단할 수 있다. 또한, 음성 처리부(130)의 판단 결과, 사용자가 인가한 음성 입력이 해당 기입 항목에 대하여 부적합한 경우(예를 들면, 기입 항목과 무관한 내용만을 포함하는 경우, 기입 항목에 기입이 불가능한 수치를 포함하는 경우 등을 포함하는 오입력 상황), 표시부(110)는 해당 기입 항목에 대한 올바른 음성 입력을 재발화할 것을 요청하는 가이드 정보를 표시할 수 있다.Also, according to an embodiment of the present application, the voice processing unit 130 may determine whether the voice input approved by the user is properly input according to the corresponding entry item. In addition, as a result of the determination of the voice processing unit 130, when the user-approved voice input is inappropriate for the entry item (for example, if it includes only content unrelated to the entry item, the entry includes a numerical value that cannot be entered) erroneous input situation), the display unit 110 may display guide information requesting to re-enter the correct voice input for the corresponding entry item.

또한, 상기의 오입력 상황 시의 재발화를 요청하는 가이드 정보와 관련하여 본원의 일 실시예에 따르면, 음성 처리부(130)가 입력 모드로 전환된 소정의 기입 항목(설명의 편의를 위하여 '기존 기입 항목'으로 지칭하도록 한다.)에 대한 음성 입력을 수신하는 도중에 사용자가 기존 기입 항목이 아닌 다른 기입 항목을 제1임계 시간 이상 응시하였으나, 해당 시점(다른 기입 항목을 제1임계 시간 이상 응시한 것으로 판단된 시점)까지 사용자가 기존 기입 항목에 대하여 인가한 음성 입력이 기존 기입 항목에 대하여 부적합한 경우(예를 들면, 오입력 상황 등)에는, 사용자가 응시한 다른 기입 항목에 대한 입력 프로세스가 개시되는 항목 이동이 발생하지 않고, 기존 기입 항목과 연계된 오입력 상황 안내 및 재발화(재입력)를 요청하는 가이드 정보가 표시될 수 있다. 또한, 재발화를 요청하는 가이드 정보가 표시되고 나면, 시선 이동 전의 기존 기입 항목에 대한 입력 모드로 재차 전환될 수 있다.In addition, according to an exemplary embodiment of the present application with respect to guide information requesting re-ignition in the case of an erroneous input, a predetermined entry item (for convenience of explanation) the voice processing unit 130 is switched to the input mode In the middle of receiving a voice input for 'entry item'), the user gazed at an entry item other than the existing entry item for more than the first threshold time, but at that point (when the user stared at another entry item for more than the first threshold time) If the voice input applied by the user to the existing entry is inappropriate (eg, erroneous input situation, etc.), the input process for the other entry that the user stares at is started. The item movement does not occur, and guide information for requesting re-ignition (re-entry) and erroneous input situation guidance associated with an existing entry item may be displayed. In addition, after the guide information requesting re-ignition is displayed, the input mode for the existing entry item before the gaze movement may be switched again.

본원의 일 실시예에 따르면, 표시부(110)는 툴팁(tooltip), 풍선 도움말 등의 형태로 가이드 정보를 표시(출력)할 수 있으나, 이에만 한정되는 것은 아니다.According to an embodiment of the present application, the display unit 110 may display (output) guide information in the form of a tooltip, balloon help, etc., but is not limited thereto.

도 5는 기입 항목과 연계된 내용 정보의 분량에 기초하여 미리 설정된 임계 시간이 기입 항목 각각에 대하여 개별적으로 설정되는 것을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining that a preset threshold time is individually set for each entry item based on the amount of content information associated with the entry item; FIG.

도 5를 참조하면, 본원의 일 실시예에 따른 전자문서 작성 장치(100)는 기입 항목과 연계된 내용 정보의 분량에 기초하여 복수의 기입 항목 각각에 대한 미리 설정된 임계 시간(제1임계 시간 및/또는 제2임계 시간)을 개별적으로 설정할 수 있다. 여기서, 기입 항목과 연계된 내용 정보란 소정의 기입 항목에 대한 필드값을 기입하기에 앞서 사용자가 숙지해야 하는 정보를 포함할 수 있다.Referring to FIG. 5 , the electronic document creation apparatus 100 according to an embodiment of the present application provides a preset threshold time (first threshold time and / or the second threshold time) can be individually set. Here, the content information associated with the entry item may include information that the user should be familiar with before entering a field value for a predetermined entry item.

예시적으로, 도 5를 참조하면, 전자문서 작성 장치(100)는 사용자로부터 약관에 대한 동의 여부를 입력 받기 위한 기입 항목에 대하여는 사용자가 해당 약관의 내용을 읽고 해당 기입 항목에 대한 필드값('동의' 또는 '미동의')을 입력(발화)할 수 있도록 해당 기입 항목에 대한 제2임계 시간을 약관 내용의 길이 정보에 대응하도록 설정할 수 있다. 즉, 동의 여부를 획득하기 위한 약관의 분량이 많을수록(약관에 포함된 텍스트의 길이가 길수록) 제2임계 시간이 크게 설정되는 것일 수 있다.Illustratively, referring to FIG. 5 , in the electronic document writing apparatus 100, the user reads the contents of the terms and conditions and field values (' A second threshold time for the corresponding entry item may be set to correspond to the length information of the terms and conditions so that the user can input (spoken) 'agree' or 'disagree'). That is, as the amount of the agreement for obtaining consent increases (the length of the text included in the agreement increases), the second threshold time may be set larger.

예를 들어, 제2임계 시간은 해당 기입 항목과 연계된 내용 정보의 분량에 기초하여 해당 내용 정보를 읽는데 소요되는 통상적인 시간(예를 들면, 복수의 사용자에 대하여 수집된 소요 시간의 평균치)을 산출하고, 산출된 시간에서 소정의 여유 시간을 포함하도록 결정될 수 있으나, 이에만 한정되는 것은 아니다.For example, the second threshold time is a typical time required to read the corresponding content information based on the amount of content information associated with the corresponding entry item (eg, the average value of the required time collected for a plurality of users). It may be calculated and determined to include a predetermined spare time in the calculated time, but is not limited thereto.

또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는 기입 항목의 내용 정보에 대한 사용자의 숙지 여부를 보다 정확하게 판단하기 위하여, 사용자의 시선 정보에 기초하여 상기 내용 정보가 표출된 영역에서의 사용자 시선의 수평 방향 이동 정도 및 수직 방향 이동 정도를 획득하고, 이를 고려하여 사용자가 실질적으로 해당 내용 정보를 읽은 것으로 판단되면 해당 기입 항목에 대한 입력 모드로의 전환을 수행할 수 있다. 예를 들어, 시선 분석부(120)는 획득된 시선 정보에 기초하여 사용자가 해당 기입 항목에 대한 내용 정보를 제2임계 시간 이상 응시한 것으로 판단되는 경우에도, 해당 기입 항목에 대한 내용 정보가 표출된 영역의 넓이(면적)에 비해 사용자의 시선이 해당 영역에서 이동한 정도에 비추어 내용 정보를 모두 읽은 것으로 보기 어려운 경우(내용 정보가 표출된 영역의 전체 면적에 비해 과도하게 협소한 특정 영역만을 응시한 경우 등)에는 해당 기입 항목에 대한 입력 모드로의 전환을 수행하지 않도록 동작할 수 있다.In addition, according to an embodiment of the present application, the electronic document creation apparatus 100 determines whether the user is familiar with the content information of the entry item more accurately, based on the user's gaze information, the region in which the content information is expressed. The degree of movement of the user's gaze in the horizontal direction and the degree of movement in the vertical direction are obtained, and when it is determined that the user has actually read the corresponding content information, switching to the input mode for the corresponding entry item may be performed. For example, the gaze analysis unit 120 displays the content information on the entry item even when it is determined that the user stares at the content information on the entry item for more than the second threshold time based on the acquired gaze information. In the case where it is difficult to see that all content information has been read in light of the degree of movement of the user's gaze in the relevant area compared to the area (area) of the displayed area (gazing at only a specific area that is excessively narrow compared to the total area of the area in which the content information is displayed) In one case, etc.), it is possible to operate so as not to perform the conversion to the input mode for the corresponding entry item.

본원의 일 실시예에 따르면, 약관에 대한 동의 여부를 획득하기 위한 기입 항목에 대한 입력 모드가 전환되면, 표시부(110)는 동의 또는 미동의를 선택하기 위한 체크 박스 등이 강조(예를 들면, 점멸 등)되도록 하는 제2강조 표시를 출력할 수 있다.According to an embodiment of the present application, when the input mode for the entry item for obtaining consent to the terms and conditions is switched, the display unit 110 highlights a check box for selecting consent or non-agreement (eg, blinking, etc.) can be output.

또한, 본원의 일 실시예에 따르면, 음성 처리부(130)는 사용자가 기입 항목에 대한 필드명 및 필드값을 함께 포함하는 발화(예를 들면, "{필드명}은 {필드값}입니다" 등의 발화)를 음성 입력으로 인가하면, 사용자의 시선 정보에 의해 식별(선택)된 기입 항목과 무관하게 해당 발화에 포함된 필드명에 대응되는 기입 항목에 대한 필드값을 기입하도록 동작할 수 있다. 여기서, '필드명'은 기입 항목 각각을 나타내는 대표 명칭으로서 기입 항목 각각에 대하여 미리 설정된 것일 수 있다. 예를 들어, '필드명'은 라벨명일 수 있다. 또한, 음성 처리부(130)는 음성 입력으로부터 미리 설정된 필드명과 동등한 발화 부분을 탐색하기 위한 필드명 각각에 대한 동의어 정보를 보유할 수 있다. 이와 관련하여, 음성 처리부(130)는 필드명 또는 필드명에 대한 동의어를 포함하는 발화 부분이 음성 입력으로부터 탐지되면, 탐지된 발화 부분 이후의 발화에서 필드값을 탐색할 수 있다.In addition, according to an embodiment of the present application, the voice processing unit 130 utters an utterance including a field name and a field value for a user input item (eg, "{field name} is {field value}", etc.) If the utterance of ) is applied as a voice input, it may operate to write a field value for the entry item corresponding to the field name included in the utterance regardless of the entry item identified (selected) by the user's gaze information. Here, the 'field name' is a representative name representing each entry item, and may be preset for each entry item. For example, 'field name' may be a label name. Also, the voice processing unit 130 may retain synonym information for each of the field names for searching for an utterance part equivalent to a preset field name from the voice input. In this regard, when a utterance part including a field name or a synonym for a field name is detected from the voice input, the voice processing unit 130 may search for a field value in utterances after the detected utterance part.

이해를 돕기 위해 예시하면, 도 3a 내지 도 3c에 도시된 휴가신청서 서식 상에서 사용자의 시선 정보에 기초하여 '1. 일시' 라벨의 하위 항목인 기입 항목에 대한 입력 모드로 전환된 상태에서 사용자가 '{휴가구분}은 {경조휴가}야'와 같은 {필드명} 및 {필드값}을 함께 포함하는 발화를 음성 입력으로 인가하면 현재 입력 모드의 기입 항목이 아닌 '2. 구분' 라벨에 대응하는 기입 항목에 대한 입력이 이루어지는 예외 처리가 수행될 수 있다.As an example to help understanding, '1. In the state in which the input mode is switched to the entry item, which is a sub-item of the 'date and time' label, the user speaks a utterance including {field name} and {field value} such as '{vacation class} is {congratulations and congratulations and congratulations}''. If it is applied as input, it is not the entry item in the current input mode, but '2. An exception processing may be performed in which an input to the entry item corresponding to the 'category' label is made.

또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는 전자문서(10)의 작성 완료 처리와 연계된 사용자 입력을 수신하면, 전자문서(10)에 대하여 미리 설정된 필수 기입 항목에 대한 필드값 기입이 완료되었는지 여부를 판단할 수 있다. 이 때, 전자문서 작성 장치(100)의 표시부(110)는 소정의 필수 기입 항목에 대한 필드값이 누락된 경우에는 해당 필수 입력 항목을 제1강조 표시하여 미입력된 필수 기입 항목에 대한 시선 이동 및 필드값 입력을 유도할 수 있다. 예를 들어, 전자문서 작성 장치(100)는 사용자의 서명 정보를 획득하기에 앞서 필수 기입 항목에 대한 필드값 전체의 기입이 완료되었는지 여부를 판단하도록 동작할 수 있다.In addition, according to an embodiment of the present application, when the electronic document creation device 100 receives a user input associated with the creation completion process of the electronic document 10 , the electronic document 10 provides information on required entry items set in advance for the electronic document 10 . It may be determined whether field value writing has been completed. At this time, the display unit 110 of the electronic document writing apparatus 100, when a field value for a predetermined mandatory entry item is omitted, the required input item is displayed as a first highlight to move the gaze to the non-entered required entry item and You can induce input of field values. For example, the electronic document writing apparatus 100 may operate to determine whether writing of all field values for required entry items is completed prior to acquiring the user's signature information.

또한, 본원의 일 실시예에 따르면, 음성 처리부(130)는 필드값을 수정하기 위하여 사용자가 인가한 음성 입력을 기초로 소정의 기입 항목에 대하여 기 입력된 필드값을 수정(정정)할 수 있다. 예시적으로, 시선 분석부(120)는 사용자의 시선 정보에 기초하여 사용자가 필드값이 이미 입력된 기입 항목을 미리 설정된 제3임계 시간 이상 응시하면, 사용자가 해당 기입 항목에 대한 내용(필드값)을 수정하려는 것으로 파악하고, 해당 기입 항목에 대한 제3강조 표시를 출력하고, 해당 기입 항목에 대한 필드값의 수정과 연계된 음성 입력을 인가받을 수 있는 상태인 수정 모드로 전환할 수 있다.Also, according to an embodiment of the present application, the voice processing unit 130 may correct (correct) a previously input field value for a predetermined entry item based on a voice input applied by the user in order to correct the field value. . Exemplarily, when the user gazes at an entry item in which a field value has already been inputted based on the gaze information of the user for more than a preset third threshold time, the gaze analysis unit 120 may include information about the entry item (field value). ) to be corrected, output a third highlight for the corresponding entry, and switch to the editing mode, which is a state in which a voice input associated with correction of a field value for the entry can be authorized.

예를 들어, 음성 처리부(130)는 기입 항목 '휴가 시작 일시'에 대한 수정 모드로 전환된 후, 사용자가 '3월 22일로 바꿔줘'와 같은 필드값 수정을 위한 음성 입력을 인가하면, 수신된 음성 입력을 기초로 기 입력된 '2020-03-23 09:00부터'의 필드값을 '2020-03-22 09:00부터'로 수정(정정)할 수 있다.For example, after the voice processing unit 130 is switched to the correction mode for the entry item 'vacation start date and time', when the user applies a voice input for modifying a field value such as 'change it to March 22', the received Based on the voice input, the field value of 'from 09:00 on 2020-03-23' may be corrected (corrected) to 'from 09:00 on March 22, 2020'.

본원의 일 실시예에 따르면, 제3임계 시간은 입력 모드 전환을 위한 제2임계 시간과 동일(실질적으로 동등한 수준으로 볼 수 있는 것을 포함한다.)하게 결정될 수 있다. 다른 예로, 필드값의 수정과 연계된 제3임계 시간은 보다 신중하게 필드값의 수정이 이루어질 수 있도록 제2임계 시간에 비해 큰 값으로 결정되는 것일 수 있다.According to an exemplary embodiment of the present disclosure, the third threshold time may be determined to be the same as the second threshold time for switching the input mode (including those that can be viewed as substantially equivalent). As another example, the third threshold time associated with the correction of the field value may be determined to be larger than the second threshold time so that the correction of the field value can be performed more carefully.

또한, 본원의 일 실시예에 따르면, 입력 모드에 대응되는 제2강조 표시와 수정 모드에 대응되는 제3강조 표시에 대한 색상, 음영, 패턴 등의 표시 방식은 상이할 수 있으나, 이에만 한정되는 것은 아니다.Also, according to an exemplary embodiment of the present disclosure, display methods of colors, shades, patterns, etc. for the second highlight display corresponding to the input mode and the third highlight display corresponding to the correction mode may be different, but the present disclosure is limited thereto. it is not

또한, 본원의 일 실시예에 따르면, 음성 처리부(130)는 수정과 연계된 음성 입력이 '휴가 시작일과 휴가 종료일을 3월 22일로 바꿔줘'와 같이 {필드명} 및 수정하려는 {필드값}을 모두 포함하는 형태인 경우, 사용자의 시선 정보와 무관하게 {필드명}에 대응되는 기입 항목을 수정하려는 {필드값}으로 치환하도록 동작할 수 있다.In addition, according to an embodiment of the present application, the voice processing unit 130 selects {field name} and {field value} to be corrected, such as 'Change the vacation start date and vacation end date to March 22,' when the voice input associated with the correction is In the case of all-inclusive form, regardless of the user's gaze information, the input item corresponding to {field name} may be operated to be replaced with {field value} to be corrected.

또한, 본원의 일 실시예에 따르면, 표시부(110)는 기 입력된 필드값이 수정 모드에서 인가된 음성 입력을 기초로 수정되는 경우에는 필드값이 수정된다는 취지를 표시하고 이에 대한 사용자의 확인 입력을 재차 수신하기 위한 가이드 정보를 표시할 수 있다. 예시적으로, 확인 입력을 수신하기 위한 가이드 정보는 필드값의 수정을 확정 및 적용하는 버튼(예를 들면, '확인', '예', 'YES' 등)과 필드값의 수정을 취소하는 버튼(예를 들면, '취소', '아니오', 'NO' 등)을 포함하는 팝업창 형태로 표시될 수 있다.In addition, according to an embodiment of the present application, the display unit 110 displays that the field value is corrected when the previously input field value is corrected based on the voice input applied in the correction mode, and the user confirms the field value. guide information for receiving again may be displayed. Illustratively, the guide information for receiving the confirmation input includes a button for confirming and applying correction of a field value (eg, 'confirm', 'yes', 'YES', etc.) and a button for canceling correction of a field value (eg, 'cancel', 'no', 'NO', etc.) may be displayed in the form of a pop-up window.

또한, 본원의 일 실시예에 따르면, 상술한 필드값의 수정과 연계되어 표시되는 가이드 정보와 관련한 확인 입력은 음성 입력 형태로 인가되는 것일 수 있다. 달리 말해, 예시적으로 확인 입력을 수신하기 위한 가이드 정보에 표시된 버튼 각각에 대응하는 음성 입력(예를 들면, 확인, 예, 예스(YES), 아니오, 노(NO), 취소 등의 발화)을 사용자가 인가하면, 기 입력된 필드값에 대한 수정(정정)이 확정적으로 적용되거나 해당 수정(정정)이 미반영되는 것일 수 있다.Also, according to an embodiment of the present application, the confirmation input related to the guide information displayed in connection with the correction of the above-described field value may be applied in the form of a voice input. In other words, by way of example, a voice input corresponding to each of the buttons displayed in the guide information for receiving the confirmation input (eg, utterances of confirmation, yes, YES, no, NO, cancel, etc.) When the user approves, the correction (correction) to the previously input field value may be definitively applied or the correction (correction) may not be reflected.

또한, 전자문서 작성 장치(100)의 저장부(미도시)는 전자문서에 포함된 전체 기입 항목에 대한 필드값의 기입이 완료되거나 전자문서의 서식에 따라 일부의 필수 기입 항목에 대한 필드값의 기입이 완료되어 전자문서의 작성이 종료된 경우, 완성된 전자문서를 저장할 수 있다.In addition, the storage unit (not shown) of the electronic document writing apparatus 100 completes the entry of field values for all entry items included in the electronic document or the field values for some required entry items according to the format of the electronic document. When the writing is completed and the creation of the electronic document is finished, the completed electronic document may be stored.

본원의 일 실시예에 따르면, 표시부(110)는 저장부(미도시)에 의해 전자문서가 저장되면 작성이 완료된 전자문서의 요약 화면 및/또는 상세 화면을 표시할 수 있다.According to an embodiment of the present application, when the electronic document is stored by the storage unit (not shown), the display unit 110 may display a summary screen and/or a detailed screen of the completed electronic document.

또한, 전자문서 작성 장치(100)의 서명 획득부(미도시)는 완성된 전자문서에 대하여 사용자로부터 자필 서명을 입력받을 수 있다. 이와 관련하여 전자문서 작성 장치(100)의 저장부(미도시)는 자필 서명 정보를 포함하여 완성된 전자문서를 저장할 수 있다.In addition, the signature obtaining unit (not shown) of the electronic document creation apparatus 100 may receive a handwritten signature input from the user with respect to the completed electronic document. In this regard, the storage unit (not shown) of the electronic document creating apparatus 100 may store the completed electronic document including handwritten signature information.

본원의 일 실시예에 따르면, 자필 서명 정보는 자필 서명 입력 과정에서 감지된 사용자의 필속 정보 또는 필압 정보 중 적어도 하나를 포함하는 감지 결과와 자필 서명의 형상 자체를 포함하는 것일 수 있다.According to an embodiment of the present disclosure, the handwritten signature information may include a detection result including at least one of handwriting information or pressure information of a user detected in a handwritten signature input process and the shape of the handwritten signature itself.

또한, 본원의 일 실시예에 따르면, 서명 획득부(미도시)는 해당 사용자(또는 사용자의 계정)에 대하여 해당 전자문서의 작성 이전에 기입력된 자필 서명이 존재하는 경우, 저장된 기입력된 자필 서명을 불러와 해당 전자문서의 서명란에 기입할 수 있다. 또한, 본원의 일 실시예에 따르면, 표시부(110)는 사용자의 기입력된 자필 서명이 존재하지 않으면, 사용자에게 신규 자필 서명을 기입하여 줄 것을 요청하는 서명 입력 창을 표시하고, 서명 획득부(미도시)는 표시된 서명 입력 창에 인가되는 사용자 입력(예를 들면, 손가락, 전용 입력 펜 등을 통한 터치 입력)에 기초하여 자필 서명 정보를 획득할 수 있다.In addition, according to an embodiment of the present application, the signature obtaining unit (not shown) is stored in the handwritten signature written before the creation of the electronic document for the corresponding user (or the user's account), the stored handwritten signature exists. You can call up your signature and write it in the signature field of the e-document. In addition, according to an embodiment of the present application, if the user's written handwritten signature does not exist, the display unit 110 displays a signature input window requesting the user to write a new handwritten signature, and the signature obtaining unit ( (not shown) may acquire handwritten signature information based on a user input (eg, a touch input through a finger, a dedicated input pen, etc.) applied to the displayed signature input window.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.

도 6은 본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 방법에 대한 동작 흐름도이다.6 is an operation flowchart for a method of creating an electronic document based on eye tracking and voice recognition according to an embodiment of the present application.

도 6에 도시된 시선 추적 및 음성 인식 기반의 전자문서 작성 방법은 앞서 설명된 전자문서 작성 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 전자문서 작성 장치(100)에 대하여 설명된 내용은 시선 추적 및 음성 인식 기반의 전자문서 작성 방법에 대한 설명에도 동일하게 적용될 수 있다.The method for creating an electronic document based on eye tracking and voice recognition illustrated in FIG. 6 may be performed by the electronic document writing apparatus 100 described above. Accordingly, even if omitted below, the description of the electronic document creation apparatus 100 may be equally applied to the description of the gaze tracking and voice recognition-based electronic document creation method.

도 6을 참조하면, 단계 S11에서 표시부(110)는, 복수의 기입 항목을 포함하는 전자문서를 표시할 수 있다.Referring to FIG. 6 , in step S11 , the display unit 110 may display an electronic document including a plurality of entry items.

또한, 단계 S11에서 표시부(110)는, 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보에 기초하여 최초 작성 항목에 해당하는 기입 항목을 강조되도록 표시할 수 있다. 여기서, 기입 순서 정보는 표시된 전자문서에 포함된 복수의 기입 항목 중 소정의 필수 기입 항목에 대한 기입 순서를 미리 정의한 것을 의미할 수 있다.Also, in step S11 , the display unit 110 may display the entry item corresponding to the first entry item to be highlighted based on preset writing order information for the plurality of entry items. Here, the writing order information may mean that a writing order for a predetermined required writing item among a plurality of writing items included in the displayed electronic document is defined in advance.

다음으로, 단계 S12에서 시선 분석부(120)는, 표시된 전자문서에 대한 사용자의 시선 정보를 획득할 수 있다.Next, in step S12 , the gaze analyzer 120 may acquire the gaze information of the user on the displayed electronic document.

다음으로, 단계 S13에서 시선 분석부(120)는, 획득된 사용자의 시선 정보에 기초하여 사용자가 응시하는 기입 항목을 식별할 수 있다.Next, in step S13 , the gaze analyzer 120 may identify the entry item that the user gazes at based on the obtained gaze information of the user.

구체적으로, 단계 S13에서 시선 분석부(120)는, 사용자가 표시된 전자문서에서 소정의 기입 항목에 대응되는 영역을 미리 설정된 임계 시간 이상 응시한 것으로 판단되면, 해당 기입 항목과 연계된 음성 입력을 수신 가능한 상태인 입력 모드로 전환할 수 있다.Specifically, in step S13, when it is determined that the user gazes at an area corresponding to a predetermined entry item in the displayed electronic document for more than a preset threshold time, the gaze analysis unit 120 receives a voice input associated with the entry item You can switch to the input mode that is possible.

다음으로, 단계 S14에서 음성 처리부(130)는, 미리 설정된 대기 시간 내에 식별된 기입 항목에 대한 사용자의 음성 입력이 수신되었는지 여부를 판단할 수 있다.Next, in step S14 , the voice processing unit 130 may determine whether the user's voice input for the identified entry item has been received within a preset waiting time.

만약, 단계 S14에서 입력 모드로 전환된 후 미리 설정된 대기 시간 내에 상기 음성 입력이 수신되지 않으면, 단계 S141에서 표시부(110)는, 해당 기입 항목에 대한 가이드 정보를 표시할 수 있다.If the voice input is not received within a preset waiting time after switching to the input mode in step S14, the display unit 110 may display guide information for the corresponding entry item in step S141.

다음으로, 단계 S15에서 음성 처리부(130)는, 식별된 기입 항목에 대한 사용자의 음성 입력을 수신할 수 있다.Next, in step S15 , the voice processing unit 130 may receive a user's voice input for the identified entry item.

다음으로, 단계 S16에서 음성 처리부(130)는, 수신된 음성 입력을 기초로 식별된 기입 항목에 대응하는 필드값을 기입할 수 있다.Next, in step S16 , the voice processing unit 130 may write a field value corresponding to the entry item identified based on the received voice input.

다음으로, 단계 S17에서 표시부(110)는, 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보에 기초하여 단계 S16을 통해 필드값이 기입된 기입 항목의 다음 순서에 해당하는 기입 항목을 강조되도록 표시할 수 있다.Next, in step S17 , the display unit 110 displays the entry items corresponding to the next order of the entry items in which field values are written in step S16 to be highlighted based on the preset writing order information for the plurality of entry items. can

상술한 설명에서, 단계 S11 내지 S17은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S17 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between the steps may be changed.

본원의 일 실시예에 따른 시선 추적 및 음성 인식 기반의 전자문서 작성 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method for creating an electronic document based on eye tracking and voice recognition according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 시선 추적 및 음성 인식 기반의 전자문서 작성 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described method for creating an electronic document based on eye tracking and voice recognition may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.

100: 시선 추적 및 음성 인식 기반의 전자문서 작성 장치
110: 표시부
120: 시선 분석부
130: 음성 처리부
10: 전자문서
100: Eye tracking and voice recognition-based electronic document creation device
110: display unit
120: gaze analysis unit
130: voice processing unit
10: Electronic document

Claims (11)

시선 추적 및 음성 인식 기반의 전자문서 작성 방법으로서,
복수의 기입 항목을 포함하는 전자문서를 표시하는 단계;
상기 표시된 전자문서에 대한 사용자의 시선 정보를 획득하는 단계;
상기 시선 정보에 기초하여 상기 사용자가 응시하는 기입 항목을 식별하는 단계;
상기 식별된 기입 항목에 대한 상기 사용자의 음성 입력을 수신하는 단계; 및
상기 수신된 음성 입력을 기초로 상기 식별된 기입 항목에 대응하는 필드값을 기입하는 단계,
를 포함하고,
상기 기입 항목을 식별하는 단계는,
상기 사용자가 상기 표시된 전자문서에서 소정의 기입 항목에 대응되는 영역을 미리 설정된 제1임계 시간 이상 응시한 것으로 판단되면, 해당 영역에 대하여 제1강조 표시를 출력하는 단계; 및
상기 제1강조 표시가 출력된 후 상기 사용자가 해당 영역을 미리 설정된 제2임계 시간 이상 지속하여 응시한 것으로 판단되면, 해당 기입 항목과 연계된 상기 음성 입력을 수신 가능한 상태인 입력 모드로 전환하고, 해당 영역에 대하여 제2강조 표시를 출력하는 단계,
를 포함하고,
상기 제2임계 시간은 상기 제1임계 시간 대비 크게 설정되고, 상기 제1강조 표시와 상기 제2강조 표시는 상기 사용자에게 구분되어 인식되도록 상이한 방식으로 출력되는 것을 특징으로 하는, 전자문서 작성 방법.
As an electronic document creation method based on eye tracking and voice recognition,
displaying an electronic document including a plurality of entry items;
obtaining information about a user's gaze on the displayed electronic document;
identifying a writing item that the user gazes at based on the gaze information;
receiving the user's voice input for the identified entry item; and
filling in a field value corresponding to the identified entry item based on the received voice input;
including,
The step of identifying the entry is:
when it is determined that the user gazes at a region corresponding to a predetermined entry item in the displayed electronic document for a preset first threshold time or longer, outputting a first highlight mark for the region; and
If it is determined that the user continues to stare at the area for more than a preset second threshold time after the first highlight display is output, the input mode is switched to an input mode in which the voice input associated with the entry item can be received, outputting a second highlight for the corresponding area;
including,
The second threshold time is set to be larger than the first threshold time, and the first and second highlight marks are output in different ways so that the user can recognize them separately.
삭제delete 제1항에 있어서,
상기 필드값을 기입하는 단계 이후에,
상기 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보에 기초하여 상기 필드값이 기입된 기입 항목의 다음 순서에 해당하는 기입 항목을 강조되도록 표시하는 단계,
를 더 포함하는 것인, 전자문서 작성 방법.
The method of claim 1,
After entering the field value,
displaying an entry item corresponding to an order next to the entry item in which the field value is written to be highlighted based on preset writing order information for the plurality of entry items;
Which will further include, the electronic document creation method.
제3항에 있어서,
상기 기입 순서 정보는,
상기 표시된 전자문서에 포함된 복수의 기입 항목 중 소정의 필수 기입 항목에 대한 기입 순서를 미리 정의한 것인, 전자문서 작성 방법.
4. The method of claim 3,
The writing order information is
The method of creating an electronic document in which a writing order for a predetermined mandatory entry item among a plurality of entry items included in the displayed electronic document is predefined.
제3항에 있어서,
상기 전자문서를 표시하는 단계는,
상기 기입 순서 정보에 기초하여 최초 작성 항목에 해당하는 기입 항목을 강조되도록 표시하는 단계,
를 포함하는 것인, 전자문서 작성 방법.
4. The method of claim 3,
The step of displaying the electronic document comprises:
displaying an entry item corresponding to the first written item to be highlighted based on the writing order information;
That comprising a, electronic document creation method.
제1항에 있어서,
상기 기입 항목을 식별하는 단계 이후에,
상기 입력 모드로 전환된 후 미리 설정된 대기 시간 내에 상기 음성 입력이 수신되지 않으면, 해당 기입 항목에 대한 가이드 정보를 표시하는 단계,
를 더 포함하는 것인, 전자문서 작성 방법.
According to claim 1,
After identifying the entry,
If the voice input is not received within a preset waiting time after switching to the input mode, displaying guide information for a corresponding entry item;
Which will further include, the electronic document creation method.
시선 추적 및 음성 인식 기반의 전자문서 작성 장치로서,
복수의 기입 항목을 포함하는 전자문서를 표시하는 표시부;
상기 표시된 전자문서에 대한 사용자의 시선 정보를 획득하고, 상기 시선 정보에 기초하여 상기 사용자가 응시하는 기입 항목을 식별하는 시선 분석부; 및
상기 식별된 기입 항목에 대한 상기 사용자의 음성 입력을 수신하고, 상기 수신된 음성 입력을 기초로 상기 식별된 기입 항목에 대응하는 필드값을 기입하는 음성 처리부,
를 포함하고,
상기 시선 분석부는,
상기 사용자가 상기 표시된 전자문서에서 소정의 기입 항목에 대응되는 영역을 미리 설정된 제1임계 시간 이상 응시한 것으로 판단되면, 해당 영역에 대하여 제1강조 표시를 출력하고, 상기 제1강조 표시가 출력된 후 상기 사용자가 해당 영역을 미리 설정된 제2임계 시간 이상 지속하여 응시한 것으로 판단되면, 해당 기입 항목과 연계된 상기 음성 입력을 수신 가능한 상태인 입력 모드로 전환하고, 해당 영역에 대하여 제2강조 표시를 출력하되,
상기 제2임계 시간은 상기 제1임계 시간 대비 크게 설정되고, 상기 제1강조 표시와 상기 제2강조 표시는 상기 사용자에게 구분되어 인식되도록 상이한 방식으로 출력되는 것을 특징으로 하는, 전자문서 작성 장치.
As an electronic document creation device based on eye tracking and voice recognition,
a display unit for displaying an electronic document including a plurality of entry items;
a gaze analyzer configured to obtain gaze information of a user on the displayed electronic document, and identify an entry item that the user gazes at based on the gaze information; and
a voice processing unit that receives the user's voice input for the identified entry item, and writes a field value corresponding to the identified entry entry based on the received voice input;
including,
The gaze analysis unit,
When it is determined that the user gazes at the area corresponding to the predetermined entry item in the displayed electronic document for a preset first threshold time or longer, a first highlight mark is output for the area, and the first highlight mark is outputted After that, if it is determined that the user continues to stare at the corresponding area for more than a preset second threshold time, the input mode is switched to an input mode in which the voice input associated with the corresponding entry item can be received, and a second emphasis is displayed on the corresponding area output, but
The second threshold time is set to be larger than the first threshold time, and the first and second highlight marks are output in different ways so that the user can distinguish and recognize them.
삭제delete 제7항에 있어서,
상기 표시부는,
상기 복수의 기입 항목에 대한 미리 설정된 기입 순서 정보에 기초하여 상기 필드값이 기입된 기입 항목의 다음 순서에 해당하는 기입 항목을 강조되도록 표시하는 것인, 전자문서 작성 장치.
8. The method of claim 7,
The display unit,
and displaying an entry item corresponding to an order next to the entry item in which the field value is written to be highlighted based on preset entry order information for the plurality of entry items.
제9항에 있어서,
상기 표시부는,
상기 기입 순서 정보에 기초하여 최초 작성 항목에 해당하는 기입 항목을 강조되도록 표시하는 것인, 전자문서 작성 장치.
10. The method of claim 9,
The display unit,
and displaying an entry item corresponding to an initially created item to be emphasized based on the writing order information.
제7항에 있어서,
상기 표시부는,
상기 입력 모드로 전환된 후 미리 설정된 대기 시간 내에 상기 음성 입력이 수신되지 않으면, 해당 기입 항목에 대한 가이드 정보를 표시하는 것인, 전자문서 작성 장치.
8. The method of claim 7,
The display unit,
If the voice input is not received within a preset waiting time after switching to the input mode, guide information for the corresponding entry item is displayed.
KR1020200040752A 2020-04-03 2020-04-03 Apparatus and method for filling electronic document based on eye tracking and speech recognition KR102417257B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200040752A KR102417257B1 (en) 2020-04-03 2020-04-03 Apparatus and method for filling electronic document based on eye tracking and speech recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200040752A KR102417257B1 (en) 2020-04-03 2020-04-03 Apparatus and method for filling electronic document based on eye tracking and speech recognition

Publications (2)

Publication Number Publication Date
KR20210123530A KR20210123530A (en) 2021-10-14
KR102417257B1 true KR102417257B1 (en) 2022-07-06

Family

ID=78151262

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200040752A KR102417257B1 (en) 2020-04-03 2020-04-03 Apparatus and method for filling electronic document based on eye tracking and speech recognition

Country Status (1)

Country Link
KR (1) KR102417257B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013200674A (en) * 2012-03-23 2013-10-03 Japan Research Institute Ltd Input pattern optimization processing method for terminal device, input pattern optimization processing system, and input pattern optimization processing program
KR102076793B1 (en) * 2019-07-04 2020-02-12 주식회사 포시에스 Method for providing electric document using voice, apparatus and method for writing electric document using voice

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013200674A (en) * 2012-03-23 2013-10-03 Japan Research Institute Ltd Input pattern optimization processing method for terminal device, input pattern optimization processing system, and input pattern optimization processing program
KR102076793B1 (en) * 2019-07-04 2020-02-12 주식회사 포시에스 Method for providing electric document using voice, apparatus and method for writing electric document using voice

Also Published As

Publication number Publication date
KR20210123530A (en) 2021-10-14

Similar Documents

Publication Publication Date Title
US10402501B2 (en) Multi-lingual virtual personal assistant
US20210081056A1 (en) Vpa with integrated object recognition and facial expression recognition
CN103645876B (en) Voice inputting method and device
US10082864B2 (en) Gaze based text input systems and methods
US7149970B1 (en) Method and system for filtering and selecting from a candidate list generated by a stochastic input method
JP4087400B2 (en) Spoken dialogue translation apparatus, spoken dialogue translation method, and spoken dialogue translation program
US8954329B2 (en) Methods and apparatus for acoustic disambiguation by insertion of disambiguating textual information
US8688448B2 (en) Text segmentation and label assignment with user interaction by means of topic specific language models and topic-specific label statistics
EP1585110B1 (en) System for speech controlled applications
ES2269449T3 (en) FOLLOW-UP OF THE LOOK FOR THE RECOGNITION OF CONTEXTUAL VOICE.
JP4987623B2 (en) Apparatus and method for interacting with user by voice
US6415258B1 (en) Background audio recovery system
US20230325611A1 (en) Video translation platform
JP3104661B2 (en) Japanese writing system
KR102417257B1 (en) Apparatus and method for filling electronic document based on eye tracking and speech recognition
US20230326459A1 (en) Viewing assistance system, viewing assistance method, and nonvolatile recording medium storing program
US10282417B2 (en) Conversational list management
WO2012144525A1 (en) Speech recognition device, speech recognition method, and speech recognition program
KR102305181B1 (en) Method for providing electric document using chatbot, apparatus and method for writing electric document using chatbot
JP3903841B2 (en) Automatic interpretation device and program for automatic interpretation
US20210064640A1 (en) Information processing apparatus and information processing method
CN112017647B (en) Semantic-combined voice recognition method, device and system
JP6323828B2 (en) Support device, information processing method, and program
Chen et al. A proof-of-concept study for automatic speech recognition to transcribe AAC speakers’ speech from high-technology AAC systems
CN111176439A (en) Reading control method based on visual tracking, intelligent glasses and system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right