WO2021002584A1 - 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치 - Google Patents

음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치 Download PDF

Info

Publication number
WO2021002584A1
WO2021002584A1 PCT/KR2020/005953 KR2020005953W WO2021002584A1 WO 2021002584 A1 WO2021002584 A1 WO 2021002584A1 KR 2020005953 W KR2020005953 W KR 2020005953W WO 2021002584 A1 WO2021002584 A1 WO 2021002584A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic document
voice
user terminal
input
voice input
Prior art date
Application number
PCT/KR2020/005953
Other languages
English (en)
French (fr)
Inventor
박미경
Original Assignee
주식회사 포시에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포시에스 filed Critical 주식회사 포시에스
Publication of WO2021002584A1 publication Critical patent/WO2021002584A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Definitions

  • the present application relates to a method for providing an electronic document through voice, a method and apparatus for creating an electronic document through voice.
  • voice-based services provide functions related to the daily life of individuals, and are expected to expand to the business area of companies in the future.
  • the present application is intended to solve the problems of the prior art described above, and is linked with various smart devices such as smart speakers, smart phones, smart pads, smart watches, smart home appliances, and smart cars capable of voice input to provide information in the form of conversations with users.
  • the object of the present invention is to provide a method of providing an electronic document through voice, a method and a device for creating an electronic document through voice, capable of creating or processing electronic documents while giving and receiving.
  • a method for providing an electronic document through voice includes the steps of receiving a voice input associated with an electronic document from a user terminal, and an electronic document based on the voice input. It may include generating a document and providing the generated electronic document to the user terminal.
  • the method of creating an electronic document through voice includes the steps of receiving a writing start voice input associated with a type of an electronic document template to be written by a user of the user terminal from a user terminal, and the writing start voice Determining an electronic document template to be created by the user based on an input, and loading the electronic document template, inducing a response from the user including content data to be input to the entry item based on the entry item in the electronic document template Transmitting a voice for question to the user terminal, receiving a response voice input including a response to the question voice from the user terminal, and the content data corresponding to the entry item based on the response voice input It may include the step of creating an electronic document by filling in.
  • the step of creating the electronic document may include analyzing the response voice input in units of a key value and a value value, and writing the content data corresponding to the entry item in the electronic document. .
  • the electronic document may be generated based on a conversation including at least one question voice and a response voice input corresponding thereto, and not displayed on the user terminal.
  • the electronic document when the creation of the electronic document is completed due to the completion of content data for all entries included in the electronic document template, the electronic document is It may include the step of storing.
  • the method of creating an electronic document through voice includes, after the step of storing the electronic document, outputting a guide voice for completing the creation of the electronic document, and requesting confirmation of the completed electronic document from the user terminal.
  • a guide voice for completing the creation of the electronic document and requesting confirmation of the completed electronic document from the user terminal.
  • outputting a voice including information on the completed electronic document through the user terminal may be included.
  • the method of creating an electronic document through voice includes the steps of receiving a voice input associated with a correction of content data of a previously input electronic document from a user terminal, and a voice input associated with the correction. Analyzing the (Key) value and the value value in units, and based on the analysis result, the content data previously entered in the electronic document entry item associated with the key value is converted to the value value and It may include the step of replacing the associated content data.
  • the storing of the electronic document may include displaying a handwritten signature input window for inputting a handwritten signature of a creator of the completed electronic document on the second user terminal, and a handwriting input means in the handwritten signature input window from the creator. It may include receiving the handwritten signature through the input and storing the electronic document including the handwritten signature information.
  • the method of creating an electronic document through voice may include displaying information on the completed electronic document on the second user terminal.
  • displaying the information on the completed electronic document may include displaying a URL associated with the completed electronic document on the second user terminal.
  • the method for creating an electronic document through voice includes the steps of receiving a voice input associated with the registration of the boilerplate from the user terminal, and the boilerplate and the above based on the voice input associated with the registration of the boilerplate. It may include storing a string corresponding to the boilerplate as a pair.
  • the step of creating the electronic document may include writing the content data in the entry item based on the character string when the boilerplate pre-stored in the response voice input is present.
  • the electronic document creation apparatus through voice includes a response to a voice input and a question voice from the user terminal to start writing in association with the type of the electronic document template to be created by the user of the user terminal.
  • a voice input receiving unit for receiving a response voice input
  • a template determining unit for determining an electronic document template to be created by the user based on the writing start voice input, and for calling the electronic document template, based on the entry item in the electronic document template.
  • a question generator that transmits a question voice for inducing a user's response including content data to be input to the entry item to the user terminal, and the content data corresponding to the entry item based on the response voice input It may include an electronic document creation unit for creating documents.
  • a user of a user terminal creating an electronic document can complete an electronic document by having a voice conversation through a smart device such as a speaker without opening the electronic document.
  • E-document creation or provision based on natural dialogue that does not give the impression of writing can be performed.
  • the effect obtainable in the present application is not limited to the effects as described above, and other effects may exist.
  • FIG. 1 is a schematic configuration diagram of a system for providing an electronic document through voice including a device for creating an electronic document through voice according to an embodiment of the present application.
  • FIG. 2 is a diagram illustrating a process of creating an electronic document based on a voice input by an electronic document creating apparatus according to an embodiment of the present disclosure.
  • FIG. 3 is a view showing an electronic document created by the electronic document creation apparatus according to an embodiment of the present application.
  • FIG. 4 is a diagram illustrating a process of correcting content data previously input through voice according to an embodiment of the present application.
  • FIG. 5A is a diagram illustrating that an apparatus for creating an electronic document through voice according to an embodiment of the present application obtains a handwritten signature of an electronic document creator from a second user terminal.
  • FIG. 5B is a diagram illustrating an electronic document creation device through voice according to an embodiment of the present application requesting an input of a handwritten signature through a first user terminal and a second linked to the first user terminal when the previously input handwritten signature does not exist. It is a diagram illustrating receiving a handwritten signature from a user terminal.
  • FIG. 6 is a diagram illustrating that an electronic document creation apparatus according to an exemplary embodiment of the present application displays information on a completed electronic document on a second user terminal.
  • FIG. 7 is a diagram illustrating writing of content data in an entry item in an electronic document template based on a boilerplate and a character string corresponding to the boilerplate according to an embodiment of the present application.
  • FIG. 8 is a schematic configuration diagram of a device for creating an electronic document through voice according to an embodiment of the present application.
  • FIG. 9 is a flowchart illustrating an operation of a method for providing an electronic document through voice according to an embodiment of the present application.
  • FIG. 10 is an operation flow diagram of a method for creating an electronic document through voice according to an embodiment of the present application.
  • 11 is an operation flow diagram of a method of storing an electronic document including handwritten signature information of an electronic document creator according to an embodiment of the present application.
  • FIG. 1 is a schematic configuration diagram of a system for providing an electronic document through voice including a device for creating an electronic document through voice according to an embodiment of the present application.
  • an electronic document providing system 1 through voice according to an embodiment of the present application includes an electronic document writing apparatus 100 through voice according to an embodiment of the present application (hereinafter referred to as “electronic document writing apparatus”. 100)'), a network 10, a user terminal 20, and a second user terminal 30.
  • the user terminal 20 a smartphone (Smartphone), a smart pad (SmartPad), a tablet PC, PCS (Personal Communication System), GSM (Global System for Mobile communication), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) It can include all kinds of wired/wireless communication devices such as terminals.
  • GSM Global System for Mobile communication
  • PDC Personal Digital Cellular
  • PHS Personal Handyphone System
  • PDA Personal Digital Assistant
  • IMT International Mobile Telecommunication
  • CDMA Code Division Multiple Access
  • W-CDMA Wide-Code Division Multiple Access
  • Wibro Wireless Broadband Internet
  • the user terminal 20 is a smart speaker (Smart Speaker), Smart Car (Smart Car), Smart Appliances (Smart Appliances), Wearable Device (Wearable Device) augmented reality devices (VR/MR), etc. It may include a variety of used acoustic devices, driving devices, and the like.
  • the second user terminal 30 may be understood as various devices provided with a display screen capable of displaying information on an electronic document that has been created.
  • the second user terminal 30 is a device including a display screen separate from the user terminal 20 I can.
  • the second user terminal 30 may be understood as an integrated device with the user terminal 20.
  • the user terminal 20 or the second user terminal 30 transmits the user input input from the user to the electronic document creation device 100 through voice in connection with the electronic document creation device 100 through voice or It may include an application unit that receives the processing result.
  • the application unit may include a virtual artificial intelligence assistant application.
  • the virtual artificial intelligence assistant application may include, for example, a virtual artificial intelligence assistant service such as Siri, Google Assistant, Alexa, Cortana, Bixby, Nugu, Clova, etc., but is not limited thereto.
  • the application unit may include a messenger application.
  • the messenger application include KakaoTalk, My People, Line, TikTok, Buddy Buddy, Say Club, MSN Messenger, Yahoo Messenger, NateOn, Daum Wiz Genie, Daum Messenger, KTiman Messenger, Facebook, Telegram, Whatsapp
  • the same messenger service may be included, but is not limited thereto.
  • the user terminal 20, the second user terminal 30, and the electronic document creation apparatus 100 may communicate through a network 10 that is interconnected.
  • the network 10 is illustratively 3GPP (3rd Generation Partnership Project) network, LTE (Long Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet (Internet), LAN (Local Area Network), Includes, but is limited to, Wireless Local Area Network (LAN), Wide Area Network (WAN), Personal Area Network (PAN), Bluetooth network, satellite broadcasting network, analog broadcasting network, and Digital Multimedia Broadcasting (DMB) network. It doesn't work.
  • 3GPP 3rd Generation Partnership Project
  • LTE Long Term Evolution
  • 5G Fifth Generation Partnership Project
  • WIMAX Worldwide Interoperability for Microwave Access
  • Internet Internet
  • LAN Local Area Network
  • WAN Wide Area Network
  • PAN Personal Area Network
  • Bluetooth satellite broadcasting network
  • analog broadcasting network analog broadcasting network
  • DMB Digital Multimedia Broadcasting
  • the electronic document creation apparatus 100 may receive a voice input associated with the electronic document from the user terminal 20.
  • the electronic document creation apparatus 100 may generate an electronic document based on the voice input.
  • the electronic document creation apparatus 100 may provide an electronic document generated by the user terminal 20.
  • FIG. 2 is a diagram illustrating a process of creating an electronic document based on a voice input by an electronic document creating apparatus according to an embodiment of the present disclosure.
  • an electronic document may be generated based on a conversation including at least one question voice B1 and a response voice input A2 corresponding thereto.
  • the electronic document may not be displayed on the user terminal 20.
  • the above-described non-display may be understood as that information associated with the electronic document being created during the creation process of the electronic document may not be visually displayed on the user terminal 20.
  • the user of the user terminal 20 who utters a voice for creating an electronic document does not open the electronic document and does not feel that the electronic document is being created, and has a natural conversation through the user terminal 20, Can be written.
  • the user terminal 20 transmits the user's uttered voice included in the conversation content to the electronic document creation device 100 and the electronic document creation device 100 can complete the electronic document based on this.
  • the electronic document may be completed by the electronic document creation apparatus 100.
  • the completed electronic document can be confirmed by voice through the user terminal 20 at the request of the user of the user terminal 20 by way of example.
  • the user may check information on the completed electronic document through the display screen of the second user terminal 30 having a display screen.
  • the user's voice input is generated from the user terminal 20 through the network 10 Can be delivered to the device 100.
  • the electronic document creation apparatus 100 may output the question voice.
  • the electronic document creation apparatus 100 may receive a creation start voice input A1 associated with a type of an electronic document template that the user of the user terminal 20 intends to create from the user terminal 20.
  • creation of an electronic document by the electronic document creation apparatus 100 may be initiated by a user of the user terminal 20 uttering a creation start voice input A1.
  • the user terminal 20 in the creation of an electronic document by the electronic document creation device 100, the user terminal 20 outputs a question voice asking the user of the user terminal 20 for the type of the electronic document template to be created. Correspondingly, it can be initiated by the user uttering the creation start voice input A1.
  • the electronic document creation apparatus 100 may determine an electronic document template to be created by the user based on the writing start voice input A1 and load the electronic document template.
  • the electronic document creation apparatus 100 determines the user's intention through natural language processing for the writing start voice input in order to determine the electronic document template to be written by the user based on the writing start voice input A1. It may be linked with a natural language processing device that grasps
  • the electronic document template determined by the writing start voice input A1 may be a'vacation application'.
  • the electronic document writing device 100 analyzes the writing start voice input A1 and determines the electronic document template to be written by the user as a'vacation application', the electronic document writing device 100 A previously saved'vacation application' form can be retrieved and placed in a state of waiting for the entry of the content data.
  • the electronic document creation apparatus 100 transmits, to the user terminal 20, a question voice (B1) for inducing a user's response including content data to be input to the entry item based on the entry entry in the electronic document template. I can.
  • the electronic document creation apparatus 100 may generate a question related to an electronic document entry item.
  • the question may include a first type question including intention data and a second type question not including the intention data.
  • the intention data may be determined based on the format of the electronic document.
  • the intention data is associated with an entry item that a user must input on an electronic document in order to complete one electronic document, and may be understood as a concept corresponding to a key value to be described later.
  • the first type question is, such as'Please tell me the vacation classification and the reason for the vacation'. It may mean a question in the form of including as.
  • the electronic document creation device 100 generates a question that includes more than one entry item. It is not limited thereto.
  • the user terminal 20 that has received the question voice B1 from the electronic document creation apparatus 100 may output the question voice B1 so that the user can hear it.
  • the electronic document creation apparatus 100 inputs a response voice from the user terminal 20 ( A2) can be received.
  • the electronic document creation apparatus 100 may create an electronic document by writing content data corresponding to the entry item in the electronic document template based on the response voice input A2.
  • writing the content data corresponding to the entry item based on the response audio input (A2) to create an electronic document is a response audio input (A2) as a key (Key) value and value (Value) It may mean analyzing values in units to extract content data corresponding to the entry item, and write the content data in an electronic document.
  • the key value may mean intention data associated with an entry item that a user must input on an electronic document in order to complete one electronic document.
  • the intention data may be determined based on the format of the electronic document.
  • the intention data according to an embodiment of the present application may include'(vacation) date and time, (vacation) classification, (vacation) reason' that the user must input in order to complete a vacation application.
  • the electronic document creation apparatus 100 may be to obtain the key value (intentional data) by extracting a portion having a similarity of the electronic document entry item or more from the response voice input. .
  • the electronic document creation apparatus 100 may utilize a Levenstein edit distance algorithm to determine a point at which the intention data starts.
  • a point at which the edit distance is minimum by specifying the expected position of the intention data through the algorithm, by sequentially moving the predicted positions one by one and calculating the edit distance between the electronic document entry item and the part estimated as the intention data May be determined as a starting point of the intention data.
  • the electronic document creation apparatus 100 may extract raw content data corresponding to the intention data.
  • the electronic document creation apparatus 100 includes the original content corresponding to the N-th intention data from the end point of the N-th intention data to the start point of the (N+1)-th intention data among the response voice input. Can be extracted as data.
  • the value may be understood to mean the raw content data.
  • the electronic document creation apparatus 100 when the N-th intention data of the response voice input is the last intention data, the electronic document creation apparatus 100 is configured from an end point of the N-th intention data to the end of the response voice input.
  • the portion of may be extracted as raw content data corresponding to the N-th intention data.
  • the raw content data corresponds to the intention data and may include a part of the unrefined speech along with the content data to be input for the electronic document entry item, which is finally processed into content data by the electronic document creation device 100 Can be entered in the electronic document entry item.
  • the electronic document creation apparatus 100 may include an irradiation processing unit, a morpheme analysis unit, and a type conversion unit in order to process the content data.
  • the irradiation processing unit may determine and process whether the first segment of the original content data is an irradiation. In this case, when the first segment of the original content data is an investigation, the irradiation processing unit may delete the corresponding segment.
  • the morpheme analysis unit may combine the remaining segments except for the first segment.
  • the morpheme analysis unit may perform morpheme analysis on the last segment of the original content data that has been primarily processed by the irradiation processing unit.
  • the morpheme analysis unit may detect the real morpheme by searching the morpheme analysis result in the reverse direction.
  • the type converter may convert the detected real morpheme into a noun form.
  • the type conversion unit may perform conversion into the noun form by combining'- ⁇ ' or'-um' after the real morpheme in the form of a verb (verb, adjective).
  • the type conversion unit may convert the detected real morpheme in consideration of the type of the detected real morpheme. For example, when the detected real morpheme is a'text type', as described above, when the detected real morpheme is not a noun form, the detected real morpheme can be converted into a noun form.
  • the detected real morpheme can be converted into a date format (eg, year-month-day format). Specifically, when the detected real morpheme is'today', it is recognized as a real morpheme of'date type', and the date of the corresponding day may be entered. As another example, if the detected real morpheme is a'number type', the numeric information itself may be written without additional conversion.
  • a date format eg, year-month-day format
  • the format of the corresponding electronic document entry item is not suitable for entering the detected real morpheme itself, such as a combo box, a check box, and a radio button, based on the aforementioned Levenstein edit distance algorithm . You can select the combo box, check box, and radio button that are closest to the content contained in the detected real morpheme.
  • the primitive content data which has been converted by the type conversion unit, may be finally determined as the content data written in an electronic document.
  • the content data is all intention data included in the question voice (in other words, all of the key values). ), and whether the content data is appropriately determined according to the intention data may be determined.
  • the electronic document creation apparatus 100 generates a question voice associated with the electronic document entry item based on the missing intention data. Can be regenerated.
  • the electronic document creation apparatus 100 may regenerate a question voice associated with the corresponding intention data.
  • the electronic document creation apparatus 100 considers the entire intention data to be filled in for the completion of the electronic document, regardless of whether the type of the question is a first type question or a second type question, If the intention data for which the data has not been written remains, the question voice associated with the electronic document entry item in consideration of the remaining intention data may be reproduced.
  • each of the content data may be filled with content data itself according to, for example, a format of an electronic document.
  • it may be written in O/X form to match the content of the content data, written in a manner of checking a V-shape, or written in a form in which a matching answer is selected from among preset answer types for each entry item, but is limited thereto. It is not.
  • FIG. 3 is a diagram showing an electronic document created by an electronic document creation apparatus through voice according to an embodiment of the present application.
  • the electronic document creation apparatus 100 may create an electronic document 40 by writing content data based on a voice input based on an electronic document template of a'vacation application' to be created by a user.
  • the electronic document 40 generated by the electronic document creation apparatus 100 may not be visually displayed on the user terminal 20. That is, the electronic document 40 illustrated in FIG. 3 may represent what is stored on the electronic document creation apparatus 100.
  • the electronic document 40 generated by the electronic document creation apparatus 100 may be visually displayed on the second user terminal 30 according to a user's request from the second user terminal 30.
  • the electronic document creation device 100 analyzes the writing start voice input A1 to call the electronic document template (for example,'vacation application') to be written by the user, and inputs a response voice. Based on (A2), the content data '2019-03-15 09:00 to 2019-03-15 18:00' can be entered in the entry item'vacation date' in the electronic document template. In addition, content data'break' may be entered in the entry item'reason for vacation' in the electronic document template.
  • FIG. 4 is a diagram illustrating a process of correcting content data previously input through voice according to an embodiment of the present application.
  • the electronic document creation apparatus 100 may receive a voice input A3 associated with a correction of content data of a previously input electronic document from the user terminal 20.
  • the electronic document creation apparatus 100 may analyze the voice input A3 associated with the correction in units of a key value and a value value.
  • the electronic document creation apparatus 100 may replace content data previously entered in an electronic document entry item associated with a key value with content data associated with a value value based on the analysis result. .
  • the electronic document writing device 100 uses a key value of'vacation start date. , Vacation end date' and'March 16', which is a value value, can be extracted.
  • the electronic document creation apparatus 100 uses the content data'March 15', which is the content data previously entered in the'date and time', which is the electronic document entry item associated with the key value, and the content data associated with the value value. It can be replaced with'March 16'.
  • the'vacation start date, vacation end date' item entered in the modified electronic document 40 may be changed from 09:00 on 2019-03-16 to 18:00 on 2019-03-16. have.
  • the electronic document creation apparatus 100 may store the completed electronic document when the creation of the electronic document is completed because content data for all entries included in the electronic document template is completed.
  • the electronic document creation apparatus 100 may store the electronic document and then output a guide voice for completing the creation of the electronic document through the user terminal 20.
  • the electronic document creation device 100 inputs a voice input associated with the request for checking the completed electronic document from the user terminal 20, the voice including information on the completed electronic document through the user terminal 20 Can be printed.
  • the electronic document creation apparatus 100 may obtain a handwritten signature of the creator of the electronic document that has been completed from the second user terminal 30.
  • FIG. 5A is a diagram illustrating that an apparatus for creating an electronic document through voice according to an embodiment of the present application obtains a handwritten signature of an electronic document creator from a second user terminal.
  • the electronic document creation apparatus 100 may display a handwritten signature input window 32 for inputting a handwritten signature of a creator of a completed electronic document on the second user terminal 30.
  • the electronic document creation device 100 is linked with a messenger application installed in the second user terminal 30, and a link connected to the handwritten signature input window 32 in the chat area 31 formed in the messenger application. Can be transmitted.
  • a handwritten signature input window 32 may be displayed on the display screen of the second user terminal 30.
  • the electronic document creation apparatus 100 may receive a handwritten signature A4 from the creator of the electronic document through the second user terminal 30 through a handwriting input means in the handwritten signature input window 32.
  • the electronic document creation apparatus 100 may store the electronic document including handwritten signature information.
  • the handwritten signature information may include a detection result including at least one of the author's pen pressure information or pen pressure information sensed through the second user terminal 30 and a handwritten signature (A4). have.
  • the electronic document creation apparatus 100 is linked to the account of the creator of the corresponding electronic document, and if there is a handwritten signature previously entered before the creation of the electronic document, the previously entered handwriting You can retrieve your signature and fill in the signature column of the electronic document.
  • the electronic document creation apparatus 100 writes a new handwritten signature on the user terminal of the creator of the electronic document when there is no previously input handwritten signature of the creator of the corresponding electronic document. You can ask to do it.
  • the electronic document creation apparatus 100 may output a guide voice indicating that the handwritten signature previously input to the first user terminal 20 does not exist, and is linked to the first user terminal 20 and is a handwriting input means. A voice requesting to perform a handwritten signature input through the equipped second user terminal 30 may be output.
  • FIG. 5B is a diagram illustrating an electronic document creation device through voice according to an embodiment of the present application requesting an input of a handwritten signature through a first user terminal and a second linked to the first user terminal when the previously input handwritten signature does not exist. It is a diagram illustrating receiving a handwritten signature from a user terminal.
  • the electronic document creation apparatus 100 includes a guide voice indicating that a handwritten signature previously input through the first user terminal 20 does not exist and a voice requesting input of a handwritten signature (based on FIG. 5B). No signature. would you like to proceed with the signature on the connected mobile?") can be printed. Subsequently, when the creator of the electronic document utters a voice input including an intention to input a handwritten signature ("Yes" based on FIG. 5B), the electronic document creation device 100 is linked with the first user terminal, and the handwriting input means A link leading to the handwritten signature input window may be transmitted to the provided second user terminal 30.
  • the electronic document creation apparatus 100 stores the created electronic document including the handwritten signature information, and the first user terminal 20 or Notice that the storage of the completed electronic document has been completed in at least one of the second user terminals 30 (as shown in FIG. 5B), a voice output indicating "the electronic document has been saved” through the first user terminal 20 or a second user terminal You can print the text "The electronic document has been saved” through (30) and send the URL link to confirm the document.
  • FIG. 6 is a diagram illustrating that an electronic document creation apparatus according to an exemplary embodiment of the present application displays information on a completed electronic document on a second user terminal.
  • the electronic document creation apparatus 100 may display information on the completed electronic document on the second user terminal 30.
  • the electronic document creation device 100 is linked with a messenger application installed in the second user terminal 30 to complete the creation in connection with the completed electronic document in the chatting area 31 formed in the messenger application.
  • Guide text (B3) can be output.
  • displaying information on the completed electronic document on the second user terminal 30 described above displays a URL (B4) associated with the completed electronic document on the second user terminal 30 It can be understood as doing.
  • the URL (B4) associated with the completed electronic document may be provided in the form of a button in the chat area 31, and the user of the second user terminal 30 touches the button shape or When clicked, a web or mobile page, an application interface, and the like for confirming the completed electronic document may be displayed on the second user terminal 30.
  • the electronic document creation apparatus 100 forms a processing result associated with the electronic document into a UI (User Interface) and UX (User Experience) based on the attributes of the second user terminal 30 Thus, it can be returned to the second user terminal 30.
  • UI User Interface
  • UX User Experience
  • the above-described attributes of the second user terminal 30 may include input/output data types supported by the second user terminal 30 and the size of the display screen of the second user terminal 30. have.
  • the electronic document creation apparatus 100 may determine the input order of the electronic document entry items, grouping, etc. It can be simply indicated by considering it.
  • the electronic document creation apparatus 100 may display the processing result associated with the electronic document in a manner of implementing the entire electronic document format as an interface. May be.
  • the electronic document creation apparatus 100 differs in the processing result associated with the electronic document by differentiating the UI and UX in consideration of the user's role in the work of the second user terminal 30. It can be shaped.
  • the intelligent electronic document creation device 100 includes a UI and UX provided to the first electronic document creator, and a UI and UX provided to an approver who is in a position to perform processing such as approval or rejection of the electronic document.
  • a UI and UX provided to the first electronic document creator
  • a UI and UX provided to an approver who is in a position to perform processing such as approval or rejection of the electronic document.
  • the electronic document creation apparatus 100 is linked with a messenger application installed in the second user terminal 30, and a URL associated with the completed electronic document in the chatting area 31 formed in the messenger application ( B4) can be transmitted.
  • the electronic document creation apparatus 100 may receive a voice input associated with registration of a boilerplate from the user terminal 20.
  • the electronic document creation apparatus 100 may store a boilerplate and a character string corresponding to the boilerplate in a pair based on a voice input associated with the registration of the boilerplate.
  • FIG. 7 is a diagram illustrating writing of content data in an entry item in an electronic document template based on a boilerplate and a character string corresponding to the boilerplate according to an embodiment of the present application.
  • the electronic document creation apparatus 100 when there is a boilerplate 71 previously stored in the response voice input (A2), the electronic document creation apparatus 100 provides the content data based on a character string 72 corresponding to the boilerplate 71. Can be written in the entry item in the electronic document 40.
  • the electronic document creation apparatus 100 determines that the'my company address', which is the pre-stored boilerplate 71, is included in the response voice input (A2), the entry item in the electronic document 40 In'Address', you can enter'Posies Building, 646 Nonhyeon-ro, Gangnam-gu, Seoul', which is a character string 72 corresponding to the commercial phrase'my company address'.
  • the electronic document creation apparatus 100 includes the first user terminal 20 such as'My-' or'My-' in order to determine whether the response voice input (A2) contains the pre-stored boilerplate 71.
  • the entry item'address' in the electronic document 40 You can enter'Posies Building, 646 Nonhyeon-ro, Gangnam-gu, Seoul', which is a character string 72 corresponding to the commercial phrase'my company address'.
  • the phrase'company address' is simply included in the response voice input (A2), if all of them are replaced with a character string corresponding to a regular phrase and written in an electronic document, the phrase'company address' itself is entered as necessary. Even if it is necessary, there is a possibility of occurrence of an overfitting problem in which a character string corresponding to a boilerplate is substituted and written.
  • the electronic document writing apparatus 100 includes a phrase uttered by the user to refer to itself ( In other words, when values that recognize me, such as'my','my', etc.) and boilerplate ('company address') are simultaneously included in the response voice input (A2), it may be implemented to replace them with the string 72. .
  • FIG. 8 is a schematic configuration diagram of a device for creating an electronic document through voice according to an embodiment of the present application.
  • the electronic document creation apparatus 100 may include a voice input reception unit 110, a template determination unit 120, a question generation unit 130, and an electronic document creation unit 140.
  • the voice input receiving unit 110 is a response voice input including a response to a voice input (A1) and a question voice associated with the type of the electronic document template that the user of the user terminal 20 intends to create from the user terminal 20 (A2) can be received.
  • the template determination unit 120 may determine an electronic document template to be created by the user based on the writing start voice input A1 and load the electronic document template.
  • the question generator 130 may transmit a question voice B1 for inducing a user's response including content data to be input to the entry item to the user terminal 20 based on the entry entry in the electronic document template. .
  • the electronic document creation unit 140 may create an electronic document by writing content data corresponding to the entry item based on the response voice input A2.
  • the electronic document providing system 1 through voice receives user input from the user terminal 20 as well as the electronic document creation device 100 through voice
  • the user's intention is identified through natural language processing of the user, and the control action that matches the user's intention is determined to approve, receive, or delete the previously created electronic document, or an electronic document that meets the search conditions included in the user input.
  • It may include a natural language processing-based electronic document control device that provides a list or controls movement between a plurality of electronic documents.
  • the device for controlling an electronic document based on natural language processing includes a natural language processing unit that recognizes a user's intention through natural language processing of a user input, and a previously created electronic document according to the user's intention.
  • An electronic document processing unit that performs approval, reception, or deletion processing, an electronic document search unit that provides a list of electronic documents that meet the search conditions included in the user input according to the user's intention, and a plurality of It may include a navigation module for controlling movement between electronic documents.
  • the natural language processing unit obtains a concept included in the plurality of sentences through morpheme analysis of a plurality of sentences containing similar intentions, and creates a pattern string based on the pattern character string.
  • a pattern generator configured to generate a pattern and a user input analyzer configured to receive a user input and match the pattern corresponding to the user input to return matching data.
  • the pattern generation unit includes a morpheme analysis unit that performs morpheme analysis for each of the plurality of sentences, a concept acquisition unit that acquires a concept based on a result of the morpheme analysis, and A pattern string creation unit for creating a pattern string including at least one of the concept or capture for extracting a phrase, and a pattern definition unit for defining a pattern based on the pattern string.
  • the user input analysis unit a segmentation unit that divides the user input into a plurality of segments by cutting the user input into spaces, and determines whether at least one segment matches the pattern. It may include a matching performing unit that returns matching data when matching is successful.
  • the natural language processing unit may perform matching on all natural languages including derived words by introducing a morpheme analysis to analyze a plurality of sentences containing similar intentions, extracting roots, and reflecting them in a pattern.
  • the difference salmon processing unit may grasp the intention of the user who generated the user input based on the pattern.
  • the device for controlling an electronic document based on natural language processing may include an electronic document creation unit that creates or corrects an electronic document based on an electronic document template according to the intention of the user.
  • the electronic document creation unit may be understood to mean a configuration identical to or integrally implemented with the electronic document creation unit 140 of the electronic document creation apparatus 100 through voice according to an embodiment of the present application. have.
  • the electronic document providing system 1 through voice may include an electronic document storage device linked to an electronic document.
  • the electronic document storage device may include a template database that stores a plurality of forms according to types of electronic documents.
  • electronic document templates for each type of electronic document stored in the template database may be added, modified, or deleted according to a user's request to update the template database.
  • the electronic document storage device may include an electronic document database for listing and storing electronic documents that have been created by the electronic document creation device 100.
  • the electronic document storage device includes a stage that is dynamically generated according to an electronic document template type, and defines a query associated with electronic document control and a user's expected utterance intention for the query. It may include a stage database to store.
  • the electronic document providing system 1 through voice is an electronic document providing system 1 through voice and an account of the user terminal 20 or the second user terminal 30, or It may include an account linking device for linking an account of the electronic document writing device 100 to grant access rights.
  • the account linking device provides access rights by linking the account of the application unit with the account of the electronic document providing system 1 through voice or the electronic document creation device 100 through voice. It may be to give.
  • the electronic document providing system 1 through voice standardizes the user input into a format that can be processed by the electronic document creation device 100 or the natural language processing-based electronic document control device, and creates an electronic document. It may include a device-linked framework device that converts the processing result of the apparatus 100 or the electronic document control apparatus based on natural language processing into a format that can be processed by the user terminal 20 or the second user terminal 30 and returns it.
  • the device-linked framework device may be implemented as a direct call-type framework, a synchronous framework, an asynchronous framework, or the like.
  • the direct calling framework is a standardized input that the user input can be directly processed by the electronic document writing device 100 or the natural language processing-based electronic document control device, and the electronic document writing device 100 or the natural language processing-based electronic When the document control device returns standardized output that can be processed by the user terminal 20 or the second user terminal 30, a connection interface may be provided.
  • the synchronous framework when the user input is generated in the form of an external platform, responds to a request generated by the external platform with a processing result of the electronic document creation device 100 or the electronic document control device based on natural language processing It can be converted to a format and returned.
  • the asynchronous framework first returns whether or not the user input is successfully received as a response to the corresponding user input, and the processing result of the electronic document creation device 100 or the natural language processing-based electronic document control device is determined for each external platform. It can be converted and returned by calling an API (Application Programming Interface).
  • API Application Programming Interface
  • the electronic document providing system 1 through voice may include a cognitive service linkage framework device for processing user input generated in a type other than voice input.
  • the cognitive service linkage framework device extracts the content of the user input using a recognition API (Application Programming Interface) corresponding to the type of user input generated in a type other than the voice input, and extracts the content of the user input. May be converted into a format that can be processed by the electronic document creation device 100 or the natural language processing-based electronic document control device and transmitted.
  • a recognition API Application Programming Interface
  • FIG. 9 is a flowchart illustrating an operation of a method for providing an electronic document through voice according to an embodiment of the present application.
  • the method of providing an electronic document through voice illustrated in FIG. 9 may be performed by the apparatus 100 for creating an electronic document through voice described above or an electronic document providing system through voice including the same. Accordingly, even though omitted below, the description of the electronic document creation apparatus 100 through voice or the electronic document providing system through voice including the same may be applied to FIG. 9.
  • the electronic document creation apparatus 100 may receive a voice input associated with the electronic document from the user terminal 20.
  • the voice input receiving unit 110 inputs the voice input from the user terminal 20 to the type of the electronic document template that the user of the user terminal 20 intends to create (A1). And it is possible to receive a response voice input (A2) including a response to the question voice (B1) from the user terminal 20.
  • step S920 the electronic document creation apparatus 100 may generate an electronic document based on the voice input received in step S910.
  • the electronic document creation apparatus 100 may provide the electronic document generated in step S920 to the user terminal 20.
  • steps S910 to S930 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present disclosure.
  • some steps may be omitted as necessary, and the order between steps may be changed.
  • FIG. 10 is an operation flow diagram of a method for creating an electronic document through voice according to an embodiment of the present application.
  • the method of creating an electronic document through voice illustrated in FIG. 10 may be performed by the apparatus 100 for creating an electronic document through voice described above or an electronic document providing system through voice including the same. Therefore, even if omitted below, the description of the electronic document creation apparatus 100 through voice or the electronic document providing system through voice including the same may be applied to FIG. 10 in the same manner.
  • step S1010 the voice input receiving unit 110 receives, from the user terminal 20, a creation start voice input A1 associated with the type of the electronic document template that the user of the user terminal 20 intends to create. can do.
  • the template determination unit 120 may determine an electronic document template to be created by the user based on the writing start voice input A1 and call the electronic document template.
  • step S1030 the question generation unit 130 generates a question voice B1 for inducing a user's response including content data to be input to the entry entry based on the entry entry in the electronic document template. ).
  • the voice input receiver 110 may receive a response voice input A2 including a response to the question voice B1 from the user terminal 20.
  • the voice input receiving unit 110 may receive a voice input A3 associated with the correction of the content data of the electronic document previously input from the user terminal 20.
  • step S1051 the electronic document creation unit 140, when the response voice input (A2) is received in step S1041, the response voice input (A2) by a key (Key) value and a value (Value) Can be analyzed.
  • step S1052 the electronic document creation unit 140, when the voice input (A3) associated with the correction is received in step S1042, the voice input (A3) associated with the correction is a key value and a value. ) Value can be analyzed in units.
  • step S1061 the electronic document creation unit 140 may write content data corresponding to the entry item in the electronic document based on the analysis result in step S1051.
  • step S1062 the electronic document creation unit 140, based on the analysis result of step S1052, stores the content data previously entered in the electronic document entry item associated with the key value, and is associated with the value value. Can be replaced with content data.
  • step S1070 the electronic document creation unit 140 writes the content data according to steps S1041, S1051, and S1061 and corrects the content data according to steps S1042, S1052, and S1062. You can complete the entry of the content data for the item.
  • the electronic document creation unit 140 may store the electronic document that has been created.
  • the electronic document creation apparatus 100 may provide information on the completed electronic document to the user terminal 20 or the second user terminal 30.
  • steps S1010 to S1090 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present disclosure.
  • some steps may be omitted as necessary, and the order between steps may be changed.
  • 11 is an operation flow diagram of a method of storing an electronic document including handwritten signature information of an electronic document creator according to an embodiment of the present application.
  • the method of storing an electronic document including handwritten signature information of the electronic document creator shown in FIG. 11 may be performed by the electronic document creation apparatus 100 through voice described above or an electronic document providing system through voice including the same. I can. Accordingly, even though omitted below, the description of the electronic document creation apparatus 100 through voice or the electronic document providing system through voice including the same may be applied to FIG. 11.
  • the electronic document creation unit 140 may display a handwritten signature input window for inputting a handwritten signature of a creator of an electronic document that has been completed on the second user terminal 30.
  • step S1110 the electronic document creation unit 140 requests the author's handwritten signature of the completed electronic document in the chat area 31 before displaying the handwritten signature input window or together with the handwritten signature input window. Text can be displayed.
  • the electronic document creation unit 140 may receive a handwritten signature A4 from the creator of the electronic document through a handwriting input means in the handwritten signature input window.
  • the electronic document creation unit 140 may detect at least one of pen information or pen pressure information of the creator of the electronic document, and receive the detection result and the handwritten signature A4 together.
  • the electronic document creation unit 140 may store an electronic document including handwritten signature information.
  • steps S1110 to S1130 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present disclosure.
  • some steps may be omitted as necessary, and the order between steps may be changed.
  • a method of providing an electronic document through voice or a method of creating an electronic document through voice may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.
  • the above-described method of providing an electronic document through voice or a method of creating an electronic document through voice may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)

Abstract

음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치가 개시되며, 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 방법은, 사용자 단말로부터 전자문서와 연계된 음성 입력을 수신하는 단계, 상기 음성 입력에 기초하여 전자문서를 생성하는 단계 및 상기 사용자 단말로 생성된 전자문서를 제공하는 단계를 포함할 수 있다.

Description

음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치
본원은 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치에 관한 것이다.
일반적으로 업무 영역에서 다양한 양식의 문서가 발생하게 되고, 이러한 문서들은 종래에는 종이에 인쇄된 형태로 작성되었다면, 최근 다양한 문서들을 전자적인 형태로 생성하는 전자문서 및 전자서명 서비스가 도입되어 활용되고 있으며, 정부의 페이퍼리스(Paperless) 정책과 맞물려 급속한 성장 추세를 보이고 있다.
또한, 스마트 디바이스의 대중화에 따라 음성 기반 서비스를 이용하는 사용자 경험은 지속적으로 축적되어 왔다. 현재 음성 기반 서비스의 대부분은 개인의 일상 생활에 연계된 기능을 제공하고 있으며, 앞으로는 기업의 업무 영역에까지 확장될 것으로 예상된다.
따라서, 음성 신호를 포함한 다양한 형태의 입력을 기초로 전자문서를 생성하는 기술 및 시스템이나 음성 입력 등을 기초로 전자 문서를 제어 및 관리할 수 있는 기술 및 시스템 개발의 필요성이 증대되고 있다.
본원의 배경이 되는 기술은 한국등록특허공보 제10-1705228호에 개시되어 있다.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 음성 입력이 가능한 스마트 스피커, 스마트 폰, 스마트 패드, 스마트 워치, 스마트 가전, 스마트 카 등의 다양한 스마트 디바이스와 연계되어 사용자와 대화 형식으로 정보를 주고받으며 전자문서의 작성 또는 처리가 가능한 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치를 제공하려는 것을 목적으로 한다.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 방법은, 사용자 단말로부터 전자문서와 연계된 음성 입력을 수신하는 단계, 상기 음성 입력에 기초하여 전자문서를 생성하는 단계 및 상기 사용자 단말로 생성된 전자문서를 제공하는 단계를 포함할 수 있다.
한편, 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 방법은, 사용자 단말로부터 상기 사용자 단말의 사용자가 작성하려는 전자문서 템플릿의 유형과 연계된 작성 개시 음성 입력을 수신하는 단계, 상기 작성 개시 음성 입력에 기초하여 사용자가 작성하려는 전자문서 템플릿을 결정하고, 상기 전자문서 템플릿을 불러오는 단계, 상기 전자문서 템플릿 내의 기입 항목에 기초하여 상기 기입 항목에 입력될 내용 데이터를 포함하는 사용자의 응답을 유도하기 위한 질문 음성을 상기 사용자 단말로 전송하는 단계, 상기 사용자 단말로부터 상기 질문 음성에 대한 응답을 포함하는 응답 음성 입력을 수신하는 단계 및 상기 응답 음성 입력에 기초하여 상기 기입 항목에 대응되는 상기 내용 데이터를 기입하여 전자문서를 작성하는 단계를 포함할 수 있다.
또한, 상기 전자문서를 작성하는 단계는, 상기 응답 음성 입력을 키(Key) 값 및 밸류(Value) 값을 단위로 분석하여 상기 기입 항목에 대응되는 상기 내용 데이터를 전자문서에 기입하는 것일 수 있다.
또한, 상기 전자문서는 적어도 하나의 질문 음성 및 그에 대응하는 응답 음성 입력을 포함하는 대화를 기초로 하여 생성되고, 상기 사용자 단말에 미표시되는 것일 수 있다.
또한, 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 방법은, 상기 전자문서 템플릿에 포함된 전체 기입 항목에 대한 내용 데이터의 기입이 완료되어 전자문서의 작성이 종료된 경우, 상기 전자문서를 저장하는 단계를 포함할 수 있다.
또한, 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 방법은, 상기 전자문서를 저장하는 단계 이후, 상기 전자문서의 작성 완료 안내 음성을 출력하는 단계 및 사용자 단말로부터 완성된 전자문서 확인 요청과 연계된 음성 입력이 입력될 경우, 상기 사용자 단말을 통해 완성된 전자문서에 대한 정보를 포함하는 음성을 출력하는 단계를 포함할 수 있다.
또한, 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 방법은, 사용자 단말로부터 기 입력된 전자문서의 내용 데이터의 수정과 연계된 음성 입력을 수신하는 단계, 상기 수정과 연계된 음성 입력을 키(Key) 값 및 밸류(Value) 값을 단위로 분석하는 단계 및 상기 분석 결과에 기초하여 상기 키(Key) 값과 연계된 전자문서 기입 항목에 기 입력된 내용 데이터를 상기 밸류(Value) 값과 연계된 내용 데이터로 치환하는 단계를 포함할 수 있다.
또한, 상기 전자문서를 저장하는 단계는, 제2사용자 단말에 작성이 완료된 전자문서의 작성자의 자필 서명을 입력하는 자필 서명 입력 창을 표시하는 단계, 상기 작성자로부터 상기 자필 서명 입력 창에 필기 입력 수단을 통하여 상기 자필 서명을 입력받는 단계 및 상기 자필 서명 정보를 포함하여 전자문서를 저장하는 단계를 포함할 수 있다.
또한, 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 방법은, 제2사용자 단말에 완성된 전자문서에 대한 정보를 표시하는 단계를 포함할 수 있다.
또한, 상기 완성된 전자문서에 대한 정보를 표시하는 단계는, 상기 완성된 전자문서와 연계된 URL을 상기 제2사용자 단말에 표시하는 것일 수 있다.
또한, 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 방법은, 상기 사용자 단말로부터 상용구의 등록과 연계된 음성 입력을 수신하는 단계 및 상기 상용구의 등록과 연계된 음성 입력에 기초하여 상용구 및 상기 상용구에 대응되는 문자열을 한 쌍으로 하여 저장하는 단계를 포함할 수 있다.
또한, 상기 전자문서를 작성하는 단계는, 상기 응답 음성 입력에 기 저장된 상기 상용구가 존재하는 경우, 상기 문자열을 기초로 하여 상기 내용 데이터를 상기 기입 항목에 기입하는 것일 수 있다.
한편, 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치는, 사용자 단말로부터 상기 사용자 단말의 사용자가 작성하려는 전자문서 템플릿의 유형과 연계된 작성 개시 음성 입력 및 질문 음성에 대한 응답을 포함하는 응답 음성 입력을 수신하는 음성 입력 수신부, 상기 작성 개시 음성 입력에 기초하여 사용자가 작성하려는 전자문서 템플릿을 결정하고, 상기 전자문서 템플릿을 불러오는 템플릿 결정부, 상기 전자문서 템플릿 내의 기입 항목에 기초하여 상기 기입 항목에 입력될 내용 데이터를 포함하는 사용자의 응답을 유도하기 위한 질문 음성을 상기 사용자 단말로 전송하는 질문 생성부 및 상기 응답 음성 입력에 기초하여 상기 기입 항목에 대응되는 상기 내용 데이터를 기입하여 전자문서를 작성하는 전자문서 작성부를 포함할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 음성 입력이 가능한 스마트 스피커, 스마트 폰, 스마트 패드, 스마트 워치, 스마트 가전, 스마트 카 등의 다양한 스마트 디바이스와 연계되어 사용자와 대화 형식으로 정보를 주고받으며 전자문서의 작성 또는 처리가 가능한 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치를 제공할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 전자문서를 작성하는 사용자 단말의 사용자는 전자문서를 열어보지 않고도 스피커 등의 스마트 디바이스를 통해 음성으로 대화를 나눔으로써 전자문서를 완성할 수 있어, 전자문서를 작성한다는 느낌을 주지 않는 자연스러운 대화 기반의 전자문서 작성 또는 제공이 수행될 수 있다.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.
도 1은 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치를 포함하는 음성을 통한 전자문서 제공 시스템의 개략적인 구성도이다.
도 2는 본원의 일 실시예에 따른 전자문서 작성 장치가 음성 입력에 기초하여 전자문서를 작성하는 과정을 설명하기 위한 도면이다.
도3은 본원의 일 실시예에 따른 전자문서 작성 장치에 의해 작성되는 전자문서를 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 음성을 통하여 기 입력된 내용 데이터를 수정하는 과정을 나타낸 도면이다.
도 5a는 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치가 제 2 사용자 단말로부터 전자문서 작성자의 자필 서명을 획득하는 것을 나타낸 도면이다.
도 5b는 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치가 기입력된 자필 서명이 미존재하는 경우, 제 1 사용자 단말을 통해 자필 서명 입력을 요청하고 제 1 사용자 단말과 연계된 제 2사용자 단말로부터 자필 서명을 입력 받는 것을 나타낸 도면이다.
도 6은 본원의 일 실시예에 따른 전자문서 작성 장치가 제 2 사용자 단말에 완성된 전자문서에 대한 정보를 표시하는 것을 나타낸 도면이다.
도 7은 본원의 일 실시예에 따른 상용구 및 상기 상용구에 대응되는 문자열을 기초로 하여 내용 데이터를 전자문서 템플릿 내의 기입 항목에 기입하는 것을 나타낸 도면이다.
도 8 은 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치의 개략적인 구성도이다.
도 9는 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 방법의 동작흐름도이다.
도 10은 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 방법의 동작흐름도이다.
도 11은 본원의 일 실시예에 따른 전자문서 작성자의 자필 서명 정보를 포함하여 전자문서를 저장하는 방법의 동작흐름도이다.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치를 포함하는 음성을 통한 전자문서 제공 시스템의 개략적인 구성도이다.
도 1을 참조하면, 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 시스템(1)은, 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치(100)(이하 '전자문서 작성 장치(100)'라 한다.), 네트워크(10), 사용자 단말(20), 및 제 2 사용자 단말(30)을 포함할 수 있다.
예를 들면, 사용자 단말(20)은, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 유/무선 통신 장치를 포함할 수 있다.
특히 사용자 단말(20)은 스마트 스피커(Smart Speaker), 스마트 카(Smart Car), 스마트 가전(Smart Appliances), 웨어러블 장치(Wearable Device) 증강현실기기 (VR/MR) 등 새롭게 생겨나는 각종 통신기술을 이용한 다양한 음향기기, 구동기기 등을 포함할 수 있다.
또한, 제 2 사용자 단말(30)은 작성이 완료된 전자문서에 대한 정보를 표시할 수 있는 디스플레이 화면이 구비된 각종 디바이스로 이해될 수 있다.
예를 들어, 제 2 사용자 단말(30)은 사용자 단말(20)이 디스플레이 화면을 포함하지 않는 스마트 스피커, 인공지능 스피커 등에 해당하는 경우, 사용자 단말(20)과 별개의 디스플레이 화면을 포함하는 디바이스일 수 있다.
다른 예로, 사용자 단말(20)이 스마트 폰, 태블릿 PC 등 디스플레이 화면을 구비한 경우 제 2 사용자 단말(30)은 사용자 단말(20)과 일체의 디바이스로 이해될 수 있다.
사용자 단말(20) 또는 제 2 사용자 단말(30)은 음성을 통한 전자문서 작성 장치(100)와 연동하여 사용자로부터 입력된 사용자 입력을 음성을 통한 전자문서 작성 장치(100)로 전달하거나 사용자 입력에 대한 처리 결과를 수신하는 어플리케이션부를 포함할 수 있다.
본원의 일 실시예에 따르면, 어플리케이션부는, 가상 인공지능 비서 어플리케이션을 포함할 수 있다. 상기 가상 인공지능 비서 어플리케이션에는 예시적으로, Siri, Google Assistant, Alexa, Cortana, Bixby, Nugu, Clova 등과 같은 가상 인공지능 비서 서비스가 포함될 수 있으나 이에 한정되는 것은 아니다.
본원의 다른 실시예에 따르면, 어플리케이션부는, 메신저 어플리케이션을 포함할 수 있다. 상기 메신저 어플리케이션에는 예시적으로, 카카오톡, 마이피플, 라인, 틱톡, 버디버디, 세이클럽, MSN 메신저, 야후 메신저, 네이트온, 다음위즈지니, 다음메신저, KTiman 메신저, Facebook, 텔레그램, Whatsapp 등과 같은 메신저 서비스가 포함될 수 있으나 이에 한정되는 것은 아니다.
사용자 단말(20), 제 2 사용자 단말(30) 및 전자문서 작성 장치(100)는 상호 연결되는 네트워크(10)로 통신할 수 있다.
네트워크(10)는 예시적으로 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
전자문서 작성 장치(100)는 사용자 단말(20)로부터 전자문서와 연계된 음성 입력을 수신할 수 있다.
또한, 전자문서 작성 장치(100)는 상기 음성 입력에 기초하여 전자문서를 생성할 수 있다.
또한, 전자문서 작성 장치(100)는 사용자 단말(20)로 생성된 전자문서를 제공할 수 있다.
도 2는 본원의 일 실시예에 따른 전자문서 작성 장치가 음성 입력에 기초하여 전자문서를 작성하는 과정을 설명하기 위한 도면이다.
도 2 를 참조하면, 전자문서는 적어도 하나의 질문 음성(B1) 및 그에 대응하는 응답 음성 입력(A2)을 포함하는 대화를 기초로 하여 생성될 수 있다.
또한, 전자문서는 사용자 단말(20)에 미표시될 수 있다. 구체적으로 상술한 미표시된다는 것은 전자문서의 작성 과정에서 작성 중인 전자문서와 연계된 정보가 사용자 단말(20)에 시각적으로 표시되지 않을 수 있는다는 것으로 이해할 수 있다.
즉, 전자문서를 작성하기 위한 음성을 발화하는 사용자 단말(20)의 사용자는 전자문서를 열어보지 않고 전자문서를 작성한다는 느낌을 받지 않으면서 사용자 단말(20)을 통해 자연스러운 대화를 나눔으로써 전자문서를 작성할 수 있다. 이는, 사용자 단말(20)이 대화 내용에 포함된 사용자의 발화 음성을 전자문서 작성 장치(100)에 전달하고 전자문서 작성 장치(100)가 이를 기반으로 전자문서를 완성할 수 있기 때문이다.
사용자 단말(20)의 사용자와 사용자 단말(20) 간의 최종 대화가 종료 되면, 전자문서 작성 장치(100)에 의해 전자문서가 완성될 수 있다. 완성된 전자문서는 예시적으로 사용자 단말(20)의 사용자의 요청에 따라 사용자 단말(20)을 통해 음성으로 확인할 수 있다. 다른 예로 사용자는 디스플레이 화면을 구비한 제 2 사용자 단말(30)의 디스플레이 화면을 통해 완성된 전자문서에 대한 정보를 확인할 수 있다.
도 2를 참조하면, 사용자 단말(20)의 사용자와 사용자 단말(20) 간에 대화가 이루어지는 과정만이 도시되어 있으나, 사용자의 음성 입력은 사용자 단말(20)로부터 네트워크(10)를 통해 전자문서 작성 장치(100)로 전달될 수 있다. 마찬가지로 전자문서 작성 장치(100)는 전자문서 작성을 위해 사용자의 응답을 유도하기 위한 질문을 생성하고 상기 질문을 사용자 단말(20)로 전송하면 사용자 단말(20)이 질문 음성을 출력할 수 있다.
전자문서 작성 장치(100)는, 사용자 단말(20)로부터 사용자 단말(20)의 사용자가 작성하려는 전자문서 템플릿의 유형과 연계된 작성 개시 음성 입력(A1)을 수신할 수 있다.
본원의 일 실시예에 따르면, 전자문서 작성 장치(100)에 의한 전자문서 작성은 사용자 단말(20)의 사용자가 작성 개시 음성 입력(A1)을 발화함으로써 개시될 수 있다.
또한, 도 2를 참조하면, 전자문서 작성 장치(100)에 의한 전자문서 작성은 사용자 단말(20)이 사용자 단말(20)의 사용자에게 작성하려는 전자문서 템플릿의 유형을 묻는 질문 음성을 출력하고 이에 대응하여 사용자가 작성 개시 음성 입력(A1)을 발화함으로써 개시될 수 있다.
또한, 전자문서 작성 장치(100)는 작성 개시 음성 입력(A1)에 기초하여 사용자가 작성하려는 전자문서 템플릿을 결정하고, 상기 전자문서 템플릿을 불러올 수 있다.
본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는 작성 개시 음성 입력(A1)에 기초하여 사용자가 작성하려는 전자문서 템플릿을 결정하기 위하여 작성 개시 음성 입력에 대한 자연어 처리를 통해 사용자의 의도를 파악하는 자연어 처리 장치와 연계될 수 있다.
도 2를 참조하면, 작성 개시 음성 입력(A1)에 의해 결정된 전자문서 템플릿은 '휴가 신청서'일 수 있다.
도 2에 도시되지 않았으나, 전자문서 작성 장치(100)가 작성 개시 음성 입력(A1)을 분석하여 사용자가 작성하려는 전자문서 템플릿을 '휴가 신청서'로 결정하고 나면, 전자문서 작성 장치(100)는 기 저장된 '휴가 신청서' 서식을 불러와 내용 데이터의 기입을 대기하는 상태에 놓이도록 할 수 있다.
또한, 전자문서 작성 장치(100)는 전자문서 템플릿 내의 기입 항목에 기초하여 상기 기입 항목에 입력될 내용 데이터를 포함하는 사용자의 응답을 유도하기 위한 질문 음성(B1)을 사용자 단말(20)로 전송할 수 있다.
본원의 일 실시예에 따른 전자문서 작성 장치(100)는 전자문서 기입 항목에 연계된 질문을 생성할 수 있다. 또한, 상기 질문은 의도 데이터를 포함하는 제1타입 질문 및 상기 의도 데이터를 미포함하는 제2타입 질문을 포함할 수 있다. 상기 의도 데이터는 전자문서의 서식에 기초하여 결정될 수 있다. 상기 의도 데이터는 하나의 전자문서가 완성되기 위하여 전자문서 상에 사용자가 입력해야 하는 기입 항목과 연계된 것으로 후술할 키(Key) 값에 대응하는 개념으로 이해될 수 있다. 본원의 일 실시예에 따르면, 상기 제1타입 질문은 '휴가 구분과 휴가 사유를 알려주세요.'와 같이 본원의 일 실시예에 따른 상기 의도 데이터 '휴가 구분' 및 '휴가 사유'를 질문 내에 직접적으로 포함하는 형태의 질문을 의미할 수 있다.
또한, 전자문서 작성 과정에서 사용자에게 묻는 질문의 수가 많으면, 문서 작성이 완료되는 데 걸리는 시간이 길어질 수 있으므로, 전자문서 작성 장치(100)가 둘 이상의 기입 항목을 포괄하는 질문을 생성하는 것이 바람직하나 이에 한정되는 것은 아니다.
전자문서 작성 장치(100)로부터 질문 음성(B1)을 전송 받은 사용자 단말(20)은 사용자가 들을 수 있도록 질문 음성(B1)을 출력할 수 있다.
이어서, 질문 음성(B1)을 들은 사용자가 질문 음성(B1)에 대한 응답을 포함하는 응답 음성 입력(A2)를 발화하면, 전자문서 작성 장치(100)는 사용자 단말(20)로부터 응답 음성 입력(A2)을 수신할 수 있다.
또한, 전자문서 작성 장치(100)는 응답 음성 입력(A2)에 기초하여 전자문서 템플릿 내의 기입 항목에 대응되는 내용 데이터를 기입하여 전자문서를 작성할 수 있다.
본원의 일 실시예에 따르면, 응답 음성 입력(A2)에 기초하여 기입 항목에 대응되는 내용 데이터를 기입하여 전자문서를 작성하는 것은 응답 음성 입력(A2)을 키(Key) 값 및 밸류(Value) 값을 단위로 분석하여 기입 항목에 대응되는 내용 데이터를 추출하고 상기 내용 데이터를 전자문서에 기입하는 것을 의미할 수 있다.
본원의 일 실시예에 따르면, 상기 키(Key) 값은 하나의 전자문서가 완성되기 위하여 전자문서 상에 사용자가 입력해야 하는 기입 항목과 연계된 의도 데이터를 의미할 수 있다. 상기 의도 데이터는 전자문서의 서식에 기초하여 결정될 수 있다.
본원의 일 실시예에 따른 상기 의도 데이터는 휴가 신청서를 완성하기 위하여 사용자가 입력해야 하는 '(휴가) 일시, (휴가) 구분, (휴가) 사유'를 포함할 수 있다.
본원의 일 실시예에 따른 전자문서 작성 장치(100)는 응답 음성 입력에서 상기 전자문서 기입 항목과의 유사도가 소정 이상인 부분을 추출함으로써 상기 키(Key) 값(의도 데이터)을 획득하는 것일 수 있다.
또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는 상기 의도 데이터가 시작되는 지점을 결정하기 위하여, 레벤슈타인 편집 거리 알고리즘을 활용할 수 있다. 상기 알고리즘을 통해 의도 데이터의 예상 위치를 특정하고, 상기 예상 위치를 하나씩 순차적으로 옮겨가며 상기 전자문서 기입 항목과 상기 의도 데이터로 추정되는 부분 간의 편집 거리를 계산하여, 상기 편집 거리가 최소가 되는 지점을 상기 의도 데이터가 시작되는 지점으로 결정할 수 있다.
또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는, 상기 의도 데이터에 대응되는 원시 내용 데이터를 추출할 수 있다. 구체적으로, 전자문서 작성 장치(100)는, 상기 응답 음성 입력 중 N번째 의도 데이터의 종료 지점부터 (N+1)번째 의도 데이터의 시작 지점 전까지의 부분을 상기 N번째 의도 데이터에 대응되는 원시 내용 데이터로 추출할 수 있다.
또한, 본원의 일 실시예에 따르면, 상기 밸류(Value) 값은 상기 원시 내용 데이터를 의미하는 것으로 이해될 수 있다.
또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는, 상기 응답 음성 입력 중 N번째 의도 데이터가 마지막 의도 데이터인 경우 상기 N번째 의도 데이터의 종료 지점부터 상기 응답 음성 입력의 마지막까지의 부분을 상기 N번째 의도 데이터에 대응되는 원시 내용 데이터로 추출할 수 있다.
상기 원시 내용 데이터에는 상기 의도 데이터에 대응되고, 전자문서 기입 항목에 대하여 입력될 내용 데이터와 함께 정제되지 않은 발화 일부가 포함될 수 있으며, 이는 최종적으로 전자문서 작성 장치(100)에 의해 내용 데이터로 가공되어 상기 전자문서 기입 항목에 기입될 수 있다.
이하에서는, 전자문서 작성 장치(100)에 의해 상기 원시 내용 데이터가 전자문서 기입 항목에 실제로 기입되는 내용 데이터로 가공되는 과정을 상세히 서술하기로 한다.
도면에는 도시하지 않았으나 상기 내용 데이터로의 가공을 위하여 전자문서 작성 장치(100)는, 조사 처리부, 형태소 분석부 및 형 변환부를 포함할 수 있다.
상기 조사 처리부는, 상기 원시 내용 데이터의 첫 분절이 조사인지 여부를 판단하여 처리할 수 있다. 이 때, 조사 처리부는 상기 원시 내용 데이터의 첫 분절이 조사인 경우, 해당 분절을 삭제할 수 있다.
상기 형태소 분석부는, 상기 첫 분절을 제외한 나머지 분절들을 결합할 수 있다. 또한, 상기 형태소 분석부는, 조사 처리부에 의해 1차적으로 가공된 상기 원시 내용 데이터의 마지막 분절에 대해 형태소 분석을 수행할 수 있다. 또한, 형태소 분석부는, 상기 형태소 분석 결과를 역방향으로 탐색하여 실질 형태소를 탐지할 수 있다.
상기 형 변환부는, 상기 탐지된 실질 형태소가 명사 형태가 아닌 경우, 상기 탐지된 실질 형태소를 명사 형태로 변환할 수 있다. 예를 들어, 형 변환부는 용언(동사, 형용사) 형태의 실질 형태소 뒤에 '-ㅁ' 또는 '-음'을 결합하여 상기 명사 형태로의 변환을 수행할 수 있다. 본원의 일 실시예에 따르면, 상기 형 변환부는 상기 탐지된 실질 형태소의 타입을 고려하여 탐지된 실질 형태소를 변환할 수 있다. 예를 들어, 탐지된 실질 형태소가 '텍스트 타입'인 경우, 전술한 바와 같이 탐지된 실질 형태소가 명사 형태가 아닌 경우, 상기 탐지된 실질 형태소를 명사 형태로 변환할 수 있으며, 다른 예로, 탐지된 실질 형태소가 '날짜 타입'인 경우, 탐지된 실질 형태소를 날짜 형식(예를 들면, 년-월-일 꼴)으로 변환할 수 있다. 구체적으로, 탐지된 실질 형태소가 '오늘'인 경우, 이를 '날짜 타입'의 실질 형태소로 파악하여, 해당일의 날짜를 기입할 수 있다. 또다른 예로, 탐지된 실질 형태소가 '숫자 타입'인 경우, 추가적인 변환없이 숫자 정보자체를 기입할 수도 있다.
또한, 본원의 일 실시예에 따르면, 해당 전자문서 기입 항목의 형식이 콤보박스, 체크박스, 라디오 버튼 등 탐지된 실질 형태소 자체를 기입하기에 적절치 못한 경우, 전술한 레벤슈타인 편집 거리 알고리즘에 기초하여, 탐지된 실질 형태소에 포함된 내용과 가장 근접한 콤보박스, 체크박스, 라디오 버튼을 선택할 수 있다.
본원의 일 실시예에 따르면, 상기 형 변환부에 의한 변환까지 완료된 상기 원시적 내용 데이터는 최종적으로 전자문서 내에 기입되는 상기 내용 데이터로 확정될 수 있다.
또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는, 상기 질문 음성이 제1타입 질문인 경우, 상기 내용 데이터가 상기 질문 음성에 포함된 의도 데이터 전부(달리 말해, Key 값 전부)에 대응되는지 여부 및 상기 내용 데이터가 상기 의도 데이터에 따라 적합하게 결정되었는지 여부를 판단할 수 있다.
이 때, 상기 내용 데이터가 상기 질문에 포함된 상기 의도 데이터 중 일부에 대응되지 않는 경우, 전자문서 작성 장치(100)는, 누락된 의도 데이터에 기초하여 상기 전자문서 기입 항목에 연계된 질문 음성을 재생성할 수 있다.
또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는 상기 내용 데이터가 상기 의도 데이터에 따라 적합하게 결정되지 않은 경우, 해당 의도 데이터와 연계된 질문 음성을 재차 생성할 수 있다.
또한, 전자문서 작성 장치(100)는, 상기 질문의 유형이 제1타입 질문인지 제2타입 질문인지와 무관하게, 전자문서의 완성을 위해 기입되어야 하는 전체 의도 데이터를 고려하여, 아직 대응되는 내용 데이터의 기입이 경료되지 않은 의도 데이터가 남아 있는 경우, 남아있는 의도 데이터를 고려한 전자문서 기입 항목에 연계된 질문 음성을 재생성할 수도 있다.
또한, 상기 내용 데이터 각각은 예를 들어, 전자문서의 서식에 따라 내용 데이터 그 자체가 기입될 수도 있다. 다른 예로, 내용 데이터의 내용에 부합하도록 O/X 형태로 기입되거나 V자 모양을 체크하는 방식으로 기입되거나 기입 항목 별로 미리 설정된 답변 유형 중 부합하는 답변을 고르는 형태로 기입될 수도 있으나, 이에 한정되는 것은 아니다.
도 3은 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치에 의해 작성되는 전자문서를 나타낸 도면이다.
도 3을 참조하면, 전자문서 작성 장치(100)는 사용자가 작성하려는 '휴가 신청서' 전자문서 템플릿을 기초로 음성 입력에 기초한 내용 데이터를 기입함으로써 전자문서(40)를 작성할 수 있다. 또한, 도 3을 참조하면, 전자문서 작성 장치(100)가 생성한 전자문서(40)는 사용자 단말(20)에 시각적으로 표시되지 않을 수 있다. 즉, 도 3에 도시된 전자문서(40)는 전자문서 작성 장치(100) 상에 저장된 것을 나타낸 것일 수 있다.
다른 예로, 전자문서 작성 장치(100)가 생성한 전자문서(40)는 제 2사용자 단말(30)에 제 2사용자 단말(30)의 사용자의 요청에 따라 시각적으로 표시되도록 구현될 수 있다.
또한, 도 3을 참조하면, 전자문서 작성 장치(100)는 작성 개시 음성 입력(A1)을 분석하여 사용자가 작성하려는 전자문서 템플릿(예를 들면, '휴가 신청서')을 불러오고, 응답 음성 입력(A2)에 기초하여 전자문서 템플릿 내의 기입 항목 '휴가 일시'에 내용 데이터 '2019-03-15 09:00부터 2019-03-15 18:00 까지'를 기입할 수 있다. 또한, 전자문서 템플릿 내의 기입 항목 '휴가 사유'에 내용 데이터 '휴식'을 기입할 수 있다.
도 4는 본원의 일 실시예에 따른 음성을 통하여 기 입력된 내용 데이터를 수정하는 과정을 나타낸 도면이다.
도 4를 참조하면, 전자문서 작성 장치(100)는 사용자 단말(20)로부터 기 입력된 전자문서의 내용 데이터의 수정과 연계된 음성 입력(A3)을 수신할 수 있다.
또한, 전자문서 작성 장치(100)는 수정과 연계된 음성 입력(A3)을 키(Key) 값 및 밸류(Value) 값을 단위로 분석할 수 있다.
또한, 전자문서 작성 장치(100)는 상기 분석 결과에 기초하여 키(Key) 값과 연계된 전자문서 기입 항목에 기 입력된 내용 데이터를 밸류(Value) 값과 연계된 내용 데이터로 치환할 수 있다.
도 4를 참조하여 설명하면, 수정과 연계된 음성 입력(A3)이 "휴가 시작일과 휴가 종료일은 3월 16로 바꿔줘" 인 경우, 전자문서 작성 장치(100)는 키(Key) 값인 '휴가 시작일, 휴가 종료일' 및 밸류(Value) 값인 '3월 16일'을 추출할 수 있다.
이어서, 전자문서 작성 장치(100)는 키(Key) 값과 연계된 전자문서 기입 항목인 '일시'에 기 입력된 내용 데이터인 '3월 15일'을 밸류(Value) 값과 연계된 내용 데이터인 '3월 16일'로 치환할 수 있다.
이에 따라, 도 4를 참조하면 수정이 완료된 전자문서(40)에 기입된 '휴가 시작일, 휴가 종료일' 항목은 2019-03-16 09:00부터 2019-03-16 18:00까지로 변경될 수 있다.
전자문서 작성 장치(100)는 전자문서 템플릿에 포함된 전체 기입 항목에 대한 내용 데이터의 기입이 완료되어 전자문서의 작성이 종료된 경우, 완성된 전자문서를 저장할 수 있다.
또한, 전자문서 작성 장치(100)는 전자문서를 저장한 다음 전자문서의 작성 완료 안내 음성을 사용자 단말(20)을 통해 출력할 수 있다.
또한, 전자문서 작성 장치(100)는 사용자 단말(20)로부터 완성된 전자문서 확인 요청과 연계된 음성 입력이 입력될 경우, 사용자 단말(20)을 통해 완성된 전자문서에 대한 정보를 포함하는 음성을 출력할 수 있다.
또한, 전자문서 작성 장치(100)는 제 2 사용자 단말(30)로부터 작성이 완료된 전자문서의 작성자의 자필 서명을 획득할 수 있다.
도 5a는 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치가 제 2 사용자 단말로부터 전자문서 작성자의 자필 서명을 획득하는 것을 나타낸 도면이다.
도 5a를 참조하면 전자문서 작성 장치(100)는 제 2 사용자 단말(30)에 작성이 완료된 전자문서의 작성자의 자필 서명을 입력하는 자필 서명 입력 창(32)을 표시할 수 있다.
도 5a를 참조하면, 전자문서 작성 장치(100)는 제 2 사용자 단말(30)에 설치된 메신저 어플리케이션과 연계되어 상기 메신저 어플리케이션 내에 형성된 채팅 영역(31)에 자필 서명 입력 창(32)으로 연결되는 링크를 전송할 수 있다.
도 5a를 참조하면 제 2 사용자 단말(30)의 사용자가 전술한 링크를 터치(클릭)하면 제 2 사용자 단말(30)의 디스플레이 화면에 자필 서명 입력 창(32)이 표시될 수 있다.
다음으로, 전자문서 작성 장치(100)는 제 2 사용자 단말(30)을 통하여 전자문서의 작성자로부터 자필 서명 입력 창(32)에 필기 입력 수단을 통하여 자필 서명(A4)을 입력받을 수 있다.
또한, 자필 서명(A4)의 입력이 완료되면 전자문서 작성 장치(100)는 자필 서명 정보를 포함하여 전자문서를 저장할 수 있다.
본원의 일 실시예에 따르면 상기 자필 서명 정보는 제 2 사용자 단말(30)을 통해 감지된 상기 작성자의 필속 정보 또는 필압 정보 중 적어도 하나를 포함하는 감지 결과와 자필 서명(A4)을 포함하는 것일 수 있다.
또한, 본원의 일 실시예에 따른 전자문서 작성 장치(100)는, 해당 전자문서의 작성자의 계정과 연계되어 해당 전자문서의 작성 이전에 기입력된 자필 서명이 존재하는 경우, 상기 기입력된 자필 서명을 불러와 해당 전자문서의 서명란에 기입할 수 있다.
또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는, 해당 전자문서의 작성자의 기입력된 자필 서명이 존재하지 않는 경우, 해당 전자문서의 작성자의 사용자 단말에 신규 자필 서명을 기입하여 줄 것을 요청할 수 있다. 예시적으로, 전자문서 작성 장치(100)는 제 1 사용자 단말(20)에 기입력된 자필 서명이 미존재하다는 안내 음성을 출력할 수 있고, 제 1 사용자 단말(20)과 연계되고 필기 입력 수단이 구비된 제 2 사용자 단말(30)을 통한 자필 서명 입력을 수행할 것을 요청하는 음성을 출력할 수 있다.
도 5b는 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치가 기입력된 자필 서명이 미존재하는 경우, 제 1 사용자 단말을 통해 자필 서명 입력을 요청하고 제 1 사용자 단말과 연계된 제 2사용자 단말로부터 자필 서명을 입력 받는 것을 나타낸 도면이다.
도 5b를 참조하면, 전자문서 작성 장치(100)는, 제 1 사용자 단말(20)을 통해 기입력된 자필 서명이 미존재하다는 안내 음성 및 자필 서명 입력을 요구하는 음성(도 5b 기준 "등록된 서명이 없습니다. 연결된 모바일에서 서명을 진행하시겠습니까?")을 출력할 수 있다. 이어서, 전자문서의 작성자가 자필 서명을 입력하겠다는 의사를 포함하는 음성 입력을 발화하면(도 5b 기준 "응"), 전자문서 작성 장치(100)는 제 1 사용자 단말과 연계되고, 필기 입력 수단이 구비된 제 2 사용자 단말(30)에 자필 서명 입력 창으로 연결되는 링크를 전송할 수 있다. 이 후, 제 2 사용자 단말(30)을 통한 작성자의 자필 서명 입력이 완료되면, 전자문서 작성 장치(100)는 자필 서명 정보를 포함하여 작성된 전자문서를 저장하고, 제 1 사용자 단말(20) 또는 제 2 사용자 단말(30) 중 적어도 하나에 완성된 전자문서의 저장이 완료되었음을 안내(도 5b 기준 제 1 사용자 단말(20)을 통한 "전자문서 저장이 완료되었습니다"라는 음성 출력 또는 제 2 사용자 단말(30)을 통한 "전자문서 저장이 완료되었습니다"라는 텍스트 출력 및 작성 문서 확인을 위한 URL 링크 전송)할 수 있다.
도 6은 본원의 일 실시예에 따른 전자문서 작성 장치가 제 2 사용자 단말에 완성된 전자문서에 대한 정보를 표시하는 것을 나타낸 도면이다.
도 6을 참조하면, 전자문서 작성 장치(100)는 제 2 사용자 단말(30)에 완성된 전자문서에 대한 정보를 표시할 수 있다.
또한, 도 6을 참조하면, 전자문서 작성 장치(100)는 제 2 사용자 단말(30)에 설치된 메신저 어플리케이션과 연계되어 상기 메신저 어플리케이션 내에 형성된 채팅 영역(31)에 완성된 전자문서와 연계된 작성 완료 안내 텍스트(B3)를 출력할 수 있다.
또한, 도 6을 참조하면, 상술한 제 2 사용자 단말(30)에 완성된 전자문서에 대한 정보를 표시하는 것은 완성된 전자문서와 연계된 URL(B4)을 제 2 사용자 단말(30)에 표시하는 것으로 이해될 수 있다. 본원의 일 실시예에 따르면, 완성된 전자문서와 연계된 URL(B4)은 채팅 영역(31)에 버튼 형상으로 구비될 수 있으며, 제 2 사용자 단말(30)의 사용자가 상기 버튼 형상을 터치 또는 클릭 하는 경우, 완성된 전자문서를 확인할 수 있는 웹 또는 모바일 페이지, 어플리케이션 인터페이스 등이 제 2 사용자 단말(30)에 표시될 수 있다.
또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는 전자문서와 연계된 처리 결과를 제 2 사용자 단말(30)의 속성에 기초한 UI(User Interface) 및 UX(User Experience)로 형상화하여 제 2 사용자 단말(30)에 반환할 수 있다.
본원의 일 실시예에 따르면, 전술한 제 2 사용자 단말(30)의 속성은 제 2사용자 단말(30)에서 지원하는 입출력 데이터 유형 및 제 2 사용자 단말(30)의 디스플레이 화면의 크기를 포함할 수 있다.
예를 들어, 전자문서 작성 장치(100)는, 제 2사용자 단말(30)의 디스플레이 화면의 크기가 소정 이상 작은 경우, 전자문서와 연계된 처리 결과를 전자문서 기입 항목의 입력 순서, 그룹핑 등을 고려하여 간단하게 표기할 수 있다. 다른 예로, 전자문서 작성 장치(100)는, 제 2 사용자 단말(30)의 디스플레이 화면의 크기가 소정 크기 이상인 경우, 전자문서와 연계된 처리 결과를 전자문서 서식 전체를 인터페이스로 구현하는 방식으로 나타낼 수도 있다.
또한, 본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는, 제 2 사용자 단말(30)의 사용자의 업무 내 역할을 고려하여 UI 및 UX를 다르게 하여 전자문서와 연계된 처리 결과를 다르게 형상화할 수 있다.
예를 들어, 지능형 전자문서 작성 장치(100)는, 최초 전자문서 작성자에게 제공되는 UI 및 UX와 해당 전자문서를 결재, 반려 등의 처리를 수행할 수 있는 지위에 있는 결재자에게 제공되는 UI 및 UX를 차별화하여 전자문서와 연계된 처리 결과를 다르게 전달할 수 있다.
본원의 일 실시예에 따르면, 전자문서 작성 장치(100)는 제 2 사용자 단말(30)에 설치된 메신저 어플리케이션과 연계되어 상기 메신저 어플리케이션 내에 형성된 채팅 영역(31)에 완성된 전자문서와 연계된 URL(B4)을 전송할 수 있다.
또한, 전자문서 작성 장치(100)는 사용자 단말(20)로부터 상용구의 등록과 연계된 음성 입력을 수신할 수 있다.
또한, 전자문서 작성 장치(100)는 상기 상용구의 등록과 연계된 음성 입력에 기초하여 상용구 및 상기 상용구에 대응되는 문자열을 한 쌍으로 하여 저장할 수 있다.
도 7은 본원의 일 실시예에 따른 상용구 및 상기 상용구에 대응되는 문자열을 기초로 하여 내용 데이터를 전자문서 템플릿 내의 기입 항목에 기입하는 것을 나타낸 도면이다.
도 7을 참조하면, 전자문서 작성 장치(100)는 응답 음성 입력(A2)에 기 저장된 상용구(71)가 존재하는 경우, 상용구(71)에 대응되는 문자열(72)을 기초로 하여 상기 내용 데이터를 전자문서(40) 내의 기입 항목에 기입할 수 있다.
도 7을 참조하여 설명하면, 전자문서 작성 장치(100)는 응답 음성 입력(A2)에 기 저장된 상용구(71)인 '내 회사주소'가 포함되는 것을 파악하면, 전자문서(40) 내의 기입 항목 '주소'에 상용구 '내 회사주소'에 대응되는 문자열(72)인 '서울특별시 강남구 논현로 646 포시에스빌딩'을 기입할 수 있다.
구체적으로, 전자문서 작성 장치(100)는 응답 음성 입력(A2)에 기 저장된 상용구(71)가 포함되는지 여부를 판단하기 위하여, '내-' 또는 '나의-' 등 제 1사용자 단말(20)의 사용자가 스스로를 지칭하는 문구를 파악할 수 있고, 상기 스스로를 지칭하는 문구와 '회사주소' 등의 키(Key)를 동시에 발화한 것으로 파악되면, 전자문서(40) 내의 기입 항목 '주소'에 상용구 '내 회사주소'에 대응되는 문자열(72)인 '서울특별시 강남구 논현로 646 포시에스빌딩'을 기입할 수 있다.
즉, 단순히 응답 음성 입력(A2)에 '회사주소'라는 문구가 포함된 경우, 이를 모두 상용구에 대응되는 문자열로 치환하여 전자문서에 기입할 경우, 필요에 따라 '회사주소'라는 문구 자체를 입력해야 하는 경우에도 상용구에 대응되는 문자열로 치환되어 기입되는 오버피팅(Overfitting) 문제가 발생할 여지가 있으므로, 이를 보완하기 위해 전자문서 작성 장치(100)는, 사용자가 스스로를 지칭하기 위해 발화한 문구(달리 말해, 나를 인지하는 값인 '내', '나의' 등) 및 상용구('회사주소') 값이 동시에 응답 음성 입력(A2)에 포함된 경우에 이를 문자열(72)로 치환하도록 구현될 수 있다.
도 8 은 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치의 개략적인 구성도이다.
도 8을 참조하면, 전자문서 작성 장치(100)는 음성 입력 수신부(110), 템플릿 결정부(120), 질문 생성부(130) 및 전자문서 작성부(140)를 포함할 수 있다.
음성 입력 수신부(110)는 사용자 단말(20)로부터 사용자 단말(20)의 사용자가 작성하려는 전자문서 템플릿의 유형과 연계된 작성 개시 음성 입력(A1) 및 질문 음성에 대한 응답을 포함하는 응답 음성 입력(A2)을 수신할 수 있다.
템플릿 결정부(120)는 작성 개시 음성 입력(A1)에 기초하여 사용자가 작성하려는 전자문서 템플릿을 결정하고, 상기 전자문서 템플릿을 불러올 수 있다.
질문 생성부(130)는 상기 전자문서 템플릿 내의 기입 항목에 기초하여 상기 기입 항목에 입력될 내용 데이터를 포함하는 사용자의 응답을 유도하기 위한 질문 음성(B1)을 사용자 단말(20)로 전송할 수 있다.
전자문서 작성부(140)는 응답 음성 입력(A2)에 기초하여 기입 항목에 대응되는 내용 데이터를 기입하여 전자문서를 작성할 수 있다.
도면에는 도시하지 않았으나, 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 시스템(1)은 음성을 통한 전자문서 작성 장치(100)뿐만 아니라, 사용자 단말(20)로부터 사용자 입력을 수신하여 사용자 입력에 대한 자연어 처리를 통해 사용자의 의도를 파악하고 사용자의 의도에 부합하는 제어 동작을 결정하여 기 작성된 전자문서에 대한 결재, 접수 또는 삭제 처리를 수행하거나 사용자 입력에 포함된 검색 조건에 부합하는 전자문서 목록을 제공하거나 복수의 전자문서 간의 이동을 제어하는 자연어 처리 기반 전자문서 제어 장치를 포함할 수 있다.
또한, 본원의 일 실시예에 따르면, 상기 자연어 처리 기반 전자문서 제어 장치는, 사용자 입력에 대한 자연어 처리를 통해 사용자의 의도를 파악하는 자연어 처리부, 상기 사용자의 의도에 따라, 기 작성된 전자문서에 대한 결재, 접수 또는 삭제 처리를 수행하는 전자문서 처리부, 상기 사용자의 의도에 따라, 사용자 입력에 포함된 검색 조건에 부합하는 전자문서 목록을 제공하는 전자문서 검색부 및 상기 사용자의 의도에 따라, 복수의 전자문서 간의 이동을 제어하는 네비게이션 모듈을 포함할 수 있다.
또한, 본원의 일 실시예에 따르면, 상기 자연어 처리부는, 유사한 의도를 내포하는 복수의 문장에 대한 형태소 분석을 통해 상기 복수의 문장에 포함된 컨셉을 획득하여 패턴 문자열을 작성하고 상기 패턴 문자열에 기초하여 패턴을 생성하는 패턴 생성부 및 사용자 입력을 수신하여 상기 사용자 입력에 대응되는 상기 패턴을 매칭하여 매칭 데이터를 반환하는 사용자 입력 분석부를 포함할 수 있다.
또한, 본원의 일 실시예에 따르면, 상기 패턴 생성부는, 상기 복수의 문장 각각에 대한 형태소 분석을 수행하는 형태소 분석부, 형태소 분석 결과에 기초하여 컨셉을 획득하는 컨셉 획득부, 상기 사용자 입력에서 특정 문구를 추출하기 위한 캡쳐 또는 상기 컨셉 중 적어도 하나를 포함하는 패턴 문자열을 작성하는 패턴 문자열 작성부 및 상기 패턴 문자열에 기초하여 패턴을 정의하는 패턴 정의부를 포함할 수 있다.
또한, 본원의 일 실시예에 따르면, 상기 사용자 입력 분석부는, 상기 사용자 입력을 띄어쓰기 단위로 잘라 복수의 분절로 상기 사용자 입력을 나누는 분절화부, 적어도 하나의 분절과 상기 패턴과의 매칭 여부를 판단하여 매칭이 성공될 경우 매칭 데이터를 반환하는 매칭 수행부를 포함할 수 있다.
종합하면, 상기 자연어 처리부는, 형태소 분석을 도입하여 유사한 의도를 내포하는 복수의 문장들을 분석하여 어근을 추출하고 이를 패턴에 반영함으로써 파생어를 포함하는 모든 자연어에 대해 매칭을 수행할 수 있다. 또한, 상기 차연어 처리부는, 사용자 입력을 생성한 사용자의 의도를 패턴에 기초하여 파악할 수 있다.
또한, 본원의 일 실시예에 따르면, 상기 자연어 처리 기반 전자문서 제어 장치는 상기 사용자의 의도에 따라, 전자문서 템플릿에 기초하여 전자문서에 대한 작성 또는 수정을 수행하는 전자문서 작성부를 포함할 수 있다. 실시예에 따라, 상기 전자문서 작성부는 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 장치(100)의 전자문서 작성부(140)와 동일하거나 일체로 구현되는 구성을 의미하는 것으로 이해될 수 있다.
또한, 도면에는 도시하지 않았으나, 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 시스템(1)은 전자문서와 연계된 전자문서 저장 장치를 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 전자문서 저장 장치는, 전자문서의 유형에 따른 복수의 서식을 저장하는 템플릿 데이터베이스를 포함할 수 있다.
또한, 본원의 일 실시예에 따르면, 상기 템플릿 데이터베이스에 저장된 복수의 전자문서 유형별 전자문서 템플릿은 사용자의 요청에 따라 추가, 수정 또는 삭제되어 상기 템플릿 데이터베이스가 갱신될 수 있다.
본원의 일 실시예에 따르면, 상기 전자문서 저장 장치는, 전자문서 작성 장치(100)에 의해 작성이 완료된 전자문서를 목록화 하여 저장하는 전자문서 데이터베이스를 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 전자문서 저장 장치는, 전자문서 템플릿 유형에 따라 동적으로 생성되고, 전자문서 제어와 연계된 질의 및 상기 질의에 대한 사용자의 예상 발화 의도를 정의한 스테이지(Stage)를 저장하는 스테이지 데이터베이스를 포함할 수 있다.
또한, 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 시스템(1)은 사용자 단말(20) 또는 제 2 사용자 단말(30)의 계정과 음성을 통한 전자문서 제공 시스템(1) 또는 음성을 통한 전자문서 작성 장치(100)의 계정을 연동하여 접근 권한을 부여하는 계정 연동 장치를 포함할 수 있다.
또한, 본원의 일 실시예에 따르면, 상기 계정 연동 장치는, 상기 어플리케이션부의 계정과 음성을 통한 전자문서 제공 시스템(1) 또는 음성을 통한 전자문서 작성 장치(100)의 계정을 연동하여 접근 권한을 부여하는 것일 수 있다.
또한, 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 시스템(1)은 사용자 입력을 전자문서 작성 장치(100) 또는 상기 자연어 처리 기반 전자문서 제어 장치에서 처리 가능한 형식으로 표준화하고, 전자문서 작성 장치(100) 또는 상기 자연어 처리 기반 전자문서 제어 장치의 처리 결과를 사용자 단말(20) 또는 제 2 사용자 단말(30)에서 처리 가능한 형식으로 변환하여 반환하는 디바이스 연계 프레임워크 장치를 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 디바이스 연계 프레임워크 장치는 직접 호출형 프레임워크, 동기형 프레임워크, 비동기형 프레임워크 등으로 구현될 수 있다.
상기 직접 호출형 프레임워크는, 상기 사용자 입력이 전자문서 작성 장치(100) 또는 상기 자연어 처리 기반 전자문서 제어 장치에서 직접 처리 가능한 표준화된 입력이고, 전자문서 작성 장치(100) 또는 상기 자연어 처리 기반 전자문서 제어 장치가 사용자 단말(20) 또는 제 2 사용자 단말(30)에서 처리 가능한 표준화된 출력을 반환하는 경우, 연결 인터페이스를 제공할 수 있다.
상기 동기형 프레임워크는, 상기 사용자 입력이 외부 플랫폼의 형식으로 생성된 경우, 전자문서 작성 장치(100) 또는 상기 자연어 처리 기반 전자문서 제어 장치의 처리 결과를 상기 외부 플랫폼에서 생성된 요청에 대한 응답 형식으로 변환하여 반환할 수 있다.
상기 비동기형 프레임워크는, 상기 사용자 입력의 수신 성공 여부를 해당 사용자 입력에 대한 응답으로 먼저 반환하고, 상기 전자문서 작성 장치(100) 또는 상기 자연어 처리 기반 전자문서 제어 장치의 처리 결과는 외부 플랫폼 별 API(Application Programming Interface)를 호출하는 방식으로 변환하여 반환할 수 있다.
또한, 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 시스템(1)은 음성 입력 이외의 유형으로 생성된 사용자 입력을 처리하기 위한 인지 서비스 연계 프레임워크 장치를 포함할 수 있다.
상기 인지 서비스 연계 프레임워크 장치는, 음성 입력 이외의 유형으로 생성된 사용자 입력의 유형에 대응되는 인지 API(Application Programming Interface)를 이용하여 상기 사용자 입력의 내용을 추출하고, 상기 추출된 사용자 입력의 내용을 전자문서 작성 장치(100) 또는 상기 자연어 처리 기반 전자문서 제어 장치에서 처리 가능한 형식으로 변환하여 전달할 수 있다.
도 9는 본원의 일 실시예에 따른 음성을 통한 전자문서 제공 방법의 동작흐름도이다.
도 9에 도시된 음성을 통한 전자문서 제공 방법은 앞서 설명된 음성을 통한 전자문서 작성 장치(100) 또는 이를 포함하는 음성을 통한 전자문서 제공 시스템에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 음성을 통한 전자문서 작성 장치(100) 또는 이를 포함하는 음성을 통한 전자문서 제공 시스템에 대하여 설명된 내용은 도 9에도 동일하게 적용될 수 있다.
도 9를 참조하면, 단계 S910에서 전자문서 작성 장치(100)는 사용자 단말(20)로부터 전자문서와 연계된 음성 입력을 수신할 수 있다.
또한, 본원의 일 실시예에 따르면 단계 S910에서 음성 입력 수신부(110)는 사용자 단말(20)로부터 사용자 단말(20)의 사용자가 작성하려는 전자문서 템플릿의 유형과 연계된 작성 개시 음성 입력(A1) 및 사용자 단말(20)로부터 질문 음성(B1)에 대한 응답을 포함하는 응답 음성 입력(A2)을 수신할 수 있다.
다음으로, 단계 S920에서 전자문서 작성 장치(100)는 단계 S910에서 수신한 음성 입력에 기초하여 전자문서를 생성할 수 있다.
다음으로, 단계 S930에서 전자문서 작성 장치(100)는 단계 S920에서 생성된 전자문서를 사용자 단말(20)로 제공할 수 있다.
상술한 설명에서, 단계 S910 내지 S930은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 10은 본원의 일 실시예에 따른 음성을 통한 전자문서 작성 방법의 동작흐름도이다.
도 10에 도시된 음성을 통한 전자문서 작성 방법은 앞서 설명된 음성을 통한 전자문서 작성 장치(100) 또는 이를 포함하는 음성을 통한 전자문서 제공 시스템에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 음성을 통한 전자문서 작성 장치(100) 또는 이를 포함하는 음성을 통한 전자문서 제공 시스템에 대하여 설명된 내용은 도 10에도 동일하게 적용될 수 있다.
도 10을 참조하면, 단계 S1010에서 음성 입력 수신부(110)는, 사용자 단말(20)로부터 사용자 단말(20)의 사용자가 작성하려는 전자문서 템플릿의 유형과 연계된 작성 개시 음성 입력(A1)을 수신할 수 있다.
다음으로, 단계 S1020에서 템플릿 결정부(120)는, 작성 개시 음성 입력(A1)에 기초하여 사용자가 작성하려는 전자문서 템플릿을 결정하고, 상기 전자문서 템플릿을 불러올 수 있다.
다음으로, 단계 S1030에서 질문 생성부(130)는, 전자문서 템플릿 내의 기입 항목에 기초하여 기입 항목에 입력될 내용 데이터를 포함하는 사용자의 응답을 유도하기 위한 질문 음성(B1)을 사용자 단말(20)로 전송할 수 있다.
다음으로, 단계 S1041에서 음성 입력 수신부(110)는, 사용자 단말(20)로부터 질문 음성(B1)에 대한 응답을 포함하는 응답 음성 입력(A2)을 수신할 수 있다.
또한, 단계 S1042에서 음성 입력 수신부(110)는, 사용자 단말(20)로부터 기 입력된 전자문서의 내용 데이터의 수정과 연계된 음성 입력(A3)을 수신할 수 있다.
다음으로, 단계 S1051에서 전자문서 작성부(140)는, 단계 S1041에서 응답 음성 입력(A2)이 수신된 경우, 응답 음성 입력(A2)을 키(Key) 값 및 밸류(Value) 값을 단위로 분석할 수 있다.
또한, 단계 S1052에서 전자문서 작성부(140)는, 단계 S1042에서 수정과 연계된 음성 입력(A3)이 수신된 경우, 수정과 연계된 음성 입력(A3)을 키(Key) 값 및 밸류(Value) 값을 단위로 분석할 수 있다.
다음으로, 단계 S1061에서 전자문서 작성부(140)는, 단계 S1051의 분석 결과에 기초하여 기입 항목에 대응되는 내용 데이터를 전자문서에 기입할 수 있다.
또한, 단계 S1062에서 전자문서 작성부(140)는, 단계 S1052의 분석 결과에 기초하여 키(Key) 값과 연계된 전자문서 기입 항목에 기 입력된 내용 데이터를 상기 밸류(Value) 값과 연계된 내용 데이터로 치환할 수 있다.
다음으로, 단계 S1070에서 전자문서 작성부(140)는 단계 S1041, S1051및 S1061에 따른 내용 데이터 기입과 단계 S1042, S1052 및 S1062에 따른 내용 데이터 수정을 수행한 결과, 전자문서 템플릿에 포함된 전체 기입 항목에 대한 내용 데이터의 기입을 완료할 수 있다.
다음으로, 단계 S1080에서 전자문서 작성부(140)는, 작성이 종료된 전자문서를 저장할 수 있다.
다음으로, 단계 S1090에서 전자문서 작성 장치(100)는, 완성된 전자문서에 대한 정보를 사용자 단말(20) 또는 제 2 사용자 단말(30)로 제공할 수 있다.
상술한 설명에서, 단계 S1010 내지 S1090은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 11은 본원의 일 실시예에 따른 전자문서 작성자의 자필 서명 정보를 포함하여 전자문서를 저장하는 방법의 동작흐름도이다.
도 11에 도시된 전자문서 작성자의 자필 서명 정보를 포함하여 전자문서를 저장하는 방법은 앞서 설명된 음성을 통한 전자문서 작성 장치(100) 또는 이를 포함하는 음성을 통한 전자문서 제공 시스템에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 음성을 통한 전자문서 작성 장치(100) 또는 이를 포함하는 음성을 통한 전자문서 제공 시스템에 대하여 설명된 내용은 도 11에도 동일하게 적용될 수 있다.
도 11을 참조하면, 단계 S1110에서 전자문서 작성부(140)는, 제 2 사용자 단말(30)에 작성이 완료된 전자문서의 작성자의 자필 서명을 입력하는 자필 서명 입력 창을 표시할 수 있다.
또한, 단계 S1110에서 전자문서 작성부(140)는, 자필 서명 입력 창을 표시하기 전 또는 자필 서명 입력 창을 표시하는 것과 함께 채팅 영역(31)에 작성이 완료된 전자문서의 작성자의 자필 서명을 요청하는 텍스트를 표시할 수 있다.
다음으로, 단계 S1120에서 전자문서 작성부(140)는, 전자문서의 작성자로부터 자필 서명 입력 창에 필기 입력 수단을 통하여 자필 서명(A4)을 입력받을 수 있다.
또한, 단계 S1120에서 전자문서 작성부(140)는, 전자문서의 작성자의 필속 정보 또는 필압 정보 중 적어도 하나를 감지하여 감지 결과와 자필 서명(A4)을 함께 입력 받을 수 있다.
다음으로, 단계 S1130에서 전자문서 작성부(140)는, 자필 서명 정보를 포함하여 전자문서를 저장할 수 있다.
상술한 설명에서, 단계 S1110 내지 S1130은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
본원의 일 실시 예에 따른 음성을 통한 전자문서 제공 방법 또는 음성을 통한 전자문서 작성 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 전술한 음성을 통한 전자문서 제공 방법 또는 음성을 통한 전자문서 작성 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.

Claims (12)

  1. 음성을 통한 전자문서 제공 방법에 있어서,
    사용자 단말로부터 전자문서와 연계된 음성 입력을 수신하는 단계;
    상기 음성 입력에 기초하여 전자문서를 생성하는 단계; 및
    상기 사용자 단말로 생성된 전자문서를 제공하는 단계,
    를 포함하는, 음성을 통한 전자문서 제공 방법.
  2. 음성을 통한 전자문서 작성 방법에 있어서,
    사용자 단말로부터 상기 사용자 단말의 사용자가 작성하려는 전자문서 템플릿의 유형과 연계된 작성 개시 음성 입력을 수신하는 단계;
    상기 작성 개시 음성 입력에 기초하여 사용자가 작성하려는 전자문서 템플릿을 결정하고, 상기 전자문서 템플릿을 불러오는 단계;
    상기 전자문서 템플릿 내의 기입 항목에 기초하여 상기 기입 항목에 입력될 내용 데이터를 포함하는 사용자의 응답을 유도하기 위한 질문 음성을 상기 사용자 단말로 전송하는 단계;
    상기 사용자 단말로부터 상기 질문 음성에 대한 응답을 포함하는 응답 음성 입력을 수신하는 단계; 및
    상기 응답 음성 입력에 기초하여 상기 기입 항목에 대응되는 상기 내용 데이터를 기입하여 전자문서를 작성하는 단계,
    를 포함하는, 음성을 통한 전자문서 작성 방법.
  3. 제2항에 있어서,
    상기 전자문서를 작성하는 단계는, 상기 응답 음성 입력을 키(Key) 값 및 밸류(Value) 값을 단위로 분석하여 상기 기입 항목에 대응되는 상기 내용 데이터를 전자문서에 기입하는 것인, 음성을 통한 전자문서 작성 방법.
  4. 제2항에 있어서,
    전자문서는 적어도 하나의 질문 음성 및 그에 대응하는 응답 음성 입력을 포함하는 대화를 기초로 하여 생성되고, 상기 사용자 단말에 미표시되는 것인, 음성을 통한 전자문서 작성 방법.
  5. 제2항에 있어서,
    상기 전자문서 템플릿에 포함된 전체 기입 항목에 대한 내용 데이터의 기입이 완료되어 전자문서의 작성이 종료된 경우, 상기 전자문서를 저장하는 단계,
    를 더 포함하는, 음성을 통한 전자문서 작성 방법.
  6. 제5항에 있어서,
    상기 전자문서를 저장하는 단계 이후,
    상기 전자문서의 작성 완료 안내 음성을 출력하는 단계; 및
    사용자 단말로부터 완성된 전자문서 확인 요청과 연계된 음성 입력이 입력될 경우, 상기 사용자 단말을 통해 완성된 전자문서에 대한 정보를 포함하는 음성을 출력하는 단계,
    를 더 포함하는 것인, 음성을 통한 전자문서 작성 방법.
  7. 제2항에 있어서,
    사용자 단말로부터 기 입력된 전자문서의 내용 데이터의 수정과 연계된 음성 입력을 수신하는 단계;
    상기 수정과 연계된 음성 입력을 키(Key) 값 및 밸류(Value) 값을 단위로 분석하는 단계; 및
    상기 분석 결과에 기초하여 상기 키(Key) 값과 연계된 전자문서 기입 항목에 기 입력된 내용 데이터를 상기 밸류(Value) 값과 연계된 내용 데이터로 치환하는 단계,
    를 더 포함하는 것인, 음성을 통한 전자문서 작성 방법.
  8. 제5항에 있어서,
    상기 전자문서를 저장하는 단계는,
    제2사용자 단말에 작성이 완료된 전자문서의 작성자의 자필 서명을 입력하는 자필 서명 입력 창을 표시하는 단계;
    상기 작성자로부터 상기 자필 서명 입력 창에 필기 입력 수단을 통하여 상기 자필 서명을 입력받는 단계; 및
    상기 자필 서명 정보를 포함하여 전자문서를 저장하는 단계,
    를 포함하는 것인, 음성을 통한 전자문서 작성 방법.
  9. 제2항에 있어서,
    제2사용자 단말에 완성된 전자문서에 대한 정보를 표시하는 단계를 더 포함하는, 음성을 통한 전자문서 작성 방법.
  10. 제9항에 있어서,
    상기 완성된 전자문서에 대한 정보를 표시하는 단계는,
    상기 완성된 전자문서와 연계된 URL을 상기 제2사용자 단말에 표시하는 것인, 음성을 통한 전자문서 작성 방법.
  11. 제2항에 있어서,
    상기 사용자 단말로부터 상용구의 등록과 연계된 음성 입력을 수신하는 단계;
    상기 상용구의 등록과 연계된 음성 입력에 기초하여 상용구 및 상기 상용구에 대응되는 문자열을 한 쌍으로 하여 저장하는 단계,
    를 더 포함하고,
    상기 전자문서를 작성하는 단계는,
    상기 응답 음성 입력에 기 저장된 상기 상용구가 존재하는 경우, 상기 문자열을 기초로 하여 상기 내용 데이터를 상기 기입 항목에 기입하는 것인, 음성을 통한 전자문서 작성 방법.
  12. 음성을 통한 전자문서 작성 장치에 있어서,
    사용자 단말로부터 상기 사용자 단말의 사용자가 작성하려는 전자문서 템플릿의 유형과 연계된 작성 개시 음성 입력 및 질문 음성에 대한 응답을 포함하는 응답 음성 입력을 수신하는 음성 입력 수신부;
    상기 작성 개시 음성 입력에 기초하여 사용자가 작성하려는 전자문서 템플릿을 결정하고, 상기 전자문서 템플릿을 불러오는 템플릿 결정부;
    상기 전자문서 템플릿 내의 기입 항목에 기초하여 상기 기입 항목에 입력될 내용 데이터를 포함하는 사용자의 응답을 유도하기 위한 질문 음성을 상기 사용자 단말로 전송하는 질문 생성부; 및
    상기 응답 음성 입력에 기초하여 상기 기입 항목에 대응되는 상기 내용 데이터를 기입하여 전자문서를 작성하는 전자문서 작성부,
    를 포함하는, 음성을 통한 전자문서 작성 장치.
PCT/KR2020/005953 2019-07-04 2020-05-06 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치 WO2021002584A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190080868A KR102076793B1 (ko) 2019-07-04 2019-07-04 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치
KR10-2019-0080868 2019-07-04

Publications (1)

Publication Number Publication Date
WO2021002584A1 true WO2021002584A1 (ko) 2021-01-07

Family

ID=69569854

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/005953 WO2021002584A1 (ko) 2019-07-04 2020-05-06 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치

Country Status (2)

Country Link
KR (1) KR102076793B1 (ko)
WO (1) WO2021002584A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102076793B1 (ko) * 2019-07-04 2020-02-12 주식회사 포시에스 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치
KR102581414B1 (ko) * 2020-02-28 2023-09-21 주식회사 포시에스 대화 인식을 통한 서식 기반 전자문서 입력 장치 및 방법
KR102417257B1 (ko) * 2020-04-03 2022-07-06 주식회사 포시에스 시선 추적 및 음성 인식 기반의 전자문서 작성 장치 및 방법
KR102415815B1 (ko) * 2020-06-30 2022-07-01 주식회사 뷰노 음성 기반 데이터 생성 방법
KR102623753B1 (ko) * 2020-12-30 2024-01-11 고려대학교 산학협력단 음성 인식을 이용한 치과 전자 차트 생성 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215615A (ja) * 2001-01-17 2002-08-02 Mitsubishi Electric Corp 文書作成システム、そのシステムに用いられるサーバ、端末、文書作成方法およびその方法を実現するプログラムを記録した機械読取可能な記録媒体
JP2005038067A (ja) * 2003-07-17 2005-02-10 Dainippon Printing Co Ltd 音声入力機能を備えたフォームを提供する電子フォームシステム
US20120323572A1 (en) * 2011-06-19 2012-12-20 Detlef Koll Document Extension in Dictation-Based Document Generation Workflow
KR20140142280A (ko) * 2012-03-08 2014-12-11 페이스북, 인크. 대화에서 정보를 추출하는 장치
KR20180086110A (ko) * 2017-01-20 2018-07-30 삼성생명보험주식회사 전자문서 제공 방법
KR102076793B1 (ko) * 2019-07-04 2020-02-12 주식회사 포시에스 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215615A (ja) * 2001-01-17 2002-08-02 Mitsubishi Electric Corp 文書作成システム、そのシステムに用いられるサーバ、端末、文書作成方法およびその方法を実現するプログラムを記録した機械読取可能な記録媒体
JP2005038067A (ja) * 2003-07-17 2005-02-10 Dainippon Printing Co Ltd 音声入力機能を備えたフォームを提供する電子フォームシステム
US20120323572A1 (en) * 2011-06-19 2012-12-20 Detlef Koll Document Extension in Dictation-Based Document Generation Workflow
KR20140142280A (ko) * 2012-03-08 2014-12-11 페이스북, 인크. 대화에서 정보를 추출하는 장치
KR20180086110A (ko) * 2017-01-20 2018-07-30 삼성생명보험주식회사 전자문서 제공 방법
KR102076793B1 (ko) * 2019-07-04 2020-02-12 주식회사 포시에스 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치

Also Published As

Publication number Publication date
KR102076793B1 (ko) 2020-02-12

Similar Documents

Publication Publication Date Title
WO2021002584A1 (ko) 음성을 통한 전자문서 제공 방법, 음성을 통한 전자문서 작성 방법 및 장치
WO2017150860A1 (en) Predicting text input based on user demographic information and context information
WO2015111818A1 (en) Emotional-speech synthesizing device, method of operating the same and mobile terminal including the same
WO2014025186A1 (en) Method for providing message function and electronic device thereof
WO2015178600A1 (en) Speech recognition method and apparatus using device information
EP2872971A1 (en) User interface apparatus and method for user terminal
WO2014035195A2 (en) User interface apparatus in a user terminal and method for supporting the same
WO2015186908A1 (ko) 이동 단말기 및 그 제어 방법
WO2014035199A1 (en) User interface apparatus in a user terminal and method for supporting the same
WO2013122269A1 (ko) 단말기의 사용자 인터페이스 제공 방법
WO2014126402A1 (en) Device and method for editing text in portable terminal
WO2020130447A1 (ko) 페르소나에 기반하여 문장을 제공하는 방법 및 이를 지원하는 전자 장치
WO2018084326A1 (ko) 실시간 상담을 제공하기 위한 방법 및 서버
WO2021029643A1 (en) System and method for modifying speech recognition result
WO2020233078A1 (zh) 用户信息表单的构建方法、装置、设备及存储介质
WO2020032655A1 (en) Method for executing function based on voice and electronic device supporting the same
WO2021029642A1 (en) System and method for recognizing user's speech
WO2021002585A1 (ko) 챗봇을 통한 전자문서 제공 방법, 챗봇을 통한 전자문서 작성 방법 및 장치
WO2019190062A1 (en) Electronic device for processing user voice input
WO2021107390A1 (en) Electronic device and method for controlling the electronic device
WO2015099472A1 (en) Method for controlling data and electronic device thereof
WO2020101389A1 (ko) 음성 인식 기반 이미지를 표시하는 전자 장치
WO2020101174A1 (ko) 개인화 립 리딩 모델 생성 방법 및 장치
WO2022139420A1 (ko) 전자 장치 및 그의 연속성을 가지는 사용자 입력에 대한 실행 정보를 공유하는 방법
WO2015088291A1 (ko) 장문 번역 서비스 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20834980

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20834980

Country of ref document: EP

Kind code of ref document: A1