WO2019156536A1 - Method and computer device for constructing or updating knowledge base model for interactive ai agent system by labeling identifiable, yet non-learnable, data from among learning data, and computer-readable recording medium - Google Patents

Method and computer device for constructing or updating knowledge base model for interactive ai agent system by labeling identifiable, yet non-learnable, data from among learning data, and computer-readable recording medium Download PDF

Info

Publication number
WO2019156536A1
WO2019156536A1 PCT/KR2019/001693 KR2019001693W WO2019156536A1 WO 2019156536 A1 WO2019156536 A1 WO 2019156536A1 KR 2019001693 W KR2019001693 W KR 2019001693W WO 2019156536 A1 WO2019156536 A1 WO 2019156536A1
Authority
WO
WIPO (PCT)
Prior art keywords
conversation
present disclosure
entity information
user
interactive
Prior art date
Application number
PCT/KR2019/001693
Other languages
French (fr)
Korean (ko)
Inventor
설재호
장세영
Original Assignee
주식회사 머니브레인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 머니브레인 filed Critical 주식회사 머니브레인
Publication of WO2019156536A1 publication Critical patent/WO2019156536A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Definitions

  • the present disclosure relates to learning of an interactive AI agent system, and more particularly, to a method of processing learning data for an interactive AI agent system and learning the interactive AI agent system using the processed learning data. will be.
  • the interactive AI agent system builds and utilizes various knowledge base models to understand the user's intent according to the input from the user and to proceed the appropriate dialogue accordingly.
  • the interactive AI agent system provides more complex domain service based on free speech type voice input.
  • the demand for it is increasing. Therefore, the interactive AI agent system needs to continuously learn to construct and update various knowledge base models, and the data for learning are recorded as conversation logs by conversations between real people, for example, conversations between real people.
  • Conversation logs on a recording for example, a recording of a conversation between a customer and a counselor of a counseling center
  • the recording of the conversation between the actual people may include a variety of entity information, such as a variety of personal information, such as name, social security number, user ID, telephone number, email, address, and the like.
  • entity information such as name, social security number, user ID, telephone number, email, address, and the like.
  • personal information such as name, social security number, user ID, telephone number, email, address, and the like.
  • Such information may be information that is required to be de-identified by the requirements of various other laws including the Personal Information Protection Act or by various other needs.
  • this information usually does not aid in learning for the interactive AI agent system by itself.
  • a method performed by a computer device is provided.
  • the method of the present disclosure is for automatically building or updating a knowledge base model for an interactive AI agent system, the method comprising: receiving a series of conversation logs associated with each other; Identifying, from each of the received chat logs, entity information determined that de-identification is needed according to predetermined criteria, wherein the entity information includes an entity type and a value; Replacing the value of each identified entity information with each corresponding label-the label being an identifier that identifies the entity type of the corresponding entity information, the entity having the same value of the same type included in the conversation logs The information is replaced with the same label; And building or updating a knowledgebase model for the interactive AI agent system, in accordance with learning using the conversation logs, wherein the value of the identified entity information is replaced with each corresponding label.
  • the entity information determined to be de-identified includes personal information, and the personal information includes at least one of a name, social security number, date of birth, address, age, telephone number, ID, and email address. It may include.
  • identifying the entity information determined to be de-identified may include identifying entity information that is determined to be de-identified based on each description format of the personal information. have.
  • replacing the value of each identified entity information with each corresponding label comprises: replacing entity information with different values of the same type included in the conversation logs with different labels. It may include the step.
  • receiving the conversation logs may include receiving the conversation logs from a conversation recording between the customer and the agent of the customer center.
  • the knowledgebase model may include a knowledgebase model for conversation understanding and conversation management.
  • a computer readable recording medium including one or more instructions, wherein the one or more instructions, when executed for a computer, cause the computer to perform any one of the methods described above.
  • a computer readable recording medium is provided.
  • a computer device for automatically building or updating a knowledge base model for an interactive AI agent system comprising: a conversation log collector configured to collect and store a series of conversation logs associated with each other; And a knowledge base model building / update unit.
  • the knowledge base model building / update unit of the present disclosure receives a series of chat logs from the chat log collecting unit, and from each of the received chat logs, it is determined that de-identification is necessary according to a predetermined criterion-entity information.
  • the entity information with the same value of the same type included among the components is replaced with the same label, and according to the learning using the conversation logs, the value of the identified entity information is replaced with each corresponding label. It is configured to build or update a knowledge base model for the application.
  • the legal or non-identifiable information appearing on the recording can be provided without compromising the purpose of learning for the interactive AI agent system. De-identification can be done to meet other needs.
  • FIG. 1 is a diagram schematically illustrating a system environment in which an interactive AI agent system may be implemented, according to an embodiment of the present disclosure.
  • FIG. 2 is a functional block diagram schematically illustrating the functional configuration of the user terminal 102 of FIG. 1, according to an embodiment of the disclosure.
  • FIG. 3 is a functional block diagram schematically illustrating the functional configuration of the interactive AI agent server 106 of FIG. 1, in accordance with an embodiment of the present disclosure.
  • FIG. 4 is a functional block diagram schematically illustrating a functional configuration of the conversation / task processing unit 304 of FIG. 3, according to an embodiment of the present disclosure.
  • FIG. 5 is an exemplary operational flow diagram performed by the knowledgebase model build / update unit 308 of FIG. 3, in accordance with an embodiment of the present disclosure.
  • the module or the unit means a functional part that performs at least one function or operation, and may be implemented in hardware or software or in a combination of hardware and software. Also, a plurality of 'modules' or 'units' may be integrated by at least one software module and implemented by at least one processor, except for 'modules' or 'units', which need to be implemented by specific hardware. have.
  • the interactive AI agent system may be a natural language input (eg, a natural language) input from a user through an interactive interaction with a user through a natural language in the form of voice and / or text.
  • a natural language input eg, a natural language
  • the dialogue response provided by the 'interactive AI agent system' may be in visual, auditory and / or tactile form (eg, voice, sound, text, video, image, symbol, emoticon, hyperlink, It may be included in various forms such as, but not limited to, animation, various knots, motion, haptic feedback, and the like.
  • Tasks performed by the interactive AI agent system in embodiments of the present disclosure may, for example, retrieve information, proceed with payment, create a message, create an email, make a phone call, play music, take a picture, search for a user's location, map /
  • Various types of tasks may be included.
  • an interactive AI agent system is a chatbot system based on a messenger platform, for example, a chatbot system that exchanges messages with a user on a messenger and provides various information desired by the user or performs a task. It is to be understood that the present disclosure is not limited thereto.
  • FIG. 1 is a diagram schematically illustrating a system environment 100 in which an interactive AI agent system may be implemented, in accordance with an embodiment of the present disclosure.
  • the system environment 100 includes a plurality of user terminals 102a-102n, a communication network 104, an interactive AI agent server 106, and an external service server 108.
  • each of the plurality of user terminals 102a-102n may be any user electronic device having a wired or wireless communication function.
  • Each of the user terminals 102a-102n may be various wired or wireless communication terminals including, for example, a smartphone, a tablet PC, a music player, a smart speaker, a desktop, a laptop, a PDA, a game console, a digital TV, a set-top box, and the like. It should be understood that it is not limited to any particular form.
  • each of the user terminals 102a-102n may communicate with the interactive AI agent server 106, that is, send and receive necessary information, through the communication network 104.
  • each of the user terminals 102a-102n may communicate with the external service server 108, that is, transmit and receive necessary information through the communication network 104.
  • each of the user terminals 102a-102n may receive user input in the form of voice and / or text from the outside, and communicate with the interactive AI agent server 106 via the communication network 104. And / or an operation result corresponding to the above user input (eg, providing a specific conversation response and / or a specific task) obtained through communication with the external service server 108 (and / or processing in the user terminals 102a-102n). May be provided to the user.
  • each of the user terminals 102a-102n may have a conversational response as a result of an operation corresponding to a user input in a visual, audio, and / or tactile form (eg, voice, sound, text, video, And images, symbols, emoticons, hyperlinks, animations, various notes, motions, haptic feedback, and the like, but are not limited thereto.
  • performing a task as an operation corresponding to a user input includes searching for information, proceeding with payment, writing a message, writing an email, making a phone call, playing a music, taking a picture, searching for a user's location, and a map / navigation service. And various types of tasks, including, but not limited to, performing such tasks.
  • communication network 104 may include any wired or wireless communication network, such as a TCP / IP communication network.
  • the communication network 104 may include, for example, a Wi-Fi network, a LAN network, a WAN network, an Internet network, and the like, but the present disclosure is not limited thereto.
  • the communication network 104 may include, for example, Ethernet, GSM, Enhanced Data GSM Environment (EDGE), CDMA, TDMA, OFDM, Bluetooth, VoIP, Wi-MAX, Wibro, and any other various wired or wireless. It may be implemented using a communication protocol.
  • EDGE Enhanced Data GSM Environment
  • the interactive AI agent server 106 may communicate with the user terminals 102a-102n via the communication network 104. According to an embodiment of the present disclosure, the interactive AI agent server 106 transmits and receives necessary information with the user terminals 102a-102n through the communication network 104, and thereby receives them on the user terminals 102a-102n. The operation result corresponding to the input user input, that is, the user intent, may be provided to the user. According to an embodiment of the present disclosure, the interactive AI agent server 106 receives user natural language input in the form of voice and / or text from the user terminals 102a-102n, for example, via the communication network 104, and is prepared in advance.
  • the received natural language input can be processed to determine the user's intent.
  • the interactive AI agent server 106 may perform an operation corresponding to the user intent determined above based on a knowledge base model for conversation flow management prepared in advance.
  • the interactive AI agent server 106 obtains from conversation logs (eg, transcripts of a plurality of user and / or system utterance records, etc.) obtained from conversations between real people through various paths. Collected chat logs) and learn the collected chat logs to build and update various knowledge base models for intent determination of user input and / or management of chat flow.
  • conversation logs eg, transcripts of a plurality of user and / or system utterance records, etc.
  • the interactive AI agent server 106 may generate a specific conversation response that corresponds to, for example, a user intent, and send it to the user terminals 102a-102n.
  • the interactive AI agent server 106 generates, based on the user intent determined above, a corresponding conversation response in voice and / or text form, and generates the generated response in a communication network ( Via 104, it may be delivered to the user terminals 102a-102n.
  • the conversation response generated by the interactive AI agent server 106 along with the above-described natural language response in the form of voice and / or text, other visual elements such as images, videos, symbols, emoticons, etc. Or other acoustic elements such as sound, sound, or other tactile elements.
  • the same type of response on the interactive AI agent server 106 depending on the type of user input received on the user terminals 102a-102n (eg, voice or text input). May be generated (eg, a voice response is generated if a voice input is given and a text response is generated if a text input is given), but the present disclosure is not so limited.
  • responses in the form of voice and / or text may be generated and provided regardless of the form of user input.
  • the interactive AI agent server 106 may communicate with the external service server 108 via the communication network 104, as mentioned above.
  • the external service server 108 may be, for example, a messaging service server, an online consultation center server, an online shopping mall server, an information retrieval server, a map service server, a navigation service server, and the like, but the present disclosure is not limited thereto.
  • a conversation response based on user intent delivered from the interactive AI agent server 106 to the user terminals 102a-102n, is retrieved and obtained from, for example, the external service server 108. It should be understood that this may include data content.
  • the interactive AI agent server 106 is shown as a separate physical server configured to communicate with the external service server 108 via the communication network 104, but the present disclosure is not limited thereto. According to another embodiment of the present disclosure, it should be understood that the interactive AI agent server 106 may be included as part of various service servers such as an online consultation center server or an online shopping mall server.
  • the user terminal 102 includes a user input receiving module 202, a sensor module 204, a program memory module 206, a processing module 208, a communication module 210, and a response output module ( 212).
  • the user input receiving module 202 may input various types of inputs from a user, for example, natural language inputs such as voice inputs and / or text inputs (and additionally other types of inputs such as touch inputs). ) Can be received.
  • the user input receiving module 202 may include, for example, a microphone and an audio circuit, and may acquire a user voice input signal through the microphone and convert the obtained signal into audio data.
  • the user input receiving module 202 may include various pointing devices such as a mouse, a joystick, a trackball, a keyboard, a touch panel, a touch screen, a stylus, and the like.
  • the user may acquire text input and / or touch input signals input from the user through these input devices.
  • the user input received by the user input receiving module 202 may be associated with performing a predetermined task, for example, executing a predetermined application or retrieving predetermined information, but the present disclosure is limited thereto. It is not.
  • the user input received by the user input receiving module 202 may require only a simple conversation response regardless of execution of a predetermined application or retrieval of information.
  • the sensor module 204 includes one or more different types of sensors, through which the status information of the user terminal 102, such as the physical state of the corresponding user terminal 102, The software and / or hardware state or information about the environment state of the user terminal 102 may be obtained.
  • the sensor module 204 may include, for example, an optical sensor, and detect an ambient light state of the corresponding user terminal 102 through the optical sensor.
  • the sensor module 204 may include, for example, a movement sensor, and detect whether the corresponding user terminal 102 is moved through the movement sensor.
  • the sensor module 204 may include, for example, a speed sensor and a GPS sensor, and may detect a position and / or orientation state of the corresponding user terminal 102 through these sensors. According to another embodiment of the present disclosure, it should be appreciated that the sensor module 204 may include other various types of sensors, including temperature sensors, image sensors, pressure sensors, contact sensors, and the like.
  • the program memory module 206 may be any storage medium in which various programs, for example, various application programs and related data, which may be executed on the user terminal 102, are stored.
  • the program memory module 206 includes, for example, a dialing application, an email application, an instant messaging application, a camera application, a music playback application, a video playback application, an image management application, a map application, a browser application, and the like.
  • Various application programs, including, and data associated with the execution of these programs can be stored.
  • the program memory module 206 may be configured to include various types of volatile or nonvolatile memory such as DRAM, SRAM, DDR RAM, ROM, magnetic disk, optical disk, flash memory, and the like. .
  • the processing module 208 may communicate with each component module of the user terminal 102 and perform various operations on the user terminal 102. According to one embodiment of the present disclosure, the processing module 208 may drive and execute various application programs on the program memory module 206. According to one embodiment of the present disclosure, the processing module 208 may receive the signals obtained by the user input receiving module 202 and the sensor module 204 and perform appropriate processing on these signals, if necessary. have. According to one embodiment of the present disclosure, the processing module 208 may perform appropriate processing on a signal received from the outside through the communication module 210 if necessary.
  • the communication module 210 is configured such that the user terminal 102 communicates with the interactive AI agent server 106 and / or the external service server 108 via the communication network 104 of FIG. 1.
  • the communication module 212 is configured such that, for example, signals acquired on the user input receiving module 202 and the sensor module 204 may be interactive AI agents through the communication network 104 according to a predetermined protocol. May be sent to server 106 and / or external service server 108.
  • the communication module 210 may, for example, receive various signals, such as voice and / or the like, from the interactive AI agent server 106 and / or the external service server 108 via the communication network 104. Alternatively, a response signal or various control signals including a natural language response in text form may be received, and appropriate processing may be performed according to a predetermined protocol.
  • the response output module 212 may output a response corresponding to a user input in various forms such as visual, auditory, and / or tactile.
  • the response output module 212 includes various display devices such as a touch screen based on technologies such as LCD, LED, OLED, QLED, etc., and responds to user input through these display devices.
  • Visual responses such as text, symbols, videos, images, hyperlinks, animations, various notes, and the like, to the user.
  • the response output module 212 includes, for example, a speaker or a headset, and provides an audible response, such as a voice and / or acoustic response, to the user via the speaker or the headset, corresponding to a user input. can do.
  • the response output module 212 may include a motion / haptic feedback generator, thereby providing a tactile response, eg, motion / haptic feedback, to a user.
  • the response output module 212 can simultaneously provide any two or more combinations of text response, voice response, and motion / haptic feedback corresponding to user input.
  • the interactive agent server 106 includes a communication module 302, a chat / task processor 304, a chat log collector 306, and a knowledge base model build / update unit 308.
  • the communication module 302 is configured such that the interactive AI agent server 106 is connected to the user terminal 102 and / or via the communication network 104 according to a predetermined wired or wireless communication protocol. Enable communication with an external service server 108. According to one embodiment of the present disclosure, the communication module 302 may receive voice input and / or text input from the user, transmitted from the user terminal 102, through the communication network 104. According to one embodiment of the present disclosure, the communication module 302, via or via the communication network 104, together with or separately from voice input and / or text input from the user that has been transmitted from the user terminal 102. Status information of the user terminal 102, which has been transmitted from the terminal 102, may be received.
  • the status information may include, for example, various status information related to the corresponding user terminal 102 at the time of voice input and / or text input (eg, physical state of the user terminal 102, user). Software and / or hardware status of the terminal 102, environmental status information around the user terminal 102, and the like.
  • the communication module 302 may further include a conversation response (eg, voice and / or textual natural language) generated by the interactive AI agent server 106 in response to the received user input. And / or control signals, etc.) and / or control signals may be performed as necessary to communicate to the user terminal 102 via the communication network 104.
  • the conversation / task processing unit 304 receives a user natural language input from the user terminal 102 through the communication module 302 and based on a predetermined knowledge base model prepared in advance. By processing, the user's intent corresponding to the user natural language input may be determined. According to one embodiment of the present disclosure, the conversation / task processing unit 304 may also provide an operation corresponding to the determined user intent, such as proper conversation response and / or task performance.
  • the conversation log collecting unit 306 may receive and store each conversation log on the conversation collected by any of various methods.
  • the conversation logs received and stored in the conversation log collector 306 may be recording records of conversations between real people, such as recordings of actual conversations between a customer and an agent of a counseling center.
  • each of the conversation logs collected and stored on the conversation log collection unit 306 may be a variety of entity information, in particular laws or other such as various personal information, including name, social security number, user ID, telephone number, email, address, etc. It may contain information that requires de-identification for various reasons.
  • the knowledge base model building / update unit 308 may perform various types of operations for the interactive AI agent server 106 through learning using the respective conversation logs on the above-described conversation log collection unit 306.
  • Knowledgebase models eg, various knowledgebase models for intent determination or conversation flow management
  • each conversation log on the conversation log collecting unit 306 may include various entity information that needs to be de-identified.
  • entity information usually does not help the learning of the information content itself.
  • you randomly delete the entity information as described above from the conversation logs for this learning it may be impossible to obtain the intent from the conversation log itself (e.g.
  • the knowledge base model building / updater 308 may perform preprocessing on the entity information included in the conversation log to be learned, prior to learning using the conversation logs.
  • This pre-processing by the knowledge base model building / update unit 308 replaces each entity information with low learning possibility on the above-mentioned conversation log and needs to be de-identified, instead of randomly deleting its value with any other identifier. It may be. For example, when the names of different people appear in a series of conversation logs obtained from conversations between people, the knowledge base model building / update unit 308 may use the name value of each name itself (eg, Kim Chul-soo, Lee Young-hee, Hong Gil-dong, etc.). In place of), the preprocessing can be performed by inserting respective identifiers (e.g., labels such as name 1, name 2, name 3, etc.).
  • respective identifiers e.g., labels such as name 1, name 2, name 3, etc.
  • the knowledge base model building / update unit 308 can de-identify the entity information in the conversation log to the extent that the purpose for learning does not harm.
  • the knowledgebase model building / updating unit 308 may learn using preprocessed conversation logs, and perform construction and / or updating of knowledgebase models based on the result. have.
  • the conversation / task processing unit 302 may include a speech-to-text (STT) module 402, a natural language understanding (NLU) module 404, and a user database 406. ), Conversation understanding knowledge base model 408, conversation management module 410, conversation flow management knowledge base model 412, conversation generation module 414, and text-to-speech (TTS) module 416 ).
  • STT speech-to-text
  • NLU natural language understanding
  • TTS text-to-speech
  • the STT module 402 may receive a voice input among user inputs received through the communication module 302 and convert the received voice input into text data based on pattern matching or the like. have. According to one embodiment of the present disclosure, the STT module 402 may generate a feature vector sequence by extracting features from a user's voice input. According to an embodiment of the present disclosure, the STT module 402 may include a dynamic time warping (DTW) method, a HMM model (Hidden Markov Model), a GMM model (Gaussian-Mixture Mode), a deep neural network model, an n-gram model, and the like. Based on a variety of statistical models of, a text recognition result, such as a sequence of words, can be generated. According to an embodiment of the present disclosure, the STT module 402 may refer to each user characteristic data of the user database 406 described below when converting the received voice input into text data based on pattern matching. .
  • DTW dynamic time warping
  • the NLU module 404 may receive a text input from the communication module 302 or the STT module 402.
  • the text input received at the NLU module 404 is, for example, a user text input or communication module 302 that was received from the user terminal 102 via the communication network 104 at the communication module 302.
  • the NLU module 404 along with or after receiving the text input, state information associated with the user input, such as state information of the user terminal 102 at the time of the user input. And the like.
  • the status information may include, for example, various status information related to the corresponding user terminal 102 at the time of user voice input and / or text input (eg, physical state of the user terminal 102 and software). And / or hardware status, environmental status information around the user terminal 102, and the like.
  • the NLU module 404 may map the received text input to one or more user intents based on the conversation understanding knowledge base model 408 described below.
  • the user intent here may be associated with a series of action (s) that can be understood and performed by the interactive AI agent server 106 in accordance with the user intent.
  • the NLU module 404 may refer to the aforementioned state information in mapping the received text input to one or more user intents.
  • the NLU module 404 may refer to each user characteristic data of the user database 406 described below in mapping the received text input to one or more user intents.
  • the user database 406 may be a database that stores and manages characteristic data for each user.
  • the user database 406 may, for example, record a previous conversation of the user, pronunciation characteristic information of the user, user vocabulary preferences, the user's location, a setting language, a contact / friend list, etc. It may include various user characteristic information.
  • the STT module 402 refers to each user characteristic data of the user database 406, for example, a pronunciation characteristic for each user, when converting a voice input into text data. You can get more accurate text data.
  • the NLU module 404 determines the user intent more accurately by referring to each user characteristic data of the user database 406, such as each user specific feature or context when determining the user intent. can do.
  • a user database 406 for storing and managing characteristic data for each user is illustrated as being disposed in the interactive AI agent server 106, but the present disclosure is not so limited. According to another embodiment of the present disclosure, a user database for storing and managing characteristic data for each user may exist, for example, in the user terminal 102 and is distributed to the user terminal 102 and the interactive AI agent server 106. It should be understood that the arrangement may be made.
  • the conversation management module 410 may generate a series of operation flows corresponding thereto according to the user intent determined by the NLU module 404.
  • the conversation management module 310 based on the conversation flow management knowledge base model 412, responds to any action, such as any conversation, in response to a user intent received from the NLU module 404. It may determine whether to perform a response and / or perform a task, and generate a detailed operation flow accordingly.
  • the conversation understanding knowledge base model 408 may include, for example, a predefined ontology model.
  • the ontology model may be represented, for example, in a hierarchical structure between nodes, each node being a "intent” node or a child linked to an "intent” node corresponding to the user's intent. It may be one of the "property” nodes (child “nodes” nodes that are linked directly to "intent” nodes or relinked to "property” nodes of "intent” nodes).
  • an "intent" node and “attribute” nodes that are directly or indirectly linked to the "intent” node may constitute one domain, and the ontology may consist of a collection of such domains.
  • the conversation understanding knowledge base model 408 is configured to include domains corresponding to all intents each of which, for example, the interactive AI agent system can understand and perform an operation corresponding thereto. Can be.
  • the ontology model may be dynamically changed by adding or deleting nodes, or modifying relationships between nodes.
  • intent nodes and attribute nodes of each domain in the ontology model may be associated with words and / or phrases related to corresponding user intents or attributes, respectively.
  • the dialogue understanding knowledge base model 408 comprises an ontology model consisting of a hierarchy of nodes and a set of words and / or phrases associated with each node, for example in the form of a lexical dictionary ( The NLU module 404 may determine the user intent based on the ontology model implemented in the form of a lexical dictionary.
  • the NLU module 404 may determine which words in which domain in the ontology model are associated with each word in the sequence, Based on such a determination, the corresponding domain, ie user intent, can be determined.
  • the conversation flow management knowledge base model 412 may include a sequential flow distribution model of conversations or actions required to provide a service corresponding to an intent corresponding to a user input.
  • the conversation flow management knowledge base model 412 may include a library of conversation patterns corresponding to each intent.
  • the conversation generation module 414 may generate a necessary conversation response based on the conversation / action flow generated by the conversation management module 410.
  • the conversation generating module 414 may, when generating a conversation response, for example, the user characteristic data (eg, the user's previous conversation record, the user's pronunciation characteristic information, the user's pronunciation characteristic information) of the user database 406 described above. Vocabulary preferences, user's location, setting language, contact / friend list, history of each user's previous conversation, etc.).
  • the TTS module 416 may receive a conversation response generated to be sent to the user terminal 102 by the conversation generation module 414.
  • the conversation response received at the TTS module 418 may be a natural language or a sequence of words in text form.
  • the TTS module 418 may convert the received text form input into a speech form according to various types of algorithms.
  • the interactive AI agent system allows the client-server model between the user terminal 102 and the interactive AI agent server 106, in particular the client, to provide only user input / output functions.
  • the interactive AI agent system should be aware that the functions may be implemented by being distributed between the user terminal and the server, or alternatively, may be implemented as a standalone application installed on the user terminal. .
  • the interactive AI agent system distributes the functions between the user terminal and the server according to an embodiment of the present disclosure
  • the distribution of each function of the interactive AI agent system between the client and the server may vary from embodiment to embodiment. It should be appreciated that other implementations may be made.
  • a specific module has been described as performing certain operations, but the present disclosure is not limited thereto. According to another embodiment of the present disclosure, it should be understood that the operations described as performed by any particular module in the above description may be performed by a separate module from each other.
  • FIG. 5 is an exemplary operational flow diagram performed by the knowledgebase model build / update unit 308 of FIG. 3, in accordance with an embodiment of the present disclosure.
  • the knowledge base model build / update unit 308 may receive a group of conversation logs collected in any of a variety of ways on the knowledge base model build / update unit 308.
  • entity information that requires preprocessing may be identified.
  • entity information requiring preprocessing may be any type of information that needs to be de-identified, such as personal information.
  • the personal information that needs to be de-identified may be, for example, information such as name, social security number, date of birth, address, age, telephone number, ID, email address, and the like, but is not limited thereto.
  • such information may be identified based on, for example, a method of notifying each of these pieces of information.
  • each type of entity information identified above, as indicated on the conversation logs can be determined, and the respective entity information can be replaced using a different label for each type.
  • each of these name values eg, “Kim Chul Soo”, “Lee Young Hee”, “Hong Gil Dong”, etc.
  • the same name value should be given the same label (i.e., if "Name 1" is assigned to any one of the name values shown in a given conversation log, e.g. "Hong Gil-dong", the corresponding conversation on the conversation group) "Name 1" should also be given to the same name value "Hong Gil-dong” that appears during the log and other chat logs).
  • step 508 the knowledge base model building / updater 308 utilizes and uses the conversation logs processed in step 506 (i.e., replacement by labeling the identified entity information) for learning. Accordingly, various knowledge base models for the interactive AI agent system can be built and updated.
  • a computer program may include a storage medium readable by a computer processor or the like, such as an EPROM, an EEPROM, a nonvolatile memory such as a flash memory device, a magnetic disk such as an internal hard disk and a removable disk, a magneto-optical disk, and It may be implemented in a form stored in various types of storage media, including a CDROM disk.
  • the program code (s) may be implemented in assembly or machine language.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Bioethics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A method performed by a computer device is disclosed. The method is for automatically constructing or updating a knowledge base model for an interactive AI agent system and comprises the steps of: receiving a series of dialogue logs related to each other; identifying, from each of the received dialogue logs, entity information determined as requiring non-identification according to a predetermined criterion, wherein the entity information includes an entity type and a value; replacing, with each corresponding label, the value of respective pieces of identified entity information, wherein the label is an identifier for identifying an entity type of corresponding entity information, and pieces of entity information having the same type and the same value, which are included in the dialogue logs, are replaced with the same label; and constructing or updating the knowledge base model for the interactive AI agent system according to learning by using dialogue logs in which the value of the identified entity information is replaced with each corresponding label.

Description

학습 데이터 중 식별 가능하지만 학습 가능성이 없는 데이터의 레이블화를 통한, 대화형 AI 에이전트 시스템을 위한 지식베이스 모델의 구축 또는 갱신 방법, 컴퓨터 장치, 및 컴퓨터 판독 가능 기록 매체Method of constructing or updating knowledge base model for interactive AI agent system, computer device, and computer readable recording medium through labeling of identifiable but non-learnable data in training data
본 개시는, 대화형 AI 에이전트 시스템의 학습에 관한 것이며, 보다 구체적으로는 대화형 AI 에이전트 시스템을 위한 학습 데이터를 처리하고 그 처리된 학습 데이터를 이용하여 대화형 AI 에이전트 시스템을 학습시키는 방법 등에 관한 것이다.The present disclosure relates to learning of an interactive AI agent system, and more particularly, to a method of processing learning data for an interactive AI agent system and learning the interactive AI agent system using the processed learning data. will be.
근래, 인공지능 분야, 특히 자연어 이해 분야의 기술 발전에 따라, 전통적인 기계 중심의 명령 입출력 방식에 따른 기계 조작에서 벗어나, 사용자로 하여금, 보다 사람 친화적인 방식, 예컨대 음성 및/또는 텍스트 형태의 자연어를 매개로 한 대화 방식으로 기계를 조작하고 기계로부터 원하는 서비스를 얻을 수 있도록 하는 대화형 AI 에이전트 시스템의 개발 및 활용이 점차 늘어나고 있다. 그에 따라, 온라인 상담 센터나 온라인 쇼핑몰 등을 비롯한 (그러나 이에 한정되지 않은 더 많은) 다양한 분야에서, 사용자는, 음성 및/또는 텍스트 형태의 자연어 대화를 제공하는 대화형 AI 에이전트 시스템을 통하여 원하는 서비스를 제공받을 수 있게 되었다. In recent years, with advances in the field of artificial intelligence, in particular in the field of understanding natural language, the user has moved away from the operation of the traditional machine-oriented command input / output schemes, thereby allowing users to use natural language in a more human-friendly manner, such as speech and / or text. Increasingly, the development and use of interactive AI agent systems, which enable the operator to operate the machine in a mediated manner and obtain the desired services from the machine, are increasingly being used. Accordingly, in a variety of fields, including but not limited to online counseling centers, online shopping malls, and the like, the user can obtain desired services through an interactive AI agent system that provides natural language conversations in the form of voice and / or text. You can be provided.
대화형 AI 에이전트 시스템은, 사용자로부터의 입력에 따른 사용자의 인텐트를 이해하고 그에 부합하는 적절한 대화를 진행하기 위하여 다양한 지식베이스 모델을 구축 및 활용한다. 특히 최근에는, 고정 시나리오 기반의 간단한 문답 형태의 대화 서비스만을 제공하던 종래의 대화형 AI 에이전트 시스템을 넘어서서, 자유 발화 형태의 음성 입력을 기초로 보다 복잡한 도메인의 서비스를 제공하는 대화형 AI 에이전트 시스템에 대한 요구가 늘어나고 있다. 따라서, 대화형 AI 에이전트 시스템은 다양한 지식베이스 모델의 구축 및 갱신을 위하여 지속적 학습을 할 필요가 있으며, 학습을 위한 데이터로는 실제 사람들 간의 대화에 의한 대화 로그들, 예컨대 실제 사람들 간의 대화를 녹취한 녹취록(예컨대, 상담 센터의 고객과 상담원 간의 대화 녹취록) 상의 대화 로그들 등이 대표적으로 활용되는 상황이다. The interactive AI agent system builds and utilizes various knowledge base models to understand the user's intent according to the input from the user and to proceed the appropriate dialogue accordingly. In particular, in recent years, beyond the conventional interactive AI agent system that provides only simple scenario-based dialogue service based on fixed scenarios, the interactive AI agent system provides more complex domain service based on free speech type voice input. The demand for it is increasing. Therefore, the interactive AI agent system needs to continuously learn to construct and update various knowledge base models, and the data for learning are recorded as conversation logs by conversations between real people, for example, conversations between real people. Conversation logs on a recording (for example, a recording of a conversation between a customer and a counselor of a counseling center) and the like are typically used.
그런데, 실제 사람들 간의 대화를 녹취한 녹취록에는 다양한 엔티티 정보들, 예컨대 이름, 주민번호, 사용자 ID, 전화번호, 이메일, 주소 등을 비롯한 각종 개인정보 등이 포함되어 있을 수 있다. 이러한 정보는, 개인정보보호법을 비롯한 각종 다른 법률에 의한 요구나 기타 다양한 필요에 의해 비식별화가 요구되는 정보일 수 있다. 또한, 이러한 정보는 대개 그 정보 내용 자체로서는 대화형 AI 에이전트 시스템을 위한 학습에 도움이 되지 않는다. By the way, the recording of the conversation between the actual people may include a variety of entity information, such as a variety of personal information, such as name, social security number, user ID, telephone number, email, address, and the like. Such information may be information that is required to be de-identified by the requirements of various other laws including the Personal Information Protection Act or by various other needs. In addition, this information usually does not aid in learning for the interactive AI agent system by itself.
따라서, 녹취록을 이용하여 대화형 AI 에이전트 시스템을 학습시키기 이전에, 녹취록 상에 나타나는 전술한 비식별화가 필요한 정보를 삭제 또는 적절한 비식별화 처리를 수행할 필요가 있는데, 다만 대화형 AI 에이전트 시스템을 위한 학습의 목적을 해하지 않도록 그러한 처리를 행할 필요가 있다. Therefore, before learning the interactive AI agent system using the recording, it is necessary to delete or perform the appropriate de-identification processing described above that needs to be de-identified. Such processing needs to be carried out so as not to impair the purpose of learning.
본 개시의 일 특징에 의하면, 컴퓨터 장치에 의해 수행되는 방법이 제공된다. 본 개시의 방법은, 대화형 AI 에이전트 시스템을 위한 지식베이스 모델을 자동으로 구축 또는 갱신하기 위한 것이며, 서로 연관된 일련의 대화 로그들을 수신하는 단계; 수신된 대화 로그들 각각으로부터, 소정의 기준에 따라, 비식별화가 필요하다고 판정되는 엔티티 정보 - 엔티티 정보는, 엔티티 유형 및 값을 포함함 - 를 식별하는 단계; 각각의 식별된 엔티티 정보의 값을, 각 대응하는 레이블로 교체하는 단계 - 레이블은, 대응하는 엔티티 정보의 엔티티 유형을 식별하게 하는 식별자이며, 대화 로그들 중에 포함되는 동일한 유형의 동일한 값을 갖는 엔티티 정보들은 동일한 레이블로 교체됨 -; 및 식별된 엔티티 정보의 값이 각 대응하는 레이블로 교체된, 대화 로그들을 이용한 학습에 따라, 대화형 AI 에이전트 시스템을 위한 지식베이스 모델을 구축 또는 갱신하는 단계를 포함한다.According to one aspect of the present disclosure, a method performed by a computer device is provided. The method of the present disclosure is for automatically building or updating a knowledge base model for an interactive AI agent system, the method comprising: receiving a series of conversation logs associated with each other; Identifying, from each of the received chat logs, entity information determined that de-identification is needed according to predetermined criteria, wherein the entity information includes an entity type and a value; Replacing the value of each identified entity information with each corresponding label-the label being an identifier that identifies the entity type of the corresponding entity information, the entity having the same value of the same type included in the conversation logs The information is replaced with the same label; And building or updating a knowledgebase model for the interactive AI agent system, in accordance with learning using the conversation logs, wherein the value of the identified entity information is replaced with each corresponding label.
본 개시의 일 실시예에 의하면, 비식별화가 필요하다고 판정되는 엔티티 정보는 개인 정보를 포함하고, 개인 정보는, 이름, 주민번호, 생년월일, 주소, 나이, 전화번호, ID, 이메일 주소 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present disclosure, the entity information determined to be de-identified includes personal information, and the personal information includes at least one of a name, social security number, date of birth, address, age, telephone number, ID, and email address. It may include.
본 개시의 일 실시예에 의하면, 비식별화가 필요하다고 판정되는 엔티티 정보를 식별하는 단계는, 개인 정보의 각 기재 형식에 기초하여 비식별화가 필요하다고 판정되는 엔티티 정보를 식별하는 단계를 포함할 수 있다.According to one embodiment of the present disclosure, identifying the entity information determined to be de-identified may include identifying entity information that is determined to be de-identified based on each description format of the personal information. have.
본 개시의 일 실시예에 의하면, 각각의 식별된 엔티티 정보의 값을, 각 대응하는 레이블로 교체하는 단계는, 대화 로그들 중에 포함되는 동일한 유형의 다른 값을 갖는 엔티티 정보들을 각기 다른 레이블로 교체하는 단계를 포함할 수 있다. According to one embodiment of the present disclosure, replacing the value of each identified entity information with each corresponding label comprises: replacing entity information with different values of the same type included in the conversation logs with different labels. It may include the step.
본 개시의 일 실시예에 의하면, 대화 로그들을 수신하는 단계는, 고객 센터의 고객과 상담원 간의 대화 녹취록으로부터 대화 로그들을 수신하는 단계를 포함할 수 있다. According to one embodiment of the present disclosure, receiving the conversation logs may include receiving the conversation logs from a conversation recording between the customer and the agent of the customer center.
본 개시의 일 실시예에 의하면, 지식베이스 모델은, 대화 이해 및 대화 관리를 위한 지식베이스 모델을 포함할 수 있다.According to an embodiment of the present disclosure, the knowledgebase model may include a knowledgebase model for conversation understanding and conversation management.
본 개시의 다른 특징에 의하면, 하나 이상의 명령어를 포함하는 컴퓨터 판독 가능 기록 매체로서, 하나 이상의 명령어는, 컴퓨터에 위해 실행되는 경우, 컴퓨터로 하여금, 전술한 방법들 중 어느 하나의 방법을 수행하게 하는, 컴퓨터 판독 가능 기록 매체가 제공된다.According to another aspect of the present disclosure, a computer readable recording medium including one or more instructions, wherein the one or more instructions, when executed for a computer, cause the computer to perform any one of the methods described above. A computer readable recording medium is provided.
본 개시의 또 다른 특징에 의하면, 대화형 AI 에이전트 시스템을 위한 지식베이스 모델을 자동으로 구축 또는 갱신하기 위한 컴퓨터 장치로서, 서로 연관된 일련의 대화 로그들을 수집 및 저장하는 대화 로그 수집부; 및 지식베이스 모델 구축/갱신부를 포함한다. 본 개시의 지식베이스 모델 구축/갱신부는, 대화 로그 수집부로부터 일련의 대화 로그들을 수신하고, 수신된 대화 로그들 각각으로부터, 소정의 기준에 따라, 비식별화가 필요하다고 판정되는 엔티티 정보 - 엔티티 정보는, 엔티티 유형 및 값을 포함함 - 를 식별하고, 각각의 식별된 엔티티 정보의 값을, 각 대응하는 레이블로 교체 - 레이블은, 대응하는 엔티티 정보의 엔티티 유형을 식별하게 하는 식별자이며, 대화 로그들 중에 포함되는 동일한 유형의 동일한 값을 갖는 엔티티 정보들은 동일한 레이블로 교체됨 - 하고, 식별된 엔티티 정보의 값이 각 대응하는 레이블로 교체된, 대화 로그들을 이용한 학습에 따라, 대화형 AI 에이전트 시스템을 위한 지식베이스 모델을 구축 또는 갱신하도록 구성된다.According to another aspect of the present disclosure, a computer device for automatically building or updating a knowledge base model for an interactive AI agent system, comprising: a conversation log collector configured to collect and store a series of conversation logs associated with each other; And a knowledge base model building / update unit. The knowledge base model building / update unit of the present disclosure receives a series of chat logs from the chat log collecting unit, and from each of the received chat logs, it is determined that de-identification is necessary according to a predetermined criterion-entity information. Includes an entity type and a value, and replaces the value of each identified entity information with each corresponding label, where the label is an identifier that identifies the entity type of the corresponding entity information, The entity information with the same value of the same type included among the components is replaced with the same label, and according to the learning using the conversation logs, the value of the identified entity information is replaced with each corresponding label. It is configured to build or update a knowledge base model for the application.
본 개시의 실시예에 의하면, 예컨대 녹취록을 이용하여 대화형 AI 에이전트 시스템을 학습시키는 경우, 대화형 AI 에이전트 시스템을 위한 학습의 목적을 해하지 않으면서도, 녹취록 상에 나타나는 비식별화가 필요한 정보를 법률이나 기타 다른 요구에 부합하도록 비식별화 처리를 수행할 수 있다.According to an embodiment of the present disclosure, when learning an interactive AI agent system using, for example, a recording, the legal or non-identifiable information appearing on the recording can be provided without compromising the purpose of learning for the interactive AI agent system. De-identification can be done to meet other needs.
도 1은, 본 개시의 일 실시예에 따라, 대화형 AI 에이전트 시스템이 구현될 수 있는 시스템 환경을 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating a system environment in which an interactive AI agent system may be implemented, according to an embodiment of the present disclosure.
도 2는, 본 개시의 일 실시예에 따른, 도 1의 사용자 단말(102)의 기능적 구성을 개략적으로 도시한 기능 블록도이다.2 is a functional block diagram schematically illustrating the functional configuration of the user terminal 102 of FIG. 1, according to an embodiment of the disclosure.
도 3은, 본 개시의 일 실시예에 따른, 도 1의 대화형 AI 에이전트 서버(106)의 기능적 구성을 개략적으로 도시한 기능 블록도이다.3 is a functional block diagram schematically illustrating the functional configuration of the interactive AI agent server 106 of FIG. 1, in accordance with an embodiment of the present disclosure.
도 4는, 본 개시의 일 실시예에 따른, 도 3의 대화/태스크 처리부(304)의 기능적 구성을 개략적으로 도시한 기능 블록도이다.4 is a functional block diagram schematically illustrating a functional configuration of the conversation / task processing unit 304 of FIG. 3, according to an embodiment of the present disclosure.
도 5는, 본 개시의 일 실시예에 따라, 도 3의 지식베이스 모델 구축/갱신부(308)에 의해 수행되는 예시적 동작 흐름도이다.FIG. 5 is an exemplary operational flow diagram performed by the knowledgebase model build / update unit 308 of FIG. 3, in accordance with an embodiment of the present disclosure.
이하, 첨부 도면을 참조하여 본 개시의 실시예에 관하여 상세히 설명한다. 이하에서는, 본 개시의 요지를 불필요하게 흐릴 우려가 있다고 판단되는 경우, 이미 공지된 기능 및 구성에 관한 구체적인 설명을 생략한다. 또한, 이하에서 설명하는 내용은 어디까지나 본 개시의 일 실시예에 관한 것일 뿐 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the following, when it is determined that there is a risk of unnecessarily obscuring the subject matter of the present disclosure, a detailed description of already known functions and configurations will be omitted. In addition, it should be understood that what is described below is only related to an embodiment of the present disclosure, but the present disclosure is not limited thereto.
본 개시에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 개시를 한정하려는 의도에서 사용된 것이 아니다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 개시에서 사용되는 "및/또는"이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다' 또는 '가지다' 등의 용어는 본 개시 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the present disclosure. For example, a component expressed in the singular should be understood as a concept including a plurality of components unless the context clearly indicates the singular. It is to be understood that the term "and / or" as used in this disclosure encompasses all possible combinations by one or more of the listed items. The terms 'comprise' or 'having' as used in the present disclosure are merely intended to designate that there exists a feature, number, step, operation, component, part, or combination thereof described on the present disclosure. It is not intended to exclude the possibility of the presence or the addition of one or more other features or numbers, steps, actions, components, parts or combinations thereof by use.
본 개시의 실시예에 있어서 '모듈' 또는 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 또는 '부'는, 특정한 하드웨어로 구현될 필요가 있는 '모듈' 또는 '부'를 제외하고는, 적어도 하나의 소프트웨어 모듈로 일체화되어 적어도 하나의 프로세서에 의해 구현될 수 있다.In the exemplary embodiment of the present disclosure, the module or the unit means a functional part that performs at least one function or operation, and may be implemented in hardware or software or in a combination of hardware and software. Also, a plurality of 'modules' or 'units' may be integrated by at least one software module and implemented by at least one processor, except for 'modules' or 'units', which need to be implemented by specific hardware. have.
본 개시의 실시예에 있어서 '대화형 AI 에이전트 시스템'은, 사용자와의 사이에서 음성 및/또는 텍스트 형태의 자연어를 매개로 한 대화형 인터랙션을 통해, 사용자로부터 입력되는 자연어 입력(예컨대, 자연어로 된 사용자로부터의 명령, 진술, 요청, 질문 등)을 수신 및 해석하여 사용자의 인텐트(intent)를 알아내고 그 알아낸 사용자의 인텐트에 기초하여 필요한 동작 수행, 즉 적절한 대화 응답의 제공 및/또는 태스크의 수행을 제공할 수 있는 임의의 정보 처리 시스템을 지칭할 수 있으며, 특정 형태로 제한되는 것은 아니다.In an embodiment of the present disclosure, the interactive AI agent system may be a natural language input (eg, a natural language) input from a user through an interactive interaction with a user through a natural language in the form of voice and / or text. Receive and interpret commands, statements, requests, questions, etc.) from a user who has been determined to determine the user's intent and perform the necessary actions based on that user's intent, i.e. provide appropriate conversational response and / or Or any information processing system capable of providing performance of a task, without being limited to a particular form.
본 개시의 실시예에 있어서, '대화형 AI 에이전트 시스템'에 의해 제공되는 대화 응답은 시각, 청각 및/또는 촉각 형태(예컨대, 음성, 음향, 텍스트, 비디오, 이미지, 기호, 이모티콘, 하이퍼링크, 애니메이션, 각종 노티스, 모션, 햅틱 피드백 등을 포함할 수 있으며, 이로써 제한되는 것은 아님) 등 다양한 형태로써 제공될 수 있음을 알아야 한다. 본 개시의 실시예에 있어서 '대화형 AI 에이전트 시스템'에 의해 수행되는 태스크는, 예컨대 정보의 검색, 결재 진행, 메시지 작성, 이메일 작성, 전화 걸기, 음악 재생, 사진 촬영, 사용자 위치 탐색, 지도/내비게이션 서비스 등을 비롯한 각종 다양한 형태의 태스크(다만, 예시일 뿐이며 이로써 제한되는 것은 아님)를 포함할 수 있다.In an embodiment of the present disclosure, the dialogue response provided by the 'interactive AI agent system' may be in visual, auditory and / or tactile form (eg, voice, sound, text, video, image, symbol, emoticon, hyperlink, It may be included in various forms such as, but not limited to, animation, various knots, motion, haptic feedback, and the like. Tasks performed by the interactive AI agent system in embodiments of the present disclosure may, for example, retrieve information, proceed with payment, create a message, create an email, make a phone call, play music, take a picture, search for a user's location, map / Various types of tasks (including, but not limited to, navigation services) may be included.
본 개시의 실시예에 있어서 '대화형 AI 에이전트 시스템'은, 메신저 플랫폼에 기초한 챗봇(chatbot) 시스템, 예컨대 메신저 상에서 사용자와 메시지를 주고받으며 사용자가 원하는 다양한 정보를 제공하거나 태스크를 수행하는 챗봇 시스템을 포함할 수 있으며, 다만 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.In an embodiment of the present disclosure, an interactive AI agent system is a chatbot system based on a messenger platform, for example, a chatbot system that exchanges messages with a user on a messenger and provides various information desired by the user or performs a task. It is to be understood that the present disclosure is not limited thereto.
덧붙여, 달리 정의되지 않는 한 기술적 또는 과학적인 용어를 포함하여, 본 개시에서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의된 용어들은, 관련 기술의 문맥상 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 개시에서 명백하게 달리 정의하지 않는 한 과도하게 제한 또는 확장하여 해석되지 않는다는 점을 알아야 한다.In addition, all terms used in this disclosure, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by one of ordinary skill in the art to which this disclosure belongs. It is to be understood that the terms used in the dictionary, which are generally used, should be interpreted as having a meaning consistent with the contextual meaning of the related art, and shall not be construed as being excessively limited or extended unless clearly defined otherwise in the present disclosure. .
이하, 첨부된 도면을 참조하여, 본 개시의 실시예에 대해 구체적으로 설명하기로 한다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은, 본 개시의 일 실시예에 따라, 대화형 AI 에이전트 시스템이 구현될 수 있는 시스템 환경(100)을 개략적으로 도시한 도면이다. 도시된 바에 의하면, 시스템 환경(100)은, 복수의 사용자 단말(102a-102n), 통신망(104), 대화형 AI 에이전트 서버(106), 및 외부 서비스 서버(108)를 포함한다.1 is a diagram schematically illustrating a system environment 100 in which an interactive AI agent system may be implemented, in accordance with an embodiment of the present disclosure. As shown, the system environment 100 includes a plurality of user terminals 102a-102n, a communication network 104, an interactive AI agent server 106, and an external service server 108.
본 개시의 일 실시예에 의하면, 복수의 사용자 단말(102a-102n) 각각은 유선 또는 무선 통신 기능을 구비한 임의의 사용자 전자 장치일 수 있다. 사용자 단말(102a-102n) 각각은, 예컨대 스마트 폰, 태블릿 PC, 뮤직 플레이어, 스마트 스피커, 데스크탑, 랩탑, PDA, 게임 콘솔, 디지털 TV, 셋탑박스 등을 포함한 다양한 유선 또는 무선 통신 단말일 수 있으며, 특정 형태로 제한되지 않음을 알아야 한다. 본 개시의 일 실시예에 의하면, 사용자 단말(102a-102n) 각각은, 통신망(104)을 통해서, 대화형 AI 에이전트 서버(106)와 통신, 즉 필요한 정보를 송수신할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 단말(102a-102n) 각각은, 통신망(104)을 통해서, 외부 서비스 서버(108)와 통신, 즉 필요한 정보를 송수신할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 단말(102a-102n) 각각은, 외부로부터 음성 및/또는 텍스트 형태의 사용자 입력을 수신할 수 있고, 통신망(104)을 통한 대화형 AI 에이전트 서버(106) 및/또는 외부 서비스 서버(108)와의 통신(및/또는 사용자 단말(102a-102n) 내 처리)을 통해 얻어진, 위 사용자 입력에 대응한 동작 결과(예컨대, 특정 대화 응답의 제공 및/또는 특정 태스크의 수행 등)를 사용자에게 제공할 수 있다. According to one embodiment of the present disclosure, each of the plurality of user terminals 102a-102n may be any user electronic device having a wired or wireless communication function. Each of the user terminals 102a-102n may be various wired or wireless communication terminals including, for example, a smartphone, a tablet PC, a music player, a smart speaker, a desktop, a laptop, a PDA, a game console, a digital TV, a set-top box, and the like. It should be understood that it is not limited to any particular form. According to one embodiment of the present disclosure, each of the user terminals 102a-102n may communicate with the interactive AI agent server 106, that is, send and receive necessary information, through the communication network 104. According to one embodiment of the present disclosure, each of the user terminals 102a-102n may communicate with the external service server 108, that is, transmit and receive necessary information through the communication network 104. According to one embodiment of the present disclosure, each of the user terminals 102a-102n may receive user input in the form of voice and / or text from the outside, and communicate with the interactive AI agent server 106 via the communication network 104. And / or an operation result corresponding to the above user input (eg, providing a specific conversation response and / or a specific task) obtained through communication with the external service server 108 (and / or processing in the user terminals 102a-102n). May be provided to the user.
본 개시의 일 실시예에 의하면, 사용자 단말(102a-102n) 각각은, 사용자 입력에 대응한 동작 결과로서의 대화 응답을, 시각, 청각 및/또는 촉각 형태(예컨대, 음성, 음향, 텍스트, 비디오, 이미지, 기호, 이모티콘, 하이퍼링크, 애니메이션, 각종 노티스, 모션, 햅틱 피드백 등을 포함할 수 있으며, 이로써 제한되는 것은 아님) 등 다양한 형태로써 사용자에게 제공할 수 있다. 본 개시의 실시예에 있어서, 사용자 입력에 대응한 동작으로서의 태스크 수행은, 예컨대 정보의 검색, 결재 진행, 메시지 작성, 이메일 작성, 전화 걸기, 음악 재생, 사진 촬영, 사용자 위치 탐색, 지도/내비게이션 서비스 등을 비롯한 각종 다양한 형태의 태스크(그러나 이로써 제한되는 것은 아님) 수행을 포함할 수 있다.According to one embodiment of the present disclosure, each of the user terminals 102a-102n may have a conversational response as a result of an operation corresponding to a user input in a visual, audio, and / or tactile form (eg, voice, sound, text, video, And images, symbols, emoticons, hyperlinks, animations, various notes, motions, haptic feedback, and the like, but are not limited thereto. In an embodiment of the present disclosure, performing a task as an operation corresponding to a user input includes searching for information, proceeding with payment, writing a message, writing an email, making a phone call, playing a music, taking a picture, searching for a user's location, and a map / navigation service. And various types of tasks, including, but not limited to, performing such tasks.
본 개시의 일 실시예에 의하면, 통신망(104)은, 임의의 유선 또는 무선 통신망, 예컨대 TCP/IP 통신망을 포함할 수 있다. 본 개시의 일 실시예에 의하면, 통신망(104)은, 예컨대 Wi-Fi망, LAN망, WAN망, 인터넷망 등을 포함할 수 있으며, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 일 실시예에 의하면, 통신망(104)은, 예컨대 이더넷, GSM, EDGE(Enhanced Data GSM Environment), CDMA, TDMA, OFDM, 블루투스, VoIP, Wi-MAX, Wibro 기타 임의의 다양한 유선 또는 무선 통신 프로토콜을 이용하여 구현될 수 있다.According to one embodiment of the present disclosure, communication network 104 may include any wired or wireless communication network, such as a TCP / IP communication network. According to one embodiment of the present disclosure, the communication network 104 may include, for example, a Wi-Fi network, a LAN network, a WAN network, an Internet network, and the like, but the present disclosure is not limited thereto. According to one embodiment of the present disclosure, the communication network 104 may include, for example, Ethernet, GSM, Enhanced Data GSM Environment (EDGE), CDMA, TDMA, OFDM, Bluetooth, VoIP, Wi-MAX, Wibro, and any other various wired or wireless. It may be implemented using a communication protocol.
본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 통신망(104)을 통해 사용자 단말(102a-102n)과 통신할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 통신망(104)을 통해 사용자 단말(102a-102n)과 필요한 정보를 송수신하고, 이를 통해 사용자 단말(102a-102n) 상에서 수신된 사용자 입력에 대응한, 즉 사용자 인텐트에 부합하는 동작 결과가, 사용자에게 제공되도록 동작할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 예컨대 통신망(104)을 통해 사용자 단말(102a-102n)로부터 음성 및/또는 텍스트 형태의 사용자 자연어 입력을 수신하고, 미리 준비된 지식베이스 모델에 기초해서 그 수신된 자연어 입력을 처리하여 사용자의 인텐트(intent)를 결정할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 미리 준비된 대화 흐름 관리를 위한 지식베이스 모델에 기초해서 위 결정된 사용자 인텐트에 대응하는 동작을 수행할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 다양한 경로를 통하여 실제 사람들 간의 대화로부터 획득된 대화 로그들(예컨대, 복수의 사용자 및/또는 시스템 발화 기록의 녹취록 등으로부터 획득된 대화 로드들을 포함할 수 있음)을 수집하고, 그 수집된 대화 로그들을 학습함으로써 사용자 입력의 인텐트 결정 및/또는 대화 흐름의 관리를 위한 다양한 지식베이스 모델들을 구축 및 갱신할 수 있다.According to one embodiment of the present disclosure, the interactive AI agent server 106 may communicate with the user terminals 102a-102n via the communication network 104. According to an embodiment of the present disclosure, the interactive AI agent server 106 transmits and receives necessary information with the user terminals 102a-102n through the communication network 104, and thereby receives them on the user terminals 102a-102n. The operation result corresponding to the input user input, that is, the user intent, may be provided to the user. According to an embodiment of the present disclosure, the interactive AI agent server 106 receives user natural language input in the form of voice and / or text from the user terminals 102a-102n, for example, via the communication network 104, and is prepared in advance. Based on the knowledge base model, the received natural language input can be processed to determine the user's intent. According to an embodiment of the present disclosure, the interactive AI agent server 106 may perform an operation corresponding to the user intent determined above based on a knowledge base model for conversation flow management prepared in advance. According to one embodiment of the present disclosure, the interactive AI agent server 106 obtains from conversation logs (eg, transcripts of a plurality of user and / or system utterance records, etc.) obtained from conversations between real people through various paths. Collected chat logs) and learn the collected chat logs to build and update various knowledge base models for intent determination of user input and / or management of chat flow.
본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 예컨대 사용자 인텐트에 부합하는 특정한 대화 응답을 생성하여 사용자 단말(102a-102n)로 전송할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 위 결정된 사용자 인텐트에 기초하여, 대응하는 대화 응답을 음성 및/또는 텍스트 형태로써 생성하고, 생성된 응답을, 통신망(104)을 통해, 사용자 단말(102a-102n)로 전달할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)에 의해 생성되는 대화 응답은, 전술한 음성 및/또는 텍스트 형태의 자연어 응답과 함께, 이미지, 비디오, 기호, 이모티콘 등 다른 시각적 요소들이나, 음향 등의 다른 청각적 요소들이나, 기타 다른 촉각적 요소들을 포함할 수 있다. According to one embodiment of the present disclosure, the interactive AI agent server 106 may generate a specific conversation response that corresponds to, for example, a user intent, and send it to the user terminals 102a-102n. According to an embodiment of the present disclosure, the interactive AI agent server 106 generates, based on the user intent determined above, a corresponding conversation response in voice and / or text form, and generates the generated response in a communication network ( Via 104, it may be delivered to the user terminals 102a-102n. According to one embodiment of the present disclosure, the conversation response generated by the interactive AI agent server 106, along with the above-described natural language response in the form of voice and / or text, other visual elements such as images, videos, symbols, emoticons, etc. Or other acoustic elements such as sound, sound, or other tactile elements.
본 개시의 일 실시예에 의하면, 사용자 단말(102a-102n) 상에서 수신된 사용자 입력의 형태(예컨대, 음성 입력인지 아니면 텍스트 입력인지)에 따라, 대화형 AI 에이전트 서버(106) 상에서 동일한 형태의 응답이 생성될 수 있으며(예컨대, 음성 입력이 주어진 경우에는 음성 응답이 생성되고 텍스트 입력이 주어진 경우에는 텍스트 응답이 생성됨), 다만 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 사용자 입력의 형태와 무관하게 음성 및/또는 텍스트 형태의 응답이 생성 및 제공될 수 있음을 알아야 한다.According to one embodiment of the present disclosure, the same type of response on the interactive AI agent server 106, depending on the type of user input received on the user terminals 102a-102n (eg, voice or text input). May be generated (eg, a voice response is generated if a voice input is given and a text response is generated if a text input is given), but the present disclosure is not so limited. In accordance with another embodiment of the present disclosure, it should be appreciated that responses in the form of voice and / or text may be generated and provided regardless of the form of user input.
본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 앞서 언급한 바와 같이, 통신망(104)을 통해서 외부 서비스 서버(108)와 통신할 수 있다. 외부 서비스 서버(108)는, 예컨대 메시징 서비스 서버, 온라인 상담 센터 서버, 온라인 쇼핑몰 서버, 정보 검색 서버, 지도 서비스 서버, 네비게이션 서비스 서버 등일 수 있으며, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)로부터 사용자 단말(102a-102n)로 전달되는, 사용자 인텐트에 기초한 대화 응답은, 예컨대 외부 서비스 서버(108)로부터 검색 및 획득된 데이터 콘텐츠를 포함한 것일 수 있음을 알아야 한다.According to one embodiment of the present disclosure, the interactive AI agent server 106 may communicate with the external service server 108 via the communication network 104, as mentioned above. The external service server 108 may be, for example, a messaging service server, an online consultation center server, an online shopping mall server, an information retrieval server, a map service server, a navigation service server, and the like, but the present disclosure is not limited thereto. According to one embodiment of the present disclosure, a conversation response based on user intent, delivered from the interactive AI agent server 106 to the user terminals 102a-102n, is retrieved and obtained from, for example, the external service server 108. It should be understood that this may include data content.
본 도면에서는, 대화형 AI 에이전트 서버(106)가 외부 서비스 서버(108)와 통신망(104)을 통해 통신 가능하게 구성된 별도의 물리 서버인 것으로 도시되어 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 예컨대 온라인 상담 센터 서버 또는 온라인 쇼핑몰 서버 등 각종 서비스 서버의 일부로 포함되어 구성될 수도 있음을 알아야 한다.In this figure, the interactive AI agent server 106 is shown as a separate physical server configured to communicate with the external service server 108 via the communication network 104, but the present disclosure is not limited thereto. According to another embodiment of the present disclosure, it should be understood that the interactive AI agent server 106 may be included as part of various service servers such as an online consultation center server or an online shopping mall server.
도 2는, 본 개시의 일 실시예에 따른, 도 1에 도시된 사용자 단말(102)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 사용자 단말(102)은, 사용자 입력 수신 모듈(202), 센서 모듈(204), 프로그램 메모리 모듈(206), 프로세싱 모듈(208), 통신 모듈(210), 및 응답 출력 모듈(212)을 포함한다.2 is a functional block diagram schematically showing the functional configuration of the user terminal 102 shown in FIG. 1, according to an embodiment of the present disclosure. As shown, the user terminal 102 includes a user input receiving module 202, a sensor module 204, a program memory module 206, a processing module 208, a communication module 210, and a response output module ( 212).
본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 사용자로부터 다양한 형태의 입력, 예컨대 음성 입력 및/또는 텍스트 입력 등의 자연어 입력(및 부가적으로 터치 입력 등의 다른 형태의 입력)을 수신할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 예컨대 마이크로폰 및 오디오 회로를 포함하며, 마이크로폰을 통해 사용자 음성 입력 신호를 획득하고 획득된 신호를 오디오 데이터로 변환할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 예컨대 마우스, 조이스틱, 트랙볼 등의 각종 포인팅 장치, 키보드, 터치패널, 터치스크린, 스타일러스 등 다양한 형태의 입력 장치를 포함할 수 있고, 이들 입력 장치를 통해 사용자로부터 입력된 텍스트 입력 및/또는 터치 입력 신호를 획득할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)에서 수신되는 사용자 입력은, 소정의 태스크 수행, 예컨대 소정의 애플리케이션 실행이나 소정 정보의 검색 등과 연관될 수 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 사용자 입력 수신 모듈(202)에서 수신되는 사용자 입력은, 소정의 애플리케이션 실행이나 정보의 검색 등과는 무관하게 단순한 대화 응답 만을 필요로 하는 것일 수도 있다. According to an embodiment of the present disclosure, the user input receiving module 202 may input various types of inputs from a user, for example, natural language inputs such as voice inputs and / or text inputs (and additionally other types of inputs such as touch inputs). ) Can be received. According to an embodiment of the present disclosure, the user input receiving module 202 may include, for example, a microphone and an audio circuit, and may acquire a user voice input signal through the microphone and convert the obtained signal into audio data. According to an embodiment of the present disclosure, the user input receiving module 202 may include various pointing devices such as a mouse, a joystick, a trackball, a keyboard, a touch panel, a touch screen, a stylus, and the like. The user may acquire text input and / or touch input signals input from the user through these input devices. According to an embodiment of the present disclosure, the user input received by the user input receiving module 202 may be associated with performing a predetermined task, for example, executing a predetermined application or retrieving predetermined information, but the present disclosure is limited thereto. It is not. According to another embodiment of the present disclosure, the user input received by the user input receiving module 202 may require only a simple conversation response regardless of execution of a predetermined application or retrieval of information.
본 개시의 일 실시예에 의하면, 센서 모듈(204)은 하나 이상의 서로 다른 유형의 센서를 포함하고, 이들 센서를 통해 사용자 단말(102)의 상태 정보, 예컨대 해당 사용자 단말(102)의 물리적 상태, 소프트웨어 및/또는 하드웨어 상태, 또는 사용자 단말(102)의 주위 환경 상태에 관한 정보 등을 획득할 수 있다. 본 개시의 일 실시예에 의하면, 센서 모듈(204)은, 예컨대 광 센서를 포함하고, 광 센서를 통해 해당 사용자 단말(102)의 주변 광 상태를 감지할 수 있다. 본 개시의 일 실시예에 의하면, 센서 모듈(204)은, 예컨대 이동 센서를 포함하고, 이동 센서를 통해 해당 사용자 단말(102)의 이동 상태 여부를 감지할 수 있다. 본 개시의 일 실시예에 의하면, 센서 모듈(204)은, 예컨대 속도 센서 및 GPS 센서를 포함하고, 이들 센서를 통해 해당 사용자 단말(102)의 위치 및/또는 배향 상태를 감지할 수 있다. 본 개시의 다른 실시예에 의하면, 센서 모듈(204)은 온도 센서, 이미지 센서, 압력 센서, 접촉 센서 등을 비롯한 다른 다양한 형태의 센서를 포함할 수 있음을 알아야 한다.According to one embodiment of the present disclosure, the sensor module 204 includes one or more different types of sensors, through which the status information of the user terminal 102, such as the physical state of the corresponding user terminal 102, The software and / or hardware state or information about the environment state of the user terminal 102 may be obtained. According to an embodiment of the present disclosure, the sensor module 204 may include, for example, an optical sensor, and detect an ambient light state of the corresponding user terminal 102 through the optical sensor. According to an embodiment of the present disclosure, the sensor module 204 may include, for example, a movement sensor, and detect whether the corresponding user terminal 102 is moved through the movement sensor. According to an embodiment of the present disclosure, the sensor module 204 may include, for example, a speed sensor and a GPS sensor, and may detect a position and / or orientation state of the corresponding user terminal 102 through these sensors. According to another embodiment of the present disclosure, it should be appreciated that the sensor module 204 may include other various types of sensors, including temperature sensors, image sensors, pressure sensors, contact sensors, and the like.
본 개시의 일 실시예에 의하면, 프로그램 메모리 모듈(206)은, 사용자 단말(102) 상에서 실행될 수 있는 각종 프로그램, 예컨대 각종 애플리케이션 프로그램 및 관련 데이터 등이 저장된 임의의 저장 매체일 수 있다. 본 개시의 일 실시예에 의하면, 프로그램 메모리 모듈(206)에는, 예컨대 전화 걸기 애플리케이션, 이메일 애플리케이션, 인스턴트 메시징 애플리케이션, 카메라 애플리케이션, 음악 재생 애플리케이션, 비디오 재생 애플리케이션, 이미지 관리 애플리케이션, 지도 애플리케이션, 브라우저 애플리케이션 등을 비롯한 다양한 애플리케이션 프로그램들과 이들 프로그램의 실행과 관련된 데이터들이 저장될 수 있다. 본 개시의 일 실시예에 의하면, 프로그램 메모리 모듈(206)은, DRAM, SRAM, DDR RAM, ROM, 자기 디스크, 광 디스크, 플래시 메모리 등 다양한 형태의 휘발성 또는 비휘발성 메모리를 포함하도록 구성될 수 있다.According to an embodiment of the present disclosure, the program memory module 206 may be any storage medium in which various programs, for example, various application programs and related data, which may be executed on the user terminal 102, are stored. According to one embodiment of the present disclosure, the program memory module 206 includes, for example, a dialing application, an email application, an instant messaging application, a camera application, a music playback application, a video playback application, an image management application, a map application, a browser application, and the like. Various application programs, including, and data associated with the execution of these programs can be stored. According to an embodiment of the present disclosure, the program memory module 206 may be configured to include various types of volatile or nonvolatile memory such as DRAM, SRAM, DDR RAM, ROM, magnetic disk, optical disk, flash memory, and the like. .
본 개시의 일 실시예에 의하면, 프로세싱 모듈(208)은, 사용자 단말(102)의 각 컴포넌트 모듈과 통신하고 사용자 단말(102) 상에서 각종 연산을 수행할 수 있다. 본 개시의 일 실시예에 의하면, 프로세싱 모듈(208)은, 프로그램 메모리 모듈(206) 상의 각종 애플리케이션 프로그램을 구동 및 실행시킬 수 있다. 본 개시의 일 실시예에 의하면, 프로세싱 모듈(208)은, 필요한 경우, 사용자 입력 수신 모듈(202) 및 센서 모듈(204)에서 획득된 신호를 수신하고, 이들 신호에 관한 적절한 처리를 수행할 수 있다. 본 개시의 일 실시예에 의하면, 프로세싱 모듈(208)은, 필요한 경우, 통신 모듈(210)을 통해 외부로부터 수신되는 신호에 대해 적절한 처리를 수행할 수 있다.According to one embodiment of the present disclosure, the processing module 208 may communicate with each component module of the user terminal 102 and perform various operations on the user terminal 102. According to one embodiment of the present disclosure, the processing module 208 may drive and execute various application programs on the program memory module 206. According to one embodiment of the present disclosure, the processing module 208 may receive the signals obtained by the user input receiving module 202 and the sensor module 204 and perform appropriate processing on these signals, if necessary. have. According to one embodiment of the present disclosure, the processing module 208 may perform appropriate processing on a signal received from the outside through the communication module 210 if necessary.
본 개시의 일 실시예에 의하면, 통신 모듈(210)은, 사용자 단말(102)이 도 1의 통신망(104)을 통하여, 대화형 AI 에이전트 서버(106) 및/또는 외부 서비스 서버(108)와 통신할 수 있게 한다. 본 개시의 일 실시예에 의하면, 통신 모듈(212)은, 예컨대 사용자 입력 수신 모듈(202) 및 센서 모듈(204) 상에서 획득된 신호가 소정의 프로토콜에 따라 통신망(104)을 통하여 대화형 AI 에이전트 서버(106) 및/또는 외부 서비스 서버(108)로 전송되도록 할 수 있다. 본 개시의 일 실시예에 의하면, 통신 모듈(210)은, 예컨대 통신망(104)을 통하여 대화형 AI 에이전트 서버(106) 및/또는 외부 서비스 서버(108)로부터 수신된 각종 신호, 예컨대 음성 및/또는 텍스트 형태의 자연어 응답을 포함한 응답 신호 또는 각종 제어 신호 등을 수신하고, 소정의 프로토콜에 따라 적절한 처리를 수행할 수 있다.According to one embodiment of the present disclosure, the communication module 210 is configured such that the user terminal 102 communicates with the interactive AI agent server 106 and / or the external service server 108 via the communication network 104 of FIG. 1. Enable communication According to an embodiment of the present disclosure, the communication module 212 is configured such that, for example, signals acquired on the user input receiving module 202 and the sensor module 204 may be interactive AI agents through the communication network 104 according to a predetermined protocol. May be sent to server 106 and / or external service server 108. According to one embodiment of the present disclosure, the communication module 210 may, for example, receive various signals, such as voice and / or the like, from the interactive AI agent server 106 and / or the external service server 108 via the communication network 104. Alternatively, a response signal or various control signals including a natural language response in text form may be received, and appropriate processing may be performed according to a predetermined protocol.
본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)은, 사용자 입력에 대응하는 응답을 시각, 청각 및/또는 촉각 등 다양한 형태로써 출력할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)은, 예컨대 LCD, LED, OLED, QLED 등의 기술에 기초한 터치 스크린 등의 각종 디스플레이 장치를 포함하고, 이들 디스플레이 장치를 통해 사용자 입력에 대응하는 시각적 응답, 예컨대 텍스트, 기호, 비디오, 이미지, 하이퍼링크, 애니메이션, 각종 노티스 등을 사용자에게 제시할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)은, 예컨대 스피커 또는 헤드셋을 포함하고, 사용자 입력에 대응하는 청각적 응답, 예컨대 음성 및/또는 음향 응답을 스피커 또는 헤드셋을 통해 사용자에게 제공할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)는 모션/햅틱 피드백 생성부를 포함하고, 이를 통해 촉각적 응답, 예컨대 모션/햅틱 피드백을 사용자에게 제공할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)은, 사용자 입력에 대응하는 텍스트 응답, 음성 응답 및 모션/햅틱 피드백 중 임의의 두 개이상의 조합을 동시에 제공할 수 있음을 알아야 한다.According to an embodiment of the present disclosure, the response output module 212 may output a response corresponding to a user input in various forms such as visual, auditory, and / or tactile. According to one embodiment of the present disclosure, the response output module 212 includes various display devices such as a touch screen based on technologies such as LCD, LED, OLED, QLED, etc., and responds to user input through these display devices. Visual responses such as text, symbols, videos, images, hyperlinks, animations, various notes, and the like, to the user. According to one embodiment of the present disclosure, the response output module 212 includes, for example, a speaker or a headset, and provides an audible response, such as a voice and / or acoustic response, to the user via the speaker or the headset, corresponding to a user input. can do. According to an embodiment of the present disclosure, the response output module 212 may include a motion / haptic feedback generator, thereby providing a tactile response, eg, motion / haptic feedback, to a user. In accordance with one embodiment of the present disclosure, it should be appreciated that the response output module 212 can simultaneously provide any two or more combinations of text response, voice response, and motion / haptic feedback corresponding to user input.
도 3은, 본 개시의 일 실시예에 따른, 도 1의 대화형 AI 에이전트 서버(106)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 대화형 에이전트 서버(106)는, 통신 모듈(302), 대화/태스크 처리부(304), 대화 로그 수집부(306) 및 지식베이스 모델 구축/갱신부(308)를 포함한다.3 is a functional block diagram schematically illustrating the functional configuration of the interactive AI agent server 106 of FIG. 1, in accordance with an embodiment of the present disclosure. As shown, the interactive agent server 106 includes a communication module 302, a chat / task processor 304, a chat log collector 306, and a knowledge base model build / update unit 308.
본 개시의 일 실시예에 의하면, 통신 모듈(302)은, 소정의 유선 또는 무선 통신 프로토콜에 따라, 통신망(104)을 통하여, 대화형 AI 에이전트 서버(106)가 사용자 단말(102) 및/또는 외부 서비스 서버(108)와 통신할 수 있게 한다. 본 개시의 일 실시예에 의하면, 통신 모듈(302)은, 통신망(104)을 통해, 사용자 단말(102)로부터 전송되어 온, 사용자로부터의 음성 입력 및/또는 텍스트 입력 등을 수신할 수 있다. 본 개시의 일 실시예에 의하면, 통신 모듈(302)은, 사용자 단말(102)로부터 전송되어 온 사용자로부터의 음성 입력 및/또는 텍스트 입력과 함께 또는 그와 별도로, 통신망(104)을 통해, 사용자 단말(102)로부터 전송되어온, 사용자 단말(102)의 상태 정보를 수신할 수 있다. 본 개시의 일 실시예에 의하면, 상태 정보는, 예컨대 사용자로부터의 음성 입력 및/또는 텍스트 입력 당시의 해당 사용자 단말(102)에 관련된 여러가지 상태 정보(예컨대, 사용자 단말(102)의 물리적 상태, 사용자 단말(102)의 소프트웨어 및/또는 하드웨어 상태, 사용자 단말(102) 주위의 환경 상태 정보 등)일 수 있다. 본 개시의 일 실시예에 의하면, 통신 모듈(302)은, 또한, 위 수신된 사용자 입력에 대응하여 대화형 AI 에이전트 서버(106)에서 생성된 대화 응답(예컨대, 음성 및/또는 텍스트 형태의 자연어 대화 응답 등) 및/또는 제어 신호를, 통신망(104)을 통해, 사용자 단말(102)로 전달하기 위해 필요한 적절한 조치를 수행할 수 있다.According to one embodiment of the present disclosure, the communication module 302 is configured such that the interactive AI agent server 106 is connected to the user terminal 102 and / or via the communication network 104 according to a predetermined wired or wireless communication protocol. Enable communication with an external service server 108. According to one embodiment of the present disclosure, the communication module 302 may receive voice input and / or text input from the user, transmitted from the user terminal 102, through the communication network 104. According to one embodiment of the present disclosure, the communication module 302, via or via the communication network 104, together with or separately from voice input and / or text input from the user that has been transmitted from the user terminal 102. Status information of the user terminal 102, which has been transmitted from the terminal 102, may be received. According to one embodiment of the present disclosure, the status information may include, for example, various status information related to the corresponding user terminal 102 at the time of voice input and / or text input (eg, physical state of the user terminal 102, user). Software and / or hardware status of the terminal 102, environmental status information around the user terminal 102, and the like. According to one embodiment of the present disclosure, the communication module 302 may further include a conversation response (eg, voice and / or textual natural language) generated by the interactive AI agent server 106 in response to the received user input. And / or control signals, etc.) and / or control signals may be performed as necessary to communicate to the user terminal 102 via the communication network 104.
본 개시의 일 실시예에 의하면, 대화/태스크 처리부(304)는, 통신 모듈(302)을 통하여 사용자 단말(102)로부터의 사용자 자연어 입력을 수신하고, 미리 준비된 소정의 지식베이스 모델을 기초로 이를 처리하여, 사용자 자연어 입력에 대응한 사용자의 인텐트(intent)를 결정할 수 있다. 본 개시의 일 실시예에 의하면, 대화/태스크 처리부(304)는 또한 결정된 사용자 인텐트에 부합하는 동작, 예컨대 적절한 대화 응답 및/또는 태스크 수행을 제공할 수 있다. According to an embodiment of the present disclosure, the conversation / task processing unit 304 receives a user natural language input from the user terminal 102 through the communication module 302 and based on a predetermined knowledge base model prepared in advance. By processing, the user's intent corresponding to the user natural language input may be determined. According to one embodiment of the present disclosure, the conversation / task processing unit 304 may also provide an operation corresponding to the determined user intent, such as proper conversation response and / or task performance.
본 개시의 일 실시예에 의하면, 대화 로그 수집부(306)는, 임의의 다양한 방식에 의해 수집된 대화 상의 각 대화 로그들을 수신 및 저장할 수 있다. 본 개시의 일 실시예에 의하면, 대화 로그 수집부(306)에서 수신 및 저장되는 대화 로그들은, 예컨대 상담 센터의 고객과 상담원 간의 실제 대화의 녹취록 등과 같은, 실제 사람들 간의 대화의 녹취 기록일 수 있다. 따라서, 대화 로그 수집부(306) 상에 수집 및 저장된 대화 로그 각각은 다양한 엔티티 정보들, 특히 이름, 주민번호, 사용자 ID, 전화번호, 이메일, 주소 등을 비롯한 각종 개인정보와 같은, 법률이나 기타 여러가지 이유에 의해 비식별화가 요구되는 정보를 포함하고 있을 수 있다. According to one embodiment of the present disclosure, the conversation log collecting unit 306 may receive and store each conversation log on the conversation collected by any of various methods. According to one embodiment of the present disclosure, the conversation logs received and stored in the conversation log collector 306 may be recording records of conversations between real people, such as recordings of actual conversations between a customer and an agent of a counseling center. . Thus, each of the conversation logs collected and stored on the conversation log collection unit 306 may be a variety of entity information, in particular laws or other such as various personal information, including name, social security number, user ID, telephone number, email, address, etc. It may contain information that requires de-identification for various reasons.
본 개시의 일 실시예에 의하면, 지식베이스 모델 구축/갱신부(308)는, 전술한 대화 로그 수집부(306) 상의 각 대화 로그들을 이용한 학습을 통해 대화형 AI 에이전트 서버(106)를 위한 각종 지식베이스 모델(예컨대, 인텐트 결정이나 대화 흐름 관리를 위한 다양한 지식베이스 모델들)을 구축 및/또는 갱신할 수 있다. 그런데, 앞서 언급한 바와 같이, 대화 로그 수집부(306) 상의 각 대화 로그들은, 비식별화가 필요한 각종 엔티티 정보들을 포함하고 있을 수 있다. 전술한 바와 같이, 이러한 엔티티 정보는 대개 그 정보 내용(값) 자체가 대화형 AI 에이전트 시스템을 위한 학습에 도움이 되지는 않는다. 그렇지만, 이러한 학습을 위한 대화 로그들로부터, 전술한 것과 같은 엔티티 정보를 무작위로 삭제할 경우, 해당 대화 로그로부터의 인텐트 획득 자체가 불가능해질 수가 있다(예컨대, A와 B 간의 대화에서, 각자가 자신의 이름이나 전화 번호를 말하는 한편, 제3의 인물 C의 이름과 전화 번호에 대해서도 언급하는 등, 같은 유형의, 그러나 값은 다른 엔티티 정보가 여러 번 사용되는 경우, 이러한 이름이나 전화 번호 등의 정보를 일괄하여 삭제한다면, 각 대화 로그 상의 A와 B의 인텐트 자체가 훼손되거나 모호해질 수 있음). 본 개시의 일 실시예에 의하면, 지식베이스 모델 구축/갱신부(308)는, 대화 로그들을 이용한 학습에 앞서서, 학습하려는 대화 로그 중에 포함된 엔티티 정보에 대한 사전 처리를 수행할 수 있다. 이러한 지식베이스 모델 구축/갱신부(308)에 의한 사전 처리는, 전술한 대화 로그 상의 학습 가능성이 낮고 비식별화가 필요한 각 엔티티 정보를, 무작위로 삭제하는 대신, 해당 값을 임의의 다른 식별자로 교체하는 것일 수 있다. 예컨대, 지식베이스 모델 구축/갱신부(308)는, 사람들 간의 대화로부터 획득된 일련의 대화 로그 중에 각기 다른 사람들의 이름이 나타나는 경우, 각각의 이름 내용 자체(예컨대, 김철수, 이영희, 홍길동 등의 이름값)를 대신하여, 각각의 식별자(예컨대, 이름 1, 이름 2, 이름 3 등의 레이블)를 삽입하는 방식으로 사전 처리를 행할 수 있다. 이러한 사전 처리에 의해, 지식베이스 모델 구축/갱신부(308)는, 대화 로그 중의 엔티티 정보들을, 학습을 위한 목적은 해하지 않는 범위에서, 비식별화 시킬 수 있다. 본 개시의 일 실시예에 의하면, 지식베이스 모델 구축/갱신부(308)는, 사전 처리된 대화 로그들을 이용하여 학습하고, 그 결과에 기초하여 지식베이스 모델들의 구축 및/또는 갱신을 수행할 수 있다.According to an embodiment of the present disclosure, the knowledge base model building / update unit 308 may perform various types of operations for the interactive AI agent server 106 through learning using the respective conversation logs on the above-described conversation log collection unit 306. Knowledgebase models (eg, various knowledgebase models for intent determination or conversation flow management) can be built and / or updated. However, as mentioned above, each conversation log on the conversation log collecting unit 306 may include various entity information that needs to be de-identified. As mentioned above, such entity information usually does not help the learning of the information content itself. However, if you randomly delete the entity information as described above from the conversation logs for this learning, it may be impossible to obtain the intent from the conversation log itself (e.g. in a conversation between A and B While referring to the name or phone number of a person, while referring to the name and phone number of a third person C, the same type of information, such as the name or phone number, is used when different entity information is used multiple times. If you delete them in bulk, the intents of A and B on each conversation log may be compromised or obscured). According to an embodiment of the present disclosure, the knowledge base model building / updater 308 may perform preprocessing on the entity information included in the conversation log to be learned, prior to learning using the conversation logs. This pre-processing by the knowledge base model building / update unit 308 replaces each entity information with low learning possibility on the above-mentioned conversation log and needs to be de-identified, instead of randomly deleting its value with any other identifier. It may be. For example, when the names of different people appear in a series of conversation logs obtained from conversations between people, the knowledge base model building / update unit 308 may use the name value of each name itself (eg, Kim Chul-soo, Lee Young-hee, Hong Gil-dong, etc.). In place of), the preprocessing can be performed by inserting respective identifiers (e.g., labels such as name 1, name 2, name 3, etc.). By this pre-processing, the knowledge base model building / update unit 308 can de-identify the entity information in the conversation log to the extent that the purpose for learning does not harm. According to one embodiment of the present disclosure, the knowledgebase model building / updating unit 308 may learn using preprocessed conversation logs, and perform construction and / or updating of knowledgebase models based on the result. have.
도 4는, 본 개시의 일 실시예에 따른, 도 3의 대화/태스크 처리부(304)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 대화/태스크 처리부(302)는, 음성-텍스트 변환(Speech-To-Text; STT) 모듈(402), 자연어 이해(Natural Language Understanding; NLU) 모듈(404), 사용자 데이터베이스(406), 대화 이해 지식베이스 모델(408), 대화 관리 모듈(410), 대화 흐름 관리 지식베이스 모델(412), 대화 생성 모듈(414), 및 음성 합성(Text-To-Speech; TTS) 모듈(416)을 포함한다.4 is a functional block diagram schematically illustrating a functional configuration of the conversation / task processing unit 304 of FIG. 3, according to an embodiment of the present disclosure. As shown, the conversation / task processing unit 302 may include a speech-to-text (STT) module 402, a natural language understanding (NLU) module 404, and a user database 406. ), Conversation understanding knowledge base model 408, conversation management module 410, conversation flow management knowledge base model 412, conversation generation module 414, and text-to-speech (TTS) module 416 ).
본 개시의 일 실시예에 의하면, STT 모듈(402)은, 통신 모듈(302)을 통해 수신된 사용자 입력 중 음성 입력을 수신하고, 수신된 음성 입력을 패턴 매칭 등에 기초하여 텍스트 데이터로 변환할 수 있다. 본 개시의 일 실시예에 의하면, STT 모듈(402)은, 사용자의 음성 입력으로부터 특징을 추출하여 특징 벡터열을 생성할 수 있다. 본 개시의 일 실시예에 의하면, STT 모듈(402)은, DTW(Dynamic Time Warping) 방식이나 HMM 모델(Hidden Markov Model), GMM 모델(Gaussian-Mixture Mode), 딥 신경망 모델, n-gram 모델 등의 다양한 통계적 모델에 기초하여, 텍스트 인식 결과, 예컨대 단어들의 시퀀스를 생성할 수 있다. 본 개시의 일 실시예에 의하면, STT 모듈(402)은, 수신된 음성 입력을 패턴 매칭에 기초하여 텍스트 데이터로 변환할 때, 후술하는 사용자 데이터베이스(406)의 각 사용자 특징적 데이터를 참조할 수 있다. According to an embodiment of the present disclosure, the STT module 402 may receive a voice input among user inputs received through the communication module 302 and convert the received voice input into text data based on pattern matching or the like. have. According to one embodiment of the present disclosure, the STT module 402 may generate a feature vector sequence by extracting features from a user's voice input. According to an embodiment of the present disclosure, the STT module 402 may include a dynamic time warping (DTW) method, a HMM model (Hidden Markov Model), a GMM model (Gaussian-Mixture Mode), a deep neural network model, an n-gram model, and the like. Based on a variety of statistical models of, a text recognition result, such as a sequence of words, can be generated. According to an embodiment of the present disclosure, the STT module 402 may refer to each user characteristic data of the user database 406 described below when converting the received voice input into text data based on pattern matching. .
본 개시의 일 실시예에 의하면, NLU 모듈(404)은, 통신 모듈(302) 또는 STT 모듈(402)로부터 텍스트 입력을 수신할 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(404)에서 수신되는 텍스트 입력은, 예컨대 통신 모듈(302)에서 통신망(104)을 통하여 사용자 단말(102)로부터 수신되었던 사용자 텍스트 입력 또는 통신 모듈(302)에서 수신된 사용자 음성 입력으로부터 STT 모듈(402)에서 생성된 텍스트 인식 결과, 예컨대 단어들의 시퀀스일 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(404)은, 텍스트 입력을 수신하는 것과 함께 또는 그 이후에, 해당 사용자 입력과 연관된 상태 정보, 예컨대 해당 사용자 입력 당시의 사용자 단말(102)의 상태 정보 등을 수신할 수 있다. 전술한 바와 같이, 상태 정보는, 예컨대 사용자 단말(102)에서 사용자 음성 입력 및/또는 텍스트 입력 당시의 해당 사용자 단말(102)에 관련된 여러가지 상태 정보(예컨대, 사용자 단말(102)의 물리적 상태, 소프트웨어 및/또는 하드웨어 상태, 사용자 단말(102) 주위의 환경 상태 정보 등)일 수 있다.According to one embodiment of the present disclosure, the NLU module 404 may receive a text input from the communication module 302 or the STT module 402. According to one embodiment of the present disclosure, the text input received at the NLU module 404 is, for example, a user text input or communication module 302 that was received from the user terminal 102 via the communication network 104 at the communication module 302. ) May be a text recognition result generated by the STT module 402 from a user voice input received in the CPC, for example, a sequence of words. According to one embodiment of the present disclosure, the NLU module 404, along with or after receiving the text input, state information associated with the user input, such as state information of the user terminal 102 at the time of the user input. And the like. As described above, the status information may include, for example, various status information related to the corresponding user terminal 102 at the time of user voice input and / or text input (eg, physical state of the user terminal 102 and software). And / or hardware status, environmental status information around the user terminal 102, and the like.
본 개시의 일 실시예에 의하면, NLU 모듈(404)은, 후술하는 대화 이해 지식베이스 모델(408)에 기초하여, 위 수신된 텍스트 입력을 하나 이상의 사용자 인텐트(intent)에 대응시킬 수 있다. 여기서 사용자 인텐트는, 그 사용자 인텐트에 따라 대화형 AI 에이전트 서버(106)에 의해 이해되고 수행될 수 있는 일련의 동작(들)과 연관될 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(404)은, 수신된 텍스트 입력을 하나 이상의 사용자 인텐트에 대응시킴에 있어서 전술한 상태 정보를 참조할 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(404)은, 수신된 텍스트 입력을 하나 이상의 사용자 인텐트에 대응시킴에 있어서 후술하는 사용자 데이터베이스(406)의 각 사용자 특징적 데이터를 참조할 수 있다.According to one embodiment of the present disclosure, the NLU module 404 may map the received text input to one or more user intents based on the conversation understanding knowledge base model 408 described below. The user intent here may be associated with a series of action (s) that can be understood and performed by the interactive AI agent server 106 in accordance with the user intent. According to one embodiment of the present disclosure, the NLU module 404 may refer to the aforementioned state information in mapping the received text input to one or more user intents. According to one embodiment of the present disclosure, the NLU module 404 may refer to each user characteristic data of the user database 406 described below in mapping the received text input to one or more user intents.
본 개시의 일 실시예에 의하면, 사용자 데이터베이스(406)는, 각 사용자별 특징적 데이터를 저장 및 관리하는 데이터베이스일 수 있다. 본 개시의 일 실시예에 의하면, 사용자 데이터베이스(406)는, 예컨대 각 사용자별로 해당 사용자의 이전 대화 기록, 사용자의 발음 특징 정보, 사용자 어휘 선호도, 사용자의 소재지, 설정 언어, 연락처/친구 목록, 기타 다양한 사용자 특징적 정보를 포함할 수 있다. According to an embodiment of the present disclosure, the user database 406 may be a database that stores and manages characteristic data for each user. According to an embodiment of the present disclosure, the user database 406 may, for example, record a previous conversation of the user, pronunciation characteristic information of the user, user vocabulary preferences, the user's location, a setting language, a contact / friend list, etc. It may include various user characteristic information.
본 개시의 일 실시예에 의하면, 전술한 바와 같이, STT 모듈(402)은, 음성 입력을 텍스트 데이터로 변환할 때 사용자 데이터베이스(406)의 각 사용자 특징적 데이터, 예컨대 각 사용자별 발음 특징을 참조함으로써, 보다 정확한 텍스트 데이터를 얻을 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(404)은, 사용자 인텐트를 결정할 때 사용자 데이터베이스(406)의 각 사용자 특징적 데이터, 예컨대 각 사용자별 특징이나 맥락을 참조함으로써, 보다 정확한 사용자 인텐트 결정을 할 수 있다.According to one embodiment of the present disclosure, as described above, the STT module 402 refers to each user characteristic data of the user database 406, for example, a pronunciation characteristic for each user, when converting a voice input into text data. You can get more accurate text data. According to one embodiment of the present disclosure, the NLU module 404 determines the user intent more accurately by referring to each user characteristic data of the user database 406, such as each user specific feature or context when determining the user intent. can do.
본 도면에서는, 각 사용자별 특징적 데이터를 저장 및 관리하는 사용자 데이터베이스(406)가 대화형 AI 에이전트 서버(106)에 배치되는 것으로 도시되어 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 각 사용자별 특징적 데이터를 저장 및 관리하는 사용자 데이터베이스는, 예컨대 사용자 단말(102)에 존재할 수도 있고, 사용자 단말(102) 및 대화형 AI 에이전트 서버(106)에 분산되어 배치될 수도 있음을 알아야 한다.In this figure, a user database 406 for storing and managing characteristic data for each user is illustrated as being disposed in the interactive AI agent server 106, but the present disclosure is not so limited. According to another embodiment of the present disclosure, a user database for storing and managing characteristic data for each user may exist, for example, in the user terminal 102 and is distributed to the user terminal 102 and the interactive AI agent server 106. It should be understood that the arrangement may be made.
본 개시의 일 실시예에 의하면, 대화 관리 모듈(410)은, NLU 모듈(404)에 의해 결정된 사용자 인텐트에 따라, 그에 대응하는 일련의 동작 흐름을 생성할 수 있다. 본 개시의 일 실시예에 의하면, 대화 관리 모듈(310)은, 대화 흐름 관리 지식베이스 모델(412)에 기초하여, NLU 모듈(404)로부터 수신된 사용자 인텐트에 대응하여 어떠한 동작, 예컨대 어떠한 대화 응답 및/또는 태스크 수행을 행하여야 할지를 결정하고, 그에 따른 세부 동작 흐름을 생성할 수 있다. According to one embodiment of the present disclosure, the conversation management module 410 may generate a series of operation flows corresponding thereto according to the user intent determined by the NLU module 404. According to one embodiment of the present disclosure, the conversation management module 310, based on the conversation flow management knowledge base model 412, responds to any action, such as any conversation, in response to a user intent received from the NLU module 404. It may determine whether to perform a response and / or perform a task, and generate a detailed operation flow accordingly.
본 개시의 일 실시예에 의하면, 대화 이해 지식베이스 모델(408)은, 예컨대 미리 정의된 온톨로지 모델을 포함할 수 있다. 본 개시의 일 실시예에 의하면, 온톨로지 모델은, 예컨대 노드들 간의 계층 구조로 표현될 수 있는데, 각 노드는 사용자의 인텐트에 대응한 "인텐트" 노드 또는 "인텐트" 노드에 링크된 하위 "속성" 노드("인텐트" 노드에 직접 링크되거나 "인텐트" 노드의 "속성" 노드에 다시 링크된 하위 "속성" 노드) 중 하나일 수 있다. 본 개시의 일 실시예에 의하면, "인텐트" 노드와 그 "인텐트" 노드에 직접 또는 간접 링크된 "속성" 노드들은 하나의 도메인을 구성할 수 있고, 온톨로지는 이러한 도메인들의 집합으로 구성될 수 있다. 본 개시의 일 실시예에 의하면, 대화 이해 지식베이스 모델(408)은, 예컨대 대화형 AI 에이전트 시스템이 이해하고 그에 대응한 동작을 수행할 수 있는 모든 인텐트들에 각각 대응하는 도메인들을 포함하도록 구성될 수 있다. 본 개시의 일 실시예에 의하면, 온톨로지 모델은, 노드의 추가나 삭제, 또는 노드 간의 관계의 수정 등에 의해 동적으로 변경될 수 있음을 알아야 한다.According to one embodiment of the present disclosure, the conversation understanding knowledge base model 408 may include, for example, a predefined ontology model. According to one embodiment of the present disclosure, the ontology model may be represented, for example, in a hierarchical structure between nodes, each node being a "intent" node or a child linked to an "intent" node corresponding to the user's intent. It may be one of the "property" nodes (child "nodes" nodes that are linked directly to "intent" nodes or relinked to "property" nodes of "intent" nodes). According to one embodiment of the present disclosure, an "intent" node and "attribute" nodes that are directly or indirectly linked to the "intent" node may constitute one domain, and the ontology may consist of a collection of such domains. Can be. According to one embodiment of the present disclosure, the conversation understanding knowledge base model 408 is configured to include domains corresponding to all intents each of which, for example, the interactive AI agent system can understand and perform an operation corresponding thereto. Can be. According to one embodiment of the present disclosure, it should be understood that the ontology model may be dynamically changed by adding or deleting nodes, or modifying relationships between nodes.
본 개시의 일 실시예에 의하면, 온톨로지 모델 내의 각 도메인의 인텐트 노드 및 속성 노드들은, 그에 대응하는 사용자 인텐트 또는 속성들에 관련된 단어들 및/또는 구절들과 각각 연관될 수 있다. 본 개시의 일 실시예에 의하면, 대화 이해 지식베이스 모델(408)은, 온톨로지 모델을, 계층 구조의 노드들과, 각 노드 별로 연관된 단어들 및/또는 구절들의 집합으로 구성된, 예컨대 어휘 사전 형태(구체적으로 도시되지 않음)로 구현할 수 있고, NLU 모듈(404)은 이와 같이 어휘 사전 형태로 구현된 온톨로지 모델에 기초하여 사용자 인텐트를 결정할 수 있다. 예컨대, 본 개시의 일 실시예에 의하면, NLU 모듈(404)은, 텍스트 입력 또는 단어들의 시퀀스를 수신하면, 그 시퀀스 내의 각 단어들이 온톨로지 모델 내의 어떤 도메인의 어떤 노드들에 연관되는지 결정할 수 있고, 그러한 결정에 기초하여 대응하는 도메인, 즉 사용자 인텐트를 결정할 수 있다. According to one embodiment of the present disclosure, intent nodes and attribute nodes of each domain in the ontology model may be associated with words and / or phrases related to corresponding user intents or attributes, respectively. According to one embodiment of the present disclosure, the dialogue understanding knowledge base model 408 comprises an ontology model consisting of a hierarchy of nodes and a set of words and / or phrases associated with each node, for example in the form of a lexical dictionary ( The NLU module 404 may determine the user intent based on the ontology model implemented in the form of a lexical dictionary. For example, according to one embodiment of the present disclosure, when the NLU module 404 receives a text input or a sequence of words, the NLU module 404 may determine which words in which domain in the ontology model are associated with each word in the sequence, Based on such a determination, the corresponding domain, ie user intent, can be determined.
본 개시의 일 실시예에 의하면, 대화 흐름 관리 지식베이스 모델(412)은, 사용자 입력에 대응하는 인텐트에 부합하는 서비스를 제공하기 위하여 필요한 대화 또는 동작의 순차적 흐름 분포 모델을 포함할 수 있다. 본 개시의 일 실시예에 의하면, 구체적으로 도시되지는 않았으나, 대화 흐름 관리 지식베이스 모델(412)은, 각 인텐트에 대응하는 대화 패턴들의 라이브러리를 포함할 수 있다. According to an embodiment of the present disclosure, the conversation flow management knowledge base model 412 may include a sequential flow distribution model of conversations or actions required to provide a service corresponding to an intent corresponding to a user input. According to one embodiment of the present disclosure, although not specifically illustrated, the conversation flow management knowledge base model 412 may include a library of conversation patterns corresponding to each intent.
본 개시의 일 실시예에 의하면, 대화 생성 모듈(414)은, 대화 관리 모듈(410)에 의해 생성된 대화/동작 흐름에 기초하여 필요한 대화 응답을 생성할 수 있다. 본 개시의 일 실시예에 의하면, 대화 생성 모듈(414)은, 대화 응답 생성시, 예컨대 전술한 사용자 데이터베이스(406)의 사용자 특징적 데이터(예컨대, 사용자의 이전 대화 기록, 사용자의 발음 특징 정보, 사용자 어휘 선호도, 사용자의 소재지, 설정 언어, 연락처/친구 목록, 각 사용자별로 해당 사용자의 이전 대화 기록 등)를 참조할 수 있다.According to one embodiment of the present disclosure, the conversation generation module 414 may generate a necessary conversation response based on the conversation / action flow generated by the conversation management module 410. According to an embodiment of the present disclosure, the conversation generating module 414 may, when generating a conversation response, for example, the user characteristic data (eg, the user's previous conversation record, the user's pronunciation characteristic information, the user's pronunciation characteristic information) of the user database 406 described above. Vocabulary preferences, user's location, setting language, contact / friend list, history of each user's previous conversation, etc.).
본 개시의 일 실시예에 의하면, TTS 모듈(416)은, 대화 생성 모듈(414)에 의해 사용자 단말(102)로 전송되도록 생성된 대화 응답을 수신할 수 있다. TTS 모듈(418)에서 수신되는 대화 응답은 텍스트 형태를 갖는 자연어 또는 단어들의 시퀀스일 수 있다. 본 개시의 일 실시예에 의하면, TTS 모듈(418)은, 다양한 형태의 알고리즘에 따라, 위 수신된 텍스트 형태의 입력을 음성 형태로 변환할 수 있다.According to one embodiment of the present disclosure, the TTS module 416 may receive a conversation response generated to be sent to the user terminal 102 by the conversation generation module 414. The conversation response received at the TTS module 418 may be a natural language or a sequence of words in text form. According to an embodiment of the present disclosure, the TTS module 418 may convert the received text form input into a speech form according to various types of algorithms.
도 1 내지 4를 참조하여 전술한 본 개시의 실시예에서는, 대화형 AI 에이전트 시스템이 사용자 단말(102)과 대화형 AI 에이전트 서버(106) 간의 클라이언트-서버 모델, 특히 클라이언트는 오로지 사용자 입출력 기능만을 제공하고 그 외 대화형 AI 에이전트 시스템의 다른 모든 기능들을 서버에 위임된, 소위 "씬 클라이언트-서버 모델"에 기초하여 구현된 것과 같이 설명되어 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 대화형 AI 에이전트 시스템은 그 기능들이 사용자 단말과 서버 사이에 분배되어 구현될 수 있고, 또는 그와 달리 사용자 단말 상에 설치된 독립형 애플리케이션으로 구현될 수도 있음을 알아야 한다. 또한, 본 개시의 일 실시예에 따라 대화형 AI 에이전트 시스템이 그 기능들을 사용자 단말과 서버 사이에 분배하여 구현하는 경우, 클라이언트와 서버 사이의 대화형 AI 에이전트 시스템의 각 기능의 분배는 실시예마다 달리 구현될 수 있음을 알아야 한다. 또한, 도 1 내지 4를 참조하여 전술한 본 개시의 실시예에서는, 편의상 특정 모듈이 소정의 동작들을 수행하는 것처럼 설명되었으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 위 설명에서 어느 특정 모듈에 의해 수행되는 것과 같이 설명된 동작들이, 그와 다른 별개의 모듈에 의해 각각 수행될 수 있음을 알아야 한다.In the embodiment of the present disclosure described above with reference to FIGS. 1 to 4, the interactive AI agent system allows the client-server model between the user terminal 102 and the interactive AI agent server 106, in particular the client, to provide only user input / output functions. Although described as being implemented based on a so-called "thin client-server model," which provides and delegates all other functionality of the interactive AI agent system to the server, the present disclosure is not so limited. According to another embodiment of the present disclosure, the interactive AI agent system should be aware that the functions may be implemented by being distributed between the user terminal and the server, or alternatively, may be implemented as a standalone application installed on the user terminal. . In addition, when the interactive AI agent system distributes the functions between the user terminal and the server according to an embodiment of the present disclosure, the distribution of each function of the interactive AI agent system between the client and the server may vary from embodiment to embodiment. It should be appreciated that other implementations may be made. In addition, in the embodiment of the present disclosure described above with reference to FIGS. 1 to 4, for convenience, a specific module has been described as performing certain operations, but the present disclosure is not limited thereto. According to another embodiment of the present disclosure, it should be understood that the operations described as performed by any particular module in the above description may be performed by a separate module from each other.
도 5는, 본 개시의 일 실시예에 따른, 도 3의 지식베이스 모델 구축/갱신부(308)에 의해 수행되는 예시적 동작 흐름도이다.FIG. 5 is an exemplary operational flow diagram performed by the knowledgebase model build / update unit 308 of FIG. 3, in accordance with an embodiment of the present disclosure.
단계(502)에서, 지식베이스 모델 구축/갱신부(308)는, 임의의 다양한 방식으로 수집된 한 그룹의 대화 로그들이 지식베이스 모델 구축/갱신부(308) 상에서 수신될 수 있다. In step 502, the knowledge base model build / update unit 308 may receive a group of conversation logs collected in any of a variety of ways on the knowledge base model build / update unit 308.
그런 다음, 단계(504)에서, 수신된 대화 로그들 중에 포함된, 사전 처리가 필요한 엔티티 정보가 식별될 수 있다. 본 개시의 일 실시예에 의하면, 예컨대 사전 처리가 필요한 엔티티 정보는, 개인 정보 등과 같이 비식별화가 필요한 소정 유형의 정보일 수 있다. 본 개시의 일 실시예에 의하면, 비식별화가 필요한 개인 정보는, 예컨대 이름, 주민번호, 생년월일, 주소, 나이, 전화번호, ID, 이메일 주소 등의 정보일 수 있으며, 다만 이로써 제한되는 것은 아니다. 본 개시의 일 실시예에 의하면, 이러한 정보는, 예컨대 이들 각 정보의 표기 방식 등에 기초하여 식별될 수 있다.Then, in step 504, entity information that requires preprocessing, included among the received chat logs, may be identified. According to an embodiment of the present disclosure, for example, entity information requiring preprocessing may be any type of information that needs to be de-identified, such as personal information. According to one embodiment of the present disclosure, the personal information that needs to be de-identified may be, for example, information such as name, social security number, date of birth, address, age, telephone number, ID, email address, and the like, but is not limited thereto. According to an embodiment of the present disclosure, such information may be identified based on, for example, a method of notifying each of these pieces of information.
단계(506)에서, 대화 로그들 상에 나타난, 위 식별된 엔티티 정보의 각 유형을 판정하고, 각 유형마다 각기 다른 레이블을 이용해서 해당 엔티티 정보를 교체할 수 있다. 본 개시의 일 실시예에 의하면, 예컨대 해당 그룹 내의 대화 로그들 상에서 복수 개의 이름 정보가 나타나는 경우, 이들 각각의 이름 값(예컨대, "김철수", "이영희", "홍길동" 등)을 대신하여, "이름 1", "이름 2", ..., "이름 n" 형태의 레이블로 교체할 수 있다. 이때, 동일한 이름 값에는 동일한 레이블을 부여해야 하는 점을 알아야 한다(즉, 소정의 대화 로그에 나타난 어느 하나의 이름 값, 예컨대 "홍길동"에 "이름 1"을 부여하였다면, 그 대화 그룹 상의 해당 대화 로그 및 다른 대화 로그 중에 나타난 동일한 이름 값 "홍길동"에 대해서도 "이름 1"을 부여해야 함).In step 506, each type of entity information identified above, as indicated on the conversation logs, can be determined, and the respective entity information can be replaced using a different label for each type. According to one embodiment of the present disclosure, for example, when a plurality of name information appears on the conversation logs in the corresponding group, instead of each of these name values (eg, “Kim Chul Soo”, “Lee Young Hee”, “Hong Gil Dong”, etc.), Replace with a label of the form "Name 1", "Name 2", ..., "Name n". At this point, it should be noted that the same name value should be given the same label (i.e., if "Name 1" is assigned to any one of the name values shown in a given conversation log, e.g. "Hong Gil-dong", the corresponding conversation on the conversation group) "Name 1" should also be given to the same name value "Hong Gil-dong" that appears during the log and other chat logs).
그런 다음, 단계(508)에서, 지식베이스 모델 구축/갱신부(308)는, 단계(506)에서 처리(즉, 식별된 엔티티 정보들의 레이블에 의한 교체 처리)된 대화 로그들을 학습에 활용하고 그에 따라, 대화형 AI 에이전트 시스템을 위한 다양한 지식베이스 모델들을 구축 및 갱신할 수 있다.Then, in step 508, the knowledge base model building / updater 308 utilizes and uses the conversation logs processed in step 506 (i.e., replacement by labeling the identified entity information) for learning. Accordingly, various knowledge base models for the interactive AI agent system can be built and updated.
당업자라면 알 수 있듯이, 본 개시가 본 명세서에 기술된 예시에 한정되는 것이 아니라 본 개시의 범주를 벗어나지 않는 범위 내에서 다양하게 변형, 재구성 및 대체될 수 있다. 본 명세서에 기술된 다양한 기술들은 하드웨어 또는 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현될 수 있음을 알아야 한다.As will be appreciated by those skilled in the art, the present disclosure is not limited to the examples described herein but may be variously modified, reconfigured and replaced without departing from the scope of the present disclosure. It should be understood that the various techniques described herein may be implemented by hardware or software, or a combination of hardware and software.
본 개시의 일 실시예에 따른 컴퓨터 프로그램은, 컴퓨터 프로세서 등에 의해 판독 가능한 저장 매체, 예컨대 EPROM, EEPROM, 플래시 메모리장치와 같은 비휘발성 메모리, 내장형 하드 디스크와 착탈식 디스크 같은 자기 디스크, 광자기 디스크, 및 CDROM 디스크 등을 포함한 다양한 유형의 저장 매체에 저장된 형태로 구현될 수 있다. 또한, 프로그램 코드(들)는 어셈블리어나 기계어로 구현될 수 있다. 본 개시의 진정한 사상 및 범주에 속하는 모든 변형 및 변경을 이하의 특허청구범위에 의해 모두 포괄하고자 한다.A computer program according to an embodiment of the present disclosure may include a storage medium readable by a computer processor or the like, such as an EPROM, an EEPROM, a nonvolatile memory such as a flash memory device, a magnetic disk such as an internal hard disk and a removable disk, a magneto-optical disk, and It may be implemented in a form stored in various types of storage media, including a CDROM disk. In addition, the program code (s) may be implemented in assembly or machine language. All modifications and changes that fall within the true spirit and scope of this disclosure are intended to be covered by the following claims.

Claims (8)

  1. 컴퓨터 장치에 의해 수행되는 방법으로서, 상기 방법은, 대화형 AI 에이전트 시스템을 위한 지식베이스 모델을 자동으로 구축 또는 갱신하기 위한 것이며, A method performed by a computer device, the method for automatically constructing or updating a knowledge base model for an interactive AI agent system,
    서로 연관된 일련의 대화 로그들을 수신하는 단계;Receiving a series of chat logs associated with each other;
    상기 수신된 대화 로그들 각각으로부터, 소정의 기준에 따라, 비식별화가 필요하다고 판정되는 엔티티 정보 - 상기 엔티티 정보는, 엔티티 유형 및 값을 포함함 - 를 식별하는 단계; Identifying, from each of the received conversation logs, entity information determined according to predetermined criteria that de-identification is necessary, wherein the entity information includes an entity type and a value;
    각각의 상기 식별된 엔티티 정보의 값을, 각 대응하는 레이블로 교체하는 단계 - 상기 레이블은, 대응하는 엔티티 정보의 엔티티 유형을 식별하게 하는 식별자이며, 상기 대화 로그들 중에 포함되는 동일한 유형의 동일한 값을 갖는 엔티티 정보들은 동일한 레이블로 교체됨 -; 및Replacing each value of the identified entity information with each corresponding label, the label being an identifier that identifies an entity type of the corresponding entity information, the same value of the same type included in the conversation logs. Entity information with a replace with the same label; And
    상기 식별된 엔티티 정보의 값이 각 대응하는 레이블로 교체된, 상기 대화 로그들을 이용한 학습에 따라, 대화형 AI 에이전트 시스템을 위한 지식베이스 모델을 구축 또는 갱신하는 단계Constructing or updating a knowledgebase model for an interactive AI agent system in accordance with learning using the conversation logs, wherein the value of the identified entity information is replaced with each corresponding label.
    를 포함하는, 방법.Including, the method.
  2. 제1항에 있어서,The method of claim 1,
    상기 비식별화가 필요하다고 판정되는 엔티티 정보는 개인 정보를 포함하고, 상기 개인 정보는, 이름, 주민번호, 생년월일, 주소, 나이, 전화번호, ID, 이메일 주소 중 적어도 하나를 포함하는, 방법. The entity information determined to be de-identified includes personal information, and the personal information includes at least one of a name, social security number, date of birth, address, age, telephone number, ID, and email address.
  3. 제2항에 있어서,The method of claim 2,
    상기 비식별화가 필요하다고 판정되는 엔티티 정보를 식별하는 단계는, 상기 개인 정보의 각 기재 형식에 기초하여 상기 비식별화가 필요하다고 판정되는 엔티티 정보를 식별하는 단계를 포함하는, 방법.Identifying the entity information determined to be de-identified includes identifying entity information that is determined to be de-identified based on each description format of the personal information.
  4. 제1항에 있어서,The method of claim 1,
    각각의 상기 식별된 엔티티 정보의 값을, 각 대응하는 레이블로 교체하는 단계는, 상기 대화 로그들 중에 포함되는 동일한 유형의 다른 값을 갖는 엔티티 정보들을 각기 다른 레이블로 교체하는 단계를 포함하는, 방법. Replacing the value of each of the identified entity information with each corresponding label comprises replacing entity information having different values of the same type included in the conversation logs with different labels. .
  5. 제1항에 있어서,The method of claim 1,
    상기 대화 로그들을 수신하는 단계는, 고객 센터의 고객과 상담원 간의 대화 녹취록으로부터 상기 대화 로그들을 수신하는 단계를 포함하는, 방법. Receiving the conversation logs, receiving the conversation logs from a conversation recording between a customer and an agent of a customer center.
  6. 제1항에 있어서,The method of claim 1,
    상기 지식베이스 모델은, 대화 이해 및 대화 관리를 위한 지식베이스 모델을 포함하는, 방법.The knowledge base model includes a knowledge base model for conversation understanding and conversation management.
  7. 하나 이상의 명령어를 포함하는 컴퓨터 판독 가능 기록 매체로서,A computer readable recording medium comprising one or more instructions,
    상기 하나 이상의 명령어는, 컴퓨터에 위해 실행되는 경우, 상기 컴퓨터로 하여금, 제1항 내지 제6항 중 어느 한 항의 방법을 수행하게 하는, 컴퓨터 판독 가능 기록 매체.The one or more instructions, when executed for a computer, cause the computer to perform the method of any one of claims 1 to 6.
  8. 대화형 AI 에이전트 시스템을 위한 지식베이스 모델을 자동으로 구축 또는 갱신하기 위한 컴퓨터 장치로서,A computer device for automatically building or updating a knowledge base model for an interactive AI agent system.
    서로 연관된 일련의 대화 로그들을 수집 및 저장하는 대화 로그 수집부; 및A conversation log collector for collecting and storing a series of conversation logs associated with each other; And
    지식베이스 모델 구축/갱신부를 포함하고,Including knowledge base model building / update unit,
    상기 지식베이스 모델 구축/갱신부는, 상기 대화 로그 수집부로부터 상기 일련의 대화 로그들을 수신하고,The knowledge base model building / update unit receives the series of conversation logs from the conversation log collection unit,
    상기 수신된 대화 로그들 각각으로부터, 소정의 기준에 따라, 비식별화가 필요하다고 판정되는 엔티티 정보 - 상기 엔티티 정보는, 엔티티 유형 및 값을 포함함 - 를 식별하고, Identify, from each of the received conversation logs, entity information determined that de-identification is needed, the entity information comprising an entity type and a value, according to predetermined criteria,
    각각의 상기 식별된 엔티티 정보의 값을, 각 대응하는 레이블로 교체 - 상기 레이블은, 대응하는 엔티티 정보의 엔티티 유형을 식별하게 하는 식별자이며, 상기 대화 로그들 중에 포함되는 동일한 유형의 동일한 값을 갖는 엔티티 정보들은 동일한 레이블로 교체됨 - 하고,Replacing the value of each said identified entity information with each corresponding label, said label being an identifier for identifying an entity type of corresponding entity information, having the same value of the same type contained in said conversation logs Entity information is replaced with the same label-
    상기 식별된 엔티티 정보의 값이 각 대응하는 레이블로 교체된, 상기 대화 로그들을 이용한 학습에 따라, 대화형 AI 에이전트 시스템을 위한 지식베이스 모델을 구축 또는 갱신하도록 구성된, Configured to build or update a knowledgebase model for an interactive AI agent system, in accordance with learning with the conversation logs, wherein the value of the identified entity information is replaced with each corresponding label.
    컴퓨터 장치.Computer devices.
PCT/KR2019/001693 2018-02-12 2019-02-12 Method and computer device for constructing or updating knowledge base model for interactive ai agent system by labeling identifiable, yet non-learnable, data from among learning data, and computer-readable recording medium WO2019156536A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180016712A KR101950387B1 (en) 2018-02-12 2018-02-12 Method, computer device and computer readable recording medium for building or updating knowledgebase models for interactive ai agent systen, by labeling identifiable but not-learnable data in training data set
KR10-2018-0016712 2018-02-12

Publications (1)

Publication Number Publication Date
WO2019156536A1 true WO2019156536A1 (en) 2019-08-15

Family

ID=65562265

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/001693 WO2019156536A1 (en) 2018-02-12 2019-02-12 Method and computer device for constructing or updating knowledge base model for interactive ai agent system by labeling identifiable, yet non-learnable, data from among learning data, and computer-readable recording medium

Country Status (2)

Country Link
KR (1) KR101950387B1 (en)
WO (1) WO2019156536A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110990637A (en) * 2019-10-14 2020-04-10 平安银行股份有限公司 Method and device for constructing network map
CN114297207A (en) * 2021-12-07 2022-04-08 腾讯数码(天津)有限公司 Entity library updating method and device, computer equipment and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102388974B1 (en) 2019-11-22 2022-04-21 아시아나아이디티 주식회사 Method and computer readable storage medium for managing work information of flight attendant
CN113535980A (en) * 2021-07-20 2021-10-22 南京市栖霞区民政事务服务中心 Rapid establishing method of intelligent community knowledge base system based on artificial intelligence

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016040730A (en) * 2015-10-13 2016-03-24 洋彰 宮崎 Artificial intelligence device for autonomously constructing knowledge system by language input
KR20160062668A (en) * 2014-11-25 2016-06-02 한국전자통신연구원 Open health management apparatus and method
KR101730600B1 (en) * 2015-12-22 2017-04-26 한양대학교 산학협력단 Personal information leak detection apparatus and method using false personal information
KR101827320B1 (en) * 2017-06-08 2018-02-09 윤준호 Server for call center using artificial intelligence

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180003417A (en) 2017-04-21 2018-01-09 주식회사 엔터플 Method and apparatus for providing content using chatbot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160062668A (en) * 2014-11-25 2016-06-02 한국전자통신연구원 Open health management apparatus and method
JP2016040730A (en) * 2015-10-13 2016-03-24 洋彰 宮崎 Artificial intelligence device for autonomously constructing knowledge system by language input
KR101730600B1 (en) * 2015-12-22 2017-04-26 한양대학교 산학협력단 Personal information leak detection apparatus and method using false personal information
KR101827320B1 (en) * 2017-06-08 2018-02-09 윤준호 Server for call center using artificial intelligence

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LEE, HYEON SEUNG ET AL.: "A Research on De-identification Technique for Personal Identifiable Information.", SPRI, August 2016 (2016-08-01), pages 1 - 64, XP055629543, Retrieved from the Internet <URL:https://spri.kr/posts/view/18382?code=research> [retrieved on 20190523] *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110990637A (en) * 2019-10-14 2020-04-10 平安银行股份有限公司 Method and device for constructing network map
CN110990637B (en) * 2019-10-14 2022-09-20 平安银行股份有限公司 Method and device for constructing network map
CN114297207A (en) * 2021-12-07 2022-04-08 腾讯数码(天津)有限公司 Entity library updating method and device, computer equipment and storage medium

Also Published As

Publication number Publication date
KR101950387B1 (en) 2019-02-20

Similar Documents

Publication Publication Date Title
WO2019124647A1 (en) Method and computer apparatus for automatically building or updating hierarchical conversation flow management model for interactive ai agent system, and computer-readable recording medium
WO2019156536A1 (en) Method and computer device for constructing or updating knowledge base model for interactive ai agent system by labeling identifiable, yet non-learnable, data from among learning data, and computer-readable recording medium
WO2019088384A1 (en) Method for providing rich-expression natural language conversation by modifying reply, computer device and computer-readable recording medium
WO2019132135A1 (en) Interactive ai agent system and method for actively monitoring and intervening in dialogue session between users, and computer readable recording medium
WO2019147039A1 (en) Method for determining optimal conversation pattern for goal achievement at particular time point during conversation session associated with conversation understanding ai service system, method for determining goal achievement prediction probability, and computer-readable recording medium
KR101891498B1 (en) Method, computer device and computer readable recording medium for multi domain service resolving the mixture of multi-domain intents in interactive ai agent system
KR102120751B1 (en) Method and computer readable recording medium for providing answers based on hybrid hierarchical conversation flow model with conversation management model using machine learning
KR102104294B1 (en) Sign language video chatbot application stored on computer-readable storage media
KR20190103951A (en) Method, computer device and computer readable recording medium for building or updating knowledgebase models for interactive ai agent systen, by labeling identifiable but not-learnable data in training data set
WO2019143170A1 (en) Method for generating conversation template for conversation-understanding ai service system having predetermined goal, and computer readable recording medium
WO2019156537A1 (en) Interactive ai agent system and method for actively providing service related to security and like through dialogue session or separate session on basis of monitoring of dialogue session between users, and computer-readable recording medium
WO2019168235A1 (en) Method and interactive ai agent system for providing intent determination on basis of analysis of same type of multiple pieces of entity information, and computer-readable recording medium
JP2019185737A (en) Search method and electronic device using the same
WO2019088638A1 (en) Method, computer device and computer readable recording medium for providing natural language conversation by timely providing substantial reply
WO2019088383A1 (en) Method and computer device for providing natural language conversation by providing interjection response in timely manner, and computer-readable recording medium
KR101959292B1 (en) Method and computer device for providing improved speech recognition based on context, and computer readable recording medium
KR20190094087A (en) User terminal including a user customized learning model associated with interactive ai agent system based on machine learning, and computer readable recording medium having the customized learning model thereon
KR101927050B1 (en) User terminal and computer readable recorindg medium including a user adaptive learning model to be tranined with user customized data without accessing a server
KR102017544B1 (en) Interactive ai agent system and method for providing seamless chatting service among users using multiple messanger program, computer readable recording medium
WO2019103569A1 (en) Method for improving performance of voice recognition on basis of context, computer apparatus, and computer-readable recording medium
WO2019066132A1 (en) User context-based authentication method having enhanced security, interactive ai agent system, and computer-readable recording medium
KR20210045704A (en) Method, interactive ai agent system and computer readable recoding medium for providing intent determination based on analysis of a plurality of same type entity information
WO2019098638A1 (en) Method, interactive ai agent system and computer readable recording medium for providing semantic-free user voiceprint authentication having enhanced security
WO2019156535A1 (en) Interactive ai agent system and method for actively providing order or reservation service on basis of monitoring of dialogue session between users by using previous history information in dialogue session, and computer-readable recording medium
WO2019143141A1 (en) Method for visualizing knowledge base for interactive ai agent system, and computer readable recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19751559

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19751559

Country of ref document: EP

Kind code of ref document: A1