WO2019143141A1 - 대화형 ai 에이전트 시스템을 위한 지식베이스의 시각화 방법 및 컴퓨터 판독가능 기록 매체 - Google Patents

대화형 ai 에이전트 시스템을 위한 지식베이스의 시각화 방법 및 컴퓨터 판독가능 기록 매체 Download PDF

Info

Publication number
WO2019143141A1
WO2019143141A1 PCT/KR2019/000684 KR2019000684W WO2019143141A1 WO 2019143141 A1 WO2019143141 A1 WO 2019143141A1 KR 2019000684 W KR2019000684 W KR 2019000684W WO 2019143141 A1 WO2019143141 A1 WO 2019143141A1
Authority
WO
WIPO (PCT)
Prior art keywords
nodes
knowledge base
present disclosure
displaying
display
Prior art date
Application number
PCT/KR2019/000684
Other languages
English (en)
French (fr)
Inventor
설재호
손보경
임보훈
장세영
Original Assignee
주식회사 머니브레인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 머니브레인 filed Critical 주식회사 머니브레인
Publication of WO2019143141A1 publication Critical patent/WO2019143141A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/904Browsing; Visualisation therefor

Definitions

  • This disclosure relates to a knowledge base for an interactive AI agent system, and more particularly to construction and visualization of a knowledge base for an interactive AI agent system.
  • the knowledge base is configured as a graph comprising a plurality of nodes, each of the plurality of nodes being associated with a predetermined concept, each of the plurality of nodes being associated with one or more of the plurality of nodes,
  • the method comprising the steps of visualizing each of the plurality of nodes and displaying them on a display; And visualizing each link connecting any two of the plurality of nodes and displaying them on the display.
  • a method includes receiving a natural language input from a user; Processing natural language input to extract one or more concepts; Creating one or more nodes each corresponding to one or more extracted concepts; Linking the generated one or more nodes to each other among the one or more generated nodes and / or to a predetermined one of a plurality of nodes on the knowledge base by respective corresponding links, each corresponding link having a corresponding Indicating the relationship between the nodes to which the link connects; Visualizing each of the one or more generated nodes and displaying them on a display; And visualizing each link linking the generated one or more nodes to another of the generated one or more nodes and / or to a predetermined one of a plurality of nodes on the knowledge base, and displaying the visualized on the display .
  • visualizing each of the one or more generated nodes and displaying on the display, the generated one or more nodes may be made larger than a plurality of nodes and / And displaying it in a different color that is different from that of the first color.
  • a method includes receiving a natural language input from a user; Processing natural language input to extract one or more concepts; Selecting one or more nodes corresponding to one or more concepts extracted from a plurality of nodes of a knowledge base; Expanding the display of the selected one or more nodes on the display for a predetermined limited time or alternately displaying the selected one or more nodes so that the selected one or more nodes have a color different from the color previously displayed; And displaying an indication of the selected one or more nodes after the predetermined limited time has elapsed, by displaying the size and color before the step of changing and displaying the selected one or more nodes.
  • the step of selecting one or more nodes comprises counting the number of times selected for each of the selected one or more nodes, the method comprising the steps of: Displaying the display of the node whose number of times is equal to or greater than a predetermined number larger than other nodes among the plurality of nodes and / or changing the display so as to have a different color from the plurality of nodes.
  • a method further comprises classifying one or more nodes having common attributes among a plurality of nodes into a common class, wherein visualizing each of the plurality of nodes and displaying on a display , And displaying one or more nodes classified in the common class with the same color.
  • a computer-readable medium having stored thereon one or more instructions that, when executed by a computer, cause the computer to perform any one of the methods described above, A computer-readable recording medium is provided.
  • knowledge base models can be visualized and presented on the screen for, but not limited to, a developer or administrator of an interactive AI agent system. According to an embodiment of the present disclosure, it is also possible to visualize dynamic changes in knowledge base models during construction or update and to present the results on a screen. Therefore, according to the embodiment of the present disclosure, it becomes possible to intuitively recognize the structure and / or the change of the knowledge base from the standpoint of the developer or manager of the interactive AI agent system or the like.
  • FIG. 1 is a schematic diagram of a system environment in which an interactive AI agent system may be implemented, in accordance with one embodiment of the present disclosure
  • Figure 2 is a functional block diagram that schematically illustrates the functional configuration of the user terminal 102 of Figure 1, in accordance with one embodiment of the present disclosure.
  • FIG. 3 is a functional block diagram that schematically illustrates the functional configuration of the interactive AI agent server 106 of FIG. 1, in accordance with one embodiment of the present disclosure.
  • FIG. 4 is a diagram illustrating an initial process of building a knowledge base model and a visualization thereof, according to an embodiment of the present disclosure
  • FIG. 5 is a diagram illustrating an initial process of building a knowledge base model and a visualization therefor, according to an embodiment of the present disclosure.
  • 'module' or 'sub-module' means a functional part that performs at least one function or operation, and may be implemented in hardware or software, or a combination of hardware and software. Also, a plurality of "modules” or “sub-modules” may be integrated into at least one software module and implemented by at least one processor, except for "module” or "sub-module” have.
  • FIG. 1 is a schematic diagram of a system environment 100 in which an interactive AI agent system may be implemented, in accordance with one embodiment of the present disclosure.
  • the system environment 100 includes a plurality of user terminals 102, a communication network 104, an interactive AI agent server 106, and an external service server 108. As shown in FIG.
  • each of the plurality of user terminals 102 may be any user electronic device having wired or wireless communication capability.
  • Each of the user terminals 102 may be a variety of wired or wireless communication terminals including, for example, a smart speaker, a music player, a game console, a digital TV, a set top box, a smart phone, a tablet PC, a desktop, a laptop, a PDA, Lt; / RTI >
  • each of the user terminals 102 can communicate with the interactive AI agent server 106, i. E., Via the communication network 104, with the necessary information.
  • each of the user terminals 102 can communicate with the external service server 108, i.e., send and receive necessary information, via the communication network 104.
  • each of the user terminals 102 may receive user input in the form of voice, text, and / or touch from the outside, and may interact with the interactive AI agent server 106 via the communication network 104. [ (E.g., providing a specific interactive response and / or performing a specific task) obtained through communication with the external service server 108 and / or communication with the external service server 108 (and / or processing in the user terminal 102) Etc.) to the user.
  • each of the user terminals 102 may provide an interactive response as a result of an operation corresponding to a user input, in a visual, audible and / or tactile form (e.g., voice, sound, text, Such as, but not limited to, symbols, emoticons, hyperlinks, animations, various notices, motion, haptic feedback, etc.).
  • a visual, audible and / or tactile form e.g., voice, sound, text, Such as, but not limited to, symbols, emoticons, hyperlinks, animations, various notices, motion, haptic feedback, etc.
  • the communication network 104 may comprise any wired or wireless communication network, e.g., a TCP / IP communication network.
  • the communication network 104 may include, for example, a Wi-Fi network, a LAN network, a WAN network, an Internet network, and the like, and the present disclosure is not limited thereto.
  • the communication network 104 may be any of a variety of wired or wireless, including, but not limited to, Ethernet, GSM, EDGE, CDMA, TDMA, OFDM, Bluetooth, VoIP, Wi- May be implemented using a communication protocol.
  • the interactive AI agent server 106 is capable of communicating with the user terminal 102 via the communication network 104. According to one embodiment of the present disclosure, the interactive AI agent server 106 sends and receives necessary information to and from the user terminal 102 via the communication network 104, An operation result corresponding to the corresponding, i.e., user, intent can be provided to the user.
  • the interactive AI agent server 106 receives user natural language input in the form of speech, text, and / or touch, for example, from the user terminal 102 via the communication network 104, The received natural language input may be processed based on the prepared knowledge base models to determine the intent of the user. According to one embodiment of the present disclosure, the interactive AI agent server 106 may cause a corresponding operation to be performed based on the determined determined user intent.
  • the interactive AI agent server 106 generates a specific control signal, e.g., to cause the user terminal 102 to perform a particular task consistent with the user intent, Lt; / RTI >
  • the interactive AI agent server 106 may communicate with an external service server (e. G., Via the network 104) to allow the user terminal 102 to perform certain tasks consistent with the user & 108).
  • the interactive AI agent server 106 when the interactive AI agent server 106 fails to determine the tent corresponding to the processing result of the natural language input received from the user terminal, a response indicating failure is generated To the corresponding user terminal 102.
  • the interactive AI agent server 106 also processes the natural language input received from the user terminal 102 separately or irrespective of the response indicating such failure, And may update, modify, and the like knowledge base models for the interactive AI agent server 106 as a basis.
  • knowledge base models for the interactive AI agent server 106 may be represented in graphical form including a plurality of nodes and a plurality of links.
  • the interactive AI agent server 106 may visualize and present on the screen the graph form of such a knowledge base model when building and / or updating the knowledge base model.
  • the interactive AI agent server 106 may generate a specific interactive response (or failure if the user intent determination fails) that matches the user intent, e.g., based on certain knowledge base models And sends the response to the user terminal 102.
  • the interactive AI agent server 106 generates a corresponding interactive response in the form of voice and / or text, based on the determined determined user intent, and transmits the generated response to the communication network 104 to the user terminal 102.
  • the interactive response generated by the interactive AI agent server 106 may include other visual elements such as images, video, symbols, emoticons, etc., along with the natural language responses of the speech and / Or other auditory elements such as sound, or other tactile elements.
  • a response of the same type is generated on the interactive AI agent server 106, depending on the type of user input received on the user terminal 102 (e.g., whether it is speech input or text input) (E.g., a voice response is generated if a voice input is given and a text response is generated if a text input is given), but this disclosure is not so limited.
  • responses in the form of voice and / or text may be generated and provided regardless of the type of user input.
  • the interactive AI agent server 106 may communicate with the external service server 108 via the communication network 104, as previously mentioned.
  • the external service server 108 may be, for example, a messaging service server, an online consultation center server, an online shopping mall server, an information search server, a map service server, a navigation service server, and the like.
  • an interactive response based on a user intent which is communicated from the interactive AI agent server 106 to the user terminal 102, may include, for example, retrieving and retrieving data content from the external service server 108 ≪ / RTI >
  • the interactive AI agent server 106 is shown as being a separate physical server configured to communicate with the external service server 108 via the communication network 104, the present disclosure is not limited thereto. According to another embodiment of the present disclosure, it should be understood that the interactive AI agent server 106 may be included as part of various service servers, such as an online consultation center server or an online shopping mall server.
  • FIG. 2 is a functional block diagram that schematically illustrates the functional configuration of the user terminal 102 shown in FIG. 1, in accordance with one embodiment of the present disclosure.
  • the user terminal 102 includes a user input receiving module 202, a sensor module 204, a program memory module 206, a processing module 208, a communication module 210, 212).
  • the user input receiving module 202 is configured to receive various types of input from a user, such as natural language input (such as voice input and / or text input, and additionally other types of input Can be received.
  • the user input receiving module 202 may receive voice input and touch input, except for text input.
  • the user input receiving module 202 includes, for example, a microphone and an audio circuit, and can acquire a user voice input signal through a microphone and convert the obtained signal into audio data.
  • the user input receiving module 202 may include various types of input devices such as various pointing devices such as a mouse, joystick, trackball, keyboard, touch panel, touch screen, stylus, , And can acquire a text input and / or a touch input signal inputted from a user through these input devices.
  • the user input received at the user input receiving module 202 may be associated with performing certain tasks, such as performing certain applications or retrieving certain information, etc. However, It is not.
  • the user input received at the user input receiving module 202 may be simply information (e.g., information that can be used to build a knowledge base), regardless of a predetermined application execution or retrieval of information, May only be provided for.
  • the sensor module 204 includes one or more different types of sensors through which the status information of the user terminal 102, e.g., the physical state of the user terminal 102, Software and / or hardware status, or information regarding the environmental conditions of the user terminal 102, and the like.
  • the sensor module 204 may include an optical sensor, for example, and may sense the ambient light condition of the user terminal 102 via the optical sensor.
  • the sensor module 204 includes, for example, a movement sensor and can detect whether the corresponding user terminal 102 is moving through the movement sensor.
  • the sensor module 204 includes, for example, a velocity sensor and a GPS sensor, and through these sensors, the position and / or orientation of the user terminal 102 may be sensed. It should be noted that, according to another embodiment of the present disclosure, the sensor module 204 may include other various types of sensors, including temperature sensors, image sensors, pressure sensors, touch sensors, and the like.
  • the program memory module 206 may be any storage medium that stores various programs that may be executed on the user terminal 102, such as various application programs and associated data.
  • program memory module 206 may include one or more applications, such as a telephone dialer application, an email application, an instant messaging application, a camera application, a music playback application, a video playback application, an image management application, , And data related to the execution of these programs.
  • program memory module 206 may be configured to include volatile or nonvolatile memory of various types such as DRAM, SRAM, DDR RAM, ROM, magnetic disk, optical disk, flash memory, .
  • the processing module 208 may communicate with each component module of the user terminal 102 and perform various operations on the user terminal 102. According to one embodiment of the present disclosure, the processing module 208 can drive and execute various application programs on the program memory module 206. [ According to one embodiment of the present disclosure, the processing module 208 may receive signals obtained from the user input receiving module 202 and the sensor module 204, if necessary, and perform appropriate processing on these signals have. According to one embodiment of the present disclosure, the processing module 208 may, if necessary, perform appropriate processing on signals received from the outside via the communication module 210.
  • the communication module 210 is configured to allow the user terminal 102 to communicate with the interactive AI agent server 106 and / or the external service server 108 via the communication network 104 of FIG. 1 Communication.
  • the communication module 212 is configured to receive signals from, for example, the user input receiving module 202 and the sensor module 204 via the communication network 104 in accordance with a predetermined protocol, To server 106 and / or to external service server 108.
  • the communication module 210 may provide various signals received from the interactive AI agent server 106 and / or the external service server 108 via the communication network 104, e.g., voice and / Or a response signal including a natural language response in the form of a text, or various control signals, and perform appropriate processing according to a predetermined protocol.
  • signals received from the interactive AI agent server 106 and / or the external service server 108 via the communication network 104 e.g., voice and / Or a response signal including a natural language response in the form of a text, or various control signals, and perform appropriate processing according to a predetermined protocol.
  • the response output module 212 may output a response corresponding to a user input in various forms, such as time, audible and / or tactile. According to another embodiment of the present disclosure, the response output module 212 may provide primarily audio output, and may also provide text output assisted. According to one embodiment of the present disclosure, the response output module 212 includes a speaker or a headset, for example, and provides an audible response, e.g., voice and / or acoustic response, can do.
  • an audible response e.g., voice and / or acoustic response
  • the response output module 212 includes various display devices, such as a touch screen based on technology such as LCD, LED, OLED, QLED, etc., Such as text, symbols, video, images, hyperlinks, animations, various notices, etc., to the user.
  • the response output module 212 includes a motion / haptic feedback generator, through which a tactile response, e.g., motion / haptic feedback, can be provided to the user. It should be appreciated that, in accordance with one embodiment of the present disclosure, the response output module 212 may concurrently provide any combination of two or more of a text response, a voice response and a motion / haptic feedback corresponding to a user input.
  • FIG. 3 is a functional block diagram that schematically illustrates the functional configuration of the interactive AI agent server 106 of FIG. 1, in accordance with one embodiment of the present disclosure.
  • the interactive agent server 106 includes a communication module 302, a Speech-To-Text (STT) module 304, a Natural Language Understanding (NLU) module 306 ), A dialog understanding knowledge base 308, a knowledge base management module 310, a knowledge base visualization / display module 312, a dialogue management module 314, a dialogue generation module 316, and a text- Speech (TTS) module 318.
  • STT Speech-To-Text
  • NLU Natural Language Understanding
  • the communication module 302 is configured to allow the interactive AI agent server 106 to communicate with the user terminal 102 and / or via the communication network 104, in accordance with any wired or wireless communication protocol, Thereby enabling communication with the external service server 108.
  • the communication module 302 includes user input (e.g., including touch input, voice input and / or text input, etc.) transmitted from the user terminal 102 via the communication network 104 And is not limited thereby).
  • the user input may be a request signal of a particular task execution or conversation response.
  • the user input may be a statement for knowledge transfer independent of a request for a particular task execution or an interactive response.
  • the communication module 302 is coupled to the user terminal 102, which has been transmitted from the user terminal 102, via the communication network 104, with or without the user input, Status information can be received.
  • the state information may include various state information (e.g., the physical state of the user terminal 102, the software of the user terminal 102) associated with the user terminal 102 at the time of user input, And / or hardware state, environmental state information around the user terminal 102, etc.).
  • communication module 302 may also include an interactive response (e. G., Natural language in voice and / or text form) generated in interactive AI agent server 106 in response to the user input received above. And / or control signals to the user terminal 102 via the communication network 104.
  • the user terminal 102 may be connected to the user terminal 102 via the network 104,
  • the STT module 304 can receive voice input from user input received via the communication module 302 and convert the received voice input into text data based on pattern matching or the like have.
  • the STT module 304 may extract a feature from a user's speech input to generate a feature vector sequence.
  • the STT module 304 may be implemented using a DTW (Dynamic Time Warping) method, an HMM model (Hidden Markov Model), a GMM model (Gaussian-Mixture Mode), a deep neural network model, For example, a sequence of words, based on various statistical models of the speech recognition results.
  • DTW Dynamic Time Warping
  • HMM model Hidden Markov Model
  • GMM model Gaussian-Mixture Mode
  • a deep neural network model For example, a sequence of words, based on various statistical models of the speech recognition results.
  • the NLU module 306 may receive text input from the communication module 302 or the STT module 304.
  • the textual input received at the NLU module 306 may be transmitted to the user terminal 102 via the user text input or communication module 302 that was received from the user terminal 102 via the communication network 104, For example, a sequence of words, generated by the STT module 304 from the user speech input received at the STT module 304.
  • the NLU module 306 upon receiving or subsequent to receiving a textual input, receives status information associated with the user input, e.g., status information of the user terminal 102 at the time of the user input (But this disclosure is not so limited).
  • the status information may include various status information (e.g., the physical state of the user terminal 102, the software status of the user terminal 102) associated with the user terminal 102 at the time of user input and / And / or hardware state, environmental state information around the user terminal 102, etc.).
  • various status information e.g., the physical state of the user terminal 102, the software status of the user terminal 102 associated with the user terminal 102 at the time of user input and / And / or hardware state, environmental state information around the user terminal 102, etc.
  • the NLU module 306 may map the received text input to one or more user-defined intents based on a dialog understanding knowledge base 308, described below. Where the user intent can be associated with a series of operations (s) that can be understood and performed by the interactive AI agent server 106 according to the user's tent. According to one embodiment of the present disclosure, the NLU module 306 may refer to the state information described above in mapping the received text input to one or more user intents. According to one embodiment of the present disclosure, when the NLU module 306 fails to determine the user intent corresponding to the received text input, the dialogue management module 314 and the dialogue generation module 316, described below, May generate a response regarding the failure and send the generated response to the user terminal 102 via the communication module 302.
  • the knowledge base management module 310 when the user intent determined by the NLU module 306 is related to building or updating a knowledge base, the knowledge base management module 310, which will be described later, (308). ≪ / RTI >
  • the conversation understanding knowledge base 308 may include, for example, a predefined ontology model.
  • an ontology model can be represented, for example, in a graphical structure consisting of nodes and links connecting nodes, each of which may have a corresponding concept corresponding thereto, And may represent the relationship between the nodes connected by the respective links.
  • any two nodes may be interconnected by a plurality of links.
  • a plurality of nodes may be classified into one class sharing a common attribute, and one node may belong to a plurality of classes.
  • each node may be a node corresponding to a user intent, e.g., an "intent” node, and a plurality of other nodes linked to an " Quot; attributes "node corresponding thereto.
  • an " intent "node and” attribute “nodes directly or indirectly linked to that" intent "node can constitute one domain, .
  • the dialogue understanding knowledge base 308 is configured to include domains corresponding to all intents, e.g., which the interactive AI agent system can understand and perform corresponding actions .
  • the ontology model can be dynamically changed by addition or deletion of nodes, or modification of relations between nodes.
  • the intent nodes and attribute nodes of each domain in the ontology model may be associated with words and / or phrases associated with the corresponding user's tent or attributes, respectively.
  • the conversation understanding knowledge base 308 includes an ontology model 308, which may comprise an ontology model, for example, a hierarchy of nodes, , And the NLU module 306 may determine the user intent based on the ontology model implemented in the lexical dictionary form.
  • the NLU module 306 upon receipt of a text input or a sequence of words, can determine which of the domains in the ontology model each word in the sequence is associated with, Based on such a determination, it is possible to determine the corresponding domain, i. E. The user tent.
  • the knowledge base management module 310 may create one or more nodes according to the user intent and connect the generated nodes with other nodes of the conversation understanding knowledge base 308 Can be generated.
  • the knowledge base management module 310 may delete certain nodes on the dialog understanding knowledge base 308, modify links or relationships between predetermined nodes It is possible.
  • knowledge base visualization / display module 312 may include a predetermined display device, although not specifically shown. According to one embodiment of the present disclosure, the knowledge base visualization / display module 312 visualizes the graph structure of the dialog understanding knowledge base 308, that is, the graph structure composed of a plurality of nodes and a link relation between them, Can be displayed on the device. According to one embodiment of the present disclosure, knowledge base visualization / display module 312 may display a plurality of nodes in different colors for each common class, but this disclosure is not so limited.
  • the knowledge base visualization / display module 312 determines The nodes in the graph structure of the dialog understanding knowledge base 308 corresponding to the user intent can be displayed visually prominently (for example, displayed in a separate color with high visibility or temporarily displayed in size) It can be intuitively grasped that the intent of the user is related to the corresponding nodes.
  • the knowledge base visualization / display module 312 includes a node (e.g., a node) that is frequently selected with respect to a user intent, (For example, displayed in a separate color having a high visibility or temporarily expanded in size) so that the node is an important node intuitively .
  • a node e.g., a node
  • the number of links connected to other nodes is greater than that of other nodes (such nodes have a large number of relationships with other nodes (For example, it is displayed in a different color with a high visibility or a large size), it can be intuitively grasped that the node is an important node.
  • the knowledge base visualization / display module 312 also visualizes the operation of building or updating the dialog understanding knowledge base 308 by the knowledge base management module 310 described above It can be dynamically displayed on the display.
  • the knowledge base visualization / display module 312 may be configured such that, for example, the knowledge base management module 310 generates one or more new nodes, (S) and the link (s) with the other node (s) with the newly created node (s) and its generated node (s) when the dialog understanding knowledge base 308 is updated by linking to other nodes on the display It can be displayed dynamically and / or statically.
  • the graph structure of the dialog understanding knowledge base 308 is displayed on the display by the knowledge base visualization / display module 312, And may be displayed by color, size, or various other methods depending on the related properties.
  • the dialogue management module 314 may generate a corresponding series of operational flows according to the user < Desc / Clms Page number 10 > tent determined by the NLU module 306.
  • the conversation management module 314 may determine, based on a predetermined conversation flow management model, any actions, e.g., any conversation responses and / or actions, corresponding to the user ' s tent received from the NLU module 306, / RTI > and / or task execution should be performed, and generate a corresponding detailed action flow.
  • the dialog generation module 316 may generate an interaction response to be provided to the user based on the conversation flow generated by the conversation management module 314.
  • the dialog generation module 316 is configured to generate a dialog response that includes user characteristic data (e.g., a user's previous conversation history, user's pronunciation feature information, user lexical preference, A setting language, a contact / friend list, and a history record of the user's previous conversation for each user).
  • user characteristic data e.g., a user's previous conversation history, user's pronunciation feature information, user lexical preference, A setting language, a contact / friend list, and a history record of the user's previous conversation for each user.
  • the TTS module 318 may receive an interactive response that is generated by the dialog generation module 316 to be transmitted to the user terminal 102.
  • the conversation response received at the TTS module 318 may be a natural word or a sequence of words having a textual form.
  • the TTS module 318 may convert the input of the above received text form into speech form, according to various types of algorithms.
  • the interactive AI agent system is a client-server model between the user terminal 102 and the interactive AI agent server 106, And is based on a so-called "thin client-server model ", which delegates all other functions of the interactive AI agent system to the server, but this disclosure is not so limited.
  • the interactive AI agent system may be implemented in a distributed manner between a user terminal and a server, or alternatively may be implemented as a standalone application installed on a user terminal .
  • an interactive AI agent system implements the functions distributed between a user terminal and a server according to an embodiment of the present disclosure
  • the distribution of each function of the interactive AI agent system between the client and the server is It should be understood that the invention may be otherwise embodied.
  • the embodiments of the present disclosure described above with reference to Figs. 1 to 3 have been described as if a particular module performs certain operations for convenience, the present disclosure is not limited thereby. It should be noted that, in accordance with another embodiment of the present disclosure, the operations described above as performed by any particular module in the above description can be performed by separate and distinct modules, respectively.
  • the operation of the knowledge base management module 310 and the knowledge base visualization / display module 312 is primarily related to the updating of the conversation understanding knowledge base 308 in the embodiment of the present disclosure described above with reference to Figures 1-3
  • the present disclosure is not limited thereto.
  • the operation of the knowledge base management module 310 and the knowledge base visualization / display module 312 may also be applied to other knowledge base models of the interactive AI agent server 106 You should know.
  • Figures 4 and 5 respectively, show an initial process of building a knowledge base model and visualization thereof, according to one embodiment of the present disclosure.
  • the interactive AI agent server receiving the sentence "I am a snowy road” from the user generates nodes corresponding to the concepts of "snowboard” and “me” and links them to the link "who”
  • an interactive AI agent server receiving a sentence of " I like fishing "from a user generates nodes corresponding to the concepts of" I “and” fishing " It can be seen that a configuration for connecting by a link of the relationship is presented.
  • Figures 4 and 5 are intended only to aid in understanding the invention by simplifying and illustrating the visualization of knowledge base model generation, and that the embodiments of the present disclosure are not so limited.
  • a computer program according to an embodiment of the present disclosure may be stored in a storage medium readable by a computer processor or the like, for example, a non-volatile memory such as an EPROM, EEPROM, or flash memory device, a magnetic disk such as an internal hard disk and a removable disk, CDROM disks, and the like. Also, the program code (s) may be implemented in assembly language or machine language. All such modifications and variations that fall within the true spirit and scope of this disclosure are intended to be embraced by the following claims.

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

디스플레이를 포함하는 대화형 AI 에이전트 시스템에 의하여 수행되는, 지식베이스의 시각화 방법이 제공된다. 본 개시의 방법에 있어서, 상기 지식베이스는 복수의 노드를 포함하는 그래프로서 구성되고, 상기 복수의 노드 각각은 소정의 개념과 연관되고, 상기 복수의 노드 각각은 상기 복수의 노드 중 하나 이상의 다른 노드에 대해 각각 소정의 관계를 나타내는 링크에 의해 연결되며, 상기 방법은, 상기 복수의 노드 각각을 시각화하여 상기 디스플레이 상에 표시하는 단계; 및 상기 복수의 노드 중 임의의 두 개의 노드를 연결하는 각각의 링크를 시각화하여 상기 디스플레이 상에 표시하는 단계를 포함한다.

Description

대화형 AI 에이전트 시스템을 위한 지식베이스의 시각화 방법 및 컴퓨터 판독가능 기록 매체
본 개시는, 대화형 AI 에이전트 시스템을 위한 지식베이스에 관한 것이며, 보다 구체적으로는 대화형 AI 에이전트 시스템을 위한 지식베이스의 구축 및 시각화 등에 관한 것이다.
근래, 인공지능 분야, 특히 자연어 이해 분야의 기술 발전에 따라, 전통적인 기계 중심의 명령 입출력 방식에 따른 기계 조작에서 벗어나, 사용자로 하여금, 보다 사람 친화적인 방식, 예컨대 음성 및/또는 텍스트 형태의 자연어를 매개로 한 대화 방식으로 기계를 조작하고 기계로부터 원하는 서비스를 얻을 수 있도록 하는 대화형 AI 에이전트 시스템의 개발 및 활용이 점차 늘어나고 있다. 그에 따라, 온라인 상담 센터나 온라인 쇼핑몰 등을 비롯한 (그러나 이에 한정되지 않은 더 많은) 다양한 분야에서, 사용자는 음성 및/또는 텍스트 형태의 자연어 대화를 통해, 대화형 AI 에이전트 시스템에게 원하는 서비스를 요청하고 그로부터 원하는 결과를 얻을 수 있게 되었다.
최근에는, 고정 시나리오 기반의 간단한 문답 형태의 대화 서비스만을 제공하던 종래의 대화형 AI 에이전트 시스템을 넘어서서, 자유 발화 형태의 음성 입력을 기초로 보다 복잡한 도메인의 서비스를 제공하는 대화형 AI 에이전트 시스템에 대한 요구가 늘어나고 있다. 자유 발화 형태의 음성 입력에 기초하여 복잡한 도메인의 서비스를 제공하기 위해서, 대화형 AI 에이전트 시스템은 대화 이해 및 관리를 위한 지식베이스 모델들을 구축하고 이들을 지속적으로 갱신할 필요가 있다. 지식베이스 모델들은 사용자가 대화형 AI 에이전트 시스템을 이용함에 따라 획득되는 지식에 의해 지속적으로 갱신될 수 있다.
지식베이스 모델들의 구축 및 관리는 대화형 AI 에이전트 시스템의 개발 및 관리의 관점에서 매우 중요한 작업이다. 따라서, 대화형 AI 에이전트 시스템의 개발자 또는 관리자 등을 위하여 지식베이스 모델들을 시각화하고 그 결과를 화면에 제시할 필요가 있다.
본 개시의 일 특징에 의하면, 디스플레이를 포함하는 대화형 AI 에이전트 시스템에 의하여 수행되는, 지식베이스의 시각화 방법이 제공된다. 본 개시의 방법에 있어서, 지식베이스는 복수의 노드를 포함하는 그래프로서 구성되고, 복수의 노드 각각은 소정의 개념과 연관되고, 복수의 노드 각각은 복수의 노드 중 하나 이상의 다른 노드에 대해 각각 소정의 관계를 나타내는 링크에 의해 연결되며, 방법은, 복수의 노드 각각을 시각화하여 디스플레이 상에 표시하는 단계; 및 복수의 노드 중 임의의 두 개의 노드를 연결하는 각각의 링크를 시각화하여 디스플레이 상에 표시하는 단계를 포함한다.
본 개시의 일 실시예에 의하면, 방법은, 사용자로부터 소정의 자연어 입력을 수신하는 단계; 자연어 입력을 처리하여 하나 이상의 개념을 추출하는 단계; 추출된 하나 이상의 개념에 각각 대응하는 하나 이상의 노드를 생성하는 단계; 생성된 하나 이상의 노드를, 생성된 하나 이상의 노드 중 다른 노드에 및/또는 지식베이스 상의 복수의 노드 중 소정의 노드에, 각 대응하는 링크에 의해 연결시키는 단계- 각 대응하는 링크는, 각 대응하는 링크가 연결하는 노드들 간의 관계를 나타냄 -; 생성된 하나 이상의 노드 각각을 시각화하여 디스플레이 상에 표시하는 단계; 및 생성된 하나 이상의 노드를, 생성된 하나 이상의 노드 중 다른 노드에 및/또는 지식베이스 상의 복수의 노드 중 소정의 노드에 연결시키는 각 링크를 시각화하여 디스플레이 상에 표시하는 단계를 더 포함할 수 있다.
본 개시의 일 실시예에 의하면, 생성된 하나 이상의 노드 각각을 시각화하여 디스플레이 상에 표시하는 단계는, 생성된 하나 이상의 노드를 소정의 제한된 시간 간격 동안, 복수의 노드보다 크게 및/또는 복수의 노드와는 차별되는 별도의 색으로 표시하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 의하면, 방법은, 사용자로부터 소정의 자연어 입력을 수신하는 단계; 자연어 입력을 처리하여 하나 이상의 개념을 추출하는 단계; 지식베이스의 복수의 노드 중에서 추출된 하나 이상의 개념에 대응하는 하나 이상의 노드를 선택하는 단계; 디스플레이 상에서, 선택된 하나 이상의 노드의 표시를, 소정의 제한된 시간 동안, 크기 확장하거나, 선택된 하나 이상의 노드가 기존에 표시되어 있었던 색과는 다른 별도의 색을 갖도록 변경하여 표시하는 단계; 및 소정의 제한된 시간 경과 후, 선택된 하나 이상의 노드의 표시를, 변경하여 표시하는 단계 이전의 크기 및 색으로 표시하는 단계를 더 포함할 수 있다.
본 개시의 일 실시예에 의하면, 하나 이상의 노드를 선택하는 단계는, 선택된 하나 이상의 노드 각각에 대해 선택되는 횟수를 카운트하는 단계를 포함하고, 방법은, 복수의 노드 중에서, 소정의 기간 내에 카운트 된 횟수가 소정 수 이상인 노드의 표시를, 복수의 노드 중 다른 노드에 보다 크게 표시 및/또는 복수의 노드와 다른 별도의 색을 갖도록 변경하여 표시하는 단계를 더 포함할 수 있다.
본 개시의 일 실시예에 의하면, 방법은, 복수의 노드 중 공통된 속성을 갖는 하나 이상의 노드를 공통의 클래스로 분류하는 단계를 더 포함하고, 복수의 노드 각각을 시각화하여 디스플레이 상에 표시하는 단계는, 공통의 클래스로 분류된 하나 이상의 노드를 동일한 색으로 표시하는 단계를 포함할 수 있다.
본 개시의 다른 특징에 의하면, 하나 이상의 명령어를 포함하는 컴퓨터 판독가능 기록 매체로서, 하나 이상의 명령어는 컴퓨터에 의해 실행되는 경우, 컴퓨터로 하여금, 전술한 방법들 중 어느 하나의 방법을 수행하도록 하는, 컴퓨터 판독가능 기록 매체가 제공된다.
본 개시의 실시예에 의하면, 대화형 AI 에이전트 시스템의 개발자 또는 관리자 등(그러나 이에 한정되지 않음)을 위하여 지식베이스 모델들을 시각화하고 그 결과를 화면에 제시할 수 있다. 본 개시의 실시예에 의하면, 또한, 구축 또는 갱신 과정 중에 있는 지식베이스 모델들의 동적 변화를 시각화하고 그 결과를 화면에 제시할 수 있다. 따라서, 본 개시의 실시예에 의하면, 대화형 AI 에이전트 시스템의 개발자 또는 관리자 등의 입장에서, 지식베이스의 구조 및/또는 변동 사항을 직관적으로 인식할 수 있게 된다.
도 1은, 본 개시의 일 실시예에 따라, 대화형 AI 에이전트 시스템이 구현될 수 있는 시스템 환경을 개략적으로 도시한 도면이다.
도 2는, 본 개시의 일 실시예에 따른, 도 1의 사용자 단말(102)의 기능적 구성을 개략적으로 도시한 기능 블록도이다.
도 3은, 본 개시의 일 실시예에 따른, 도 1의 대화형 AI 에이전트 서버(106)의 기능적 구성을 개략적으로 도시한 기능 블록도이다.
도 4는, 본 개시의 일 실시예에 따른, 지식베이스 모델의 구축 초기 과정 및 그에 따른 시각화를 보여주는 도면이다.
도 5는, 본 개시의 일 실시예에 따른, 지식베이스 모델의 구축 초기 과정 및 그에 따른 시각화를 보여주는 도면이다.
이하, 첨부 도면을 참조하여 본 개시의 실시예에 관하여 상세히 설명한다. 이하에서는, 본 개시의 요지를 불필요하게 흐릴 우려가 있다고 판단되는 경우, 이미 공지된 기능 및 구성에 관한 구체적인 설명을 생략한다. 또한, 이하에서 설명하는 내용은 어디까지나 본 개시의 일 실시예에 관한 것일 뿐 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.
본 개시에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 개시를 한정하려는 인텐트에서 사용된 것이 아니다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 개시에서 사용되는 "및/또는"이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다' 또는 '가지다' 등의 용어는 본 개시 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다.
본 개시의 실시예에 있어서 '모듈' 또는 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 또는 '부'는, 특정한 하드웨어로 구현될 필요가 있는 '모듈' 또는 '부'를 제외하고는, 적어도 하나의 소프트웨어 모듈로 일체화되어 적어도 하나의 프로세서에 의해 구현될 수 있다.
덧붙여, 달리 정의되지 않는 한 기술적 또는 과학적인 용어를 포함하여, 본 개시에서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의된 용어들은, 관련 기술의 문맥상 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 개시에서 명백하게 달리 정의하지 않는 한 과도하게 제한 또는 확장하여 해석되지 않는다는 점을 알아야 한다.
이하, 첨부된 도면을 참조하여, 본 개시의 실시예에 대해 구체적으로 설명하기로 한다.
도 1은, 본 개시의 일 실시예에 따라, 대화형 AI 에이전트 시스템이 구현될 수 있는 시스템 환경(100)을 개략적으로 도시한 도면이다. 도시된 바에 의하면, 시스템 환경(100)은, 복수의 사용자 단말(102), 통신망(104), 대화형 AI 에이전트 서버(106), 및 외부 서비스 서버(108)를 포함한다.
본 개시의 일 실시예에 의하면, 복수의 사용자 단말(102) 각각은 유선 또는 무선 통신 기능을 구비한 임의의 사용자 전자 장치일 수 있다. 사용자 단말(102) 각각은, 예컨대 스마트 스피커, 뮤직 플레이어, 게임 콘솔, 디지털 TV, 셋탑박스, 스마트 폰, 태블릿 PC, 데스크탑, 랩탑, PDA 등을 포함한 다양한 유선 또는 무선 통신 단말일 수 있으며, 특정 형태로 제한되지 않음을 알아야 한다. 본 개시의 일 실시예에 의하면, 사용자 단말(102) 각각은, 통신망(104)을 통해서, 대화형 AI 에이전트 서버(106)와 통신, 즉 필요한 정보를 송수신할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 단말(102) 각각은, 통신망(104)을 통해서, 외부 서비스 서버(108)와 통신, 즉 필요한 정보를 송수신할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 단말(102) 각각은, 외부로부터 음성, 텍스트 및/또는 터치 형태의 사용자 입력을 수신할 수 있고, 통신망(104)을 통한 대화형 AI 에이전트 서버(106) 및/또는 외부 서비스 서버(108)와의 통신(및/또는 사용자 단말(102) 내 처리)을 통해 얻어진, 위 사용자 입력에 대응한 동작 결과(예컨대, 특정 대화 응답의 제공 및/또는 특정 태스크의 수행 등)를 사용자에게 제공할 수 있다.
본 개시의 실시예에 있어서, 사용자 입력에 대응한 동작으로서의 태스크 수행은, 예컨대 정보의 검색, 물품 구매, 메시지 작성, 이메일 작성, 전화 걸기, 음악 재생, 사진 촬영, 사용자 위치 탐색, 지도/내비게이션 서비스 등을 비롯한 각종 다양한 형태의 태스크(그러나 이로써 제한되는 것은 아님) 수행을 포함할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 단말(102) 각각은, 사용자 입력에 대응한 동작 결과로서의 대화 응답을, 시각, 청각 및/또는 촉각 형태(예컨대, 음성, 음향, 텍스트, 비디오, 이미지, 기호, 이모티콘, 하이퍼링크, 애니메이션, 각종 노티스, 모션, 햅틱 피드백 등을 포함할 수 있으며, 이로써 제한되는 것은 아님) 등 다양한 형태로써 사용자에게 제공할 수 있다.
본 개시의 일 실시예에 의하면, 통신망(104)은, 임의의 유선 또는 무선 통신망, 예컨대 TCP/IP 통신망을 포함할 수 있다. 본 개시의 일 실시예에 의하면, 통신망(104)은, 예컨대 Wi-Fi망, LAN망, WAN망, 인터넷망 등을 포함할 수 있으며, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 일 실시예에 의하면, 통신망(104)은, 예컨대 이더넷, GSM, EDGE(Enhanced Data GSM Environment), CDMA, TDMA, OFDM, 블루투스, VoIP, Wi-MAX, Wibro 기타 임의의 다양한 유선 또는 무선 통신 프로토콜을 이용하여 구현될 수 있다.
본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 통신망(104)을 통해 사용자 단말(102)과 통신할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 통신망(104)을 통해 사용자 단말(102)과 필요한 정보를 송수신하고, 이를 통해 사용자 단말(102) 상에서 수신된 사용자 입력에 대응한, 즉 사용자 인텐트에 부합하는 동작 결과가, 사용자에게 제공되도록 동작할 수 있다.
본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 예컨대 통신망(104)을 통해 사용자 단말(102)로부터 음성, 텍스트, 및/또는 터치 형태의 사용자 자연어 입력을 수신하고, 미리 준비된 지식베이스 모델들에 기초해서 그 수신된 자연어 입력을 처리하여 사용자의 인텐트(intent)를 결정할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 위 결정된 사용자 인텐트에 기초하여 대응하는 동작이 수행되도록 할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 예컨대 사용자 단말(102)이 사용자 인텐트에 부합하는 특정한 태스크를 수행하도록 특정한 제어 신호를 생성하여 해당 사용자 단말(102)로 전송할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 예컨대 사용자 단말(102)이 사용자 인텐트에 부합하는 특정한 태스크를 수행하게 하기 위하여, 통신망(104)을 통해 외부 서비스 서버(108)에 접속할 수 있다.
본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)가, 사용자 단말로부터 수신된 자연어 입력의 처리 결과, 그에 대응하는 사용자 인텐트의 결정에 실패하는 경우, 실패를 알리는 응답을 생성하여 해당 사용자 단말(102)로 전송할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는 또한 그러한 실패를 알리는 응답에 대응하여 또는 그와 무관하게 별도로 사용자 단말(102)로부터 수신되는 자연어 입력을 처리하고 처리된 결과를 기초로 해당 대화형 AI 에이전트 서버(106)를 위한 지식베이스 모델들을 추가, 변경 등 갱신할 수 있다. 구체적으로 도시되지는 않았으나, 대화형 AI 에이전트 서버(106)를 위한 지식베이스 모델들은 복수의 노드와 복수의 링크를 포함하는 그래프 형태로 표현될 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 지식베이스 모델을 구축 및/또는 갱신하는 경우, 그러한 지식베이스 모델의 그래프 형태를 시각화 하고 이를 화면 상에 제시할 수 있다.
본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 예컨대 소정의 지식베이스 모델들에 기초하여, 사용자 인텐트에 부합하는 특정한 대화 응답(또는 사용자 인텐트 결정에 실패한 경우 실패를 알리는 응답)을 생성하고 사용자 단말(102)로 전송할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 위 결정된 사용자 인텐트에 기초하여, 대응하는 대화 응답을 음성 및/또는 텍스트 형태로써 생성하고, 생성된 응답을, 통신망(104)을 통해, 사용자 단말(102)로 전달할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)에 의해 생성되는 대화 응답은, 전술한 음성 및/또는 텍스트 형태의 자연어 응답과 함께, 이미지, 비디오, 기호, 이모티콘 등 다른 시각적 요소들이나, 음향 등의 다른 청각적 요소들이나, 기타 다른 촉각적 요소들을 포함할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 단말(102) 상에서 수신된 사용자 입력의 형태(예컨대, 음성 입력인지 아니면 텍스트 입력인지)에 따라, 대화형 AI 에이전트 서버(106) 상에서 동일한 형태의 응답이 생성될 수 있으며(예컨대, 음성 입력이 주어진 경우에는 음성 응답이 생성되고 텍스트 입력이 주어진 경우에는 텍스트 응답이 생성됨), 다만 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 사용자 입력의 형태와 무관하게 음성 및/또는 텍스트 형태의 응답이 생성 및 제공될 수 있음을 알아야 한다.
본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 앞서 언급한 바와 같이, 통신망(104)을 통해서 외부 서비스 서버(108)와 통신할 수 있다. 외부 서비스 서버(108)는, 예컨대 메시징 서비스 서버, 온라인 상담 센터 서버, 온라인 쇼핑몰 서버, 정보 검색 서버, 지도 서비스 서버, 네비게이션 서비스 서버 등일 수 있으며, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서버(106)로부터 사용자 단말(102)로 전달되는, 사용자 인텐트에 기초한 대화 응답은, 예컨대 외부 서비스 서버(108)로부터 검색 및 획득된 데이터 콘텐츠를 포함한 것일 수 있음을 알아야 한다.
본 도면에서는, 대화형 AI 에이전트 서버(106)가 외부 서비스 서버(108)와 통신망(104)을 통해 통신 가능하게 구성된 별도의 물리 서버인 것으로 도시되어 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 대화형 AI 에이전트 서버(106)는, 예컨대 온라인 상담 센터 서버 또는 온라인 쇼핑몰 서버 등 각종 서비스 서버의 일부로 포함되어 구성될 수도 있음을 알아야 한다.
도 2는, 본 개시의 일 실시예에 따른, 도 1에 도시된 사용자 단말(102)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 사용자 단말(102)은, 사용자 입력 수신 모듈(202), 센서 모듈(204), 프로그램 메모리 모듈(206), 프로세싱 모듈(208), 통신 모듈(210), 및 응답 출력 모듈(212)을 포함한다.
본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 사용자로부터 다양한 형태의 입력, 예컨대 음성 입력 및/또는 텍스트 입력 등의 자연어 입력(및 부가적으로 터치 입력 등의 다른 형태의 입력)을 수신할 수 있다. 본 개시의 다른 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 텍스트 입력은 제외하고, 음성 입력과 터치 입력을 수신할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 예컨대 마이크로폰 및 오디오 회로를 포함하며, 마이크로폰을 통해 사용자 음성 입력 신호를 획득하고 획득된 신호를 오디오 데이터로 변환할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 예컨대 마우스, 조이스틱, 트랙볼 등의 각종 포인팅 장치, 키보드, 터치패널, 터치스크린, 스타일러스 등 다양한 형태의 입력 장치를 포함할 수 있고, 이들 입력 장치를 통해 사용자로부터 입력된 텍스트 입력 및/또는 터치 입력 신호를 획득할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)에서 수신되는 사용자 입력은, 소정의 태스크 수행, 예컨대 소정의 애플리케이션 실행 또는 소정 정보의 검색 등과 연관될 수 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 사용자 입력 수신 모듈(202)에서 수신되는 사용자 입력은, 소정의 애플리케이션 실행 또는 정보의 검색 등과는 무관하게 단순히 정보(예컨대, 지식베이스 구축에 이용될 수 있는 정보)의 제공 만을 위한 것일 수도 있다.
본 개시의 일 실시예에 의하면, 센서 모듈(204)은 하나 이상의 서로 다른 유형의 센서를 포함하고, 이들 센서를 통해 사용자 단말(102)의 상태 정보, 예컨대 해당 사용자 단말(102)의 물리적 상태, 소프트웨어 및/또는 하드웨어 상태, 또는 사용자 단말(102)의 주위 환경 상태에 관한 정보 등을 획득할 수 있다. 본 개시의 일 실시예에 의하면, 센서 모듈(204)은, 예컨대 광 센서를 포함하고, 광 센서를 통해 해당 사용자 단말(102)의 주변 광 상태를 감지할 수 있다. 본 개시의 일 실시예에 의하면, 센서 모듈(204)은, 예컨대 이동 센서를 포함하고, 이동 센서를 통해 해당 사용자 단말(102)의 이동 상태 여부를 감지할 수 있다. 본 개시의 일 실시예에 의하면, 센서 모듈(204)은, 예컨대 속도 센서 및 GPS 센서를 포함하고, 이들 센서를 통해 해당 사용자 단말(102)의 위치 및/또는 배향 상태를 감지할 수 있다. 본 개시의 다른 실시예에 의하면, 센서 모듈(204)은 온도 센서, 이미지 센서, 압력 센서, 접촉 센서 등을 비롯한 다른 다양한 형태의 센서를 포함할 수 있음을 알아야 한다.
본 개시의 일 실시예에 의하면, 프로그램 메모리 모듈(206)은, 사용자 단말(102) 상에서 실행될 수 있는 각종 프로그램, 예컨대 각종 애플리케이션 프로그램 및 관련 데이터 등이 저장된 임의의 저장 매체일 수 있다. 본 개시의 일 실시예에 의하면, 프로그램 메모리 모듈(206)에는, 예컨대 전화 걸기 애플리케이션, 이메일 애플리케이션, 인스턴트 메시징 애플리케이션, 카메라 애플리케이션, 음악 재생 애플리케이션, 비디오 재생 애플리케이션, 이미지 관리 애플리케이션, 지도 애플리케이션, 브라우저 애플리케이션 등을 비롯한 다양한 애플리케이션 프로그램들과 이들 프로그램의 실행과 관련된 데이터들이 저장될 수 있다. 본 개시의 일 실시예에 의하면, 프로그램 메모리 모듈(206)은, DRAM, SRAM, DDR RAM, ROM, 자기 디스크, 광 디스크, 플래시 메모리 등 다양한 형태의 휘발성 또는 비휘발성 메모리를 포함하도록 구성될 수 있다.
본 개시의 일 실시예에 의하면, 프로세싱 모듈(208)은, 사용자 단말(102)의 각 컴포넌트 모듈과 통신하고 사용자 단말(102) 상에서 각종 연산을 수행할 수 있다. 본 개시의 일 실시예에 의하면, 프로세싱 모듈(208)은, 프로그램 메모리 모듈(206) 상의 각종 애플리케이션 프로그램을 구동 및 실행시킬 수 있다. 본 개시의 일 실시예에 의하면, 프로세싱 모듈(208)은, 필요한 경우, 사용자 입력 수신 모듈(202) 및 센서 모듈(204)에서 획득된 신호를 수신하고, 이들 신호에 관한 적절한 처리를 수행할 수 있다. 본 개시의 일 실시예에 의하면, 프로세싱 모듈(208)은, 필요한 경우, 통신 모듈(210)을 통해 외부로부터 수신되는 신호에 대해 적절한 처리를 수행할 수 있다.
본 개시의 일 실시예에 의하면, 통신 모듈(210)은, 사용자 단말(102)이 도 1의 통신망(104)을 통하여, 대화형 AI 에이전트 서버(106) 및/또는 외부 서비스 서버(108)와 통신할 수 있게 한다. 본 개시의 일 실시예에 의하면, 통신 모듈(212)은, 예컨대 사용자 입력 수신 모듈(202) 및 센서 모듈(204) 상에서 획득된 신호가 소정의 프로토콜에 따라 통신망(104)을 통하여 대화형 AI 에이전트 서버(106) 및/또는 외부 서비스 서버(108)로 전송되도록 할 수 있다. 본 개시의 일 실시예에 의하면, 통신 모듈(210)은, 예컨대 통신망(104)을 통하여 대화형 AI 에이전트 서버(106) 및/또는 외부 서비스 서버(108)로부터 수신된 각종 신호, 예컨대 음성 및/또는 텍스트 형태의 자연어 응답을 포함한 응답 신호 또는 각종 제어 신호 등을 수신하고, 소정의 프로토콜에 따라 적절한 처리를 수행할 수 있다.
본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)은, 사용자 입력에 대응하는 응답을 시각, 청각 및/또는 촉각 등 다양한 형태로써 출력할 수 있다. 본 개시의 다른 실시예에 의하면, 응답 출력 모듈(212)은, 주로 음성 출력을 제공하고, 보조적으로 텍스트 출력을 제공할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)은, 예컨대 스피커 또는 헤드셋을 포함하고, 사용자 입력에 대응하는 청각적 응답, 예컨대 음성 및/또는 음향 응답을 스피커 또는 헤드셋을 통해 사용자에게 제공할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)은, 예컨대 LCD, LED, OLED, QLED 등의 기술에 기초한 터치 스크린 등의 각종 디스플레이 장치를 포함하고, 이들 디스플레이 장치를 통해 사용자 입력에 대응하는 시각적 응답, 예컨대 텍스트, 기호, 비디오, 이미지, 하이퍼링크, 애니메이션, 각종 노티스 등을 사용자에게 제시할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)는 모션/햅틱 피드백 생성부를 포함하고, 이를 통해 촉각적 응답, 예컨대 모션/햅틱 피드백을 사용자에게 제공할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(212)은, 사용자 입력에 대응하는 텍스트 응답, 음성 응답 및 모션/햅틱 피드백 중 임의의 두 개이상의 조합을 동시에 제공할 수 있음을 알아야 한다.
도 3은, 본 개시의 일 실시예에 따른, 도 1의 대화형 AI 에이전트 서버(106)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 대화형 에이전트 서버(106)는, 통신 모듈(302), 음성-텍스트 변환(Speech-To-Text; STT) 모듈(304), 자연어 이해(Natural Language Understanding; NLU) 모듈(306), 대화 이해 지식베이스(308), 지식베이스 관리 모듈(310), 지식베이스 시각화/표시 모듈(312), 대화 관리 모듈(314), 대화 생성 모듈(316), 및 음성 합성(Text-To-Speech; TTS) 모듈(318)을 포함한다.
본 개시의 일 실시예에 의하면, 통신 모듈(302)은, 소정의 유선 또는 무선 통신 프로토콜에 따라, 통신망(104)을 통하여, 대화형 AI 에이전트 서버(106)가 사용자 단말(102) 및/또는 외부 서비스 서버(108)와 통신할 수 있게 한다. 본 개시의 일 실시예에 의하면, 통신 모듈(302)은, 통신망(104)을 통해, 사용자 단말(102)로부터 전송되어 온, 사용자 입력(예컨대 터치 입력, 음성 입력 및/또는 텍스트 입력 등을 포함하며, 이로써 제한되지 않음)을 수신할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력은 특정한 태스크 실행 또는 대화 응답의 요청 신호일 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력은, 특정한 태스크 실행이나 대화 응답의 요청과 무관한, 지식 전달을 위한 진술일 수 있다.
본 개시의 일 실시예에 의하면, 통신 모듈(302)은, 전술한 사용자 입력과 함께 또는 그와 별도로, 통신망(104)을 통해, 사용자 단말(102)로부터 전송되어 온, 사용자 단말(102)의 상태 정보를 수신할 수 있다. 본 개시의 일 실시예에 의하면, 상태 정보는, 예컨대 전술한 사용자 입력 당시의 해당 사용자 단말(102)에 관련된 여러가지 상태 정보(예컨대, 사용자 단말(102)의 물리적 상태, 사용자 단말(102)의 소프트웨어 및/또는 하드웨어 상태, 사용자 단말(102) 주위의 환경 상태 정보 등)일 수 있다. 본 개시의 일 실시예에 의하면, 통신 모듈(302)은, 또한, 위 수신된 사용자 입력에 대응하여 대화형 AI 에이전트 서버(106)에서 생성된 대화 응답(예컨대, 음성 및/또는 텍스트 형태의 자연어 대화 응답 등) 및/또는 제어 신호를, 통신망(104)을 통해, 사용자 단말(102)로 전달하기 위해 필요한 적절한 조치를 수행할 수 있다.
본 개시의 일 실시예에 의하면, STT 모듈(304)은, 통신 모듈(302)을 통해 수신된 사용자 입력 중 음성 입력을 수신하고, 수신된 음성 입력을 패턴 매칭 등에 기초하여 텍스트 데이터로 변환할 수 있다. 본 개시의 일 실시예에 의하면, STT 모듈(304)은, 사용자의 음성 입력으로부터 특징을 추출하여 특징 벡터열을 생성할 수 있다. 본 개시의 일 실시예에 의하면, STT 모듈(304)은, DTW(Dynamic Time Warping) 방식이나 HMM 모델(Hidden Markov Model), GMM 모델(Gaussian-Mixture Mode), 딥 신경망 모델, n-gram 모델 등의 다양한 통계적 모델에 기초하여, 텍스트 인식 결과, 예컨대 단어들의 시퀀스를 생성할 수 있다.
본 개시의 일 실시예에 의하면, NLU 모듈(306)은, 통신 모듈(302) 또는 STT 모듈(304)로부터 텍스트 입력을 수신할 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(306)에서 수신되는 텍스트 입력은, 예컨대 통신 모듈(302)에서 통신망(104)을 통하여 사용자 단말(102)로부터 수신되었던 사용자 텍스트 입력 또는 통신 모듈(302)에서 수신된 사용자 음성 입력으로부터 STT 모듈(304)에서 생성된 텍스트 인식 결과, 예컨대 단어들의 시퀀스일 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(306)은, 텍스트 입력을 수신하는 것과 함께 또는 그 이후에, 해당 사용자 입력과 연관된 상태 정보, 예컨대 해당 사용자 입력 당시의 사용자 단말(102)의 상태 정보 등을 수신할 수 있다(그러나, 본 개시가 이로써 제한되는 것은 아님). 전술한 바와 같이, 상태 정보는, 예컨대 사용자 단말(102)에서 사용자 음성 입력 및/또는 텍스트 입력 당시의 해당 사용자 단말(102)에 관련된 여러가지 상태 정보(예컨대, 사용자 단말(102)의 물리적 상태, 소프트웨어 및/또는 하드웨어 상태, 사용자 단말(102) 주위의 환경 상태 정보 등)일 수 있다.
본 개시의 일 실시예에 의하면, NLU 모듈(306)은, 후술하는 대화 이해 지식베이스(308)에 기초하여, 위 수신된 텍스트 입력을 하나 이상의 사용자 인텐트(intent)에 대응시킬 수 있다. 여기서 사용자 인텐트는, 그 사용자 인텐트에 따라 대화형 AI 에이전트 서버(106)에 의해 이해되고 수행될 수 있는 일련의 동작(들)과 연관될 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(306)은, 수신된 텍스트 입력을 하나 이상의 사용자 인텐트에 대응시킴에 있어서 전술한 상태 정보를 참조할 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(306)이, 수신된 텍스트 입력에 대응하는 사용자 인텐트의 결정에 실패한 경우, 후술하는 대화 관리 모듈(314) 및 대화 생성 모듈(316)이, 그 실패에 관한 응답을 생성하고 생성된 응답을 통신 모듈(302)을 통해 사용자 단말(102)로 전송할 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(306)에 의하여 결정된 사용자 인텐트가 지식베이스의 구축 또는 갱신에 관한 것인 경우, 그에 따라, 후술하는 지식베이스 관리 모듈(310)이 대화 이해 지식베이스(308)를 구축 또는 갱신할 수 있다.
본 개시의 일 실시예에 의하면, 대화 이해 지식베이스(308)는, 예컨대 미리 정의된 온톨로지 모델을 포함할 수 있다. 본 개시의 일 실시예에 의하면, 온톨로지 모델은, 예컨대 노드들과, 노드들을 연결하는 링크들로 구성된 그래프 구조로 표현될 수 있는데, 노드들은 각각 그에 대응하는 소정의 개념을 가질 수 있고, 링크들은 각각 해당 링크에 의해 연결되는 노드들 간의 관계를 나타낼 수 있다. 본 개시의 일 실시예에 의하면, 임의의 두개의 노드가 복수의 링크에 의해 서로 연결될 수도 있음을 알아야 한다. 본 개시의 일 실시예에 의하면, 복수의 노드들은 공통의 속성을 공유하는 하나의 클래스로 분류될 수 있고, 하나의 노드가 복수의 클래스에 속할 수 있다. 본 개시의 일 실시예에 의하면, 각 노드는 사용자 인텐트에 대응하는 노드, 예컨대 "인텐트" 노드가 될 수 있고, "인텐트" 노드에 링크된 복수의 다른 노드는 그 "인텐트"에 대응한 각 "속성" 노드가 될 수 있다. 본 개시의 일 실시예에 의하면, "인텐트" 노드와 그 "인텐트" 노드에 직접 또는 간접 링크된 "속성" 노드들이 하나의 도메인을 구성할 수 있고, 온톨로지는 이러한 도메인들의 집합으로 구성될 수 있다.
본 개시의 일 실시예에 의하면, 대화 이해 지식베이스(308)는, 예컨대 대화형 AI 에이전트 시스템이 이해하고 그에 대응한 동작을 수행할 수 있는 모든 인텐트들에 각각 대응하는 도메인들을 포함하도록 구성될 수 있다. 본 개시의 일 실시예에 의하면, 온톨로지 모델은, 노드의 추가나 삭제, 또는 노드 간의 관계의 수정 등에 의해 동적으로 변경될 수 있음을 알아야 한다.
본 개시의 일 실시예에 의하면, 온톨로지 모델 내의 각 도메인의 인텐트 노드 및 속성 노드들은, 그에 대응하는 사용자 인텐트 또는 속성들에 관련된 단어들 및/또는 구절들과 각각 연관될 수 있다. 본 개시의 일 실시예에 의하면, 대화 이해 지식베이스(308)는, 온톨로지 모델을, 계층 구조의 노드들과, 각 노드 별로 연관된 단어들 및/또는 구절들의 집합으로 구성된, 예컨대 어휘 사전 형태(구체적으로 도시되지 않음)로 구현할 수 있고, NLU 모듈(306)은 이와 같이 어휘 사전 형태로 구현된 온톨로지 모델에 기초하여 사용자 인텐트를 결정할 수 있다. 예컨대, 본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 텍스트 입력 또는 단어들의 시퀀스를 수신하면, 그 시퀀스 내의 각 단어들이 온톨로지 모델 내의 어떤 도메인의 어떤 노드들에 연관되는지 결정할 수 있고, 그러한 결정에 기초하여 대응하는 도메인, 즉 사용자 인텐트를 결정할 수 있다.
본 개시의 일 실시예에 의하면, 전술한 바와 같이, NLU 모듈(306)에 의하여 결정된 사용자 인텐트가 대화 이해 지식베이스(308)의 구축 또는 갱신에 관한 것인 경우 지식베이스 관리 모듈(310)은, 그 사용자 인텐트에 따라 대화 이해 지식베이스(308)의 구축 또는 갱신을 수행할 수 있다. 본 개시의 일 실시예에 의하면, 지식베이스 관리 모듈(310)은, 사용자 인텐트에 따라, 하나 이상의 노드를 생성할 수 있고, 생성된 노드들을 대화 이해 지식베이스(308)의 다른 노드들과 연결하는 링크를 생성할 수 있다. 본 개시의 일 실시예에 의하면, 지식베이스 관리 모듈(310)은, 사용자 인텐트에 따라, 대화 이해 지식베이스(308) 상의 소정의 노드를 삭제할 수도 있고, 소정의 노드들 간의 링크 또는 관계를 수정할 수도 있다.
본 개시의 일 실시예에 의하면, 지식베이스 시각화/표시 모듈(312)은, 구체적으로 도시되지는 않았으나, 소정의 디스플레이 장치를 포함할 수 있다. 본 개시의 일 실시예에 의하면, 지식베이스 시각화/표시 모듈(312)은, 대화 이해 지식베이스(308)의 그래프 구조, 즉 복수의 노드들과 이들 간의 링크 관계로 구성된 그래프 구조를 시각화하여 해당 디스플레이 장치 상에 표시할 수 있다. 본 개시의 일 실시예에 의하면, 지식베이스 시각화/표시 모듈(312)은, 복수의 노드들을, 공통된 클래스 별로 다른 색으로 표시할 수 있으며, 다만 본 개시가 이로써 제한되는 것은 아니다.
본 개시의 일 실시예에 의하면, NLU 모듈(306)이, 대화 이해 지식베이스(308)의 온톨로지 모델에 기초하여 사용자 인텐트를 결정하는 경우, 지식베이스 시각화/표시 모듈(312)은, 그 결정된 사용자 인텐트에 대응하는 대화 이해 지식베이스(308)의 그래프 구조 상의 노드들을 시각적으로 눈에 띄게 표시(예컨대, 시인성이 높은 별도의 색으로 표시하거나 일시적으로 크기를 확장하여 표시)함으로써, 현재 처리 중인 사용자의 인텐트가 해당 노드들에 관한 것임이 직관적으로 파악되도록 할 수 있다. 본 개시의 일 실시예에 의하면, 지식베이스 시각화/표시 모듈(312)은, 전술한 대화 이해 지식베이스(308)의 그래프 구조 상의 노드들 중에서 사용자 인텐트와 관련하여 빈번하게 선택되는 노드(즉, 수신되는 사용자 인텐트들과 자주 연관되는 노드들)들을 시각적으로 눈에 띄게 표시(예컨대, 시인성이 높은 별도의 색으로 표시하거나 일시적으로 크기를 확장하여 표시)함으로써, 해당 노드가 중요한 노드임이 직관적으로 파악되도록 할 수 있다. 본 개시의 일 실시예에 의하면, 대화 이해 지식베이스(308)의 그래프 구조 상의 노드들 중에서, 다른 노드로 연결된 링크의 수가 다른 노드들에 비해 많은 노드(이러한 노드는 다른 노드들과 많은 관계를 맺고 있어서 개념적으로 중요하다고 볼 수 있으므로)들을 시각적으로 눈에 띄게 표시(예컨대, 시인성이 높은 별도의 색으로 표시하거나 크기를 크게 표시)함으로써, 해당 노드가 중요한 노드임이 직관적으로 파악되도록 할 수 있다.
본 개시의 일 실시예에 의하면, 지식베이스 시각화/표시 모듈(312)은 또한, 전술한 지식베이스 관리 모듈(310)에 의한 대화 이해 지식베이스(308)의 구축 또는 갱신에 관한 동작을, 시각화하여 디스플레이 상에 동적으로 표시할 수 있다. 본 개시의 일 실시예에 의하면, 지식베이스 시각화/표시 모듈(312)은, 예컨대 지식베이스 관리 모듈(310)이, 하나 또는 복수의 새로운 노드를 생성하고 생성된 노드를 대화 이해 지식베이스(308) 상의 다른 노드들에 링크함으로써, 대화 이해 지식베이스(308)를 갱신할 때, 새로이 생성되는 노드(들) 및 그 생성되는 노드(들)과 다른 노드들과의 링크(들)을 시각화하고, 디스플레이 상에 이를 동적 및/또는 정적으로 표시할 수 있다. 본 개시의 일 실시예에 의하면, 지식베이스 시각화/표시 모듈(312)에 의해 대화 이해 지식베이스(308)의 그래프 구조가 디스플레이 상에 표시될 경우, 노드들은 그래프의 계층 구조 상의 위치 또는 해당 노드에 관련된 속성 등에 따라 색, 크기 기타 다양한 방법에 의해 구분되어 표시될 수 있다.
본 개시의 일 실시예에 의하면, 대화 관리 모듈(314)은, NLU 모듈(306)에 의해 결정된 사용자 인텐트에 따라, 그에 대응하는 일련의 동작 흐름을 생성할 수 있다. 본 개시의 일 실시예에 의하면, 대화 관리 모듈(314)은, 소정의 대화 흐름 관리 모델에 기초하여, 예컨대 NLU 모듈(306)로부터 수신된 사용자 인텐트에 대응하여 어떠한 동작, 예컨대 어떠한 대화 응답 및/또는 태스크 수행을 행하여야 할지를 결정하고, 그에 따른 세부 동작 흐름을 생성할 수 있다.
본 개시의 일 실시예에 의하면, 대화 생성 모듈(316)은, 대화 관리 모듈(314) 에 의하여 생성된 대화 흐름에 기초하여 사용자에게 제공될 대화 응답을 생성할 수 있다. 본 개시의 일 실시예에 의하면, 대화 생성 모듈(316)은, 대화 응답의 생성에 있어서, 사용자 특징적 데이터(예컨대, 사용자의 이전 대화 기록, 사용자의 발음 특징 정보, 사용자 어휘 선호도, 사용자의 소재지, 설정 언어, 연락처/친구 목록, 각 사용자별로 해당 사용자의 이전 대화 기록 등)를 참조할 수 있다.
본 개시의 일 실시예에 의하면, TTS 모듈(318)은, 대화 생성 모듈(316)에 의해 사용자 단말(102)로 전송되도록 생성된 대화 응답을 수신할 수 있다. TTS 모듈(318)에서 수신되는 대화 응답은 텍스트 형태를 갖는 자연어 또는 단어들의 시퀀스일 수 있다. 본 개시의 일 실시예에 의하면, TTS 모듈(318)은, 다양한 형태의 알고리즘에 따라, 위 수신된 텍스트 형태의 입력을 음성 형태로 변환할 수 있다.
도 1 내지 3을 참조하여 전술한 본 개시의 실시예에서는, 대화형 AI 에이전트 시스템이 사용자 단말(102)과 대화형 AI 에이전트 서버(106) 간의 클라이언트-서버 모델, 특히 클라이언트는 오로지 사용자 입출력 기능만을 제공하고 그 외 대화형 AI 에이전트 시스템의 다른 모든 기능들을 서버에 위임된, 소위 "씬 클라이언트-서버 모델"에 기초하여 구현된 것과 같이 설명되어 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 대화형 AI 에이전트 시스템은 그 기능들이 사용자 단말과 서버 사이에 분배되어 구현될 수 있고, 또는 그와 달리 사용자 단말 상에 설치된 독립형 애플리케이션으로 구현될 수도 있음을 알아야 한다. 또한, 본 개시의 일 실시예에 따라 대화형 AI 에이전트 시스템이 그 기능들을 사용자 단말과 서버 사이에 분배하여 구현하는 경우, 클라이언트와 서버 사이의 대화형 AI 에이전트 시스템의 각 기능의 분배는 실시예마다 달리 구현될 수 있음을 알아야 한다. 또한, 도 1 내지 3을 참조하여 전술한 본 개시의 실시예에서는, 편의상 특정 모듈이 소정의 동작들을 수행하는 것처럼 설명되었으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 위 설명에서 어느 특정 모듈에 의해 수행되는 것과 같이 설명된 동작들이, 그와 다른 별개의 모듈에 의해 각각 수행될 수 있음을 알아야 한다. 또한, 도 1 내지 3을 참조하여 전술한 본 개시의 실시예에서는, 지식베이스 관리 모듈(310) 및 지식베이스 시각화/표시 모듈(312)의 동작이 주로 대화 이해 지식베이스(308)의 갱신과 관련된 것으로 설명되었으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 지식베이스 관리 모듈(310) 및 지식베이스 시각화/표시 모듈(312)의 동작은, 대화형 AI 에이전트 서버(106)의 다른 지식베이스 모델을 위하여도 적용될 수 있음을 알아야 한다.
도 4 및 5는, 각각, 본 개시의 일 실시예에 따른, 지식베이스 모델의 구축 초기 과정 및 그에 따른 시각화를 보여주는 도면이다. 도 4에 도시된 바에 의하면, 사용자로부터 "나는 설재호입니다"라는 문장을 수신한 대화형 AI 에이전트 서버가 "설재호"와 "나"의 개념에 대응하는 노드를 생성하고 이들을 "누구"라는 관계의 링크에 의해 연결하는 구성이 제시된 것을 알 수 있다. 또한, 도 5에 도시된 바에 의하면, 사용자로부터 "나 낚시 좋아해"라는 문장을 수신한 대화형 AI 에이전트 서버가 "나"와 "낚시"의 개념에 대응하는 노드를 생성하고 이들을 "좋아하다"라는 관계의 링크에 의해 연결하는 구성이 제시된 것을 알 수 있다. 도 4 및 5는 지식베이스 모델 생성에 관한 시각화를 가장 단순화하여 보여줌으로써 발명의 이해를 돕고자 한 것일 뿐, 본 개시의 실시예가 이로써 제한되는 것이 아님을 알아야 한다.
당업자라면 알 수 있듯이, 본 개시가 본 명세서에 기술된 예시에 한정되는 것이 아니라 본 개시의 범주를 벗어나지 않는 범위 내에서 다양하게 변형, 재구성 및 대체될 수 있다. 본 명세서에 기술된 다양한 기술들은 하드웨어 또는 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현될 수 있음을 알아야 한다.
본 개시의 일 실시예에 따른 컴퓨터 프로그램은, 컴퓨터 프로세서 등에 의해 판독 가능한 저장 매체, 예컨대 EPROM, EEPROM, 플래시 메모리장치와 같은 비휘발성 메모리, 내장형 하드 디스크와 착탈식 디스크 같은 자기 디스크, 광자기 디스크, 및 CDROM 디스크 등을 포함한 다양한 유형의 저장 매체에 저장된 형태로 구현될 수 있다. 또한, 프로그램 코드(들)는 어셈블리어나 기계어로 구현될 수 있다. 본 개시의 진정한 사상 및 범주에 속하는 모든 변형 및 변경을 이하의 특허청구범위에 의해 모두 포괄하고자 한다.

Claims (7)

  1. 디스플레이를 포함하는 대화형 AI 에이전트 시스템에 의하여 수행되는, 지식베이스의 시각화 방법으로서,
    상기 지식베이스는 복수의 노드를 포함하는 그래프로서 구성되고, 상기 복수의 노드 각각은 소정의 개념과 연관되고, 상기 복수의 노드 각각은 상기 복수의 노드 중 하나 이상의 다른 노드에 대해 각각 소정의 관계를 나타내는 링크에 의해 연결되며,
    상기 방법은,
    상기 복수의 노드 각각을 시각화하여 상기 디스플레이 상에 표시하는 단계; 및
    상기 복수의 노드 중 임의의 두 개의 노드를 연결하는 각각의 링크를 시각화하여 상기 디스플레이 상에 표시하는 단계
    를 포함하는, 지식베이스 시각화 방법.
  2. 제1항에 있어서,
    사용자로부터 소정의 자연어 입력을 수신하는 단계;
    상기 자연어 입력을 처리하여 하나 이상의 개념을 추출하는 단계;
    상기 추출된 하나 이상의 개념에 각각 대응하는 하나 이상의 노드를 생성하는 단계;
    상기 생성된 하나 이상의 노드를, 상기 생성된 하나 이상의 노드 중 다른 노드에 및/또는 상기 지식베이스 상의 상기 복수의 노드 중 소정의 노드에, 각 대응하는 링크에 의해 연결시키는 단계- 상기 각 대응하는 링크는, 상기 각 대응하는 링크가 연결하는 노드들 간의 관계를 나타냄 -;
    상기 생성된 하나 이상의 노드 각각을 시각화하여 상기 디스플레이 상에 표시하는 단계; 및
    상기 생성된 하나 이상의 노드를, 상기 생성된 하나 이상의 노드 중 다른 노드에 및/또는 상기 지식베이스 상의 상기 복수의 노드 중 소정의 노드에 연결시키는 상기 각 링크를 시각화하여 상기 디스플레이 상에 표시하는 단계를 더 포함하는, 지식베이스 시각화 방법.
  3. 제2항에 있어서,
    상기 생성된 하나 이상의 노드 각각을 시각화하여 상기 디스플레이 상에 표시하는 단계는, 상기 생성된 하나 이상의 노드를 소정의 제한된 시간 간격 동안, 상기 복수의 노드보다 크게 및/또는 상기 복수의 노드와는 차별되는 별도의 색으로 표시하는 단계를 포함하는, 지식베이스 시각화 방법.
  4. 제1항에 있어서,
    사용자로부터 소정의 자연어 입력을 수신하는 단계;
    상기 자연어 입력을 처리하여 하나 이상의 개념을 추출하는 단계;
    상기 지식베이스의 상기 복수의 노드 중에서 상기 추출된 하나 이상의 개념에 대응하는 하나 이상의 노드를 선택하는 단계;
    상기 디스플레이 상에서, 상기 선택된 하나 이상의 노드의 표시를, 소정의 제한된 시간 동안, 크기 확장하거나, 상기 선택된 하나 이상의 노드가 기존에 표시되어 있었던 색과는 다른 별도의 색을 갖도록 변경하여 표시하는 단계; 및
    상기 소정의 제한된 시간 경과 후, 상기 선택된 하나 이상의 노드의 표시를, 상기 변경하여 표시하는 단계 이전의 크기 및 색으로 표시하는 단계를 더 포함하는, 지식베이스 시각화 방법.
  5. 제4항에 있어서,
    상기 하나 이상의 노드를 선택하는 단계는, 상기 선택된 하나 이상의 노드 각각에 대해 선택되는 횟수를 카운트하는 단계를 포함하고,
    상기 방법은, 상기 복수의 노드 중에서, 소정의 기간 내에 상기 카운트 된 횟수가 소정 수 이상인 노드의 표시를, 상기 복수의 노드 중 다른 노드에 보다 크게 표시 및/또는 상기 복수의 노드와 다른 별도의 색을 갖도록 변경하여 표시하는 단계를 더 포함하는, 지식베이스 시각화 방법.
  6. 제1항에 있어서,
    상기 복수의 노드 중 공통된 속성을 갖는 하나 이상의 노드를 공통의 클래스로 분류하는 단계를 더 포함하고,
    상기 복수의 노드 각각을 시각화하여 상기 디스플레이 상에 표시하는 단계는, 상기 공통의 클래스로 분류된 상기 하나 이상의 노드를 동일한 색으로 표시하는 단계를 포함하는, 지식베이스 시각화 방법.
  7. 하나 이상의 명령어를 포함하는 컴퓨터 판독가능 기록 매체로서, 상기 하나 이상의 명령어는 컴퓨터에 의해 실행되는 경우, 상기 컴퓨터로 하여금, 제1항 내지 제6항 중 어느 한 항의 방법을 수행하도록 하는, 컴퓨터 판독가능 기록 매체.
PCT/KR2019/000684 2018-01-17 2019-01-17 대화형 ai 에이전트 시스템을 위한 지식베이스의 시각화 방법 및 컴퓨터 판독가능 기록 매체 WO2019143141A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180006157A KR101934583B1 (ko) 2018-01-17 2018-01-17 대화형 ai 에이전트 시스템을 위한 지식베이스의 시각화 방법 및 컴퓨터 판독가능 기록 매체
KR10-2018-0006157 2018-01-17

Publications (1)

Publication Number Publication Date
WO2019143141A1 true WO2019143141A1 (ko) 2019-07-25

Family

ID=65021520

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/000684 WO2019143141A1 (ko) 2018-01-17 2019-01-17 대화형 ai 에이전트 시스템을 위한 지식베이스의 시각화 방법 및 컴퓨터 판독가능 기록 매체

Country Status (2)

Country Link
KR (1) KR101934583B1 (ko)
WO (1) WO2019143141A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032622A (ko) * 2008-09-18 2010-03-26 변강섭 지식관리 시스템
JP2013164765A (ja) * 2012-02-13 2013-08-22 Hitachi Ltd ソースコード類似関係可視化装置
KR20160076927A (ko) * 2014-12-23 2016-07-01 이승철 섹터그래프로 구성한 시계모양의 에너지 사용상황 제시 기법과 나무자료구조를 활용한 에너지관리시스템
KR20170101609A (ko) * 2016-02-29 2017-09-06 경기대학교 산학협력단 지식베이스 기반의 개념그래프 확장 시스템
JP2017192005A (ja) * 2016-04-12 2017-10-19 株式会社エルブズ 人工知能エージェントによる見守りシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032622A (ko) * 2008-09-18 2010-03-26 변강섭 지식관리 시스템
JP2013164765A (ja) * 2012-02-13 2013-08-22 Hitachi Ltd ソースコード類似関係可視化装置
KR20160076927A (ko) * 2014-12-23 2016-07-01 이승철 섹터그래프로 구성한 시계모양의 에너지 사용상황 제시 기법과 나무자료구조를 활용한 에너지관리시스템
KR20170101609A (ko) * 2016-02-29 2017-09-06 경기대학교 산학협력단 지식베이스 기반의 개념그래프 확장 시스템
JP2017192005A (ja) * 2016-04-12 2017-10-19 株式会社エルブズ 人工知能エージェントによる見守りシステム

Also Published As

Publication number Publication date
KR101934583B1 (ko) 2019-01-02

Similar Documents

Publication Publication Date Title
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
WO2019124647A1 (ko) 대화형 ai 에이전트 시스템을 위한 계층적 대화 흐름 관리 모델을 자동으로 구축 또는 갱신하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
US20170277993A1 (en) Virtual assistant escalation
JP7108675B2 (ja) 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム
WO2019088384A1 (ko) 답변을 변형하여 풍부한 표현의 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
WO2019132135A1 (ko) 사용자간 대화 세션에 대한 능동적 모니터링 및 개입을 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
WO2019147039A1 (ko) 대화 이해 ai 서비스 시스템과 연관된 대화 세션 중의 특정 시점에서 목표 달성을 위한 최적의 대화 패턴을 결정하는 방법, 목표 달성 예측 확률을 결정하는 방법, 및 컴퓨터 판독가능 기록 매체
KR101891498B1 (ko) 대화형 ai 에이전트 시스템에서 멀티 도메인 인텐트의 혼재성을 해소하는 멀티 도메인 서비스를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR101950387B1 (ko) 학습 데이터 중 식별 가능하지만 학습 가능성이 없는 데이터의 레이블화를 통한, 대화형 ai 에이전트 시스템을 위한 지식베이스 모델의 구축 또는 갱신 방법, 컴퓨터 장치, 및 컴퓨터 판독 가능 기록 매체
KR101959292B1 (ko) 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR102120751B1 (ko) 대화 이해 ai 시스템에 의하여, 머신러닝을 대화 관리 기술에 적용한 하이브리드 계층적 대화 흐름 모델을 기초로 답변을 제공하는 방법 및 컴퓨터 판독가능 기록 매체
WO2019143170A1 (ko) 소정의 목표를 갖는 대화 이해 ai 서비스 시스템을 위한 대화 템플릿의 생성 방법 및 컴퓨터 판독가능 기록 매체
WO2019168235A1 (ko) 복수 개의 같은 유형의 엔티티 정보의 분석에 기초한 인텐트 결정을 제공하는 방법 및 대화형 ai 에이전트 시스템, 및 컴퓨터 판독가능 기록 매체
WO2019156537A1 (ko) 보안 등과 관련된 서비스를, 사용자간 대화 세션에 대한 모니터링에 기초하고 대화 세션 또는 별도의 세션을 통해, 능동적으로 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
KR101927050B1 (ko) 서버에 대한 액세스 없이, 개인화 데이터를 이용하여 학습 가능하도록 구성된 사용자 맞춤형 학습 모델을 포함하는 사용자 단말 및 컴퓨터 판독가능 기록매체
WO2019088638A1 (ko) 적시에 실질적 답변을 제공함으로써 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
WO2019088383A1 (ko) 적시에 간투사 답변을 제공함으로써 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
CN108197105A (zh) 自然语言处理方法、装置、存储介质及电子设备
KR102017544B1 (ko) 메신저 플랫폼에 관계없이 복수의 메신저를 이용하는 사용자간 다양한 형식의 채팅 서비스를 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
WO2019143141A1 (ko) 대화형 ai 에이전트 시스템을 위한 지식베이스의 시각화 방법 및 컴퓨터 판독가능 기록 매체
WO2019142976A1 (ko) 사용자 발화 입력에 대한 대화 응답 후보를 표시하도록 하는 디스플레이 제어 방법, 컴퓨터 판독가능 기록 매체 및 컴퓨터 장치
WO2019103569A1 (ko) 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR20190094081A (ko) 대화형 ai 에이전트 시스템을 위한 지식베이스의 시각화 방법 및 컴퓨터 판독가능 기록 매체
KR20210045704A (ko) 엔티티 정보의 분석에 기초한 인텐트 결정을 제공하는 방법 및 대화형 ai 에이전트 시스템, 및 컴퓨터 판독가능 기록 매체
KR102120749B1 (ko) 대화 이해 ai 시스템에 의하여, 키워드 기반 북마크 검색 서비스 제공을 위하여 북마크 정보를 저장하는 방법 및 컴퓨터 판독가능 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19741329

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19741329

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 21.012021)