WO2019156314A1 - 챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법 - Google Patents

챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법 Download PDF

Info

Publication number
WO2019156314A1
WO2019156314A1 PCT/KR2018/013543 KR2018013543W WO2019156314A1 WO 2019156314 A1 WO2019156314 A1 WO 2019156314A1 KR 2018013543 W KR2018013543 W KR 2018013543W WO 2019156314 A1 WO2019156314 A1 WO 2019156314A1
Authority
WO
WIPO (PCT)
Prior art keywords
chatbot
electronic device
personal information
processor
conversation
Prior art date
Application number
PCT/KR2018/013543
Other languages
English (en)
French (fr)
Inventor
강상욱
김영훈
박승훈
이다솜
제성민
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/965,751 priority Critical patent/US11646022B2/en
Publication of WO2019156314A1 publication Critical patent/WO2019156314A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation

Definitions

  • Various embodiments of the present disclosure relate to an electronic device for communicating with a chatbot and a method of operating the same.
  • An apparatus for understanding a language of a person may obtain an intent of a user from a sentence input in the form of text data, and obtain a parameter necessary to express the intention.
  • various electronic devices may provide a service for a user to communicate with various electronic devices based on natural language.
  • the electronic device may provide a user interface for communicating with one device (for example, an artificial intelligence device or an artificial intelligence program) for understanding a human language.
  • one device for example, an artificial intelligence device or an artificial intelligence program
  • various artificial intelligence devices having various purposes may be developed. Accordingly, it may be required to provide a user interface for a user of the electronic device to communicate with one or more artificial intelligence devices.
  • unwanted information about the user may be transmitted to the external device.
  • Various embodiments may provide an electronic device and a method for providing a user interface for interacting with one or more artificial intelligence devices or artificial intelligence programs.
  • a system may include a first electronic device including a user interface and communication circuits, at least one processor that is part of the first electronic device or remotely communicates with the first electronic device, and It may include at least one memory that resides in the first electronic device or outside the first electronic device.
  • the at least one memory if executed while operatively connected to the processor, is associated with calling a chatbot to a text and / or voice based chat via the user interface.
  • Receive a first user request cause the chatbot to join the conversation, receive, via the user interface, a second user request for a task for the chatbot, the second user
  • the request does not include at least a portion of the information required to perform the task, wherein at least a portion of the information is stored in the at least one memory and, via the user interface, for sharing at least a portion of the information.
  • the at least one to receive user authorization and provide at least a portion of the information to the chatbot May store (cause) instruction that causes the processor.
  • An electronic device may chat with a chatbot through a user interface related to a communication module, an input device, an output device, and a chat application, and the chat may transmit a message received through the input device to the communication module. Transmitting to the chatbot via the output device or transmitting a message received from the chatbot via the communication module through the output device, wherein at least one of the personal information bots participates in the conversation during the conversation.
  • Detect an event for executing a command of the user output a conversation with the personal information bot about the content to be provided to the chat bot using the user interface, and during the chat with the personal information bot Restrict sending information about the conversation with the privacy bot to the chatbot, And at least one processor configured to transmit information about the content to the chatbot based on receiving a user input for providing the chatbot with information about the content.
  • An electronic device may transmit a memory and a first message received from a first electronic device to a chatbot, transmit a response message to the received first message to the first electronic device, and transmit the response.
  • the message is obtained using a first natural language understanding module for performing a function of the chatbot, and based on at least one of the first message or the response message, a conversation about a personal information of a user of the first electronic device.
  • the device and method according to various embodiments of the present disclosure may transmit information intended by the user to one or more artificial intelligence devices while the user of the electronic device communicates with one or more artificial intelligence devices through a user interface.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments.
  • FIG. 2 illustrates an example of a network environment including an electronic device, a server, and a chatbot server according to various embodiments of the present disclosure.
  • FIG 3 is a view illustrating an electronic device according to various embodiments of the present disclosure.
  • FIG. 4 illustrates an example of a signal flow between an electronic device, a server, and a chatbot server according to various embodiments of the present disclosure.
  • FIG 5 illustrates an example of an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG 6 illustrates another example of an operation of an electronic device according to various embodiments of the present disclosure.
  • GUI 7 illustrates an example of a graphical user interface (GUI) for a chat application, according to various embodiments.
  • AI artificial intelligence
  • FIG. 9 illustrates an example of an operation of an electronic device for outputting a conversation with a personal information bot in a manner different from that with a chatbot, according to various embodiments.
  • FIG. 10 illustrates an example of a GUI for outputting a conversation with a personal information bot in a manner different from that with a chatbot in an electronic device according to various embodiments of the present disclosure.
  • FIG. 11 illustrates an example of an AI speaker for outputting a conversation with a personal information bot in a different manner from that with a chatbot, according to various embodiments.
  • FIG. 12 illustrates another example of an AI speaker for outputting a conversation with a personal information bot in a manner different from that with a chatbot, according to various embodiments.
  • FIG. 13 illustrates an example of an operation for storing information related to a conversation with a chatbot in an electronic device according to various embodiments of the present disclosure.
  • FIG. 14 illustrates an example of a GUI for storing information related to a chat with a chatbot in an electronic device according to various embodiments of the present disclosure.
  • FIG. 15 illustrates an example of an operation for outputting content that can be provided to a chatbot in an electronic device according to various embodiments of the present disclosure.
  • FIG. 16 illustrates an example of a GUI for outputting content that can be provided to a chatbot according to various embodiments of the present disclosure.
  • FIG. 17 illustrates another example of a GUI for outputting content that can be provided to a chatbot according to various embodiments of the present disclosure.
  • Electronic devices may be various types of devices.
  • the electronic device may include, for example, at least one of a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smartphone
  • a computer device e.g., a laptop, a desktop, a tablet, or a smart bracelet
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a portable medical device
  • a home appliance e.g., a portable medical device
  • any (eg first) component is said to be “(functionally or communicatively)” or “connected” to another (eg second) component, the other component is said other
  • the component may be directly connected or connected through another component (eg, a third component).
  • module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
  • the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
  • the module may be configured as an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of this document include instructions stored in a machine-readable storage media (eg, internal memory 136 or external memory 138) that can be read by a machine (eg, a computer). It may be implemented in software (eg, program 140).
  • the device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include an electronic device (eg, the electronic device 100) according to the disclosed embodiments.
  • the processor may perform a function corresponding to the command directly or by using other components under the control of the processor.
  • the instructions can include code generated or executed by a compiler or interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish that the data is stored semi-permanently or temporarily on the storage medium.
  • a method may be provided included in a computer program product.
  • the computer program product may be traded between the seller and the buyer as a product.
  • the computer program product may be distributed online in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)) or through an application store (eg Play StoreTM).
  • a device-readable storage medium eg compact disc read only memory (CD-ROM)
  • an application store eg Play StoreTM
  • at least a portion of the computer program product may be stored at least temporarily on a storage medium such as a server of a manufacturer, a server of an application store, or a relay server, or may be temporarily created.
  • Each component eg, a module or a program
  • some components eg, modules or programs
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least some of the operations may be executed in a different order, omitted, or additional operations may be added. Can be.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (for example, near field communication), or the second network 199 ( For example, it may communicate with the electronic device 104 or the server 108 through remote wireless communication.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 may include a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module ( 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, and antenna module 197. ) May be included.
  • a sensor module 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, and antenna module 197.
  • the components for example, the display device 160 or the camera module 180
  • some components such as, for example, in the case of a sensor module 176 (eg, fingerprint sensor, iris sensor, or illuminance sensor) embedded in the display device 160 (eg, display), It can be integrated.
  • the processor 120 may drive at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120 by driving software (eg, the program 140). It can control and perform various data processing and operations.
  • the processor 120 loads and processes the command or data received from another component (eg, the sensor module 176 or the communication module 190) into the volatile memory 132, and processes the result data in the nonvolatile memory 134.
  • the processor 120 operates independently of the main processor 121 (eg, central processing unit or application processor), and additionally or alternatively, uses less power than the main processor 121, Or a coprocessor 123 specialized for a designated function (eg, a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor).
  • the coprocessor 123 may be operated separately from the main processor 121 or embedded.
  • the coprocessor 123 may, for example, replace the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg At least one of the elements of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module) together with the main processor 121 while in the application execution state. 190) may control at least some of the functions or states associated with).
  • the coprocessor 123 e.g., image signal processor or communication processor
  • is implemented as some component of another functionally related component e.g., camera module 180 or communication module 190. Can be.
  • the memory 130 may include various data used by at least one component of the electronic device 101 (for example, the processor 120 or the sensor module 176), for example, software (for example, the program 140). ), And input data or output data for a command related thereto.
  • the memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
  • the program 140 is software stored in the memory 130 and may include, for example, an operating system 142, a middleware 144, or an application 146.
  • the input device 150 is a device for receiving a command or data to be used for a component (for example, the processor 120) of the electronic device 101 from the outside (for example, a user) of the electronic device 101.
  • a component for example, the processor 120
  • the input device 150 may include a microphone, a mouse, or a keyboard.
  • the sound output device 155 is a device for outputting sound signals to the outside of the electronic device 101.
  • the sound output device 155 may include a speaker used for general purposes such as multimedia playback or recording playback, and a receiver used only for receiving a call. It may include. According to one embodiment, the receiver may be formed integrally or separately from the speaker.
  • the display device 160 is a device for visually providing information to a user of the electronic device 101.
  • the display device 160 may include a display, a hologram device, a projector, and a control circuit for controlling the device.
  • the display device 160 may include a pressure sensor capable of measuring the intensity of the pressure on the touch circuitry or the touch.
  • the audio module 170 may bidirectionally convert a sound and an electrical signal. According to an embodiment, the audio module 170 acquires sound through the input device 150, or an external electronic device (for example, a wired or wireless connection with the sound output device 155 or the electronic device 101). Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • an external electronic device for example, a wired or wireless connection with the sound output device 155 or the electronic device 101. Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • the sensor module 176 may generate an electrical signal or data value corresponding to an operating state (eg, power or temperature) inside the electronic device 101 or an external environmental state.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, Or an illumination sensor.
  • the interface 177 may support a specified protocol that may be connected to an external electronic device (for example, the electronic device 102) by wire or wirelessly.
  • the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • audio interface an audio interface
  • the connection terminal 178 is a connector for physically connecting the electronic device 101 and an external electronic device (for example, the electronic device 102), for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • an HDMI connector for example, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and videos. According to an embodiment, the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.
  • the power management module 188 is a module for managing power supplied to the electronic device 101, and may be configured, for example, as at least part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 is a device for supplying power to at least one component of the electronic device 101 and may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 establishes a wired or wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108), and establishes the established communication channel. It can support to perform communication through.
  • the communication module 190 may include one or more communication processors that support wired communication or wireless communication that operate independently of the processor 120 (eg, an application processor).
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg A local area network (LAN) communication module, or a power line communication module, comprising a local area network such as a first network 198 (eg, Bluetooth, WiFi direct, or infrared data association) using a corresponding communication module. Communication with an external electronic device via a communication network) or a second network 199 (eg, a telecommunication network such as a cellular network, the Internet, or a computer network (eg, a LAN or a WAN)).
  • the various types of communication modules 190 described above may be implemented as one chip or each separate chip.
  • the wireless communication module 192 may distinguish and authenticate the electronic device 101 in the communication network using the user information stored in the subscriber identification module 196.
  • the antenna module 197 may include one or more antennas for transmitting or receiving signals or power from the outside.
  • the communication module 190 (for example, the wireless communication module 192) may transmit a signal to or receive a signal from an external electronic device through an antenna suitable for a communication method.
  • peripheral devices eg, a bus, a general purpose input / output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input / output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.
  • all or some of the operations performed by the electronic device 101 may be executed by another one or a plurality of external electronic devices.
  • the electronic device 101 may instead or additionally execute the function or service by itself.
  • At least some associated functions may be requested to the external electronic device.
  • the external electronic device may execute the requested function or additional function and transmit the result to the electronic device 101.
  • the electronic device 101 may process the received result as it is or additionally to provide the requested function or service.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • FIG. 2 illustrates an example of a network environment including an electronic device, a server, and a chatbot server according to various embodiments of the present disclosure.
  • the network environment 200 may include an electronic device 101, a server 108, and a chatbot server 201.
  • the server 108 is an intelligent server and may be associated with at least one of an artificial intelligence application (eg, a voice recognition application, an intelligent application, an artificial intelligence assistant application, etc.) or a chat application to be run on the electronic device 101. have.
  • the server 108 may provide or support an artificial intelligence application or a chat application to be driven by the electronic device 101.
  • the electronic device 101 may store an artificial intelligence application or a chat application provided by the server 108.
  • the electronic device 101 may communicate with the chatbot server 201 through the server 108 using an artificial intelligence application or a chat application provided by the server 108.
  • the electronic device 101 not only a chat application, but also an artificial intelligence application (for example, a voice recognition application, an intelligent application, an artificial intelligence assistant application, etc.) and a chatbot (or personal information) with the user of the electronic device 101 Bots) can provide a user interface for communicating.
  • an artificial intelligence application for example, a voice recognition application, an intelligent application, an artificial intelligence assistant application, etc.
  • a chatbot or personal information with the user of the electronic device 101 Bots
  • the chatbot or personal information bot may be executed by at least one of the chatbot server 201, the server 108, or the electronic device 101.
  • the chatbot may be a chatbot server 201, a natural language understanding (NLU) module for the chatbot included in the server 108, a conversation module 230 included in the server 108, or an electronic device. It may be executed using at least one of the chat client (or chat application, artificial intelligence application) included in 101.
  • the personal information bot may include an NLU module for personal information included in the server 108, a conversation module 230 included in the server 108, and a personal information management module 250 included in the server 108. Or a conversation client (or a conversation application or an artificial intelligence application) included in the electronic device 101.
  • the chatbot server 201 may support at least some functions of the chatbot for communicating with the user of the electronic device 101 through the server 108.
  • the chatbot server 201 may communicate with a user of the electronic device 101 through a chat application (or artificial intelligence application) stored in the electronic device 101 based on the chat module 230 of the server 108. It can support at least some features of a chatbot.
  • the chatbot server 201 uses an automatic speech recognition (ASR) module 210 or a natural language understanding (NLU) module 220 included in the server 108.
  • ASR automatic speech recognition
  • NLU natural language understanding
  • a chatbot may be implemented to communicate with a user of the electronic device 101.
  • the conversation may be based on one or more of text or voice.
  • the chatbot server 201 may receive a user input of the electronic device 101 from the electronic device 101 through the server 108 (eg, the conversation module 230). For example, the chatbot server 201 may receive text data input from the user or text data converted from the user's speech. For the conversation, the chatbot server 201 may transmit a message in response to the received user input to the electronic device 101 through the server 108 (eg, the conversation module 230).
  • the chatbot server 201 may be a processor-based external device (eg, an external server) as shown in FIG. 2.
  • the chatbot server 201 may be a processor-based external device (eg, an external server) as shown in FIG. 2.
  • at least some functions of the chatbot server 201 may be performed by the server 108.
  • a collection of computer programs or instructions for running the chatbot may be implemented inside the server 108 (eg, memory of the server 108).
  • the chatbot server 201 may include a natural language understanding (NLU) module (not shown) implemented to implement at least some of the functionality of the chatbot.
  • NLU natural language understanding
  • the chatbot server 201 may be a natural language understanding module (hereinafter, NLU module for chatbot) related to pizza menu, pizza order, or pizza delivery. It may include.
  • the chatbot server 201 may determine or generate a message in response to the received user input using the NLU module for the chatbot.
  • the NLU module for the chatbot may be included in the server 108.
  • the NLU module for the chatbot may be implemented using the natural language understanding module 220 of the server 108.
  • the NLU module for the chatbot included in the server 108 may be logically independent of the natural language understanding module 220 of the server 108.
  • the NLU module for the chatbot may be used for the chatbot's functionality (eg, conducting a conversation about a pizza order), and the natural language understanding module 220 of the server 108 may be configured to execute the artificial intelligence application of the electronic device 101.
  • the chatbot server 201 may operate based on keywords, rather than understanding natural language. For example, the chatbot server 201 may identify a specified word or phrase from among received user input. The chatbot server 201 may output (or obtain) a response message corresponding to the identified word or phrase.
  • the chatbot server 201 may provide a service (eg, a web page) for implementing (or manufacturing) a plurality of chatbots.
  • the chatbot server 201 may drive a plurality of chatbots implemented using the service.
  • the chatbot server 201 may include a plurality of NLU modules corresponding to each of the plurality of chatbots.
  • the server 108 may include multiple NLU modules corresponding to each of the multiple chatbots, implemented using the natural language understanding module 220.
  • the chatbot server 201 may use the multiple NLU modules included in the chatbot server 201 or the server 108 to express the intent of the user from the user input or a parameter necessary to express the intention. Slot can be obtained.
  • the chatbot server 201 may determine a service (or action or task) to provide to the user based on the obtained intent or parameter.
  • the chatbot server 201 may transmit a response message for output from the electronic device 101 to the electronic device 101 through the server 108 (eg, the conversation module 230) based on the determination. have.
  • the chatbot server 201 may include a server that supports connection of a plurality of chatbots and external services (eg, the server 108 and the third party server 202). For example, the chatbot server 201 may use the information received from the 3rd party server 202 (eg, a weather server, etc.) to perform a chatbot function implemented in the chatbot server 201.
  • the chatbot server 201 may use the information received from the 3rd party server 202 (eg, a weather server, etc.) to perform a chatbot function implemented in the chatbot server 201.
  • the server 108 may include an automatic speech recognition (ASR) module 210, a natural language understanding (NLU) module 220, a chat module 230, or personal information management. Module 250 may be included.
  • Server 108 may include communication circuitry, memory, and a processor. The processor may execute the command stored in the memory to drive the automatic speech recognition module 210, the natural language understanding module 220, the chat module 230, or the personal information management module 250.
  • the memory of the server 108 may include a personal information database (DB) 240 (or context DB).
  • the personal information DB 240 may be connected to the personal information management module 250.
  • the personal information management module 250 may identify and extract information stored in the personal information DB 240.
  • the server 108 may transmit / receive data (or information) with the electronic device 101 or the chatbot server 201 through the communication circuit.
  • Automatic speech recognition (ASR) module 210 may convert user input received from electronic device 101 into text data.
  • the automatic voice recognition module 210 may include a speech recognition module.
  • the speech recognition module may include an acoustic model and a language model.
  • the acoustic model may include information related to speech
  • the language model may include information about a combination of unit phoneme information and unit phoneme information.
  • the speech recognition module may convert user speech into text data by using information related to speech and unit phoneme information.
  • Information about the acoustic model and the language model may be stored, for example, in an automatic speech recognition database (ASR DB).
  • ASR DB automatic speech recognition database
  • the natural language understanding (NLU) module 220 may grasp the intention of the utterance or the intention of the sentence by performing a syntactic analysis or semantic analysis.
  • the natural language understanding module 220 may grasp the intention of the user input received from the electronic device 101 or the intention of the input received from the chatbot server 201.
  • the grammatical analysis may divide user input into grammatical units (eg, words, phrases, morphemes, etc.) and determine which grammatical elements the divided units have.
  • the semantic analysis may be performed using semantic matching, rule matching, formula matching, or the like.
  • the natural language understanding module 220 may include a domain, an intent, or a parameter (or slot) necessary to express the intention corresponding to the user input or the input from the chatbot server 201. ))
  • natural language understanding module 220 may include an NLU module for a chatbot.
  • the NLU module for chatbots can understand conversations related to chatbot functionality. For example, if the chatbot implemented in the chatbot server 201 is associated with a pizza company, the NLU module for the chatbot may understand a sentence or speech related to a pizza menu, a pizza order, or a pizza delivery.
  • the NLU module for the chatbot may identify intents and parameters associated with the conversation between the chatbot and the user of the electronic device 101. Intents that the NLU module for the chatbot can identify may include, for example, the intent of a pizza order or the intent of a side menu order.
  • the NLU module for the chatbot may identify a parameter necessary to perform a function related to the intent.
  • parameters related to the intention of the order may include a brand name, a size, a quantity, a date, and the like.
  • the NLU module for the chatbot can identify the intent of the pizza order.
  • the NLU module for the chatbot can be identified as a parameter, namely potato pizza, size large, and quantity 1.
  • the date can be automatically entered as a current date, for example.
  • the order information identified as described above may be stored in the personal information DB 240 when a user input indicating order confirmation is received from the electronic device 101.
  • various NLU modules for various chatbots may be stored in the server 108.
  • the server 108 may provide various operators with a chat platform (eg, the chat module 230) that can implement a chatbot for talking with a user of the electronic device 101.
  • the NLU module for the chatbot as described above is not included in the natural language understanding module 220 but may be implemented in a separate external device (eg, an external server or a chatbot server 201).
  • the chatbot's understanding of the conversation as described above may not be based on the NLU module.
  • the chatbot or chatbot server 201 may identify intents and parameters as described above based on identifying keywords (eg, specified words or phrases).
  • the natural language understanding module 220 may include an NLU for PI for personal information (PI).
  • PI personal information
  • PI personal information
  • a chat application or artificial intelligence application
  • PI personal information
  • the NLU module for personal information (PI) may understand a conversation for providing the chatbot (or the chatbot server 201) with the personal information of the user of the electronic device 101.
  • the NLU module for personal information (PI) While the NLU module for personal information (PI) is being driven, the user input received from the electronic device 101 may be provided to the NLU module for personal information instead of the NLU module for the chatbot. While the NLU module for personal information (PI) is driven, the user input received from the electronic device 101 may not be provided to the chatbot server 201. While the NLU module for personal information (PI) is being driven, the subject who communicates with the user of the electronic device 101 may be output from the electronic device 101 in the form of a personal information bot different from the chatbot. A personal information bot (PI bot) may be output following a chat with a chatbot through a chat application (or artificial intelligence application) of the electronic device 101.
  • a chat application or artificial intelligence application
  • the NLU module for personal information may be implemented using the natural language understanding module 220 of the server 108.
  • the NLU module for personal information included in the server 108 may be logically independent of the natural language understanding module 220 of the server 108.
  • the NLU module for personal information may be implemented outside of the natural language understanding module 220.
  • the chat module 230 may be a platform capable of running a chat application stored in the electronic device 101.
  • the conversation module 230 may include, for example, a hardware architecture or a software framework capable of running a chat application.
  • the conversation module 230 may be software stored in a memory of the server 108. At least a portion of the conversation module 230 may be included in the processor of the server 108, and the conversation module 230 may be implemented in a combination of software and hardware.
  • the conversation module 230 may be implemented external to the server 108.
  • the conversation module 230 may form a conversation session between the electronic device 101 and the chatbot driven by the chatbot server 201.
  • the conversation module 230 may transmit data received from the electronic device 101 to the chatbot server 201 (or chatbot) through the conversation session, and data received from the chatbot server 201 (or chatbot). Can be transmitted to the electronic device 101.
  • the conversation module 230 transmits data received from the electronic device 101 (for example, text data "to be ordered” or text data converted from an utterance) to the chatbot server 201 (or an NLU module for the chatbot). can do.
  • the conversation module 230 may transmit data regarding the response message received from the chatbot server 201 to the electronic device 101 using a conversation session.
  • the response message of the chatbot received from the chatbot server 201 may be output through the graphic user interface or the audio output device of the electronic device 101.
  • the chatbot may send the user's personal information (eg, address, card information, or email address) to the chatbot (or chatbot server 201). May need to be provided.
  • the personal information bot (PI bot) is a server 108 (e.g., an individual) to conduct a chat about personal information when the chatbot (or chatbot server 201) is required to provide personal information of the user. NLU module for information).
  • the personal information bot may be output through the electronic device 101 in a form of participating in a chat with the chatbot.
  • the conversation module 230 may detect an event for joining the personal information bot in the conversation session while the conversation with the chatbot is in progress in the conversation session.
  • conversation module 230 may identify a keyword associated with the personal information from data received via the conversation session to detect an event for joining the personal information bot to the conversation session.
  • the dialogue module 230 may use the keyword “address” from data regarding “tell me about address information” received from the electronic device 101 or data regarding “please input the address” received from the chatbot server 201. "Can be identified.
  • the conversation module 230 may detect an event for engaging the personal information bot in the conversation session based on identifying the designated keyword from the data received via the conversation session.
  • the conversation module 230 uses a NLU module for personal information to detect an event for engaging the personal information bot in a conversation session, such as a chat (eg, "Inform me” or "Please enter your address”).
  • the conversation module 230 uses the NLU module for personal information to identify personal information in the chat session based on identifying that the intention of the chat is the intent of personal information input (eg, address input). An event for joining the bot can be detected.
  • the conversation module 230 (or processor) is based on identifying a designated word (or a word for invoking an artificial intelligence assistant) from data received from the electronic device 101.
  • an event for joining the personal information bot in the conversation session can be detected.
  • the conversation module 230 (or the processor) may, based on identifying the designated word "Bixby" from data relating to "bixby, tell me address information" received from the electronic device 101, An event for joining the privacy bot in the session can be detected.
  • the conversation module 230 may determine the intent of the user input by using the natural language understanding module 220 (or the NLU module for personal information) when a word designated in the user input is identified. An event for joining the personal information bot can be detected.
  • the conversation module 230 may detect, from user input, an event for engaging the personal information bot based on identifying an intent requiring the voice assistant to perform the task.
  • the conversation module 230 may receive a control signal from the electronic device 101 to join the personal information bot in the conversation session.
  • the electronic device 101 e.g., a chat client
  • the electronic device 101 may include user input (e.g., input for a physical button, input for an icon, specified words (e.g., Can receive utterances including BIXB).
  • the electronic device 101 may transmit a control signal to the server 108 (eg, the conversation module 230 or the processor) based on the user input.
  • the server 108 eg, the conversation module 230 or the processor
  • the chat bot server 201 sends data related to a user input received through the chat application from the electronic device 101. Can be restricted from sending to.
  • the conversation module 230 (or the processor) may transmit the data received through the chat application from the electronic device 101 based on detecting an event for joining the personal information bot, to the chatbot server 201 ( Or NLU modules for chatbots), but can be provided to NLU modules for personal information.
  • the conversation module 230 (or the processor) may transmit a response message generated (or determined) to the electronic device 101 using the NLU module for personal information.
  • the response message may be output as a response message of a personal information bot (PI bot) different from the chat bot in a chat application of the electronic device 101.
  • PI bot personal information bot
  • the personal information management module 250 uses the NLU module for personal information to communicate with the user of the electronic device 101 in the form of a personal information bot (PI bot). Can identify (or retrieve) the personal information required (eg, address) from The conversation module 230 (or the processor) may transmit a message regarding the personal information identified from the personal information DB 240 to the electronic device 101. The conversation module 230 (or the processor) sends the identified personal information to the chatbot server while talking to the user of the electronic device 101 in the form of a personal information bot (PI bot) using an NLU module for personal information. 201 (or an NLU module for the chatbot) may not transmit. The conversation module 230 (or the processor) sends the personal information to the chatbot server 201 based on receiving an authorization or authentication for providing the personal information to the chatbot server 201 from the electronic device 101. Can be sent to.
  • PI bot personal information bot
  • the processor of the server 108 may perform at least some of the functions described with reference to FIGS. 5 through 17 described below. .
  • the memory of the server 108 may include a personal information DB 240.
  • the personal information DB 240 (or the context DB) may store, for example, personal information (eg, address, email, card information, etc.) of the user of the electronic device 101.
  • the personal information DB 240 may store information related to the purpose or function of the chatbot.
  • the chatbot implemented in the chatbot server 201 is associated with a pizza company
  • the personal information DB 240 may store an order history for each user.
  • the personal information DB 240 may store, for example, information related to the purpose or function of various chatbots as well as chatbots associated with a pizza company, according to a user (eg, a user ID) of the electronic device.
  • a user eg, a user ID
  • At least a part of the operation of the server 108 as described above may be performed by the electronic device 101.
  • a detailed description of the electronic device 101 will be described later with reference to FIG. 3.
  • FIG 3 illustrates an example of an electronic device 101 according to various embodiments of the present disclosure.
  • the electronic device 101 may include an input device 150, an output device 350, a processor 120, and a memory 130.
  • the electronic device 101 does not include a device (eg, a smartphone, a tablet PC, a wearable device, etc.) or a display including a display (eg, the display device 160 or the display 360).
  • Devices eg, artificial intelligence (AI) speakers).
  • the electronic device 101 eg, the memory 130
  • the electronic device 101 may perform an AI assistant function through a chat client (eg, a chat application 330) connected to the server 108.
  • the chat client may play a role of outputting (or displaying) a chat between the chatbot (or personal information bot) and the user in the electronic device 101.
  • the input device 150 is a device for receiving a command or data to be used for a component (for example, the processor 120) of the electronic device 101 from the outside (for example, a user) of the electronic device 101.
  • a component for example, the processor 120
  • the input device 150 eg, a touch panel
  • the output device 350 may include at least one of the display 360 and the sound output device 155.
  • the display 260 may correspond to, for example, the display device 160 of FIG. 1.
  • the sound output device 155 may include a speaker.
  • the electronic device 101 eg, an AI speaker
  • the display 360 may display a screen.
  • the display 360 can display a graphical user interface (GUI) of the chat application 330.
  • the display 360 may display an object (or image) representing a chatbot or a personal information bot within the GUI of the conversation application 330.
  • the display 360 may display a message received from the chatbot (or chatbot server 201) within the GUI of the chat application 330.
  • the display 360 may display a message obtained using the NLU module for personal information of the server 108 as a message of a personal information bot, in the GUI of the conversation application 330.
  • the sound output device 155 may output sound.
  • the sound output device 155 may output a chatbot's message (eg, talk) or a personal information bot's message (eg, talk) via the chat application 330.
  • the audio output device 155 may output a message of a chatbot and a message of a personal information bot in different voices (voices).
  • the user interface of the chat application 330 may include a microphone and a sound output device 155 (eg, a speaker).
  • the processor 120 may control overall operations of the electronic device 101.
  • the processor 120 may receive commands from other components (eg, the input device 150, the output device 350, the display 360, the sound output device 155, and the memory 130, etc.). It is possible to interpret the received command and to perform calculations or process the data according to the interpreted command.
  • the processor 120 may be implemented in software, may be implemented in hardware such as a chip, a circuit, or the like, or may be implemented in a collection of software and hardware.
  • the processor 120 may be one or a collection of a plurality of processors.
  • Processor 120 may execute a chat application 330 (eg, application 143) that is stored in memory 130 and may be supported by server 108 (or conversation module 230). Can be.
  • the processor 120 may transmit and receive data regarding a message (or conversation) with the chatbot (or chatbot server 201) through the server 108 using the conversation application 330.
  • the processor 120 may transmit and receive data regarding a message (or conversation) with the personal information bot (or server 108) using the conversation application 330.
  • the processor 120 may output the user input received through the input device 150 in the GUI of the conversation application 330 through the display 360.
  • the processor 120 may output user input received through the input device 150 (eg, a microphone) through the sound output device 155 (eg, a speaker). have.
  • the processor 120 may transmit the user input (for example, text data or voice data) received through the input device 150 to the server 108.
  • the processor 120 may receive a chatbot response message to the user input from the chatbot server 201 through the server 108.
  • the processor 120 may receive a response message of the chatbot from the chat module 230 of the server 108 through the chat application 330 of the electronic device 101.
  • the processor 120 may output the received response message through the output device 350.
  • the processor 120 may display the received response message as a message of a chatbot, in the GUI of the conversation application 330, via the display 360.
  • the processor 120 may output the received response message as the chatbot speaks through the audio output device 155.
  • the processor 120 may detect an event for engaging the personal information bot in the conversation with the chatbot running on the chatbot server 201 while transmitting and receiving data with the chatbot server 201 through the chat application 330. have. For example, the processor 120 may identify a designated keyword relating to personal information from data received from the chatbot server 201, or input to a user input (eg, input for a physical button, icon for invoking the personal information bot). For example, a spoken word with a specified word (e.g., bixby), and the like. The processor 120 may transmit a control signal to the server 108 for engaging the personal information bot in the conversation with the chatbot. In another example, processor 120 may receive a control signal from server 108 to engage the personal information bot in the conversation with the chatbot.
  • a user input eg, input for a physical button, icon for invoking the personal information bot.
  • a spoken word with a specified word e.g., bixby
  • the processor 120 communicates with the personal information bot via the conversation application 330 based on detecting an event for engaging the personal information bot in the conversation with the chat bot running on the chat bot server 201. can do.
  • the processor 120 may receive a message obtained from the server 108 using an NLU module for personal information.
  • the processor 120 may output the received message through the output device 350 as a message of the personal information bot.
  • the processor 120 may output a message of the personal information bot as if the personal information bot participates in a chat session with the chat bot running on the chat bot server 201.
  • the processor 120 via the display 360, within the GUI (eg, chat room with the chatbot) of the chat application 330, an object (eg, image) and a personal information bot representing the personal information bot.
  • the processor 120 may output the message of the personal information bot through the sound output device 155 as the personal information bot speaks.
  • the processor 120 may output a message of the personal information bot through a sound output device 155 in a voice different from that of the chatbot.
  • the processor 120 for example, chats with the personal information bot via the chat application 330, while receiving the message or user input of the personal information bot, the chatbot server 201 (or the NLU module for the chatbot). Can be restricted to The processor 120 may, for example, identify personal information stored in the personal information DB 340 of the memory 130 while talking to the personal information bot. For example, the processor 120 may identify the personal information corresponding to the conversation with the personal information bot in the personal information DB 340 of the memory 130 and output a conversation about the identified personal information. . At least some of the operations as described above may be performed at the server 108.
  • the processor of the server 108 is a personal information bot while the electronic device 101 is chatting with the personal information bot using the NLU module for personal information.
  • Sending a conversation with the chatbot server 201 may be restricted.
  • the processor of the server 108 eg, the personal information management module 250
  • the processor of the server 108 (eg, the conversation module 230) may transmit a message of the personal information bot regarding the identified personal information to the electronic device 101.
  • the processor 120 may input user information (eg, a ⁇ share '' speech or text) to provide the personal information output as a conversation with the personal information bot to the chatbot server 201 (or the NLU module for the chatbot). Can be received.
  • the processor 120 (or the processor of the server 108 (e.g., the conversation module 230)) provides the personal information to the chatbot server 201 (or chatbot) based on receiving the user input ( Or transmit).
  • the processor 120 may perform additional authentication for providing the personal information to the chatbot server 201.
  • the processor 120 performs additional authentication for providing the chatbot server 201 with personal information based on at least one of voice information, iris information, face recognition information, fingerprint information, or a password of the user of the electronic device 101. Can be done.
  • the processor 120 may obtain voice information for authentication seamlessly from a user input for providing the personal information to the chatbot server 201 (e.g., "tell me"). Can be.
  • the processor 120 may authenticate the user input based on identifying that the voice information obtained from the user input corresponds to the voice of the user of the electronic device 101.
  • the processor 120 may acquire face recognition information of the user of the electronic device 101 by using the camera module 180 (eg, an image sensor) during the conversation with the personal information bot.
  • the processor 120 may acquire iris information or fingerprint information of the user of the electronic device 101 using the sensor module 176 (eg, an iris sensor or a fingerprint sensor) during the conversation with the personal information bot.
  • the processor 120 may authenticate the user input based on the acquired face recognition information, iris information, or fingerprint information.
  • the processor 120 may authenticate the user input based on receiving a password from a user of the electronic device 101.
  • the processor 120 may perform the authentication operation in response to detecting an event for engaging the personal information bot in the conversation with the chatbot.
  • the processor 120 receives the user input for providing the personal information to the chatbot server 201 and provides the personal information to the chatbot server 201 (or based on performing authentication as described above). Transmission).
  • the processor 120 may terminate the conversation with the personal information bot to provide (or transmit) the personal information to the chatbot server 201. Alternatively, the processor 120 may terminate the conversation with the personal information bot based on providing (or transmitting) the personal information to the chatbot server 201. The processor 120 may communicate with a chatbot driven through the chatbot server 201 following the conversation with the personal information bot, based on terminating the conversation with the personal information bot.
  • At least a part of the operation of the processor 120 as described above may be performed by the server 108.
  • the processor 120 may perform at least some of the functions described with reference to FIGS. 5 through 17 described below.
  • the memory 130 may mean one or more memory sets.
  • the memory 130 may execute instructions stored in the memory 130 based on signaling with the processor 120.
  • Memory 130 may include data received from or generated by other components (eg, processor 120, input device 150, output device 350, display 360, etc.) and / or Or you can save the command.
  • the memory 130 may store a chat application 330 that is connected to the chat module 230 of the server 108.
  • the electronic device 101 can support a chat with a chatbot driven by the chatbot server 201 through the chat application 330 of the electronic device 101 and the chat module 230 of the server 108. Can be.
  • the memory 130 may store the personal information DB 340. Detailed description of the information stored in the personal information DB 340 will be described later in Tables 1 and 2.
  • Table 1 shows an example of a personal information database (database, DB) according to various embodiments.
  • the personal information DB of Table 1 is stored in at least one of the memory 130 of the electronic device 101 (eg, the personal information DB 340) or the memory of the server 108 (eg, the personal information DB 240). Can be.
  • the personal information DB 240 or 340 may store personal information according to a user ID.
  • the user ID may be given according to the user's account.
  • the user ID may be used to distinguish the user of the electronic device 101 from other users. If there are a plurality of devices registered in one user account, the user ID may be associated with the IDs of the plurality of devices.
  • the personal information DB 240 or 340 may store personal information such as age, gender, card information, phone number, address, etc. in the user ID 77778.
  • the personal information may be received from another application or another server, or may be input from a user of the electronic device 101.
  • the personal information DB 240 or 340 may include a feature indicating the type of information, a value or number as the content of the information, and a source indicating a path through which the information is input. You can store data about.
  • the personal information DB 240 or 340 may receive information from an account, payment application, health application, contact, or e-mail account through an application programming interface (API). Can be received.
  • the personal information DB 240 or 340 may receive information from a user.
  • API application programming interface
  • FIG. 4 illustrates an example of a signal flow between an electronic device, a server, and a chatbot server according to various embodiments of the present disclosure.
  • the server 108 may form a conversation session between the electronic device 101 and a chatbot supported by the chatbot server 201.
  • the server 108 may receive a control signal for starting a chat with a chatbot supported by the chatbot server 201 from the electronic device 101.
  • the electronic device 101 may execute the conversation application 330 (or an artificial intelligence application) based on a user input.
  • the electronic device 101 based on receiving an input to the GUI of the conversation application 330 (or artificial intelligence application) or receiving a user utterance requesting a conversation with the chatbot via a microphone, is a server 108.
  • a control signal for starting a conversation with the chatbot included in the chatbot server 201 may be transmitted.
  • the server 108 may form a chat session including the chatbot with the electronic device 101 based on receiving a control signal from the electronic device 101 to start a chat with the chatbot.
  • the electronic device 101 may receive a user input while the conversation application 330 (or an artificial intelligence application) is executed.
  • the user input may include a user's text input or a user's speech for chatting with a chatbot.
  • the electronic device 101 may receive a user input regarding selection of a menu or a user input for ordering a chatbot in a chat with a chatbot related to food or delivery.
  • the electronic device 101 may transmit data regarding the received user input to the server 108 (or the conversation module 230) through the conversation application 330.
  • the data relating to the user input may include text data or data regarding user speech.
  • the server 108 (or the conversation module 230) may receive data regarding a user input from the electronic device 101 (or the conversation application 330).
  • the server 108 may send data regarding the user input to the chatbot server 201.
  • the data about the user input transmitted to the chatbot server 201 may be different from the data about the user input received from the electronic device 101.
  • the server 108 uses the automatic speech recognition (ASR) module 210 to convert the data related to the user speech into text data. I can convert it.
  • the server 108 may transmit the text data converted through the automatic voice recognition (ASR) module 210 or the text data received from the electronic device 101 to an NLU for chatbot.
  • ASR automatic speech recognition
  • the server 108 uses the NLU module for the chatbot to intent and parameters (or slots) of user input. ) Can be identified.
  • the server 108 may send data about the intent of the user input and data about the parameters of the user input to the chatbot server 201, identified using the NLU module for the chatbot.
  • the chatbot server 201 may receive data regarding intent of the user input and data regarding parameters of the user input.
  • the server 108 may convert the data related to user input (eg, through an automatic speech recognition (ASR) module 210). Text data or text data received from the electronic device 101) may be transmitted to the chatbot server 201.
  • the chatbot server 201 may receive data regarding the user input.
  • the chatbot server 201 uses the NLU module for the chatbot to identify intents and parameters (or slots) of the user input from data (e.g., text data) related to the received user input. Can be.
  • the chatbot server 201 may generate a chatbot response message for the user input.
  • the chatbot server 201 may determine a service (or action, task) of the chatbot to be provided to the user based on an intent or parameter of the user input.
  • the chatbot server 201 may determine or obtain a response message of the chatbot for output from the electronic device 101 based on the determination.
  • the chatbot server 201 may send data regarding the acquired chatbot's response message to the server 108 (or the conversation module 230).
  • the server 108 (or conversation module 230) may receive data about the chatbot's response message from the chatbot server 201.
  • the server 108 may transmit data regarding the response message of the chatbot to the electronic device 101.
  • the server 108 may transmit data regarding the response message of the chatbot to the electronic device 101 through a conversation session between the electronic device 101 and the chatbot.
  • the electronic device 101 may receive data regarding a chatbot response message from the server 108 (or the conversation module 230) through the conversation application 330 (or artificial intelligence application).
  • the electronic device 101 may output a response message of the chatbot.
  • the electronic device 101 may output a chatbot response message on the screen in the GUI of the conversation application 330.
  • the electronic device 101 may output, via the microphone, a response message of the chatbot on the conversation application 330 (or artificial intelligence application) as the chatbot speaks.
  • the server 108 may detect an event for engaging the personal information bot in the conversation with the chatbot. Operation 409 may be performed in parallel (or continuously) while operations 402 through 408 are performed. The server 108 repeatedly performs operations 402 to 408 based on not detecting an event for joining the personal information bot, so that the user of the electronic device 101 and the chatbot of the chatbot server 201 are connected. Can support conversation At least part of the operation 409 may be performed by the electronic device 101.
  • the server 108 may use the NLU for PI for personal information, from the data regarding the user input received from the electronic device 101 (eg, "let me know the address information") in operation 403. Intents of the user input may be identified.
  • the server 108 uses an NLU module for personal information (NLU for PI), from the data regarding the response message received from the chatbot server 201 (e.g., "Please enter an address") in operation 406, to the chatbot.
  • the intent of the response message can be identified.
  • the server 108 detects an event for engaging the privacy bot in the conversation with the chatbot, based on identifying that the intent of the user input or the intent of the chatbot's response message is related to the personal information. can do.
  • the server 108 may transmit data relating to a user input received from the electronic device 101 (eg, “tell me address information”) in operation 403 or a response message received from the chatbot server 201 in operation 406. From the data regarding (eg "Please enter your address"), you can identify keywords (eg "address") related to your personal information.
  • the server 108 may detect an event for engaging the personal information bot in the conversation with the chatbot based on the identification.
  • the electronic device 101 may identify the keyword, and the server 108 may receive a control signal for joining the personal information bot from the electronic device 101 identifying the keyword.
  • the chat client connected to the chat module 230 of the server 108 and included in the electronic device 101 may detect an event for engaging the personal information bot in the chat with the chatbot.
  • the electronic device 101 e.g., a chat client
  • the electronic device 101 may include user input (e.g., input for a physical button, input for an icon, specified words (e.g., Speech, including a bixby).
  • the electronic device 101 may transmit a control signal to the server 108 to join the personal information bot in the conversation with the chatbot based on the reception.
  • the server 108 may detect an event for joining the personal information bot based on receiving the control signal from the electronic device 101.
  • the server 108 may invoke or drive the personal information bot based on detecting an event for joining the personal information bot in the conversation with the chatbot.
  • the personal information bot may be included in the server 108.
  • the personal information bot may include an NLU module for personal information included in the server 108, a conversation module 230 included in the server 108, a personal information management module 250 included in the server 108, or an electronic device.
  • a function (that is, a conversation about personal information) may be performed through at least one of the chat client (or chat application or artificial intelligence application) included in 101.
  • the personal information bot may generate a response message of the personal information bot related to the personal information (eg, “there is a stored address”, “the Gyeonggi-do, Yeongtong city”).
  • the personal information bot may be configured as an NLU module for personal information from user input (e.g., "address information") or chatbot response message (e.g., "Please enter an address") associated with the detection of the event.
  • NLU for PI may be used to identify an intent of a user input or an intent of a chatbot's response message.
  • the personal information bot can control the personal information management module 250 based on the identified intent.
  • the personal information bot using the personal information management module 250, extracts (or retrieves) information (e.g., an address) related to the identified intention (e.g., an intention regarding address input) from the personal information DB 240. can do.
  • the personal information bot may use the extracted information to generate a response message of the personal information bot (eg, "I have a stored address", “Gyeonggi-do, Suwon-si").
  • the function of the personal information bot may be performed by a processor of the server 108.
  • At least part of the operation 411 may be performed by the electronic device 101.
  • the electronic device 101 extracts (or addresses) information related to the identified intention (for example, intention of inputting an address) from the personal information DB 340 stored in the electronic device 101 (or an address). Search).
  • the electronic device 101 may transmit the extracted information (eg, an address) to the server 108.
  • the personal information bot may generate a response message of the personal information bot based on the information (for example, an address) received from the electronic device 101.
  • the personal information bot may transmit data regarding the response message of the personal information bot to the electronic device 101 through the server 108 (or the conversation module 230).
  • the personal information bot transmits data regarding the response message of the personal information bot to the electronic device 101 through a conversation session between the electronic device 101 and the chatbot based on the conversation module 230 of the server 108. can do.
  • the server 108 may create a chat session between the electronic device 101 and the personal information bot associated with the chat session between the electronic device 101 and the chatbot.
  • the conversation session between the electronic device 101 and the personal information bot may be associated with the conversation session between the electronic device 101 and the chatbot.
  • the conversation session between the electronic device 101 and the personal information bot may be a sub-session for the conversation session between the electronic device 101 and the chatbot.
  • the conversation session between the electronic device 101 and the personal information bot may be a temporary and independent session inside the conversation session between the electronic device 101 and the chatbot.
  • the server 108 (or the dialogue module 230) may use the dialogue session between the generated electronic device 101 and the personal information bot, for example, to transmit data regarding the response message of the personal information bot to the electronic device. Can be sent to 101.
  • the server 108 may send data about the response message (or user input) of the personal information bot during the conversation with the personal information bot (e.g., operations 410 to 414).
  • chatbots can be restricted.
  • the server 108 or chat module 230 uses a chat session between the electronic device 101 and the personal information bot to send a response message of the personal information bot to the chatbot server 201 (or chatbot).
  • the above operation may be performed by the electronic device 101.
  • the electronic device 101 may restrict transmission of the response message of the personal information bot to the chatbot server 201 (or chatbot).
  • the electronic device 101 (for example, the chat client) outputs the response message of the personal information bot through the electronic device 101, and transmits data about the response message of the personal information bot to the server 108. You can limit it.
  • the electronic device 101 e.g., the chat client
  • the electronic device 101 may restrict the sending of the personal information bot's response message to the chatbot server 201 (or chatbot). Can be.
  • the electronic device 101 may receive data regarding a response message of the personal information bot from the server 108 (or the conversation module 230) through the conversation application 330 (or artificial intelligence application).
  • the electronic device 101 may output a response message of the personal information bot.
  • the electronic device 101 may output a response message of the personal information bot in the GUI of the conversation application 330.
  • the electronic device 101 may output a response message of the personal information bot using the chat room with the chatbot.
  • the electronic device 101 may output a response message of the personal information bot as if the personal information bot participated in the chat room with the chat bot.
  • the electronic device 101 may output a response message of the personal information bot as the personal information bot speaks through the microphone on the conversation application 330 (or artificial intelligence application).
  • the electronic device 101 may output a response message of the personal information bot as if the personal information bot participated in the conversation with the chat bot.
  • the electronic device 101 may receive a user input through the conversation application 330 (or an artificial intelligence application).
  • the user input may include a user's textual input or user speech for a chat (ie, a conversation related to personal information) with a personal information bot.
  • the electronic device 101 transmits data regarding user input through the chat application 330 (or artificial intelligence application) to the personal information bot through the server 108 (or the chat module 230). can do.
  • the electronic device 101 transmits data regarding the user input to the server 108 (or the conversation module 230) by using the conversation session between the generated electronic device 101 and the personal information bot. can do.
  • the personal information bot may receive data regarding user input from the electronic device 101 through the dialogue module 230 of the server 108.
  • the server 108 may restrict sending data regarding the user input to the chatbot server 201 during a conversation with the personal information bot (eg, operations 410 through 414).
  • the server 108 (or chat module 230) uses a chat session between the electronic device 101 and the personal information bot to send a response message of the personal information bot to the chatbot server 201 (or chatbot).
  • chatbot uses a chat session between the electronic device 101 and the personal information bot to send a response message of the personal information bot to the chatbot server 201 (or chatbot).
  • chatbot uses a chat session between the electronic device 101 and the personal information bot to send a response message of the personal information bot to the chatbot server 201 (or chatbot).
  • chatbot uses a chat session between the electronic device 101 and the personal information bot to send a response message of the personal information bot to the chatbot server 201 (or chatbot).
  • NLU module To the NLU module.
  • the electronic device 101 may receive a user input (eg, “share” or “deliver”) for providing the personal information to the chatbot server 201.
  • Operation 416 may be performed in parallel (or continuously) while operations 411 through 415 are performed.
  • the server 108 repeatedly performs operations 411 to 415 based on not receiving a user input for providing personal information to the chatbot server 201, whereby the user and the personal information bot of the electronic device 101 are provided.
  • Can support conversations with a user input eg, “share” or “deliver”
  • the electronic device 101 may transmit data regarding personal information (eg, an address) to the server 108 based on receiving a user input for providing the personal information to the chatbot server 201.
  • the data related to the personal information may include a control signal for providing the personal information to the chatbot server 201.
  • the data related to the personal information may include personal information selected based on a user input (eg, “Songtong, Suwon, Gyeonggi-do”).
  • the data related to the personal information may be a form in which a necessary parameter (eg, “Song Tong in Suwon, Gyeonggi-do”) is extracted from a chat with the personal information bot.
  • the data about the personal information may be in the form of a response message of the personal information bot.
  • the server 108 may receive data about personal information (eg, an address) from the electronic device 101 together with a control signal for providing the personal information to the chatbot server 201.
  • personal information eg, an address
  • the server 108 may transmit data regarding personal information (eg, an address) to the chatbot server 201.
  • the server 108 (or the conversation module 230) sends the data about the personal information to the chatbot server 201 only when receiving a control signal for providing the personal information to the chatbot server 201 from the electronic device 101. ) Can be sent. Therefore, the personal information of the user can be protected and malfunction of the chatbot can be prevented.
  • FIG. 5 illustrates an example of an operation of an electronic device according to various embodiments of the present disclosure. The operations of FIG. 5 may be performed by at least one of the electronic device 101 or the server 108.
  • the processor 120 or the processor of the server 108 may receive a first user request related to a call of a chatbot.
  • the processor 120 receives a first user request to enter a chat application 330 (eg, a chat room with a chatbot) to chat with a chatbot driven by the chatbot server 201, and the first A signal regarding the user request can be sent to the server 108.
  • the processor (eg, the conversation module 230) of the server 108 may receive a signal regarding the first user request from the electronic device 101.
  • the first user request may be an input to a GUI of a chat application.
  • the first user request may be a speech that includes a designated word, input through a microphone.
  • the processor of the server 108 eg, the conversation module 230
  • the chat module 230 may form a chat session including the electronic device 101 and the chatbot.
  • the processor 120 or the processor of the server 108 may receive a second user request for a task of the chatbot.
  • the task of the chatbot may indicate, for example, a service (or function of the chatbot) (eg, an order, etc.) to be provided to the user of the electronic device 101.
  • the chatbot's task may be determined through an NLU for chatbot based on the second user request.
  • the processor 120 may receive a second user request (eg, a utterance or text “I would like to order”) via the chat application 330 (eg, a chat room with a chatbot) and respond to the second user request. May send a signal to the server 108.
  • the processor eg, the dialogue module 230 of the server 108 may receive a signal regarding the second user request from the electronic device 101.
  • the second user request may not include at least some of the information (eg, personal or order information) required to perform the task (eg, order). Can be.
  • the second user request (eg, "to order") may not include complete information for performing the task.
  • the personal information may include an address, card information, and the like, and the order information may include a brand name, size, quantity, date, and the like.
  • At least some of the information (eg, personal information or order information) required to perform the task may be stored in the memory 130 of the electronic device 101 (eg, the personal information DB 340) or the memory of the server 108. (Eg, the personal information DB 240).
  • the processor 120 or the processor of the server 108 receives a user authorization for sharing at least some of the information required to perform the task. can do.
  • processor 120 may identify at least some of the information required to perform the task, stored in memory 130 or received from server 108.
  • the processor 120 may output the content regarding the identified information on the chat application 330 (eg, a chat room with a chatbot).
  • the processor 120 may display the content regarding the identified information in the GUI of the conversation application 330 or may output the sound through the sound output device 155 (eg, a speaker).
  • the processor 120 may receive a user authorization for sharing the output information to the chatbot (or the chatbot server 201).
  • the processor 120 may receive, via a chat application 330 (e.g., a chat room with a chatbot), a utterance or text that says "Share” with user approval, and sends a signal regarding the user approval to the server ( 108).
  • the processor e.g, the conversation module 230 of the server 108 may receive a signal regarding the user approval from the electronic device 101.
  • processor 120 or processor 108 of server 108 provides the chatbot (or chatbot server 201) with at least some of the information required to perform the task. can do.
  • the processor of the server 108 e.g., the conversation module 230
  • receives the approved information e.g., personal information such as an address
  • the chatbot or chatbot server 201
  • 6 illustrates another example of an operation of an electronic device according to various embodiments of the present disclosure. 6 may be performed by at least one of the electronic device 101 or the server 108. 7 illustrates an example of a graphical user interface (GUI) for a chat application (eg, the chat application 330) according to various embodiments. 8 illustrates an example of an artificial intelligence (AI) speaker for a chat application (eg, a chat application 330) (or an artificial intelligence application) according to various embodiments.
  • GUI graphical user interface
  • AI artificial intelligence
  • the processor 120 may communicate with a chatbot driven by the chatbot server 201 and output a conversation with the chatbot.
  • the chat with the chatbot may be performed by sending a message (that is, user input) received through the input device 150 to the chatbot server 201 through the server 108 or from the chatbot server 201 to the server ( 108 may include outputting the message received through the output device 350.
  • Operation 601 may correspond to operation 503 of FIG. 5 and an operation performed after operation 503.
  • the processor 120 communicates 710 with the chatbot 701 via GUIs (eg, chat rooms with chatbots) 700, 750 on the chat application 330. , 760).
  • GUIs eg, chat rooms with chatbots
  • the conversations 710 and 760 with the chatbot 701 may be based on at least one of text or voice.
  • the electronic device 101 may include an AI speaker 801 related to a conversation application.
  • the processor 120 may perform a conversation 810 between the user 802 and the chatbot through the AI speaker 801.
  • the conversation 810 between the user 802 and the chatbot may be based on voice.
  • the processor 120 transmits the voice of the user 802 received through the microphone to the chatbot server 201 (or chatbot) via the server 108, and from the chatbot server 201 (or chatbot) to the server 108.
  • the message received through may be output through the AI speaker 801.
  • the processor 120 may detect an event for engaging a personal information bot (eg, personal information bot 702 of FIG. 7) in a conversation with the chatbot 701.
  • the personal information bot may be used for a chat about content (eg, personal information, order information) to provide to the chatbot 701 on the user interface regarding the chat application 330.
  • the processor 120 is based on a conversation 710 with the chatbot 701, such as a personal information bot 702. May detect an event for joining the conversation.
  • the processor of processor 120 or server 108 may identify, from conversation 710 with chatbot 701, a specified word or phrase (eg, an “address” contained in message 711). Event may be detected to engage the personal information bot 702 in the conversation.
  • the processor of server 108 may monitor the intent of conversation 710 using an NLU module for chatbot 701.
  • the processor of the server 108 uses the NLU module for the chatbot 701 to identify that the intention of the message 711 included in the conversation 710 is the intention of the address input, and to signal the intention of the address input. Can be transmitted to the electronic device 101.
  • the processor 120 may detect an event for engaging the personal information bot 702 in the conversation by receiving a signal regarding the intention of the address input from the server 108.
  • At least one of the processor of the processor 120 or the server 108 is a designated word (eg, “Bixby”). Based on receiving), an event for joining the personal information bot 702 to the conversation may be detected.
  • the server 108 may send the information about the message 771 to the chatbot server 201 (or chatbot) based on identifying the word "Bixby" included in the message 771 received from the user. 701).
  • the processor 120 receives the personal input (eg, input for a physical button, input for an icon, etc.) to call the personal information bot 702, thereby receiving the personal information bot 702. May detect an event for joining the conversation.
  • the personal input eg, input for a physical button, input for an icon, etc.
  • the AI speaker 801 related to the conversation application of FIG. 8 may also detect an event for engaging the personal information bot (eg, 702) in the conversation in various ways as described above.
  • the server 108 may receive a signal for joining the personal information bot (eg, 702) from the electronic device 101 to the conversation.
  • the processor 120 may output a conversation with the personal information bot (eg, 702) based on detecting an event to engage a PI bot (eg, 702) in the conversation.
  • the conversation with the personal information bot (eg 702) may be a conversation about content (eg personal information or ordering information, etc.) for providing to the chatbot (eg 701).
  • the conversation with the personal information bot may be based on an NLU module for the personal information of the server 108 (NLU for PI).
  • the conversation with the personal information bot may be based on at least one of the personal information DB 240 of the server 108 or the personal information DB 340 of the electronic device 101.
  • processor 120 communicates with personal information bot 702 720, 770 within a GUI (eg, a chat room with a chatbot) 700, 750 regarding a chat application. ) Can be displayed. Conversations 720 and 770 with the personal information bot 702 may be based on at least one of text or voice.
  • the AI speaker 801 related to the conversation application of FIG. 8 may also output a conversation with the personal information bot (eg, 702) based on the voice.
  • the processor 120 or the processor of the server 108 may provide information for providing to the chatbot 701 from a chat (eg, message 711 or 771) via the chat application 330. E.g. address).
  • the processor 120 or the processor of the server 108 identifies (or retrieves) content (eg, an address) corresponding to the identified information from the personal information DB 240 or the personal information DB 340.
  • Processor 120 may output conversations 720, 770 with personal information bot 702 about the content for presentation to chatbot 701.
  • the processor of processor 120 or server 108 sends chatbot 701 information about conversation 720, 770 with personal information bot 702 during conversation 720, 770 with personal information bot 702. (Or chatbot server 201).
  • chatbot 701 information about content to be provided to the chatbot 701 (e.g., 721, 722, 772) is transmitted to the chatbot 701 (or chatbot server 201). It may not be.
  • chatbot server 201 By restricting the sending of information about the conversation with the personal information bot to the chatbot server, security of the personal information can be maintained and the chatbot can be prevented from malfunctioning.
  • the processor 120 or the processor of the server 108 may not only communicate with the chatbot, but also chat with users of other electronic devices using the chat application 330. Can be called.
  • the processor 120 or the processor of the server 108 may detect an event for engaging the personal information bot during a chat with users of other electronic devices.
  • the processor of the server 108 may drive the personal information bot to chat with the user of the electronic device 101 using the NLU module for personal information based on detecting the event. .
  • the personal information bot driven by the server 108 may perform a chat related to the personal information of the user of the electronic device 101.
  • the conversation between the user of the electronic device 101 and the personal information bot may not be transmitted to the users of the other electronic device.
  • the processor 120 or the processor of the server 108 may transmit the personal information to the other electronic device based on receiving a user approval for transmitting the personal information to the other electronic device.
  • the AI speaker 801 related to the conversation application of FIG. 8 may also perform operations corresponding to those described above.
  • the processor 120 of the AI speaker 801 may detect an event for joining the personal information bot (eg, 702) during a conversation with a voice-based chatbot (eg, 701).
  • the processor 120 may join the personal information bot (eg, 702) in a conversation with the chatbot (eg, 701) based on detecting the event.
  • the processor 120 of the AI speaker 801 transmits the user input received through the microphone to the server 108, and sends a response message of the personal information bot transmitted from the server 108 through the AI speaker 801. Can be output by voice.
  • the processor 120 of the AI speaker 801 may not transmit data regarding the conversation about the personal information with the personal information bot to the chatbot server 201 (or the chatbot (for example, 701)).
  • the processor 120 of the AI speaker 801 may transmit the personal information to the chatbot server 201 based on receiving a user approval for sending the personal information to the chatbot server 201.
  • a detailed description of the chat with the personal information bot via the AI speaker 801 will be described later with reference to FIGS. 11 to 12.
  • the processor 120 may determine whether to receive a user input for providing content to the chatbot (or chatbot server 201).
  • the user input for providing content to the chatbot 701 may be a speech or text input of “share”.
  • the processor 120 may perform operation 605 before receiving a user input for providing content to the chatbot 701.
  • the processor 120 may output conversations 720 and 770 with the personal information bot 702 until the user input for providing content to the chatbot 701 is received.
  • the processor 120 may transmit information about the content to the chatbot at operation 609, based on receiving a user input for providing the content to the chatbot.
  • Receiving a user input at operation 607 may correspond to receiving user authentication at operation 505 of FIG. 5.
  • Transmitting information about the content at operation 609 may correspond to providing information to the chatbot at operation 507 of FIG. 5.
  • the processor 120 may, within the GUI 700 (eg, a chat room with the chatbot 701), a personal information bot 702 telling the chatbot 701 information about the content (eg, address). Providing 730 may be output.
  • the processor 120 may output, within the GUI 750 (eg, a chat room with the chatbot 701), a user providing information about the content to the chatbot 701 (780). It may be. Message 780 may not be based on user input.
  • the processor 120 may generate a message 730 or 780 based on receiving a user input (eg, “share”) for providing content to the chatbot 701.
  • the processor 120 may perform additional authentication for providing the content (eg, personal information or order information) to the chatbot server 201.
  • the processor 120 may perform additional authentication to provide the chatbot 701 with content based on at least one of voice information, iris information, face recognition information, fingerprint information, or a password of the user of the electronic device 101.
  • the processor 120 may obtain voice information for authentication seamlessly from a user input (eg, "share") to provide the content to the chatbot server 201. have.
  • the processor 120 may authenticate the user input based on identifying that the voice information obtained from the user input corresponds to the voice of the user of the electronic device 101.
  • the processor 120 may receive (or transmit) the content to the chatbot 701 based on receiving user input for providing the content to the chatbot server 201 and performing authentication as described above. Can be.
  • the content for providing to the chatbot 701 may include order information as well as personal information such as an address.
  • personal information DB 240, the personal information DB 340, or the DB included in or connected to the chatbot server 201 is an order history for each user (eg, per user ID). Can be saved.
  • the processor 120 or the processor of the server 108 may provide the order information to the chatbot 701 from among the stored order history. A detailed description of an example of an operation of providing order information to the chatbot 701 as content will be described later with reference to FIGS. 16 to 18.
  • the processor of processor 120 or server 108 may communicate with a chatbot (eg, 701) or personal information bot (eg, 702) (eg, 710, 720, 760, or 770, etc.). Through this, information (eg, personal information, order information, etc.) to be provided to the chatbot can be determined (or determined). According to an embodiment, the processor 120 or the processor of the server 108 may, for example, generate a keyword or chatbot based on a user input (eg, 719, 729) during a conversation with the chatbot (eg, 701). Information may be determined (eg, 718, 722) to provide to the chatbot.
  • a chatbot eg, 701
  • personal information bot eg, 702
  • Information may be determined (eg, 718, 722) to provide to the chatbot.
  • the processor 120 is based on a user input 719 that says "Order” in a chat 710 with the chatbot 701.
  • the order information 718 can be determined.
  • the processor 120 may determine the address information 722 based on the user input 729 "Share” in the conversation 720 with the personal information bot 702.
  • the processor 120 may transmit the determined information to the chatbot server 201 through the server 108.
  • the processor 120 may transmit the determined information to the electronic device 101 and the chatbot (eg, managed in the chat room (ie, the chat module 230 of the server 108) with the chatbot (eg, 701). 701), to the chatbot (or chatbot server 201).
  • the processor 120 may transmit a message (eg, 718, 730, etc.) about the determined information to the server 108 through a chat room with the chatbot (eg, 701).
  • the server 108 sends a message (eg, 718, 730, etc.) about the information to the chatbot (or the chatbot server 201) using a chat session between the chatbot (eg, 701) and the electronic device 101. I can send it.
  • the chatbot server 201 may extract, for example, a parameter required to perform a chatbot's task (e.g., a function related to an order) from a message received through the chat session, using an NLU module for the chatbot.
  • a parameter required to perform a chatbot's task e.g., a function related to an order
  • the chatbot 701 (or the chatbot server 201) may extract "Gyeonggi-do, Suwon-si, Gyeonggi-do" as an address parameter from the message 730, and from the message 718, the chatbot 701 may include a product name, size, quantity Parameters can be extracted.
  • an application programming interface capable of sharing specified parameters between the chatbot and the chat application 330 of the electronic device 101 (or the chat module 230 of the server 108), API can be set.
  • the processor 120 or the processor of the server 108 e.g., the conversation module 230
  • the chatbot 701 of the chatbot server 201 performs a task (for example, a function related to an order) of the chatbot 701 by using information (or content) provided from the electronic device 101 through the server 108. can do.
  • FIG. 9 illustrates an example of an operation of an electronic device for outputting a conversation with a personal information bot in a manner different from that with a chatbot, according to various embodiments.
  • the operation of FIG. 9 may be performed by the electronic device 101.
  • a part of the operation (eg, operation 903) of FIG. 9 may be performed by the server 108.
  • 10 illustrates an example of a GUI for outputting a conversation with a personal information bot in a manner different from that with a chatbot in an electronic device according to various embodiments of the present disclosure.
  • 11 illustrates an example of an AI speaker for outputting a conversation with a personal information bot in a manner different from that with a chatbot, in accordance with various embodiments.
  • 12 illustrates another example of an AI speaker for outputting a conversation with a personal information bot in a manner different from that with a chatbot, according to various embodiments.
  • Operations 901, 903, and 905 of FIG. 9 may be included in operations 601, 603, and 605 of FIG. 6.
  • 9 may represent a sub-example of an operation of outputting a conversation with a personal information bot in operation 605 of FIG. 6.
  • the processor 120 may output a conversation with a chatbot. Operation 901 may correspond to operation 601 of FIG. 6.
  • the processor 120 may output conversations 710 and 760 with the chatbot 701.
  • the processor 120 may output a conversation 1010 with the chatbot 1001.
  • the processor 120 may output a conversation 1110 with a chatbot or a conversation 1210 with a chatbot.
  • the processor 120 or the processor of the server 108 may detect an event for engaging the personal information bot (eg, 702) in the conversation (eg, 710, 760, 1010, 1110, 1210, etc.). have. Operation 903 may correspond to operation 603 of FIG. 6.
  • the processor 120 may distinguish the personal information bot from the user experience regarding a conversation with the chatbot (eg, 701, 1001) (eg, 710, 760, 1010, 1110, 1210, etc.). (E.g., 702, 1002) to provide a user experience regarding the conversation. Operation 905 may correspond to operation 605 of FIG. 6.
  • the processor 120 may, in a GUI (eg, a chat room with a chatbot) 700, 750, in a different color than the conversation 710, 760 with the chatbot 701. Conversations 720 and 770 with the information bot 702 may be displayed.
  • GUI eg, a chat room with a chatbot
  • processor 120 displays a conversation 1020 with a personal information bot 1002 superimposed on a GUI (eg, a chat room with a chatbot) 1000. can do.
  • the processor 120 may display the conversation 1020 with the personal information bot 1002 using a layer (eg, a pop-up window) that is distinct from the GUI 1000 (or the chat room with the chatbot 1001). have.
  • the processor 120 may output a message 1120 of the personal information bot in a voice different from that of the chatbot.
  • the processor 120 may output the message 1110 of the chatbot as the voice of the male 1101 and the message 1120 of the personal information bot as the voice of the female 1102.
  • the present invention is not limited thereto.
  • the processor 120 may transmit the personal information bot's message 1120 based on at least one of intonation, speed, old man's voice, child's voice, male voice, or female voice. 1110).
  • the processor 120 may output a color 1201 through a display unit (eg, a light emitting diode (LED)) during a conversation 1210 with the chatbot. Can be.
  • the processor 120 may output a color 1202 different from the color 1201 through the display unit (eg, an LED) during the conversation 1220 with the personal information bot.
  • the present invention is not limited thereto.
  • the processor 120 may display the message 1220 of the personal information bot based on the intensity or color of the light output through the light bulb connected to the electronic device 101 (eg, the AI speaker). 1210).
  • the processor 120 may return to operation 607 of FIG. 6 after operation 905.
  • processor 120 displays user input for providing content (eg, an address) to chatbot 1001 while displaying conversation 1020 with personal information bot 1002. (Eg, a popup window) for displaying the conversation 1020 with the personal information bot 1002, based on receiving the user's utterance or text input such as “tell me”.
  • the processor 120 may subsequently communicate with the chatbot 1001, such as a GUI (eg, a chat room with a chatbot) 1050, based on receiving the user input.
  • the GUI eg, a chat room with the chatbot
  • the GUI may not include a conversation (eg, 1020) with the personal information bot 1002.
  • a conversation with a personal information bot may be performed by a chatbot (e.g. 701, It may be performed through a session separate from the conversation session with 1001).
  • the chat module 230 (or processor) of the server 108 may create (or temporarily create) a session different from the chat session with the chatbot for the chat with the privacy bot. Can be.
  • the conversation with the privacy bot may not be sent to the chatbot (eg, 701, 1001) (or chatbot server 201).
  • the conversation with the personal information bot may be output as if the personal information bot participated in the conversation session with the chat bot.
  • FIG. 13 illustrates an example of an operation for storing information related to a conversation with a chatbot in an electronic device according to various embodiments of the present disclosure.
  • the operation of FIG. 13 may be performed by the electronic device 101.
  • a part of the operation (eg, operation 1305) of FIG. 13 may be performed by the server 108.
  • 14 illustrates an example of a GUI for storing information related to a chat with a chatbot in an electronic device according to various embodiments of the present disclosure.
  • the processor 120 may output a conversation for storing information (eg, order information) related to a conversation with a chatbot.
  • the conversation for storing the information may correspond, for example, to message 718 of FIG. 7 or may be output after operation 507 of FIG. 5 (or operation 609 of FIG. 6).
  • the processor 120 may output messages 1410 and 1460 for storing order information from the GUIs 1400 and 1450 indicating chat rooms with the chatbots 1401 and 1402. Can be.
  • the processor 120 may output a message 1410 indicating that information included in the message 1410 can be stored.
  • the processor 120 may output a message 1460 including an object 1541 (or a button or an icon) used to store information included in the message 1410.
  • the processor 120 may identify whether to receive a user input for storing information.
  • the processor 120 may end based on not receiving a user input for storing information. For example, the processor 120 may continue a conversation with the chatbots 1401 and 1402 or the personal information bot without storing the information.
  • the processor 120 may store information related to a conversation with the chatbot, in operation 1305, based on receiving a user input for storing the information.
  • processor 120 receives input 1415 for message 1410 (eg, long press, hovering input, etc.) on GUI (eg, chat room with chatbot) 1400. In response to receiving, it may output an object 1411 capable of storing the information contained in the message 1410.
  • the processor 120 may store information included in the message 1410 based on receiving an input 1416 for the object 1411.
  • the processor 120 may store, on the GUI 1450, the information included in the message 1460 based on receiving input for the object 1541 included in the message 1460.
  • the processor 120 may store the information included in the message 1410 in the memory 130 (eg, the personal information DB 340). In some other embodiments, the processor 120 may send the server 108 the information contained in the message 1410 to store in the personal information DB 240 of the server 108 or the DB of the chatbot server 201. I can send it. According to an embodiment of the present disclosure, the processor 120 may share information included in the message 1410 or 1460 to a user of another electronic device based on a user input.
  • Table 2 shows an example of a personal information DB that stores information related to a chatbot's function according to various embodiments.
  • the personal information DB of Table 2 may be a memory 130 (eg, personal information DB 340) of the electronic device 101, a memory (eg, personal information DB 240) of the server 108, or a chatbot server ( 201) or stored in at least one of the DB connected to the chatbot server 201.
  • the personal information DB 240 or 340 may represent information stored for the user of the electronic device 101, for example.
  • the personal information DB 240 or 340 may store information for each session ID.
  • the session ID may be given per chatbot.
  • the session ID may be used to distinguish the chatbot (eg 701) from other chatbots (eg 1001).
  • session ID 78954 may be identification information indicating a chatbot (eg, 701) regarding OO pizza.
  • the session ID 12752 may be identification information indicating a chatbot different from the chatbot (for example, 701) (for example, the chatbot 1001 or the shopping mall chatbot).
  • Each of the plurality of chatbots may identify information stored by each of the plurality of chatbots or information available to each of the plurality of chatbots using the session ID. Information stored by each of the plurality of chatbots may have a different structure of a parameter or information.
  • the personal information DB 240 or 340 may store information according to an intent in each session ID.
  • intent ID 256785 may indicate an intent associated with a pizza order.
  • Intent ID 337754 may indicate an intent associated with the side menu order.
  • the chatbot may identify from the user input "Order Two Pizza Pizza Large Sizes" (eg, utterance or text input) that the user's intention is the intention associated with the pizza order (ie, intent ID 256785). have.
  • the chatbot may identify, from the user input, a parameter (eg, brand name, size, quantity, date) for performing a function related to the intention (ie, intention ID 256785).
  • the chatbot may use the NLU module for the chatbot stored in the chatbot server 201 or stored in the server 108 to identify intent and parameters. If the chatbot (or chatbot server 201) cannot identify the date parameter from the user input, it may identify the date parameter as the current date.
  • the intents that the chatbot can identify may include not only intentions related to pizza orders or intentions related to side menu orders, but also intentions related to order confirmation and intentions related to call centers.
  • FIG. 15 illustrates an example of an operation for outputting content that can be provided to a chatbot in an electronic device according to various embodiments of the present disclosure.
  • the operation of FIG. 15 may be performed by at least one of the electronic device 101 or the server 108.
  • FIG. 16 illustrates an example of a GUI (eg, a chat room with a chatbot) that outputs content that can be provided to a chatbot according to various embodiments.
  • 17 illustrates another example of a GUI (eg, a chat room with a chatbot) for outputting content that can be provided to a chatbot according to various embodiments.
  • the processor 120 may output a conversation with a chatbot. Operation 1501 may correspond to operation 601 of FIG. 6.
  • the processor 120 may display screens 1600 and 1700 of the chat application 330 (eg, a chat room with the chatbots 1610 and 1710). The conversation with the chatbots 1610 and 1710 may be output.
  • the processor 120 may output content available to the chatbot based on the conversation with the chatbot.
  • the content that can be provided to the chatbot may be content for performing a chatbot's function (eg, an order) corresponding to the user's intent.
  • the chatbot server 201 may use an algorithm based on NLU modules or keywords for the chatbot, intent of user input received via a chat session of the electronic device 101. ) Can be identified.
  • the chatbot server 201 may identify the order intent from the user input 1601 of FIG. 16.
  • the chatbot server 201 may identify the intent of the pizza order from the user input 1701 of FIG. 17.
  • At least one of the chatbot server 201, the server 108, or the processor 120 is identified from at least one of a DB, a personal information DB 240, or a personal information DB 340 connected to the chatbot server 201. retrieve information corresponding to the intended intent. For example, at least one of the chatbot server 201, the server 108, or the processor 120 may, from the personal information DB 240 or 340 of Table 2, add the session ID associated with the chatbot and the intention ID of the pizza order. Based on this, the content available to the chatbot can be identified. The processor 120 may output information about content that can be provided to the chatbot to perform a function of the chatbot corresponding to the intention of the user.
  • the processor 120 may output information 1602 about content that may be provided to the chatbot 1610 based on the order intention of the user input 1601.
  • the content available to the chatbot 1610 may be determined based on the intention of the pizza order (ie, intention ID 256785), for example, from the personal information DB 240 or 340 of Table 2. .
  • the processor 120 may view a notification window for viewing information 1731 and 1732 regarding content that may be provided to the chatbot 1710 based on the pizza ordering intention of the user input 1701. 1702 can be output.
  • the processor 120 based on receiving a user input 1703 (eg, tap, drag, swipe up, etc.) for the notification window 1702, may display a screen 1730 (eg, a chat room with the chatbot 1710).
  • a notification form 1733 in the form of a card including information superimposed on the content 1731 and 1732 may be output.
  • the notification form 1733 in the form of a card may display other contents based on left and right drag (or swipe) inputs.
  • information 1602 about content that may be provided to the chatbot 1610 may be output as a message of the chatbot 1610.
  • the notification windows 1702 and 1733 capable of reading the information 1731 and 1732 related to the content may be output as a message of a personal information bot.
  • the processor 120 may identify whether to receive a user input for determining content (eg, order information) for performing a function of the chatbot.
  • the processor 120 based on receiving user input for determining content (e.g., order information) for performing the function of the chatbot, in operation 1507, sends the chatbot (or chatbot server 201) information about the determined content. Can be sent to)).
  • content e.g., order information
  • chatbot server 201 information about the determined content. Can be sent to
  • processor 120 may input user input 1603 (eg, “potato pizza) to determine content for performing a function of chatbot 1610 (eg, pizza order). "Order again" or a text entry).
  • the processor 120 may include a user input 1734 (eg, a tab, drag, or the like) for determining content for performing a function (eg, pizza order) of the chatbot 1710. Swipe up, etc.).
  • the processor 120 may display the screen 1760 based on receiving the user input 1734.
  • the processor 120 may transmit information about content determined based on user input (eg, 1603, 1734, etc.) to the chatbots 1610 and 1710 (or the chatbot server 201) through the server 108. have. According to an embodiment of the present disclosure, on the screen 1760, the processor 120 may transmit information about the content 1762 to the chatbot 1710 using the personal information bot 1769.
  • a message (eg, 1602, 1704, 1733, 1761, 1762, etc.) regarding order information for providing to the chatbots 1610, 1710 may be highlighted in a different color than other messages.
  • the message about personal information (eg, 1604) may be highlighted in a different color than the message about order information (eg, 1602).
  • the system may include a first electronic device (eg, the electronic device 101) including a user interface and a communication circuit (eg, the communication module 190). ), At least one processor (eg, processor 120 or processor of server 108) that is part of the first electronic device or that is in remote communication with the first electronic device, and the first electronics. It may include at least one memory (for example, the memory 130 or the memory of the server 108) that resides in the device or outside of the first electronic device. The at least one memory, if executed while operatively connected to the processor, may, via the user interface, communicate with a chatbot (e.g., a chatbot) via text and / or voice based chat.
  • a chatbot e.g., a chatbot
  • the first user request associated with the call receives the first user request associated with the call, cause the chatbot to join the conversation, and via the user interface, Receiving a second user request for a task, the second user request does not include at least some of the information required to perform the task (eg, personal information or order information), and at least a portion of the information, Receive a user authorization for sharing at least a portion of the information, stored in the at least one memory, and through the user interface; Also it may store (cause) instructions to cause the at least one processor to provide a portion to the chaetbot.
  • the information required to perform the task eg, personal information or order information
  • Receive a user authorization for sharing at least a portion of the information stored in the at least one memory, and through the user interface; Also it may store (cause) instructions to cause the at least one processor to provide a portion to the chaetbot.
  • the user interface may include a touchscreen display (eg, display device 160 or display 360), a microphone (eg, input device 150), or a speaker (eg, sound output device 155). It may include at least one of).
  • the at least one memory is configured to store a user account, and at least some of the information may be associated with the user account.
  • the first electronic device (eg, the electronic device 101) includes a first processor (eg, the processor 120) of the at least one processor, and the system includes the at least one
  • the server may further include a server (eg, the server 108) including a second processor of the processor (eg, the processor of the server 108).
  • the instructions may receive the first user request via the user interface, after receiving the first user request, send data related to the first user request to the server, and the user interface.
  • the first processor eg, processor 120
  • the first processor eg, processor 120
  • the instructions may receive the user authorization via the user interface and cause the first processor (eg, processor 120) to cause at least some of the information to be provided to the chatbot. May cause.
  • the first processor eg, processor 120
  • the instructions may receive data related to the first user request from the first electronic device (eg, the electronic device 101), and from the first electronic device, data related to the second user request. May cause the second processor (eg, the processor of server 108) to receive.
  • the first electronic device eg, the electronic device 101
  • the second processor eg, the processor of server 1028
  • the instructions may include receiving the user authorization from the first electronic device (eg, the electronic device 101) and providing at least a portion of the information to the chatbot.
  • the first electronic device eg, the electronic device 101
  • the chatbot e.g, a processor of server 108.
  • the instructions may include the at least one processor (eg, processor 120) to provide to another chatbot (eg, a personal information bot) to process the user authorization and / or at least a portion of the information. Or the processor of the server 108).
  • processor 120 e.g, processor 120
  • chatbot e.g, a personal information bot
  • the instructions may provide a third user request for at least a portion of the information (eg, personal information or order information) to the other chatbot (eg, a personal information bot), and send the third user request to the third user request.
  • the at least one processor eg, to provide the chatbot with at least a portion of the information based on receiving the user approval and limiting providing the third user request to the chatbot while providing it to another chatbot.
  • Processor 120 or processor of server 108 may be any processor of server 108.
  • An electronic device may include a communication module (eg, the communication module 190), an input device (eg, the input device 150), and an output device (eg, an electronic device 101).
  • Chatbots e.g., chatbots 701, 1001, 1401, 1402, etc.
  • the conversation transmits a message received through the input device to the chatbot through the communication module or a message received from the chatbot through the communication module through the output device.
  • the chatbot Providing to Outputs a conversation with the personal information bot about content (e.g., personal information or order information) to the user, and sends the chatbot information about the conversation with the personal information bot while chatting with the personal information bot.
  • At least one processor eg, processor 120 configured to limit the transmission and to transmit information about the content to the chatbot based on receiving a user input for providing the chatbot with information about the content. ) May be included.
  • the chat with the chatbot is performed using a first natural language understanding module (eg, an NLU for chatbot) for connecting with the chatbot and performing the functions of the chatbot
  • the conversation with the personal information bot may include a second natural language understanding module different from the first natural language understanding module (eg, an NLU module for personal information (for example, NLU for PI)) for performing a function of the personal information bot.
  • the at least one processor using the second natural language understanding module, to generate an event for executing at least one command from the conversation with the chatbot to engage the personal information bot in the conversation. Can be set to detect.
  • the at least one processor may be configured based on the information indicated by the first message and the information indicated by the second message, from among the messages included in at least one of the chat with the chatbot or the personal information bot.
  • the first message and the second message may be configured to be output differently.
  • the at least one processor is configured to detect an event for executing at least one instruction to engage a personal information bot in the conversation, such as a memory (eg, memory 130) associated with the electronic device.
  • a personal information bot such as a memory (eg, memory 130) associated with the electronic device.
  • the at least one processor may include at least some information included in a conversation with the chatbot, memory (eg, the memory 130, the memory of the server 108, the personal information DB) connected to the electronic device. 240, or the user interface for storing in the personal information DB 340.
  • memory eg, the memory 130, the memory of the server 108, the personal information DB
  • the user interface for storing in the personal information DB 340.
  • the at least one processor may be configured to output the at least some information stored via the user interface in another conversation with the chatbot.
  • the at least one processor includes identifying an intention to engage the personal information bot from a conversation with the chatbot, including a word designated in the conversation with the chatbot (eg, "Bixby"). Based on at least one of receiving user input or receiving input for a designated button or icon, the processor may be configured to execute at least one command to engage the personal information bot in the conversation.
  • identifying an intention to engage the personal information bot from a conversation with the chatbot including a word designated in the conversation with the chatbot (eg, "Bixby").
  • the processor may be configured to execute at least one command to engage the personal information bot in the conversation.
  • the at least one processor outputs a conversation with the personal information bot highlighted relative to the conversation with the chatbot, or a layer superimposed on a user interface on which the conversation with the chatbot is output. It can be set to output a conversation with the personal information bot through.
  • the at least one processor transmits information about a first user input for communicating with the personal information bot to the personal information bot while talking with the personal information bot, Restricting sending information about the chatbot to the chatbot and sending information about the second user input entered through the user interface to the chatbot based on ending the conversation with the personal information bot.
  • the electronic device may be received from a memory (eg, the memory of the server 108) and a first electronic device (eg, the electronic device 101).
  • Send a first message to a chatbot eg, a chatbot (701, 1001, 1401, 1402, etc.)
  • send a response message to the first electronic device to the first electronic device and the response message is the Obtained using a first natural language understanding module (eg, an NLU for chatbot) for performing a function of a chatbot, and based on at least one of the first message or the response message
  • a second natural language understanding module eg, personal information for identifying an event for conducting a conversation about a user's personal information of a first electronic device and for conducting a conversation about the personal information of the user based on the identification;
  • To the NLU module e.g.
  • the chatbot receives a second message received from the first electronic device (for example, the electronic device 101) while performing a natural language-based conversation with the user, and using the second natural language understanding module. And receiving a signal from the first electronic device (eg, the electronic device 101) to provide the chatbot with at least a portion of the second message. And at least one processor (eg, a processor of the server 108) configured to transmit at least some information about the chatbot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Operations Research (AREA)

Abstract

다양한 실시 예들에 따른 시스템은, 사용자 인터페이스와 통신 회로를 포함하는 제1 전자 장치, 상기 제1 전자 장치의 일부이거나 또는 상기 제1 전자 장치와 원격적으로(remotely) 통신하는 적어도 하나의 프로세서, 및 상기 제1 전자 장치에 또는 상기 제1 전자 장치의 외부에 존재하는(reside) 적어도 하나의 메모리를 포함할 수 있다. 상기 적어도 하나의 메모리는, 상기 프로세서에 작동적으로(operatively) 연결되는 동안, 실행되면, 상기 사용자 인터페이스를 통해, 문자 및/또는 음성 기반의 대화(chat)에 챗봇(chatbot)을 호출하는 것과 관련된 제1 사용자 요청을 수신하고, 상기 챗봇을 상기 대화에 참여(join)하도록 야기(cause)하고, 상기 사용자 인터페이스를 통해, 상기 챗봇에 대한 태스크를 위한 제2 사용자 요청을 수신하고, 상기 제2 사용자 요청은 상기 태스크를 수행하기 위해 요구되는 정보의 적어도 일부를 포함하지 않고, 상기 정보의 적어도 일부는, 상기 적어도 하나의 메모리에 저장되고, 상기 사용자 인터페이스를 통해, 상기 정보의 적어도 일부를 공유하기 위한 사용자 승인(user authorization)을 수신하고, 상기 정보의 적어도 일부를 상기 챗봇에게 제공하도록 상기 적어도 하나의 프로세서를 야기하는 명령어들을 저장할 수 있다.

Description

챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법
본 발명의 다양한 실시 예들은 챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법에 관한 것이다.
디지털 기술의 발달과 함께, 사람의 언어를 이해하기 위한 장치 및 상기 장치와 연계되고, 다양한 전자 장치들에서 실행되기 위한 어플리케이션(예: 음성 인식 어플리케이션)이 발달하고 있다. 사람의 언어를 이해하기 위한 장치는, 텍스트 데이터 형태로 입력된 문장으로부터 사용자의 의도(intent)를 획득할 수 있고, 상기 의도를 표현하는데 필요한 파라미터(parameter)를 획득할 수 있다. 사람의 언어를 이해하기 위한 장치를 이용함으로써, 다양한 전자 장치들은 사용자에게, 자연어에 기반하여 다양한 전자 장치들과 대화할 수 있는 서비스를 제공할 수 있다.
전자 장치는, 사람의 언어를 이해하기 위한 하나의 장치(예: 인공 지능 장치 또는 인공 지능 프로그램)와 대화하기 위한 사용자 인터페이스를 제공할 수 있다. 그러나, 디지털 기술의 발달에 따라, 다양한 목적을 가지는 다양한 인공 지능 장치가 발달할 수 있다. 따라서, 전자 장치의 사용자가 하나 이상의 인공 지능 장치들과 대화하기 위한 사용자 인터페이스의 제공이 요구될 수 있다. 또한, 전자 장치의 사용자가 하나 이상의 인공 지능 장치들과 하나의 사용자 인터페이스를 통해 대화하는 동안, 사용자에 대한 원하지 않은 정보가 외부 장치로 전달 될 수 있다.
다양한 실시 예들은, 하나 이상의 인공 지능 장치 또는 인공 지능 프로그램과 대화할 수 있는 사용자 인터페이스를 제공하기 위한 전자 장치 및 방법을 제공할 수 있다.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시 예들에 따른 시스템은, 사용자 인터페이스와 통신 회로를 포함하는 제1 전자 장치, 상기 제1 전자 장치의 일부이거나 또는 상기 제1 전자 장치와 원격적으로(remotely) 통신하는 적어도 하나의 프로세서, 및 상기 제1 전자 장치에 또는 상기 제1 전자 장치의 외부에 존재하는(reside) 적어도 하나의 메모리를 포함할 수 있다. 상기 적어도 하나의 메모리는, 상기 프로세서에 작동적으로(operatively) 연결되는 동안, 실행되면, 상기 사용자 인터페이스를 통해, 문자 및/또는 음성 기반의 대화(chat)에 챗봇(chatbot)을 호출하는 것과 관련된 제1 사용자 요청을 수신하고, 상기 챗봇을 상기 대화에 참여(join)하도록 야기(cause)하고, 상기 사용자 인터페이스를 통해, 상기 챗봇에 대한 태스크를 위한 제2 사용자 요청을 수신하고, 상기 제2 사용자 요청은 상기 태스크를 수행하기 위해 요구되는 정보의 적어도 일부를 포함하지 않고, 상기 정보의 적어도 일부는, 상기 적어도 하나의 메모리에 저장되고, 상기 사용자 인터페이스를 통해, 상기 정보의 적어도 일부를 공유하기 위한 사용자 승인(user authorization)을 수신하고, 상기 정보의 적어도 일부를 상기 챗봇에게 제공하도록 상기 적어도 하나의 프로세서를 야기하는(cause) 명령어들을 저장할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 통신 모듈, 입력 장치, 출력 장치, 및 대화 어플리케이션에 관한 사용자 인터페이스를 통해 챗봇과 대화(chat)하고, 상기 대화는 상기 입력 장치를 통해 수신된 메시지를 상기 통신 모듈을 통해 상기 챗봇에게 송신하는 동작 또는 상기 챗봇으로부터 상기 통신 모듈을 통해 수신된 메시지를 상기 출력 장치를 통해 출력하는 동작을 포함하고, 상기 대화하는 동안, 상기 대화에 개인 정보 봇을 참여시키기 위한 적어도 하나의 명령어를 실행하기 위한 이벤트를 검출하고, 상기 사용자 인터페이스를 이용하여, 상기 챗봇에게 제공하기 위한 컨텐트에 관한 상기 개인 정보 봇과의 대화를 출력하고, 상기 개인 정보 봇과 대화(chat)하는 동안 상기 개인 정보 봇과의 대화에 관한 정보를 상기 챗봇에게 송신하는 것을 제한하고, 상기 챗봇에게 상기 컨텐트에 관한 정보를 제공하기 위한 사용자 입력을 수신하는 것에 기반하여, 상기 컨텐트에 관한 정보를 상기 챗봇에게 송신하도록 설정된 적어도 하나의 프로세서를 포함할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 메모리, 및 제1 전자 장치로부터 수신된 제1 메시지를 챗봇에게 송신하고, 상기 수신된 제1 메시지에 대한 응답 메시지를 상기 제1 전자 장치에게 송신하고, 상기 응답 메시지는, 상기 챗봇의 기능을 수행하기 위한 제1 자연어 이해 모듈을 이용하여 획득되고, 상기 제1 메시지 또는 상기 응답 메시지 중 적어도 하나에 기반하여, 상기 제1 전자 장치의 사용자의 개인 정보에 관한 대화를 수행하기 위한 이벤트를 식별하고, 상기 식별에 기반하여, 상기 사용자의 개인 정보에 관한 대화를 수행하기 위한 제2 자연어 이해 모듈을 이용하여, 상기 사용자와 자연어 기반의 대화를 수행하고, 상기 제2 자연어 이해 모듈을 이용하여 대화를 수행하는 동안 상기 제1 전자 장치로부터 수신된 제2 메시지를 상기 챗봇에게 송신하는 것을 제한하고, 상기 제1 전자 장치로부터, 상기 제2 메시지의 적어도 일부를 상기 챗봇에게 제공하기 위한 신호를 수신하는 것에 기반하여, 상기 제2 메시지의 적어도 일부에 관한 정보를 상기 챗봇에게 송신하도록 설정된 적어도 하나의 프로세서를 포함할 수 있다.
다양한 실시 예들에 따른 장치 및 방법은, 전자 장치의 사용자가 하나 이상의 인공 지능 장치들과 사용자 인터페이스를 통해 대화하는 동안, 사용자가 의도한 정보를 하나 이상의 인공 지능 장치들에게 전송할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 다양한 실시 예들에 따른 전자 장치, 서버, 및 챗봇(chatbot) 서버를 포함하는 네트워크 환경(environment)의 예를 도시한다.
도 3은 다양한 실시 예들에 따른 전자 장치의 예를 도시한다.
도 4는 다양한 실시 예들에 따른 전자 장치, 서버, 및 챗봇 서버 사이의 신호 흐름의 예를 도시한다.
도 5는 다양한 실시 예들에 따른 전자 장치의 동작의 예를 도시한다.
도 6은 다양한 실시 예들에 따른 전자 장치의 동작의 다른 예를 도시한다.
도 7은 다양한 실시 예들에 따른 대화(chat) 어플리케이션에 관한 그래픽 사용자 인터페이스(graphical user interface, GUI)의 예를 도시한다.
도 8은 다양한 실시 예들에 따른 대화(chat) 어플리케이션에 관한 인공 지능(artificial intelligence, AI) 스피커의 예를 도시한다.
도 9는 다양한 실시 예들에 따라, 챗봇과의 대화와 다른 방식으로 개인 정보 봇과의 대화를 출력하기 위한 전자 장치의 동작의 예를 도시한다.
도 10은 다양한 실시 예들에 따른 전자 장치에서, 챗봇과의 대화와 다른 방식으로 개인 정보 봇과의 대화를 출력하기 위한 GUI의 예를 도시한다.
도 11은 다양한 실시 예들에 따라, 챗봇과의 대화와 다른 방식으로 개인 정보 봇과의 대화를 출력하기 위한 AI 스피커의 예를 도시한다.
도 12는 다양한 실시 예들에 따라, 챗봇과의 대화와 다른 방식으로 개인 정보 봇과의 대화를 출력하기 위한 AI 스피커의 다른 예를 도시한다.
도 13은 다양한 실시 예들에 따른 전자 장치에서, 챗봇과의 대화에 관련된 정보를 저장하기 위한 동작의 예를 도시한다.
도 14는 다양한 실시 예들에 따른 전자 장치에서, 챗봇과의 대화에 관련된 정보를 저장하기 위한 GUI의 예를 도시한다.
도 15는 다양한 실시 예들에 따른 전자 장치에서, 챗봇에게 제공 가능한 컨텐트를 출력하기 위한 동작의 예를 도시한다.
도 16은 다양한 실시 예들에 따라 챗봇에게 제공 가능한 컨텐트를 출력하는 GUI의 예를 도시한다.
도 17은 다양한 실시 예들에 따라 챗봇에게 제공 가능한 컨텐트를 출력하는 GUI의 다른 예를 도시한다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(100))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일실시예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시 예들에 따른 전자 장치, 서버, 및 챗봇(chatbot) 서버를 포함하는 네트워크 환경(environment)의 예를 도시한다.
도 2를 참조하면, 네트워크 환경(200)은, 전자 장치(101), 서버(108), 및 챗봇 서버(201)를 포함할 수 있다. 서버(108)는, 지능형 서버로써, 전자 장치(101)에서 구동될 인공 지능 어플리케이션(예: 음성 인식 어플리케이션, 지능형 어플리케이션, 인공 지능 비서 어플리케이션 등) 또는 대화(chat) 어플리케이션 중 적어도 하나와 관련될 수 있다. 서버(108)는, 전자 장치(101)에서 구동될 인공 지능 어플리케이션 또는 대화(chat) 어플리케이션을 제공 또는 지원할 수 있다. 전자 장치(101)는, 서버(108)에 의해 제공되는 인공 지능 어플리케이션 또는 대화(chat) 어플리케이션을 저장할 수 있다. 전자 장치(101)는, 서버(108)에 의해 제공되는 인공 지능 어플리케이션 또는 대화(chat) 어플리케이션을 이용하여, 서버(108)를 통해 챗봇 서버(201)와 통신할 수 있다. 이하에서, 전자 장치(101)에 저장된 대화(chat) 어플리케이션을 통해 챗봇(또는 개인 정보 봇)과 대화하기 위한 방법 및 장치의 예가 기술될 것이다. 하지만, 다양한 실시 예들은 이에 한정되지 않는다. 전자 장치(101)는, 대화(chat) 어플리케이션뿐만 아니라, 인공 지능 어플리케이션(예: 음성 인식 어플리케이션, 지능형 어플리케이션, 인공 지능 비서 어플리케이션 등)을 통해서도, 전자 장치(101)의 사용자와 챗봇(또는 개인 정보 봇)이 대화하기 위한 사용자 인터페이스를 제공할 수 있다.
다양한 실시 예들에서, 챗봇 또는 개인 정보 봇은, 챗봇 서버(201), 서버(108), 또는 전자 장치(101) 중 적어도 하나에 의해 실행될 수 있다. 예를 들면, 챗봇은, 챗봇 서버(201), 서버(108)에 포함된 챗봇을 위한 자연어 이해(natural language understanding, NLU) 모듈, 서버(108)에 포함된 대화 모듈(230), 또는 전자 장치(101)에 포함된 대화 클라이언트(또는 대화 어플리케이션, 인공 지능 어플리케이션) 중 적어도 하나를 이용하여 실행될 수 있다. 예를 들면, 개인 정보 봇은, 서버(108)에 포함된 개인 정보를 위한 NLU 모듈, 서버(108)에 포함된 대화 모듈(230), 서버(108)에 포함된 개인 정보 관리 모듈(250), 또는 전자 장치(101)에 포함된 대화 클라이언트(또는 대화 어플리케이션, 인공 지능 어플리케이션) 중 적어도 하나를 이용하여 실행될 수 있다.
챗봇 서버(201)는, 서버(108)를 통해 전자 장치(101)의 사용자와 대화하기 위한 챗봇의 적어도 일부 기능을 지원할 수 있다. 챗봇 서버(201)는, 서버(108)의 대화 모듈(230)에 기반하여, 전자 장치(101)에 저장된 대화 어플리케이션(또는 인공 지능 어플리케이션)을 통해, 전자 장치(101)의 사용자와 대화할 수 있는 챗봇의 적어도 일부 기능을 지원할 수 있다. 예를 들면, 챗봇 서버(201)는, 서버(108)에 포함된 자동 음성 인식(automatic speech recognition)(ASR) 모듈(210) 또는 자연어 이해(natural language understanding)(NLU) 모듈(220)을 이용하여, 전자 장치(101)의 사용자와 대화하기 위한 챗봇을 구현할 수 있다. 상기 대화는, 텍스트 또는 음성 중 하나 이상에 기반할 수 있다. 상기 대화를 위해, 챗봇 서버(201)는 전자 장치(101)로부터, 서버(108)(예: 대화 모듈(230))를 통해, 전자 장치(101)의 사용자의 입력을 수신할 수 있다. 예를 들면, 챗봇 서버(201)는, 사용자로부터 입력된 텍스트 데이터 또는 사용자의 발화로부터 변환된 텍스트 데이터를 수신할 수 있다. 상기 대화를 위해 챗봇 서버(201)는, 서버(108)(예: 대화 모듈(230))를 통해 전자 장치(101)에게, 수신된 사용자 입력에 응답하는 메시지를 송신할 수 있다.
예를 들면, 챗봇 서버(201)는, 도 2에 도시된 바와 같이, 프로세서 기반의 외부 장치(예: 외부 서버)일 수 있다. 다른 예를 들면, 챗봇 서버(201)의 적어도 일부 기능은, 서버(108)에 의해 수행될 수 있다. 또 다른 예를 들면, 챗봇 서버(201) 대신, 챗봇을 구동하기 위한 컴퓨터 프로그램 또는 명령어들의 집합체가 서버(108)(예: 서버(108)의 메모리) 내부에 구현될 수 있다.
일부 실시 예들에서, 챗봇 서버(201)는, 챗봇의 기능의 적어도 일부를 실행하기 위해 구현된 자연어 이해(natural language understanding)(NLU) 모듈(미도시)을 포함할 수 있다. 예를 들어, 챗봇 서버(201)에 구현된 챗봇이 피자 업체와 관련된 경우, 챗봇 서버(201)는, 피자 메뉴, 피자 주문, 또는 피자 배달과 관련된 자연어 이해 모듈(이하, 챗봇을 위한 NLU 모듈)을 포함할 수 있다. 챗봇 서버(201)는, 챗봇을 위한 NLU 모듈을 이용하여, 수신된 사용자 입력에 응답하는 메시지를 결정 또는 생성할 수 있다. 일 실시 예에 따라, 챗봇을 위한 NLU 모듈은, 서버(108)에 포함될 수 있다. 예를 들면, 챗봇을 위한 NLU 모듈은, 서버(108)의 자연어 이해 모듈(220)을 이용하여 구현될 수 있다. 서버(108)에 포함된 챗봇을 위한 NLU 모듈은, 서버(108)의 자연어 이해 모듈(220)과 논리적으로 독립될 수 있다. 챗봇을 위한 NLU 모듈은, 챗봇의 기능(예: 피자 주문에 관한 대화 수행)을 위해 이용될 수 있고, 서버(108)의 자연어 이해 모듈(220)은, 전자 장치(101)의 인공 지능 어플리케이션을 위해 이용될 수 있다.
다른 일부 실시 예들에서, 챗봇 서버(201)는, 자연어 이해가 아닌, 키워드에 기반하여 동작할 수 있다. 예를 들면, 챗봇 서버(201)는, 수신된 사용자 입력으로부터(from among), 지정된 단어나 어구를 식별할 수 있다. 챗봇 서버(201)는, 식별된 단어나 어구에 대응하는 응답 메시지를 출력(또는 획득)할 수 있다.
일 실시 예에 따르면, 챗봇 서버(201)는, 다수의 챗봇들을 구현(또는 제작)하기 위한 서비스(예: 웹페이지)를 제공할 수 있다. 챗봇 서버(201)는, 상기 서비스를 이용하여 구현된 다수의 챗봇들을 구동할 수 있다. 예를 들면, 챗봇 서버(201)는, 다수의 챗봇들 각각에 대응하는 다수의 NLU 모듈들을 포함할 수 있다. 다른 예를 들면, 서버(108)가, 자연어 이해 모듈(220)을 이용하여 구현된, 다수의 챗봇들 각각에 대응하는 다수의 NLU 모듈들을 포함할 수도 있다. 챗봇 서버(201)는, 챗봇 서버(201) 또는 서버(108)에 포함된 상기 다수의 NLU 모듈들을 이용하여 사용자 입력으로부터 사용자의 의도(intent) 또는 상기 의도를 표현하는데 필요한 파라미터(parameter)(또는, 슬롯(slot))를 획득할 수 있다. 챗봇 서버(201)는, 획득된 의도(intent) 또는 파라미터(parameter)에 기반하여, 사용자에게 제공할 서비스(또는 액션, 태스크)를 결정할 수 있다. 챗봇 서버(201)는, 상기 결정에 기반하여, 전자 장치(101)에서 출력하기 위한 응답 메시지를, 서버(108)(예: 대화 모듈(230))를 통해 전자 장치(101)에게 송신할 수 있다.
챗봇 서버(201)는, 다수의 챗봇들과 외부 서비스(예: 서버(108), 3rd party 서버(202))의 연결을 지원하는 서버를 포함할 수 있다. 예를 들면, 챗봇 서버(201)는, 챗봇 서버(201)에서 구현된 챗봇의 기능을 수행하기 위해, 3rd party 서버(202)(예: 날씨 서버 등)로부터 수신된 정보를 이용할 수 있다.
서버(108)는, 자동 음성 인식(automatic speech recognition)(ASR) 모듈(210), 자연어 이해(natural language understanding)(NLU) 모듈(220), 대화(chat) 모듈(230), 또는 개인 정보 관리 모듈(250)을 포함할 수 있다. 서버(108)는, 통신 회로, 메모리 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 메모리에 저장된 명령어를 실행하여 자동 음성 인식 모듈(210), 자연어 이해 모듈(220), 대화(chat) 모듈(230), 또는 개인 정보 관리 모듈(250)을 구동시킬 수 있다. 서버(108)의 메모리는, 개인 정보 데이터베이스(database, DB)(240)(또는 context DB)를 포함할 수 있다. 개인 정보 DB(240)는, 개인 정보 관리 모듈(250)과 연결될 수 있다. 예를 들면, 개인 정보 관리 모듈(250)은, 개인 정보 DB(240)에 저장된 정보를 식별하고, 추출할 수 있다. 서버(108)는, 상기 통신 회로를 통해 전자 장치(101) 또는 챗봇 서버(201)와 데이터(또는 정보)를 송수신할 수 있다.
자동 음성 인식(automatic speech recognition)(ASR) 모듈(210)은 전자 장치(101)로부터 수신된 사용자 입력을 텍스트 데이터로 변환할 수 있다. 예를 들어, 자동 음성 인식 모듈(210)은 발화 인식 모듈을 포함할 수 있다. 상기 발화 인식 모듈은 음향(acoustic) 모델 및 언어(language) 모델을 포함할 수 있다. 예를 들어, 상기 음향 모델은 발성에 관련된 정보를 포함할 수 있고, 상기 언어 모델은 단위 음소 정보 및 단위 음소 정보의 조합에 대한 정보를 포함할 수 있다. 상기 발화 인식 모듈은 발성에 관련된 정보 및 단위 음소 정보에 대한 정보를 이용하여 사용자 발화를 텍스트 데이터로 변환할 수 있다. 상기 음향 모델 및 언어 모델에 대한 정보는, 예를 들어, 자동 음성 인식 데이터베이스(automatic speech recognition database)(ASR DB)에 저장될 수 있다.
자연어 이해(natural language understanding)(NLU) 모듈(220)은 문법적 분석(syntactic analyze) 또는 의미적 분석(semantic analyze)을 수행하여 발화의 의도 또는 문장의 의도를 파악할 수 있다. 자연어 이해 모듈(220)은, 전자 장치(101)로부터 수신된 사용자 입력의 의도를 파악하거나, 챗봇 서버(201)로부터 수신된 입력의 의도를 파악할 수 있다. 상기 문법적 분석은, 사용자 입력을 문법적 단위(예: 단어, 구, 형태소 등)로 나누고, 상기 나누어진 단위가 어떤 문법적인 요소를 갖는지 파악할 수 있다. 상기 의미적 분석은 의미(semantic) 매칭, 룰(rule) 매칭, 포뮬러(formula) 매칭 등을 이용하여 수행할 수 있다. 이에 따라, 자연어 이해 모듈(220)은 사용자 입력 또는 챗봇 서버(201)로부터의 입력에 대응하는 도메인(domain), 의도(intent) 또는 상기 의도를 표현하는데 필요한 파라미터(parameter)(또는, 슬롯(slot))를 얻을 수 있다.
일부 실시 예들에서, 자연어 이해 모듈(220)은, 챗봇을 위한 NLU 모듈(NLU for chatbot)을 포함할 수 있다. 챗봇을 위한 NLU 모듈은, 챗봇의 기능과 관련된 대화를 이해할 수 있다. 예를 들면, 챗봇 서버(201)에 구현된 챗봇이 피자 업체와 관련된 경우, 챗봇을 위한 NLU 모듈은, 피자 메뉴, 피자 주문, 또는 피자 배달과 관련된 문장 또는 발화를 이해할 수 있다. 챗봇을 위한 NLU 모듈은, 챗봇과 전자 장치(101)의 사용자 사이의 대화와 관련된 의도(intent) 및 파라미터(parameter)를 식별할 수 있다. 챗봇을 위한 NLU 모듈이 식별할 수 있는 의도(intent)는, 예를 들면, 피자 주문의 의도 또는 사이드 메뉴 주문의 의도를 포함할 수 있다. 챗봇을 위한 NLU 모듈은, 상기 의도(intent)에 관한 기능을 수행하기 위해 필요한 파라미터(parameter)를 식별할 수 있다. 예를 들면, 주문의 의도와 관련된 파라미터는, 상품명, 사이즈, 수량, 날짜 등을 포함할 수 있다. 예를 들면, "포테이토 피자 라지 사이즈 한 판 주문해줘"라는 사용자 입력(발화 또는 텍스트)으로부터, 챗봇을 위한 NLU 모듈은, 피자 주문의 의도(intent)를 식별할 수 있다. 챗봇을 위한 NLU 모듈은, 파라미터로써, 상품명은 포테이토 피자로, 사이즈는 라지로, 수량은 1로 식별할 수 있다. 날짜는, 예를 들면, 현재 날짜로 자동으로 입력될 수 있다. 일 실시 예에서, 상술한 바와 같이 식별된 주문 정보는, 전자 장치(101)로부터 주문 확정을 나타내는 사용자 입력이 수신되면, 개인 정보 DB(240)에 저장될 수 있다.
상술한 바와 같은 챗봇뿐만 아니라, 다양한 챗봇들(예: 챗봇 서버(201)에서 구현된 챗봇들)을 위한 다양한 NLU 모듈들이 서버(108)에 저장될 수 있다. 예를 들면, 서버(108)는, 다양한 사업자들에게 전자 장치(101)의 사용자와 대화하기 위한 챗봇을 구현할 수 있는 대화 플랫폼(예: 대화 모듈(230))을 제공할 수 있다.
상술한 바와 같은 챗봇을 위한 NLU 모듈은, 자연어 이해 모듈(220)에 포함되지 않고, 별도의 외부 장치(예: 외부 서버 또는 챗봇 서버(201))에서 구현될 수 있다. 상술한 바와 같은 챗봇의 대화 이해는, NLU 모듈에 기반하지 않을 수도 있다. 예를 들면, 챗봇(또는 챗봇 서버(201))은, 키워드(예: 지정된 단어나 어구)를 식별하는 것에 기반하여 상술한 바와 같은 의도 및 파라미터를 식별할 수 있다.
다양한 실시 예들에서, 자연어 이해 모듈(220)은, 개인 정보(personal information, PI)를 위한 NLU 모듈(NLU for PI)을 포함할 수 있다. 예를 들면, 전자 장치(101)의 사용자가 대화 어플리케이션(또는 인공 지능 어플리케이션)을 이용하여, 서버(108)의 대화 모듈(230)을 통해 챗봇 서버(201)에 의해 구현된 챗봇과 대화하는 동안, 챗봇에게 사용자의 개인 정보를 제공할 필요가 발생할 수 있다. 예를 들면, 전자 장치(101)의 사용자가 챗봇 서버(201)를 이용한 피자 업체의 챗봇과 피자 주문을 위해 대화(chat)하는 동안, 주소지, 카드 정보, 또는 이메일 주소 등의 입력이 요구될 수 있다. 개인 정보(PI)를 위한 NLU 모듈은, 전자 장치(101)의 사용자의 개인 정보를 챗봇(또는 챗봇 서버(201))에게 제공하기 위한 대화를 이해할 수 있다. 개인 정보(PI)를 위한 NLU 모듈이 구동되는 동안, 전자 장치(101)로부터 수신된 사용자 입력은, 챗봇을 위한 NLU 모듈 대신 개인 정보를 위한 NLU 모듈에게 제공될 수 있다. 개인 정보(PI)를 위한 NLU 모듈이 구동되는 동안, 전자 장치(101)로부터 수신된 사용자 입력은, 챗봇 서버(201)에게 제공되지 않을 수 있다. 개인 정보(PI)를 위한 NLU 모듈이 구동되는 동안, 전자 장치(101)의 사용자와 대화하는 주체는, 챗봇과는 다른 개인 정보 봇의 형태로 전자 장치(101)에서 출력될 수 있다. 개인 정보 봇(personal information bot, PI bot)은, 전자 장치(101)의 대화 어플리케이션(또는 인공 지능 어플리케이션)을 통한 챗봇과의 대화(chat)에 이어서 출력될 수 있다.
예를 들면, 개인 정보를 위한 NLU 모듈은, 서버(108)의 자연어 이해 모듈(220)을 이용하여 구현될 수 있다. 서버(108)에 포함된 개인 정보를 위한 NLU 모듈은, 서버(108)의 자연어 이해 모듈(220)과 논리적으로 독립될 수 있다. 다른 예를 들면, 개인 정보를 위한 NLU 모듈은, 자연어 이해 모듈(220)의 외부에 구현될 수도 있다.
대화(chat) 모듈(230)은, 전자 장치(101)에 저장되는 대화(chat) 어플리케이션을 구동 가능한 플랫폼(platform)일 수 있다. 대화 모듈(230)은, 예를 들면, 대화(chat) 어플리케이션을 구동 가능한 하드웨어 아키텍쳐(architecture) 또는 소프트웨어 프레임워크를 포함할 수 있다. 대화 모듈(230)은, 서버(108)의 메모리에 저장된 소프트웨어일 수 있다. 대화 모듈(230)의 적어도 일부는 서버(108)의 프로세서에 포함될 수 있고, 대화 모듈(230)은, 소프트웨어와 하드웨어의 결합으로 구현될 수 있다. 대화 모듈(230)은, 서버(108)의 외부에 구현될 수도 있다.
대화 모듈(230)은, 전자 장치(101)와 챗봇 서버(201)에서 구동되는 챗봇 사이의 대화 세션을 형성할 수 있다. 대화 모듈(230)은 상기 대화 세션을 통해, 전자 장치(101)로부터 수신된 데이터를 챗봇 서버(201)(또는 챗봇)에게 송신할 수 있고, 챗봇 서버(201)(또는 챗봇)로부터 수신된 데이터를 전자 장치(101)에게 송신할 수 있다.
대화 모듈(230)은, 전자 장치(101)로부터 수신된 데이터(예: "주문할래"라는 텍스트 데이터 또는 발화로부터 변환된 텍스트 데이터)를 챗봇 서버(201)(또는 챗봇을 위한 NLU 모듈)에게 송신할 수 있다. 대화 모듈(230)은, 챗봇 서버(201)로부터 수신된 응답 메시지에 관한 데이터를, 대화 세션을 이용하여, 전자 장치(101)에게 송신할 수 있다. 챗봇 서버(201)로부터 수신된 챗봇의 응답 메시지는, 전자 장치(101)의 그래픽 사용자 인터페이스 또는 음향 출력 장치를 통해 출력될 수 있다.
다양한 실시 예들에서, 챗봇 서버(201)에 의해 수행되는 챗봇과의 대화(chat) 동안, 챗봇(또는 챗봇 서버(201))에게 사용자의 개인 정보(예: 주소지, 카드 정보, 또는 이메일 주소 등)를 제공할 필요가 발생할 수 있다. 개인 정보 봇(PI bot)은, 챗봇(또는 챗봇 서버(201))에게 사용자의 개인 정보 제공이 요구되는 경우, 개인 정보에 관한 대화(chat)를 수행하기 위해, 서버(108)(예: 개인 정보를 위한 NLU 모듈)에서 구현될 수 있다. 개인 정보 봇은, 챗봇과의 대화(chat)에 참여하는 형태로, 전자 장치(101)를 통해 출력될 수 있다.
대화 모듈(230)(또는 프로세서)은, 상기 대화 세션에서 챗봇과의 대화가 진행되는 동안, 상기 대화 세션에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다.
일부 실시 예들에서, 대화 모듈(230)(또는 프로세서)은, 대화 세션에 개인 정보 봇을 참여시키기 위한 이벤트를 검출하기 위해, 대화 세션을 통해 수신된 데이터로부터 개인 정보와 관련된 키워드를 식별할 수 있다. 예를 들면, 대화 모듈(230)은, 전자 장치(101)로부터 수신된 "주소 정보 알려줘"에 관한 데이터 또는 챗봇 서버(201)로부터 수신된 "주소지를 입력해주세요"에 관한 데이터로부터, 키워드 "주소"를 식별할 수 있다. 대화 모듈(230)(또는 프로세서)은, 대화 세션을 통해 수신된 데이터로부터 지정된 키워드를 식별하는 것에 기반하여, 대화 세션에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다.
다른 일부 실시 예들에서, 대화 모듈(230)(또는 프로세서)은, 대화 세션에 개인 정보 봇을 참여시키기 위한 이벤트를 검출하기 위해, 개인 정보를 위한 NLU 모듈을 이용하여, 대화(chat)(예: "주소 정보 알려줘" 또는 "주소지를 입력해주세요")의 의도(intent)를 식별할 수 있다. 대화 모듈(230)(또는 프로세서)은, 개인 정보를 위한 NLU 모듈을 이용하여 대화(chat)의 의도가 개인 정보 입력(예: 주소 입력)의 의도임을 식별하는 것에 기반하여, 대화 세션에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다.
또 다른 일부 실시 예들에서, 대화 모듈(230)(또는 프로세서)은, 전자 장치(101)로부터 수신된 데이터로부터(from among) 지정된 단어(또는 인공 지능 비서를 호출하기 위한 단어)를 식별하는 것에 기반하여, 대화 세션에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다. 예를 들면, 대화 모듈(230)(또는 프로세서)은, 전자 장치(101)로부터 수신된 "빅스비, 주소 정보 알려줘"에 관한 데이터로부터, 지정된 단어 "빅스비"를 식별하는 것에 기반하여, 대화 세션에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다. 다른 예를 들면, 대화 모듈(230)은, 사용자 입력에서 지정된 단어가 식별된 경우, 자연어 이해 모듈(220)(또는 개인 정보를 위한 NLU 모듈)을 이용하여 사용자 입력의 의도(intent)를 파악함으로써 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다. 대화 모듈(230)은, 사용자 입력으로부터, 음성 비서에게 태스크를 수행할 것을 요구하는 의도(intent)를 식별하는 것에 기반하여 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다.
또 다른 일부 실시 예들에서, 대화 모듈(230)(또는 프로세서)는, 전자 장치(101)로부터, 대화 세션에 개인 정보 봇을 참여시키기 위한 제어 신호를 수신할 수 있다. 예를 들면, 전자 장치(101)(예: 대화 클라이언트)는, 챗봇과의 대화 세션에 개인 정보 봇을 참여시키기 위한 사용자 입력(예: 물리적 버튼에 대한 입력, 아이콘에 대한 입력, 지정된 단어(예: 빅스비)가 포함된 발화 등)을 수신할 수 있다. 전자 장치(101)는, 사용자 입력에 기반하여 제어 신호를 서버(108)(예: 대화 모듈(230) 또는 프로세서)에게 송신할 수 있다. 서버(108)(예: 대화 모듈(230) 또는 프로세서)는, 상기 제어 신호를 수신하는 것에 기반하여, 챗봇과의 대화 세션에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다.
대화 모듈(230)(또는 프로세서)은, 개인 정보 봇을 참여시키기 위한 이벤트를 검출하면, 전자 장치(101)로부터 대화(chat) 어플리케이션을 통해 수신된 사용자 입력에 관한 데이터를, 챗봇 서버(201)에게 송신하는 것을 제한할 수 있다. 대화 모듈(230)(또는 프로세서)는, 개인 정보 봇을 참여시키기 위한 이벤트를 검출하는 것에 기반하여, 전자 장치(101)로부터 대화(chat) 어플리케이션을 통해 수신된 데이터를, 챗봇 서버(201)(또는 챗봇을 위한 NLU 모듈)에게 송신하지 않고, 개인 정보를 위한 NLU 모듈에게 제공할 수 있다. 대화 모듈(230)(또는 프로세서)는, 개인 정보를 위한 NLU 모듈을 이용하여 생성된(또는 결정된) 응답 메시지를 전자 장치(101)에게 송신할 수 있다. 상기 응답 메시지는, 전자 장치(101)의 대화(chat) 어플리케이션에서, 챗봇과는 다른 개인 정보 봇(personal information bot, PI bot)의 응답 메시지로써 출력될 수 있다.
개인 정보 관리 모듈(250)(또는 프로세서)은, 개인 정보를 위한 NLU 모듈을 이용하여 개인 정보 봇(PI bot)의 형태로 전자 장치(101)의 사용자와 대화하는 동안, 개인 정보 DB(240)로부터 필요한 개인 정보(예: 주소)를 식별(또는 검색(retrieve))할 수 있다. 대화 모듈(230)(또는 프로세서)은, 개인 정보 DB(240)로부터 식별된 개인 정보에 관한 메시지를, 전자 장치(101)에게 송신할 수 있다. 대화 모듈(230)(또는 프로세서)은, 개인 정보를 위한 NLU 모듈을 이용하여 개인 정보 봇(PI bot)의 형태로 전자 장치(101)의 사용자와 대화하는 동안, 상기 식별된 개인 정보를 챗봇 서버(201)(또는 챗봇을 위한 NLU 모듈)에게 송신하지 않을 수 있다. 대화 모듈(230)(또는 프로세서)는, 전자 장치(101)로부터, 상기 개인 정보를 챗봇 서버(201)에게 제공하기 위한 승인 또는 인증을 수신하는 것에 기반하여, 상기 개인 정보를 챗봇 서버(201)에게 송신할 수 있다.
다양한 실시 예들에서, 서버(108)의 프로세서(예: 대화 모듈(230), 개인 정보 관리 모듈(250))는, 후술되는 도 5 내지 도 17을 통해 설명되는 기능들의 적어도 일부를 수행할 수 있다.
서버(108)의 메모리는, 개인 정보 DB(240)를 포함할 수 있다. 개인 정보 DB(240)(또는 context DB)는, 예를 들면, 전자 장치(101)의 사용자의 개인 정보(예: 주소, 이메일, 카드 정보 등)를 저장할 수 있다. 다른 예를 들면, 개인 정보 DB(240)는, 챗봇의 목적 또는 기능과 관련된 정보를 저장할 수 있다. 예를 들어, 챗봇 서버(201)에 구현된 챗봇이 피자 업체와 관련된 경우, 개인 정보 DB(240)는, 사용자 별 주문 이력을 저장할 수 있다. 개인 정보 DB(240)는, 예를 들면, 피자 업체와 관련된 챗봇뿐만 아니라 다양한 챗봇들의 목적 또는 기능과 관련된 정보를, 전자 장치의 사용자(예: 사용자 ID)에 따라 저장할 수 있다. 개인 정보 DB(240)에 저장되는 정보에 관한 상세한 설명은, 표 1 및 표 2에서 후술된다.
상술한 바와 같은 서버(108)의 동작의 적어도 일부는, 전자 장치(101)에 의해 수행될 수도 있다. 전자 장치(101)에 관한 상세한 설명은, 도 3에서 후술된다.
도 3은 다양한 실시 예들에 따른 전자 장치(101)의 예를 도시한다.
도 3을 참조하면, 전자 장치(101)는, 입력 장치(150), 출력 장치(350), 프로세서(120), 및 메모리(130)를 포함할 수 있다.
다양한 실시 예들에 따른 전자 장치(101)는, 디스플레이(예: 표시 장치(160) 또는 디스플레이(360))을 포함하는 장치(예: 스마트폰, 태블릿 PC, 웨어러블 장치 등) 또는 디스플레이를 포함하지 않는 장치(예: 인공 지능(artificial intelligence, AI) 스피커)를 포함할 수 있다. 전자 장치(101)(예: 메모리(130))는, 서버(108)의 대화 모듈(230)과 연결되는 대화(chat) 클라이언트(client)(예: 대화 어플리케이션(330))를 저장할 수 있다. 전자 장치(101)는, 서버(108)과 연결된 대화 클라이언트(예: 대화(chat) 어플리케이션(330))를 통해, 인공 지능 비서(AI assistant) 기능을 수행할 수 있다. 예를 들면, 대화 클라이언트는, 챗봇(또는 개인 정보 봇)과 사용자 간의 대화를 전자 장치(101)에서 출력(또는 표시)하는 역할을 수행할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 키보드, 또는 터치 패널을 포함할 수 있다. 입력 장치(150)(예: 터치 패널)는, 출력 장치(350)(예: 디스플레이(360))의 적어도 일부와 결합되어 구현될 수 있다.
출력 장치(350)는, 디스플레이(360) 또는 음향 출력 장치(155) 중 적어도 하나를 포함할 수 있다. 디스플레이(260)는, 예를 들면, 도 1의 표시 장치(160)에 상응할 수 있다. 음향 출력 장치(155)는, 스피커를 포함할 수 있다. 예를 들면, 전자 장치(101)(예: AI 스피커)는, 출력 장치(350)로써 디스플레이(360)를 포함하지 않고, 음향 출력 장치(155)만을 포함할 수 있다.
디스플레이(360)는, 화면을 표시할 수 있다. 디스플레이(360)은, 대화(chat) 어플리케이션(330)의 그래픽 사용자 인터페이스(graphical user interface, GUI)를 표시할 수 있다. 디스플레이(360)는, 대화 어플리케이션(330)의 GUI 내에서, 챗봇 또는 개인 정보 봇을 나타내는 객체(또는 이미지)를 표시할 수 있다. 디스플레이(360)는, 대화 어플리케이션(330)의 GUI 내에서, 챗봇(또는 챗봇 서버(201))으로부터 수신된 메시지를 표시할 수 있다. 디스플레이(360)는, 서버(108)의 개인 정보를 위한 NLU 모듈을 이용하여 획득된 메시지를, 대화 어플리케이션(330)의 GUI 내에서, 개인 정보 봇의 메시지로써 표시할 수 있다.
음향 출력 장치(155)는, 소리를 출력할 수 있다. 음향 출력 장치(155)는, 대화(chat) 어플리케이션(330)을 통해, 챗봇의 메시지(예: 말, 대화) 또는 개인 정보 봇의 메시지(예: 말, 대화)를 출력할 수 있다. 일 실시 예에 따르면, 음향 출력 장치(155)는, 챗봇의 메시지와 개인 정보 봇의 메시지를 서로 다른 음성(목소리)으로 출력할 수 있다. 일 실시 예에 따르면, 전자 장치(101)가 AI 스피커인 경우, 대화(chat) 어플리케이션(330)의 사용자 인터페이스는 마이크 및 음향 출력 장치(155)(예: 스피커)를 포함할 수 있다.
프로세서(120)는, 전자 장치(101)의 전반적인 동작을 제어할 수 있다. 프로세서(120)는, 다른 구성 요소들(예: 입력 장치(150), 출력 장치(350), 디스플레이(360), 음향 출력 장치(155), 및 메모리(130) 등)의 명령을 수신할 수 있고, 수신된 명령을 해석할 수 있으며, 해석된 명령에 따라서 계산을 수행하거나 데이터를 처리할 수 있다. 프로세서(120)는, 소프트웨어로 구현될 수도 있고, 칩(chip), 회로(circuitry) 등과 같은 하드웨어로 구현될 수도 있으며, 소프트웨어 및 하드웨어의 집합체로 구현될 수도 있다. 프로세서(120)는, 하나일 수도 있고, 복수의 프로세서들의 집합체일 수도 있다.
프로세서(120)는, 메모리(130)에 저장되고, 서버(108)(또는 대화 모듈(230))에 의해 지원될 수 있는 대화(chat) 어플리케이션(330)(예: 어플리케이션(143))을 실행할 수 있다. 프로세서(120)는 대화 어플리케이션(330)을 이용하여, 서버(108)를 통해, 챗봇(또는 챗봇 서버(201))과 메시지(또는 대화)에 관한 데이터를 송수신할 수 있다. 프로세서(120)는 대화 어플리케이션(330)을 이용하여, 개인 정보 봇(또는 서버(108))과 메시지(또는 대화)에 관한 데이터를 송수신할 수 있다.
프로세서(120)는, 입력 장치(150)를 통해 수신된 사용자 입력을, 디스플레이(360)를 통해, 대화 어플리케이션(330)의 GUI 내에서 출력할 수 있다. 프로세서(120)는, 전자 장치(101)가 AI 스피커인 경우, 입력 장치(150)(예: 마이크)를 통해 수신된 사용자 입력을, 음향 출력 장치(155)(예: 스피커)를 통해 출력할 있다.
프로세서(120)는, 입력 장치(150)를 통해 수신된 사용자 입력(예: 텍스트 데이터 또는 음성 데이터)를 서버(108)에게 송신할 수 있다. 프로세서(120)는, 챗봇 서버(201)로부터 서버(108)를 통해, 상기 사용자 입력에 대한 챗봇의 응답 메시지를 수신할 수 있다. 프로세서(120)는, 서버(108)의 대화 모듈(230)로부터 전자 장치(101)의 대화 어플리케이션(330)을 통해, 챗봇의 응답 메시지를 수신할 수 있다. 프로세서(120)는, 수신된 응답 메시지를, 출력 장치(350)를 통해 출력할 수 있다. 예를 들면, 프로세서(120)는 수신된 응답 메시지를, 디스플레이(360)를 통해, 대화 어플리케이션(330)의 GUI 내에서, 챗봇의 메시지로써 표시할 수 있다. 다른 예를 들면, 프로세서(120)는 수신된 응답 메시지를, 음향 출력 장치(155)를 통해, 챗봇이 말하는 것처럼 출력할 수 있다.
프로세서(120)는, 대화 어플리케이션(330)을 통해 챗봇 서버(201)와 데이터를 송수신하는 동안, 챗봇 서버(201)에서 구동되는 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다. 예를 들면, 프로세서(120)는, 챗봇 서버(201)로부터 수신된 데이터로부터 개인 정보에 관한 지정된 키워드를 식별하거나, 개인 정보 봇을 호출하기 위한 사용자 입력(예: 물리적 버튼에 대한 입력, 아이콘에 대한 입력, 지정된 단어(예: 빅스비)가 포함된 발화 등)을 식별할 수 있다. 프로세서(120)는, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 제어 신호를 서버(108)에게 송신할 수 있다. 다른 예를 들면, 프로세서(120)는, 서버(108)로부터, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 제어 신호를 수신할 수도 있다.
프로세서(120)는, 챗봇 서버(201)에서 구동되는 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 이벤트를 검출하는 것에 기반하여, 대화 어플리케이션(330)을 통해, 개인 정보 봇과 대화(chat)할 수 있다. 예를 들면, 프로세서(120)는 서버(108)로부터, 개인 정보를 위한 NLU 모듈(NLU for PI)를 이용하여 획득된 메시지를 수신할 수 있다. 프로세서(120)는, 수신된 메시지를 개인 정보 봇의 메시지로써 출력 장치(350)를 통해 출력할 수 있다. 프로세서(120)는, 챗봇 서버(201)에서 구동되는 챗봇과의 대화 세션에 개인 정보 봇이 참여한 것처럼 개인 정보 봇의 메시지를 출력할 수 있다. 예를 들면, 프로세서(120)는, 디스플레이(360)를 통해, 대화 어플리케이션(330)의 GUI(예: 챗봇과의 대화방) 내에서, 개인 정보 봇을 나타내는 객체(예: 이미지) 및 개인 정보 봇의 메시지를 표시할 수 있다. 다른 예를 들면, 프로세서(120)는, 음향 출력 장치(155)를 통해, 개인 정보 봇의 메시지를 개인 정보 봇이 말하는 것처럼 출력할 수 있다. 프로세서(120)는 음향 출력 장치(155)를 통해, 챗봇의 음성과는 다른 음성으로, 개인 정보 봇의 메시지를 출력할 수 있다.
프로세서(120)는, 예를 들면, 대화 어플리케이션(330)을 통해 개인 정보 봇과 대화(chat)하는 동안, 개인 정보 봇의 메시지 또는 사용자 입력을, 챗봇 서버(201)(또는 챗봇을 위한 NLU 모듈)에게 송신하는 것을 제한할 수 있다. 프로세서(120)는, 예를 들면, 개인 정보 봇과 대화하는 동안, 메모리(130)의 개인 정보 DB(340)에 저장된 개인 정보를 식별할 수 있다. 예를 들면, 프로세서(120)는, 메모리(130)의 개인 정보 DB(340) 중에서, 개인 정보 봇과의 대화에 대응하는 개인 정보를 식별하고, 식별된 개인 정보에 관한 대화를 출력할 수 있다. 상술한 바와 같은 동작의 적어도 일부는, 서버(108)에서 수행될 수 있다. 예를 들면, 서버(108)의 프로세서(예: 대화 모듈(230))은, 전자 장치(101)가 개인 정보를 위한 NLU 모듈을 이용하여 개인 정보 봇과 대화(chat)하는 동안, 개인 정보 봇과의 대화를 챗봇 서버(201)에게 송신하는 것을 제한할 수 있다. 예를 들면, 서버(108)의 프로세서(예: 개인 정보 관리 모듈(250))는, 서버(108)의 개인 정보 DB(240)에 접근하여, 개인 정보 봇과의 대화에 대응하는 개인 정보를 식별할 수 있다. 서버(108)의 프로세서(예: 대화 모듈(230))는, 식별된 개인 정보에 관한 개인 정보 봇의 메시지를, 전자 장치(101)에게 송신할 수 있다.
프로세서(120)는, 개인 정보 봇과의 대화로써 출력된 개인 정보를, 챗봇 서버(201)(또는 챗봇을 위한 NLU 모듈)에게 제공하기 위한 사용자 입력(예: "공유해줘"라는 발화 또는 텍스트)을 수신할 수 있다. 프로세서(120)(또는 서버(108)의 프로세서(예: 대화 모듈(230)))는, 상기 사용자 입력을 수신하는 것에 기반하여, 상기 개인 정보를 챗봇 서버(201)(또는 챗봇)에게 제공(또는 송신)할 수 있다.
프로세서(120)는, 상기 개인 정보를 챗봇 서버(201)에게 제공하기 위한 추가적인 인증을 수행할 수도 있다. 프로세서(120)는, 전자 장치(101)의 사용자의 목소리 정보, 홍채 정보, 얼굴 인식 정보, 지문 정보, 또는 비밀번호 중 적어도 하나에 기반하여 개인 정보를 챗봇 서버(201)에게 제공하기 위한 추가적인 인증을 수행할 수 있다. 예를 들면, 프로세서(120)는, 상기 개인 정보를 챗봇 서버(201)에게 제공하기 위한 사용자 입력(예: "공유해줘"라는 발화)으로부터, 심리스하게(seamlessly) 인증을 위한 목소리 정보를 획득할 수 있다. 프로세서(120)는, 상기 사용자 입력으로부터 획득된 목소리 정보가 전자 장치(101)의 사용자의 목소리에 상응함을 식별하는 것에 기반하여, 상기 사용자 입력을 인증할 수 있다. 다른 예를 들면, 프로세서(120)는, 상기 개인 정보 봇과의 대화 중 카메라 모듈(180)(예: 이미지 센서)을 이용하여 전자 장치(101)의 사용자의 얼굴 인식 정보를 획득할 수 있다. 프로세서(120)는, 상기 개인 정보 봇과의 대화 중 센서 모듈(176)(예: 홍채 센서, 지문 센서)을 이용하여 전자 장치(101)의 사용자의 홍채 정보 또는 지문 정보를 획득할 수 있다. 프로세서(120)는, 획득된 얼굴 인식 정보, 홍채 정보, 또는 지문 정보에 기반하여, 상기 사용자 입력을 인증할 수 있다. 또 다른 예를 들면, 프로세서(120)는, 전자 장치(101)의 사용자로부터 비밀번호를 입력 받는 것에 기반하여, 상기 사용자 입력을 인증할 수 있다. 일 실시 예에 따르면, 프로세서(120)는, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 이벤트를 검출하는 것에 응답하여 상기 인증 동작을 수행될 수도 있다.
프로세서(120)는, 개인 정보를 챗봇 서버(201)에게 제공하기 위한 사용자 입력을 수신하고, 및 상술한 바와 같은 인증을 수행하는 것에 기반하여, 상기 개인 정보를 챗봇 서버(201)에게 제공(또는 송신)할 수 있다.
프로세서(120)는, 개인 정보를 챗봇 서버(201)에게 제공(또는 송신)하기 위해, 개인 정보 봇과의 대화를 종료할 수 있다. 또는, 프로세서(120)는, 개인 정보를 챗봇 서버(201)에게 제공(또는 송신)하는 것에 기반하여, 개인 정보 봇과의 대화를 종료할 수 있다. 프로세서(120)는, 개인 정보 봇과의 대화를 종료하는 것에 기반하여, 개인 정보 봇과의 대화에 이어서 챗봇 서버(201)를 통해 구동되는 챗봇과 대화할 수 있다.
상술한 바와 같은 프로세서(120)의 동작의 적어도 일부는, 서버(108)에 의해 수행될 수 있다. 다양한 실시 예들에서, 프로세서(120)는, 후술되는 도 5 내지 도 17을 통해 설명되는 기능들의 적어도 일부를 수행할 수 있다.
메모리(130)는, 하나 이상의 메모리 집합을 의미할 수 있다. 메모리(130)는, 프로세서(120)와의 시그널링에 기반하여 메모리(130)에 저장된 명령어들을 실행할 수 있다. 메모리(130)은, 다른 구성 요소들(예: 프로세서(120), 입력 장치(150), 출력 장치(350), 디스플레이(360) 등)로부터 수신되거나 다른 구성 요소들에 의해 생성된 데이터 및/또는 명령을 저장할 수 있다.
다양한 실시 예들에서, 메모리(130)는, 서버(108)의 대화 모듈(230)과 연결되는 대화(chat) 어플리케이션(330)을 저장할 수 있다. 전자 장치(101)는, 전자 장치(101)의 대화 어플리케이션(330) 및 서버(108)의 대화 모듈(230)을 통해, 챗봇 서버(201)에 의해 구동되는 챗봇과의 대화(chat)를 지원할 수 있다. 메모리(130)는, 개인 정보 DB(340)를 저장할 수 있다. 개인 정보 DB(340)에 저장되는 정보에 관한 상세한 설명은, 표 1 및 표 2에서 후술된다.
Figure PCTKR2018013543-appb-I000001
표 1은 다양한 실시 예들에 따른 개인정보 데이터베이스(database, DB)의 예를 나타낸다. 표 1의 개인 정보 DB는, 전자 장치(101)의 메모리(130)(예: 개인 정보 DB(340)) 또는 서버(108)의 메모리(예: 개인 정보 DB(240)) 중 적어도 하나에 저장될 수 있다.
표 1을 참조하면, 개인 정보 DB(240 또는 340)는, 사용자 ID에 따른 개인 정보를 저장할 수 있다. 사용자 ID는, 사용자의 계정에 따라 부여될 수 있다. 사용자 ID는, 전자 장치(101)의 사용자를 다른 사용자로부터 구별하기 위해 이용될 수 있다. 하나의 사용자 계정에 등록된 다수의 기기가 존재하면, 사용자 ID는 다수의 기기의 ID와 연계될 수 있다.
예를 들면, 개인 정보 DB(240 또는 340)는, 사용자 ID 77778에, 나이, 성별, 카드 정보, 전화번호, 주소 등과 같은 개인 정보를 저장할 수 있다. 상기 개인 정보는, 다른 어플리케이션 또는 다른 서버로부터 수신될 수도 있고, 전자 장치(101)의 사용자로부터 입력될 수도 있다. 예를 들면, 개인 정보 DB(240 또는 340)는, 정보의 종류를 나타내는 특성(feature), 정보의 내용으로써 값(value)이나 숫자(number), 및 정보가 입력된 경로를 나타내는 소스(source)에 대한 데이터를 저장할 수 있다. 예를 들면, 개인 정보 DB(240 또는 340)는, 계정(account), 결제 어플리케이션, 건강 어플리케이션, 연락처(contact), 또는 이메일 계정 등으로부터, 어플리케이션 프로그래밍 인터페이스(application programming interface, API)를 통해 정보를 수신할 수 있다. 개인 정보 DB(240 또는 340)는, 사용자(user)로부터 정보를 입력 받을 수도 있다.
도 4는 다양한 실시 예들에 따른 전자 장치, 서버, 및 챗봇 서버 사이의 신호 흐름의 예를 도시한다.
도 4를 참조하면, 동작 401에서, 서버(108)은, 전자 장치(101)와 챗봇 서버(201)가 지원하는 챗봇 사이의 대화 세션을 형성할 수 있다. 다양한 실시 예들에 따르면, 서버(108)는 전자 장치(101)로부터, 챗봇 서버(201)가 지원하는 챗봇과 대화(chat)를 시작하기 위한 제어 신호를 수신할 수 있다. 예를 들면, 전자 장치(101)는, 사용자 입력에 기반하여 대화 어플리케이션(330)(또는 인공 지능 어플리케이션)을 실행할 수 있다. 전자 장치(101)는, 대화 어플리케이션(330)(또는 인공 지능 어플리케이션)의 GUI에 대한 입력을 수신하는 것 또는 마이크를 통해 챗봇과의 대화를 요청하는 사용자 발화를 수신하는 것에 기반하여, 서버(108)(예: 대화 모듈(230))에게, 챗봇 서버(201)에 포함된 챗봇과 대화를 시작하기 위한 제어 신호를 송신할 수 있다. 서버(108)는, 전자 장치(101)로부터 챗봇과 대화를 시작하기 위한 제어 신호를 수신하는 것에 기반하여, 전자 장치(101)와 챗봇을 포함하는 대화 세션을 형성할 수 있다.
동작 402에서, 전자 장치(101)는, 대화 어플리케이션(330)(또는 인공 지능 어플리케이션)이 실행되는 동안, 사용자 입력을 수신할 수 있다. 상기 사용자 입력은, 챗봇과 대화(chat)하기 위한 사용자의 텍스트 입력 또는 사용자 발화를 포함할 수 있다. 예를 들면, 전자 장치(101)는, 음식 또는 배달과 관련된 챗봇과의 대화에서, 챗봇에게 주문하기 위한 사용자 입력 또는 메뉴의 선택에 관한 사용자 입력을 수신할 수 있다.
동작 403에서, 전자 장치(101)는 대화 어플리케이션(330)을 통해, 수신된 사용자 입력에 관한 데이터를 서버(108)(또는 대화 모듈(230))에게 송신할 수 있다. 사용자 입력에 관한 데이터는, 텍스트 데이터 또는 사용자 발화에 관한 데이터를 포함할 수 있다. 서버(108)(또는 대화 모듈(230))는 전자 장치(101)(또는 대화 어플리케이션(330))로부터, 사용자 입력에 관한 데이터를 수신할 수 있다.
동작 404에서, 서버(108)는 챗봇 서버(201)에게, 사용자 입력에 관한 데이터를 송신할 수 있다. 챗봇 서버(201)에게 송신되는 사용자 입력에 관한 데이터는, 전자 장치(101)로부터 수신된 사용자 입력에 관한 데이터와 다른 형태일 수 있다.
서버(108)는, 전자 장치(101)로부터 수신된 사용자 입력에 관한 데이터가 사용자 발화에 관한 데이터인 경우, 자동 음성 인식(ASR) 모듈(210)을 이용하여 사용자 발화에 관한 데이터를 텍스트 데이터로 변환할 수 있다. 서버(108)는, 자동 음성 인식(ASR) 모듈(210)을 통해 변환된 텍스트 데이터 또는 전자 장치(101)로부터 수신된 텍스트 데이터를 챗봇을 위한 NLU 모듈(NLU for chatbot)에게 전송할 수 있다.
일부 실시 예들에서, 챗봇을 위한 NLU 모듈이 서버(108)에 포함되는 경우, 서버(108)는, 챗봇을 위한 NLU 모듈을 이용하여, 사용자 입력의 의도(intent) 및 파라미터(또는 슬롯(slot))을 식별할 수 있다. 서버(108)는, 챗봇을 위한 NLU 모듈을 이용하여 식별된, 사용자 입력의 의도(intent)에 관한 데이터 및 사용자 입력의 파라미터에 관한 데이터를 챗봇 서버(201)에게 송신할 수 있다. 챗봇 서버(201)는, 사용자 입력의 의도(intent)에 관한 데이터 및 사용자 입력의 파라미터에 관한 데이터를 수신할 수 있다.
다른 일부 실시 예들에서, 챗봇을 위한 NLU 모듈이 챗봇 서버(201)에 포함되는 경우, 서버(108)는, 사용자 입력에 관한 데이터(예: 자동 음성 인식(ASR) 모듈(210)을 통해 변환된 텍스트 데이터 또는 전자 장치(101)로부터 수신된 텍스트 데이터)를 챗봇 서버(201)에게 송신할 수 있다. 챗봇 서버(201)는, 상기 사용자 입력에 관한 데이터를 수신할 수 있다. 챗봇 서버(201)는, 챗봇을 위한 NLU 모듈을 이용하여, 수신된 사용자 입력에 관한 데이터(예: 텍스트 데이터)로부터, 사용자 입력의 의도(intent) 및 파라미터(또는 슬롯(slot))을 식별할 수 있다.
동작 405에서, 챗봇 서버(201)는, 사용자 입력에 대한 챗봇의 응답 메시지를 생성할 수 있다. 챗봇 서버(201)는, 사용자 입력의 의도(intent) 또는 파라미터(parameter)에 기반하여, 사용자에게 제공할 챗봇의 서비스(또는 액션, 태스크)를 결정할 수 있다. 챗봇 서버(201)는, 상기 결정에 기반하여, 전자 장치(101)에서 출력하기 위한, 챗봇의 응답 메시지를 결정 또는 획득할 수 있다.
동작 406에서, 챗봇 서버(201)는, 획득된 챗봇의 응답 메시지에 관한 데이터를 서버(108)(또는 대화 모듈(230))에게 송신할 수 있다. 서버(108)(또는 대화 모듈(230))는 챗봇 서버(201)로부터, 챗봇의 응답 메시지에 관한 데이터를 수신할 수 있다.
동작 407에서, 서버(108)(또는 대화 모듈(230))는 챗봇의 응답 메시지에 관한 데이터를 전자 장치(101)에게 송신할 수 있다. 서버(108)(또는 대화 모듈(230))는, 전자 장치(101)와 챗봇 사이의 대화 세션을 통해, 챗봇의 응답 메시지에 관한 데이터를, 전자 장치(101)에게 송신할 수 있다. 전자 장치(101)는 대화 어플리케이션(330)(또는 인공 지능 어플리케이션)을 통해, 서버(108)(또는 대화 모듈(230))로부터, 챗봇의 응답 메시지에 관한 데이터를 수신할 수 있다.
동작 408에서, 전자 장치(101)는, 챗봇의 응답 메시지를 출력할 수 있다. 전자 장치(101)는, 대화 어플리케이션(330)의 GUI 내에서, 챗봇의 응답 메시지를 화면에 출력할 수 있다. 전자 장치(101)는 대화 어플리케이션(330)(또는 인공 지능 어플리케이션) 상에서, 마이크를 통해, 챗봇의 응답 메시지를 챗봇이 말하는 것처럼 출력할 수 있다.
동작 409에서, 서버(108)는, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다. 동작 409는, 동작 402 내지 동작 408이 수행되는 동안, 병렬적으로(또는 계속적으로) 수행될 수 있다. 서버(108)는, 개인 정보 봇을 참여시키기 위한 이벤트를 검출하지 않는 것에 기반하여, 동작 402 내지 동작 408을 반복적으로 수행함으로써, 전자 장치(101)의 사용자와 챗봇 서버(201)의 챗봇과의 대화를 지원할 수 있다. 동작 409의 적어도 일부는, 전자 장치(101)에 의해 수행될 수 있다.
예를 들면, 서버(108)는 개인 정보를 위한 NLU 모듈(NLU for PI)를 이용하여, 동작 403에서 전자 장치(101)로부터 수신된 사용자 입력(예: "주소 정보 알려줘")에 관한 데이터로부터, 사용자 입력의 의도(intent)를 식별할 수 있다. 서버(108)는 개인 정보를 위한 NLU 모듈(NLU for PI)를 이용하여, 동작 406에서 챗봇 서버(201)로부터 수신된 응답 메시지(예: "주소지를 입력해주세요")에 관한 데이터로부터, 챗봇의 응답 메시지의 의도(intent)를 식별할 수 있다. 서버(108)는, 사용자 입력의 의도(intent) 또는 챗봇의 응답 메시지의 의도(intent)가 개인 정보와 관련된 것을 식별하는 것에 기반하여, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다.
다른 예를 들면, 서버(108)는, 동작 403에서 전자 장치(101)로부터 수신된 사용자 입력(예: "주소 정보 알려줘")에 관한 데이터 또는 동작 406에서 챗봇 서버(201)로부터 수신된 응답 메시지(예: "주소지를 입력해주세요")에 관한 데이터로부터, 개인 정보와 관련된 키워드(예: "주소")를 식별할 수 있다. 서버(108)는, 상기 식별에 기반하여, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다. 또는, 전자 장치(101)가 상기 키워드를 식별할 수 있고, 서버(108)는, 상기 키워드를 식별한 전자 장치(101)로부터 개인 정보 봇을 참여시키기 위한 제어 신호를 수신할 수 있다.
또 다른 예를 들면, 동작 409의 적어도 일부는, 전자 장치(101)에 의해 수행될 수 있다. 예를 들면, 서버(108)의 대화 모듈(230)과 연결되고 전자 장치(101)에 포함된 대화 클라이언트는, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다. 예를 들어, 전자 장치(101)(예: 대화 클라이언트)는, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 사용자 입력(예: 물리적 버튼에 대한 입력, 아이콘에 대한 입력, 지정된 단어(예: 빅스비)가 포함된 발화 등)을 수신할 수 있다. 전자 장치(101)는 상기 수신에 기반하여 서버(108)에게, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 제어 신호를 송신할 수 있다. 서버(108)는, 전자 장치(101)로부터 상기 제어 신호를 수신하는 것에 기반하여, 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다.
동작 410에서, 서버(108)는, 챗봇과의 대화에 개인 정보 봇을 참여시키기 위한 이벤트를 검출하는 것에 기반하여, 개인 정보 봇을 호출 또는 구동할 수 있다. 예를 들면, 개인 정보 봇은, 서버(108)에 포함될 수 있다. 개인 정보 봇은, 서버(108)에 포함된 개인 정보를 위한 NLU 모듈, 서버(108)에 포함된 대화 모듈(230), 서버(108)에 포함된 개인 정보 관리 모듈(250), 또는 전자 장치(101)에 포함된 대화 클라이언트(또는 대화 어플리케이션, 인공 지능 어플리케이션) 중 적어도 하나를 통해 기능(즉, 개인 정보에 관한 대화)을 수행할 수 있다.
동작 411에서, 개인 정보 봇은, 개인 정보와 관련된 개인 정보 봇의 응답 메시지(예: "저장된 주소가 있습니다", "경기도 수원시 영통")를 생성할 수 있다.
예를 들면, 개인 정보 봇은, 상기 이벤트의 검출과 관련된 사용자 입력(예: "주소 정보 알려줘") 또는 챗봇의 응답 메시지(예: "주소지를 입력해주세요")로부터, 개인 정보를 위한 NLU 모듈(NLU for PI)을 이용하여, 사용자 입력의 의도(intent) 또는 챗봇의 응답 메시지의 의도(intent)를 식별할 수 있다. 개인 정보 봇은, 식별된 의도에 기반하여 개인 정보 관리 모듈(250)을 제어할 수 있다. 개인 정보 봇은, 개인 정보 관리 모듈(250)을 이용하여, 개인 정보 DB(240)로부터, 식별된 의도(예: 주소 입력에 관한 의도)와 관련된 정보(예: 주소)를 추출(또는 검색)할 수 있다. 개인 정보 봇은, 추출된 정보를 이용하여, 개인 정보 봇의 응답 메시지(예: 예: "저장된 주소가 있습니다", "경기도 수원시 영통")를 생성할 수 있다. 상기 개인 정보 봇의 기능은, 서버(108)의 프로세서에 의해 수행될 수 있다.
동작 411의 적어도 일부는 전자 장치(101)에서 수행될 수도 있다. 예를 들면, 전자 장치(101)는, 전자 장치(101)에 저장된 개인 정보 DB(340)로부터, 식별된 의도(예: 주소 입력에 관한 의도)와 관련된 정보(예: 주소)를 추출(또는 검색)할 수 있다. 전자 장치(101)는 서버(108)에게, 추출된 정보(예: 주소)를 송신할 수 있다. 개인 정보 봇은, 전자 장치(101)로부터 수신된 정보(예: 주소)에 기반하여, 개인 정보 봇의 응답 메시지를 생성할 수 있다.
동작 412에서, 개인 정보 봇은, 서버(108)(또는 대화 모듈(230))를 통해, 개인 정보 봇의 응답 메시지에 관한 데이터를 전자 장치(101)에게 송신할 수 있다. 개인 정보 봇은, 서버(108)의 대화 모듈(230))에 기반하여 전자 장치(101)와 챗봇 사이의 대화 세션을 통해, 개인 정보 봇의 응답 메시지에 관한 데이터를 전자 장치(101)에게 송신할 수 있다.
예를 들면, 서버(108)(또는 대화 모듈(230))는, 전자 장치(101)와 챗봇 사이의 대화 세션과 관련된 전자 장치(101)와 개인 정보 봇 사이의 대화 세션을 생성할 수 있다. 전자 장치(101)와 개인 정보 봇 사이의 대화 세션은, 전자 장치(101)와 챗봇 사이의 대화 세션과 연계될 수 있다. 전자 장치(101)와 개인 정보 봇 사이의 대화 세션은, 전자 장치(101)와 챗봇 사이의 대화 세션에 대한 하위 세션일 수 있다. 전자 장치(101)와 개인 정보 봇 사이의 대화 세션은, 전자 장치(101)와 챗봇 사이의 대화 세션 내부의 임시적이고 독립적인 세션일 수 있다. 서버(108)(또는 대화 모듈(230))는, 예를 들면, 상기 생성된 전자 장치(101)와 개인 정보 봇 사이의 대화 세션을 이용하여, 개인 정보 봇의 응답 메시지에 관한 데이터를 전자 장치(101)에게 송신할 수 있다.
서버(108)(또는 대화 모듈(230))는, 개인 정보 봇과의 대화(예: 동작 410 내지 동작 414) 동안, 개인 정보 봇의 응답 메시지(또는 사용자 입력)에 관한 데이터를 챗봇 서버(201)(또는 챗봇)에게 송신하는 것을 제한할 수 있다. 예를 들면, 서버(108)(또는 대화 모듈(230))는, 전자 장치(101)와 개인 정보 봇 사이의 대화 세션을 이용함으로써, 개인 정보 봇의 응답 메시지를 챗봇 서버(201)(또는 챗봇)에게 송신하는 것을 제한할 수 있다. 개인 정보 봇의 응답 메시지에 관한 데이터를 챗봇 서버(201)(또는 챗봇을 위한 NLU 모듈)에게 송신하는 것을 제한함으로써, 사용자의 개인 정보를 보호하고, 챗봇의 오동작을 방지할 수 있다. 상술한 바와 같은 동작은, 전자 장치(101)에 의해 수행될 수도 있다. 예를 들면, 전자 장치(101)는, 개인 정보 봇의 응답 메시지를 챗봇 서버(201)(또는 챗봇)에게 송신하는 것을 제한할 수 있다. 전자 장치(101)(예: 대화 클라이언트)는, 개인 정보 봇의 응답 메시지를, 전자 장치(101)를 통해 출력할 뿐, 개인 정보 봇의 응답 메시지에 관한 데이터를 서버(108)에게 송신하는 것을 제한할 수 있다. 전자 장치(101)(예: 대화 클라이언트)는, 대화 어플리케이션(330)에 관한 GUI(예: 챗봇과의 대화방)를 통해 개인 정보 봇의 응답 메시지를 표시할 뿐, 개인 정보 봇의 응답 메시지에 관한 데이터를 서버(108)의 대화 모듈(230)에게 송신하는 것을 제한할 수 있다. 개인 정보 봇의 응답 메시지에 관한 데이터를 서버(108)에게 송신하는 것을 제한함으로써, 전자 장치(101)는, 개인 정보 봇의 응답 메시지를 챗봇 서버(201)(또는 챗봇)에게 송신하는 것을 제한할 수 있다.
전자 장치(101)는 대화 어플리케이션(330)(또는 인공 지능 어플리케이션)을 통해, 서버(108)(또는 대화 모듈(230))로부터, 개인 정보 봇의 응답 메시지에 관한 데이터를 수신할 수 있다.
동작 413에서, 전자 장치(101)는, 개인 정보 봇의 응답 메시지를 출력할 수 있다. 전자 장치(101)는, 대화 어플리케이션(330)의 GUI 내에서, 개인 정보 봇의 응답 메시지를 출력할 수 있다. 예를 들면, 전자 장치(101)는, 챗봇과의 대화방을 이용하여 개인 정보 봇의 응답 메시지를 출력할 수 있다. 전자 장치(101)는, 챗봇과의 대화방에 개인 정보 봇이 참여한 것처럼 개인 정보 봇의 응답 메시지를 출력할 수 있다.
전자 장치(101)는 대화 어플리케이션(330)(또는 인공 지능 어플리케이션) 상에서, 마이크를 통해, 개인 정보 봇의 응답 메시지를 개인 정보 봇이 말하는 것처럼 출력할 수 있다. 전자 장치(101)는, 챗봇 과의 대화에 개인 정보 봇이 참여한 것처럼 개인 정보 봇의 응답 메시지를 출력할 수 있다.
동작 414에서, 전자 장치(101)는, 대화 어플리케이션(330)(또는 인공 지능 어플리케이션)을 통해 사용자 입력을 수신할 수 있다. 상기 사용자 입력은, 개인 정보 봇과의 대화(chat)(즉, 개인 정보와 관련된 대화)를 위한 사용자의 텍스트 입력 또는 사용자 발화를 포함할 수 있다.
동작 415에서, 전자 장치(101)는, 대화 어플리케이션(330)(또는 인공 지능 어플리케이션)을 통해 사용자 입력에 관한 데이터를, 서버(108)(또는 대화 모듈(230))을 통해 개인 정보 봇에게 송신할 수 있다. 예를 들면, 전자 장치(101)는, 생성된 전자 장치(101)와 개인 정보 봇 사이의 대화 세션을 이용하여, 사용자 입력에 관한 데이터를 서버(108)(또는 대화 모듈(230))에게 송신할 수 있다. 개인 정보 봇은, 서버(108)의 대화 모듈(230)을 통해, 전자 장치(101)로부터 사용자 입력에 관한 데이터를 수신할 수 있다.
서버(108)는, 개인 정보 봇과의 대화(예: 동작 410 내지 동작 414) 동안, 사용자 입력에 관한 데이터를 챗봇 서버(201)에게 송신하는 것을 제한할 수 있다. 예를 들면, 서버(108)(또는 대화 모듈(230))는, 전자 장치(101)와 개인 정보 봇 사이의 대화 세션을 이용함으로써, 개인 정보 봇의 응답 메시지를 챗봇 서버(201)(또는 챗봇을 위한 NLU 모듈)에게 송신하는 것을 제한할 수 있다.
동작 416에서, 전자 장치(101)는, 개인 정보를 챗봇 서버(201)에게 제공하기 위한 사용자 입력(예: "공유해줘", "전달")을 수신할 수 있다. 동작 416은, 동작 411 내지 동작 415가 수행되는 동안, 병렬적으로(또는 계속적으로) 수행될 수 있다. 서버(108)는, 개인 정보를 챗봇 서버(201)에게 제공하기 위한 사용자 입력을 수신하지 않는 것에 기반하여, 동작 411 내지 동작 415를 반복적으로 수행함으로써, 전자 장치(101)의 사용자와 개인 정보 봇과의 대화를 지원할 수 있다.
동작 417에서, 전자 장치(101)는, 개인 정보를 챗봇 서버(201)에게 제공하기 위한 사용자 입력을 수신하는 것에 기반하여, 개인 정보(예: 주소)에 관한 데이터를 서버(108)에게 송신할 수 있다. 상기 개인 정보에 관한 데이터는, 개인 정보를 챗봇 서버(201)에게 제공하기 위한 제어 신호를 포함할 수 있다. 상기 개인 정보에 관한 데이터는, 사용자 입력에 기반하여 선택된 개인 정보(예: "경기도 수원시 영통")를 포함할 수 있다. 예를 들면, 상기 개인 정보에 관한 데이터는, 개인 정보 봇과의 대화(chat)로부터 필요한 파라미터(예: "경기도 수원시 영통")가 추출된 형태일 수 있다. 다른 예를 들면, 상기 개인 정보에 관한 데이터는, 개인 정보 봇의 응답 메시지의 형태일 수 있다.
서버(108)는 전자 장치(101)로부터, 개인 정보(예: 주소)에 관한 데이터를, 개인 정보를 챗봇 서버(201)에게 제공하기 위한 제어 신호와 함께 수신할 수 있다.
동작 418에서, 서버(108)(또는 대화 모듈(230))는, 챗봇 서버(201)에게, 개인 정보(예: 주소)에 관한 데이터를 송신할 수 있다. 서버(108)(또는 대화 모듈(230))는, 전자 장치(101)로부터 개인 정보를 챗봇 서버(201)에게 제공하기 위한 제어 신호를 수신하는 경우에만, 개인 정보에 관한 데이터를 챗봇 서버(201)에게 송신할 수 있다. 따라서, 사용자의 개인 정보가 보호되고, 챗봇의 오동작이 방지될 수 있다.
도 5는 다양한 실시 예들에 따른 전자 장치의 동작의 예를 도시한다. 도 5의 동작들은, 전자 장치(101) 또는 서버(108) 중 적어도 하나에 의해 수행될 수 있다.
도 5를 참조하면, 동작 501에서, 프로세서(120) 또는 서버(108)의 프로세서(예: 대화 모듈(230))는, 챗봇의 호출과 관련된 제1 사용자 요청을 수신할 수 있다. 예를 들면, 프로세서(120)는, 챗봇 서버(201)에 의해 구동되는 챗봇과 대화하기 위해 대화 어플리케이션(330)(예: 챗봇과의 대화방)에 진입하는 제1 사용자 요청을 수신하고, 제1 사용자 요청에 관한 신호를 서버(108)에게 송신할 수 있다. 서버(108)의 프로세서(예: 대화 모듈(230))는, 전자 장치(101)로부터 제1 사용자 요청에 관한 신호를 수신할 수 있다. 예를 들면, 제1 사용자 요청은 대화 어플리케이션의 GUI에 대한 입력일 수 있다. 다른 예를 들면, 제1 사용자 요청은, 마이크를 통해 입력되는, 지정된 단어를 포함하는 발화일 수 있다. 다만 이에 한정되지 않는다. 서버(108)의 프로세서(예: 대화 모듈(230))는, 챗봇 서버(201)의 챗봇을 대화에 참여하도록 야기(cause)할 수 있다. 예를 들면, 대화 모듈(230)은, 전자 장치(101)과 챗봇을 포함하는 대화 세션을 형성할 수 있다.
동작 503에서, 프로세서(120) 또는 서버(108)의 프로세서(예: 대화 모듈(230))는, 챗봇의 태스크에 관한 제2 사용자 요청을 수신할 수 있다. 챗봇의 태스크는, 예를 들면, 전자 장치(101)의 사용자에게 제공될 서비스(또는 챗봇의 기능)(예: 주문 등)을 나타낼 수 있다. 예를 들면, 챗봇의 태스크는, 제2 사용자 요청에 기반하여, 챗봇을 위한 NLU 모듈(NLU for chatbot)을 통해 결정될 수 있다.
예를 들면, 프로세서(120)는, 대화 어플리케이션(330)(예: 챗봇과의 대화방)을 통해 제2 사용자 요청(예: "주문할래"라는 발화 또는 텍스트)을 수신하고, 제2 사용자 요청에 관한 신호를 서버(108)에게 송신할 수 있다. 서버(108)의 프로세서(예: 대화 모듈(230))는, 전자 장치(101)로부터 제2 사용자 요청에 관한 신호를 수신할 수 있다.
일 실시 예에 따르면, 제2 사용자 요청(예: "주문할래")은, 상기 태스크(예: 주문)를 수행하기 위해 요구되는 정보의 적어도 일부(예: 개인 정보 또는 주문 정보)를 포함하지 않을 수 있다. 제2 사용자 요청(예: "주문할래")은, 상기 태스크를 수행하기 위한 완전한 정보를 포함하지 않을 수 있다. 예를 들어, 상기 태스크를 수행하기 위해 요구되는 정보의 적어도 일부로써, 개인 정보는, 주소지, 카드 정보 등을 포함할 수 있고, 주문 정보는, 상품명, 사이즈, 수량, 날짜 등을 포함할 수 있다. 상기 태스크를 수행하기 위해 요구되는 정보의 적어도 일부(예: 개인 정보 또는 주문 정보)는, 전자 장치(101)의 메모리(130)(예: 개인 정보 DB(340)) 또는 서버(108)의 메모리(예: 개인 정보 DB(240)) 중 적어도 하나에 저장될 수 있다.
동작 505에서, 프로세서(120) 또는 서버(108)의 프로세서(예: 대화 모듈(230))는, 상기 태스크를 수행하기 위해 요구되는 정보의 적어도 일부를 공유하기 위한 사용자 승인(user authorization)을 수신할 수 있다.
예를 들면, 다양한 실시 예들에서, 프로세서(120)는, 메모리(130)에 저장되거나 서버(108)로부터 수신된, 태스크를 수행하기 위해 요구되는 정보의 적어도 일부를 식별할 수 있다. 프로세서(120)는, 식별된 정보에 관한 내용을, 대화 어플리케이션(330)(예: 챗봇과의 대화방) 상에서 출력할 수 있다. 예를 들면, 프로세서(120)는, 식별된 정보에 관한 내용을, 대화 어플리케이션(330)의 GUI 내에서 표시하거나, 음향 출력 장치(155)(예: 스피커)를 통해 출력할 수 있다. 프로세서(120)는, 상기 출력된 정보를 챗봇(또는 챗봇 서버(201))에게 공유하기 위한 사용자 승인(user authorization)을 수신할 수 있다.
예를 들면, 프로세서(120)는, 대화 어플리케이션(330)(예: 챗봇과의 대화방)을 통해, 사용자 승인으로써 "공유해줘"라는 발화 또는 텍스트를 수신하고, 상기 사용자 승인에 관한 신호를 서버(108)에게 송신할 수 있다. 서버(108)의 프로세서(예: 대화 모듈(230))는, 전자 장치(101)로부터 사용자 승인에 관한 신호를 수신할 수 있다.
동작 507에서, 프로세서(120) 또는 서버(108)의 프로세서(예: 대화 모듈(230))는, 상기 태스크를 수행하기 위해 요구되는 정보의 적어도 일부를 챗봇(또는 챗봇 서버(201))에게 제공할 수 있다. 예를 들면, 서버(108)의 프로세서(예: 대화 모듈(230))는, 전자 장치(101)로부터 사용자 승인에 관한 신호를 수신하는 경우에만, 승인된 정보(예: 주소 등의 개인 정보)를 챗봇(또는 챗봇 서버(201))에게 송신할 수 있다.
도 6은 다양한 실시 예들에 따른 전자 장치의 동작의 다른 예를 도시한다. 도 6의 동작들은, 전자 장치(101) 또는 서버(108) 중 적어도 하나에 의해 수행될 수 있다. 도 7은 다양한 실시 예들에 따른 대화(chat) 어플리케이션(예: 대화 어플리케이션(330))에 관한 그래픽 사용자 인터페이스(graphical user interface, GUI)의 예를 도시한다. 도 8은 다양한 실시 예들에 따른 대화(chat) 어플리케이션(예: 대화 어플리케이션(330))(또는 인공 지능 어플리케이션)에 관한 인공 지능(artificial intelligence, AI) 스피커의 예를 도시한다.
도 6을 참조하면, 동작 601에서, 프로세서(120)는, 챗봇 서버(201)에 의해 구동되는 챗봇과 대화하고, 챗봇과의 대화를 출력할 수 있다. 챗봇과의 대화(chat)는, 입력 장치(150)을 통해 수신된 메시지(즉, 사용자 입력)를 서버(108)를 통해 챗봇 서버(201)에게 송신하는 동작 또는 챗봇 서버(201)로부터 서버(108)를 통해 수신된 메시지를 출력 장치(350)를 통해 출력하는 동작을 포함할 수 있다. 동작 601은, 도 5의 동작 503 및 동작 503의 다음에 수행되는 동작에 상응할 수 있다.
일부 실시 예들에서, 도 7을 참조하면, 프로세서(120)는, 대화 어플리케이션(330)에 관한 GUI(예: 챗봇과의 대화방)(700, 750)을 통해, 챗봇(701)과의 대화(710, 760)를 표시할 수 있다. 챗봇(701)과의 대화(710, 760)는, 문자 또는 음성 중 적어도 하나에 기반할 수 있다.
다른 일부 실시 예들에서, 도 8을 참조하면, 전자 장치(101)는 대화 어플리케이션에 관한 AI 스피커(801)를 포함할 수 있다. 프로세서(120)는, AI 스피커(801)를 통해, 사용자(802)와 챗봇과의 대화(810)를 수행할 수 있다. 사용자(802)와 챗봇과의 대화(810)는, 음성에 기반할 수 있다. 프로세서(120)는, 마이크를 통해 수신된 사용자(802)의 음성을 서버(108)를 통해 챗봇 서버(201)(또는 챗봇)에게 송신하고, 챗봇 서버(201)(또는 챗봇)으로부터 서버(108)를 통해 수신된 메시지를 AI 스피커(801)를 통해 출력할 수 있다.
동작 603에서, 프로세서(120)는, 챗봇(701)과의 대화에 개인 정보 봇(PI bot)(예: 도 7의 개인 정보 봇(702))을 참여시키기 위한 이벤트를 검출할 수 있다. 개인 정보 봇은, 대화 어플리케이션(330)에 관한 사용자 인터페이스 상에서, 챗봇(701)에게 제공하기 위한 컨텐트(예: 개인 정보, 주문 정보)에 관한 대화(chat)를 위해 이용될 수 있다.
일부 실시 예들에서, 도 7의 GUI(예: 챗봇과의 대화방)(700)을 참조하면, 프로세서(120)는, 챗봇(701)과의 대화(710)에 기반하여, 개인 정보 봇(702)을 대화에 참여시키기 위한 이벤트를 검출할 수 있다. 예를 들면, 프로세서(120) 또는 서버(108)의 프로세서는, 챗봇(701)과의 대화(710)로부터, 지정된 단어나 어구(예: 메시지(711)에 포함된 "주소")를 식별함으로써, 개인 정보 봇(702)을 대화에 참여시키기 위한 이벤트를 검출할 수 있다. 다른 예를 들면, 서버(108)의 프로세서는, 챗봇(701)을 위한 NLU 모듈을 이용하여, 대화(710)의 의도(intent)를 모니터할 수 있다. 서버(108)의 프로세서는, 챗봇(701)을 위한 NLU 모듈을 이용하여, 대화(710)에 포함된 메시지(711)의 의도가 주소 입력의 의도임을 식별하고, 상기 주소 입력의 의도에 관한 신호를 전자 장치(101)에게 송신할 수 있다. 프로세서(120)는, 서버(108)로부터 상기 주소 입력의 의도에 관한 신호를 수신함으로써, 개인 정보 봇(702)을 대화에 참여시키기 위한 이벤트를 검출할 수 있다.
다른 일부 실시 예들에서, 도 7의 GUI(예: 챗봇과의 대화방)(750)을 참조하면, 프로세서(120) 또는 서버(108)의 프로세서 중 적어도 하나는, 지정된 단어(예: "빅스비")를 수신하는 것에 기반하여, 개인 정보 봇(702)을 대화에 참여시키기 위한 이벤트를 검출할 수 있다. 예를 들면, 서버(108)는, 사용자로부터 수신된 메시지(771)에 포함된 단어 "빅스비"를 식별하는 것에 기반하여, 메시지(771)에 관한 정보를 챗봇 서버(201)(또는 챗봇(701))에게 송신하지 않을 수 있다.
또 다른 일부 실시 예들에서, 프로세서(120)는, 개인 정보 봇(702)을 호출하기 위한 사용자 입력(예: 물리적 버튼에 대한 입력, 아이콘에 대한 입력 등)을 수신함으로써, 개인 정보 봇(702)을 대화에 참여시키기 위한 이벤트를 검출할 수 있다.
도시되지는 않았지만, 도 8의 대화 어플리케이션에 관한 AI 스피커(801)도, 상술한 바와 같은 다양한 방법으로, 개인 정보 봇(예: 702)을 대화에 참여시키기 위한 이벤트를 검출할 수 있다. 예를 들면, 서버(108)는, 전자 장치(101)로부터, 개인 정보 봇(예: 702)을 대화에 참여시키기 위한 신호를 수신할 수 있다.
동작 605에서, 프로세서(120)는, 대화에 개인 정보 봇(PI bot)(예: 702)을 참여시키기 위한 이벤트를 검출하는 것에 기반하여, 개인 정보 봇(예: 702)과의 대화를 출력할 수 있다. 개인 정보 봇(예: 702)과의 대화는, 챗봇(예: 701)에게 제공하기 위한 컨텐트(예: 개인 정보 또는 주문 정보 등)에 관한 대화일 수 있다. 개인 정보 봇과의 대화는, 서버(108)의 개인 정보를 위한 NLU 모듈(NLU for PI)에 기반할 수 있다. 개인 정보 봇과의 대화는, 서버(108)의 개인 정보 DB(240) 또는 전자 장치(101)의 개인 정보 DB(340) 중 적어도 하나에 기반할 수 있다.
예를 들어, 도 7을 참조하면, 프로세서(120)는, 대화 어플리케이션에 관한 GUI(예: 챗봇과의 대화방) (700, 750) 내에서, 개인 정보 봇(702)과의 대화(720, 770)를 표시할 수 있다. 개인 정보 봇(702)과의 대화(720, 770)는, 문자 또는 음성 중 적어도 하나에 기반할 수 있다. 도시되지는 않았지만, 도 8의 대화 어플리케이션에 관한 AI 스피커(801)도, 음성에 기반하여 개인 정보 봇(예: 702)과의 대화를 출력할 수 있다.
예를 들면, 프로세서(120) 또는 서버(108)의 프로세서는, 대화 어플리케이션(330)을 통한 대화(chat)(예: 메시지(711 또는 771))로부터, 챗봇(701)에게 제공하기 위한 정보(예: 주소)를 식별할 수 있다. 프로세서(120) 또는 서버(108)의 프로세서는, 개인 정보 DB(240) 또는 개인 정보 DB(340)로부터(from among), 상기 식별된 정보에 대응하는 컨텐트(예: 주소)를 식별(또는 검색(retrieve))할 수 있다. 프로세서(120)는, 챗봇(701)에게 제공하기 위한 상기 컨텐트에 관한 개인 정보 봇(702)과의 대화(720, 770)를 출력할 수 있다.
프로세서(120) 또는 서버(108)의 프로세서는, 개인 정보 봇(702)과 대화(720, 770)하는 동안, 개인 정보 봇(702)과의 대화(720, 770)에 관한 정보를 챗봇(701)(또는 챗봇 서버(201))에게 송신하지 않을 수 있다. 따라서, 개인 정보 봇(702)과 대화하는 동안, 챗봇(701)에게 제공하기 위한 컨텐트에 관한 정보(예: 721, 722, 772)는, 챗봇(701)(또는 챗봇 서버(201))에게 송신되지 않을 수 있다. 개인 정보 봇과의 대화에 관한 정보를 챗봇 서버에게 송신하는 것을 제한함으로써, 개인 정보에 대한 보안을 유지할 수 있으며, 챗봇의 오동작을 방지할 수 있다.
일 실시 예에 따르면, 프로세서(120) 또는 서버(108)의 프로세서는, 챗봇과의 대화뿐만 아니라, 대화 어플리케이션(330)을 이용한 다른 전자 장치의 사용자들과의 대화(chat)에서도, 개인 정보 봇을 호출할 수 있다. 프로세서(120) 또는 서버(108)의 프로세서는, 다른 전자 장치의 사용자들과의 대화(chat) 동안, 개인 정보 봇을 참여시키기 위한 이벤트를 검출할 수 있다. 서버(108)의 프로세서는, 상기 이벤트를 검출하는 것에 기반하여, 개인 정보를 위한 NLU 모듈을 이용하여 전자 장치(101)의 사용자와 대화(chat)를 수행하도록, 개인 정보 봇을 구동할 수 있다. 서버(108)에 의해 구동되는 개인 정보 봇은, 전자 장치(101)의 사용자의 개인 정보에 관련된 대화(chat)를 수행할 수 있다. 전자 장치(101)의 사용자와 개인 정보 봇과의 대화는, 다른 전자 장치의 사용자들에게 송신되지 않을 수 있다. 프로세서(120) 또는 서버(108)의 프로세서는, 개인 정보를 다른 전자 장치에게 송신하기 위한 사용자 승인을 수신하는 것에 기반하여 개인 정보를 다른 전자 장치에게 송신할 수 있다.
도시되지는 않았지만, 도 8의 대화 어플리케이션에 관한 AI 스피커(801)도, 상술한 바에 상응하는 동작을 수행할 수 있다. 예를 들면, AI 스피커(801)의 프로세서(120)는, 음성에 기반한 챗봇(예: 701)과의 대화 중에, 개인 정보 봇(예: 702)을 참여시키기 위한 이벤트를 검출할 수 있다. 프로세서(120)는, 상기 이벤트를 검출하는 것에 기반하여, 챗봇(예: 701)과의 대화 에, 개인 정보 봇(예: 702)을 참여시킬 수 있다. AI 스피커(801)의 프로세서(120)는, 마이크를 통해 수신된 사용자 입력을 서버(108)에게 송신하고, 서버(108)로부터 송신된 개인 정보 봇의 응답 메시지를, AI 스피커(801)를 통해 음성으로 출력할 수 있다. AI 스피커(801)의 프로세서(120)는, 개인 정보 봇과의 개인 정보에 관한 대화에 관한 데이터를, 챗봇 서버(201)(또는 챗봇(예: 701))에게 송신하지 않을 수 있다. AI 스피커(801)의 프로세서(120)는, 개인 정보를 챗봇 서버(201)에게 송신하기 위한 사용자 승인을 수신하는 것에 기반하여 개인 정보를 챗봇 서버(201)에게 송신할 수 있다. AI 스피커(801)를 통한 개인 정보 봇과의 대화(chat)에 관한 상세한 설명은, 도 11 내지 도 12에서 후술된다.
동작 607에서, 프로세서(120)는, 챗봇(또는 챗봇 서버(201))에게 컨텐트를 제공하기 위한 사용자 입력을 수신하는지 여부를 확인할 수 있다. 예를 들어, 도 7을 참조하면, 챗봇(701)에게 컨텐트를 제공하기 위한 사용자 입력은, "공유해줘"라는 발화 또는 텍스트 입력일 수 있다. 다만 이에 한정되지 않는다. 프로세서(120)는, 챗봇(701)에게 컨텐트를 제공하기 위한 사용자 입력을 수신하기 전까지, 동작 605를 수행할 수 있다. 프로세서(120)는, 챗봇(701)에게 컨텐트를 제공하기 위한 사용자 입력을 수신하기 전까지, 개인 정보 봇(702)과의 대화(720, 770)를 출력할 수 있다.
프로세서(120)는, 챗봇에게 컨텐트를 제공하기 위한 사용자 입력을 수신하는 것에 기반하여, 동작 609에서, 컨텐트에 관한 정보를 챗봇에게 송신할 수 있다. 동작 607에서 사용자 입력을 수신하는 것은, 도 5의 동작 505에서 사용자 승인(user authentication)을 수신하는 것에 상응할 수 있다. 동작 609에서 컨텐트에 관한 정보를 송신하는 것은, 도 5의 동작 507에서, 정보를 챗봇에게 제공하는 것에 상응할 수 있다.
예를 들면, 프로세서(120)는, GUI(700)(예: 챗봇(701)과의 채팅방) 내에서, 개인 정보 봇(702)이 챗봇(701)에게 컨텐트(예: 주소)에 대한 정보를 제공하는 것(730)을 출력할 수 있다. 다른 예를 들면, 프로세서(120)는, GUI(750)(예: 챗봇(701)과의 채팅방) 내에서, 사용자가 챗봇(701)에게 컨텐트에 대한 정보를 제공하는 것(780)을 출력할 수도 있다. 메시지(780)은, 사용자 입력에 기반하지 않을 수 있다. 프로세서(120)는, 챗봇(701)에게 컨텐트를 제공하기 위한 사용자 입력(예: "공유해줘")을 수신하는 것에 기반하여, 메시지(730 또는 780)를 생성할 수 있다.
프로세서(120)는, 상기 컨텐트(예: 개인 정보 또는 주문 정보)를 챗봇 서버(201)에게 제공하기 위한 추가적인 인증을 수행할 수도 있다. 프로세서(120)는, 전자 장치(101)의 사용자의 목소리 정보, 홍채 정보, 얼굴 인식 정보, 지문 정보, 또는 비밀번호 중 적어도 하나에 기반하여 컨텐트를 챗봇 (701)에게 제공하기 위한 추가적인 인증을 수행할 수 있다. 예를 들면, 프로세서(120)는, 상기 컨텐트를 챗봇 서버(201)에게 제공하기 위한 사용자 입력(예: "공유해줘"라는 발화)으로부터, 심리스하게(seamlessly) 인증을 위한 목소리 정보를 획득할 수 있다. 프로세서(120)는, 상기 사용자 입력으로부터 획득된 목소리 정보가 전자 장치(101)의 사용자의 목소리에 상응함을 식별하는 것에 기반하여, 상기 사용자 입력을 인증할 수 있다. 프로세서(120)는, 컨텐트를 챗봇 서버(201)에게 제공하기 위한 사용자 입력을 수신하고, 및 상술한 바와 같은 인증을 수행하는 것에 기반하여, 상기 컨텐트를 챗봇(701)에게 제공(또는 송신)할 수 있다.
다양한 실시 예들에서, 챗봇(701)에게 제공하기 위한 컨텐트는, 주소 등의 개인 정보뿐만 아니라, 주문 정보를 포함할 수도 있다. 예를 들면, 개인 정보 DB(240), 개인 정보 DB(340) 또는 챗봇 서버(201)에 포함되거나 챗봇 서버(201)과 연결된 DB 중 적어도 하나는, 사용자마다(예: 사용자 ID마다) 주문 이력을 저장할 수 있다. 프로세서(120) 또는 서버(108)의 프로세서는, 저장된 주문 이력으로부터(from among), 주문 정보를 챗봇(701)에게 제공할 수 있다. 컨텐트로써 주문 정보를 챗봇(701)에게 제공하는 동작의 예에 관한 상세한 설명은, 도 16 내지 도 18에서 후술된다.
다양한 실시 예들에서, 프로세서(120) 또는 서버(108)의 프로세서는, 챗봇(예: 701) 또는 개인 정보 봇(예: 702)과의 대화(예: 710, 720, 760, 또는 770 등)를 통해, 챗봇에게 제공하기 위한 정보(예: 개인 정보, 주문 정보 등)를 확정(또는 결정)할 수 있다. 일 실시 예에 따르면, 프로세서(120) 또는 서버(108)의 프로세서는, 챗봇(예: 701)과의 대화 중 사용자 입력(예: 719, 729)에 기반하여 (예를 들면, 키워드 또는 챗봇을 위한 NLU 모듈을 이용하여) 챗봇에게 제공하기 위한 정보(예: 718, 722)를 결정할 수 있다. 예를 들어, GUI(예: 챗봇과의 대화방)(700)을 참조하면, 프로세서(120)는, 챗봇(701)과의 대화(710)에서, "주문 해줘"라는 사용자 입력(719)에 기반하여, 주문 정보(718)를 확정할 수 있다. 프로세서(120)는, 개인 정보 봇(702)과의 대화(720)에서 "공유해줘"라는 사용자 입력(729)에 기반하여, 주소 정보(722)를 확정할 수 있다.
프로세서(120)는, 확정된 정보를 서버(108)를 통해 챗봇 서버(201)에게 송신할 수 있다.
일부 실시 예들에서, 프로세서(120)는 확정된 정보를, 챗봇(예: 701)과의 대화방(즉, 서버(108)의 대화 모듈(230)에서 관리되는, 전자 장치(101)와 챗봇(예: 701) 사이의 대화 세션)을 이용하여, 챗봇(또는 챗봇 서버(201))에게 송신할 수 있다. 예를 들면, 프로세서(120)는, 확정된 정보에 대한 메시지(예: 718, 730 등)를, 챗봇(예: 701)과의 대화방을 통해, 서버(108)에게 송신할 수 있다. 서버(108)는, 챗봇(예: 701)과 전자 장치(101)의 대화 세션을 이용하여, 상기 정보에 대한 메시지(예: 718, 730 등)를, 챗봇(또는 챗봇 서버(201))에게 송신할 수 있다. 챗봇 서버(201)는, 예를 들면, 챗봇을 위한 NLU 모듈을 이용하여, 상기 대화 세션을 통해 수신된 메시지로부터 챗봇의 태스크(예: 주문에 관한 기능)를 수행하기 위해 필요한 파라미터를 추출할 수 있다. 예를 들면, 챗봇(701)(또는 챗봇 서버(201))은, 메시지(730)로부터 "경기도 수원시 영통"을 주소 파라미터로 추출할 수 있고, 메시지(718)로부터, 상품명, 사이즈, 수량 등의 파라미터를 추출할 수 있다.
다른 일부 실시 예들에서, 챗봇과 전자 장치(101)의 대화 어플리케이션(330)(또는 서버(108)의 대화 모듈(230)) 사이에, 지정된 파라미터를 공유할 수 있는 어플리케이션 프로그래밍 인터페이스(application programming interface, API)이 설정될 수 있다. 프로세서(120) 또는 서버(108)의 프로세서(예: 대화 모듈(230))는, 상기 API를 이용하여, 대화 세션을 통해 챗봇(701)(또는 챗봇 서버(201))에게 지정된 파라미터를 공유할 수 있다.
챗봇 서버(201)의 챗봇(701)은, 전자 장치(101)로부터 서버(108)을 통해 제공된 정보(또는 컨텐트)를 이용하여, 챗봇(701)의 태스크(예: 주문에 관한 기능)를 수행할 수 있다.
도 9는 다양한 실시 예들에 따라, 챗봇과의 대화와 다른 방식으로 개인 정보 봇과의 대화를 출력하기 위한 전자 장치의 동작의 예를 도시한다. 도 9의 동작은 전자 장치(101)에 의해 수행될 수 있다. 일 실시 예에 따라, 도 9의 동작(예: 동작 903)의 일부는 서버(108)에 의해 수행될 수도 있다. 도 10은 다양한 실시 예들에 따른 전자 장치에서, 챗봇과의 대화와 다른 방식으로 개인 정보 봇과의 대화를 출력하기 위한 GUI의 예를 도시한다. 도 11은, 다양한 실시 예들에 따라, 챗봇과의 대화와 다른 방식으로 개인 정보 봇과의 대화를 출력하기 위한 AI 스피커의 예를 도시한다. 도 12는, 다양한 실시 예들에 따라, 챗봇과의 대화와 다른 방식으로 개인 정보 봇과의 대화를 출력하기 위한 AI 스피커의 다른 예를 도시한다.
도 9의 동작 901, 동작 903, 및 동작 905는, 도 6의 동작 601, 동작 603, 및 동작 605에 포함될 수 있다. 도 9의 동작들은, 도 6의 동작 605에서 개인 정보 봇과의 대화를 출력하는 동작의 하위 실시 예를 나타낼 수 있다.
도 9를 참조하면, 동작 901에서, 프로세서(120)는, 챗봇과의 대화를 출력할 수 있다. 동작 901은, 도 6의 동작 601에 상응할 수 있다.
예를 들어, 도 7을 참조하면, 프로세서(120)는, 챗봇(701)과의 대화(710, 760)을 출력할 수 있다. 다른 예를 들어, 도 10을 참조하면, 프로세서(120)는, 챗봇(1001)과의 대화(1010)을 출력할 수 있다. 또 다른 예를 들어, 도 11 또는 도 12를 참조하면, 프로세서(120)는, 챗봇과의 대화(1110) 또는 챗봇과의 대화(1210)를 출력할 수 있다.
동작 903에서, 프로세서(120) 또는 서버(108)의 프로세서는, 대화(예: 710, 760, 1010, 1110, 1210 등)에 개인 정보 봇(예: 702)을 참여시키기 위한 이벤트를 검출할 수 있다. 동작 903은, 도 6의 동작 603에 상응할 수 있다.
동작 905에서, 프로세서(120)는, 챗봇(예: 701, 1001)과의 대화(예: 710, 760, 1010, 1110, 1210 등)에 관한 사용자 경험(user experience)과는 구별되는 개인 정보 봇(예: 702, 1002)과의 대화에 관한 사용자 경험을 제공할 수 있다. 동작 905는, 도 6의 동작 605에 상응할 수 있다.
예를 들어, 도 7을 참조하면, 프로세서(120)는, GUI(예: 챗봇과의 대화방)(700, 750) 내에서, 챗봇(701)과의 대화(710, 760)와 다른 색상으로 개인 정보 봇(702)과의 대화(720, 770)를 표시할 수 있다.
다른 예를 들어, 도 10을 참조하면, 프로세서(120)는, GUI(예: 챗봇과의 대화방)(1000)에 중첩된(superimposed on) 개인 정보 봇(1002)과의 대화(1020)를 표시할 수 있다. 프로세서(120)는, GUI(1000)(또는 챗봇(1001)과의 대화방)와 구별되는 레이어(예: 팝업 윈도우)를 이용하여, 개인 정보 봇(1002)과의 대화(1020)를 표시할 수 있다.
또 다른 예를 들어, 도 11을 참조하면, 프로세서(120)는, 챗봇의 음성과 다른 음성으로, 개인 정보 봇의 메시지(1120)를 출력할 수 있다. 예를 들면, 프로세서(120)는, 챗봇의 메시지(1110)는, 남성(1101)의 목소리로, 개인 정보 봇의 메시지(1120)는 여성(1102)의 목소리로 출력할 수 있다. 다만, 이에 한정되지 않는다. 예를 들면, 프로세서(120)는, 억양, 빠르기, 노인의 목소리, 어린이의 목소리, 남성의 목소리, 또는 여성의 목소리 중 적어도 하나에 기반하여, 개인 정보 봇의 메시지(1120)를 챗봇의 메시지(1110)와 다르게 출력할 수 있다.
또 다른 예를 들어, 도 12를 참조하면, 프로세서(120)는, 챗봇과 대화(1210)하는 동안, 표시부(예: 발광 다이오드(light emitting diode, LED))를 통해 색상(1201)을 출력할 수 있다. 프로세서(120)는, 개인 정보 봇과 대화(1220)하는 동안, 표시부(예: LED)를 통해, 색상(1201)과는 다른 색상(1202)을 출력할 수 있다. 다만, 이에 한정되지 않는다. 예를 들면, 프로세서(120)는, 전자 장치(101)(예: AI 스피커)와 연결된 전구를 통해 출력되는 빛의 세기 또는 색상에 기반하여, 개인 정보 봇의 메시지(1220)를 챗봇의 메시지(1210)와 다르게 출력할 수 있다.
프로세서(120)는, 동작 905 이후에 도 6의 동작 607로 리턴할 수 있다. 예를 들어, 도 10을 참조하면, 프로세서(120)는, 개인 정보 봇(1002)과의 대화(1020)를 표시하는 동안, 챗봇(1001)에게 컨텐트(예: 주소)를 제공하기 위한 사용자 입력(예: "전달해줘"라는 사용자의 발화 또는 텍스트 입력)을 수신하는 것에 기반하여, 개인 정보 봇(1002)과의 대화(1020)를 표시하기 위한 레이어(예: 팝업 윈도우)를 삭제할 수 있다. 프로세서(120)는, 상기 사용자 입력을 수신하는 것에 기반하여, GUI(예: 챗봇과의 대화방) (1050)와 같이, 챗봇(1001)과 이어서 대화할 수 있다. GUI(예: 챗봇과의 대화방)(1050)는, 개인 정보 봇(1002)과의 대화(예: 1020)를 포함하지 않을 수 있다.
예를 들면, 개인 정보 봇(예: 702, 1002)과의 대화(예: 720, 770, 1020, 1120, 1220)는, 서버(108)의 대화 모듈(230)에서, 챗봇(예: 701, 1001)과의 대화 세션과는 별도의 세션을 통해 수행될 수 있다. 예를 들면, 서버(108)의 대화 모듈(230)(또는 프로세서)는, 개인 정보 봇과의 대화를 위해, 챗봇과의 대화 세션과는 다른 세션을 생성(또는 임시적으로(temporarily) 생성)할 수 있다. 챗봇과의 대화 세션과는 다른 세션을 통해 개인 정보 봇과 대화를 수행함으로써, 개인 정보 봇과의 대화는, 챗봇(예: 701, 1001)(또는 챗봇 서버(201))에게 송신되지 않을 수 있다. 전자 장치(101)에서는, 챗봇과의 대화 세션에 개인 정보 봇이 참여한 것처럼, 개인 정보 봇과의 대화가 출력될 수 있다.
도 13은 다양한 실시 예들에 따른 전자 장치에서, 챗봇과의 대화에 관련된 정보를 저장하기 위한 동작의 예를 도시한다. 도 13의 동작은 전자 장치(101)에 의해 수행될 수 있다. 일 실시 예에 따라, 도 13의 동작(예: 동작 1305)의 일부는 서버(108)에 의해 수행될 수도 있다. 도 14는 다양한 실시 예들에 따른 전자 장치에서, 챗봇과의 대화에 관련된 정보를 저장하기 위한 GUI의 예를 도시한다.
도 13을 참조하면, 동작 1301에서, 프로세서(120)는, 챗봇과의 대화에 관련된 정보(예: 주문 정보 등)를 저장하기 위한 대화를 출력할 수 있다. 상기 정보를 저장하기 위한 대화는, 예를 들면, 도 7의 메시지(718)에 상응할 수도 있고, 또는 도 5의 동작 507(또는 도 6의 동작 609)의 이후에 출력될 수도 있다.
예를 들어, 도 14를 참조하면, 프로세서(120)는, 챗봇(1401, 1402)과의 대화방을 나타내는 GUI(1400, 1450)에서, 주문 정보를 저장하기 위한 메시지(1410, 1460)를 출력할 수 있다. 예를 들면, 프로세서(120)는, 메시지(1410)에 포함된 정보가 저장 가능함을 나타내는 메시지(1410)를 출력할 수 있다. 다른 예를 들면, 프로세서(120)는, 메시지(1410)에 포함된 정보를 저장하기 위해 이용되는 객체(1461)(또는 버튼, 아이콘)을 포함하는 메시지(1460)를 출력할 수 있다.
동작 1303에서, 프로세서(120)는, 정보를 저장하기 위한 사용자 입력을 수신하는지 여부를 식별할 수 있다. 프로세서(120)는, 정보를 저장하기 위한 사용자 입력을 수신하지 않는 것에 기반하여 종료할 수 있다. 예를 들면, 프로세서(120)는, 정보를 저장하지 않고 챗봇(1401, 1402) 또는 개인 정보 봇과 대화를 이어갈 수 있다.
프로세서(120)는, 정보를 저장하기 위한 사용자 입력을 수신하는 것에 기반하여, 동작 1305에서, 챗봇과의 대화에 관련된 정보를 저장할 수 있다.
예를 들어, 도 14를 참조하면, 프로세서(120)는 GUI(예: 챗봇과의 대화방)(1400) 상에서, 메시지(1410)에 대한 입력(1415)(예: 롱 프레스, 호버링 입력 등)을 수신하는 것에 응답하여, 메시지(1410)에 포함된 정보를 저장할 수 있는 객체(1411)를 출력할 수 있다. 프로세서(120)는, 객체(1411)에 대한 입력(1416)을 수신하는 것에 기반하여, 메시지(1410)에 포함된 정보를 저장할 수 있다. 프로세서(120)는, GUI(1450) 상에서, 메시지(1460)에 포함된 객체(1461)에 대한 입력을 수신하는 것에 기반하여, 메시지(1460)에 포함된 정보를 저장할 수 있다.
일부 실시 예들에서, 프로세서(120)는, 메시지(1410)에 포함된 정보를, 메모리(130)(예: 개인 정보 DB(340))에 저장할 수 있다. 다른 일부 실시 예들에서, 프로세서(120)는, 서버(108)의 개인정보 DB(240) 또는 챗봇 서버(201)의 DB에 저장하도록, 메시지(1410)에 포함된 정보를, 서버(108)에게 송신할 수 있다. 일 실시 예에 따르면, 프로세서(120)는, 사용자 입력에 기반하여, 메시지(1410 또는 1460)에 포함된 정보를 다른 전자 장치의 사용자에게 공유할 수도 있다.
개인정보 DB(240 또는 340)에 저장되는, 챗봇과의 대화에 관련된 정보(예: 주문 정보 등)에 관한 상세한 설명은, 표 2에서 후술된다.
Figure PCTKR2018013543-appb-I000002
표 2는 다양한 실시 예들에 따라 챗봇의 기능과 관련된 정보를 저장하는 개인 정보 DB의 예를 나타낸다. 표 2의 개인 정보 DB는, 전자 장치(101)의 메모리(130)(예: 개인 정보 DB(340)), 서버(108)의 메모리(예: 개인 정보 DB(240)), 또는 챗봇 서버(201)에 포함되거나 챗봇 서버(201)과 연결된 DB 중 적어도 하나에 저장될 수 있다.
표 2를 참조하면, 개인 정보 DB(240 또는 340)는, 예를 들면, 전자 장치(101)의 사용자를 위해 저장된 정보를 나타낼 수 있다.
개인 정보 DB(240 또는 340)는, 세션(session) ID마다 정보를 저장할 수 있다. 세션 ID는, 챗봇마다 부여될 수 있다. 세션 ID는, 챗봇(예: 701)을 다른 챗봇(예: 1001)으로부터 구별하기 위해 이용될 수 있다. 예를 들면, 세션 ID 78954는, OO 피자에 관한 챗봇(예: 701)을 나타내는 식별 정보일 수 있다. 예를 들면, 세션 ID 12752는, 챗봇(예: 701)과는 다른 챗봇(예: 챗봇(1001) 또는 쇼핑몰 챗봇 등)을 나타내는 식별 정보일 수 있다. 복수의 챗봇들 각각은, 세션 ID를 이용하여, 복수의 챗봇들 각각이 저장한 정보 또는 복수의 챗봇들 각각이 이용할 수 있는 정보를 식별할 수 있다. 복수의 챗봇들 각각이 저장하는 정보는, 파라미터 또는 정보의 구조가 서로 다를 수 있다.
개인 정보 DB(240 또는 340)는, 각각의 세션 ID 내에서, 의도(intent)에 따라 정보를 저장할 수 있다. 예를 들면, 챗봇(예: 701)과 관련된 세션(즉, 세션 ID 78954)에서, 의도 ID 256785는, 피자 주문과 관련된 의도를 나타낼 수 있다. 의도 ID 337754는, 사이드 메뉴 주문과 관련된 의도를 나타낼 수 있다. 예를 들면, 챗봇은, "포테이토 피자 라지 사이즈 두 판 주문해줘"라는 사용자 입력(예: 발화 또는 텍스트 입력)으로부터, 사용자의 의도가 피자 주문과 관련된 의도(즉, 의도 ID 256785)임을 식별할 수 있다. 챗봇은, 상기 사용자 입력으로부터, 상기 의도(즉, 의도 ID 256785)에 관한 기능을 수행하기 위한 파라미터(예: 상품명, 사이즈, 수량, 날짜)를 식별할 수 있다. 예를 들면, 챗봇은, 챗봇 서버(201)에 저장되거나 서버(108)에 저장된 챗봇을 위한 NLU 모듈을 이용하여, 의도 및 파라미터를 식별할 수 있다. 챗봇(또는 챗봇 서버(201))은, 사용자 입력으로부터 날짜 파라미터를 식별할 수 없는 경우, 날짜 파라미터를 현재 날짜로 식별할 수 있다. 일 실시 예에 따르면, 챗봇이 식별할 수 있는 의도는, 피자 주문과 관련된 의도나 사이드 메뉴 주문과 관련된 의도뿐만 아니라, 주문 확인과 관련된 의도, 콜센터와 관련된 의도 등을 포함할 수 있다.
도 15는 다양한 실시 예들에 따른 전자 장치에서, 챗봇에게 제공 가능한 컨텐트를 출력하기 위한 동작의 예를 도시한다. 도 15의 동작은, 전자 장치(101) 또는 서버(108) 중 적어도 하나에 의해 수행될 수 있다. 도 16은 다양한 실시 예들에 따라 챗봇에게 제공 가능한 컨텐트를 출력하는 GUI(예: 챗봇과의 대화방)의 예를 도시한다. 도 17은 다양한 실시 예들에 따라 챗봇에게 제공 가능한 컨텐트를 출력하는 GUI(예: 챗봇과의 대화방)의 다른 예를 도시한다.
도 15을 참조하면, 동작 1501에서, 프로세서(120)는, 챗봇과의 대화를 출력할 수 있다. 동작 1501은, 도 6의 동작 601에 상응할 수 있다. 예를 들어, 도 16 및 도 17을 참조하면, 프로세서(120)는, 대화(chat) 어플리케이션(330)의 화면(1600, 1700)(예: 챗봇(1610, 1710)과의 대화방)을 통해, 챗봇(1610, 1710)과의 대화를 출력할 수 있다.
동작 1503에서, 프로세서(120)는, 챗봇과의 대화에 기반하여 챗봇에게 제공 가능한 컨텐트를 출력할 수 있다. 챗봇에게 제공 가능한 컨텐트란, 사용자의 의도(intent)에 대응하는 챗봇의 기능(예: 주문)을 수행하기 위한 컨텐트일 수 있다.
예를 들면, 챗봇 서버(201)(또는 서버(108))은, 챗봇을 위한 NLU 모듈 또는 키워드에 기반한 알고리즘을 이용하여, 전자 장치(101)의 대화 세션을 통해 수신되는 사용자 입력의 의도(intent)를 식별할 수 있다. 예를 들면, 챗봇 서버(201)(또는 서버(108))은, 도 16의 사용자 입력(1601)으로부터 주문 의도를 식별할 수 있다. 챗봇 서버(201)(또는 서버(108))은, 도 17의 사용자 입력(1701)으로부터 피자 주문의 의도를 식별할 수 있다.
챗봇 서버(201), 서버(108), 또는 프로세서(120) 중 적어도 하나는, 챗봇 서버(201)와 연결된 DB, 개인 정보 DB(240), 또는 개인 정보 DB(340) 중 적어도 하나로부터, 식별된 의도에 대응하는 정보를 검색(retrieve)할 수 있다. 예를 들면, 챗봇 서버(201), 서버(108), 또는 프로세서(120) 중 적어도 하나는, 표 2의 개인 정보 DB(240 또는 340)로부터, 챗봇과 관련된 세션 ID 및 피자 주문의 의도 ID에 기반하여, 챗봇에게 제공 가능한 컨텐트를 식별할 수 있다. 프로세서(120)는, 사용자의 의도에 대응하는 챗봇의 기능을 수행하기 위한, 챗봇에게 제공 가능한 컨텐트에 관한 정보를 출력할 수 있다.
예를 들어, 도 16을 참조하면, 프로세서(120)는, 사용자 입력(1601)의 주문 의도에 기반하여, 챗봇(1610)에게 제공 가능한 컨텐트에 관한 정보(1602)를 출력할 수 있다. 정보(1602)에서, 챗봇(1610)에게 제공 가능한 컨텐트는, 예를 들면, 표 2의 개인 정보 DB(240 또는 340)로부터, 피자 주문의 의도(즉, 의도 ID 256785)에 기반하여 결정될 수 있다.
다른 예를 들어, 도 17을 참조하면, 프로세서(120)는, 사용자 입력(1701)의 피자 주문 의도에 기반하여, 챗봇(1710)에게 제공 가능한 컨텐트에 관한 정보(1731, 1732)를 열람 가능한 알림창(1702)을 출력할 수 있다. 프로세서(120)는, 알림창(1702)에 대한 사용자 입력(1703)(예: 탭, 드래그, 스와이프 업 등)을 수신하는 것에 기반하여, 화면(1730)(예: 챗봇(1710)과의 대화방)에 중첩된(superimposed on), 컨텐트에 관한 정보(1731, 1732)가 포함된 카드 형태의 알림창(1733)을 출력할 수 있다. 일 실시 예에 따르면, 챗봇(1710)에게 제공 가능한 컨텐트가 다수인 경우, 카드 형태의 알림창(1733)은, 좌우 드래그(또는 스와이프) 입력에 기반하여, 다른 컨텐트를 표시할 수 있다.
예를 들면, 도 16에 도시된 바와 같이, 챗봇(1610)에게 제공 가능한 컨텐트에 관한 정보(1602)는, 챗봇(1610)의 메시지로써 출력될 수 있다. 다른 예를 들면, 도 17에 도시된 바와 같이, 컨텐트에 관한 정보(1731, 1732)를 열람 가능한 알림창(1702, 1733)은, 개인 정보 봇의 메시지로써 출력될 수 있다.
동작 1505에서, 프로세서(120)는, 챗봇의 기능을 수행하기 위한 컨텐트(예: 주문 정보)를 결정하기 위한 사용자 입력을 수신하는지 여부를 식별할 수 있다.
프로세서(120)는, 챗봇의 기능을 수행하기 위한 컨텐트(예: 주문 정보)를 결정하기 위한 사용자 입력을 수신하는 것에 기반하여, 동작 1507에서, 결정된 컨텐트에 관한 정보를 챗봇(또는 챗봇 서버(201))에게 송신할 수 있다.
예를 들어, 도 16을 참조하면, 프로세서(120)는, 챗봇(1610)의 기능(예: 피자 주문)의 기능을 수행하기 위한 컨텐트를 결정하기 위한 사용자 입력(1603)(예: "포테이토 피자 다시 주문"이라는 발화 또는 텍스트 입력)을 수신할 수 있다. 다른 예를 들어, 도 17을 참조하면, 프로세서(120)는, 챗봇(1710)의 기능(예: 피자 주문)을 수행하기 위한 컨텐트를 결정하기 위한 사용자 입력(1734)(예: 탭, 드래그, 스와이프 업 등)을 수신할 수 있다. 프로세서(120)는, 사용자 입력(1734)를 수신하는 것에 기반하여, 화면(1760)을 표시할 수 있다.
프로세서(120)는, 사용자 입력(예: 1603, 1734 등)에 기반하여 결정된 컨텐트에 관한 정보를, 서버(108)를 통해 챗봇(1610, 1710)(또는 챗봇 서버(201))에게 송신할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 화면(1760)에서, 개인 정보 봇(1769)을 이용하여 컨텐트(1762)에 관한 정보를, 챗봇(1710)에게 송신할 수 있다.
일부 실시 예들에서, 챗봇(1610, 1710)에게 제공하기 위한 주문 정보에 관한 메시지(예: 1602, 1704, 1733, 1761, 또는 1762 등)는, 다른 메시지와는 다른 색으로 강조될 수 있다. 일부 실시 예들에서, 개인 정보에 관한 메시지(예: 1604)는, 주문 정보에 관한 메시지(예: 1602)와 다른 색으로 강조될 수 있다.
상술한 바와 같은 다양한 실시 예들에 따른 시스템(예: 네트워크 환경(200))은, 사용자 인터페이스와 통신 회로(예: 통신 모듈(190))를 포함하는 제1 전자 장치(예: 전자 장치(101)), 상기 제1 전자 장치의 일부이거나 또는 상기 제1 전자 장치와 원격적으로(remotely) 통신하는 적어도 하나의 프로세서(예: 프로세서(120) 또는 서버(108)의 프로세서), 및 상기 제1 전자 장치에 또는 상기 제1 전자 장치의 외부에 존재하는(reside) 적어도 하나의 메모리(예: 메모리(130) 또는 서버(108)의 메모리)를 포함할 수 있다. 상기 적어도 하나의 메모리는, 상기 프로세서에 작동적으로(operatively) 연결되는 동안, 실행되면, 상기 사용자 인터페이스를 통해, 문자 및/또는 음성 기반의 대화(chat)에 챗봇(chatbot)(예: 챗봇(701, 1001, 1401, 1402 등))을 호출하는 것과 관련된 제1 사용자 요청을 수신하고, 상기 챗봇을 상기 대화에 참여(join)하도록 야기(cause)하고, 상기 사용자 인터페이스를 통해, 상기 챗봇에 대한 태스크를 위한 제2 사용자 요청을 수신하고, 상기 제2 사용자 요청은 상기 태스크를 수행하기 위해 요구되는 정보의 적어도 일부(예: 개인 정보 또는 주문 정보)를 포함하지 않고, 상기 정보의 적어도 일부는, 상기 적어도 하나의 메모리에 저장되고, 상기 사용자 인터페이스를 통해, 상기 정보의 적어도 일부를 공유하기 위한 사용자 승인(user authorization)을 수신하고, 상기 정보의 적어도 일부를 상기 챗봇에게 제공하도록 상기 적어도 하나의 프로세서를 야기하는(cause) 명령어들을 저장할 수 있다.
다양한 실시 예들에서, 상기 사용자 인터페이스는, 터치스크린 디스플레이(예: 표시 장치(160) 또는 디스플레이(360)), 마이크(예: 입력 장치(150)), 또는 스피커(예: 음향 출력 장치(155)) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예들에서, 상기 적어도 하나의 메모리는, 사용자 계정(user account)을 저장하도록 설정되고, 상기 정보의 적어도 일부는, 상기 사용자 계정과 관련될 수 있다.
다양한 실시 예들에서, 상기 제1 전자 장치(예: 전자 장치(101))는, 상기 적어도 하나의 프로세서의 제1 프로세서(예: 프로세서(120))를 포함하고, 상기 시스템은, 상기 적어도 하나의 프로세서의 제2 프로세서(예: 서버(108)의 프로세서)를 포함하는 서버(예: 서버(108))를 더 포함할 수 있다.
예를 들면, 상기 명령어들은, 상기 사용자 인터페이스를 통해 상기 제1 사용자 요청을 수신하고, 상기 제1 사용자 요청을 수신한 뒤, 상기 제1 사용자 요청과 관련된 데이터를 상기 서버에게 송신하고, 상기 사용자 인터페이스를 통해, 상기 제2 사용자 요청을 수신하고, 상기 제2 사용자 요청을 수신한 뒤, 상기 제2 사용자 요청과 관련된 데이터를 상기 서버에게 송신하도록 상기 제1 프로세서(예: 프로세서(120))를 야기할 수 있다.
예를 들면, 상기 명령어들은, 상기 사용자 인터페이스를 통해 상기 사용자 승인(user authorization)을 수신하고, 상기 챗봇에게 제공되기 위한 상기 정보의 적어도 일부를 야기하도록 상기 제1 프로세서(예: 프로세서(120))를 야기할 수 있다.
예를 들면, 상기 명령어들은, 상기 제1 전자 장치(예: 전자 장치(101))로부터 상기 제1 사용자 요청과 관련된 데이터를 수신하고, 상기 제1 전자 장치로부터, 상기 제2 사용자 요청과 관련된 데이터를 수신하도록 상기 제2 프로세서(예: 서버(108)의 프로세서)를 야기할 수 있다.
예를 들면, 상기 명령어들은, 상기 제1 전자 장치(예: 전자 장치(101))로부터 상기 사용자 승인(user authorization)을 수신하고, 상기 정보의 적어도 일부를 상기 챗봇에게 제공하도록 상기 제2 프로세서(예: 서버(108)의 프로세서)를 야기할 수 있다.
다양한 실시 예들에서, 상기 명령어들은, 상기 사용자 승인(user authorization) 및/또는 상기 정보의 적어도 일부를 처리하도록 다른 챗봇(예: 개인 정보 봇)에게 제공하도록 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는 서버(108)의 프로세서)를 야기할 수 있다.
예를 들면, 상기 명령어들은, 상기 정보의 적어도 일부(예: 개인 정보 또는 주문 정보)에 관한 제3 사용자 요청을 상기 다른 챗봇(예: 개인 정보 봇)에게 제공하고, 상기 제3 사용자 요청을 상기 다른 챗봇에게 제공하는 동안, 상기 제3 사용자 요청을 상기 챗봇에게 제공하는 것을 제한하고, 상기 사용자 승인을 수신하는 것에 기반하여, 상기 정보의 적어도 일부를 상기 챗봇 제공하도록 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는 서버(108)의 프로세서)를 야기할 수 있다.
상술한 바와 같은 다양한 실시 예들에 따른 전자 장치(예: 전자 장치(101))는, 통신 모듈(예: 통신 모듈(190)), 입력 장치(예: 입력 장치(150)), 출력 장치(예: 출력 장치(350), 디스플레이(360), 음향 출력 장치(155), 또는 표시 장치(160)), 및 대화 어플리케이션에 관한 사용자 인터페이스를 통해 챗봇(예: 챗봇(701, 1001, 1401, 1402 등))과 대화(chat)하고, 상기 대화는 상기 입력 장치를 통해 수신된 메시지를 상기 통신 모듈을 통해 상기 챗봇에게 송신하는 동작 또는 상기 챗봇으로부터 상기 통신 모듈을 통해 수신된 메시지를 상기 출력 장치를 통해 출력하는 동작을 포함하고, 상기 대화(chat)하는 동안, 상기 대화(chat)에 개인 정보 봇을 참여시키기 위한 적어도 하나의 명령어를 실행하기 위한 이벤트를 검출하고, 상기 사용자 인터페이스를 이용하여, 상기 챗봇에게 제공하기 위한 컨텐트(예: 개인 정보 또는 주문 정보)에 관한 상기 개인 정보 봇과의 대화를 출력하고, 상기 개인 정보 봇과 대화(chat)하는 동안 상기 개인 정보 봇과의 대화에 관한 정보를 상기 챗봇에게 송신하는 것을 제한하고, 상기 챗봇에게 상기 컨텐트에 관한 정보를 제공하기 위한 사용자 입력을 수신하는 것에 기반하여, 상기 컨텐트에 관한 정보를 상기 챗봇에게 송신하도록 설정된 적어도 하나의 프로세서(예: 프로세서(120))를 포함할 수 있다.
다양한 실시 예들에서, 상기 챗봇과의 대화는, 상기 챗봇과 연결되고 상기 챗봇의 기능을 수행하기 위한 제1 자연어 이해 모듈(예: 챗봇을 위한 NLU 모듈(NLU for chatbot))을 이용하여 수행되고, 상기 개인 정보 봇과의 대화는, 상기 개인 정보 봇의 기능을 수행하기 위한, 상기 제1 자연어 이해 모듈과 다른 제2 자연어 이해 모듈(예: 개인 정보를 위한 NLU 모듈(예: NLU for PI))을 이용하여 수행되고, 상기 적어도 하나의 프로세서는, 상기 제2 자연어 이해 모듈을 이용하여, 상기 챗봇과의 대화로부터, 상기 대화에 개인 정보 봇을 참여시키기 위한 적어도 하나의 명령어를 실행하기 위한 이벤트를 검출하도록 설정될 수 있다.
다양한 실시 예들에서, 상기 적어도 하나의 프로세서는, 상기 챗봇과의 대화 또는 상기 개인 정보 봇과의 대화 중 적어도 하나에 포함된 메시지 중에서, 제1 메시지가 나타내는 정보 및 제2 메시지가 나타내는 정보에 기반하여, 제1 메시지 및 제2 메시지를 다르게 출력하도록 설정될 수 있다.
다양한 실시 예들에서, 상기 적어도 하나의 프로세서는, 상기 대화에 개인 정보 봇을 참여시키기 위한 적어도 하나의 명령어를 실행하기 위한 이벤트를 검출하는 것에 기반하여, 상기 전자 장치와 연결된 메모리(예: 메모리(130), 서버(108)의 메모리, 개인 정보 DB(240), 또는 개인 정보 DB(340))에 저장된 개인 정보 중, 상기 챗봇과의 대화 또는 상기 개인 정보 봇과의 대화 중 적어도 하나와 관련된 개인 정보에 관한 메시지를 출력하도록 설정될 수 있다.
다양한 실시 예들에서, 상기 적어도 하나의 프로세서는, 상기 챗봇과의 대화에 포함된 적어도 일부 정보를, 상기 전자 장치와 연결된 메모리(예: 메모리(130), 서버(108)의 메모리, 개인 정보 DB(240), 또는 개인 정보 DB(340))에 저장하기 위한 상기 사용자 인터페이스를 제공하도록 설정될 수 있다.
예를 들면, 상기 적어도 하나의 프로세서는, 상기 챗봇과의 다른 대화에서, 상기 사용자 인터페이스를 통해 저장된 상기 적어도 일부 정보를 출력하도록 설정될 수 있다.
다양한 실시 예들에서, 상기 적어도 하나의 프로세서는, 상기 챗봇과의 대화로부터 상기 개인 정보 봇을 참여시키기 위한 의도를 식별하는 것, 상기 챗봇과의 대화에서 지정된 단어(예: "빅스비")가 포함된 사용자 입력을 수신하는 것, 또는 지정된 버튼 또는 아이콘에 대한 입력을 수신하는 것 중 적어도 하나에 기반하여, 상기 대화에 개인 정보 봇을 참여시키기 위한 적어도 하나의 명령어를 실행하도록 설정될 수 있다.
다양한 실시 예들에서, 상기 적어도 하나의 프로세서는, 상기 챗봇과의 대화에 비해 강조된 상기 개인 정보 봇과의 대화를 출력하거나, 또는 상기 챗봇과의 대화가 출력된 사용자 인터페이스에 중첩된(superimposed on) 레이어를 통해 상기 개인 정보 봇과의 대화를 출력하도록 설정될 수 있다.
다양한 실시 예들에서, 상기 적어도 하나의 프로세서는, 상기 개인 정보 봇과 대화하는 동안, 상기 개인 정보 봇과 대화하기 위한 제1 사용자 입력에 관한 정보를 상기 개인 정보 봇에게 송신하고, 상기 제1 사용자 입력에 관한 정보를 상기 챗봇에게 송신하는 것을 제한하고, 상기 개인 정보 봇과의 대화를 종료하는 것에 기반하여, 사용자 인터페이스를 통해 입력된 제2 사용자 입력에 관한 정보를 상기 챗봇에게 송신하도록 설정될 수 있다.
상술한 바와 같은 다양한 실시 예들에 따른 전자 장치(예: 서버(108))는, 메모리(예: 서버(108)의 메모리), 및 제1 전자 장치(예: 전자 장치(101))로부터 수신된 제1 메시지를 챗봇(예: 챗봇(701, 1001, 1401, 1402 등))에게 송신하고, 상기 수신된 제1 메시지에 대한 응답 메시지를 상기 제1 전자 장치에게 송신하고, 상기 응답 메시지는, 상기 챗봇의 기능을 수행하기 위한 제1 자연어 이해 모듈(예: 예: 챗봇을 위한 NLU 모듈(NLU for chatbot))을 이용하여 획득되고, 상기 제1 메시지 또는 상기 응답 메시지 중 적어도 하나에 기반하여, 상기 제1 전자 장치의 사용자의 개인 정보에 관한 대화를 수행하기 위한 이벤트를 식별하고, 상기 식별에 기반하여, 상기 사용자의 개인 정보에 관한 대화를 수행하기 위한 제2 자연어 이해 모듈(예: 개인 정보를 위한 NLU 모듈(예: NLU for PI))을 이용하여, 상기 사용자와 자연어 기반의 대화를 수행하고, 상기 제2 자연어 이해 모듈을 이용하여 대화를 수행하는 동안 상기 제1 전자 장치(예: 전자 장치(101))로부터 수신된 제2 메시지를 상기 챗봇에게 송신하는 것을 제한하고, 상기 제1 전자 장치(예: 전자 장치(101))로부터, 상기 제2 메시지의 적어도 일부를 상기 챗봇에게 제공하기 위한 신호를 수신하는 것에 기반하여, 상기 제2 메시지의 적어도 일부에 관한 정보를 상기 챗봇에게 송신하도록 설정된 적어도 하나의 프로세서(예: 서버(108)의 프로세서)를 포함할 수 있다.
한편, 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (15)

  1. 시스템에 있어서,
    사용자 인터페이스 및 통신 회로를 포함하는 제1 전자 장치;
    상기 제1 전자 장치의 일부이거나 또는 상기 제1 전자 장치와 원격적으로(remotely) 통신하는 적어도 하나의 프로세서; 및
    상기 제1 전자 장치에 또는 상기 제1 전자 장치의 외부에 존재하는(reside) 적어도 하나의 메모리를 포함하고,
    상기 적어도 하나의 메모리는, 상기 적어도 하나의 프로세서에 작동적으로(operatively) 연결되는 동안, 실행 시, 상기 적어도 하나의 프로세서가,
    상기 사용자 인터페이스를 통해, 문자 및/또는 음성 기반의 대화(chat)에 챗봇(chatbot)을 호출하는 것과 관련된 제1 사용자 요청을 수신하고,
    상기 챗봇을 상기 대화에 참여(join)하도록 야기(cause)하고,
    상기 사용자 인터페이스를 통해, 상기 챗봇에 대한 태스크를 위한 제2 사용자 요청을 수신하고, 상기 제2 사용자 요청은 상기 태스크를 수행하기 위해 요구되는 정보의 적어도 일부를 포함하지 않고, 상기 정보의 적어도 일부는, 상기 적어도 하나의 메모리에 저장되고,
    상기 사용자 인터페이스를 통해, 상기 정보의 적어도 일부를 공유하기 위한 사용자 승인(user authorization)을 수신하고,
    상기 정보의 적어도 일부를 상기 챗봇에게 제공하도록 하는 명령어들을 저장하는 시스템.
  2. 청구항 1에 있어서,
    상기 사용자 인터페이스는,
    터치스크린 디스플레이, 마이크, 또는 스피커 중 적어도 하나를 포함하고,
    상기 적어도 하나의 메모리는, 사용자 계정(user account)을 저장하도록 설정되고,
    상기 정보의 적어도 일부는, 상기 사용자 계정과 관련된 시스템.
  3. 청구항 1에 있어서,
    상기 제1 전자 장치는,
    상기 적어도 하나의 프로세서의 제1 프로세서를 포함하고,
    상기 시스템은,
    상기 적어도 하나의 프로세서의 제2 프로세서를 포함하는 서버를 더 포함하는 시스템.
  4. 청구항 3에 있어서,
    상기 명령어들은,
    상기 사용자 인터페이스를 통해 상기 제1 사용자 요청을 수신하고,
    상기 제1 사용자 요청을 수신한 뒤, 상기 제1 사용자 요청과 관련된 데이터를 상기 서버에게 송신하고,
    상기 사용자 인터페이스를 통해, 상기 제2 사용자 요청을 수신하고, 및
    상기 제2 사용자 요청을 수신한 뒤, 상기 제2 사용자 요청과 관련된 데이터를 상기 서버에게 송신하도록 상기 제1 프로세서를 야기하는(cause) 시스템.
  5. 청구항 3에 있어서,
    상기 명령어들은,
    상기 제1 전자 장치로부터 상기 제1 사용자 요청과 관련된 데이터를 수신하고,
    상기 제1 전자 장치로부터, 상기 제2 사용자 요청과 관련된 데이터를 수신하도록 상기 제2 프로세서를 야기하는(cause) 시스템.
  6. 청구항 3에 있어서,
    상기 명령어들은,
    상기 제1 전자 장치로부터 상기 사용자 승인(user authorization)을 수신하고,
    상기 정보의 적어도 일부를 상기 챗봇에게 제공하도록 상기 제2 프로세서를 야기하는(cause) 시스템.
  7. 청구항 1에 있어서,
    상기 명령어들은,
    상기 정보의 적어도 일부에 관한 제3 사용자 요청을 다른 챗봇에게 제공하고, 상기 제3 사용자 요청을 상기 다른 챗봇에게 제공하는 동안, 상기 제3 사용자 요청을 상기 챗봇에게 제공하는 것을 제한하고,
    상기 사용자 승인을 수신하는 것에 기반하여, 상기 정보의 적어도 일부를 상기 챗봇에게 제공하도록 상기 적어도 하나의 프로세서를 야기하는 시스템.
  8. 전자 장치에 있어서,
    통신 모듈;
    입력 장치;
    출력 장치; 및
    대화 어플리케이션에 관한 사용자 인터페이스를 통해 챗봇과 대화(chat)하고, 상기 대화는 상기 입력 장치를 통해 수신된 메시지를 상기 통신 모듈을 통해 상기 챗봇에게 송신하는 동작 또는 상기 챗봇으로부터 상기 통신 모듈을 통해 수신된 메시지를 상기 출력 장치를 통해 출력하는 동작을 포함하고,
    상기 대화(chat)하는 동안, 상기 대화(chat)에 개인 정보 봇을 참여시키기 위한 적어도 하나의 명령어를 실행하기 위한 이벤트를 검출하고,
    상기 사용자 인터페이스를 이용하여, 상기 챗봇에게 제공하기 위한 컨텐트에 관한 상기 개인 정보 봇과의 대화를 출력하고, 상기 개인 정보 봇과 대화(chat)하는 동안 상기 개인 정보 봇과의 대화에 관한 정보를 상기 챗봇에게 송신하는 것을 제한하고,
    상기 챗봇에게 상기 컨텐트에 관한 정보를 제공하기 위한 사용자 입력을 수신하는 것에 기반하여, 상기 컨텐트에 관한 정보를 상기 챗봇에게 송신하도록 설정된 적어도 하나의 프로세서를 포함하는 전자 장치.
  9. 청구항 8에 있어서,
    상기 챗봇과의 대화는, 상기 챗봇과 연결되고 상기 챗봇의 기능을 수행하기 위한 제1 자연어 이해 모듈을 이용하여 수행되고,
    상기 개인 정보 봇과의 대화는, 상기 개인 정보 봇의 기능을 수행하기 위한, 상기 제1 자연어 이해 모듈과 다른 제2 자연어 이해 모듈을 이용하여 수행되고,
    상기 적어도 하나의 프로세서는,
    상기 제2 자연어 이해 모듈을 이용하여, 상기 챗봇과의 대화로부터, 상기 대화에 개인 정보 봇을 참여시키기 위한 적어도 하나의 명령어를 실행하기 위한 이벤트를 검출하도록 설정된 전자 장치.
  10. 청구항 8에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 챗봇과의 대화 또는 상기 개인 정보 봇과의 대화 중 적어도 하나에 포함된 메시지 중에서, 제1 메시지가 나타내는 정보 및 제2 메시지가 나타내는 정보에 기반하여, 제1 메시지 및 제2 메시지를 다르게 출력하도록 설정된 전자 장치.
  11. 청구항 8에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 대화에 개인 정보 봇을 참여시키기 위한 적어도 하나의 명령어를 실행하기 위한 이벤트를 검출하는 것에 기반하여, 상기 전자 장치와 연결된 메모리에 저장된 개인 정보 중, 상기 챗봇과의 대화 또는 상기 개인 정보 봇과의 대화 중 적어도 하나와 관련된 개인 정보에 관한 메시지를 출력하도록 설정되는 전자 장치.
  12. 청구항 8에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 챗봇과의 대화로부터 상기 개인 정보 봇을 참여시키기 위한 의도를 식별하는 것, 상기 챗봇과의 대화에서 지정된 단어가 포함된 사용자 입력을 수신하는 것, 또는 지정된 버튼 또는 아이콘에 대한 입력을 수신하는 것 중 적어도 하나에 기반하여, 상기 대화에 개인 정보 봇을 참여시키기 위한 적어도 하나의 명령어를 실행하도록 설정된 전자 장치.
  13. 청구항 8에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 챗봇과의 대화에 비해 강조된 상기 개인 정보 봇과의 대화를 출력하거나, 또는 상기 챗봇과의 대화가 출력된 사용자 인터페이스에 중첩된(superimposed on) 레이어를 통해 상기 개인 정보 봇과의 대화를 출력하도록 설정된 전자 장치.
  14. 청구항 8에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 개인 정보 봇과 대화하는 동안, 상기 개인 정보 봇과 대화하기 위한 제1 사용자 입력에 관한 정보를 상기 개인 정보 봇에게 송신하고, 상기 제1 사용자 입력에 관한 정보를 상기 챗봇에게 송신하는 것을 제한하고,
    상기 개인 정보 봇과의 대화를 종료하는 것에 기반하여, 사용자 인터페이스를 통해 입력된 제2 사용자 입력에 관한 정보를 상기 챗봇에게 송신하도록 설정된 전자 장치.
  15. 전자 장치에 있어서,
    메모리; 및
    제1 전자 장치로부터 수신된 제1 메시지를 챗봇에게 송신하고,
    상기 수신된 제1 메시지에 대한 응답 메시지를 상기 제1 전자 장치에게 송신하고, 상기 응답 메시지는, 상기 챗봇의 기능을 수행하기 위한 제1 자연어 이해 모듈을 이용하여 획득되고,
    상기 제1 메시지 또는 상기 응답 메시지 중 적어도 하나에 기반하여, 상기 제1 전자 장치의 사용자의 개인 정보에 관한 대화를 수행하기 위한 이벤트를 식별하고,
    상기 식별에 기반하여, 상기 사용자의 개인 정보에 관한 대화를 수행하기 위한 제2 자연어 이해 모듈을 이용하여, 상기 사용자와 자연어 기반의 대화를 수행하고, 상기 제2 자연어 이해 모듈을 이용하여 대화를 수행하는 동안 상기 제1 전자 장치로부터 수신된 제2 메시지를 상기 챗봇에게 송신하는 것을 제한하고,
    상기 제1 전자 장치로부터, 상기 제2 메시지의 적어도 일부를 상기 챗봇에게 제공하기 위한 신호를 수신하는 것에 기반하여, 상기 제2 메시지의 적어도 일부에 관한 정보를 상기 챗봇에게 송신하도록 설정된 적어도 하나의 프로세서를 포함하는 전자 장치.
PCT/KR2018/013543 2018-02-07 2018-11-08 챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법 WO2019156314A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/965,751 US11646022B2 (en) 2018-02-07 2018-11-08 Electronic device for chatting with chatbot and operation method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180015069A KR102619621B1 (ko) 2018-02-07 2018-02-07 챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법
KR10-2018-0015069 2018-02-07

Publications (1)

Publication Number Publication Date
WO2019156314A1 true WO2019156314A1 (ko) 2019-08-15

Family

ID=67549032

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/013543 WO2019156314A1 (ko) 2018-02-07 2018-11-08 챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법

Country Status (3)

Country Link
US (1) US11646022B2 (ko)
KR (2) KR102619621B1 (ko)
WO (1) WO2019156314A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220067746A1 (en) * 2020-08-31 2022-03-03 Genesys Telecommunications Laboratories, Inc. Systems and methods relating to post-purchase support of customers
US12020259B2 (en) * 2021-08-26 2024-06-25 Genesys Telecommunications Laboratories, Inc. Systems and methods relating to post-purchase support of customers

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101731867B1 (ko) * 2016-08-16 2017-05-04 주식회사 엔터플 챗봇 간에 사용자의 이벤트를 공유하는 방법 및 장치
KR102619621B1 (ko) * 2018-02-07 2023-12-29 삼성전자주식회사 챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법
JP6818706B2 (ja) * 2018-02-13 2021-01-20 日本電信電話株式会社 情報提供装置、情報提供方法、およびプログラム
US20200364806A1 (en) * 2019-05-15 2020-11-19 Facebook, Inc. Systems and methods for initiating conversations within an online dating service
KR102173553B1 (ko) * 2019-09-26 2020-11-03 주식회사 베니페 딥러닝 기술을 이용한 능동형 맞춤 운동시스템
US11119747B2 (en) * 2019-11-21 2021-09-14 Paypal, Inc. System and method for application release orchestration and deployment
KR20210066651A (ko) 2019-11-28 2021-06-07 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR102307289B1 (ko) * 2019-11-29 2021-09-30 주식회사 아토즈소프트 챗봇 기반의 낚시정보 제공 방법 및 그 장치
JP7396087B2 (ja) * 2020-02-06 2023-12-12 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
KR102179768B1 (ko) * 2020-04-27 2020-11-18 주식회사 한걸음컴퍼니 3차원 캐릭터에 기반하여 정보를 제공하는 전자 장치 및 방법
KR102518901B1 (ko) * 2020-09-22 2023-04-07 에스케이플래닛 주식회사 블록 컴포넌트를 이용한 챗봇 서비스 제공 방법 및 장치
KR102555777B1 (ko) * 2020-12-15 2023-07-13 주식회사 카카오엔터프라이즈 대화형 챗봇 서비스를 제공하는 단말기, 프로그램 및 그것의 제어 방법
US20220292578A1 (en) * 2021-03-11 2022-09-15 International Business Machines Corporation One-touch intelligent online shopping assistant system
US11881216B2 (en) 2021-06-08 2024-01-23 Bank Of America Corporation System and method for conversation agent selection based on processing contextual data from speech
US11734089B2 (en) * 2021-10-11 2023-08-22 Fmr Llc Dynamic option reselection in virtual assistant communication sessions
KR20230099246A (ko) * 2021-12-27 2023-07-04 삼성전자주식회사 챗봇 참여 채팅 서비스 제공 방법 및 장치
US11962545B2 (en) 2021-12-27 2024-04-16 Samsung Electronics Co., Ltd. Method and device for providing chatbot participating chat service

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013059856A (ja) * 2005-09-30 2013-04-04 Irobot Corp 個人の相互交流のためのコンパニオンロボット
US20160094490A1 (en) * 2014-09-29 2016-03-31 International Business Machines Corporation Personalizing data system components and data sources as chatbots in a group chat session
KR20160139771A (ko) * 2015-05-28 2016-12-07 삼성전자주식회사 전자 장치, 정보 제공 시스템 및 그 정보 제공 방법
KR20170098675A (ko) * 2016-02-22 2017-08-30 후지제롯쿠스 가부시끼가이샤 로봇 제어 시스템
JP2017169839A (ja) * 2016-03-24 2017-09-28 大日本印刷株式会社 アバターロボット接続管理システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10445725B2 (en) * 2012-11-30 2019-10-15 edatanetworks Customer voice order triggered mutual affinity merchant donation
EP2912567A4 (en) 2012-12-11 2016-05-18 Nuance Communications Inc SYSTEM AND METHODS FOR VIRTUAL AGENT RECOMMENDATION FOR MULTIPLE PEOPLE
KR20140144104A (ko) * 2013-06-10 2014-12-18 삼성전자주식회사 전자기기 및 이의 서비스 제공 방법
US9804820B2 (en) * 2013-12-16 2017-10-31 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
EP3195145A4 (en) * 2014-09-16 2018-01-24 VoiceBox Technologies Corporation Voice commerce
US10460227B2 (en) * 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
KR20170027061A (ko) * 2015-09-01 2017-03-09 삼성에스디에스 주식회사 인스턴트 메신저 상의 가상 도우미 애플리케이션 이용 방법 및 장치
KR20180003324A (ko) * 2016-06-30 2018-01-09 주식회사 엔터플 챗봇을 이용한 콘텐트 제공 방법 및 장치
US10650593B2 (en) * 2016-07-12 2020-05-12 Tyco Fire & Security Gmbh Holographic technology implemented security solution
KR101852540B1 (ko) * 2016-07-22 2018-06-07 주식회사 텍스트팩토리 문자를 이용한 비서 서비스에서의 개인 정보의 선택적 암호화 방법
KR101731867B1 (ko) 2016-08-16 2017-05-04 주식회사 엔터플 챗봇 간에 사용자의 이벤트를 공유하는 방법 및 장치
US10192551B2 (en) * 2016-08-30 2019-01-29 Google Llc Using textual input and user state information to generate reply content to present in response to the textual input
US10147306B2 (en) * 2016-11-23 2018-12-04 Alarm.Com Incorporated Detection of authorized user presence and handling of unauthenticated monitoring system commands
US10127227B1 (en) * 2017-05-15 2018-11-13 Google Llc Providing access to user-controlled resources by automated assistants
KR102619621B1 (ko) * 2018-02-07 2023-12-29 삼성전자주식회사 챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법
US10997963B1 (en) * 2018-05-17 2021-05-04 Amazon Technologies, Inc. Voice based interaction based on context-based directives
US11113691B2 (en) * 2018-09-25 2021-09-07 American Express Travel Related Services Company, Inc. Voice interface transaction system using audio signals
US11205422B2 (en) * 2018-10-02 2021-12-21 International Business Machines Corporation Methods and systems for managing chatbots with data access
US11393463B2 (en) * 2019-04-19 2022-07-19 Soundhound, Inc. System and method for controlling an application using natural language communication
US10802843B1 (en) * 2019-05-31 2020-10-13 Apple Inc. Multi-user configuration
US20210119802A1 (en) * 2019-10-21 2021-04-22 Vmware, Inc. Two-way authentication for voice-activated devices
US11657591B2 (en) * 2021-01-15 2023-05-23 Argo AI, LLC Autonomous vehicle system for intelligent on-board selection of data for building a remote machine learning model

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013059856A (ja) * 2005-09-30 2013-04-04 Irobot Corp 個人の相互交流のためのコンパニオンロボット
US20160094490A1 (en) * 2014-09-29 2016-03-31 International Business Machines Corporation Personalizing data system components and data sources as chatbots in a group chat session
KR20160139771A (ko) * 2015-05-28 2016-12-07 삼성전자주식회사 전자 장치, 정보 제공 시스템 및 그 정보 제공 방법
KR20170098675A (ko) * 2016-02-22 2017-08-30 후지제롯쿠스 가부시끼가이샤 로봇 제어 시스템
JP2017169839A (ja) * 2016-03-24 2017-09-28 大日本印刷株式会社 アバターロボット接続管理システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220067746A1 (en) * 2020-08-31 2022-03-03 Genesys Telecommunications Laboratories, Inc. Systems and methods relating to post-purchase support of customers
US12020259B2 (en) * 2021-08-26 2024-06-25 Genesys Telecommunications Laboratories, Inc. Systems and methods relating to post-purchase support of customers

Also Published As

Publication number Publication date
US11646022B2 (en) 2023-05-09
KR20190100512A (ko) 2019-08-29
KR20240007888A (ko) 2024-01-17
US20210035576A1 (en) 2021-02-04
KR102619621B1 (ko) 2023-12-29

Similar Documents

Publication Publication Date Title
WO2019156314A1 (ko) 챗봇과 대화하기 위한 전자 장치 및 그의 동작 방법
WO2020045927A1 (en) Electronic device and method for generating short cut of quick command
WO2019190097A1 (ko) 챗봇을 이용한 서비스 제공 방법 및 그 장치
WO2021025350A1 (en) Electronic device managing plurality of intelligent agents and operation method thereof
WO2020032563A1 (en) System for processing user voice utterance and method for operating same
WO2021075736A1 (en) Electronic device and method for sharing voice command thereof
WO2019112181A1 (ko) 오디오 데이터에 포함된 음소 정보를 이용하여 어플리케이션을 실행하기 위한 전자 장치 및 그의 동작 방법
WO2020091183A1 (ko) 사용자 특화 음성 명령어를 공유하기 위한 전자 장치 및 그 제어 방법
WO2019146970A1 (ko) 사용자 발화 응답 방법 및 이를 지원하는 전자 장치
WO2020167006A1 (en) Method of providing speech recognition service and electronic device for same
WO2015170832A1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
WO2019050242A1 (en) ELECTRONIC DEVICE, SERVER, AND RECORDING MEDIUM SUPPORTING THE EXECUTION OF A TASK USING AN EXTERNAL DEVICE
WO2020180034A1 (ko) 사용자 선택 기반의 정보를 제공하는 방법 및 장치
WO2018203620A1 (ko) 사용자 발화를 처리하는 전자
WO2019059642A1 (ko) 자연어 표현 제공 방법 및 이를 지원하는 전자 장치
WO2021060728A1 (ko) 사용자 발화를 처리하는 전자 장치 및 그 작동 방법
WO2020130447A1 (ko) 페르소나에 기반하여 문장을 제공하는 방법 및 이를 지원하는 전자 장치
WO2019203418A1 (ko) 음성 인식을 수행하는 전자 장치 및 전자 장치의 동작 방법
WO2020080635A1 (ko) 동작 상태에 기반하여 선택한 마이크를 이용하여 음성 인식을 수행하는 전자 장치 및 그의 동작 방법
WO2020050475A1 (ko) 전자 장치 및 단축 명령어에 대응하는 태스크 수행 방법
WO2020091248A1 (ko) 음성 명령에 응답하여 컨텐츠를 표시하기 위한 방법 및 그 전자 장치
WO2019190062A1 (en) Electronic device for processing user voice input
WO2020116818A1 (en) Electronic device and method of controlling thereof
WO2021101276A1 (en) Electronic device for providing intelligent assistance service and operating method thereof
WO2020076086A1 (en) System for processing user utterance and operating method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18905174

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18905174

Country of ref document: EP

Kind code of ref document: A1