WO2020263016A1 - 사용자 발화를 처리하는 전자 장치와 그 동작 방법 - Google Patents

사용자 발화를 처리하는 전자 장치와 그 동작 방법 Download PDF

Info

Publication number
WO2020263016A1
WO2020263016A1 PCT/KR2020/008365 KR2020008365W WO2020263016A1 WO 2020263016 A1 WO2020263016 A1 WO 2020263016A1 KR 2020008365 W KR2020008365 W KR 2020008365W WO 2020263016 A1 WO2020263016 A1 WO 2020263016A1
Authority
WO
WIPO (PCT)
Prior art keywords
domain
user
user utterance
information
electronic device
Prior art date
Application number
PCT/KR2020/008365
Other languages
English (en)
French (fr)
Inventor
송미선
이재환
이하림
한정아
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2020263016A1 publication Critical patent/WO2020263016A1/ko
Priority to US17/490,383 priority Critical patent/US20220020358A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Definitions

  • Various embodiments of the present disclosure relate to an electronic device that processes user utterances and an operating method thereof.
  • portable digital communication devices For many people living in modern times, portable digital communication devices have become an essential element. Consumers want to receive a variety of high-quality services they want anytime, anywhere by using portable digital communication devices.
  • the voice recognition service is a service that provides various content services to consumers in response to a user's voice received based on a voice recognition interface implemented in portable digital communication devices.
  • portable digital transmitters include technologies that recognize and analyze human language (e.g., automatic speech recognition, natural language understanding, natural language generation, machine translation, dialogue system, question and answer, speech recognition/synthesis, Etc.) is implemented.
  • the electronic device may provide various voice services to the user by processing the speech received from the user through an external server.
  • the external server receives the user utterance from the electronic device and processes the user utterance based on the domain corresponding to the received user utterance among a plurality of domains for processing the user utterance registered in the external server to provide a specific service. have.
  • the type of service increases exponentially, the number of domains registered in the external server increases exponentially, and accordingly, in order to select the domain suitable for the analyzed user intention based on the user utterance received by the external server, the operation burden There is an increasing difficulty of this.
  • it is impossible to process the user utterance in a predetermined domain in order to process the user utterance it is difficult for the external server to provide a voice service corresponding to the received user utterance.
  • the electronic device selects a category corresponding to the user utterance and allows the user utterance to be processed by a specific domain included in the selected category, and selects a domain for providing a service suitable for the user utterance from among a plurality of domains.
  • the burden of operation of an electronic device that checks each of a plurality of domains may be reduced.
  • the electronic device may improve continuity of providing a voice service by allowing the user utterance to be processed by another domain when processing of a user utterance is impossible by a predetermined domain.
  • an operation of receiving a first user utterance from a user device an operation of determining a specific category corresponding to the received first user utterance among a plurality of categories, the Information for determining a first domain for processing the first user utterance from among a plurality of domains related to the determined specific category, and performing an operation corresponding to the first user utterance based on the determined first domain
  • Acquiring an operation an operation of receiving a second user utterance from the user device, an operation of checking whether processing of the second user utterance is possible in the determined first domain, and an operation of the second user utterance based on the first domain
  • a control operation may be provided, including an operation of acquiring information for performing an
  • an electronic device includes at least one communication circuit and at least one processor operatively connected to the at least one communication circuit, wherein the at least one processor generates a first user utterance.
  • Controls the at least one communication circuit to receive from the device determines a specific category corresponding to the received first user utterance among a plurality of categories, and utters the first user among a plurality of domains related to the determined specific category Determining a first domain for processing, obtaining information for performing an operation corresponding to the first user utterance based on the determined first domain, and receiving a second user utterance from the user device.
  • Controls one communication circuit checks whether processing of the second user utterance is possible in the determined first domain, and when it is determined that processing of the second user utterance based on the first domain is not possible, the When it is confirmed that a second domain among a plurality of domains is checked, whether processing of the second user utterance based on the second domain is possible, and processing of the second user utterance based on the second domain is possible .
  • An electronic device configured to obtain information for performing an operation corresponding to the second user utterance based on the second domain may be provided.
  • a memory configured to store instructions, first information on a plurality of categories, and second information on at least one domain included in each of the plurality of categories, and at least one processor Including, and the instructions, the at least one processor obtains a first user utterance upon execution, and based on at least a part of the first information, a specific category corresponding to the first user utterance among a plurality of categories And determine a first domain for processing the first user utterance among a plurality of domains related to a specific category determined based on at least a portion of the second information, and the first domain based on the determined first domain Acquire information to perform an operation corresponding to the user utterance, obtain a second user utterance, and determine whether processing of the second user utterance is possible in the determined first domain based on at least a part of the second information When it is determined that processing of the second user utterance based on the first domain is not possible, checks a second domain among the plurality of domains, and processes the second user
  • an electronic device capable of improving continuity of providing a voice service by processing the user speech by another domain and an operation method thereof may be provided.
  • FIG. 1 is a diagram illustrating an integrated intelligence system according to various embodiments of the present disclosure.
  • FIG. 2 is a block diagram showing a user terminal of an integrated intelligence system according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating execution of an intelligent app of a user terminal according to an embodiment of the present invention.
  • FIG. 4 is a block diagram showing an intelligent server of an integrated intelligent system according to an embodiment of the present invention.
  • NLU path natural language understanding module
  • FIG. 6 is a diagram illustrating an example of a configuration of an intelligent system according to various embodiments.
  • FIG. 7 is a diagram illustrating an example of a configuration of an intelligent server and an example of an external server interlocking with the intelligent server according to various embodiments.
  • FIG. 8 is a diagram for describing an example of a resolver selection operation, a category selection operation, and a domain selection operation of an intelligent server according to various embodiments of the present disclosure.
  • FIG. 9 is a diagram for describing an utterance list that can be processed in a category according to various embodiments.
  • FIG. 10 is a flowchart illustrating an example of an operation of providing a service corresponding to a user utterance of an electronic device according to various embodiments of the present disclosure.
  • FIG. 11 is a diagram illustrating an example of an operation of providing a service corresponding to a user utterance of an electronic device according to various embodiments of the present disclosure.
  • FIG. 12 is a flowchart illustrating an example of an operation of providing a service corresponding to a user's utterance by an electronic device and an intelligent server according to various embodiments of the present disclosure.
  • FIG. 13 is a diagram for describing an example of an operation of providing a service corresponding to a user utterance of an electronic device according to various embodiments of the present disclosure.
  • 14A is a diagram illustrating an example of an operation of providing a service corresponding to a user utterance of an intelligent server according to various embodiments.
  • 14B is a diagram illustrating an example of an operation of providing a service corresponding to a user utterance of an intelligent server according to various embodiments.
  • 15 is a diagram for describing an example of an operation of displaying information related to a plurality of domains corresponding to a user utterance of an electronic device according to various embodiments of the present disclosure.
  • 16 is a flowchart illustrating an example of an operation of providing a service corresponding to a user utterance of an intelligent server according to various embodiments.
  • 17 is a diagram for describing an example of an operation of providing a service corresponding to a user utterance of an intelligent server according to various embodiments of the present disclosure.
  • FIG. 18 is a flowchart illustrating an example of an operation of determining a specific domain according to a user input of an electronic device and an intelligent server according to various embodiments of the present disclosure.
  • FIG. 19 is a diagram illustrating an example of an operation of receiving a user input for determining a specific domain of an electronic device according to various embodiments of the present disclosure.
  • 20 is a diagram for describing an example of an operation of providing a service corresponding to a user's utterance by an intelligent server according to various embodiments.
  • 21 is a flowchart illustrating an example of an operation of determining a domain based on additional information of an electronic device and an intelligent server according to various embodiments of the present disclosure.
  • FIG. 22 is a diagram for describing an example of an operation of determining a domain based on additional information of an intelligent server according to various embodiments of the present disclosure.
  • 23 is a flowchart illustrating an example of an operation of providing a service corresponding to a user's speech by an electronic device and an intelligent server according to various embodiments of the present disclosure.
  • 24 is a diagram illustrating an example of an operation of providing a service corresponding to a user utterance of an electronic device according to various embodiments of the present disclosure.
  • 25A is a diagram illustrating an example of an operation of providing a service corresponding to a user utterance of an intelligent server according to various embodiments of the present disclosure.
  • 25B is a diagram for describing an example of an operation of providing a service corresponding to a user's speech by an intelligent server according to various embodiments of the present disclosure.
  • 26 is a block diagram of an electronic device in a network environment according to various embodiments.
  • the method for recognizing the user's voice and interpreting the intention to determine a domain corresponding to the user voice is an analog signal through a microphone.
  • a speech signal can be received and converted into a computer-readable text using an ASR (Automatic Speech Recognition) model.
  • NLU natural language understanding
  • the user's speech intention may be obtained.
  • the ASR model or the NLU model may be an artificial intelligence model.
  • the artificial intelligence model can be processed by an artificial intelligence dedicated processor designed with a hardware structure specialized for processing the artificial intelligence model. Artificial intelligence models can be acquired through learning.
  • the artificial intelligence model may be composed of a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between the operation result of a previous layer and a plurality of weights.
  • Linguistic understanding is a technology that recognizes and applies/processes human language/text, and is a natural language processing, machine translation, dialog system, question answering, and speech recognition. /Speech Recognition/Synthesis, etc.
  • FIG. 1 is a diagram illustrating an integrated intelligence system according to various embodiments of the present disclosure.
  • the integrated intelligence system 10 may include a user terminal 100, an intelligent server 200, a personalized information server 300, or a suggestion server 400.
  • the user terminal 100 is a service necessary for the user through an app (or application program) stored inside the user terminal 100 (eg, an alarm app, a message app, a photo (gallery) app, etc.) Can provide.
  • the user terminal 100 may run and operate other apps through an intelligent app (or a voice recognition app) stored in the user terminal 100.
  • an intelligent app or a voice recognition app
  • a user input for executing the other app and executing an operation may be received.
  • the user input may be received through, for example, a physical button, a touch pad, a voice input, or a remote input.
  • the user terminal 100 may correspond to various terminal devices (or electronic devices) capable of connecting to the Internet, such as a mobile phone, a smart phone, a personal digital assistant (PDA), or a notebook computer.
  • PDA personal digital assistant
  • the user terminal 100 may receive a user's utterance as a user input.
  • the user terminal 100 may receive a user's utterance and generate a command for operating an app based on the user's utterance. Accordingly, the user terminal 100 may operate the app by using the command.
  • the intelligent server 200 may receive a user voice input from the user terminal 100 through a communication network and change it to text data. In another embodiment, the intelligent server 200 may generate (or select) a path rule based on the text data.
  • the pass rule may include information on an action (or operation) for performing a function of the app or information on a parameter required to execute the operation. In addition, the pass rule may include an order of the operation of the app.
  • the user terminal 100 may receive the pass rule, select an app according to the pass rule, and execute an operation included in the pass rule in the selected app.
  • the term "path rule" may generally mean a sequence of states for an electronic device to perform a task requested by a user, but is not limited thereto.
  • the pass rule may include information on the sequence of states.
  • the task may be, for example, any action that an intelligent app can provide.
  • the task may include creating a schedule, transmitting a photo to a desired partner, or providing weather information.
  • the user terminal 100 may perform the task by sequentially having at least one or more states (eg, an operation state of the user terminal 100).
  • the pass rule may be provided or generated by an artificial intelligent (AI) system.
  • the artificial intelligence system may be a rule-based system, or a neural network-based system (e.g., a feedforward neural network (FNN)), a recurrent neural network (RNN). It may be ))). Or it may be a combination of the above or another artificial intelligence system.
  • the pass rule may be selected from a set of predefined pass rules, or may be generated in real time in response to a user request.
  • the artificial intelligence system may select at least a pass rule from among a plurality of predefined pass rules, or may dynamically (or in real time) generate a pass rule.
  • the user terminal 100 may use a hybrid system to provide a pass rule.
  • the user terminal 100 may execute the operation and display a screen corresponding to the state of the user terminal 100 that executed the operation on the display.
  • the user terminal 100 may execute the operation and may not display the result of performing the operation on the display.
  • the user terminal 100 may perform a plurality of operations, for example, and display only partial results of the plurality of operations on the display.
  • the user terminal 100 may, for example, display only the result of executing the last sequence of operations on the display.
  • the user terminal 100 may receive a user's input and display a result of executing the operation on a display.
  • the personalization information server 300 may include a database in which user information is stored.
  • the personalization information server 300 may receive user information (eg, context information, app execution, etc.) from the user terminal 100 and store it in the database.
  • the intelligent server 200 may be used when receiving the user information from the personalization information server 300 through a communication network and generating a pass rule for a user input.
  • the user terminal 100 may receive user information from the personalization information server 300 through a communication network and use it as information for managing a database.
  • the proposal server 400 may include a database in which information on a function to be introduced or a function to be provided is stored in the terminal.
  • the proposal server 400 may include a database of functions that can be used by the user by receiving user information of the user terminal 100 from the personalization information server 300.
  • the user terminal 100 may receive information on the function to be provided from the proposal server 400 through a communication network, and provide the information to the user.
  • FIG. 2 is a block diagram showing a user terminal of an integrated intelligence system according to an embodiment of the present invention.
  • the user terminal 100 may include an input module 110, a display 120, a speaker 130, a memory 140, or a processor 150.
  • the user terminal 100 may further include a housing, and components of the user terminal 100 may be mounted inside the housing or on the housing.
  • the user terminal 100 may further include a communication circuit located inside the housing.
  • the user terminal 100 may transmit and receive data (or information) with an external server (eg, the intelligent server 200) through the communication circuit.
  • an external server eg, the intelligent server 200
  • the input module 110 may receive a user input from a user.
  • the input module 110 may receive a user input from a connected external device (eg, a keyboard or a headset).
  • the input module 110 may include a touch screen (eg, a touch screen display) coupled to the display 120.
  • the input module 110 may include a hardware key (or a physical key) located in the user terminal 100 (or the housing of the user terminal 100).
  • the input module 110 may include a microphone capable of receiving a user's speech as a voice signal.
  • the input module 110 may include a speech input system, and receive a user's speech as a voice signal through the speech input system.
  • the microphone may be exposed, for example, through a portion of the housing (eg, a first portion).
  • the display 120 may display an image or video, and/or an execution screen of an application.
  • the display 120 may display a graphic user interface (GUI) of an app.
  • GUI graphic user interface
  • the display 120 may be exposed through a portion (eg, a second portion) of the housing.
  • the speaker 130 may output an audio signal.
  • the speaker 130 may output a voice signal generated inside the user terminal 100 to the outside.
  • the speaker 130 may be exposed through a portion of the housing (eg, a third portion).
  • the memory 140 may store a plurality of apps (or application programs) 141 and 143.
  • the plurality of apps 141 and 143 may be, for example, programs for performing a function corresponding to a user input.
  • the memory 140 may store the intelligent agent 145, the execution manager module 147, or the intelligent service module 149.
  • the intelligent agent 145, the execution manager module 147, and the intelligent service module 149 are, for example, a framework (or application framework) for processing a received user input (eg, user utterance). (application framework)).
  • the memory 140 may include a database capable of storing information necessary to recognize a user input.
  • the memory 140 may include a log database capable of storing log information.
  • the memory 140 may include a persona database capable of storing user information.
  • the memory 140 may store a plurality of apps 141 and 143, and the plurality of apps 141 and 143 may be loaded and operated.
  • a plurality of apps 141 and 143 stored in the memory 140 may be loaded and operated by the execution manager module 147.
  • the plurality of apps 141 and 143 may include execution service modules 141a and 143a that perform functions.
  • the plurality of apps 141 and 143 may execute a plurality of operations (eg, a sequence of states) 141b and 143b through the execution service modules 141a and 143a in order to perform a function.
  • the execution service modules 141a and 143a are activated by the execution manager module 147 and may execute a plurality of operations 141b and 143b.
  • an execution status screen according to the execution of the operations 141b and 143b may be displayed on the display 120.
  • the execution status screen may be, for example, a screen in which the operations 141b and 143b are completed.
  • the execution status screen may be, for example, a screen of a state in which execution of the operations 141b and 143b is stopped (partial landing) (for example, when a parameter required for the operations 141b and 143b is not input). .
  • the execution service modules 141a and 143a may execute operations 141b and 143b according to a pass rule.
  • the execution service modules 141a and 143a are activated by the execution manager module 147, receive an execution request from the execution manager module 147 according to the pass rule, and operate according to the execution request (141b). , 143b), the functions of the apps 141 and 143 can be executed.
  • the execution service modules 141a and 143a may transmit completion information to the execution manager module 147.
  • the plurality of operations 141b and 143b may be sequentially executed.
  • execution of one operation eg, operation 1 of the first app 141, operation 1 of the second app 143
  • the execution service modules 141a and 143a perform the next operation (eg, the first app 141).
  • Operation 2 and operation 2) of the second app 143 may be opened, and completion information may be transmitted to the execution manager module 147.
  • opening an arbitrary operation may be understood as transitioning an arbitrary operation to an executable state or preparing to execute an arbitrary operation. In other words, if an arbitrary operation is not open, the corresponding operation cannot be executed.
  • the execution manager module 147 may transmit an execution request for the next operation (eg, operation 2 of the first app 141 and operation 2 of the second app 143) to the execution service module. .
  • the plurality of apps 141 and 143 may be sequentially executed. For example, when the execution of the last operation of the first app 141 (for example, operation 3 of the first app 141) is completed and the completion information is received, the execution manager module 147 is the second app 143 The execution request of the first operation (for example, operation 1 of the second app 143) of may be transmitted to the execution service 143a.
  • a result screen according to the execution of each of the executed plurality of operations 141b and 143b is displayed on the display 120. Can be displayed. According to an embodiment, only a part of a plurality of result screens according to the execution of the executed plurality of operations 141b and 143b may be displayed on the display 120.
  • the memory 140 may store an intelligent app (eg, a voice recognition app) linked with the intelligent agent 145.
  • the app linked with the intelligent agent 145 may receive and process the user's utterance as a voice signal.
  • an app linked with the intelligent agent 145 may be operated by a specific input input through the input module 110 (eg, input through a hardware key, input through a touch screen, and a specific voice input). I can.
  • the intelligent agent 145, the execution manager module 147, or the intelligent service module 149 stored in the memory 140 may be executed by the processor 150.
  • the functions of the intelligent agent 145, the execution manager module 147, or the intelligent service module 149 may be implemented by the processor 150.
  • the functions of the intelligent agent 145, the execution manager module 147, and the intelligent service module 149 will be described as operations of the processor 150.
  • the intelligent agent 145, the execution manager module 147, or the intelligent service module 149 stored in the memory 140 may be implemented in hardware as well as software.
  • the processor 150 may control the overall operation of the user terminal 100.
  • the processor 150 may control the input module 110 to receive a user input.
  • the processor 150 may display an image by controlling the display 120.
  • the processor 150 may control the speaker 130 to output an audio signal.
  • the processor 150 may control the memory 140 to execute a program and load or store necessary information.
  • the processor 150 may execute the intelligent agent 145, the execution manager module 147, or the intelligent service module 149 stored in the memory 140. Accordingly, the processor 150 may implement the functions of the intelligent agent 145, the execution manager module 147, or the intelligent service module 149.
  • the processor 150 may execute the intelligent agent 145 to generate a command for operating the app based on a voice signal received as a user input.
  • the processor 150 may execute the execution manager module 147 to execute the apps 141 and 143 stored in the memory 140 according to the generated command.
  • the processor 150 may execute the intelligent service module 149 to manage user information, and may process a user input using the user information.
  • the processor 150 may execute the intelligent agent 145 to transmit the user input received through the input module 110 to the intelligent server 200 and process the user input through the intelligent server 200.
  • the processor 150 may execute the intelligent agent 145 to pre-process the user input before transmitting the user input to the intelligent server 200.
  • the intelligent agent 145 includes an adaptive echo canceller (AEC) module, a noise suppression (NS) module, and an end-point detection module. detection) (EPD) module or automatic gain control (AGC) module.
  • AEC adaptive echo canceller
  • NS noise suppression
  • AGC automatic gain control
  • the adaptive echo cancellation unit may remove an echo included in the user input.
  • the noise suppression module may suppress background noise included in the user input.
  • the end point detection module may detect an end point of a user's voice included in the user input, and use the detected end point to find a portion of the user's voice.
  • the automatic gain control module may recognize the user input and adjust the volume of the user input so as to be suitable for processing the recognized user input.
  • the processor 150 may execute all of the preprocessing configurations for performance, but in another embodiment, the processor 150 may execute some of the preprocessing configurations to operate at low power.
  • the intelligent agent 145 may execute a wake up recognition module stored in the memory 140 to recognize a user's call. Accordingly, the processor 150 may recognize a user's wake-up command through the wake-up recognition module, and when the wake-up command is received, execute the intelligent agent 145 for receiving a user input. .
  • the wakeup recognition module may be implemented with a low power processor (eg, a processor included in an audio codec). According to an embodiment, the processor 150 may execute the intelligent agent 145 when receiving a user input through a hardware key.
  • an intelligent app eg, a voice recognition app linked with the intelligent agent 145 may be executed.
  • the intelligent agent 145 may include a voice recognition module for executing a user input.
  • the processor 150 may recognize a user input for executing an operation in the app through the voice recognition module.
  • the processor 150 inputs a limited user (voice) that executes an operation such as the wakeup command in the apps 141 and 143 through the voice recognition module (e.g., when the camera app is running) Utterances such as "clicks" that are executed, etc.) can be recognized.
  • the processor 150 assists the intelligent server 200 to recognize and quickly process a user command that can be processed in the user terminal 100 through the voice recognition module.
  • a voice recognition module of the intelligent agent 145 for executing a user input may be implemented in an app processor.
  • a voice recognition module (including a voice recognition module of the wake-up module) of the intelligent agent 145 may recognize a user input using an algorithm for recognizing voice.
  • the algorithm used to recognize the speech may be at least one of, for example, a hidden markov model (HMM) algorithm, an artificial neural network (ANN) algorithm, or a dynamic time warping (DTW) algorithm.
  • HMM hidden markov model
  • ANN artificial neural network
  • DTW dynamic time warping
  • the processor 150 may execute the intelligent agent 145 to convert a user's voice input into text data. For example, the processor 150 may transmit the user's voice to the intelligent server 200 through the intelligent agent 145 and may receive text data corresponding to the user's voice from the intelligent server 200. Accordingly, the processor 150 may display the converted text data on the display 120.
  • the processor 150 may receive a pass rule from the intelligent server 200 by executing the intelligent agent 145. According to an embodiment, the processor 150 may transmit the pass rule to the execution manager module 147 through the intelligent agent 145.
  • the processor 150 executes the intelligent agent 145 and transmits the execution result log according to the pass rule received from the intelligent server 200 to the intelligent service module 149
  • the transferred execution result log may be accumulated and managed in user preference information of the persona module 149b.
  • the processor 150 executes the execution manager module 147 to receive a pass rule from the intelligent agent 145 to execute the apps 141 and 143, and the apps 141 and 143
  • the operations 141b and 143b included in the rule can be executed.
  • the processor 150 may transmit command information (eg, pass rule information) for executing the operations 141b and 143b with the apps 141 and 143 through the execution manager module 147, and the Completion information of the operations 141b and 143b may be transmitted from the apps 141 and 143.
  • command information eg, pass rule information
  • the processor 150 executes the execution manager module 147 to execute the operations 141b and 143b of the apps 141 and 143 between the intelligent agent 145 and the apps 141 and 143.
  • Command information for example, pass rule information
  • the processor 150 binds the apps 141 and 143 to be executed according to the pass rule through the execution manager module 147, and command information of the operations 141b and 143b included in the pass rule (eg: Pass rule information) may be delivered to the apps 141 and 143.
  • the processor 150 sequentially transfers the operations 141b and 143b included in the pass rule to the apps 141 and 143 through the execution manager module 147, and the operations of the apps 141 and 143 (141b, 143b) may be sequentially executed according to the pass rule.
  • the processor 150 may execute the execution manager module 147 to manage execution states of the operations 141b and 143b of the apps 141 and 143.
  • the processor 150 may receive information on the execution state of the operations 141b and 143b from the apps 141 and 143 through the execution manager module 147.
  • the execution state of the operations 141b and 143b is, for example, a stopped state (partial landing) (e.g., when a parameter required for the operations 141b and 143b is not input)
  • the processor 150 is executed.
  • Information on the stopped state may be transmitted to the intelligent agent 145 through the manager module 147.
  • the processor 150 may request the user to input necessary information (eg, parameter information) by using the received information through the intelligent agent 145.
  • the processor 150 may receive an utterance from the user through the intelligent agent 145.
  • the processor 150 may transmit information about the running apps 141 and 143 and the running state of the apps 141 and 143 to the intelligent agent 145 through the execution manager module 147.
  • the processor 150 may transmit the user utterance to the intelligent server 200 through the intelligent agent 145.
  • the processor 150 may receive parameter information of the user's speech from the intelligent server 200 through the intelligent agent 145.
  • the processor 150 may transmit the received parameter information to the execution manager module 147 through the intelligent agent 145.
  • the execution manager module 147 may change the parameters of the operations 141b and 143b to new parameters using the received parameter information.
  • the processor 150 may execute the execution manager module 147 to transmit parameter information included in the pass rule to the apps 141 and 143.
  • the execution manager module 147 may transfer parameter information included in the pass rule from one app to another app.
  • the processor 150 may receive a plurality of pass rules by executing the execution manager module 147.
  • the processor 150 may select a plurality of pass rules based on the user's utterance through the execution manager module 147. For example, the processor 150 has specified some apps 141 in which the user's utterance will execute some actions 141a through the execution manager module 147, but the other apps 143 to execute the remaining actions 143b. If not specified, the same app 141 (e.g., the Gallery app) to execute some actions 141a (e.g., the Gallery app) is launched, and different apps 143 (e.g., Messages app, Telegram app) that can execute the remaining actions (143b). ) May receive a plurality of different pass rules each executed.
  • apps 141 e.g., the Gallery app
  • different apps 143 e.g., Messages app, Telegram app
  • the processor 150 may execute the same operations 141b and 143b (eg, consecutive identical operations 141b and 143b) of the plurality of pass rules through the execution manager module 147, for example.
  • the execution manager module 147 displays a status screen on the display 120 for selecting different apps 141 and 143 respectively included in the plurality of pass rules. Can be displayed.
  • the intelligent service module 149 may include a context module 149a, a persona module 149b, or a suggestion module 149c.
  • the processor 150 may collect the current state of the apps 141 and 143 from the apps 141 and 143 by executing the context module 149a. For example, the processor 150 executes the context module 149a to receive context information indicating the current state of the apps 141 and 143, and the current state of the apps 141 and 143 through the received context information. Can be collected.
  • the processor 150 may manage personal information of a user who uses the user terminal 100 by executing the persona module 149b. For example, the processor 150 executes the persona module 149b to collect usage information and execution results of the user terminal 100, and use the collected usage information and execution results of the user terminal 100 You can manage your personal information.
  • the processor 150 may predict a user's intention by executing the suggestion module 149c and recommend a command to the user based on the user's intention. For example, the processor 150 may execute the suggestion module 149c to recommend a command to the user according to the user's current state (eg, time, place, situation, app).
  • the user's current state eg, time, place, situation, app.
  • FIG. 3 is a diagram illustrating execution of an intelligent app of a user terminal according to an embodiment of the present invention.
  • the user terminal 100 receives a user input and executes an intelligent app (eg, a voice recognition app) linked with the intelligent agent 145.
  • an intelligent app eg, a voice recognition app
  • the user terminal 100 may execute an intelligent app for recognizing voice through the hardware key 112.
  • the user terminal 100 may display a user interface (UI) 121 of an intelligent app on the display 120 when receiving a user input through the hardware key 112.
  • UI user interface
  • the user may touch the voice recognition button 121a on the UI 121 of the intelligent app to input a voice 111b while the UI 121 of the intelligent app is displayed on the display 120 .
  • the user may input a voice 120b by continuously pressing the hardware key 112 to input a voice 120b.
  • the user terminal 100 may execute an intelligent app for recognizing voice through the microphone 111.
  • the user terminal 100 displays the UI 121 of the intelligent app on the display 120 when a specified voice (eg, wake up!) is input 111a through the microphone 111 can do.
  • a specified voice eg, wake up
  • FIG. 4 is a block diagram showing an intelligent server of an integrated intelligent system according to an embodiment of the present invention.
  • the intelligent server 200 includes an automatic speech recognition (ASR) module 210, a natural language understanding (NLU) module 220, and a path planner module. 230, a dialog manager (DM) module 240, a natural language generator (NLG) module 250 or a text to speech (TTS) module 260 can do.
  • the intelligent server 200 may include a communication circuit, a memory, and a processor.
  • the processor executes a command stored in the memory to perform automatic speech recognition module 210, natural language understanding module 220, pass planner module 230, conversation manager module 240, natural language generation module 250, and text-to-speech conversion.
  • the module 260 can be driven.
  • the intelligent server 200 may transmit and receive data (or information) with an external electronic device (eg, the user terminal 100) through the communication circuit.
  • the natural language understanding module 220 or the path planner module 230 of the intelligent server 200 may generate a path rule.
  • the automatic speech recognition (ASR) module 210 may convert a user input received from the user terminal 100 into text data.
  • the automatic speech recognition module 210 may convert a user input received from the user terminal 100 into text data.
  • the automatic speech recognition module 210 may include a speech recognition module.
  • the speech recognition module may include an acoustic model and a language model.
  • the acoustic model may include information related to speech
  • the language model may include information on a combination of unit phoneme information and unit phoneme information.
  • the speech recognition module may convert user speech into text data using information related to speech and information on unit phoneme information.
  • the information on the acoustic model and the language model may be stored in, for example, an automatic speech recognition database (ASR DB) 211.
  • ASR DB automatic speech recognition database
  • the natural language understanding module 220 may determine user intention by performing syntactic analysis or semantic analysis.
  • the grammatical analysis may divide the user input into grammatical units (eg, words, phrases, morphemes, etc.), and determine which grammatical elements the divided units have.
  • the semantic analysis may be performed using semantic matching, rule matching, formula matching, and the like. Accordingly, the natural language understanding module 220 may obtain a domain, an intent, or a parameter (or a slot) required to express the intent in which the user input is.
  • the natural language understanding module 220 uses a matching rule divided into a domain, an intent, and a parameter (or a slot) necessary to determine the intent.
  • the intention and parameters of the can be determined.
  • the one domain e.g., alarm
  • the one intention is a plurality of parameters (e.g., time, number of repetitions, alarm sound). Etc.).
  • the plurality of rules may include, for example, one or more essential element parameters.
  • the matching rule may be stored in a natural language understanding database (NLU DB) 221.
  • the natural language understanding module 220 grasps the meaning of the word extracted from the user input by using linguistic features (eg, grammatical elements) such as morphemes and phrases, and determines the meaning of the identified word as a domain. And matching the intention to determine the user's intention. For example, the natural language understanding module 220 may determine the user intention by calculating how many words extracted from the user input are included in each domain and intention. According to an embodiment, the natural language understanding module 220 may determine a parameter of a user input using a word that is a basis for grasping the intention. According to an embodiment, the natural language understanding module 220 may determine the user's intention by using the natural language recognition database 221 in which linguistic features for determining the intention of the user input are stored.
  • linguistic features eg, grammatical elements
  • morphemes and phrases e.g., morphemes and phrases
  • the natural language understanding module 220 may determine the user's intention using a personal language model (PLM). For example, the natural language understanding module 220 may determine the user's intention using personalized information (eg, a contact list, a music list).
  • PLM personal language model
  • the personalized language model may be stored, for example, in the natural language recognition database 221.
  • not only the natural language understanding module 220 but also the automatic speech recognition module 210 may recognize a user's voice by referring to the personalized language model stored in the natural language recognition database 221.
  • the natural language understanding module 220 may generate a pass rule based on an intention and a parameter of a user input. For example, the natural language understanding module 220 may select an app to be executed based on the intention of a user input and determine an operation to be performed in the selected app. The box salmon understanding module 220 may generate a pass rule by determining a parameter corresponding to the determined operation. According to an embodiment, the pass rule generated by the natural language understanding module 220 includes information on an app to be executed, an operation to be executed in the app (eg, at least one or more states), and parameters required to execute the operation. Can include.
  • the natural language understanding module 220 may generate one pass rule or a plurality of pass rules based on an intention and parameter of a user input. For example, the natural language understanding module 220 receives a pass rule set corresponding to the user terminal 100 from the pass planner module 230, maps the intention and parameters of the user input to the received pass rule set to pass You can decide the rules.
  • the natural language understanding module 220 determines an app to be executed, an action to be executed in the app, and a parameter required to execute the action based on the intention and parameter of a user input, and determines one pass rule or a plurality of passes.
  • the natural language understanding module 220 uses information from the user terminal 100 to determine the app to be executed and the action to be executed in the app in the form of an ontology or a graph model according to the intention of the user input. You can create pass rules by arranging them.
  • the generated path rule may be stored in, for example, a path rule database (PR DB) 231 through the path planner module 230.
  • the generated pass rule may be added to the pass rule set of the database 231.
  • the natural language understanding module 220 may select at least one pass rule from among a plurality of generated pass rules. For example, the natural language understanding module 220 may select an optimal pass rule for the plurality of pass rules. For another example, the natural language understanding module 220 may select a plurality of pass rules when only some motions are specified based on the user's speech. The natural language understanding module 220 may determine one of the plurality of pass rules according to an additional input from the user.
  • the natural language understanding module 220 may transmit a pass rule to the user terminal 100 in response to a request for a user input.
  • the natural language understanding module 220 may transmit one pass rule corresponding to a user input to the user terminal 100.
  • the natural language understanding module 220 may transmit a plurality of pass rules corresponding to a user input to the user terminal 100. The plurality of pass rules may be generated by the natural language understanding module 220 when only some motions are specified based on, for example, user speech.
  • the pass planner module 230 may select at least one pass rule from among a plurality of pass rules.
  • the pass planner module 230 may transmit a pass rule set including a plurality of pass rules to the natural language understanding module 220.
  • the plurality of pass rules of the pass rule set may be stored in the form of a table in the pass rule database 231 connected to the pass planner module 230.
  • the pass planner module 230 transmits a pass rule set corresponding to information (eg, OS information, app information) of the user terminal 100 received from the intelligent agent 145 to the natural language understanding module 220. I can.
  • the table stored in the pass rule database 231 may be stored for each domain or domain version.
  • the pass planner module 230 may select one pass rule or a plurality of pass rules from the pass rule set and transmit the selection to the natural language understanding module 220.
  • the pass planner module 230 matches a user's intention and parameters with a pass rule set corresponding to the user terminal 100 to select one pass rule or a plurality of pass rules, and the natural language understanding module 220 Can be delivered to.
  • the pass planner module 230 may generate one pass rule or a plurality of pass rules using user intentions and parameters. For example, the pass planner module 230 may generate one pass rule or a plurality of pass rules by determining an app to be executed and an operation to be executed in the app based on user intention and parameters. According to an embodiment, the pass planner module 230 may store the generated pass rule in the pass rule database 231.
  • the pass planner module 230 may store the pass rule generated by the natural language understanding module 220 in the pass rule database 231.
  • the generated pass rule may be added to a pass rule set stored in the pass rule database 231.
  • a table stored in the pass rule database 231 may include a plurality of pass rules or a plurality of pass rule sets.
  • a plurality of pass rules or a plurality of pass rule sets may reflect the type, version, type, or characteristic of a device that performs each pass rule.
  • the conversation manager module 240 may determine whether the user's intention identified by the natural language understanding module 220 is clear. For example, the conversation manager module 240 may determine whether the user's intention is clear based on whether the parameter information is insufficient. The conversation manager module 240 may determine whether a parameter identified by the natural language understanding module 220 is sufficient to perform the task. According to an embodiment, when the intention of the user is not clear, the conversation manager module 240 may perform a feedback requesting necessary information from the user. For example, the conversation manager module 240 may perform feedback requesting information on a parameter for identifying a user's intention.
  • the conversation manager module 240 may include a content provider module.
  • the content providing module may generate a result of performing a task corresponding to a user input when an operation can be performed based on the intention and parameters identified by the natural language understanding module 220.
  • the conversation manager module 240 may transmit the result generated by the content providing module to the user terminal 100 in response to a user input.
  • the natural language generation module (NLG) 250 may change designated information into a text format.
  • the information changed in the text form may be in the form of natural language speech.
  • the designated information may be, for example, information for an additional input, information for guiding completion of an operation corresponding to a user input, or information for guiding an additional input by a user (eg, feedback information for a user input).
  • the information changed in the text form may be transmitted to the user terminal 100 and displayed on the display 120, or may be transmitted to the text-to-speech module 260 to be changed into a voice form.
  • the text-to-speech module 260 may change information in text form into information in voice form.
  • the text-to-speech module 260 may receive information in text form from the natural language generation module 250, change the text form information into voice form information, and transmit it to the user terminal 100.
  • the user terminal 100 may output the audio information to the speaker 130.
  • the natural language understanding module 220, the pass planner module 230, and the conversation manager module 240 may be implemented as one module.
  • the natural language understanding module 220, the pass planner module 230, and the conversation manager module 240 are implemented as one module to determine the user's intention and parameters, and correspond to the determined user's intention and parameters.
  • Responses eg pass rules
  • the generated response may be transmitted to the user terminal 100.
  • FIG. 5 is a diagram illustrating a method of generating a path rule of a path planner module according to an embodiment of the present invention.
  • the natural language understanding module 220 may classify the function of an app into any one operation (eg, state A to state F) and store it in the pass rule database 231.
  • the natural language understanding module 220 includes a plurality of pass rules (A-B1-C1, A-B1-C2, A-B1-C3-DF, A-) divided into any one action (eg, state).
  • the pass rule set including B1-C3-DEF) may be stored in the pass rule database 231.
  • the pass rule database 231 of the pass planner module 230 may store a pass rule set for performing an app function.
  • the pass rule set may include a plurality of pass rules including a plurality of operations (eg, a sequence of states).
  • operations executed according to parameters input to each of the plurality of operations may be sequentially arranged.
  • the plurality of pass rules may be configured in the form of an ontology or a graph model and stored in the pass rule database 231.
  • the natural language understanding module 220 includes the plurality of pass rules (A-B1-C1, A-B1-C2, A-B1-C3-DF, A-) corresponding to the intention and parameter of a user input.
  • B1-C3-DEF can select the optimal pass rule (A-B1-C3-DF).
  • the natural language understanding module 220 may transmit a plurality of rules to the user terminal 100 when there is no pass rule perfectly matching the user input. For example, the natural language understanding module 220 may select a pass rule (eg, A-B1) partially corresponding to the user input.
  • the natural language understanding module 220 includes one or more pass rules (eg, A-B1-C1, A-B1-C2, A-B1-C3) including pass rules (eg A-B1) partially corresponding to user input.
  • -DF, A-B1-C3-DEF can be selected and delivered to the user terminal 100.
  • the natural language understanding module 220 may select one of a plurality of pass rules based on an additional input of the user terminal 100 and transmit the selected one pass rule to the user terminal 100.
  • the natural language understanding module 220 includes a plurality of pass rules (eg, A-B1-C1, A-B1) according to a user input additionally input from the user terminal 100 (eg, an input for selecting C3).
  • One pass rule eg, A-B1-C3-DF
  • A-B1-C3-DF among -C2, A-B1-C3-DF, A-B1-C3-DEF
  • the natural language understanding module 220 includes the user's intention corresponding to the user input (eg, input for selecting C3) additionally input to the user terminal 100 through the natural language understanding module 220
  • a parameter may be determined, and the determined user's intention or parameter may be transmitted to the user terminal 100.
  • User terminal 100 based on the transmitted intention or the parameter, a plurality of pass rules (e.g. A-B1-C1, A-B1-C2, A-B1-C3-DF, A-B1-C3- DEF), one of the pass rules (eg A-B1-C3-DF) can be selected.
  • a plurality of pass rules e.g. A-B1-C1, A-B1-C2, A-B1-C3-DF, A-B1-C3- DEF
  • one of the pass rules eg A-B1-C3-DF
  • the user terminal 100 may complete the operation of the apps 141 and 143 according to the selected one pass rule.
  • the natural language understanding module 220 may generate a pass rule partially corresponding to the received user input. For example, the natural language understanding module 220 may transmit the partially corresponding pass rule to the intelligent agent 145.
  • the processor 150 may execute the intelligent agent 145 to receive the pass rule and transmit the partially corresponding pass rule to the execution manager module 147.
  • the processor 150 may execute the first app 141 through the execution manager module 147 according to the pass rule.
  • the processor 150 may transmit information on insufficient parameters to the intelligent agent 145 while executing the first app 141 through the execution manager module 147.
  • the processor 150 may request an additional input from the user by using the information on the insufficient parameter through the intelligent agent 145.
  • the processor 150 may transmit the user input to the intelligent server 200 for processing.
  • the natural language understanding module 220 may generate an added pass rule based on the additionally input intention and parameter information of the user input and transmit it to the intelligent agent 145.
  • the processor 150 may execute the second app 143 by transmitting the pass rule to the execution manager module 147 through the intelligent agent 145.
  • the natural language understanding module 220 may transmit a user information request to the personalized information server 300.
  • the personalization information server 300 may transmit information of a user who has entered a user input stored in the persona database to the natural language understanding module 220.
  • the natural language understanding module 220 may use the user information to select a pass rule corresponding to a user input in which some operations are omitted. Accordingly, the natural language understanding module 220 requests the missing information to receive additional input, even if a user input in which some information is missing is received by the intelligent server 200, or a pass rule corresponding to the user input by using user information. Can be determined.
  • Table 1 attached below may show an exemplary form of a pass rule related to a task requested by a user according to an embodiment.
  • Path rule ID State parameter Gallery_101 pictureView(25) NULL searchView(26) NULL searchViewResult(27) Location,time SearchEmptySelectedView(28) NULL SearchSelectedView(29) ContentType,selectall CrossShare(30) anaphora
  • a pass rule generated or selected by an intelligent server (intelligent server 200 of FIG. 1) according to a user's speech is at least one state (25, 26). , 27, 28, 29 or 30).
  • the at least one state e.g., one operating state of the terminal
  • the at least one state is a photo application execution (PicturesView) 25, a photo search function execution (SearchView) 26, and a search result display screen output (SearchViewResult) ( 27), Displaying a non-selected photo search result (SearchEmptySelectedView) (28), Displaying a search result display of at least one photo selected (SearchSelectedView) (29) or displaying a shared application selection screen (CrossShare) (30) ).
  • the parameter information of the pass rule may correspond to at least one state.
  • the at least one photo may be included in the selected search result display screen output 29 state.
  • the intelligent system may be an example of the aforementioned integrated intelligence system. Accordingly, various embodiments of the above-described integrated intelligence system may be applied mutatis mutandis to various embodiments of the intelligent system described below. For example, various modules (eg, natural language understanding module, etc.) included in the intelligent server of the above-described integrated intelligence system may be included in various embodiments of the intelligent system described below.
  • modules eg, natural language understanding module, etc.
  • the intelligent system may provide various services corresponding to user utterances obtained from users based on various domains.
  • the intelligent system may obtain a user utterance, allow the user utterance acquired by a specific domain to be processed, and display information returned from a specific domain on a display of a device to be provided with a service.
  • the domain has only the same name as the domain in the natural language understanding module 220 described above, but has a different configuration.
  • a domain may mean a unit for providing information (eg, Deeplink, UI, and/or UX) corresponding to a user's speech in an intelligent system.
  • the domain may correspond to, for example, a manufactured application, and may provide application-related information (eg, Deeplink) in response to a user's speech.
  • application-related information eg, Deeplink
  • a minimum unit program or application for processing user speech to provide information to access at least one function or at least one service of an application may be defined as a domain.
  • domains may also be named capsules. The capsule will be described later in detail in the description related to FIG. 7.
  • there may be an external server interworking with the intelligent system and the domain may be stored in the external server.
  • an external server can perform the same operation as the domain.
  • the intelligent server may transmit the received user utterance to the external server, and the intelligent server may receive corresponding information processed by the domain in the external server and forward it to the electronic device.
  • domains may be classified into categories in an intelligent system. This will be described in detail later in FIG. 8.
  • FIG. 6 is a diagram illustrating an example of a configuration of an intelligent system according to various embodiments.
  • the intelligent system includes an electronic device 100, an intelligent server 200, a developer server 602, 603, 604, 605, and an external electronic device 601, as shown in FIG. 6. can do.
  • the electronic device 100 may acquire various pieces of information for providing a voice recognition service.
  • a voice service providing application eg, Bixby
  • the electronic device 100 may receive an utterance (user utterance) from a user based on the voice service application.
  • the electronic device 100 may acquire various additional information while a voice service providing application (or an intelligent app or a voice recognition app) is being executed.
  • Various additional information may include context information and/or user information.
  • the context information may include information on an application or program executed in the electronic device 100, information on a current location, and the like.
  • the user information may include a user's electronic device 100 usage pattern (eg, application usage pattern, etc.), user's personal information (eg age, etc.).
  • the electronic device 100 may transmit the received user utterance to the intelligent server 200. Also, for example, the electronic device 100 may provide the acquired additional information to the intelligent server 200.
  • the electronic device 100 receives specific information from the intelligent server 200 in response to a result of user speech processing by the intelligent server 200, and provides a service to the user based on the specific information.
  • the electronic device 100 may display specific information received on the display (eg, UI/UX including content corresponding to a user utterance).
  • the electronic device 100 may provide a service for controlling at least one external electronic device 601 based on specific information.
  • At least one external electronic device 601 is connected to the electronic device 100 for communication based on various types of communication schemes (eg, Wifi, etc.), and control received from the electronic device 100 It may be a target device controlled by a signal. In other words, the external electronic device 601 may be controlled by the electronic device 100 based on specific information acquired by the user's speech.
  • the external electronic device 601 is an IOT device and may be a device managed in a specific cloud (eg, a smart home cloud) together with the electronic device 100.
  • the intelligent server 200 will be described.
  • the intelligent server 200 may process the user utterance received from the electronic device 100 to obtain information for providing a service corresponding to the user utterance.
  • the intelligent server 200 may refer to additional information received along with the user utterance received from the electronic device 100 to process the user utterance.
  • the intelligent server 200 may cause user utterances to be processed by the domain.
  • the intelligent server 200 allows user utterances to be processed by a capsule implemented in the intelligent server 200 to obtain processing result information from the capsule, or to be processed by an external server linked to the intelligent server 200 So that the processing result information can be obtained from an external server.
  • the operation of the capsule and the external server will be described in detail later.
  • the intelligent server 200 may obtain a domain for processing user utterances from the developer servers 602, 603, 604, and 605.
  • the intelligent server 200 may obtain a capsule for processing user utterances from the developer servers 602, 603, 604, and 605.
  • a developer of the developer servers 602, 603, 604, 605 may register a capsule with the intelligent server 200.
  • the intelligent server 200 allows a user interface for registering capsules to be displayed on the developer servers 602, 603, 604, 605 when the developer servers 602, 603, 604, 605 are connected to the intelligent server 200. And the developer can register the capsule on the displayed user interface.
  • the intelligent server 200 may store a domain created by the intelligent server 200 by itself.
  • the plurality of developer servers 602, 603, 604, and 605 may register domains for processing user utterances in the intelligent server 200.
  • a capsule for processing user utterances is produced in the developer server 602, 603, 604, 605, and the developer server 602, 603, 604, 605 (or capsule developer) is an intelligent server 200 You can register the capsules manufactured in.
  • the registration procedure may be performed as the developer server 602, 603, 604, 605 directly connects to the intelligent server 200 and registers the capsule in the connected intelligent server 200, but is not limited to what is described.
  • a registration server may be provided, and capsules may be registered in the registration server, and capsules registered from the registration server to the intelligent server 200 may be provided.
  • At least one function provided by capsules manufactured by each of the plurality of developer servers 602, 603, 604, 605 may be different from each other or may be similar.
  • a first capsule produced by a first developer server provides a first function (eg, a music-related function)
  • a second capsule produced by a second developer server has a second function (eg, a music related function).
  • the Nth capsule produced in the Nth developer server may provide an Nth function (eg, an image related function).
  • various services corresponding to user utterances may be provided to users.
  • each capsule may provide a plurality of functions related to each other.
  • the first capsule may provide a 1-1 function (eg, a music playback function) and a 1-2 function (eg, a music list providing function) related to each other. It may be assigned to a specific category according to a function provided by the capsule, and accordingly, may be assigned to a plurality of categories, which will be described later in the description of the intelligent server 200.
  • the intelligent server 200 may generate specific information for providing a service corresponding to the user utterance by processing the user utterance and additional information received from the electronic device 100.
  • FIG. 7 is a diagram for describing an example of a configuration of an intelligent server 200 and an example of external servers 719 and 720 linked to the intelligent server 200 according to various embodiments.
  • Each module implemented in the intelligent server 200 may be a program coded to perform a specific operation.
  • the processor of the intelligent server 200 may be set to perform a specific operation of each module.
  • FIG. 8 is a diagram illustrating an example of a resolver selection operation, a category selection operation, and a domain selection operation of the intelligent server 200 according to various embodiments of the present disclosure.
  • FIG. 9 is a diagram for describing an utterance list that can be processed in a category according to various embodiments.
  • the intelligent server 200 includes an ASR module 701, a name dispatcher module 702, a resolver selection module 704, a plurality of resolvers 705 and 708, and a plurality of domain selection modules.
  • Natural language understanding module 703 including 711, pass planner module 712, NLG generation module 713, TTS module 714, category change module 715, domain change module 716, and a plurality of Capsules 717 and 718 may be included.
  • the ASR module 701 is like the above-described ASR module 210
  • the pass planner module 712 is like the above-described pass planner module 230
  • the NLG generation module 713 is described above.
  • the TTS module 714 can perform a similar operation as the TTS module 260 described above, and thus, redundant descriptions related to each module will be omitted.
  • the name dispatcher module 702 checks text data corresponding to the user utterance acquired by the ASR module 701, checks a specific word included in the text data, and identifies the identified specific word. It is possible to identify a domain (or capsule) that can provide a corresponding service.
  • the specific word may include a device name (eg, TV), a general noun including a content name (eg, movie name, song title), and various types of proper nouns (eg, weather).
  • the natural language understanding module 703 grammatically analyzes user speech and/or semantic analysis, confirms the user's intention, and responds to the identified user intention. You can identify the domain.
  • Modules included in the natural language understanding module 703 e.g., a resolver selection module 704, a plurality of resolvers 705, 708, and domain selection modules 711) grammatically analyze user speech (syntactic analysis). ) Or based on semantic analysis, the operation can be performed.
  • the resolver selection module 704 may select resolvers 801, 802, and 803 corresponding to the user speech (or text data corresponding to the user speech) as illustrated in FIG. 8.
  • the resolver selection module 704 responds to the received user utterance among the plurality of resolvers 801, 802, 803 based on the speech learned by each of the plurality of resolvers 801, 802, 803 You can choose a resolver to do.
  • the resolver selection module 704 may learn a model using a plurality of resolvers as classes for various user speeches, and the resolver selection module 704 may select a resolver based on the learned model.
  • each of the plurality of resolvers 801, 802, 803 is classified based on the lexical similarity (grammatical or semantic similarity) of the learned speech, or of a function (or service) related to the learned speech. They can be classified based on similarity.
  • the first resolver (eg, MediaResolver) may be learned based on a speech related to a first function (eg, media playback) (eg, wanting to be provided with the first function), and accordingly, the resolver selection module ( 704), when information related to a first function (eg, media playback) is confirmed from the user speech (or text data) according to analysis, the first resolver 801 among the plurality of resolvers 801, 802, 803 You can choose.
  • the first resolver (eg, MediaResolver) may be learned based on speech related to the second function (eg, TV media control) (eg, wanting to be provided with a second function), and accordingly, a resolver is selected. When the information related to the second function (eg, TV media control) is confirmed from the user speech (or text data) according to the analysis, the first resolver of the plurality of resolvers 801, 802, 803 801) can be selected.
  • a resolver corresponding to the received user utterance is selected from among resolvers learned with different types of utterances by the resolver selection module 704, thereby User utterances can be analyzed so that appropriate services are provided to the user.
  • a plurality of categories 811, 812, 813, and 814 may be assigned to each of the plurality of resolvers 801, 802, and 803.
  • Each of the plurality of resolvers 801, 802, and 803 may select a category corresponding to a user speech (or text data) from among the plurality of categories 811, 812, 813, and 814.
  • the selected resolver analyzes the currently received user speech based on the speech of the previously learned characteristic, and based on the analyzed result.
  • a specific category corresponding to the user's speech may be selected from among a plurality of categories. In this way, since the resolver performs an operation of selecting a category, it may be defined as a category selection module.
  • a plurality of resolvers 705 and 708 are based on a database 706 and 710 allocated to a plurality of resolvers, or a library capsule 707 and 709 for interworking with a search server (not shown).
  • User speech can be analyzed and categories can be selected.
  • the resolvers 705 and 708 check information (e.g., name information) corresponding to at least some of the user utterances from the databases 706 and 710 allocated to the resolver, and provide a function corresponding to the identified information. You can select a category that includes domains you can do.
  • the resolvers 705 and 708 link to a search server (eg, a cloud server) using the library capsules 707 and 709 included in the resolver, and user utterances from the linked search server (not shown).
  • Information eg, name information
  • the resolvers 705 and 708 may obtain a search query for a search based on a user's speech, transmit the obtained search query to a search server (not shown), and obtain a search result in response thereto. .
  • the plurality of resolvers 705 and 708 check the utterance list 900 supported by each category as shown in FIG. 9, and utterance corresponding to the user utterance (or text data). It is possible to select a category that includes.
  • a category may have information on utterances that can be processed as shown in FIG. 9.
  • utterances that can be processed in a category may correspond to functions provided by a plurality of domains included in the category. For example, in FIG. 9, when the first domain provides the first function in the corresponding category, the user utterance 901 related to the first function may be processed in the corresponding category, and may be managed as a utterance list in the corresponding category. .
  • each of the plurality of categories 811, 812, 813, and 814 may include at least one domain 821, 822, 823, 824, and 825 as shown in FIG. 8.
  • each of the plurality of domains 821, 822, 823, 824, and 825 may be classified into a plurality of categories 811, 812, 813, and 814.
  • the developer registers the domain in a specific category (or registers information on the capsule in the intelligent server 200), so that the domain is included in a specific category.
  • at least one domain having a similar function (or service) provided by a corresponding capsule (application) may be classified into the same category.
  • An operation in which at least one domain is classified into a category based on functional similarity may be performed manually when a developer registers a domain, or may be automatically performed in the intelligent server 200.
  • At least some of the plurality of categories 811, 812, 813, and 814 may include at least one domain identical to each other.
  • the first category 811 and the second category 812 may include the same third domain 823.
  • each domain When each domain is registered in the intelligent server 200, it may be included in a plurality of categories by a developer. For example, when the developer registers the third domain 823 in the intelligent server 200, the third domain 823 may be registered in the first category 811 and the second category 812. In this case, when the developer server is connected to the intelligent server 200, the intelligent server 200 may display a user interface for registering the capsule on the developer server, and the developer may select the third domain 823 on the user interface. When registering, a plurality of categories in which the third domain 823 can be registered may be displayed. The developer may select at least one category (eg, the first category 811 and the second category 812) in which a capsule is to be registered among a plurality of categories on the user interface. Accordingly, the third domain 823 (or the third capsule (not shown)) is registered in the first category 811 and the second category 812, so that the third domain 823 is the first category 811 ) And the second category 812.
  • the third domain 823 or the third capsule (
  • each domain can process and return user speech (or a function performed by the electronic device 100 based on the returned information)
  • each The domains 821, 822, 823, 824, and 825 of may be included in a plurality of categories 811, 812, 813, and 814.
  • the third domain 823 processes user speech to return information (eg, deep link) related to a first function (eg, a music playback function), and a second function (eg, a video playback function) and You can provide the return of related information (eg, deep link).
  • a first function eg, a music playback function
  • a second function eg, a video playback function
  • a first category 811 eg, music
  • a second category 812 eg: music
  • a third domain 823 may include a third domain 823.
  • each of the domain selection modules 711 may select a domain corresponding to a user speech (or text data) from among a plurality of domains included in the selected category.
  • the domain selection modules 711 are implemented for each category, and the domain selection module assigned to a category may select a specific domain from among domains included in a category based on user speech.
  • the domain selection modules 711 check functions provided by each domain, and among the identified functions, a function corresponding to a user utterance (e.g., related to the user's intention analyzed according to the user utterance) You can choose the domain you provide.
  • the category change module 715 may change from a predetermined category to another category to process user speech.
  • the domain selection modules 711 may reselect a domain for processing user utterances within the changed category.
  • the domain change module 716 may change from a predetermined domain to another domain within the same category to process user speech.
  • the plurality of domains 717 and 718 may generate information for providing a service by processing a received user utterance.
  • Each of the plurality of domains 821, 822, 823, 824, and 825 may be a capsule as shown in FIG. 8.
  • it may mean that one domain is selected and the user utterance is processed by the capsule.
  • various embodiments of the intelligent system will be described with a description of a domain.
  • a domain may be a kind of program package that generates specific information by processing a user utterance in order to provide a specific function or a specific service corresponding to a user utterance.
  • the capsule can be developed in each developer server and registered in the intelligent server, as in the description of the domain.
  • the domain receives the user utterance, analyzes the received user utterance to confirm the service the user wants to receive (or confirms the user's intention) (modeling), and the verified service It is possible to generate (UI/UX) information for providing a service (eg, visually generating the acquired information) by performing a processing operation to provide a (e.g., acquiring information on a confirmed service) (business logic).
  • UI/UX information for providing a service
  • the electronic device 100 may display content corresponding to the user's speech based on the UI/UX.
  • the domain (capsule) may perform a processing operation to provide a service corresponding to the user utterance based on information on which the user utterance is analyzed by the natural language understanding module 730 (or the NLU module 220).
  • the domain (capsule) is the user utterance information (intent, parameter) obtained by analyzing the user utterance by the natural language understanding module 730 (or NLU), information on a specific word included in the utterance (for example, : Based on song title), context information (e.g. device identification information (e.g.
  • UI/UX information for providing a service (eg, visually generating the acquired information) by (eg, obtaining information on the identified service) (business logic). For example, when the user utterance is "Change the wind power of the home air conditioner", the user utters by at least one component of the natural language understanding module 730 (for example, the resolver selection module 704) (or the NLU module 220). Is analyzed to check information on "home air conditioner” as context information indicating information on a specific word or device identification information (eg, device name), and information on "wind strength" as information on capability.
  • a specific resolver acquires information on a specific word (eg, home air conditioner) and information on capability (eg, wind strength), and based on the obtained information, the existence of a device corresponding to "home air conditioner” and "checked Whether the device can control the wind speed” can be checked through an external server (eg, a cloud server).
  • a specific word eg, home air conditioner
  • capability eg, wind strength
  • the domain acquires at least one component of the natural language understanding module 730 as described above (for example, the resolver selection module 704) (or the NLU module 220) and information analyzed by a specific resolver, and the obtained Based on the information, determine the service that the user wants to receive and perform a processing operation to provide the determined service (e.g., obtain information on the identified service) (business logic) to provide information (e.g., obtain) Generated information visually) can be created (UI/UX).
  • the service that the user wants to receive and perform a processing operation to provide the determined service e.g., obtain information on the identified service
  • business logic to provide information (e.g., obtain) Generated information visually) can be created (UI/UX).
  • the domain may perform a processing operation for providing a service to generate a deep link that allows access to a specific screen of an application for providing a service.
  • Deep linking may include a mechanism that allows access to a specific screen.
  • the electronic device 100 may display a link for accessing a specific screen of an application for providing a service based on the deep link.
  • the electronic device 100 may display a specific screen of an application.
  • the domain may communicate with an external search server to receive information on a service that a user wants to receive.
  • the domain may be trained to provide a function corresponding to the user's speech.
  • resolver Specific examples of the above-described resolver, category, and domain (capsule) may be given in Table 2 below. In Table 2 attached below, specific examples of the resolver, the category assigned to the resolver, and at least one domain assigned to the category are described.
  • the intelligent server 200 may store and manage information on a resolver, a category, and a domain as shown in Table 2 above. Also, the intelligent server 200 may provide the information to the electronic device 100 when the electronic device 100 requests the information. For example, when a voice service application is executed in the electronic device 100, and the electronic device 100 receives a request for information on at least one of a resolver, a category, or a domain of a user based on the voice service application, The electronic device 100 may request information on at least one of a resolver, a category, or a domain from the intelligent server 200.
  • the intelligent server 200 may generate a UI/UX for displaying information on at least one of a resolver, a category, or a domain and provide it to the electronic device 100.
  • the electronic device 100 may provide information on at least one of a resolver, a category, or a domain to a user by displaying the provided UI/UX.
  • the intelligent server 200 may interwork with a plurality of external servers 719 and 720.
  • the plurality of external servers 719 and 720 may perform the same operation as the capsules 717 and 718 described above.
  • the plurality of external servers 719 and 720 like the capsules 717 and 718, receive the user utterance, analyze the received user utterance, and check the service the user wants to be provided (or Confirm the intention) (modeling), perform a processing operation to provide the identified service (e.g., obtain information on the identified service) (business logic), and save the information (e.g., acquired information) to provide the service.
  • Visually generated can be created (UI/UX).
  • the description of the capsules 717 and 718 described below may also apply mutatis mutandis to the external servers 719 and 720.
  • the intelligent server 200 which will be described later, transmits the user utterance to the external servers 719 and 720 and transmits the user utterance to the external servers 719 and 720, such as the operation of transmitting the user utterance to the capsule and receiving the processing result from the capsule.
  • the processing result can be received from
  • the above-described intelligent system may be defined as a server-type system in which the electronic device 100 and the intelligent server 200 are interlocked to process user speech and provide a service.
  • the intelligent system may process user utterances and provide services by including at least some of the modules, programs, or applications implemented in the above-described intelligent server 200 in the electronic device 100.
  • the electronic device 100 may process a user utterance and provide a service by performing at least one operation that may be performed by the intelligent server 200.
  • the intelligent system when the intelligent system is implemented to perform the main operations of the intelligent server 200 described above in the electronic device 100, the on-device type intelligent system, the electronic device 100 It can be classified as a hybrid type of intelligent system implemented so that some operations of the above-described intelligent server can be performed.
  • the electronic device 100 may store information on categories to be described later and information on domains in the memory 130.
  • the electronic device 100 may provide a service corresponding to the user utterance to the user by processing the user utterance received from the user based on information on categories and domains stored in the memory 130.
  • an intelligent system may be implemented as operations of an on-device type of intelligent system or operations of a hybrid type of intelligent system.
  • an intelligent system may be implemented so that at least some of the operations of the intelligent server 200 described in the present disclosure are performed by the electronic device 100.
  • the operation of the electronic device 100 described below may be understood as being controlled to perform a corresponding operation by a processor (2620 to be described later) using at least one component of the electronic device 100, but the present invention may not be limited thereto. have.
  • instructions or computer codes that cause an operation of the electronic device 100 to be described below may be stored in the memory 140.
  • the stored instruction or computer code may cause the processor 150 to process a corresponding operation using at least one component included in the electronic device 100.
  • the electronic device 100 when receiving a user utterance, corresponds to the received user utterance based on a domain different from a predetermined domain (eg, a first capsule) (eg, a second capsule). Service can be provided.
  • a predetermined domain eg, a first capsule
  • a second capsule e.g., a second capsule
  • FIG. 10 is a flowchart 1000 illustrating an example of an operation of providing a service corresponding to a user's speech by the electronic device 100 according to various embodiments.
  • the operation of the electronic device 100 is not limited to the order of the operation of the electronic device 100 illustrated in FIG. 10, and may be performed in a different order from the illustrated order.
  • more operations are performed than the operations of the electronic device 100 illustrated in FIG. 10, or at least one operation less than the operations of the electronic device 100 illustrated in FIG. 10. This may be done.
  • FIG. 10 will be described with reference to FIG. 11.
  • FIG. 11 is a diagram illustrating an example of an operation of providing a service corresponding to a user's speech by the electronic device 100 according to various embodiments.
  • the electronic device 100 may acquire a user utterance in operation 1001.
  • the electronic device 100 may receive a user utterance in a state in which the first domain is predetermined.
  • the electronic device 100 may receive a first user utterance after a voice service providing application (eg, Bixby) 1110 is executed.
  • the electronic device 100 transmits information on the first user utterance to the intelligent server 200, and transmits processing result information corresponding to the first user utterance obtained from the domain determined based on the first user utterance to the intelligent server ( 200) and provide a service based on the processing result information.
  • the domain is determined based on the first user utterance as shown in 1102 of FIG.
  • the electronic device 100 may receive the second user utterance while the voice service providing application 1110 is being executed.
  • the electronic device 100 displays the first screen of the voice service providing application 1110 including information related to the determined domain, and the second user utterance 1111 from the user while the first screen is displayed (e.g. : "Play a song similar to this one") can be received.
  • the electronic device 100 may receive the second user utterance 1111 while the voice service providing application 1110 is running in the background.
  • the electronic device 100 may receive information corresponding to a user utterance acquired based on a domain different from the domain determined in operation 1002. For example, if the intelligent server 200 cannot process the user utterance received from the electronic device 100 in a predetermined domain, the user utterance may be processed by another domain included in the same category. Alternatively, when the intelligent server 200 cannot process the user utterance received from the electronic device 100 in a predetermined category, the user utterance may be processed by another domain included in the other category.
  • the electronic device 100 may receive result information (eg, deep link, UI/UX) of the user utterance processed by another domain of the intelligent server 200.
  • continuity of service provision for a user utterance may be improved by performing it in another domain (or a different category).
  • the user utterance is processed by another domain to receive a service.
  • the electronic device 100 may execute an operation based on information corresponding to a user utterance received in operation 1003.
  • the electronic device 100 may perform at least one operation based on result information (eg, deep link, UI/UX) of the user utterance received from the intelligent server 200.
  • result information eg, deep link, UI/UX
  • the electronic device 100 receives a deep link from the intelligent server 200 to access a specific screen (eg, a music playback screen) of a specific application (eg, Samsung Music) as shown in 1102 of FIG. Inquiry about whether to access a specific screen of a specific application (eg, display in the form of a link, or display a text inquiring whether to connect as shown in 1102 of FIG. 11).
  • a specific screen of a specific application eg, display in the form of a link, or display a text inquiring whether to connect as shown in 1102 of FIG. 11.
  • a specified function of a specific application as shown in 1103 of FIG. 11 (eg: You can display a specific screen to provide a music playback function).
  • the electronic device 100 controls other external electronic devices (eg, the external electronic device 601 of FIG. 6) (eg, IOT devices including smart TVs, smart speakers, air conditioners, etc.) based on a specific application. can do.
  • the electronic device 100 displays a specific screen of an application for controlling the external electronic device 601 and controls the external electronic device 601 from the user.
  • the electronic device 100 may control the external electronic device 601 controllable by the electronic device 100 based on an input for controlling the external electronic device 601 received from the user.
  • the electronic device 100 receives a UI/UX including content corresponding to the user utterance from the intelligent server 200 and displays the received UI/UX to provide content corresponding to the user utterance to the user. can do.
  • the electronic device 100 may provide a service corresponding to the user's utterance to the user by controlling the other external electronic device 601 through the intelligent server 200.
  • the intelligent server 200 allows the user utterance received from the electronic device 100 (for example, a speaker) to be processed in a specific domain of the intelligent server 200, and controls other external electronic devices 601 as a result of the processing. Information can be obtained.
  • the intelligent server 200 may control another external electronic device 601 based on information for controlling the other external electronic device 601 and may notify the control result to the electronic device 100.
  • the operation of the intelligent server 200 described below may be understood as being controlled so that the processor included in the intelligent server 200 performs the corresponding operation using at least one configuration of the intelligent server 200, but is limited thereto. May not be.
  • instructions or computer codes that cause an operation of the intelligent server 200 to be described below may be stored in a memory (not shown).
  • the stored instruction or computer code may cause a processor (not shown) to process a corresponding operation using at least one component included in the intelligent server 200.
  • the description of the memory 130 of the electronic device 100 or the memory 2630 to be described later is applied mutatis mutandis, and the processor (not shown) of the intelligent server 200 Since the description of the processor 150 of the electronic device 100 or the processor 2620 to be described later is applied mutatis mutandis, a duplicate description will be omitted.
  • the intelligent system provides a service corresponding to the user utterance by allowing the user utterance to be processed by another domain included in the same category as the pre-determined domain when it is impossible to process the user utterance by the predetermined domain. can do.
  • FIG. 12 is a flowchart 1200 for explaining an example of an operation of providing a service corresponding to a user's speech by the electronic device 100 and the intelligent server 200 according to various embodiments.
  • the operation of the electronic device 100 is not limited to the order of the operation of the electronic device 100 illustrated in FIG. 12, and may be performed in a different order from the illustrated order. Further, according to various embodiments, more operations are performed than operations of the electronic device 100 illustrated in FIG. 12 or at least one operation less than operations of the electronic device 100 illustrated in FIG. 12. This may be done.
  • FIG. 12 will be described with reference to FIGS. 13, 14A, and 14B.
  • FIG. 13 is a diagram illustrating an example of an operation of providing a service corresponding to a user's speech by the electronic device 100 according to various embodiments.
  • 14A is a diagram for describing an example of an operation of providing a service corresponding to a user's utterance of the intelligent server 200 according to various embodiments.
  • 14B is a diagram illustrating an example of an operation of providing a service corresponding to a user utterance of the intelligent server 200 according to various embodiments.
  • 15 is a diagram for describing an example of an operation of displaying information related to a plurality of domains corresponding to a user utterance of the electronic device 100 according to various embodiments of the present disclosure.
  • the electronic device 100 may receive the first user utterance in operation 1201.
  • the electronic device 100 may receive a first user utterance from the user while the voice service providing application is being executed as shown in 1301 of FIG. 13.
  • the electronic device 100 may transmit the first user utterance to the intelligent server 200 in operation 1202.
  • the operation of transmitting the first user utterance to the intelligent server 200 by the electronic device 100 is an operation of processing the first user utterance as information that can be transmitted through communication, and transmitting the processed information.
  • the intelligent server 200 may determine a specific category corresponding to the first user utterance in operation 1203.
  • the resolver selection module 704 selects the first resolver 801 corresponding to the received first user utterance among the plurality of resolvers 801, 802, 803 as shown in 1401 of FIG. 14A, and the first resolver 801
  • the resolver 801 may select a first category 811 corresponding to the first user utterance from among a plurality of categories 811 and 812 associated with the first resolver 801.
  • the resolver selection module 704 receives a first user utterance as shown in 1301 of FIG. 13 (for example, "show a real-time popularity chart"), and a first user utterance among a plurality of resolvers 801, 802, 803
  • the first resolver 801 learned through speech related to at least some of them eg, "popular chart”
  • the selected first resolver 801 is at least a part of the first user's utterance (for example, "Show a real-time popularity chart”) and related information (for example, "real-time popularity" among a plurality of categories 811 and 812).
  • the first resolver 801 may select a first category 811 corresponding to the received search result from among a plurality of categories 811 and 812 based on the received search result. Alternatively, the first resolver 801 may select a first category 811 corresponding to a result of semantically/grammatically analyzed user speech among a plurality of categories. Since the resolver selection module 704 and the resolvers 801, 802, and 803 have been described above, redundant descriptions related to the operations of the resolver selection module 704 and the resolvers 801, 802, and 803 will be omitted.
  • the intelligent server 200 may determine a first domain for processing the first user utterance in operation 1204.
  • the domain selection module (not shown) may select the first domain 821 from among the plurality of domains 821 and 823 included in the selected first category 811 as in 1401 of FIG. 14A. Accordingly, the first user utterance may be transmitted to the selected first domain 821. Since the domain selection module has been described above, redundant descriptions related to the operation of the domain selection module will be omitted.
  • the intelligent server 200 may obtain processing result information based on the first domain in operation 1205.
  • the first domain 821 obtains a first user utterance, processes the received first user utterance, and provides information for providing a service corresponding to the first user utterance (eg: Deep link information, content information) can be generated.
  • a service corresponding to the first user utterance eg: Deep link information, content information
  • the intelligent server 200 may transmit processing result information to the electronic device 100 in operation 1206.
  • the electronic device 100 provides a service corresponding to a first user utterance (eg, "Show a real-time popularity chart") 1311 obtained from the first domain 821 from the intelligent server 200 as shown in 1302 of FIG. 13.
  • a screen 1312 of a specific application may be displayed, or an interface 1312 including specific content (eg, a real-time popularity chart) may be displayed.
  • the electronic device 100 may receive a second user utterance in operation 1207.
  • the electronic device 100 may receive the second user utterance in a state in which the first domain is predetermined. Since operation 1207 of the electronic device 100 may be performed similarly to operation 1001 of the electronic device 100 described above, a redundant description will be omitted.
  • the electronic device 100 may transmit the second user utterance to the intelligent server 200 in operation 1208.
  • the operation of transmitting the second user utterance to the intelligent server 200 by the electronic device 100 is an operation of processing the second user utterance as information in a form that can be transmitted through communication and transmitting the processed information.
  • the intelligent server 200 may check whether processing of the second user utterance is possible in the first domain determined in operation 1209.
  • the first domain 821 checks whether the second user utterance can be processed, and as a result of the confirmation, processing is impossible. May be notified to another configuration (eg, domain change module 716).
  • the first domain 821 may inform another configuration (eg, the domain change module 716) that processing of the second user's utterance is impossible. Accordingly, the intelligent server 200 may determine that the first domain 821 cannot process the second user utterance.
  • the intelligent server 200 may check whether processing of the second user utterance is possible in the first domain 821. For example, satisfaction of a specified condition may mean that the first domain 821 previously determined by the second user's utterance is selected again.
  • the category and domain corresponding to the second user's utterance are the same as the first domain 821 (eg, the first category 811) and domain (eg, the first domain 821). ), it can be checked whether or not processing of the second user utterance is possible by the first domain 821.
  • the intelligent server 200 confirms that at least one specified condition is satisfied based on additional information received along with the second user utterance (e.g., after determining the first domain 821), the intelligent server 200 2 A user utterance is received), and whether or not processing of a second user utterance is possible by the first domain 821 may be checked.
  • additional information e.g., after determining the first domain 821
  • the intelligent server 200 2 A user utterance is received
  • whether or not processing of a second user utterance is possible by the first domain 821 may be checked.
  • the analysis operation for the user's speech based on the additional information of the intelligent server 200 will be described in more detail later in FIGS. 21 to 23.
  • the intelligent server 200 selects a second domain different from the first domain included in the first category.
  • the domain change module 716 is in at least one other domain (eg, the third domain 823) of the first category 811 in which the first domain 821 is included. If it is confirmed that processing of the second user's utterance is possible, and when it is confirmed that processing of the second user's utterance is possible by at least one domain (e.g., the third domain 823), at least one domain (e.g.: The third domain 823) may be selected as a domain for processing the second user utterance. Accordingly, the selected domain (eg, the third domain 823) may receive the second user utterance.
  • the domain change module 716 may select a specific single domain as a domain different from a predetermined domain (eg, the first domain 821) to process the second user utterance.
  • the domain change module 716 can process the second user utterance from at least one domain 823 other than the first domain 821 of the first category 811 (not shown).
  • a score of at least one domain 823 other than the first domain 821 of the first category 811, other than that (not shown) e.g., a score indicating the degree of relevance to the second user utterance, Or, a score indicating reliability
  • the domain change module 716 may select a specific domain (eg, the third domain 823) with the highest score among at least one domain 823 (not shown).
  • the domain change module 716 can process the second user utterance from at least one domain 823 other than the first domain 821 of the first category 811 (not shown). In the case of checking, a user input for selecting a specific domain from among at least one domain 823 other than the first domain 821 of the first category 811 (not shown) may be received.
  • the intelligent server 200 transmits information on at least one domain 823 (not shown) other than the first domain 821 of the first category 811 to the electronic device 100 can do.
  • the intelligent server 200 displays a plurality of domains 823 (other than that (not shown)) based on the NLU/TTS module and generates a UI/UX for receiving a user's selection input
  • Information on UI/UX may be transmitted to the electronic device 100.
  • the electronic device 100 displays information on at least one domain 823 (other than that (not shown)) based on the received information (eg, displays a UI on the screen of a voice service providing application), and a specific domain ( Example: A user's selection for the third domain 823) may be input.
  • the electronic device 100 transmits information on a specific domain selected by the user to the intelligent server 200, and the intelligent server 200 selects a specific domain (eg, a third domain 823) based on the received information. I can.
  • the domain change module 716 may select a plurality of domains as a domain different from a predetermined domain (eg, the first domain 821) to process the second user utterance.
  • the domain change module 716 can process the second user utterance from at least one domain 823 other than the first domain 821 of the first category 811 (not shown). In the case of confirmation, all of at least one domain 823 (not shown) may be selected as domains for processing the second user utterance.
  • operation 1210 of the intelligent server 200 when a domain different from the predetermined domain is selected to process user utterances, another domain within the same category is selected, and thus, the other domain providing a function similar to the predetermined domain.
  • the service is provided so that the continuity of the voice service can be maintained.
  • the intelligent server 200 may obtain processing result information based on the second domain.
  • the third domain 823 obtains a second user utterance, processes the received second user utterance, and provides a service corresponding to the second user utterance (e.g., deep link information, content information). ) Can be created.
  • the intelligent server 200 if it is determined that processing of the second user's utterance is impossible in the second domain or other domains, the intelligent server 200 generates an error message to the electronic device 100 and provides the error message to the electronic device 100. can do.
  • the intelligent server 200 transmits processing result information to the electronic device 100 in operation 1212, and the electronic device 100 performs at least one operation based on the processing result information received in operation 1213.
  • the electronic device 100 displays a result of processing a user utterance in another domain (e.g., a screen 1313 inquiring whether to receive a result of processing a user utterance in another domain).
  • a specific screen of a specific application for providing a specified service based on the deep link received from the intelligent server 200 may be displayed. Since operation 1213 of the electronic device 100 may be performed like operation 1003 of the electronic device 100 described above, a redundant description will be omitted.
  • the electronic device 100 when the electronic device 100 is capable of processing utterances by a plurality of domains as shown in FIG. 15, the electronic device 100 receives information on a plurality of domains from the intelligent server 200. Then, a plurality of domains may be displayed, and a user input for selecting one domain among the plurality of domains may be received. The electronic device 100 may receive a result of processing the user's utterance by the selected domain and perform at least one operation based thereon.
  • the intelligent server 200 provides a plurality of result information of the second user utterance processed in each of the plurality of domains to the electronic device 100, or when a specific domain is selected from the electronic device 100 Among the domains, only the result of processing the second user's speech in a specific domain may be provided.
  • the electronic device 100 may display a screen indicating that processing of the second user's utterance is impossible based on this.
  • the intelligent server 200 may select a domain corresponding to the identified specific word, so that the user utterance is processed by the selected domain. have.
  • FIG. 16 is a flowchart 1600 illustrating an example of an operation of providing a service corresponding to a user's utterance by the intelligent server 200 according to various embodiments.
  • the operation of the intelligent server 200 is not limited to the order of the operation of the intelligent server 200 illustrated in FIG. 16, and may be performed in a different order from the illustrated order. Further, according to various embodiments, more operations are performed than the operations of the intelligent server 200 illustrated in FIG. 16, or at least one operation less than the operations of the intelligent server 200 illustrated in FIG. 16. This may be done.
  • FIG. 16 will be described with reference to FIG. 17.
  • 17 is a diagram for explaining an example of an operation of providing a service corresponding to a user's utterance by the intelligent server 200 according to various embodiments.
  • the intelligent server 200 may ASR process the first user utterance received in operation 1601.
  • the ASR module eg, the ASR module 210 of FIG. 4 or the ASR module 701 of FIG. 7 may process the received first user speech as text data. Since the ASR module has been described above, redundant descriptions will be omitted.
  • the intelligent server 200 may check a specific word included in the first user utterance in operation 1602. For example, naming the dispatcher module (not shown) as shown in FIG. 17, the received first user utterance (e.g., "Give me IU, good play day in melon"), the text processed by the ASR module From the data 1701, a specific word 1702 (eg,'melon') including a general noun and a proper noun may be identified. Since general nouns and proper nouns have been described above, duplicate descriptions will be omitted.
  • the intelligent server 200 may check whether a domain corresponding to a specific word identified in operation 1603 is identified.
  • the domain selection module (not shown) includes a specific domain corresponding to a specific word 1702 identified from text data 1701 among a plurality of domains registered in the intelligent server 200. 1 domain 1703) can be checked.
  • the intelligent server 200 may determine a first domain for processing a first user utterance. For example, as illustrated in FIG. 17, the intelligent server 200 may determine a first domain 1703 corresponding to a specific word 1702 as a domain for processing a first user utterance.
  • the intelligent server 200 determines a resolver corresponding to the first user utterance in operation 1604, and among a plurality of categories related to the resolver selected in operation 1605.
  • a specific category may be determined, and in operation 1606, a first domain for processing a first user utterance may be determined. Since operations 1604 to 1606 of the intelligent server 200 may be performed in the same manner as operations 1203 to 1204 of the intelligent server 200 described above, a duplicate description will be omitted.
  • the intelligent system may determine a specific domain from among a plurality of domains included in a selected category in response to a user utterance based on a user input.
  • FIG. 18 is a flowchart 1800 illustrating an example of an operation of determining a specific domain according to a user input of the electronic device 100 and the intelligent server 200 according to various embodiments.
  • the operation of the electronic device 100 is not limited to the order of the operation of the electronic device 100 illustrated in FIG. 18, and may be performed in a different order from the illustrated order.
  • more operations are performed than operations of the electronic device 100 illustrated in FIG. 18 or at least one operation less than operations of the electronic device 100 illustrated in FIG. 18. This may be done.
  • FIG. 18 will be described with reference to FIGS. 19 and 20.
  • FIG. 19 is a diagram illustrating an example of an operation of receiving a user input for determining a specific domain of the electronic device 100 according to various embodiments of the present disclosure.
  • FIG. 20 is a diagram for describing an example of an operation of providing a service corresponding to a user's utterance by the intelligent server 200 according to various embodiments.
  • the electronic device 100 may receive the first user utterance in operation 1801 and transmit the first user utterance to the intelligent server 200 in operation 1802.
  • the electronic device 100 receives a first user utterance (for example, "Show me a real-time popularity chart"), and transmits the received first user utterance to the intelligent server 200.
  • a first user utterance for example, "Show me a real-time popularity chart”
  • operations 1801 and 1802 of the electronic device 100 may be performed in the same manner as operations 1201 and 1202 of the electronic device 100 described above, duplicate descriptions are omitted.
  • the intelligent server 200 may determine a category corresponding to the first user utterance in operation 1803.
  • the resolver selection module 704 selects the first resolver 801 corresponding to the first user utterance (eg, "Show me a real-time popularity chart.”), as shown in 2001 of FIG. 20, and the first resolver 801 ) May select the first category 811. Since the operation 1803 of the intelligent server 200 may be performed as the operation 1203 of the intelligent server 200 described above, a redundant description will be omitted.
  • the intelligent server 200 may check a plurality of domains included in a specific category determined in operation 1804 and transmit information related to the plurality of domains in operation 1805.
  • the domain selection module selects a plurality of domains (eg, the first domain 821 and the third domain 823) included in the first category 811 selected as shown in 2001 of FIG. I can confirm.
  • the intelligent server 200 may transmit information on a plurality of domains 821 and 823 included in the identified first category 811 to the electronic device 100.
  • the intelligent server 200 may generate a UI for displaying a plurality of domains and receiving a selection based on the NLU/TTS module, and transmit information on the generated UI to the electronic device 100.
  • the electronic device 100 displays information related to a plurality of domains in operation 1806, receives an input for selecting a first domain in operation 1807, and relates to the first domain selected in operation 1808.
  • Information may be transmitted to the intelligent server 200.
  • the electronic device 100 displays information 1910 on a plurality of domains 821 and 823, based on information on a plurality of domains received as shown in 1902 of FIG. 19, and An input for selecting a specific domain (eg, the first domain 821 (eg, BBB Music)) among domains may be received.
  • the electronic device 100 may transmit information related to the selected first domain 821 (eg, BBB Music) to the intelligent server 200.
  • the intelligent server 200 may select the first domain in operation 1809 and obtain information for performing an operation corresponding to the first user utterance based on the first domain in operation 1810.
  • the domain selection module selects the first domain 821 from among a plurality of domains 821 and 823 based on information related to the first domain 821 received as shown in 2002 of FIG. 20. I can.
  • the selected first domain 821 may process the first user utterance to generate processing result information (eg, deep link or UI/UX) of the first user utterance.
  • the intelligent server 200 transmits the processing result information of the first user utterance by the first domain 821 to the electronic device 100, and the electronic device 100 is as shown in 1903 of FIG. At least one operation may be performed based on the processing result information. Since at least one operation based on the processing result information of the electronic device 100 may be performed like the operation 1003 of the electronic device 100 described above, a duplicate description will be omitted.
  • the intelligent server 200 may automatically select the first domain based on additional information (eg, application usage pattern information of the user) in addition to the user's selection.
  • additional information eg, application usage pattern information of the user
  • An operation of selecting a first domain based on additional information (eg, information on a user's application usage pattern, etc.) of the intelligent server 200 will be described in detail with reference to FIGS. 21 to 22.
  • the intelligent system may search for information related to the user utterance from an external server based on various additional information in addition to the user utterance, and provide a service corresponding to the user utterance based on the retrieved information.
  • each of the modules included in the intelligent server 200 may perform an operation of analyzing a user's speech based on the received additional information.
  • the additional information includes information related to a user including application usage pattern information of the user of the electronic device 100, personal information of the user (eg, age, gender, etc.), and information on an application execution state ( For example, information related to the state of the electronic device 100 including information on the amount of resource allocation, information on the remaining battery capacity, etc.), current surroundings (eg, location of the electronic device 100, weather) Etc.) and related context information may be included.
  • FIG. 21 is a flowchart 2100 illustrating an example of an operation of determining a domain based on additional information of the electronic device 100 and the intelligent server 200 according to various embodiments.
  • the operation of the electronic device 100 is not limited to the order of the operation of the electronic device 100 illustrated in FIG. 21, and may be performed in a different order from the illustrated order.
  • more operations are performed than the operations of the electronic device 100 illustrated in FIG. 21, or at least one operation less than the operations of the electronic device 100 illustrated in FIG. 21. This may be done.
  • FIG. 21 will be described with reference to FIG. 22.
  • FIG. 22 is a diagram illustrating an example of an operation of determining a domain based on additional information of the intelligent server 200 according to various embodiments.
  • the electronic device 100 may receive the first user utterance in operation 2101. Since operation 2101 of the electronic device 100 may be performed in the same manner as operations 1201 and 1801 of the electronic device 100 described above, a duplicate description will be omitted.
  • the electronic device 100 may check the first additional information in operation 2102. For example, the electronic device 100 may check at least one piece of additional information at a time point at which the first user utterance is received.
  • the checked at least one additional information may be additional information indicating a plurality of types of information as well as additional information indicating one type of information. Since the at least one verifiable additional information is the same as described above, a duplicate description will be omitted.
  • the electronic device 100 may transmit the first user utterance and the first additional information to the intelligent server 200 in operation 2103.
  • the intelligent server 200 may determine a specific category corresponding to the first user utterance and the first additional information.
  • the resolver selection module 704 may select a specific resolver (eg, the first resolver 801) corresponding to the received first user utterance from among the plurality of resolvers 801, 802, and 803. .
  • a redundant description of the operation of the resolver selection module 704 to select a resolver corresponding to the first user's utterance is omitted.
  • the resolver selection module 704 may further refer to the received additional information in an operation of analyzing the first user utterance to select a resolver.
  • the resolver selection module 704 may semantically/grammatically analyze at least a part of the first user utterance with reference to the received additional information in order to confirm the user's intention included in the first user utterance. .
  • the resolvers 801, 802, and 803 perform a search operation using the external search servers 2201, 2202, 2203 using a library capsule (not shown) allocated to the resolvers. , You can select a category.
  • the first resolver 801 corresponds to a specific category corresponding to a received first user utterance among a plurality of categories 811 and 812 associated with the first resolver 801 (eg, a first Category (811)) can be selected.
  • a first Category (811) e.g. a first Category (811)
  • a redundant description of the operation of selecting a category corresponding to the first user utterance of the resolver is omitted.
  • the first resolver 801 may further refer to the received additional information in an operation of analyzing the first user utterance to select a category.
  • the first resolver 801 may receive the first user utterance and received additional information (for example, the electronic device 100 ), based on the location information), a search query may be generated (eg, a search query to find an air conditioner at a current location), and the generated search query may be transmitted to the first server (eg, a cloud server) 2201.
  • the first resolver 801 receives a search result corresponding to the search query transmitted from the first server 2201 (for example, information about the air conditioner device registered by the user in the cloud server 2201), and receives the search result.
  • a corresponding first category 811 (eg, including a domain for controlling an air conditioner) may be identified.
  • the category for processing the user utterance is selected by the resolver, and accordingly, the user utterance is determined by a suitable domain for processing the user utterance. It is processed so that a suitable service corresponding to the user utterance can be provided to the user.
  • the electronic device 100 may determine a first domain for processing the first user utterance based on the first user utterance and the first additional information.
  • the domain selection module (not shown) checks first additional information for processing the first user utterance (eg, location information of the electronic device 100 and user application usage pattern information), and the first additional information
  • the first application corresponding to the analysis result (eg, corresponding to the first application) among the plurality of domains 821 and 823 is checked. Domain 821 can be selected.
  • the intelligent server 200 may transmit processing result information in operation 2106.
  • the operation of performing at least one operation based on the received processing result information of the electronic device 100 may be performed as the operation of the electronic device 100 described above according to operation 1206 of the intelligent server 200, and thus overlapping Description is omitted.
  • the electronic device 100 may receive a second user utterance in operation 2107. Since operation 2107 of the electronic device 100 may be performed like operation 1207 of the electronic device 100 described above, a redundant description will be omitted.
  • the electronic device 100 may check the second additional information in operation 2108.
  • the electronic device 100 may check at least one piece of additional information when receiving the second user utterance.
  • the electronic device 100 may transmit the second user utterance and the second additional information in operation 2109.
  • the intelligent server 200 may determine the first domain based on the second user utterance and the second additional information in operation 2110. Since the operation of each module of the intelligent server 200 in operation 2110 may be performed in the same manner as the operation of each module of the intelligent server 200 in operation 2104 described above, a duplicate description will be omitted.
  • the intelligent server 200 checks whether a specified condition is satisfied based on the second additional information, and if the specified condition is satisfied, the resolver selection module 704, the resolver, and the domain selection module are operated. Without performing, the first domain 821 may be reselected when the first user utterance is received.
  • the intelligent server 200 checks information indicating that the first application corresponding to the first domain 821 in the electronic device 100 is running in the foreground as second additional information, and the specified condition is satisfied ( Example: The electronic device 100 may confirm that an application corresponding to the predetermined domain is being executed), and accordingly, the predetermined first domain 821 may be reselected.
  • the intelligent server 200 checks time information when the electronic device 100 provided a voice service based on the first domain 821 as second additional information, and a specified condition is satisfied (eg, the first domain If it is within a specified time from the time point at which the voice service based on (821) is provided), the first domain 821 may be reselected accordingly.
  • the intelligent server 200 inquires about whether to process the second user utterance in the first domain 821, which is subsequently reselected, and selects the second domain 822 to process the second user utterance. Since operations 1209 to 1212 of the intelligent server 200 described above may be performed, a redundant description will be omitted.
  • the intelligent system may allow the user utterances to be processed by other domains included in other categories. .
  • FIG. 23 is a flowchart 2300 for describing an example of an operation of providing a service corresponding to a user's utterance by the electronic device 100 and the intelligent server 200 according to various embodiments.
  • the operation of the electronic device 100 is not limited to the order of the operation of the electronic device 100 illustrated in FIG. 23, and may be performed in a different order from the illustrated order.
  • more operations are performed than the operations of the electronic device 100 illustrated in FIG. 23, or at least one operation less than the operations of the electronic device 100 illustrated in FIG. 23. This may be done.
  • FIG. 23 will be described with reference to FIGS. 24, 25A, and 25B.
  • 25A is a diagram for describing an example of an operation of providing a service corresponding to a user's utterance of the intelligent server 200 according to various embodiments.
  • 25B is a diagram for describing an example of an operation of providing a service corresponding to a user's utterance by the intelligent server 200 according to various embodiments.
  • the electronic device 100 may receive the first user utterance in operation 2301 and transmit the first user utterance to the intelligent server 200 in operation 2302.
  • the electronic device 100 may receive the first user utterance and transmit it to the intelligent server 200. Since operations 2301 and 2302 of the electronic device 100 may be performed in the same manner as operations 1201 and 1202 of the electronic device 100 described above, duplicate descriptions are omitted.
  • the intelligent server 200 may determine a specific category corresponding to the first user utterance in operation 2303 and determine a first domain for processing the first user utterance in operation 2304. Since operations 2303 and 2304 of the electronic device 100 may be performed in the same manner as operations 1203 and 1204 of the electronic device 100 described above, a duplicate description will be omitted.
  • the electronic device 100 may receive the second user utterance in operation 2305 and transmit the second user utterance to the intelligent server 200 in operation 2306. For example, after displaying the processing result based on the first user utterance 2210 as shown in 2402 of FIG. 24, the electronic device 100 may receive the second user utterance. Since operations 2305 and 2306 of the electronic device 100 may be performed in the same manner as operations 1207 and 1208 of the electronic device 100 described above, a duplicate description will be omitted.
  • the intelligent server 200 checks whether processing of the second user utterance is possible in the first domain determined in operation 2307, and in operation 2308, the processing of the second user utterance based on the first domain is impossible. If it is confirmed that it is possible to check whether the second user utterance based on the second domain can be processed.
  • the domain change module 716 confirms that processing of the second user's utterance from the first domain 821 is impossible as shown in 2501 of FIG. 25A, and the other domain in the first category 811 3 It is possible to check whether processing of the second user's utterance is possible by the domain 823). Since operations 2307 and 2308 of the intelligent server 200 may be performed in the same manner as operations 1210 and 1211 of the electronic device 100 described above, duplicate descriptions will be omitted.
  • the intelligent server 200 when it is determined that the processing of the second user's utterance based on the second domain is not possible, the intelligent server 200 provides a second user based on at least one domain included in another category in operation 2309. Information for performing an operation corresponding to the utterance may be obtained.
  • the domain change module 716 is configured from all domains different from the first domain 821 in the first category 811 (eg, the third domain 823) as shown in 2502 of FIG. 25A. It can be seen that processing of user speech is impossible. In response to confirming that processing of the second user utterance is impossible by all domains 821 and 823 in the first category 811, the domain change module 716 requests the category change module 715 to change the category. I can.
  • the category change module 715 is applied to domains included in a category 812, 813, 814 different from the first category 811 among a plurality of categories 811, 812, 813, and 814. Accordingly, it is possible to check whether or not processing of the second user's utterance is possible.
  • the category change module 715 is configured to select a specific domain (eg, a second domain) in at least one category different from the first category 811 of the plurality of categories (eg, the second category 812) When it is confirmed that the second user utterance can be processed by (822)), the second user utterance may be processed by a specific domain (eg, the second domain 822).
  • a specific domain eg, a second domain
  • the electronic device 100 displays information on domains included in another category capable of processing the second user utterance 2211, as shown in 2403 of FIG. 24, and includes a domain (eg, TV control). ) Is selected, the result of processing the second user's speech by one domain as shown in 2404 of FIG. 24 may be displayed (eg, a screen for controlling a TV of a TV control application is displayed).
  • a domain eg, TV control
  • 26 is a block diagram of an electronic device 2601 in a network environment 2600 according to various embodiments.
  • the following description of the electronic device 2601 may apply mutatis mutandis to devices (eg, the intelligent server 200, the electronic device 100, etc.) included in the above-described intelligent system.
  • devices eg, the intelligent server 200, the electronic device 100, etc.
  • the electronic device 2601 communicates with the electronic device 2602 through a first network 2698 (for example, a short-range wireless communication network), or a second network 2699. It is possible to communicate with the electronic device 2604 or the server 2608 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 2601 may communicate with the electronic device 2604 through the server 2608.
  • a first network 2698 for example, a short-range wireless communication network
  • a second network 2699 for example, a short-range wireless communication network
  • the electronic device 2601 may communicate with the electronic device 2604 through the server 2608.
  • the electronic device 2601 includes a processor 2620, a memory 2630, an input device 2650, an audio output device 2656, a display device 2660, an audio module 2670, and a sensor module ( 2676), interface 2677, haptic module 2679, camera module 2680, power management module 2688, battery 2689, communication module 2690, subscriber identification module 2696, or antenna module 2697 ) Can be included.
  • at least one of these components (for example, the display device 2660 or the camera module 2680) may be omitted or one or more other components may be added to the electronic device 2601.
  • some of these components may be implemented as one integrated circuit.
  • the sensor module 2676 eg, a fingerprint sensor, an iris sensor, or an illuminance sensor
  • the display device 2660 eg, a display.
  • the processor 2620 may execute, for example, software (eg, a program 2640) to implement at least one other component (eg, hardware or software component) of the electronic device 2601 connected to the processor 2620. It can be controlled and can perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 2620 may transfer commands or data received from other components (eg, the sensor module 2676 or the communication module 2690) to the volatile memory 2632. It is loaded into, processes commands or data stored in the volatile memory 2632, and the result data may be stored in the nonvolatile memory 2632.
  • software eg, a program 2640
  • the processor 2620 may transfer commands or data received from other components (eg, the sensor module 2676 or the communication module 2690) to the volatile memory 2632. It is loaded into, processes commands or data stored in the volatile memory 2632, and the result data may be stored in the nonvolatile memory 2632.
  • the processor 2620 includes a main processor 2621 (eg, a central processing unit or an application processor), and a secondary processor 2623 (eg, a graphics processing unit, an image signal processor) that can be operated independently or together. , A sensor hub processor, or a communication processor). Additionally or alternatively, the coprocessor 2623 may be set to use less power than the main processor 2621, or to be specialized for a designated function.
  • the secondary processor 2623 may be implemented separately from the main processor 2621 or as a part thereof.
  • the secondary processor 2623 is, for example, on behalf of the main processor 2621 while the main processor 2621 is in an inactive (eg, sleep) state, or the main processor 2621 is active (eg, executing an application). ), along with the main processor 2621, at least one of the components of the electronic device 2601 (for example, the display device 2660, the sensor module 2676, or the communication module 2690) It is possible to control at least some of the functions or states related to.
  • the coprocessor 2623 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, a camera module 2680 or a communication module 2690. have.
  • the memory 2630 may store various data used by at least one component of the electronic device 2601 (for example, the processor 2620 or the sensor module 2676).
  • the data may include, for example, software (eg, the program 2640) and input data or output data for commands related thereto.
  • the memory 2630 may include a volatile memory 2632 or a nonvolatile memory 2632.
  • the program 2640 may be stored as software in the memory 2630 and may include, for example, an operating system 2642, middleware 2644, or an application 2646.
  • the input device 2650 may receive a command or data to be used for a component of the electronic device 2601 (eg, the processor 2620) from outside (eg, a user) of the electronic device 2601.
  • the input device 2650 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 2655 may output an sound signal to the outside of the electronic device 2601.
  • the sound output device 2655 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display device 2660 may visually provide information to the outside of the electronic device 2601 (eg, a user).
  • the display device 2660 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 2660 may include a touch circuitry set to sense a touch, or a sensor circuit (eg, a pressure sensor) set to measure the strength of a force generated by the touch. have.
  • the audio module 2670 may convert sound into an electrical signal, or conversely, may convert an electrical signal into sound. According to an embodiment, the audio module 2670 acquires sound through the input device 2650, the sound output device 2655, or an external electronic device directly or wirelessly connected to the electronic device 2601 (for example: Sound may be output through the electronic device 2602) (for example, a speaker or headphones).
  • the sensor module 2676 detects an operating state (eg, power or temperature) of the electronic device 2601, or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 2676 is, for example, a gesture sensor, a gyro sensor, an atmospheric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 2677 may support one or more designated protocols that may be used to connect the electronic device 2601 to an external electronic device (eg, the electronic device 2602) directly or wirelessly.
  • the interface 2677 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 2678 may include a connector through which the electronic device 2601 can be physically connected to an external electronic device (eg, the electronic device 2602 ).
  • the connection terminal 2678 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 2679 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that a user can perceive through a tactile or motor sense.
  • the haptic module 2679 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 2680 may capture a still image and a video. According to an embodiment, the camera module 2680 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 2688 may manage power supplied to the electronic device 2601. According to an embodiment, the power management module 2688 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 2689 may supply power to at least one component of the electronic device 2601.
  • the battery 2689 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 2690 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 2601 and an external electronic device (eg, electronic device 2602, electronic device 2604, or server 2608). It is possible to support establishment and communication through the established communication channel.
  • the communication module 2690 operates independently of the processor 2620 (eg, an application processor), and may include one or more communication processors that support direct (eg, wired) communication or wireless communication.
  • the communication module 2690 is a wireless communication module 2702 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 2694 (eg : A LAN (local area network) communication module, or a power line communication module) may be included.
  • a corresponding communication module is a first network 2698 (for example, a short-range communication network such as Bluetooth, WiFi direct or IrDA (infrared data association)) or a second network 2699 (for example, a cellular network, the Internet, or It can communicate with external electronic devices through a computer network (for example, a telecommunication network such as a LAN or WAN).
  • the wireless communication module 2702 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 2696 in a communication network such as the first network 2698 or the second network 2699.
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 2601 may be checked and authenticated.
  • the antenna module 2697 may transmit a signal or power to the outside (eg, an external electronic device) or receive from the outside.
  • the antenna module may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 2697 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 2698 or the second network 2699 is, for example, from the plurality of antennas by the communication module 2690. Can be chosen. Signal or power may be transmitted or received between the communication module 2690 and an external electronic device through the at least one selected antenna.
  • components other than the radiator eg, RFIC may be additionally formed as part of the antenna module 2697.
  • At least some of the components are connected to each other through a communication method (e.g., a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI))) between peripheral devices E.g. commands or data) can be exchanged with each other.
  • a communication method e.g., a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • commands or data may be transmitted or received between the electronic device 2601 and the external electronic device 2604 through the server 2608 connected to the second network 2699.
  • Each of the electronic devices 2602 and 2604 may be a device of the same or different type as the electronic device 2601.
  • all or some of the operations executed in the electronic device 2601 may be executed in one or more of the external electronic devices 2602, 2604, or 2608.
  • the electronic device 2601 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 2601 does not execute the function or service by itself.
  • One or more external electronic devices receiving the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 2601.
  • the electronic device 2601 may process the result as it is or additionally and provide it as at least part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology Can be used.
  • Electronic devices may be devices of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • phrases such as “at least one of, B, or C” may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof.
  • Terms such as “first”, “second”, or “first” or “second” may be used simply to distinguish the component from other corresponding components, and the components may be referred to in other aspects (eg, importance or Order) is not limited.
  • Some (eg, a first) component is referred to as “coupled” or “connected” with or without the terms “functionally” or “communicatively” to another (eg, second) component. When mentioned, it means that any of the above components can be connected to the other components directly (eg by wire), wirelessly, or via a third component.
  • module used in this document may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, parts, or circuits.
  • the module may be an integrally configured component or a minimum unit of the component or a part thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document include one or more instructions stored in a storage medium (eg, internal memory 2636 or external memory 2638) that can be read by a machine (eg, electronic device 2601). It may be implemented as software (for example, the program 2640) including them.
  • the processor eg, the processor 2620 of the device (eg, the electronic device 2601) may call and execute at least one command among one or more commands stored from a storage medium. This makes it possible for the device to be operated to perform at least one function according to the at least one command invoked.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • non-transient only means that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic wave), and this term refers to the case where data is semi-permanently stored in the storage medium. It does not distinguish between temporary storage cases.
  • a signal e.g., electromagnetic wave
  • a method according to various embodiments disclosed in the present document may be provided by being included in a computer program product.
  • Computer program products can be traded between sellers and buyers as commodities.
  • Computer program products are distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play StoreTM) or two user devices (e.g. It can be distributed (e.g., downloaded or uploaded) directly between, e.g. smartphones).
  • a device e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (e.g., downloaded or uploaded) directly between, e.g. smartphones).
  • at least a portion of the computer program product may be temporarily stored or temporarily generated in a storage medium that can be read by a device such as a server of a manufacturer, a server of an application store, or a memory of a relay server.
  • each component eg, a module or program of the above-described components may include a singular number or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar to that performed by the corresponding component among the plurality of components prior to the integration.
  • operations performed by modules, programs, or other components are sequentially, parallel, repeatedly, or heuristically executed, or one or more of the above operations are executed in a different order or omitted. Or one or more other actions may be added.
  • an operation of receiving a first user utterance from a user device an operation of determining a specific category corresponding to the received first user utterance among a plurality of categories, the Information for determining a first domain for processing the first user utterance from among a plurality of domains related to the determined specific category, and performing an operation corresponding to the first user utterance based on the determined first domain
  • an operation of receiving a second user utterance from the user device an operation of checking whether processing of the second user utterance is possible in the predetermined first domain, the second user utterance based on the first domain If it is determined that the processing of is impossible, checking a second domain among the plurality of domains, checking whether processing of the second user utterance based on the second domain is possible, and in the second domain
  • a control operation including an operation of obtaining information for performing an operation corresponding to the second
  • information related to a plurality of applications corresponding to each of the plurality of domains is registered in the specific category among the plurality of categories, so that the plurality of domains are included in the specific category.
  • a control operation may be provided.
  • a control operation in which the first domain is included in at least one category different from the specific category among the plurality of categories may be provided.
  • an operation for processing the second user utterance in an application corresponding to the second domain, and information for performing an operation corresponding to the second user utterance, based on the processing result may be provided, including an operation of acquiring a deep link including information allowing access to a specific screen of the application or a graphic element including content related to the application.
  • an operation of determining a first resolver corresponding to the first user utterance among a plurality of resolvers learned based on user utterances, and the first resolver based on information related to the first user utterance may be provided, including an operation of determining the specific category from among a plurality of categories assigned to the resolver.
  • the information related to the first user utterance may include information on a device obtained from the first user utterance, information on a specific word obtained from the first user utterance, and from the first user utterance.
  • a control operation may be provided that includes at least one of information indicating the obtained user's intention or information indicating a result of a search performed based on the first user utterance.
  • the operation of receiving context information related to the first user utterance together with the first user utterance, and the information related to the first user utterance and the allocated to the resolver based on the context information A control operation may be provided including an operation of selecting the specific category from among a plurality of categories.
  • an operation of transmitting information related to the related plurality of domains to the user device, and an operation of receiving first information indicating that the first domain is selected from among the plurality of domains from the user device. , And determining the first domain from among the plurality of domains based on the first information, a control operation may be provided.
  • the specified condition related to the second user utterance is when the second user utterance is received within a specified time from the time when the first domain is determined, or a first application related to the first domain is foregrounded in the user device.
  • a control operation including at least one of the cases in which information indicating that the operation is being executed in a state is received together with the second user utterance may be provided.
  • the operation of obtaining second information indicating that the second user utterance is impossible to process from the first domain, and in response to obtaining the second information, included in the specific category Checking at least one domain other than the first domain, calculating a score related to the identified at least one domain, and checking the second domain having the highest calculated score among the at least one domain Control operations, including operations, may be provided.
  • At least one domain associated with at least one category other than the specific category among the plurality of categories is checked.
  • a control operation may be provided, including an operation to perform and an operation to process the second user utterance by the at least one identified domain.
  • an electronic device includes at least one communication circuit and at least one processor operatively connected to the at least one communication circuit, wherein the at least one processor generates a first user utterance.
  • Controls the at least one communication circuit to receive from the device determines a specific category corresponding to the received first user utterance among a plurality of categories, and utters the first user among a plurality of domains related to the determined specific category Determining a first domain for processing, obtaining information for performing an operation corresponding to the first user utterance based on the determined first domain, and receiving a second user utterance from the user device.
  • information related to a plurality of applications corresponding to each of the plurality of domains is registered in the specific category among the plurality of categories, so that the plurality of domains are included in the specific category.
  • An electronic device may be provided.
  • an electronic device may be provided in which the first domain is included in at least one category different from the specific category among the plurality of categories.
  • the at least one processor is information that causes the second user utterance to be processed in an application corresponding to the second domain and to perform an operation corresponding to the second user utterance, wherein the An electronic device configured to obtain a graphic element including content related to the application or a deep link including information for accessing a specific screen of the application based on a processing result may be provided.
  • the at least one processor controls the at least one communication circuit to transmit information related to the plurality of domains related to the determined specific category to the user device, and the plurality of Configured to control the at least one communication circuit to receive first information indicating that the first domain is selected from among domains, and to determine the first domain among the plurality of domains based on the first information .
  • An electronic device may be provided.
  • the at least one processor determines whether the second user utterance can be processed by the first domain when a specified condition related to the second user utterance is satisfied after the first domain is determined. And the specified condition related to the second user utterance is when the second user utterance is received within a specified time from the time when the first domain is determined, or the first application related to the first domain is the user device.
  • An electronic device may be provided that includes at least one of cases in which information indicating that it is being executed in a foreground state is received together with the second user utterance.
  • the at least one processor obtains second information indicating that processing of the second user utterance is impossible from the first domain, and in response to obtaining the second information, the At least one domain other than the first domain included in a specific category is identified, a score related to the identified at least one domain is calculated, and the second domain having the highest calculated score among the at least one domain is selected.
  • An electronic device, configured to confirm, may be provided.
  • the at least one processor when it is determined that processing of the second user utterance is impossible by the second domain, may be configured with at least one category other than the specific category among the plurality of categories.
  • An electronic device may be provided, configured to check at least one associated domain and to process the second user utterance by the at least one identified domain.
  • a memory configured to store instructions, first information on a plurality of categories, and second information on at least one domain included in each of the plurality of categories, and at least one A specific category corresponding to the first user utterance among a plurality of categories, wherein the at least one processor acquires a first user utterance when executed, and the instructions include a processor.
  • determining a first domain for processing the first user utterance among a plurality of domains related to a specific category determined based on at least a portion of the second information, and the first domain based on the determined first domain 1 Acquires information to perform an operation corresponding to a user utterance, obtains a second user utterance, and whether processing of the second user utterance is possible in the previously determined first domain based on at least a part of the second information If it is determined whether processing of the second user utterance based on the first domain is not possible, checks the second domain among the plurality of domains, and the second user utterance based on the second domain If it is confirmed that processing of the second user utterance based on the second domain is possible, information for performing an operation corresponding to the second user utterance based on the second domain is obtained An electronic device configured to be configured to be provided may be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예들에 따르면, 제 1 사용자 발화를 사용자 장치로부터 수신하는 동작, 복수 개의 카테고리들 중 상기 수신된 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하는 동작, 상기 결정된 특정 카테고리와 관련된 복수 개의 도메인들 중 상기 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정하는 동작, 상기 결정된 제 1 도메인을 기반으로 상기 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하는 동작, 제 2 사용자 발화를 상기 사용자 장치로부터 수신하는 동작, 상기 결정된 제 1 도메인에서 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작, 상기 제 1 도메인에 기반한 상기 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 상기 복수 개의 도메인들 중 제 2 도메인을 확인하고, 상기 제 2 도메인에 기반한 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작, 및 상기 제 2 도메인에서 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 상기 제 2 도메인을 기반으로 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하는 동작을 포함하는, 제어 동작이 제공된다. 그 밖의 다양한 실시예가 가능하다. 한편, 인공지능 모델을 이용하여 상기 전자 장치의 사용자 발화에 대응하는 도메인을 결정하는 동작을 수행할 수도 있다.

Description

사용자 발화를 처리하는 전자 장치와 그 동작 방법
본 개시의 다양한 실시예는 사용자 발화를 처리하는 전자 장치와 그 동작 방법에 관한 것이다.
현대를 살아가는 많은 사람들에게 휴대용 디지털 통신기기들은 하나의 필수 요소가 되었다. 소비자들은 휴대용 디지털 통신기기들을 이용하여 언제 어디서나 자신이 원하는 다양한 고품질의 서비스를 제공받고 싶어한다.
음성인식 서비스는, 휴대용 디지털 통신기기들에 구현되는 음성인식 인터페이스를 기반으로, 수신되는 사용자 음성에 대응하여 다양한 컨텐츠 서비스를 소비자들에게 제공하는 서비스이다. 음성인식 서비스의 제공을 위해 휴대용 디지털 통시기기들에는 인간의 언어를 인식하고 분석하는 기술들(예: 자동 음성 인식, 자연어 이해, 자연어 생성, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성, 등)이 구현된다.
소비자들에게 질 높은 음성인식 서비스가 제공되기 위해서는, 사용자 음성으로부터 사용자 의도를 정확하게 확인하는 기술의 구현과 확인된 사용자 의도에 대응하는 적절한 컨텐츠 서비스를 제공하는 기술의 구현이 필요하다.
전자 장치는 사용자로부터 수신된 발화를 외부 서버를 통해 처리하여 사용자에게 다양한 음성 서비스를 제공할 수 있다. 외부 서버는 전자 장치로부터 사용자 발화를 수신하고, 외부 서버에 등록된 사용자 발화를 처리하기 위한 복수 개의 도메인들 중 수신된 사용자 발화에 대응하는 도메인을 기반으로 사용자 발화를 처리하여 특정 서비스를 제공할 수 있다. 그러나, 서비스의 종류가 기하 급수적으로 늘어나면서 외부 서버에 등록되는 도메인들의 수가 기하 급수적으로 늘어나고, 이에 따라 외부 서버가 수신된 사용자 발화에 기반하여 분석된 사용자 의도에 적합한 도메인을 선택하기 위해, 운용 부담이 증가되는 어려움이 있다. 또한, 사용자 발화를 처리하기 위해서 기 결정된 도메인에서 사용자 발화의 처리가 불가능한 경우, 외부 서버는 수신된 사용자 발화에 대응하는 음성 서비스를 제공함에 어려움이 있다.
다양한 실시예에 따른 전자 장치는 사용자 발화에 대응하는 카테고리를 선택하고 선택된 카테고리에 포함된 특정 도메인에 의해 사용자 발화가 처리되도록 하여, 복수 개의 도메인들 중 사용자 발화에 적합한 서비스를 제공하기 위한 도메인을 선택할 수 있을 뿐만 아니라 복수 개의 도메인들의 각각을 확인하는 전자 장치의 운용 부담이 경감될 수 있다. 다양한 실시예에 따른 전자 장치는 기 결정된 도메인에 의해 사용자 발화의 처리가 불가능한 경우, 다른 도메인에 의해 사용자 발화가 처리되도록 하여 음성 서비스 제공의 연속성을 향상 시킬 수 있다.
다양한 실시예들에 따르면, 전자 장치의 제어 동작에 있어서, 제 1 사용자 발화를 사용자 장치로부터 수신하는 동작, 복수 개의 카테고리들 중 상기 수신된 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하는 동작, 상기 결정된 특정 카테고리와 관련된 복수 개의 도메인들 중 상기 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정하는 동작, 상기 결정된 제 1 도메인을 기반으로 상기 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하는 동작, 제 2 사용자 발화를 상기 사용자 장치로부터 수신하는 동작, 상기 결정된 제 1 도메인에서 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작, 상기 제 1 도메인에 기반한 상기 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 상기 복수 개의 도메인들 중 제 2 도메인을 확인하고, 상기 제 2 도메인에 기반한 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작, 및 상기 제 2 도메인에서 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 상기 제 2 도메인을 기반으로 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하는 동작을 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면, 전자 장치에 있어서, 적어도 하나의 통신회로, 및 상기 적어도 하나의 통신회로와 작동적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 제 1 사용자 발화를 사용자 장치로부터 수신하도록 상기 적어도 하나의 통신회로를 제어하고, 복수 개의 카테고리들 중 상기 수신된 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하고, 결정된 특정 카테고리와 관련된 복수 개의 도메인들 중 상기 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정하고, 상기 결정된 제 1 도메인을 기반으로 상기 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하고, 제 2 사용자 발화를 상기 사용자 장치로부터 수신하도록 상기 적어도 하나의 통신 회로를 제어하고, 상기 결정된 제 1 도메인에서 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고, 상기 제 1 도메인에 기반한 상기 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 상기 복수 개의 도메인들 중 제 2 도메인을 확인하고, 상기 제 2 도메인에 기반한 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고 상기 제 2 도메인에서 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 상기 제 2 도메인을 기반으로 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하도록 구성된, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 인스트럭션들, 복수 개의 카테고리들에 대한 제 1 정보, 및 상기 복수 개의 카테고리들의 각각에 포함된 적어도 하나의 도메인에 대한 제 2 정보를 저장하도록 구성된 메모리, 및 적어도 하나의 프로세서를 포함하고 상기 인스트럭션들은, 실행 시에 상기 적어도 하나의 프로세서가 제 1 사용자 발화를 획득하고, 상기 제 1 정보의 적어도 일부를 기반으로 복수 개의 카테고리들 중 상기 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하고, 상기 제 2 정보의 적어도 일부를 기반으로 결정된 특정 카테고리와 관련된 복수 개의 도메인들 중 상기 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정하고, 상기 결정된 제 1 도메인을 기반으로 상기 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하고, 제 2 사용자 발화를 획득하고, 상기 제 2 정보의 적어도 일부를 기반으로 상기 결정된 제 1 도메인에서 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고, 상기 제 1 도메인에 기반한 상기 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 상기 복수 개의 도메인들 중 제 2 도메인을 확인하고, 상기 제 2 도메인에 기반한 상기 제 2 사용자 발화를 처리 가능한지 여부를 확인하고 상기 제 2 도메인에서 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 상기 제 2 도메인을 기반으로 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하도록 구성된, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따른, 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시예에 따르면 사용자 발화에 대응하는 카테고리를 선택하고 선택된 카테고리에 포함된 특정 도메인에 의해 사용자 발화가 처리되도록 하여, 복수 개의 도메인들 중 사용자 발화에 적합한 서비스를 제공하기 위한 도메인을 선택할 수 있을 뿐만 아니라 복수 개의 도메인들의 각각을 확인하는 전자 장치의 운용 부담이 경감되도록 하는 전자 장치 및 그 동작 방법이 제공될 수 있다. 다양한 실시예에 따르면 기 결정된 도메인에 의해 사용자 발화의 처리가 불가능한 경우, 다른 도메인에 의해 사용자 발화가 처리되도록 하여 음성 서비스 제공의 연속성을 향상 시킬 수 있는 전자 장치 및 그 동작 방법이 제공될 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 통합 지능화 시스템을 나타낸 도면이다.
도 2는 본 발명의 일 실시 예에 따른 통합 지능화 시스템의 사용자 단말을 나타낸 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 사용자 단말의 지능형 앱을 실행시키는 것을 나타낸 도면이다.
도 4는 본 발명의 일 실시 예에 따른 통합 지능화 시스템의 지능형 서버를 나타낸 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 패스 자연어 이해 모듈(natural language understanding)(NLU)이 패스 룰(path rule)을 생성하는 방법을 나타낸 도면이다.
도 6은 다양한 실시예들에 따른 지능형 시스템의 구성의 일 예를 설명하기 위한 도면이다.
도 7은 다양한 실시예들에 따른 지능형 서버의 구성의 일 예 및 지능형 서버에 연동되는 외부 서버의 일 예를 설명하기 위한 도면이다.
도 8은 다양한 실시예들에 따른 지능형 서버의 리졸버 선택 동작, 카테고리 선택 동작, 및 도메인 선택 동작의 일 예를 설명하기 위한 도면이다.
도 9는 다양한 실시예들에 따른 일 카테고리에서 처리 가능한 발화 리스트를 설명하기 위한 도면이다.
도 10은 다양한 실시예들에 따른 전자 장치의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 흐름도이다.
도 11은 다양한 실시예들에 따른 전자 장치의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 12는 다양한 실시예들에 따른 전자 장치 및 지능형 서버의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 흐름도이다.
도 13은 다양한 실시예들에 따른 전자 장치의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 14a는 다양한 실시예들에 따른 지능형 서버의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 14b는 다양한 실시예들에 따른 지능형 서버의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 15는 다양한 실시예들에 따른 전자 장치의 사용자 발화에 대응하는 복수 개의 도메인들과 관련된 정보를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
도 16은 다양한 실시예들에 따른 지능형 서버의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 흐름도이다.
도 17은 다양한 실시예들에 따른 지능형 서버의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 18은 다양한 실시예들에 따른 전자 장치 및 지능형 서버의 사용자 입력에 따라 특정 도메인을 결정하는 동작의 일 예를 설명하기 위한 흐름도이다.
도 19는 다양한 실시예들에 따른 전자 장치의 특정 도메인을 결정하기 위한 사용자 입력을 수신하는 동작의 일 예를 설명하기 위한 도면이다.
도 20은 다양한 실시예들에 따른 지능형 서버의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 21은 다양한 실시예들에 따른 전자 장치 및 지능형 서버의 부가 정보에 기반하여 도메인을 결정하는 동작의 일 예를 설명하기 위한 흐름도이다.
도 22는 다양한 실시예들에 따른 지능형 서버의 부가 정보에 기반하여 도메인을 결정하는 동작의 일 예를 설명하기 위한 도면이다.
도 23은 다양한 실시예들에 따른 전자 장치 및 지능형 서버의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 흐름도이다.
도 24는 다양한 실시예들에 따른 전자 장치의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 25a는 다양한 실시예들에 따른 지능형 서버의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 25b는 다양한 실시예들에 따른 지능형 서버의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 26은 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
본 개시에 따른 전자 장치의 사용자 발화를 처리하는 전자 장치와 그 동작 방법에 있어서, 사용자 음성에 대응하는 도메인의 결정을 위해 사용자의 음성을 인식하고 의도를 해석하기 위한 방법은, 마이크를 통해 아날로그 신호인 음성 신호를 수신하고, ASR(Automatic Speech Recognition)모델을 이용하여 음성 부분을 컴퓨터로 판독 가능한 텍스트로 변환할 수 있다. 자연어 이해(Natural Language Understanding, NLU) 모델을 이용하여 변환된 텍스트를 해석하여, 사용자의 발화 의도가 획득될 수 있다. 여기서 ASR 모델 또는 NLU 모델은 인공지능 모델일 수 있다. 인공지능 모델은 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계된 인공지능 전용 프로세서에 의해 처리될 수 있다. 인공지능 모델은 학습을 통해 획득될 수 있다. 여기서, 학습을 통해 획득된다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 획득됨 의미한다. 인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다.
언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리(Natural Language Processing), 기계 번역(Machine Translation), 대화 시스템(Dialog System), 질의 응답(Question Answering), 음성 인식/합성(Speech Recognition/Synthesis) 등을 포함한다.
다양한 실시예들을 서술하기에 앞서, 통합 지능화 시스템에 대해 설명한다.
도 1은 본 발명의 다양한 실시 예에 따른 통합 지능화 시스템을 나타낸 도면이다.
도 1을 참조하면, 통합 지능화 시스템(10)은 사용자 단말(100), 지능형 서버(200), 개인화 정보 서버(300) 또는 제안 서버(400)를 포함할 수 있다.
사용자 단말(100)은 사용자 단말(100) 내부에 저장된 앱(app)(또는, 어플리케이션 프로그램(application program))(예: 알람 앱, 메시지 앱, 사진(갤러리) 앱 등)을 통해 사용자에게 필요한 서비스를 제공할 수 있다. 예를 들어, 사용자 단말(100)은 사용자 단말(100) 내부에 저장된 지능형 앱(또는, 음성 인식 앱)을 통해 다른 앱을 실행하고 동작시킬 수 있다. 사용자 단말(100)의 상기 지능형 앱을 통해 상기 다른 앱의 실행하고 동작을 실행시키기 위한 사용자 입력을 수신할 수 있다. 상기 사용자 입력은, 예를 들어, 물리적 버튼, 터치 패드, 음성 입력, 원격 입력 등을 통해 수신될 수 있다. 일 실시 예에 따르면, 사용자 단말(100)은 휴대폰, 스마트폰, PDA(personal digital assistant) 또는 노트북 컴퓨터 등 인터넷에 연결 가능한 각종 단말 장치(또는, 전자 장치)가 이에 해당될 수 있다.
일 실시 예에 따르면, 사용자 단말(100)은 사용자의 발화를 사용자 입력으로 수신할 수 있다. 사용자 단말(100)은 사용자의 발화를 수신하고, 상기 사용자의 발화에 기초하여 앱을 동작시키는 명령을 생성할 수 있다. 이에 따라, 사용자 단말(100)은 상기 명령을 이용하여 상기 앱을 동작시킬 수 있다.
지능형 서버(200)는 통신망을 통해 사용자 단말(100)로부터 사용자 음성 입력(voice input)을 수신하여 텍스트 데이터(text data)로 변경할 수 있다. 다른 실시 예에서는, 지능형 서버(200)는 상기 텍스트 데이터에 기초하여 패스 룰(path rule)을 생성(또는, 선택)할 수 있다. 상기 패스 룰은 앱의 기능을 수행하기 위한 동작(action)(또는, 오퍼레이션(operation))에 대한 정보 또는 상기 동작을 실행하기 위해 필요한 파라미터에 대한 정보를 포함할 수 있다. 또한, 상기 패스 룰은 상기 앱의 상기 동작의 순서를 포함할 수 있다. 사용자 단말(100)은 상기 패스 룰을 수신하고, 상기 패스 룰에 따라 앱을 선택하고, 상기 선택된 앱에서 상기 패스 룰에 포함된 동작을 실행시킬 수 있다.
본 문서의 "패스 룰(path rule)" 이라는 용어는 일반적으로, 전자 장치가 사용자에 의해 요청된 테스크를 수행하기 위한 상태들의 시퀀스를 의미할 수 있지만, 이에 제한되지 않는다. 다시 말해, 패스 룰은 상태들의 시퀀스에 대한 정보를 포함할 수 있다. 상기 테스크는, 예를 들어, 지능형 앱이 제공할 수 있는 어떠한 동작(action)일 수 있다. 상기 테스크는 일정을 생성하거나, 원하는 상대방에게 사진을 전송하거나, 날씨 정보를 제공하는 것을 포함 할 수 있다. 사용자 단말(100)은 적어도 하나 이상의 상태(예: 사용자 단말(100)의 동작 상태)를 순차적으로 갖음으로써, 상기 테스크를 수행할 수 있다.
일 실시 예에 따르면, 패스 룰은 인공 지능(artificial intelligent)(AI) 시스템에 의해 제공되거나, 생성될 수 있다. 인공지능 시스템은 룰 베이스 시스템(rule-based system) 일 수도 있고, 신경망 베이스 시스템(neual network-based system)(예: 피드포워드 신경망(feedforward neural network(FNN)), 순환 신경망(recurrent neural network(RNN))) 일 수도 있다. 또는 전술한 것의 조합 또는 이와 다른 인공지능 시스템일 수도 있다. 일 실시 예에 따르면, 패스 룰은 미리 정의된 패스 룰들의 집합에서 선택될 수 있거나, 사용자 요청에 응답하여 실시간으로 생성될 수 있다. 예를 들어, 인공지능 시스템은 미리 정의 된 복수의 패스 룰 중 적어도 패스 룰을 선택하거나, 동적(또는, 실시간)으로 패스 룰을 생성할 수 있다. 또한, 사용자 단말(100)은 패스 룰을 제공하기 위해 하이브리드 시스템을 사용할 수 있다.
일 실시 예에 따르면, 사용자 단말(100)은 상기 동작을 실행하고, 동작을 실행한 사용자 단말(100)의 상태에 대응되는 화면을 디스플레이에 표시할 수 있다. 다른 예를 들어, 사용자 단말(100)은 상기 동작을 실행하고, 동작을 수행한 결과를 디스플레이에 표시하지 않을 수 있다. 사용자 단말(100)은, 예를 들어, 복수의 동작을 실행하고, 상기 복수의 동작의 일부 결과 만을 디스플레이에 표시할 수 있다. 사용자 단말(100)은, 예를 들어, 마지막 순서의 동작을 실행한 결과만을 디스플레이에 표시할 수 있다. 또 다른 예를 들어, 사용자 단말(100)은 사용자의 입력을 수신하여 상기 동작을 실행한 결과를 디스플레이에 표시할 수 있다.
개인화 정보 서버(300)는 사용자 정보가 저장된 데이터베이스를 포함할 수 있다. 예를 들어, 개인화 정보 서버(300)는 사용자 단말(100)로부터 사용자 정보(예: 컨텍스트 정보, 앱 실행 등)를 수신하여 상기 데이터베이스에 저장할 수 있다. 지능형 서버(200)는 통신망을 통해 개인화 정보 서버(300)로부터 상기 사용자 정보를 수신하여 사용자 입력에 대한 패스 룰을 생성하는 경우에 이용할 수 있다. 일 실시 예에 따르면, 사용자 단말(100)은 통신망을 통해 개인화 정보 서버(300)로부터 사용자 정보를 수신하여 데이터베이스를 관리하기 위한 정보로 이용할 수 있다.
제안 서버(400)는 단말 내에 기능 혹은 어플리케이션의 소개 또는 제공될 기능에 대한 정보가 저장된 데이터베이스를 포함할 수 있다. 예를 들어, 제안 서버(400)는 개인화 정보 서버(300)로부터 사용자 단말기(100)의 사용자 정보를 수신하여 사용자가 사용 할 수 있는 기능에 대한 데이터베이스를 포함 할 수 있다. 사용자 단말(100)은 통신망을 통해 제안 서버(400)로부터 상기 제공될 기능에 대한 정보를 수신하여 사용자에게 정보를 제공할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 통합 지능화 시스템의 사용자 단말을 나타낸 블록도이다.
도 2를 참조하면, 사용자 단말(100)은 입력 모듈(110), 디스플레이(120), 스피커(130), 메모리(140) 또는 프로세서(150)을 포함할 수 있다. 사용자 단말(100)은 하우징을 더 포함할 수 있고, 상기 사용자 단말(100)의 구성들은 상기 하우징의 내부에 안착되거나 하우징 상에(on the housing) 위치할 수 있다. 사용자 단말(100)은 상기 하우징의 내부에 위치한 통신 회로를 더 포함할 수 있다. 사용자 단말(100)은 상기 통신 회로를 통해 외부 서버(예: 지능형 서버(200))와 데이터(또는, 정보)를 송수신할 수 있다.
일 실시 예에 따른, 입력 모듈(110)은 사용자로부터 사용자 입력을 수신할 수 있다. 예를 들어, 입력 모듈(110)은 연결된 외부 장치(예: 키보드, 헤드셋)로부터 사용자 입력을 수신할 수 있다. 다른 예를 들어, 입력 모듈(110)은 디스플레이(120)와 결합된 터치 스크린(예: 터치 스크린 디스플레이)을 포함할 수 있다. 또 다른 예를 들어, 입력 모듈(110)은 사용자 단말(100)(또는, 사용자 단말(100)의 하우징)에 위치한 하드웨어 키(또는, 물리적 키)를 포함할 수 있다.
일 실시 예에 따르면, 입력 모듈(110)은 사용자의 발화를 음성 신호로 수신할 수 있는 마이크를 포함할 수 있다. 예를 들어, 입력 모듈(110)은 발화 입력 시스템(speech input system)을 포함하고, 상기 발화 입력 시스템을 통해 사용자의 발화를 음성 신호로 수신할 수 있다. 상기 마이크는, 예를 들어, 하우징의 일부분(예: 제1 부분)을 통해 노출될 수 있다.
일 실시 예에 따른, 디스플레이(120)는 이미지나 비디오, 및/또는 어플리케이션의 실행 화면을 표시할 수 있다. 예를 들어, 디스플레이(120)는 앱의 그래픽 사용자 인터페이스(graphic user interface)(GUI)를 표시할 수 있다. 일 실시 예에 따르면, 디스플레이(120)는 하우징의 일부분(예: 제2 부분)을 통해 노출될 수 있다.
일 실시 예에 따르면, 스피커(130)는 음성 신호를 출력할 수 있다. 예를 들어, 스피커(130)는 사용자 단말(100) 내부에서 생성된 음성 신호를 외부로 출력할 수 있다. 일 실시 예에 따르면, 스피커(130)는 하우징의 일부분(예: 제3 부분)을 통해 노출될 수 있다.
일 실시 예에 따르면, 메모리(140)는 복수의 앱(또는, 어플리케이션 프로그램 application program))(141, 143)을 저장할 수 있다. 복수의 앱(141, 143)은, 예를 들어, 사용자 입력에 대응되는 기능을 수행하기 위한 프로그램(program)일 수 있다. 일 실시 예에 따르면, 메모리(140)는 지능형 에이전트(145), 실행 매니저 모듈(147) 또는 지능형 서비스 모듈(149)을 저장할 수 있다. 지능형 에이전트(145), 실행 매니저 모듈(147) 및 지능형 서비스 모듈(149)은, 예를 들어, 수신된 사용자 입력(예: 사용자 발화)을 처리하기 위한 프레임워크(framework)(또는, 어플리케이션 프레임워크(application framework))일 수 있다.
일 실시 예에 따르면, 메모리(140)는 사용자 입력을 인식하는데 필요한 정보를 저장할 수 있는 데이터베이스를 포함할 수 있다. 예를 들어, 메모리(140)은 로그(log) 정보를 저장할 수 있는 로그 데이터베이스를 포함할 수 있다. 다른 예를 들어, 메모리(140)는 사용자 정보를 저장할 수 있는 페르소나 데이터베이스를 포함할 수 있다.
일 실시 예에 따르면, 메모리(140)는 복수의 앱(141, 143)을 저장하고, 복수의 앱(141, 143)은 로드되어 동작할 수 있다. 예를 들어, 메모리(140)에 저장된 복수의 앱(141,143)은 실행 매니저 모듈(147)에 의해 로드되어 동작할 수 있다. 복수의 앱(141, 143)은 기능을 수행하는 실행 서비스 모듈(141a, 143a)을 포함할 수 있다. 일 실시 예에서, 복수의 앱(141,143)은 기능을 수행하기 위해서 실행 서비스 모듈(141a, 143a)를 통해 복수의 동작(예: 상태 들의 시퀀스)(141b, 143b)을 실행할 수 있다. 다시 말해, 실행 서비스 모듈(141a, 143a)는 실행 매니저 모듈(147)에 의해 활성화되고, 복수의 동작 (141b, 143b)을 실행할 수 있다.
일 실시 예에 따르면, 앱(141, 143)의 동작(141b, 143b)이 실행되었을 때, 동작(141b, 143b)의 실행에 따른 실행 상태 화면은 디스플레이(120)에 표시될 수 있다. 상기 실행 상태 화면은, 예를 들어, 동작(141b, 143b)이 완료된 상태의 화면일 수 있다. 상기 실행 상태 화면은, 다른 예를 들어, 동작(141b, 143b)의 실행이 정지된 상태(partial landing)(예: 동작(141b, 143b)에 필요한 파라미터가 입력되지 않은 경우)의 화면일 수 있다.
일 실시 예에 따른, 실행 서비스 모듈(141a, 143a)은 패스 룰에 따라 동작(141b, 143b)을 실행할 수 있다. 예를 들어, 실행 서비스 모듈(141a, 143a)은 실행 매니저 모듈(147)에 의해 활성화되고, 실행 매니저 모듈(147)로부터 상기 패스 룰에 따라 실행 요청을 전달 받고, 상기 실행 요청에 따라 동작(141b, 143b)을 함으로써, 앱(141, 143)의 기능을 실행할 수 있다. 실행 서비스 모듈(141a, 143a)는 상기 동작(141b, 143b)의 수행이 완료되면 완료 정보를 실행 매니저 모듈(147)로 전달할 수 있다.
일 실시 예에 따르면, 앱(141, 143)에서 복수의 동작(141b, 143b)이 실행되는 경우, 복수의 동작(141b, 143b)은 순차적으로 실행될 수 있다. 실행 서비스 모듈(141a, 143a)은 하나의 동작(예: 제1 앱(141)의 동작 1, 제2 앱(143)의 동작 1)의 실행이 완료되면 다음 동작(예: 제1 앱(141)의 동작 2, 제2 앱(143)의 동작 2)을 오픈하고 완료 정보를 실행 매니저 모듈(147)로 송신할 수 있다. 여기서 임의의 동작을 오픈한다는 것은, 임의의 동작을 실행 가능한 상태로 천이시키거나, 임의의 동작의 실행을 준비하는 것으로 이해될 수 있다. 다시 말해서, 임의의 동작이 오픈되지 않으면, 해당 동작은 실행될 수 없다. 실행 매니저 모듈(147)은 상기 완료 정보가 수신되면 다음 동작(예: 제1 앱(141)의 동작 2, 제2 앱(143)의 동작 2)에 대한 실행 요청을 실행 서비스 모듈로 전달할 수 있다. 일 실시 예에 따르면, 복수의 앱(141, 143)이 실행되는 경우, 복수의 앱(141, 143)은 순차적으로 실행될 수 있다. 예를 들어, 제1 앱(141)의 마지막 동작(예: 제1 앱(141)의 동작 3)의 실행이 완료되어 완료 정보를 수신하면, 실행 매니저 모듈(147)은 제2 앱(143)의 첫번째 동작(예: 제2 앱(143)의 동작 1)의 실행 요청을 실행 서비스(143a)로 송신할 수 있다.
일 실시 예에 따르면, 앱(141, 143)에서 복수의 동작(141b, 143b)이 실행된 경우, 상기 실행된 복수의 동작(141b, 143b) 각각의 실행에 따른 결과 화면은 디스플레이(120)에 표시될 수 있다. 일 실시 예에 따르면, 상기 실행된 복수의 동작(141b, 143b)의 실행에 따른 복수의 결과 화면 중 일부만 디스플레이(120)에 표시될 수 있다.
일 실시 예에 따르면, 메모리(140)는 지능형 에이전트(145)와 연동된 지능형 앱(예: 음성 인식 앱)을 저장할 수 있다. 지능형 에이전트(145)와 연동된 앱은 사용자의 발화를 음성 신호로 수신하여 처리할 수 있다. 일 실시 예에 따르면, 지능형 에이전트(145)와 연동된 앱은 입력 모듈(110)을 통해 입력되는 특정 입력(예: 하드웨어 키를 통한 입력, 터치 스크린을 통한 입력, 특정 음성 입력)에 의해 동작될 수 있다.
일 실시 예에 따르면, 메모리(140)에 저장된 지능형 에이전트(145), 실행 매니저 모듈(147) 또는 지능형 서비스 모듈(149)이 프로세서(150)에 의해 실행될 수 있다. 지능형 에이전트(145), 실행 매니저 모듈(147) 또는 지능형 서비스 모듈(149)의 기능은 프로세서(150)에 의해 구현될 수 있다. 상기 지능형 에이전트(145), 실행 매니저 모듈(147) 및 지능형 서비스 모듈(149)의 기능에 대해 프로세서(150)의 동작으로 설명하겠다. 일 실시 예에 따르면, 메모리(140)에 저장된 지능형 에이전트(145), 실행 매니저 모듈(147) 또는 지능형 서비스 모듈(149)는 소프트웨어뿐만 아니라 하드웨어로 구현될 수 있다.
일 실시 예에 따르면, 프로세서(150)는 사용자 단말(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(150)는 입력 모듈(110)을 제어하여 사용자 입력을 수신할 수 있다. 프로세서(150)는 디스플레이(120)를 제어하여 이미지를 표시할 수 있다. 프로세서(150)는 스피커(130)를 제어하여 음성 신호를 출력할 수 있다. 프로세서(150)는 메모리(140)를 제어하여 프로그램을 실행시키고, 필요한 정보를 불러오거나 저장할 수 있다.
일 실시 예에 따르면, 프로세서(150)는 메모리(140)에 저장된 지능형 에이전트(145), 실행 매니저 모듈(147) 또는 지능형 서비스 모듈(149)을 실행시킬 수 있다. 이에 따라, 프로세서(150)는 지능형 에이전트(145), 실행 매니저 모듈(147) 또는 지능형 서비스 모듈(149)의 기능을 구현할 수 있다.
일 실시 예에 따른, 프로세서(150)는 지능형 에이전트(145)를 실행하여 사용자 입력으로 수신된 음성 신호에 기초하여 앱을 동작시키는 명령을 생성할 수 있다. 일 실시 예에 따른, 프로세서(150)는 실행 매니저 모듈(147)을 실행하여 상기 생성된 명령에 따라 메모리(140)에 저장된 앱(141, 143)을 실행시킬 수 있다. 일 실시 예에 따르면, 프로세서(150)는 지능형 서비스 모듈(149)을 실행하여 사용자의 정보를 관리하 고, 상기 사용자의 정보를 이용하여 사용자 입력을 처리할 수 있다.
프로세서(150)는 지능형 에이전트(145)를 실행하여 입력 모듈(110)을 통해 수신된 사용자 입력을 지능형 서버(200)로 송신하고, 지능형 서버(200)를 통해 상기 사용자 입력을 처리할 수 있다.
일 실시 예에 따르면, 프로세서(150)는 지능형 에이전트(145)를 실행하여 상기 사용자 입력을 지능형 서버(200)로 송신하기 전에 상기 사용자 입력을 전처리할 수 있다. 일 실시 예에 따르면, 지능형 에이전트(145)는 상기 사용자 입력을 전처리하기 위하여, 적응 반향 제거(adaptive echo canceller)(AEC) 모듈, 노이즈 억제(noise suppression)(NS) 모듈, 종점 검출(end-point detection)(EPD) 모듈 또는 자동 이득 제어(automatic gain control)(AGC) 모듈을 포함할 수 있다. 상기 적응 반향 제거부는 상기 사용자 입력에 포함된 에코(echo)를 제거할 수 있다. 상기 노이즈 억제 모듈은 상기 사용자 입력에 포함된 배경 잡음을 억제할 수 있다. 상기 종점 검출 모듈은 상기 사용자 입력에 포함된 사용자 음성의 종점을 검출하 고, 상기 검출된 종점을 이용하여 사용자의 음성이 존재하는 부분을 찾을 수 있다. 상기 자동 이득 제어 모듈은 상기 사용자 입력을 인식하고, 상기 인식된 사용자 입력을 처리하기 적합하도록 상기 사용자 입력의 음량을 조절할 수 있다. 일 실시 예에 따르면, 프로세서(150)는 성능을 위하여 상기 전처리 구성을 전부 실행시킬 수 있지만, 다른 실시 예에서 프로세서(150)는 저전력으로 동작하기 위해 상기 전처리 구성 중 일부를 실행시킬 수 있다.
일 실시 예에 따르면, 지능형 에이전트(145)는 사용자의 호출을 인식하기 위해 메모리(140)에 저장된 웨이크 업(wake up) 인식 모듈을 실행시킬 수 있다. 이에 따라, 프로세서(150)는 상기 웨이크 업 인식 모듈을 통해 사용자의 웨이크 업 명령을 인식할 수 있고, 상기 웨이크 업 명령을 수신한 경우 사용자 입력을 수신하기 위한 지능형 에이전트(145)를 실행시킬 수 있다. 상기 웨이크 업 인식 모듈은 저전력 프로세서(예: 오디오 코덱에 포함된 프로세서)로 구현될 수 있다. 일 실시 예에 따르면, 프로세서(150)는 하드웨어 키를 통한 사용자 입력 을 수신하였을 때 지능형 에이전트(145)를 실행시킬 수 있다. 지능형 에이전트(145)가 실행된 경우, 지능형 에이전트(145)와 연동된 지능형 앱(예: 음성 인식 앱)이 실행될 수 있다.
일 실시 예에 따르면, 지능형 에이전트(145)는 사용자 입력을 실행하기 위한 음성 인식 모듈을 포함할 수 있다. 프로세서(150)는 상기 음성 인식 모듈을 통해 앱에서 동작을 실행하도록 하기 위한 사용자 입력을 인식할 수 있다. 예를 들어, 프로세서(150)는 상기 음성 인식 모듈을 통해 앱(141, 143)에서 상기 웨이크 업 명령과 같은 동작을 실행하는 제한된 사용자 (음성) 입력(예: 카메라 앱이 실행 중일 때 촬영 동작을 실행시키는 "찰칵"과 같은 발화 등)을 인식할 수 있다. 프로세서(150)는 상기 지능형 서버(200)를 보조하여 상기 음성 인식 모듈을 통해 사용자 단말(100)내에서 처리할 수 있는 사용자 명령을 인식하여 빠르게 처리할 수 있다. 일 실시 예에 따르면, 사용자 입력을 실행하기 위한 지능형 에이전트(145)의 음성 인식 모듈은 앱 프로세서에서 구현될 수 있다.
일 실시 예에 따르면, 지능형 에이전트(145)의 음성 인식 모듈(웨이크 업 모듈의 음성 인식 모듈을 포함)은 음성을 인식하기 위한 알고리즘을 이용하여 사용자 입력을 인식할 수 있다. 상기 음성을 인식하기 위해 사용되는 알고리즘은, 예를 들어, HMM(hidden markov model) 알고리즘, ANN(artificial neural network) 알고리즘 또는 DTW(dynamic time warping) 알고리즘 중 적어도 하나일 수 있다.
일 실시 예에 따르면, 프로세서(150)는 지능형 에이전트(145)를 실행하여 사용자의 음성 입력을 텍스트 데이터로 변환할 수 있다. 예를 들어, 프로세서(150)는 지능형 에이전트(145)를 통해 사용자의 음성을 지능형 서버(200)로 송신하고, 지능형 서버(200)로부터 사용자의 음성에 대응되는 텍스트 데이터를 수신할 수 있다. 이에 따라, 프로세서(150) 는 상기 변환된 텍스트 데이터를 디스플레이(120)에 표시할 수 있다.
일 실시 예에 따르면, 프로세서(150)는 지능형 에이전트(145)를 실행하여 지능형 서버(200)로부터 패스 룰을 수신할 수 있다. 일 실시 예에 따르면, 프로세서(150)는 지능형 에이전트(145)를 통해 상기 패스 룰을 실행 매니저 모듈(147)로 전달할 수 있다.
일 실시 예에 따르면, 프로세서(150)는 지능형 에이전트(145) 를 실행하여 지능형 서버(200)로부터 수신된 패스 룰에 따른 실행 결과 로그(log)를 지능형 서비스(intelligence service) 모듈(149)로 전달하고, 상기 전달된 실행 결과 로그는 페르소나 모듈(persona manager)(149b)의 사용자의 선호(preference) 정보에 누적되어 관리될 수 있다.
일 실시 예에 따른, 프로세서(150)는 실행 매니저 모듈(147)을 실행하여 지능형 에이전트(145)로부터 패스 룰을 전달받아 앱(141, 143)을 실행시키고, 앱(141, 143)이 상기 패스 룰에 포함된 동작(141b, 143b)을 실행하도록 할 수 있다. 예를 들어, 프로세서(150)는 실행 매니저 모듈(147)을 통해 앱(141, 143)으로 동작(141b, 143b)을 실행하기 위한 명령 정보(예: 패스 룰 정보)를 송신할 수 있고, 상기 앱(141, 143)로부터 동작(141b, 143b)의 완료 정보를 전달 받을 수 있다.
일 실시 예에 따르면, 프로세서(150)는 실행 매니저 모듈(147)을 실행하여 지능형 에이전트(145)와 앱(141, 143)의 사이에서 앱(141, 143)의 동작(141b, 143b)을 실행하기 위한 명령 정보(예: 패스 룰 정보)를 전달할 수 있다. 프로세서(150)는 실행 매니저 모듈(147)을 통해 상기 패스 룰에 따라 실행할 앱(141, 143)을 바인딩(binding)하고, 상기 패스 룰에 포함된 동작(141b, 143b)의 명령 정보(예: 패스 룰 정보)를 앱(141, 143)으로 전달할 수 있다. 예를 들어, 프로세서(150)는 실행 매니저 모듈(147)을 통해 상기 패스 룰에 포함된 동작(141b, 143b)을 순차적으로 앱(141, 143)으로 전달하여, 앱(141, 143)의 동작(141b, 143b)을 상기 패스 룰에 따라 순차적으로 실행시킬 수 있다.
일 실시 예에 따르면, 프로세서(150)는 실행 매니저 모듈(147)을 실행하여 앱(141, 143)의 동작(141b, 143b)의 실행 상태를 관리할 수 있다. 예를 들어, 프로세서(150)는 실행 매니저 모듈(147)을 통해 앱(141, 143)으로부터 상기 동작(141b, 143b)의 실행 상태에 대한 정보를 전달 받을 수 있다. 상기 동작(141b, 143b)의 실행 상태가, 예를 들어, 정지된 상태(partial landing)인 경우(예: 동작(141b, 143b)에 필요한 파라미터가 입력되지 않은 경우), 프로세서(150)는 실행 매니저 모듈(147)을 통해 상기 정지된 상태에 대한 정보를 지능형 에이전트(145)로 전달할 수 있다. 프로세서(150)는 지능형 에이전트(145)를 통해 상기 전달 받은 정보를 이용하여, 사용자에게 필요한 정보(예: 파라미터 정보)의 입력을 요청할 수 있다. 상기 동작(141b, 143b)의 실행 상태가, 다른 예를 들어, 동작 상태인 경우, 프로세서(150)는 지능형 에이전트(145)를 통해 사용자로부터 발화를 수신할 수 있 다. 프로세서(150)는 실행 매니저 모듈(147)를 통해 상기 실행되고 있는 앱(141, 143) 및 앱(141, 143)의 실행 상태에 대한 정보를 지능형 에이전트(145)로 전달할 수 있다. 프로세서(150)는 지능형 에이전트(145)를 통해 상기 사용자 발화를 지능형 서버(200)로 송신할 수 있다. 프로세서(150)는 지능형 에이전트(145)를 통해 지능형 서버(200)로부터 상기 사용자의 발화의 파라미터 정보를 수신할 수 있 다. 프로세서(150)는 지능형 에이전트(145)를 통해 상기 수신된 파라미터 정보를 실행 매니저 모듈(147)로 전달할 수 있다. 실행 매니저 모듈(147)은 상기 수신한 파라미터 정보를 이용하여 동작(141b, 143b)의 파라미터를 새로운 파라미터로 변경할 수 있다.
일 실시 예에 따르면, 프로세서(150)는 실행 매니저 모듈(147)을 실행하여 패스 룰에 포함된 파라미터 정보를 앱(141, 143)로 전달할 수 있다. 상기 패스 룰에 따라 복수의 앱(141, 143)이 순차적으로 실행되는 경우, 실행 매니저 모듈(147)은 하나의 앱에서 다른 앱으로 패스 룰에 포함된 파라미터 정보를 전달할 수 있다.
일 실시 예에 따르면, 프로세서(150)는 실행 매니저 모듈(147)을 실행하여 복수의 패스 룰을 수신할 수 있다. 프로세서(150)는 실행 매니저 모듈(147)을 통해 사용자의 발화에 기초하여 복수의 패스 룰이 선택될 수 있다. 예를 들어, 프로세서(150)는 실행 매니저 모듈(147)을 통해 사용자의 발화가 일부 동작(141a)을 실행할 일부 앱(141)을 특정하였지만, 나머지 동작(143b)을 실행할 다른 앱(143)을 특정하지 않은 경우, 일부 동작(141a)를 실행할 동일한 앱(141)(예: 갤러리 앱)이 실행되고 나머지 동작(143b)를 실행할 수 있는 서로 다른 앱(143)(예: 메시지 앱, 텔레그램 앱)이 각각 실행되는 서로 다른 복수의 패스 룰을 수신할 수 있다. 프로세서(150)는, 예를 들어, 실행 매니저 모듈(147)을 통해 상기 복수의 패스 룰의 동일한 동작(141b, 143b)(예: 연속된 동일한 동작(141b, 143b))을 실행할 수 있다. 프로세서(150)는 상기 동일한 동작까지 실행한 경우, 실행 매니저 모듈(147)을 통해 상기 복수의 패스 룰에 각각 포함된 서로 다른 앱(141, 143)을 선택할 수 있는 상태 화면을 디스플레이(120)에 표시할 수 있다.
일 실시 예에 따르면, 지능형 서비스 모듈(149)은 컨텍스트 모듈(149a), 페르소나 모듈(149b) 또는 제안 모듈(149c)을 포함할 수 있다.
프로세서(150)는 컨텍스트 모듈(149a)을 실행하여 앱(141, 143)으로부터 앱(141, 143)의 현재 상태를 수집할 수 있다. 예를 들어, 프로세서(150)는 컨텍스트 모듈(149a)을 실행하여 앱(141, 143)의 현재 상태를 나타내는 컨텍스트 정보를 수신하고, 상기 수신된 컨텍스트 정보를 통해 앱(141, 143)의 현재 상태를 수집할 수 있다.
프로세서(150)는 페르소나 모듈(149b)을 실행하여 사용자 단말(100)을 사용하는 사용자의 개인 정보를 관리할 수 있다. 예를 들어, 프로세서(150)는 페르소나 모듈(149b)을 실행하여 사용자 단말(100)의 사용 정보 및 수행 결과를 수집하고, 상기 수집된 사용자 단말(100)의 사용 정보 및 수행 결과를 이용하여 사용자의 개인 정보를 관리할 수 있다.
프로세서(150)는 제안 모듈(149c)을 실행하여 사용자의 의도를 예측하고, 상기 사용자의 의도에 기초하여 사용자에게 명령을 추천해줄 수 있다. 예를 들어, 프로세서(150)는 제안 모듈(149c)을 실행하여 사용자의 현재 상태(예: 시간, 장소, 상황, 앱)에 따라 사용자에게 명령을 추천해줄 수 있다.
도 3은 본 발명의 일 실시 예에 따른 사용자 단말의 지능형 앱을 실행시키는 것을 나타낸 도면이다.
도 3을 참조하면, 사용자 단말(100)이 사용자 입력을 수신하여 지능형 에이전트(145)와 연동된 지능형 앱(예: 음성 인식 앱)을 실행시키는 것을 나타낸 것이다.
일 실시 예에 따르면, 사용자 단말(100)은 하드웨어 키(112)를 통해 음성을 인식하기 위한 지능형 앱을 실행시킬 수 있다. 예를 들어, 사용자 단말(100)은 하드웨어 키(112)를 통해 사용자 입력을 수신한 경우 디스플레이(120)에 지능형 앱의 UI(user interface)(121)를 표시할 수 있다. 사용자는, 예를 들어, 지능형 앱의 UI(121)가 디스플레이(120)에 표시된 상태에서 음성을 입력(111b)하기 위해 지능형 앱의 UI(121)에 음성인식 버튼(121a)를 터치할 수 있다. 사용자는, 다른 예를 들어, 음성을 입력(120b)하기 위해 상기 하드웨어 키(112)를 지속적으로 눌러서 음성을 입력(120b)을 할 수 있다.
일 실시 예에 따르면, 사용자 단말(100)은 마이크(111)를 통해 음성을 인식하기 위한 지능형 앱을 실행시킬 수 있다. 예를 들어, 사용자 단말(100)은 마이크(111)를 통해 지정된 음성(예: 일어나!(wake up!))이 입력(111a)된 경우 디스플레이(120)에 지능형 앱의 UI(121)를 표시할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 통합 지능화 시스템의 지능형 서버를 나타낸 블록도이다.
도 4를 참조하면, 지능형 서버(200)는 자동 음성 인식(automatic speech recognition)(ASR) 모듈(210), 자연어 이해(natural language understanding)(NLU) 모듈(220), 패스 플래너(path planner) 모듈(230), 대화 매니저(dialogue manager)(DM) 모듈(240), 자연어 생성(natural language generator)(NLG) 모듈(250) 또는 텍스트 음성 변환(text to speech)(TTS) 모듈(260)을 포함할 수 있다. 일 실시 예에 따르면, 지능형 서버(200)는 통신 회로, 메모리 및 프로세서를 포함할 수 있다. 상기 프로세서는 상기 메모리에 저장된 명령어를 실행하여 자동 음성 인식 모듈(210), 자연어 이해 모듈(220), 패스 플래너 모듈(230), 대화 매니저 모듈(240), 자연어 생성 모듈(250) 및 텍스트 음성 변환 모듈(260)을 구동시킬 수 있다. 지능형 서버(200)는 상기 통신 회로를 통해 외부 전자 장치(예: 사용자 단말(100))와 데이터(또는, 정보)를 송수신할 수 있다.
지능형 서버(200)의 자연어 이해 모듈(220) 또는 패스 플래너 모듈(230)은 패스 룰(path rule)을 생성할 수 있다.
일 실시 예에 따르면, 자동 음성 인식(automatic speech recognition)(ASR) 모듈(210)은 사용자 단말(100)로부터 수신된 사용자 입력을 텍스트 데이터로 변환할 수 있다.
일 실시 예에 따르면, 자동 음성 인식 모듈(210)은 사용자 단말(100)로부터 수신된 사용자 입력을 텍스트 데이터로 변환할 수 있다. 예를 들어, 자동 음성 인식 모듈(210)은 발화 인식 모듈을 포함할 수 있다. 상기 발화 인식 모듈은 음향(acoustic) 모델 및 언어(language) 모델을 포함할 수 있다. 예를 들어, 상기 음향 모델은 발성에 관련된 정보를 포함할 수 있고, 상기 언어 모델은 단위 음소 정보 및 단위 음소 정보의 조합에 대한 정보를 포함할 수 있다. 상기 발화 인식 모듈은 발성에 관련된 정보 및 단위 음소 정보에 대한 정보를 이용하여 사용자 발화를 텍스트 데이터로 변환할 수 있다. 상기 음향 모델 및 언어 모델에 대한 정보는, 예를 들어, 자동 음성 인식 데이터베이스(automatic speech recognition database)(ASR DB)(211)에 저장될 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 문법적 분석(syntactic analyze) 또는 의미적 분석(semantic analyze)을 수행하여 사용자 의도를 파악할 수 있다. 상기 문법적 분석은 사용자 입력을 문법적 단위(예: 단어, 구, 형태소 등)로 나누고, 상기 나누어진 단위가 어떤 문법적인 요소를 갖는지 파악할 수 있다. 상기 의미적 분석은 의미(semantic) 매칭, 룰(rule) 매칭, 포뮬러(formula) 매칭 등을 이용하여 수행할 수 있다. 이에 따라, 자연어 이해 모듈(220)은 사용자 입력이 어느 도메인(domain), 의도(intent) 또는 상기 의도를 표현하는데 필요한 파라미터(parameter)(또는, 슬롯(slot))를 얻을 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 도메인(domain), 의도(intend) 및 상기 의도를 파악하는데 필요한 파라미터(parameter)(또는, 슬롯(slot))로 나누어진 매칭 규칙을 이용하여 사용자의 의도 및 파라미터를 결정할 수 있다. 예를 들어, 상기 하나의 도메인(예: 알람)은 복수의 의도(예: 알람 설정, 알람 해제 등)를 포함할 수 있고, 하나의 의도는 복수의 파라미터(예: 시간, 반복 횟수, 알람음 등)을 포함할 수 있다. 복수의 룰은, 예를 들어, 하나 이상의 필수 요소 파라미터를 포함할 수 있다. 상기 매칭 규칙은 자연어 인식 데이터베이스(natural language understanding database)(NLU DB)(221)에 저장될 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 형태소, 구 등의 언어적 특징(예: 문법적 요소)을 이용하여 사용자 입력으로부터 추출된 단어의 의미를 파악하고, 상기 파악된 단어의 의미를 도메인 및 의도에 매칭시켜 사용자의 의도를 결정할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 각각의 도메인 및 의도에 사용자 입력에서 추출된 단어가 얼마나 포함되어 있는 지를 계산하여 사용자 의도를 결정할 수 있다. 일 실시 예에 따르면, 자연어 이해 모듈(220)은 상기 의도를 파악하는데 기초가 된 단어를 이용하여 사용자 입력의 파라미터를 결정할 수 있다. 일 실시 예에 따르면, 자연어 이해 모듈(220)은 사용자 입력의 의도를 파악하기 위한 언어적 특징이 저장된 자연어 인식 데이터베이스(221)를 이용하여 사용자의 의도를 결정할 수 있다. 다른 실시 예에 따르면, 자연어 이해 모듈(220)은 개인화 언어 모델(personal language model)(PLM)을 이용하여 사용자의 의도를 결정할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 개인화된 정보(예: 연락처 리스트, 음악 리스트)를 이용하여 사용자의 의도를 결정할 수 있다. 상기 개인화 언어 모델은, 예를 들어, 자연어 인식 데이터베이스(221)에 저장될 수 있다. 일 실시 예에 따르면, 자연어 이해 모듈(220)뿐만 아니라 자동 음성 인식 모듈(210)도 자연어 인식 데이터베이스(221)에 저장된 개인화 언어 모델을 참고하여 사용자의 음성을 인식할 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 사용자 입력의 의도 및 파라미터에 기초하여 패스 룰을 생성할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 사용자 입력의 의도에 기초하여 실행될 앱을 선택하고, 상기 선택된 앱에서 수행될 동작을 결정할 수 있다. 상자연어 이해 모듈(220)은 상기 결정된 동작에 대응되는 파라미터를 결정하여 패스 룰을 생성할 수 있다. 일 실시 예에 따르면, 자연어 이해 모듈(220)에 의해 생성된 패스 룰은 실행될 앱, 상기 앱에서 실행될 동작(예: 적어도 하나 이상의 상태(state)) 및 상기 동작을 실행하는데 필요한 파라미터에 대한 정보를 포함할 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 사용자 입력의 의도 및 파라미터를 기반으로 하나의 패스 룰, 또는 복수의 패스 룰을 생성할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 패스 플래너 모듈(230)로부터 사용자 단말(100)에 대응되는 패스 룰 셋을 수신하고, 사용자 입력의 의도 및 파라미터를 상기 수신된 패스 룰 셋에 매핑하여 패스 룰을 결정할 수 있다.
다른 실시 예에 따르면, 자연어 이해 모듈(220)은 사용자 입력의 의도 및 파라미터에 기초하여 실행될 앱, 상기 앱에서 실행될 동작 및 상기 동작을 실행하는데 필요한 파라미터를 결정하여 하나의 패스 룰, 또는 복수의 패스 룰을 생성할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 사용자 단말(100)의 정보를 이용하여 상기 실행될 앱 및 상기 앱에서 실행될 동작을 사용자 입력의 의도에 따라 온톨로지(ontology) 또는 그래프 모델(graph model) 형태로 배열하여 패스 룰을 생성할 수 있다. 상기 생성된 패스 룰은, 예를 들어, 패스 플래너 모듈(230)를 통해 패스 룰 데이터베이스(path rule database)(PR DB)(231)에 저장될 수 있다. 상기 생성된 패스 룰은 데이터베이스(231)의 패스 룰 셋에 추가될 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 생성된 복수의 패스 룰 중 적어도 하나의 패스 룰을 선택할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 상기 복수의 패스 룰 최적의 패스 룰을 선택할 수 있다. 다른 예를 들어, 자연어 이해 모듈(220)은 사용자 발화에 기초하여 일부 동작만이 특정된 경우 복수의 패스 룰을 선택할 수 있다. 자연어 이해 모듈(220)은 사용자의 추가 입력에 의해 상기 복수의 패스 룰 중 하나의 패스 룰을 결정할 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 사용자 입력에 대한 요청으로 패스 룰을 사용자 단말(100)로 송신할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 사용자 입력에 대응되는 하나의 패스 룰을 사용자 단말(100)로 송신할 수 있다. 다른 예를 들어, 자연어 이해 모듈(220)은 사용자 입력에 대응되는 복수의 패스 룰을 사용자 단말(100)로 송신할 수 있다. 상기 복수의 패스 룰은, 예를 들어, 사용자 발화에 기초하여 일부 동작만이 특정된 경우 자연어 이해 모듈(220)에 의해 생성될 수 있다.
일 실시 예에 따르면, 패스 플래너 모듈(230)은 복수의 패스 룰 중 적어도 하나의 패스 룰을 선택할 수 있다.
일 실시 예에 따르면, 패스 플래너 모듈(230)은 자연어 이해 모듈(220)로 복수의 패스 룰을 포함하는 패스 룰 셋을 전달할 수 있다. 상기 패스 룰 셋의 복수의 패스 룰은 패스 플래너 모듈(230)에 연결된 패스 룰 데이터베이스(231)에 테이블 형태로 저장될 수 있다. 예를 들어, 패스 플래너 모듈(230)은 지능형 에이전트(145)로부터 수신된 사용자 단말(100)의 정보(예: OS 정보, 앱 정보)에 대응되는 패스 룰 셋을 자연어 이해 모듈(220)로 전달할 수 있다. 상기 패스 룰 데이터베이스(231)에 저장된 테이블은, 예를 들어, 도메인 또는 도메인의 버전 별로 저장될 수 있다.
일 실시 예에 따르면, 패스 플래너 모듈(230)은 패스 룰 셋에서 하나의 패스 룰, 또는 복수의 패스 룰을 선택하여 자연어 이해 모듈(220)로 전달할 수 있다. 예를 들어, 패스 플래너 모듈(230)은 사용자의 의도 및 파라미터를 사용자 단말(100) 에 대응되는 패스 룰 셋에 매칭하여 하나의 패스 룰, 또는 복수의 패스 룰을 선택하여 자연어 이해 모듈(220)로 전달할 수 있다.
일 실시 예에 따르면, 패스 플래너 모듈(230)은 사용자 의도 및 파라미터를 이용하여 하나의 패스 룰, 또는 복수의 패스 룰을 생성할 수 있다. 예를 들어, 패스 플래너 모듈(230)은 사용자 의도 및 파라미터에 기초하여 실행될 앱 및 상기 앱에서 실행될 동작을 결정하여 하나의 패스 룰, 또는 복수의 패스 룰을 생성할 수 있다. 일 실시 예에 따르면, 패스 플래너 모듈(230)은 상기 생성된 패스 룰을 패스 룰 데이터베이스(231)에 저장할 수 있다.
일 실시 예에 따르면, 패스 플래너 모듈(230)은 자연어 이해 모듈(220)에서 생성된 패스 룰을 패스 룰 데이터베이스(231)에 저장할 수 있다. 상기 생성된 패스 룰은 패스 룰 데이터베이스(231)에 저장된 패스 룰 셋에 추가될 수 있다.
일 실시 예에 따르면, 패스 룰 데이터베이스(231)에 저장된 테이블에는 복수의 패스 룰 또는 복수의 패스 룰 셋을 포함할 수 있다. 복수의 패스 룰 또는 복수의 패스 룰 셋은 각 패스 룰을 수행하는 장치의 종류, 버전, 타입, 또는 특성을 반영할 수 있다.
일 실시 예에 따르면, 대화 매니저 모듈(240)은 자연어 이해 모듈(220)에 의해 파악된 사용자의 의도가 명확한지 여부를 판단할 수 있다. 예를 들어, 대화 매니저 모듈(240)은 파라미터의 정보가 충분하지 여부에 기초하여 사용자의 의도가 명확한지 여부를 판단할 수 있다. 대화 매니저 모듈(240)은 자연어 이해 모듈(220)에서 파악된 파라미터가 테스크를 수행하는데 충분한지 여부를 판단할 수 있다. 일 실시 예에 따르면, 대화 매니저 모듈(240)은 사용자의 의도가 명확하지 않은 경우 사용자에게 필요한 정보를 요청하는 피드백을 수행할 수 있다. 예를 들어, 대화 매니저 모듈(240)은 사용자의 의도를 파악하기 위한 파라미터에 대한 정보를 요청하는 피드백을 수행할 수 있다.
일 실시 예에 따르면, 대화 매니저 모듈(240)은 컨텐츠 제공(content provider) 모듈을 포함할 수 있다. 상기 컨텐츠 제공 모듈은 자연어 이해 모듈(220)에서 파악된 의도 및 파라미터에 기초하여 동작을 수행할 수 있는 경우, 사용자 입력에 대응되는 테스크를 수행한 결과를 생성할 수 있다. 일 실시 예에 따르면, 대화 매니저 모듈(240)은 사용자 입력에 대한 응답으로 상기 컨텐츠 제공 모듈에서 생성된 상기 결과를 사용자 단말(100)로 송신할 수 있다.
일 실시 예에 따르면, 자연어 생성 모듈(NLG)(250)은 지정된 정보를 텍스트 형태로 변경할 수 있다. 상기 텍스트 형태로 변경된 정보는 자연어 발화의 형태일 수 있다. 상기 지정된 정보는, 예를 들어, 추가 입력에 대한 정보, 사용자 입력에 대응되는 동작의 완료를 안내하는 정보 또는 사용자의 추가 입력을 안내하는 정보(예: 사용자 입력에 대한 피드백 정보)일 수 있다. 상기 텍스트 형태로 변경된 정보는 사용자 단말(100)로 송신되어 디스플레이(120)에 표시되거나, 텍스트 음성 변환 모듈(260)로 송신되어 음성 형태로 변경될 수 있다.
일 실시 예에 따르면, 텍스트 음성 변환 모듈(260)은 텍스트 형태의 정보를 음성 형태의 정보로 변경할 수 있다. 텍스트 음성 변환 모듈(260)은 자연어 생성 모듈(250)로부터 텍스트 형태의 정보를 수신하고, 상기 텍스트 형태의 정보를 음성 형태의 정보로 변경하여 사용자 단말(100)로 송신할 수 있다. 사용자 단말(100)은 상기 음성 형태의 정보를 스피커(130)로 출력할 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220), 패스 플래너 모듈(230) 및 대화 매니저 모듈(240)은 하나의 모듈로 구현될 수 있다. 예를 들어, 자연어 이해 모듈(220), 패스 플래너 모듈(230) 및 대화 매니저 모듈(240)은 하나의 모듈로 구현되어 사용자의 의도 및 파라미터를 결정하고, 상기 결정된 사용자의 의도 및 파라미터에 대응되는 응답(예: 패스 룰)을 생성할 수 있다. 이에 따라, 생성된 응답은 사용자 단말(100)로 송신될 수 있다.
도 5는 본 발명의 일 실시 예에 따른 패스 플래너 모듈(path planner module)의 패스 룰(path rule)을 생성하는 방법을 나타낸 도면이다.
도 5는 참조하면, 일 실시 예에 따른, 자연어 이해 모듈(220)은 앱의 기능을 어느 하나 동작(예: 상태 A 내지 상태 F)으로 구분하여 패스 룰 데이터베이스(231)에 저장할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 어느 하나의 동작(예: 상태)으로 구분된 복수의 패스 룰(A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F)을 포함하는 패스 룰 셋을 패스 룰 데이터베이스(231)에 저장할 수 있다.
일 실시 예에 따르면, 패스 플래너 모듈(230)의 패스 룰 데이터베이스(231)는 앱의 기능을 수행하기 위한 패스 룰 셋을 저장할 수 있다. 상기 패스 룰 셋은 복수의 동작(예: 상태들의 시퀀스)을 포함하는 복수의 패스 룰을 포함할 수 있다. 상기 복수의 패스 룰은 복수의 동작 각각에 입력되는 파라미터에 따라 실행되는 동작이 순차적으로 배열될 수 있다. 일 실시 예에 따르면, 상기 복수의 패스 룰은 온톨로지(ontology) 또는 그래프 모델(graph model) 형태로 구성되어 패스 룰 데이터베이스(231)에 저장될 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 사용자 입력의 의도 및 파라미터에 대응되는 상기 복수의 패스 룰(A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F) 중에 최적의 패스 룰(A-B1-C3-D-F)을 선택할 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 사용자 입력에 완벽히 매칭되는 패스 룰이 없는 경우 사용자 단말(100)에 복수의 룰을 전달할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 사용자 입력에 부분적으로 대응된 패스 룰(예: A-B1)을 선택할 수 있다. 자연어 이해 모듈(220)은 사용자 입력에 부분적으로 대응된 패스 룰(예: A-B1)을 포함하는 하나 이상의 패스 룰(예: A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F)을 선택하여 사용자 단말(100)에 전달할 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 사용자 단말(100)의 추가 입력에 기초하여 복수의 패스 룰 중 하나를 선택하고, 상기 선택된 하나의 패스 룰을 사용자 단말(100)에 전달 할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 사용자 단말(100)에서 추가로 입력된 사용자 입력(예: C3를 선택하는 입력)에 따라 복수의 패스 룰(예: A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F) 중 하나의 패스 룰(예: A-B1-C3-D-F)을 선택하여 사용자 단말(100)에 송신할 수 있다.
또 다른 실시 예에 따르면, 자연어 이해 모듈(220)은 자연어 이해 모듈(220)을 통해 사용자 단말(100)에 추가로 입력된 사용자 입력(예: C3를 선택하는 입력)에 대응되는 사용자의 의도 및 파라미터를 결정할 수 있고, 상기 결정된 사용자의 의도 또는 파라미터를 사용자 단말(100)로 송신할 수 있다. 사용자 단말(100)은 상기 송신된 의도 또는 상기 파라미터에 기초하여, 복수의 패스 룰(예: A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F) 중 하나의 패스 룰(예: A-B1-C3-D-F)을 선택할 수 있다.
이에 따라, 사용자 단말(100)은 상기 선택된 하나의 패스 룰에 의해 앱(141, 143)의 동작을 완료시킬 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 정보가 부족한 사용자 입력이 지능형 서버(200)에 수신된 경우, 상기 수신한 사용자 입력에 부분적으로 대응되는 패스 룰을 생성할 수 있다. 예를 들어, 자연어 이해 모듈(220)은 상기 부분적으로 대응된 패스 룰을 지능형 에이전트(145)로 송신할 수 있다. 프로세서(150)는 지능형 에이전트(145)를 실행하여 상기 패스 룰을 수신하고, 실행 매니저 모듈(147)로 상기 부분적으로 대응된 패스 룰을 전달할 수 있다. 프로세서(150)는 실행 매니저 모듈(147)를 통해 상기 패스 룰에 따라 제1 앱(141)을 실행시킬 수 있다. 프로세서(150)는 실행 매니저 모듈(147)을 통해 제1 앱(141)을 실행하면서 부족한 파라미터에 대한 정보를 지능형 에이전트(145)로 송신할 수 있다. 프로세서(150)는 지능형 에이전트(145)를 통해 상기 부족한 파라미터에 대한 정보를 이용하여 사용자에게 추가 입력을 요청할 수 있다. 프로세서(150)는 지능형 에이전트(145)를 통해 사용자에 의해 추가 입력이 수신되면 사용자 입력을 지능형 서버(200)로 송신하여 처리할 수 있다. 자연어 이해 모듈(220)은 상기 추가로 입력된 사용자 입력의 의도 및 파라미터 정보에 기초하여 추가된 패스 룰을 생성하여 지능형 에이전트(145)로 송신할 수 있다. 프로세서(150)는 지능형 에이전트(145)를 통해 실행 매니저 모듈(147)로 상기 패스 룰을 송신하여 제2 앱(143)을 실행할 수 있다.
일 실시 예에 따르면, 자연어 이해 모듈(220)은 일부 정보가 누락된 사용자 입력이 지능형 서버(200)에 수신된 경우, 개인화 정보 서버(300)로 사용자 정보 요청을 송신할 수 있다. 개인화 정보 서버(300)는 페르소나 데이터베이스에 저장된 사용자 입력을 입력한 사용자의 정보를 자연어 이해 모듈(220)로 송신할 수 있다. 자연어 이해 모듈(220)은 상기 사용자 정보를 이용하여 일부 동작이 누락된 사용자 입력에 대응되는 패스 룰을 선택할 수 있다. 이에 따라, 자연어 이해 모듈(220)은 일부 정보가 누락된 사용자 입력이 지능형 서버(200)에 수신되더라도, 누락된 정보를 요청하여 추가 입력을 받거나 사용자 정보를 이용하여 상기 사용자 입력에 대응되는 패스 룰을 결정할 수 있다.
하기에 첨부된 표 1은 일 실시 예에 따른 사용자가 요청한 테스크와 관련한 패스 룰의 예시적 형태를 나타낼 수 있다.
Path rule ID State parameter
Gallery_101 pictureView(25) NULL
searchView(26) NULL
searchViewResult(27) Location,time
SearchEmptySelectedView(28) NULL
SearchSelectedView(29) ContentType,selectall
CrossShare(30) anaphora
표 1을 참조하면, 사용자 발화(예: "사진 공유해줘")에 따라 지능형 서버(도 1의 지능형 서버(200))에서 생성 또는 선택되는 패스 룰은 적어도 하나의 상태(state)(25, 26, 27, 28, 29 또는 30)를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 상태 (예: 단말의 어느 한 동작 상태)는 사진 어플리케이션 실행(PicturesView)(25), 사진 검색 기능 실행(SearchView)(26), 검색 결과 표시 화면 출력(SearchViewResult)(27), 사진이 미(non)선택된 검색 결과 표시 화면 출력(SearchEmptySelectedView)(28), 적어도 하나의 사진이 선택된 검색 결과 표시 화면 출력(SearchSelectedView)(29) 또는 공유 어플리케이션 선택 화면 출력(CrossShare)(30) 중 적어도 하나에 해당될 수 있다.일 실시 예에서, 상기 패스 룰의 파라미터 정보는 적어도 하나의 상태(state)에 대응될 수 있다. 예를 들어, 상기 적어도 하나의 사진이 선택된 검색 결과 표시 화면 출력(29) 상태에 포함될 수 있다.
상기 상태(25, 26, 27, 28, 29)들의 시퀀스를 포함한 패스 룰의 수행 결과 사용자가 요청한 테스크 (예: "사진 공유해줘!")가 수행될 수 있다.
이하에서는 다양한 실시예들에 따른 지능형 시스템에 대해서 설명한다.
다양한 실시예들에 따르면 지능형 시스템은 상술한 통합 지능화 시스템의 일 예일 수 있다. 따라서, 상술한 통합 지능화 시스템에 대한 다양한 실시예가 이하에서 설명되는 지능형 시스템의 다양한 실시예에 준용될 수 있다. 예를 들어, 상술한 통합 지능화 시스템의 지능형 서버에 포함된 다양한 모듈들(예: 자연어 이해 모듈 등)이 이하에서 설명되는 지능형 시스템의 다양한 실시예에 포함될 수 있다.
다양한 실시예들에 따르면, 지능형 시스템은 다양한 도메인에 기반하여, 사용자로부터 획득되는 사용자 발화에 대응하는 다양한 서비스를 제공할 수 있다. 예를 들어, 지능형 시스템은 사용자 발화를 획득하고, 특정 도메인에 의해 획득된 사용자 발화가 처리되도록 하고, 특정 도메인으로부터 반환되는 정보를 서비스를 제공 받고자 하는 장치의 디스플레이에 표시되도록 할 수 있다. 여기서 도메인은, 상술한 자연어 이해 모듈(220)에서의 도메인과 명칭만 같을 뿐, 다른 구성이다.
다양한 실시예들에 따르면, 도메인은 지능형 시스템에서 사용자 발화에 대응하는 정보(예: Deeplink, UI, 및/또는 UX)를 제공하기 위한 단위를 의미할 수 있다. 도메인은, 예를 들어 제작된 어플리케이션에 대응할 수 있으며, 사용자 발화에 대응하여 어플리케이션과 연관된 정보(예: Deeplink)를 제공할 수 있다. 예를 들어, 사용자 발화를 처리하여, 어플리케이션의 적어도 하나의 기능 또는 적어도 하나의 서비스에 접근할 수 있는 정보를 제공하기 위한 최소 단위의 프로그램, 내지는 어플리케이션은 도메인으로 정의될 수 있다. 구현에 따라서, 도메인은 캡슐로도 명명될 수도 있다. 캡슐에 대해서는 도 7과 관련된 설명에서 구체적으로 후술한다. 또 예를 들어, 후술하겠으나, 지능형 시스템과 연동되는 외부 서버가 존재할 수 있는데, 외부 서버에 도메인이 저장 될 수 있다. 또는, 외부 서버가 도메인과 같은 동작을 수행할 수 있다. 이 경우, 지능형 서버는, 수신한 사용자 발화를 외부 서버로 송신할 수 있으며, 외부 서버에서 도메인에 의하여 처리된 대응하는 정보를 지능형 서버가 수신하여, 이를 전자 장치로 포워딩할 수도 있다.
다양한 실시예들에 따르면, 도메인은 지능형 시스템에서 카테고리 단위로 분류될 수 있다. 이에 대해서는, 도 8에서 구체적으로 후술한다.
이하에서는 다양한 실시예들에 따른 지능형 시스템의 구성의 일 예를 설명한다.
도 6은 다양한 실시예들에 따른 지능형 시스템의 구성의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 다르면, 지능형 시스템은 도 6에 도시된 바와 같이 전자 장치(100), 지능형 서버(200), 개발자 서버(602, 603, 604, 605), 및 외부 전자 장치(601)를 포함할 수 있다.
이하에서는 전자 장치(100)에 대해서 설명한다.
전자 장치(100)는 도 1에 상술한 바와 같으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 전자 장치(100)는 음성 인식 서비스 제공을 위한 다양한 정보를 획득할 수 있다. 전자 장치(100)는 음성 서비스 제공 어플리케이션(예: Bixby)(또는 지능형 앱, 음성 인식 앱)이 실행되는 경우, 음성 서비스 어플리케이션을 기반으로 사용자로부터 발화(사용자 발화)를 수신할 수 있다. 전자 장치(100)는 음성 서비스 제공 어플리케이션(또는 지능형 앱, 음성 인식 앱)이 실행되는 동안, 다양한 부가 정보를 획득할 수 있다. 다양한 부가 정보는 컨텍스트 정보 및/또는 사용자 정보를 포함할 수 있다. 예를 들어, 컨텍스트 정보는 전자 장치(100)에서 실행되는 어플리케이션 내지는 프로그램에 대한 정보, 현재 위치에 대한 정보 등을 포함할 수 있다. 예를 들어, 사용자 정보는 사용자의 전자 장치(100) 사용 패턴(예: 어플리케이션 사용 패턴 등), 사용자의 신상 정보(예: 나이 등) 등을 포함할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)는 수신된 사용자 발화를 지능형 서버(200)로 송신할 수 있다. 또, 예를 들어 전자 장치(100)는 획득된 부가 정보를 지능형 서버(200)로 제공할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)는 지능형 서버(200)로부터 지능형 서버(200)의 사용자 발화 처리 결과에 대한 응답으로 특정 정보를 수신하고, 특정 정보를 기반으로 사용자에게 서비스를 제공할 수 있다. 예를 들어, 전자 장치(100)는 디스플레이 상에 수신된 특정 정보(예: 사용자 발화에 대응하는 컨텐트를 포함하는 UI/UX)를 표시할 수 있다. 또는 예를 들어, 전자 장치(100)는 특정 정보를 기반으로 적어도 하나의 외부 전자 장치(601)를 제어하는 서비스를 제공할 수 있다.
이하에서는 적어도 하나의 외부 전자 장치(601)에 대해서 설명한다.
다양한 실시예들에 따르면, 적어도 하나의 외부 전자 장치(601)는 전자 장치(100)에 다양한 종류의 통신 스킴(예: Wifi 등)을 기반으로 통신 연결되어, 전자 장치(100)로부터 수신되는 제어 신호에 의해 제어되는 대상 장치일 수 있다. 달리 말해, 외부 전자 장치(601)는 사용자 발화에 의해 획득된 특정 정보를 기반으로 전자 장치(100)에 의해 제어될 수 있다. 외부 전자 장치(601)는 IOT 장치로서, 전자 장치(100)와 함께 특정 클라우드(예: 스마트 홈 클라우드)에서 관리되는 장치일 수 있다.
이하에서는 지능형 서버(200)에 대해서 설명한다.
다양한 실시예들에 따르면 지능형 서버(200)는 전자 장치(100)로부터 수신된 사용자 발화를 처리하여, 사용자 발화에 대응하는 서비스를 제공하기 위한 정보를 획득할 수 있다. 지능형 서버(200)는 사용자 발화를 처리하는 데에 전자 장치(100)로부터 수신된 사용자 발화와 함께 수신된 부가 정보를 참조할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)는 사용자 발화를 도메인에 의해 처리되도록 할 수 있다. 일 예를 들어, 지능형 서버(200)는 사용자 발화가 지능형 서버(200)에 구현된 캡슐에 의해 처리되도록 하여 처리 결과 정보를 캡슐로부터 획득하거나, 지능형 서버(200)에 연동되는 외부 서버에 의해 처리되도록 하여 처리 결과 정보를 외부 서버로부터 획득 할 수 있다. 캡슐 및 외부 서버의 동작에 대해서는 구체적으로 후술한다.
다양한 실시예들에 따르면 지능형 서버(200)는 사용자 발화를 처리하기 위한 도메인을 개발자 서버(602, 603, 604, 605)로부터 획득할 수 있다. 예를 들어, 지능형 서버(200)는 사용자 발화를 처리하기 위한 캡슐을 개발자 서버(602, 603, 604, 605)로부터 획득할 수 있다. 예를 들어, 개발자 서버(602, 603, 604, 605)의 개발자는 캡슐을 지능형 서버(200)에 등록할 수 있다. 지능형 서버(200)는 개발자 서버(602, 603, 604, 605)가 지능형 서버(200)로 접속되는 경우 캡슐을 등록하기 위한 유저 인터페이스가 개발자 서버(602, 603, 604, 605)에 표시되도록 할 수 있고, 개발자는 표시된 유저 인터페이스 상에서 캡슐을 등록할 수 있다.
한편, 상기 기재에 국한되지 않고, 지능형 서버(200)는 지능형 서버(200)에서 자체적으로 제작된 도메인을 저장할 수도 있다.
이하에서는 개발자 서버(602, 603, 604, 605)에 대해서 설명한다.
다양한 실시예들에 따르면 복수 개의 개발자 서버(602, 603, 604, 605)는 지능형 서버(200)에 사용자 발화를 처리하기 위한 도메인을 등록할 수 있다. 예를 들어, 개발자 서버(602, 603, 604, 605)에서 사용자 발화를 처리하기 위한 캡슐이 제작되고, 개발자 서버(602, 603, 604, 605)(또는, 캡슐 개발자)는 지능형 서버(200)에 제작된 캡슐을 등록할 수 있다. 이때, 등록 절차는 개발자 서버(602, 603, 604, 605)가 지능형 서버(200)에 직접 접속하고 접속된 지능형 서버(200)에 캡슐을 등록함에 따라 수행될 수 있으나, 기재된 바에 국한되지 않고 별도로 등록 서버가 마련되어 등록 서버에 캡슐이 등록되고 등록 서버로부터 지능형 서버(200)로 등록된 캡슐이 제공될 수도 있다.
다양한 실시예들에 따르면 각각의 복수 개의 개발자 서버(602, 603, 604, 605)에서 제작되는 캡슐이 제공하는 적어도 하나의 기능은 서로 상이할 수 있으며, 또는 유사할 수 있다. 예를 들어, 제 1 개발자 서버에서 제작된 제 1 캡슐은 제 1 기능(예: 음악 관련 기능)을 제공하고, 제 2 개발자 서버에서 제작된 제 2 캡슐은 제 2 기능(예: 음악 관련 기능)을 제공하고, ... , 제 N 개발자 서버에서 제작된 제 N 캡슐은 제 N 기능(예: 영상 관련 기능)을 제공할 수 있다. 다양한 캡슐이 제공할 수 있는 다양한 서비스에 기반하여, 사용자 발화에 대응하는 다양한 서비스가 사용자에게 제공될 수 있다.
다양한 실시예들에 따르면, 각각의 캡슐은 서로 관련된 복수 개의 기능을 제공할 수 있다. 예를 들어, 제 1 캡슐은 서로 관련된 제 1-1 기능(예: 음악 재생 기능) 및 제 1-2 기능(예: 음악 리스트 제공 기능)을 제공할 수 있다. 캡슐이 제공하는 기능에 따라 특정 카테고리에 할당될 수 있으며, 이에 따라 복수 개의 카테고리들에 할당될 수 있는데 이에 대해서는 지능형 서버(200)에 대한 설명에서 후술한다.
이하에서는, 다양한 실시예들에 따른 지능형 서버(200)의 구성의 일 예 및 지능형 서버(200)에 연동되는 외부 서버(719, 720)의 일 예에 대해서 설명한다.
다양한 실시예들에 따르면 지능형 서버(200)는 전자 장치(100)로부터 수신된 사용자 발화 및 부가 정보를 처리하여, 사용자 발화에 대응하는 서비스를 제공하기 위한 특정 정보를 생성할 수 있다.
도 7은 다양한 실시예들에 따른 지능형 서버(200)의 구성의 일 예 및 지능형 서버(200)에 연동되는 외부 서버(719, 720)의 일 예를 설명하기 위한 도면이다. 지능형 서버(200)에 구현된 각각의 모듈은 특정 동작을 수행할 수 있도록 코딩된 프로그램일 수 있다. 달리 말해, 각각의 모듈의 특정 동작을 수행할 수 있도록 지능형 서버(200)의 프로세서가 설정될 수 있다. 이하에서는 도 7의 지능형 서버(200)의 구성의 동작에 대해서 도 8 내지 도 9를 참조하여 설명한다.
도 8은 다양한 실시예들에 따른 지능형 서버(200)의 리졸버 선택 동작, 카테고리 선택 동작, 및 도메인 선택 동작의 일 예를 설명하기 위한 도면이다.
도 9는 다양한 실시예들에 따른 일 카테고리에서 처리 가능한 발화 리스트를 설명하기 위한 도면이다.
다양한 실시예들에 따르면, 지능형 서버(200)는 ASR 모듈(701), 네임 디스패쳐 모듈(702), 리졸버 선택 모듈(704), 복수 개의 리졸버들(705, 708), 및 복수 개의 도메인 선택 모듈(711)을 포함하는 자연어 이해 모듈(703), 패스 플래너 모듈(712), NLG 생성 모듈(713), TTS 모듈(714), 카테고리 변경 모듈(715), 도메인 변경 모듈(716), 및 복수 개의 캡슐들(717, 718)을 포함할 수 있다.
다양한 실시예들에 따르면, ASR 모듈(701)은 상술한 ASR 모듈 (210)와 같이, 패스 플래너 모듈(712)은 상술한 패스 플래너 모듈(230)과 같이, NLG 생성 모듈(713)은 상술한 NLG 모듈(250)과 같이, TTS 모듈(714)은 상술한 TTS 모듈(260)과 같은 유사한 동작을 수행할 수 있으므로, 각각의 모듈과 관련된 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 네임 디스패쳐 모듈(702)은 ASR 모듈(701)에 의해 획득되는 사용자 발화에 대응하는 텍스트 데이터를 확인하고, 텍스트 데이터에 포함된 특정 단어를 확인하고, 확인된 특정 단어에 대응하는 서비스를 제공할 수 있는 도메인(또는, 캡슐)을 식별할 수 있다. 예를 들어, 특정 단어는 기기 명칭(예: TV), 컨텐트 명칭(예: 영화 이름, 노래 제목)를 포함하는 일반 명사, 다양한 종류의 고유 명사(예: 날씨) 등을 포함할 수 있다.
다양한 실시예들에 따르면 자연어 이해 모듈(703)은 사용자 발화를 문법적으로 분석(syntactic analyze) 및/또는 의미적으로 분석(semantic analyze)하여, 사용자의 의도를 확인하고, 확인된 사용자 의도에 대응하는 도메인을 식별할 수 있다. 자연어 이해 모듈(703)에 포함된 모듈들(예: 리졸버 선택 모듈(704), 복수 개의 리졸버들(705, 708), 및 도메인 선택 모듈들(711))은 사용자 발화를 문법적으로 분석(syntactic analyze) 또는 의미적으로 분석(semantic analyze)하는 것을 기반으로, 동작을 수행할 수 있다.
다양한 실시예들에 따르면 리졸버 선택 모듈(704)은 도 8에 도시된 바와 같이 사용자 발화(또는, 사용자 발화에 대응하는 텍스트 데이터)에 대응하는 리졸버(801, 802, 803)를 선택할 수 있다.
예를 들어, 리졸버 선택 모듈(704)은 각각의 복수 개의 리졸버들(801, 802, 803)이 학습한 발화를 기반으로, 복수 개의 리졸버들(801, 802, 803) 중 수신된 사용자 발화에 대응하는 리졸버를 선택할 수 있다. 이 경우, 리졸버 선택 모듈(704)은 다양한 사용자 발화에 대하여 복수 개의 리졸버들을 클래스로 하는 모델이 학습될 수 있으며, 리졸버 선택 모듈(704)은 학습된 모델에 기반하여 리졸버를 선택할 수 있다. 예를 들어, 각각의 복수 개의 리졸버들(801, 802, 803)은 학습된 발화의 어휘적 유사성(문법적, 의미적 유사성)을 기반으로 분류되거나, 학습된 발화와 관련된 기능(또는, 서비스)의 유사성을 기반으로 분류될 수 있다. 일 예로, 제 1 리졸버(예: MediaResolver)는 제 1 기능(예: 미디어 재생)과 관련된(예: 제 1 기능을 제공 받기를 원하는) 발화를 기반으로 학습될 수 있으며, 이에 따라 리졸버 선택 모듈(704)은 사용자 발화(또는, 텍스트 데이터)로부터 분석에 따라 제 1 기능(예: 미디어 재생)과 관련된 정보가 확인되는 경우 복수 개의 리졸버들(801, 802, 803) 중 제 1 리졸버(801)를 선택할 수 있다. 또 일 예로, 제 1 리졸버(예: MediaResolver)는 제 2 기능(예: TV 미디어 제어)과 관련된(예: 제 2 기능을 제공 받기를 원하는) 발화를 기반으로 학습될 수 있으며, 이에 따라 리졸버 선택 모듈(704)은 사용자 발화(또는, 텍스트 데이터)로부터 분석에 따라 제 2 기능(예: TV 미디어 제어)과 관련된 정보가 확인되는 경우 복수 개의 리졸버들(801, 802, 803) 중 제 1 리졸버(801)를 선택할 수 있다.
상술한 바와 같이, 사용자 발화가 수신되는 경우, 리졸버 선택 모듈(704)에 의해 서로 다른 유형의 발화로 학습된 리졸버들 중 수신된 사용자 발화에 대응하는 리졸버가 선택되게 됨으로써, 사용자 발화에 대응하는 더 적합한 서비스가 사용자에게 제공되도록 사용자 발화가 분석될 수 있다.
다양한 실시예들에 따르면 도 8에 도시된 바와 같이 각각의 복수 개의 리졸버들(801, 802, 803)에는 복수 개의 카테고리들(811, 812, 813, 814)이 할당될 수 있다. 각각의 복수 개의 리졸버들(801, 802, 803)은 복수 개의 카테고리들(811, 812, 813, 814) 중 사용자 발화(또는, 텍스트 데이터)에 대응하는 카테고리를 선택할 수 있다. 예를 들어, 복수 개의 리졸버들(801, 802, 803) 중 일 리졸버가 선택되는 경우, 선택된 리졸버는 기존에 학습된 특성의 발화를 기반으로 현재 수신된 사용자 발화를 분석하여, 분석된 결과를 기반으로 복수 개의 카테고리들 중 사용자 발화에 대응하는 특정 카테고리를 선택할 수 있다. 이와 같이 리졸버는 카테고리를 선택하는 동작을 수행하므로, 카테고리 선택 모듈로 정의될 수 있다.
다양한 실시예들에 따르면 복수 개의 리졸버들(705, 708)은 복수 개의 리졸버에 할당된 데이터베이스(706, 710), 또는 검색 서버(미도시)에 연동하기 위한 라이브러리 캡슐(707, 709)을 기반으로, 사용자 발화를 분석하고 카테고리를 선택할 수 있다. 예를 들어, 리졸버(705, 708)는 리졸버에 할당된 데이터베이스(706, 710)로부터 사용자 발화 중 적어도 일부에 대응하는 정보(예: 명칭 정보)를 확인하고, 확인된 정보에 대응하는 기능을 제공할 수 있는 도메인을 포함하는 카테고리를 선택할 수 있다. 또 예를 들어, 리졸버(705, 708)는 리졸버에 포함된 라이브러리 캡슐(707, 709)을 이용하여 검색 서버(예: 클라우드 서버 등)에 연동하고, 연동된 검색 서버(미도시)로부터 사용자 발화의 적어도 일부에 대응하는 정보(예: 명칭 정보)를 검색하고, 검색된 정보에 대응하는 기능을 제공할 수 있는 도메인을 포함하는 카테고리를 선택할 수 있다. 이 경우, 리졸버(705, 708)는 사용자 발화를 기반으로 검색을 위한 서치 쿼리를 획득하고, 획득된 서치 쿼리를 검색 서버(미도시)로 송신하여, 이에 대한 응답으로 검색 결과를 획득할 수 있다.
다양한 실시예들에 따르면 복수 개의 리졸버들(705, 708)은 도 9에 도시된 바와 같이 각각의 카테고리가 지원하는 발화 리스트(900)를 확인하고, 사용자 발화(또는, 텍스트 데이터)에 대응하는 발화를 포함하는 일 카테고리를 선택할 수 있다. 예를 들어, 카테고리는 도 9에 도시된 바와 같이 처리될 수 있는 발화에 대한 정보를 가질 수 있다. 여기서, 카테고리에서 처리될 수 있는 발화들은 카테고리에 포함된 복수 개의 도메인들이 해당 카테고리에서 제공하는 기능들에 대응할 수 있다. 일 예로, 도 9에서 제 1 도메인이 해당 카테고리에서 제 1 기능을 제공하는 경우, 제 1 기능과 관련된 사용자 발화(901)는 해당 카테고리에서 처리될 수 있으며, 해당 카테고리에서 발화 리스트로 관리될 수 있다.
다양한 실시예들에 따르면 각각의 복수 개의 카테고리들(811, 812, 813, 814)은 도 8에 도시된 바와 같이 적어도 하나의 도메인(821, 822, 823, 824, 825)을 포함할 수 있다. 다시 말해, 각각의 복수 개의 도메인들(821, 822, 823, 824, 825)은 복수 개의 카테고리들(811, 812, 813, 814)로 분류될 수 있다. 상술한 바와 같이, 지능형 서버(200)에 도메인들이 등록되는 경우에, 개발자가 특정 카테고리에 도메인을 등록(또는, 캡슐에 대한 정보를 지능형 서버(200)에 등록)함으로써, 도메인이 특정 카테고리에 포함될 수 있다. 또는, 대응하는 캡슐(어플리케이션)이 제공하는 기능(또는, 서비스)가 유사한 적어도 하나의 도메인은 같은 카테고리로 분류될 수 있다. 기능적 유사성에 기반하여 적어도 하나의 도메인이 카테고리에 분류되는 동작은, 개발자의 도메인 등록 시 수동으로 수행되거나, 또는 지능형 서버(200) 내에서 자동으로 수행될 수 있다.
다양한 실시예들에 따르면, 복수 개의 카테고리들(811, 812, 813, 814) 중 적어도 일부는 서로 같은 적어도 하나의 도메인을 포함할 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 제 1 카테고리(811)와 제 2 카테고리(812)는 서로 같은 제 3 도메인(823)을 포함할 수 있다.
각각의 도메인이 지능형 서버(200)에 등록되는 경우, 개발자에 의해 복수 개의 카테고리에 포함될 수 있다. 일 예로, 개발자가 제 3 도메인(823)을 지능형 서버(200)에 등록하는 경우, 제 3 도메인(823)을 제 1 카테고리(811) 및 제 2 카테고리(812)에 등록할 수 있다. 이 때, 지능형 서버(200)는 개발자 서버가 지능형 서버(200)로 접속되는 경우 캡슐을 등록하기 위한 유저 인터페이스가 개발자 서버에 표시되도록 할 수 있고, 개발자가 유저 인터페이스 상에서 제 3 도메인(823)을 등록하는 경우 제 3 도메인(823)이 등록될 수 있는 복수 개의 카테고리들을 표시할 수 있다. 개발자는 유저 인터페이스 상에서 복수 개의 카테고리들 중 캡슐이 등록될 적어도 하나의 카테고리(예: 제 1 카테고리(811) 및 제 2 카테고리(812))를 선택할 수 있다. 이에 따라, 제 3 도메인(823)(또는, 제 3 캡슐(미도시))이 제 1 카테고리(811) 및 제 2 카테고리(812)에 등록됨으로써, 제 3 도메인(823)은 제 1 카테고리(811) 및 제 2 카테고리(812)에 포함될 수 있다.
각각의 도메인이 사용자 발화를 처리하여 반환 할 수 있는 정보(예: 딥 링크, UI/UX)의 종류(또는, 반환되는 정보에 기반하여 전자 장치(100)에서 수행되는 기능)에 기반하여, 각각의 도메인(821, 822, 823, 824, 825)이 복수 개의 카테고리들(811, 812, 813, 814)에 포함될 수 있다. 예를 들어, 제 3 도메인(823)은 사용자 발화를 처리하여 제 1 기능(예: 음악 재생 기능)과 관련된 정보(예: 딥 링크)를 반환하고, 제 2 기능(예: 영상 재생 기능)과 관련된 정보(예: 딥 링크)의 반환을 제공할 수 있다. 이에 따라, 제 1 기능(예: 음악 재생 기능)에 대응하는 제 1 카테고리(811)(예: 음악) 및 제 2 기능(예: 영상 재생 기능)에 대응하는 제 2 카테고리(812)(예: 영상)에 제 3 도메인(823)이 포함될 수 있다.
서로 다른 카테고리에 일 도메인이 할당됨으로써, 선택되는 카테고리의 종류에 따라 특정 도메인이 제공할 수 있는 다양한 기능들을 음성 서비스에 이용하게 될 수 있다. 이에 따라, 사용자는 특정 도메인이 제공할 수 있는 다양한 기능에 기반한 풍부한 음성 서비스를 제공 받을 수 있게 된다.
다양한 실시예들에 따르면 각각의 도메인 선택 모듈들(711)은 선택된 카테고리에 포함된 복수 개의 도메인들 중 사용자 발화(또는, 텍스트 데이터)에 대응하는 도메인을 선택할 수 있다. 도메인 선택 모듈들(711)은 각각의 카테고리 별로 구현되며, 일 카테고리에 할당된 도메인 선택 모듈은 사용자 발화를 기반으로 일 카테고리에 포함된 도메인들 중 특정 도메인을 선택할 수 있다. 예를 들어, 도메인 선택 모듈들(711)은 각각의 도메인들이 제공하는 기능들을 확인하고, 확인된 기능들 중 사용자 발화에 대응하는(예: 사용자 발화에 따라 분석된 사용자의 의도와 관련된) 기능을 제공하는 도메인을 선택할 수 있다.
다양한 실시예들에 따르면 카테고리 변경 모듈(715)은 사용자 발화를 처리하도록 기 결정된 카테고리에서 다른 카테고리로 변경할 수 있다. 카테고리 변경 모듈(715)에 따라 다른 카테고리로 변경되면, 도메인 선택 모듈들(711)은 변경된 카테고리 내에서 사용자 발화를 처리하기 위한 도메인을 재선택할 수 있다.
다양한 실시예들에 따르면 도메인 변경 모듈(716)은 사용자 발화를 처리하도록 기 결정된 도메인에서 같은 카테고리 내의 다른 도메인으로 변경할 수 있다.
다양한 실시예들에 따르면 복수 개의 도메인들(717, 718)은 수신된 사용자 발화를 처리하여 서비스를 제공하기 위한 정보를 생성할 수 있다. 복수 개의 도메인들(821, 822, 823, 824, 825)의 각각은 도 8에 도시된 바와 같이 캡슐일 수 있다. 달리 말해, 사용자 발화를 처리하기 위해 일 도메인이 선택되고, 선택된 도메인에 의해 사용자 발화가 처리된다는 것은, 일 도메인이 선택되고 일 캡슐에 의해 사용자 발화가 처리되는 것을 의미할 수 있다. 다만, 본 개시에서 설명의 편의를 위해서, 도메인이라는 기재로 지능형 시스템의 다양한 실시예들에 대해서 설명하도록 한다.
다양한 실시예들에 따르면 도메인(캡슐)은 사용자 발화에 대응하는 특정 기능 또는 특정 서비스를 제공하기 위해, 사용자 발화를 처리하여 특정 정보를 생성하는 일종의 프로그램 패키지일 수 있다. 한편 상술한 바와 같이, 캡슐은 도메인에 대한 설명과 마찬가지로, 각각의 개발자 서버들에서 개발되어 지능형 서버에 등록될 수 있다.
다양한 실시예들에 따르면 도메인(캡슐)은 사용자 발화를 수신하고, 수신된 사용자 발화를 분석하여 사용자가 제공 받기를 원하는 서비스를 확인(또는, 사용자의 의도를 확인)하고(모델링), 확인된 서비스를 제공하기 위한 처리 동작을 수행(예: 확인된 서비스에 대한 정보 획득)하여(비즈니스 로직) 서비스를 제공하기 위한 정보(예: 획득된 정보를 시각적으로 생성)를 생성(UI/UX)할 수 있다. 전자 장치(100)가 UI/UX를 수신하는 경우, UI/UX에 기반하여 사용자 발화에 대응하는 컨텐트를 표시할 수 있다.
또, 도메인(캡슐)은 자연어 이해 모듈(730)(또는, NLU 모듈(220))에 의해 사용자 발화가 분석된 정보를 기반으로 사용자 발화에 대응하는 서비스를 제공하기 위한 처리 동작을 수행할 수 있다. 예를 들어, 도메인(캡슐)은 자연어 이해 모듈(730)(또는, NLU)에 의해 사용자 발화가 분석됨으로써 획득되는 사용자 발화 정보(인텐트, 파라미터), 발화에 포함된 특정 단어에 대한 정보(예: 노래 제목), 컨텍스트 정보(예: 장치 식별 정보(예: 장치 이름)), 또는 capability에 대한 정보 등을 기반으로 사용자가 제공 받기를 원하는 서비스를 결정 및 결정된 서비스를 제공하기 위한 처리 동작을 수행(예: 확인된 서비스에 대한 정보 획득)하여(비즈니스 로직) 서비스를 제공하기 위한 정보(예: 획득된 정보를 시각적으로 생성)를 생성(UI/UX)할 수 있다. 예를 들어, 사용자 발화가 "안방 에어컨 바람 세기 바꿔줘"인 경우 자연어 이해 모듈(730)의 적어도 하나의 구성(예: 리졸버 선택 모듈(704))(또는, NLU 모듈(220))에 의해 사용자 발화가 분석되어 특정 단어에 대한 정보 또는 장치 식별 정보(예: 장치 이름)를 나타내는 컨텍스트 정보로서 "안방 에어컨"이라는 정보를 확인하고, capability에 대한 정보로서 "바람 세기"라는 정보를 확인할 수 있다. 특정 리졸버는 특정 단어에 대한 정보(예: 안방 에어컨) 및 capability에 대한 정보(예: 바람 세기)를 획득하고, 획득된 정보를 기반으로 "안방 에어컨"에 대응하는 기기의 존재 여부 및 "확인된 기기가 바람 세기를 조절할 수 있는지 여부"를 외부 서버(예: 클라우드 서버)를 통해 확인할 수 있다. 도메인은 상술한 바와 같은 자연어 이해 모듈(730)의 적어도 하나의 구성(예: 리졸버 선택 모듈(704))(또는, NLU 모듈(220)) 및 특정 리졸버에 의해 분석된 정보를 획득하고, 획득된 정보를 기반으로 사용자가 제공 받기를 원하는 서비스를 결정 및 결정된 서비스를 제공하기 위한 처리 동작을 수행(예: 확인된 서비스에 대한 정보 획득)하여(비즈니스 로직) 서비스를 제공하기 위한 정보(예: 획득된 정보를 시각적으로 생성)를 생성(UI/UX)할 수 있다.
또, 도메인(캡슐)은 서비스를 제공하기 위한 처리 동작을 수행하여, 서비스를 제공하기 위한 어플리케이션의 특정 화면에 접근할 수 있는 딥 링크를 생성할 수 있다. 딥 링크는 특정 화면에 접근 할 수 있도록 하는 메카니즘을 포함할 수 있다. 전자 장치(100)가 딥 링크를 수신하는 경우, 전자 장치(100)는 딥 링크를 기반으로 서비스를 제공하기 위한 어플리케이션의 특정 화면에 접속할 수 있는 링크를 표시할 수 있다. 링크가 선택되는 경우, 전자 장치(100)는 어플리케이션의 특정 화면을 표시할 수 있다.
또, 도메인(캡슐)은 외부 검색 서버와 통신하여, 사용자가 제공 받기를 원하는 서비스에 관한 정보를 수신할 수도 있다.
또, 도메인(캡슐)은 사용자 발화에 대응하는 기능을 제공하기 위해 트레이닝될 수 있다.
상술한, 리졸버, 카테고리, 및 도메인(캡슐)에 대한 구체적인 예는 아래의 표 2와 같을 수 있다. 아래에 첨부된 표 2에는, 리졸버, 리졸버에 할당된 카테고리, 카테고리에 할당된 적어도 하나의 도메인의 구체적인 예가 기재된다.
Category Resolver Category Domain
DeviceControlResolver Streaming Music samsungMusicApp, Bugs
SystemResolver Podcast Podbbang
TVChannelResolver TVControl tvCotnrol
LauncherResolver ACControl airconCotrol
MediaResolver SpeakerControl speakerSystemApp
MusicResolver IoTControl speakerSmartThingsApp
SearchResolver SpeakerSettings SpeakerSettingsApp
PodcastResolver SpeakerMediaControl SpeakerSystemApp
ContentInfoResolver TVMediaControl tvMediaControl
AudiobookResolver IOTMediaControl speakerSmartThingsApp
TVShows tvSearchAndPlayApp
Search -
IoTSearch SpeakerSmartThingsApp
TVChannel TvChannel
IoTChannel SpeakerSmartThingsApp
TVApplications tvLauncher
FridgeDisplay fridgeVIewInsideApp
다양한 실시예들에 따르면, 지능형 서버(200)는 위의 표 2와 같은 리졸버, 카테고리, 및 도메인에 대한 정보를 저장하고 관리할 수 있다. 또한, 지능형 서버(200)는 전자 장치(100)가 상기 정보를 요청하는 경우, 상기 정보를 전자 장치(100)로 제공할 수 있다. 예를 들어, 전자 장치(100)에서 음성 서비스 어플리케이션이 실행되고, 전자 장치(100)가 음성 서비스 어플리케이션을 기반으로 사용자의 리졸버, 카테고리, 또는 도메인 중 적어도 하나에 대한 정보의 요청을 수신하는 경우, 전자 장치(100)는 지능형 서버(200)로 리졸버, 카테고리, 또는 도메인 중 적어도 하나에 대한 정보를 요청할 수 있다. 지능형 서버(200)는 리졸버, 카테고리, 또는 도메인 중 적어도 하나에 대한 정보를 표시하기 위한 UI/UX를 생성하고 전자 장치(100)로 제공할 수 있다. 전자 장치(100)는 제공된 UI/UX를 표시함으로써 리졸버, 카테고리, 또는 도메인 중 적어도 하나에 대한 정보를 사용자에게 제공할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)는 복수 개의 외부 서버들(719, 720)과 연동될 수 있다. 여기서 복수 개의 외부 서버들(719, 720)은 상술한 캡슐들(717, 718)과 같은 동작을 수행할 수 있다. 다시 말해, 복수 개의 외부 서버들(719, 720)은 캡슐들(717, 718)과 같이 사용자 발화를 수신하고, 수신된 사용자 발화를 분석하여 사용자가 제공 받기를 원하는 서비스를 확인(또는, 사용자의 의도를 확인)하고(모델링), 확인된 서비스를 제공하기 위한 처리 동작을 수행(예: 확인된 서비스에 대한 정보 획득)하여(비즈니스 로직), 서비스를 제공하기 위한 정보(예: 획득된 정보를 시각적으로 생성)를 생성(UI/UX)할 수 있다. 따라서, 이하에서 설명되는 캡슐들(717, 718)에 대한 설명은 외부 서버(719, 720)에 대해서도 준용될 수 있다. 예를 들어, 후술할 지능형 서버(200)가 사용자 발화를 캡슐로 전달하고 캡슐로부터 처리 결과를 수신하는 동작과 같이, 사용자 발화를 외부 서버(719, 720)로 전달하고 외부 서버(719, 720)로부터 처리 결과를 수신할 수 있다.
한편, 상술한 지능형 시스템은, 전자 장치(100)와 지능형 서버(200)가 연동되어, 사용자 발화를 처리하고 서비스를 제공하는 서버 타입의 시스템으로 정의될 수 있다.
한편, 지능형 시스템은, 상술한 지능형 서버(200)에 구현되는 모듈, 프로그램 내지는 어플리케이션의 적어도 일부가 전자 장치(100)에 포함됨으로써, 사용자 발화를 처리하고 서비스를 제공할 수도 있다. 달리 말해, 전자 장치(100)는 지능형 서버(200)에서 수행될 수 있는 적어도 하나의 동작을 수행함으로써, 사용자 발화를 처리하고 서비스를 제공할 수 있다. 이 경우에, 지능형 시스템은 전자 장치(100)에 상술한 지능형 서버(200)의 주요 동작들이 수행될 수 있도록 구현되는 경우 온-디바이스(on-device) 타입의 지능형 시스템, 전자 장치(100)에 상술한 지능형 서버의 일부 동작들이 수행될 수 있도록 구현되는 하이브리드(hybrid) 타입의 지능형 시스템으로 분류될 수 있다.
예를 들어, 온 디바이스(on-device) 타입의 지능형 시스템의 경우, 전자 장치(100)는 메모리(130)에 후술할 카테고리들에 대한 정보, 및 도메인들에 대한 정보를 저장할 수 있다. 전자 장치(100)는 사용자로부터 수신되는 사용자 발화를 메모리(130)에 저장된 카테고리들에 대한 정보 및 도메인들에 대한 정보를 기반으로 처리하여, 사용자 발화에 대응하는 서비스를 사용자에게 제공할 수 있다.
이하에서는, 설명의 편의를 위하여 서버 타입의 지능형 시스템을 기준으로 설명한다. 그러나, 본 개시에서 설명되는 지능형 시스템의 동작들은 온-디바이스(on-device) 타입의 지능형 시스템의 동작들 또는 하이브리드(hybrid) 타입의 지능형 시스템의 동작들로 구현될 수 있다. 다시 말해, 본 개시에서 설명되는 지능형 서버(200)의 동작들의 적어도 일부는 전자 장치(100)에서 수행되도록 지능형 시스템이 구현될 수 있다.
이하에서는, 다양한 실시예들에 따른 전자 장치(100) 및 그 동작 방법의 일 예를 설명한다.
이하에서 설명되는 전자 장치(100)의 동작은 프로세서(후술할 2620)가 전자 장치(100)의 적어도 하나의 구성을 이용하여 해당 동작을 수행하도록 제어되는 것으로 이해 될 수 있으나, 이에 국한되지 않을 수 있다. 예를 들어, 이하에서 설명되는 전자 장치(100)의 동작을 유발하는 인스트럭션 또는 컴퓨터 코드가 메모리(140)에 저장되어 있을 수 있다. 저장된 인스트럭션 또는 컴퓨터 코드는 프로세서(150)가 전자 장치(100)에 포함된 적어도 하나의 구성을 이용하여 해당 동작을 처리하도록 유발할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)는 사용자 발화를 수신하는 경우, 기 결정된 도메인(예: 제 1 캡슐)과 다른 도메인(예: 제 2 캡슐)을 기반으로 수신된 사용자 발화에 대응하는 서비스를 제공할 수 있다.
도 10은 다양한 실시예들에 따른 전자 장치(100)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 흐름도(1000)이다. 다양한 실시예들에 따르면 전자 장치(100)의 동작은 도 10에 도시되는 전자 장치(100)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 10에 도시되는 전자 장치(100)의 동작 보다 더 많은 동작들이 수행되거나, 또는 도 10에 도시되는 전자 장치(100)의 동작들 보다 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는 도 11을 참조하여 도 10에 대해서 설명한다.
도 11은 다양한 실시예들에 따른 전자 장치(100)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면, 전자 장치(100)는 1001 동작에서 사용자 발화를 획득할 수 있다. 예를 들어, 전자 장치(100)는 제 1 도메인이 기 결정된 상태에서 사용자 발화를 수신할 수 있다. 예를 들어, 도 11의 1101과 같이 전자 장치(100)는 음성 서비스 제공 어플리케이션(예: Bixby)(1110)이 실행된 후 제 1 사용자 발화를 수신할 수 있다. 전자 장치(100)는, 제 1 사용자 발화에 대한 정보를 지능형 서버(200)로 송신하고, 제 1 사용자 발화를 기반으로 결정된 도메인으로부터 획득되는 제 1 사용자 발화에 대응하는 처리 결과 정보를 지능형 서버(200)로부터 수신하고, 처리 결과 정보를 기반으로 서비스를 제공할 수 있다. 전자 장치(100)는 도 11의 1102와 같이 제 1 사용자 발화를 기반으로 도메인이 결정된 이후, 음성 서비스 제공 어플리케이션(1110)이 실행되는 중에 제 2 사용자 발화를 수신할 수 있다. 이 경우, 전자 장치(100)는 결정된 도메인과 관련된 정보를 포함하는 음성 서비스 제공 어플리케이션(1110)의 제 1 화면을 표시하고, 제 1 화면을 표시하는 중에 사용자로부터 제 2 사용자 발화(1111)(예: "이 곡과 비슷한 노래 틀어줘")를 수신할 수 있다. 또는, 전자 장치(100)는 음성 서비스 제공 어플리케이션(1110)이 백 그라운드에서 실행 중인 상태에서, 제 2 사용자 발화(1111)를 수신할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)는 1002 동작에서 기 결정된 도메인과 다른 도메인을 기반으로 획득된 사용자 발화에 대응하는 정보를 수신할 수 있다. 예를 들어, 지능형 서버(200)에서 기 결정된 도메인에서 전자 장치(100)로부터 수신된 사용자 발화의 처리가 불가능한 경우, 같은 카테고리 내에 포함된 다른 도메인에 의해 사용자 발화가 처리될 수 있다. 또는, 지능형 서버(200)에서 기 결정된 카테고리에서 전자 장치(100)로부터 수신된 사용자 발화의 처리가 불가능한 경우, 다른 카테고리 내에 포함된 다른 도메인에 의해 사용자 발화가 처리될 수 있다. 전자 장치(100)는, 상기 지능형 서버(200)의 다른 도메인에 의해 사용자 발화가 처리된 결과 정보(예: 딥 링크, UI/UX)를 수신할 수 있다.
지능형 서버(200)의 사용자 발화를 처리하기 위해 기 결정된 도메인을 다른 도메인으로 변경하거나, 기 결정된 카테고리를 다른 카테고리로 변경하는 구체적인 동작에 대해서는 후술한다.
상술한 바와 같이, 기 결정된 도메인에서 사용자 발화의 처리가 불가능 한 경우, 다른 도메인(또는, 다른 카테고리)에서 수행되도록 함으로써 사용자 발화에 대한 서비스 제공의 연속성이 향상될 수 있다. 달리 말해, 사용자는 기 결정된 도메인에 의해 사용자 발화가 처리 불가능한 상황에서 다른 도메인에 의해 사용자 발화가 처리되어 서비스를 제공받을 수 있게 된다.
다양한 실시예들에 따르면, 전자 장치(100)는 1003 동작에서 수신된 사용자 발화에 대응하는 정보를 기반으로 동작을 실행할 수 있다. 예를 들어, 전자 장치(100)는 지능형 서버(200)로부터 수신된 사용자 발화가 처리된 결과 정보(예: 딥 링크, UI/UX)를 기반으로 적어도 하나의 동작을 수행할 수 있다.
일 예로, 전자 장치(100)는 도 11의 1102와 같이 지능형 서버(200)로부터 특정 어플리케이션(예: Samsung Music)의 특정 화면(예: 음악 재생 화면)에 접속할 수 있는 딥 링크를 수신하고, 사용자에게 특정 어플리케이션의 특정 화면으로의 접속 여부를 질의(예: 링크 형태로 표시, 또는 도 11의 1102와 같이 접속 여부를 문의하는 텍스트를 표시)할 수 있다. 전자 장치(100)는 사용자로부터 특정 어플리케이션의 특정 화면으로의 접속을 요청 받는 경우(예: 도 11의 1102와 같이 긍정의 응답을 수신), 도 11의 1103과 같이 특정 어플리케이션의 지정된 기능(예: 음악 재생 기능)을 제공하기 위한 특정 화면을 표시할 수 있다.
이 때, 전자 장치(100)는 특정 어플리케이션을 기반으로 다른 외부 전자 장치(예: 도 6의 외부 전자 장치(601))(예: 스마트 TV, 스마트 스피커, 에어컨 등을 포함하는 IOT 장치)를 제어할 수 있다. 일 예로, 전자 장치(100)가 모바일 단말인 경우, 전자 장치(100)는 외부 전자 장치(601)를 제어하기 위한 어플리케이션의 특정 화면을 표시하고, 사용자로부터 외부 전자 장치(601)를 제어하기 위한 입력을 수신할 수 있다. 전자 장치(100)는 사용자로부터 수신된 외부 전자 장치(601)를 제어하기 위한 입력을 기반으로, 전자 장치(100)에 의해 제어 가능한 외부 전자 장치(601)를 제어할 수 있다.
또 일 예로, 전자 장치(100)는 지능형 서버(200)로부터 사용자 발화에 대응하는 컨텐트를 포함하는 UI/UX를 수신하고, 수신된 UI/UX를 표시함으로써 사용자에게 사용자 발화에 대응하는 컨텐트를 제공할 수 있다.
또 일 예로, 전자 장치(100)는 지능형 서버(200)를 통해 다른 외부 전자 장치(601)를 제어함으로써 사용자 발화에 대응하는 서비스를 사용자에게 제공할 수 있다. 지능형 서버(200)가 전자 장치(100)(예: 스피커)로부터 수신된 사용자 발화가 지능형 서버(200)의 특정 도메인에서 처리되도록 하고, 처리된 결과로서 다른 외부 전자 장치(601)를 제어하기 위한 정보를 획득할 수 있다. 지능형 서버(200)는 다른 외부 전자 장치(601)를 제어하기 위한 정보를 기반으로 다른 외부 전자 장치(601)를 제어하고, 제어 결과를 전자 장치(100)로 알릴 수 있다.
이하에서는, 다양한 실시예들에 따른 전자 장치(100) 및 그 동작 방법의 일 예, 및 지능형 서버(200) 및 그 동작 방법의 일 예를 설명한다. 한편 이하에서, 상술한 전자 장치(100) 및 지능형 서버(200)와 관련된 중복되는 설명은 생략한다.
이하에서 설명되는 지능형 서버(200)의 동작은 지능형 서버(200)에 포함되는 프로세서가 지능형 서버(200)의 적어도 하나의 구성을 이용하여 해당 동작을 수행하도록 제어되는 것으로 이해될 수 있으나, 이에 국한되지 않을 수 있다. 예를 들어, 이하에서 설명되는 지능형 서버(200)의 동작을 유발하는 인스트럭션 또는 컴퓨터 코드가 메모리(미도시)에 저장되어 있을 수 있다. 저장된 인스트럭션 또는 컴퓨터 코드는 프로세서(미도시)가 지능형 서버(200)에 포함된 적어도 하나의 구성을 이용하여 해당 동작을 처리하도록 유발할 수 있다. 지능형 서버(200)의 메모리(미도시)에 대해서는 전자 장치(100)의 메모리(130) 또는 후술될 메모리(2630)에 대한 설명이 준용되며, 지능형 서버(200)의 프로세서(미도시)에 대해서는 전자 장치(100)의 프로세서(150) 또는 후술될 프로세서(2620)에 대한 설명이 준용되므로, 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 지능형 시스템은 기 결정된 도메인에 의해 사용자 발화의 처리가 불가능한 경우, 기 결정된 도메인과 같은 카테고리에 포함된 다른 도메인에 의해 사용자 발화가 처리되도록 하여 사용자 발화에 대응하는 서비스를 제공할 수 있다.
도 12는 다양한 실시예들에 따른 전자 장치(100) 및 지능형 서버(200)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 흐름도(1200)이다. 다양한 실시예들에 따르면 전자 장치(100)의 동작은 도 12에 도시되는 전자 장치(100)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 12에 도시되는 전자 장치(100)의 동작 보다 더 많은 동작들이 수행되거나, 또는 도 12에 도시되는 전자 장치(100)의 동작들 보다 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는 도 13, 도 14a 및 도 14b를 참조하여 도 12에 대해서 설명한다.
도 13은 다양한 실시예들에 따른 전자 장치(100)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다. 도 14a는 다양한 실시예들에 따른 지능형 서버(200)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다. 도 14b는 다양한 실시예들에 따른 지능형 서버(200)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다. 도 15는 다양한 실시예들에 따른 전자 장치(100)의 사용자 발화에 대응하는 복수 개의 도메인들과 관련된 정보를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면, 전자 장치(100)는 1201 동작에서 제 1 사용자 발화를 수신할 수 있다. 예를 들어, 전자 장치(100)는 음성 서비스 제공 어플리케이션이 실행되면, 도 13의 1301과 같이 음성 서비스 제공 어플리케이션의 실행 중에 사용자로부터 제 1 사용자 발화를 수신할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)는 1202 동작에서 제 1 사용자 발화를 지능형 서버(200)로 송신할 수 있다. 여기서, 전자 장치(100)가 제 1 사용자 발화를 지능형 서버(200)로 송신하는 동작은, 제 1 사용자 발화를 통신을 통해 송신할 수 있는 형태의 정보로 처리하고, 처리된 정보를 송신하는 동작을 의미할 수 있다.
다양한 실시예들에 따르면, 지능형 서버(200)는 1203 동작에서 제 1 사용자 발화에 대응하는 특정 카테고리를 결정할 수 있다.
예를 들어, 리졸버 선택 모듈(704)은 도 14a의 1401과 같이 복수 개의 리졸버들(801, 802, 803) 중 수신된 제 1 사용자 발화에 대응하는 제 1 리졸버(801)를 선택하고, 제 1 리졸버(801)는 제 1 리졸버(801)와 연관된 복수 개의 카테고리들(811, 812) 중 제 1 사용자 발화에 대응하는 제 1 카테고리(811)를 선택할 수 있다.
일 예로, 리졸버 선택 모듈(704)은 도 13의 1301과 같은 제 1 사용자 발화(예: "실시간 인기 차트 보여줘")를 수신하고, 복수 개의 리졸버들(801, 802, 803) 중 제 1 사용자 발화 중 적어도 일부(예: "인기 차트")와 관련된 발화로 학습된 제 1 리졸버(801)를 선택할 수 있다. 선택된 제 1 리졸버(801)는 도 14a의 1401과 같이 복수 개의 카테고리들(811, 812) 중 제 1 사용자 발화(예: "실시간 인기 차트 보여줘")중 적어도 일부와 관련 정보(예: "실시간 인기 차트")를 외부 검색 서버(미도시)에서 검색하고, 외부 검색 서버(미도시)로부터 검색 결과(예: "실시간 인기 차트는 가요와 관련됨"을 나타내는 정보)를 수신할 수 있다. 제 1 리졸버(801)는 수신된 검색 결과를 기반으로 복수 개의 카테고리들(811, 812) 중 상기 수신된 검색 결과에 대응하는 제 1 카테고리(811)를 선택할 수 있다. 또는, 제 1 리졸버(801)는 복수 개의 카테고리들 중 사용자 발화가 의미적/문법적으로 분석된 결과에 대응하는 제 1 카테고리(811)를 선택할 수도 있다. 리졸버 선택 모듈(704) 및 리졸버(801, 802, 803)에 대해서는 상술하였으므로, 리졸버 선택 모듈(704) 및 리졸버(801, 802, 803)의 동작과 관련된 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 지능형 서버(200)는 1204 동작에서 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정할 수 있다. 예를 들어, 도메인 선택 모듈(미도시)은 도 14a의 1401에서와 같이 선택된 제 1 카테고리(811)에 포함된 복수 개의 도메인들(821, 823) 중 제 1 도메인(821)을 선택할 수 있다. 이에 따라, 선택된 제 1 도메인(821)으로 제 1 사용자 발화가 전달될 수 있다. 도메인 선택 모듈에 대해서는 상술하였으므로, 도메인 선택 모듈의 동작과 관련된 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 지능형 서버(200)는 1205 동작에서 제 1 도메인을 기반으로 처리 결과 정보를 획득할 수 있다. 예를 들어, 도 14a의 1401과 같이 제 1 도메인(821)은 제 1 사용자 발화를 획득하고, 수신된 제 1 사용자 발화를 처리하여 제 1 사용자 발화에 대응하는 서비스를 제공하기 위한 정보(예: 딥 링크 정보, 컨텐트 정보)를 생성할 수 있다.
다양한 실시예들에 따르면, 지능형 서버(200)는 1206 동작에서 처리 결과 정보를 전자 장치(100)로 송신할 수 있다. 전자 장치(100)는 도 13의 1302와 같이 지능형 서버(200)로부터 제 1 도메인(821)으로부터 획득된 제 1 사용자 발화(예: "실시간 인기 차트 보여줘.")(1311)에 대응하는 서비스를 제공하기 위한 정보에 기반하여, 특정 어플리케이션의 화면(1312)을 표시하거나, 특정 컨텐트(예: 실시간 인기 차트)를 포함하는 인터페이스(1312)를 표시할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)는 1207 동작에서 제 2 사용자 발화를 수신할 수 있다. 예를 들어, 전자 장치(100)는 도 13의 1302와 같이 제 1 도메인이 기 결정된 상태에서, 제 2 사용자 발화를 수신할 수 있다. 전자 장치(100)의 1207 동작은 상술한 전자 장치(100)의 1001 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 전자 장치(100)는 1208 동작에서 제 2 사용자 발화를 지능형 서버(200)로 송신할 수 있다. 여기서, 전자 장치(100)가 제 2 사용자 발화를 지능형 서버(200)로 송신하는 동작은, 제 2 사용자 발화를 통신을 통해 송신할 수 있는 형태의 정보로 처리하고, 처리된 정보를 송신하는 동작을 의미할 수 있다.
다양한 실시예들에 따르면, 지능형 서버(200)는 1209 동작에서 결정된 제 1 도메인에서 제 2 사용자 발화의 처리가 가능한지 여부를 확인할 수 있다.
예를 들어, 도 14a의 1402와 같이 제 2 사용자 발화가 제 1 도메인(821)에 전달되면, 제 1 도메인(821)은 제 2 사용자 발화의 처리 가능 여부를 확인하고, 확인 결과로서 처리 불가능함을 다른 구성(예: 도메인 변경 모듈(716))으로 알릴 수 있다. 일 예로, 제 1 도메인(821)은 제 1 기능을 제공하는 도메인이고, 제 2 사용자 발화(예: "이 곡과 비슷한 노래 틀어줘.")는 제 2 기능과 관련된 발화인 경우, 제 1 도메인(821)은 제 2 사용자 발화의 처리가 불가능함을 다른 구성(예: 도메인 변경 모듈(716))으로 알릴 수 있다. 이에 따라, 지능형 서버(200)는 제 1 도메인(821)이 제 2 사용자 발화의 처리가 불가능함을 확인할 수 있다.
다양한 실시예들에 따르면, 지능형 서버(200)는 지정된 조건이 만족되는 경우, 제 1 도메인(821)에서 제 2 사용자 발화의 처리가 가능한지 여부를 확인할 수 있다. 예를 들어, 지정된 조건의 만족은 제 2 사용자 발화에 의해 기 결정된 제 1 도메인(821)이 다시 선택되는 것을 의미할 수 있다.
일 예로, 지능형 서버(200)는 제 2 사용자 발화에 대응하는 카테고리 및 도메인이 제 1 도메인(821)과 동일한 카테고리(예: 제 1 카테고리(811)) 및 도메인(예: 제 1 도메인(821))인 경우, 제 1 도메인(821)에 의해 제 2 사용자 발화의 처리가 가능한지 여부를 확인할 수 있다.
또 다른 예로, 지능형 서버(200)는 제 2 사용자 발화와 함께 수신되는 부가 정보를 기반으로 적어도 하나의 지정된 조건이 만족됨을 확인하는 경우(예: 제 1 도메인(821)이 결정된 후 지정된 시간 내에 제 2 사용자 발화가 수신됨), 제 1 도메인(821)에 의해 제 2 사용자 발화의 처리가 가능한지 여부를 확인할 수 있다. 지능형 서버(200)의 부가 정보를 기반으로 사용자 발화에 대한 분석 동작에 대해서는 도 21 내지 도 23에서 더 구체적으로 후술한다.
다양한 실시예들에 따르면, 지능형 서버(200)는 1210 동작에서 제 1 도메인에 기반한 제 1 사용자 발화의 처리가 불가능 한 것으로 확인한 경우, 제 1 카테고리에 포함된 제 1 도메인과 다른 제 2 도메인을 선택할 수 있다. 예를 들어 도 14b에 도시된 바와 같이, 도메인 변경 모듈(716)은 제 1 도메인(821)이 포함된 제 1 카테고리(811)의 다른 적어도 하나의 도메인(예: 제 3 도메인(823))에 의해 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고, 적어도 하나의 도메인(예: 제 3 도메인(823))에 의해 제 2 사용자 발화의 처리가 가능한 것으로 확인되는 경우, 적어도 하나의 도메인(예: 제 3 도메인(823))을 제 2 사용자 발화를 처리하기 위한 도메인으로 선택할 수 있다. 이에 따라, 선택된 도메인(예: 제 3 도메인(823))은 제 2 사용자 발화를 전달 받을 수 있다.
다양한 실시예들에 따르면 도메인 변경 모듈(716)은 제 2 사용자 발화를 처리하기 위해 기 결정된 도메인(예: 제 1 도메인(821))과 다른 도메인으로서, 특정 단일 도메인을 선택할 수 있다.
예를 들어, 도메인 변경 모듈(716)은 제 1 카테고리(811)의 제 1 도메인(821) 이외의 적어도 하나의 도메인(823, 그 이외(미도시))으로부터 제 2 사용자 발화의 처리가 가능함을 확인하는 경우, 제 1 카테고리(811)의 제 1 도메인(821) 이외의 적어도 하나의 도메인(823, 그 이외(미도시))의 스코어(예: 제 2 사용자 발화와의 관련도를 나타내는 스코어, 또는 신뢰도를 나타내는 스코어)를 확인할 수 있다. 도메인 변경 모듈(716)은 적어도 하나의 도메인(823, 그 이외(미도시)) 중 가장 스코어가 높은 특정 도메인(예: 제 3 도메인(823))을 선택할 수 있다.
또 예를 들어, 도메인 변경 모듈(716)은 제 1 카테고리(811)의 제 1 도메인(821) 이외의 적어도 하나의 도메인(823, 그 이외(미도시))으로부터 제 2 사용자 발화의 처리가 가능함을 확인하는 경우, 제 1 카테고리(811)의 제 1 도메인(821) 이외의 적어도 하나의 도메인(823, 그 이외(미도시)) 중 특정 도메인을 선택하기 위한 사용자의 입력을 수신할 수 있다. 예를 들어, 지능형 서버(200)는 제 1 카테고리(811)의 제 1 도메인(821) 이외의 적어도 하나의 도메인(823, 그 이외(미도시))에 대한 정보를 전자 장치(100)로 송신할 수 있다. 이 경우, 지능형 서버(200)는 NLU/TTS 모듈을 기반으로 복수 개의 도메인들(823, 그 이외(미도시))을 표시하고 사용자의 선택 입력을 수신하기 위한 UI/UX를 생성하여, 생성된 UI/UX에 관한 정보를 전자 장치(100)로 송신할 수 있다. 전자 장치(100)는 수신된 정보를 기반으로 적어도 하나의 도메인(823, 그 이외(미도시))에 관한 정보를 표시(예: 음성 서비스 제공 어플리케이션의 화면에 UI를 표시)하고, 특정 도메인(예: 제 3 도메인(823))에 대한 사용자의 선택을 입력 받을 수 있다. 전자 장치(100)는 사용자로부터 선택된 특정 도메인에 대한 정보를 지능형 서버(200)로 송신하고, 지능형 서버(200)는 수신된 정보에 기반하여 특정 도메인(예: 제 3 도메인(823))을 선택할 수 있다.
다양한 실시예들에 따르면 도메인 변경 모듈(716)은 제 2 사용자 발화를 처리하기 위해 기 결정된 도메인(예: 제 1 도메인(821))과 다른 도메인으로서, 복수 개의 도메인들을 선택할 수 있다.
예를 들어, 도메인 변경 모듈(716)은 제 1 카테고리(811)의 제 1 도메인(821) 이외의 적어도 하나의 도메인(823, 그 이외(미도시))으로부터 제 2 사용자 발화의 처리가 가능함을 확인하는 경우, 적어도 하나의 도메인(823, 그 이외(미도시)) 모두를 제 2 사용자 발화를 처리하기 위한 도메인으로 선택할 수 있다.
위와 같이 지능형 서버(200)의 1210 동작에서, 사용자 발화를 처리하기 위해 기 결정된 도메인과 다른 도메인을 선택하는 경우, 동일 카테고리 내의 다른 도메인이 선택됨으로써 기 결정된 도메인과 유사한 기능을 제공하는 다른 도메인에 의해 서비스가 제공되어 음성 서비스의 연속성이 유지될 수 있다.
다양한 실시예들에 따르면, 지능형 서버(200)는 1211 동작에서 상기 제 2 도메인에서 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 제 2 도메인을 기반으로 처리 결과 정보를 획득할 수 있다. 도 14b와 같이 제 3 도메인(823)은 제 2 사용자 발화를 획득하고, 수신된 제 2 사용자 발화를 처리하여 제 2 사용자 발화에 대응하는 서비스를 제공하기 위한 정보(예: 딥 링크 정보, 컨텐트 정보)를 생성할 수 있다.
또는, 제 2 도메인 또는 다른 도메인들에서도 제 2 사용자 발화의 처리가 불가능한 것으로 확인된 경우, 지능형 서버(200)는 전자 장치(100)로 에러 메시지를 생성하고 전자 장치(100)로 에러 메시지를 제공할 수 있다.
다양한 실시예들에 따르면, 지능형 서버(200)는 1212 동작에서 처리 결과 정보를 전자 장치(100)로 송신하고, 전자 장치(100)는 1213 동작에서 수신된 처리 결과 정보를 기반으로 적어도 하나의 동작을 수행할 수 있다. 예를 들어, 전자 장치(100)는 도 13의 1303과 같이 다른 도메인에서 사용자 발화가 처리된 결과(예: 다른 도메인에서 사용자 발화가 처리된 결과를 제공 받을 것인지를 문의하는 화면(1313))를 표시하고, 도 13의 1304와 같이 지능형 서버(200)로부터 수신된 딥 링크를 기반으로 지정된 서비스를 제공하기 위한 특정 어플리케이션의 특정 화면을 표시할 수 있다. 전자 장치(100)의 1213 동작은 상술한 전자 장치(100)의 1003 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
또, 다양한 실시예들에 따르면 전자 장치(100)는 도 15에 도시된 바와 같이 복수 개의 도메인들에 의해 발화의 처리가 가능한 경우에는, 지능형 서버(200)로부터 복수 개의 도메인들에 관한 정보를 수신하고, 복수 개의 도메인들을 표시하고, 복수 개의 도메인들 중 하나의 도메인을 선택하는 사용자 입력을 수신할 수 있다. 전자 장치(100)는 선택된 도메인에 의해 사용자 발화가 처리된 결과를 수신하고, 이에 기반하여 적어도 하나의 동작을 수행할 수 있다. 이 경우, 지능형 서버(200)는 전자 장치(100)로 각각의 복수 개의 도메인들에서 제 2 사용자 발화가 처리된 복수 개의 결과 정보를 제공하거나, 또는 전자 장치(100)로부터 특정 도메인이 선택된 경우 복수 개의 도메인들 중 특정 도메인에서 제 2 사용자 발화가 처리된 결과만을 제공할 수도 있다.
또, 다양한 실시예들에 따르면 전자 장치(100)는 에러 메시지를 수신하는 경우, 이를 기반으로 제 2 사용자 발화의 처리가 불가능함을 알리는 화면을 표시할 수 있다.
이하에서는, 다양한 실시예들에 따른 지능형 서버(200) 및 그 동작 방법의 다른 예를 설명한다. 한편 이하에서, 상술한 지능형 서버(200)와 관련된 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 지능형 서버(200)는 수신된 사용자 발화에 포함된 특정 단어를 확인하는 경우, 확인된 특정 단어에 대응하는 도메인을 선택하여, 선택된 도메인에 의해 사용자 발화가 처리되도록 할 수 있다.
도 16은 다양한 실시예들에 따른 지능형 서버(200)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 흐름도(1600)이다. 다양한 실시예들에 따르면 지능형 서버(200)의 동작은 도 16에 도시되는 지능형 서버(200)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 16에 도시되는 지능형 서버(200)의 동작 보다 더 많은 동작들이 수행되거나, 또는 도 16에 도시되는 지능형 서버(200)의 동작들 보다 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는 도 17을 참조하여 도 16에 대해서 설명한다.
도 17은 다양한 실시예들에 따른 지능형 서버(200)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 지능형 서버(200)는 1601 동작에서 수신된 제 1 사용자 발화를 ASR 처리할 수 있다. 예를 들어, ASR 모듈(예: 도 4의 ASR모듈(210) 또는 도 7의 ASR모듈(701))은 수신된 제 1 사용자 발화를 텍스트 데이터로 처리할 수 있다. ASR 모듈에 대해서는 상술하였으므로, 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 지능형 서버(200)는 1602 동작에서 제 1 사용자 발화에 포함된 특정 단어를 확인할 수 있다. 예를 들어, 네임 디스패쳐 모듈(미도시)은 도 17에 도시된 바와 같이, 수신된 제 1 사용자 발화(예: "멜론에서 아이유, 좋은날 틀어줘.")가 ASR 모듈에 의해 처리된 텍스트 데이터(1701)로부터 일반 명사 및 고유 명사를 포함하는 특정 단어(1702)(예: '멜론')를 확인할 수 있다. 일반 명사 및 고유 명사에 대해서는 상술하였으므로, 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 지능형 서버(200)는 1603 동작에서 확인된 특정 단어에 대응하는 도메인이 확인되는지 여부를 확인할 수 있다. 도메인 선택 모듈(미도시)은 도 17에 도시된 바와 같이 지능형 서버(200)에 등록된 복수 개의 도메인들 중 텍스트 데이터(1701)로부터 확인된 특정 단어(1702)에 대응하는 특정 도메인(예: 제 1 도메인(1703))의 존재 여부를 확인할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)는 특정 단어에 대응하는 도메인이 확인되는 경우, 1606 동작에서 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정할 수 있다. 예를 들어, 지능형 서버(200)는 도 17에 도시된 바와 같이 특정 단어(1702)에 대응하는 제 1 도메인(1703)을 제 1 사용자 발화를 처리하기 위한 도메인으로 결정할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)는 특정 단어에 대응하는 도메인이 확인되지 않는 경우, 1604 동작에서 제 1 사용자 발화에 대응하는 리졸버를 결정하고, 1605 동작에서 선택된 리졸버에 연관된 복수 개의 카테고리 중 특정 카테고리를 결정하고, 1606 동작에서 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정할 수 있다. 지능형 서버(200)의 1604 동작 내지 1606 동작은, 상술한 지능형 서버(200)의 1203 동작 내지 1204 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
이하에서는, 다양한 실시예들에 따른 전자 장치(100) 및 그 동작 방법의 다른 예, 및 지능형 서버(200) 및 그 동작 방법의 다른 예를 설명한다. 한편 이하에서, 상술한 전자 장치(100) 및 지능형 서버(200)와 관련된 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 지능형 시스템은 사용자 입력에 기반하여 사용자 발화에 대응하여 선택된 카테고리에 포함된 복수 개의 도메인들 중 특정 도메인을 결정할 수 있다.
도 18은 다양한 실시예들에 따른 전자 장치(100) 및 지능형 서버(200)의 사용자 입력에 따라 특정 도메인을 결정하는 동작의 일 예를 설명하기 위한 흐름도(1800)이다. 다양한 실시예들에 따르면 전자 장치(100)의 동작은 도 18에 도시되는 전자 장치(100)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 18에 도시되는 전자 장치(100)의 동작 보다 더 많은 동작들이 수행되거나, 또는 도 18에 도시되는 전자 장치(100)의 동작들 보다 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는 도 19 및 도 20을 참조하여 도 18에 대해서 설명한다.
도 19는 다양한 실시예들에 따른 전자 장치(100)의 특정 도메인을 결정하기 위한 사용자 입력을 수신하는 동작의 일 예를 설명하기 위한 도면이다. 도 20은 다양한 실시예들에 따른 지능형 서버(200)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(100)는 1801 동작에서 제 1 사용자 발화를 수신하고, 1802 동작에서 제 1 사용자 발화를 지능형 서버(200)로 송신할 수 있다. 예를 들어, 전자 장치(100)는 도 19의 1901과 같이 제 1 사용자 발화(예: "실시간 인기 차트 보여줘.")를 수신하고, 수신된 제 1 사용자 발화를 지능형 서버(200)로 송신할 수 있다. 전자 장치(100)의 1801 동작 및 1802 동작은, 상술한 전자 장치(100)의 1201 동작 및 1202 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 지능형 서버(200)는 1803 동작에서 제 1 사용자 발화에 대응하는 카테고리를 결정할 수 있다. 예를 들어, 리졸버 선택 모듈(704)은 도 20의 2001과 같이 제 1 사용자 발화(예: "실시간 인기 차트 보여줘.")에 대응하는 제 1 리졸버(801)를 선택하고, 제 1 리졸버(801)는 제 1 카테고리(811)를 선택할 수 있다. 지능형 서버(200)의 1803 동작은 상술한 지능형 서버(200)의 1203 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 지능형 서버(200)는 1804 동작에서 결정된 특정 카테고리에 포함된 복수 개의 도메인들을 확인하고, 1805 동작에서 복수 개의 도메인들과 관련된 정보를 송신할 수 있다.
예를 들어, 도메인 선택 모듈(미도시)은 도 20의 2001과 같이 선택된 제 1 카테고리(811)에 포함된 복수 개의 도메인들(예: 제 1 도메인(821) 및 제 3 도메인(823))을 확인할 수 있다. 지능형 서버(200)는 확인된 제 1 카테고리(811)에 포함된 복수 개의 도메인들(821, 823)에 대한 정보를 전자 장치(100)로 송신할 수 있다. 이 경우, 지능형 서버(200)는 NLU/TTS 모듈을 기반으로 복수 개의 도메인들을 표시하고 선택을 수신하기 위한 UI를 생성하여, 생성된 UI에 관한 정보를 전자 장치(100)로 송신할 수 있다.
다양한 실시예들에 따르면 전자 장치(100)는 1806 동작에서 복수 개의 도메인들과 관련된 정보를 표시하고, 1807 동작에서 제 1 도메인을 선택하기 위한 입력을 수신하고, 1808 동작에서 선택된 제 1 도메인과 관련된 정보를 지능형 서버(200)로 송신할 수 있다. 예를 들어, 전자 장치(100)는 도 19의 1902와 같이 수신된 복수 개의 도메인들에 대한 정보를 기반으로, 복수 개의 도메인들(821, 823)에 관한 정보(1910)를 표시하고, 복수 개의 도메인들 중 특정 도메인(예: 제 1 도메인(821)(예: BBB Music))을 선택하는 입력을 수신할 수 있다. 전자 장치(100)는 선택된 제 1 도메인(821)(예: BBB Music)과 관련된 정보를 지능형 서버(200)로 송신할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)는 1809 동작에서 제 1 도메인을 선택하고, 1810 동작에서 제 1 도메인을 기반으로 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득할 수 있다.
예를 들어, 도메인 선택 모듈(미도시)은 도 20의 2002와 같이 수신된 제 1 도메인(821)과 관련된 정보를 기반으로 복수 개의 도메인들(821, 823) 중 제 1 도메인(821)을 선택할 수 있다. 선택된 제 1 도메인(821)은 제 1 사용자 발화를 처리하여, 제 1 사용자 발화의 처리 결과 정보(예: 딥 링크 또는 UI/UX)를 생성할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)는 제 1 도메인(821)에 의한 제 1 사용자 발화의 처리 결과 정보를 전자 장치(100)로 송신하고, 전자 장치(100)는 도 19의 1903과 같이 처리 결과 정보에 기반하여 적어도 하나의 동작을 수행할 수 있다. 전자 장치(100)의 처리 결과 정보에 기반한 적어도 하나의 동작은 상술한 전자 장치(100)의 1003 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
한편, 상술한 바에 국한되지 않고, 지능형 서버(200)는 사용자의 선택 이외에 부가 정보(예: 사용자의 어플리케이션 사용 패턴 정보 등)를 기반으로 제 1 도메인이 자동으로 선택될 수도 있다. 지능형 서버(200)의 부가 정보(예: 사용자의 어플리케이션 사용 패턴 정보 등)를 기반으로 제 1 도메인을 선택하는 동작에 대해서는, 도 21 내지 도 22에 대해서 구체적으로 설명한다.
이하에서는, 다양한 실시예들에 따른 전자 장치(100) 및 그 동작 방법의 다른 예, 및 지능형 서버(200) 및 그 동작 방법의 다른 예를 설명한다. 한편 이하에서, 상술한 전자 장치(100) 및 지능형 서버(200)와 관련된 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 지능형 시스템은 사용자 발화 이외에도 다양한 부가 정보를 기반으로 외부 서버에서 사용자 발화와 관련된 정보를 검색하고, 검색된 정보를 기반으로 사용자 발화에 대응하는 서비스를 제공할 수 있다. 예를 들어, 지능형 서버(200)에 포함된 각각의 모듈들은 수신된 부가 정보를 기반으로 사용자 발화를 분석하는 동작을 수행할 수 있다.
다양한 실시예들에 따르면, 부가 정보는 전자 장치(100)의 사용자의 어플리케이션 사용 패턴 정보, 사용자의 신상 정보(예: 나이, 성별 등)를 포함하는 사용자와 관련된 정보, 어플리케이션 실행 상태에 대한 정보(예: 포어 그라운드 상태 등), 자원 할당양에 대한 정보, 배터리 잔량에 대한 정보 등을 포함하는 전자 장치(100)의 상태와 관련된 정보, 현재 주변 상황(예: 전자 장치(100)의 위치, 날씨 등)과 관련된 컨텍스트 정보를 포함할 수 있다.
도 21은 다양한 실시예들에 따른 전자 장치(100) 및 지능형 서버(200)의 부가 정보에 기반하여 도메인을 결정하는 동작의 일 예를 설명하기 위한 흐름도(2100)이다. 다양한 실시예들에 따르면 전자 장치(100)의 동작은 도 21에 도시되는 전자 장치(100)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 21에 도시되는 전자 장치(100)의 동작 보다 더 많은 동작들이 수행되거나, 또는 도 21에 도시되는 전자 장치(100)의 동작들 보다 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는 도 22를 참조하여 도 21에 대해서 설명한다.
도 22는 다양한 실시예들에 따른 지능형 서버(200)의 부가 정보에 기반하여 도메인을 결정하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(100)는 2101 동작에서 제 1 사용자 발화를 수신할 수 있다. 전자 장치(100)의 2101 동작은 상술한 전자 장치(100)의 1201 동작 및 1801 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(100)는 2102 동작에서 제 1 부가 정보를 확인할 수 있다. 예를 들어, 전자 장치(100)는 제 1 사용자 발화를 수신하는 시점의 적어도 하나의 부가 정보를 확인할 수 있다. 확인되는 적어도 하나의 부가 정보는 일 종류의 정보를 나타내는 부가 정보 뿐만 아니라, 복수 개의 종류들의 정보를 나타내는 부가 정보가 될 수도 있다. 적어도 하나의 확인될 수 있는 부가 정보는 상술한 바와 같으므로, 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(100)는 2103 동작에서 제 1 사용자 발화 및 제 1 부가 정보를 지능형 서버(200)로 송신할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)는 2104 동작에서 제 1 사용자 발화 및 제 1 부가 정보에 대응하는 특정 카테고리를 결정할 수 있다.
다양한 실시예들에 따르면 리졸버 선택 모듈(704)은 복수 개의 리졸버들(801, 802, 803) 중 수신된 제 1 사용자 발화에 대응하는 특정 리졸버(예: 제 1 리졸버(801))를 선택할 수 있다. 리졸버 선택 모듈(704)의 제 1 사용자 발화에 대응하는 리졸버를 선택하는 동작의 중복되는 설명은 생략한다. 리졸버 선택 모듈(704)은 리졸버를 선택하기 위해 제 1 사용자 발화를 분석하는 동작에 있어, 수신된 부가 정보를 더 참조할 수 있다. 예를 들어, 리졸버 선택 모듈(704)은 제 1 사용자 발화에 포함된 사용자의 의도를 확인하기 위해, 수신된 부가 정보를 참조하여 제 1 사용자 발화의 적어도 일부를 의미적/문법적으로 분석할 수 있다.
다양한 실시예들에 따르면 리졸버들(801, 802, 803)은 리졸버들에 할당된 라이브러리 캡슐(미도시)를 이용하여, 외부 검색 서버들(2201, 2202, 2203)을 이용하여 검색 동작을 수행하여, 카테고리를 선택할 수 있다.
예를 들어, 제 1 리졸버(801)는 도 22를 참조하면 제 1 리졸버(801)와 연관된 복수 개의 카테고리들(811, 812) 중 수신된 제 1 사용자 발화에 대응하는 특정 카테고리(예: 제 1 카테고리(811))를 선택할 수 있다. 리졸버의 제 1 사용자 발화에 대응하는 카테고리를 선택하는 동작의 중복되는 설명은 생략한다. 제 1 리졸버(801)는 카테고리를 선택하기 위해 제 1 사용자 발화를 분석하는 동작에 있어, 수신된 부가 정보를 더 참조할 수 있다. 예를 들어, 제 1 리졸버(801)는 제 1 사용자 발화(예: "에어콘 아이에 맞는 모드로 변경해줘")를 수신하는 경우, 제 1 사용자 발화 및 수신된 부가 정보(예: 전자 장치(100)의 위치 정보)를 기반으로 서치 쿼리를 생성(예: 현재 장소의 에어콘을 찾기 위한 서치 쿼리)하고, 생성된 서치 쿼리를 제 1 서버(예: 클라우드 서버)(2201)로 송신할 수 있다. 제 1 리졸버(801)는 제 1 서버(2201)로부터 송신된 서치 쿼리에 대응하는 검색 결과(예: 사용자가 클라우드 서버(2201)에 등록한 에어콘 기기에 대한 정보)를 수신하고, 수시된 검색 결과에 대응하는(예: 에어콘 기기를 제어하기 위한 도메인을 포함하는) 제 1 카테고리(811)를 확인할 수 있다.
위와 같은 외부 검색 서버를 이용하는 리졸버의 동작에 따라 사용자 발화가 보다 더 정확하게 분석됨으로써, 리졸버에 의해 사용자 발화를 처리하기 위한 카테고리가 선택되고, 이에 따라 사용자 발화를 처리하기 위한 적합한 도메인에 의해 사용자 발화가 처리되어 사용자 발화에 대응하는 적합한 서비스가 사용자에게 제공될 수 있다.
다양한 실시예들에 따르면 전자 장치(100)는 2105 동작에서 제 1 사용자 발화 및 제 1 부가 정보에 기반하여 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정할 수 있다. 예를 들어, 도메인 선택 모듈(미도시)은 제 1 사용자 발화를 처리하기 위한 제 1 부가 정보(예: 전자 장치(100)의 위치 정보 및 사용자 어플리케이션 사용 패턴 정보)를 확인하고, 제 1 부가 정보에 기반한 분석 결과(예: 사용자가 밖인 경우 제 1 어플리케이션을 빈번하게 사용함)를 확인하고, 복수 개의 도메인들(821, 823) 중 분석 결과에 대응하는(예: 제 1 어플리케이션에 대응하는) 제 1 도메인(821)을 선택할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)는 2106 동작에서 처리 결과 정보를 송신할 수 있다. 전자 장치(100)의 수신된 처리 결과 정보에 기반하여 적어도 하나의 동작을 수행되는 동작은 지능형 서버(200)의 1206 동작에 따른 상술된 전자 장치(100)의 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(100)는 2107 동작에서 제 2 사용자 발화를 수신할 수 있다. 전자 장치(100)의 2107 동작은 상술한 전자 장치(100)의 1207 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(100)는 2108 동작에서 제 2 부가 정보를 확인할 수 있다. 예를 들어, 전자 장치(100)는 제 2 사용자 발화를 수신하는 시점에 적어도 하나의 부가 정보를 확인할 수 있다.
다양한 실시예들에 따르면 전자 장치(100)는 2109 동작에서 제 2 사용자 발화 및 제 2 부가 정보를 송신할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)는 2110 동작에서 제 2 사용자 발화 및 제 2 부가 정보에 기반하여 제 1 도메인을 결정할 수 있다. 2110 동작에서 지능형 서버(200)의 각각의 모듈의 동작은 상술한 2104 동작에서의 지능형 서버(200)의 각각의 모듈의 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
또는 다양한 실시예들에 따르면, 지능형 서버(200)는 제 2 부가 정보를 기반으로 지정된 조건의 만족 여부를 확인하고, 지정된 조건이 만족되는 경우 리졸버 선택 모듈(704), 리졸버, 도메인 선택 모듈의 동작의 수행 없이, 제 1 사용자 발화의 수신 시 기결정된 제 1 도메인(821)을 재선택할 수 있다.
일 예로, 지능형 서버(200)는 제 2 부가 정보로서 전자 장치(100)에서 제 1 도메인(821)에 대응하는 제 1 어플리케이션이 포어 그라운드로 실행 중임을 나타내는 정보를 확인하고, 지정된 조건이 만족(예: 전자 장치(100)에서 기 결정된 도메인에 대응하는 어플리케이션이 실행 중임)됨을 확인하고, 이에 따라 기 결정된 제 1 도메인(821)을 재선택할 수 있다.
또 일 예로, 지능형 서버(200)는 제 2 부가 정보로서 전자 장치(100)에서 제 1 도메인(821)에 기반한 음성 서비스를 제공한 시간 정보를 확인하고, 지정된 조건이 만족(예: 제 1 도메인(821)에 기반한 음성 서비스를 제공한 시점으로부터 지정된 시간 내인 경우)됨을 확인하고, 이에 따라 기 결정된 제 1 도메인(821)을 재선택할 수 있다.
다양한 실시예들에 따르면 지능형 서버(200)에서 이후 재선택된 제 1 도메인(821)에서 제 2 사용자 발화의 처리 여부를 문의하고, 제 2 도메인(822)을 선택하여 제 2 사용자 발화를 처리하는 동작은, 상술한 지능형 서버(200)의 1209 동작 내지 1212 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
이하에서는, 다양한 실시예들에 따른 전자 장치(100) 및 그 동작 방법의 다른 예, 및 지능형 서버(200) 및 그 동작 방법의 다른 예를 설명한다. 한편 이하에서, 상술한 전자 장치(100) 및 지능형 서버(200)와 관련된 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 지능형 시스템은 기결정된 카테고리에 포함된 모든 도메인들에 의해 수신된 사용자 발화의 처리가 불가능한 것을 확인한 경우, 다른 카테고리에 포함된 다른 도메인에 의해 사용자 발화가 처리되도록 할 수 있다.
이하에서는, 다양한 실시예들에 따른 전자 장치(100) 및 그 동작 방법의 다른 예, 및 지능형 서버(200) 및 그 동작 방법의 다른 예를 설명한다. 한편 이하에서, 상술한 전자 장치(100) 및 지능형 서버(200)와 관련된 중복되는 설명은 생략한다.
도 23은 다양한 실시예들에 따른 전자 장치(100) 및 지능형 서버(200)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 흐름도(2300)이다. 다양한 실시예들에 따르면 전자 장치(100)의 동작은 도 23에 도시되는 전자 장치(100)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 23에 도시되는 전자 장치(100)의 동작 보다 더 많은 동작들이 수행되거나, 또는 도 23에 도시되는 전자 장치(100)의 동작들 보다 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는 도 24, 도 25a 및 도 25b를 참조하여 도 23에 대해서 설명한다.
도 24는 다양한 실시예들에 따른 전자 장치(100)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다. 도 25a는 다양한 실시예들에 따른 지능형 서버(200)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다. 도 25b는 다양한 실시예들에 따른 지능형 서버(200)의 사용자 발화에 대응하는 서비스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(100)는 2301 동작에서 제 1 사용자 발화를 수신하고 2302 동작에서 제 1 사용자 발화를 지능형 서버(200)로 송신할 수 있다. 예를 들어, 전자 장치(100)는 도 24의 2401과 같이 제 1 사용자 발화를 수신하고, 지능형 서버(200)로 송신할 수 있다. 전자 장치(100)의 2301 동작 및 2302 동작은, 상술한 전자 장치(100)의 1201 동작 및 1202 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 지능형 서버(200)는 2303 동작에서 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하고, 2304 동작에서 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정할 수 있다. 전자 장치(100)의 2303 동작 및 2304 동작은, 상술한 전자 장치(100)의 1203 동작 및 1204 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(100)는 2305 동작에서 제 2 사용자 발화를 수신하고 2306 동작에서 제 2 사용자 발화를 지능형 서버(200)로 송신할 수 있다. 예를 들어, 전자 장치(100)는 도 24의 2402와 같이 제 1 사용자 발화(2210)에 기반한 처리 결과를 표시한 이후, 제 2 사용자 발화를 수신할 수 있다. 전자 장치(100)의 2305 동작 및 2306 동작은, 상술한 전자 장치(100)의 1207 동작 및 1208 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 지능형 서버(200)는 2307 동작에서 결정된 제 1 도메인에서 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고, 2308 동작에서 제 1 도메인에 기반한 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 제 2 도메인에 기반한 상기 제 2 사용자 발화를 처리 가능한지 여부를 확인할 수 있다. 예를 들어, 도메인 변경 모듈(716)은 도 25a의 2501과 같이 제 1 도메인(821)으로부터 제 2 사용자 발화의 처리가 불가능 함을 확인하고, 제 1 카테고리(811) 내의 다른 도메인(예: 제 3 도메인(823))에 의해 제 2 사용자 발화의 처리가 가능한지 여부를 확인할 수 있다. 지능형 서버(200)의 2307 동작 및 2308 동작은, 상술한 전자 장치(100)의 1210 동작 및 1211 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 지능형 서버(200)는 상기 제 2 도메인에서 기반한 상기 제 2 사용자 발화의 처리가 불가능한 것으로 확인된 경우, 2309 동작에서 다른 카테고리에 포함된 적어도 하나의 도메인을 기반으로 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득할 수 있다.
다양한 실시예들에 따르면, 도메인 변경 모듈(716)은 도 25a의 2502와 같이 제 1 카테고리(811) 내의 제 1 도메인(821)과 다른 모든 도메인(예: 제 3 도메인(823))으로부터 제 2 사용자 발화의 처리가 불가능함을 확인할 수 있다. 도메인 변경 모듈(716)은 제 1 카테고리(811) 내의 모든 도메인(821, 823)에 의해 제 2 사용자 발화의 처리가 불가능함을 확인한 것에 응답하여, 카테고리 변경 모듈(715)로 카테고리의 변경을 요청할 수 있다.
다양한 실시예들에 따르면, 카테고리 변경 모듈(715)은 복수 개의 카테고리들(811, 812, 813, 814) 중 제 1 카테고리(811)와는 다른 카테고리(812, 813, 814)에 포함된 도메인들에 의해 제 2 사용자 발화의 처리가 가능한지 여부를 확인할 수 있다.
이에 따라, 카테고리 변경 모듈(715)은 도 25b와 같이 복수 개의 카테고리들 중 제 1 카테고리(811)와는 다른 적어도 하나의 카테고리(예: 제 2 카테고리(812))에서 특정 도메인(예: 제 2 도메인(822))에 의해 제 2 사용자 발화의 처리가 가능한 것으로 확인한 경우, 특정 도메인(예: 제 2 도메인(822))에 의해 제 2 사용자 발화가 처리되도록 할 수 있다.
이후, 지능형 서버(200)의 제 2 사용자 발화의 처리 및 이에 따른 전자 장치(100)의 동작은 상술한 바와 같으므로, 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 전자 장치(100)는 도 24의 2403과 같이 제 2 사용자 발화(2211)를 처리 가능한 다른 카테고리에 포함된 도메인들에 대한 정보를 표시하고, 일 도메인(예: TV control)이 선택되는 경우, 도 24의 2404와 같이 일 도메인에 의해 제 2 사용자 발화가 처리된 결과를 표시(예: TV control 어플리케이션의 TV를 제어하기 위한 화면을 표시)할 수 있다.
도 26은 다양한 실시예들에 따른, 네트워크 환경(2600) 내의 전자 장치(2601)의 블럭도이다.
이하의 전자 장치(2601)에 대한 설명은 상술한 지능형 시스템에 포함되는 장치들(예: 지능형 서버(200), 전자 장치(100) 등)에 준용될 수 있다.
도 26을 참조하면, 네트워크 환경(2600)에서 전자 장치(2601)는 제 1 네트워크(2698)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(2602)와 통신하거나, 또는 제 2 네트워크(2699)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(2604) 또는 서버(2608)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(2601)는 서버(2608)를 통하여 전자 장치(2604)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(2601)는 프로세서(2620), 메모리(2630), 입력 장치(2650), 음향 출력 장치(2655), 표시 장치(2660), 오디오 모듈(2670), 센서 모듈(2676), 인터페이스(2677), 햅틱 모듈(2679), 카메라 모듈(2680), 전력 관리 모듈(2688), 배터리(2689), 통신 모듈(2690), 가입자 식별 모듈(2696), 또는 안테나 모듈(2697)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(2601)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(2660) 또는 카메라 모듈(2680))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(2676)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(2660)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(2620)는, 예를 들면, 소프트웨어(예: 프로그램(2640))를 실행하여 프로세서(2620)에 연결된 전자 장치(2601)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(2620)는 다른 구성요소(예: 센서 모듈(2676) 또는 통신 모듈(2690))로부터 수신된 명령 또는 데이터를 휘발성 메모리(2632)에 로드하고, 휘발성 메모리(2632)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(2634)에 저장할 수 있다. 일실시예에 따르면, 프로세서(2620)는 메인 프로세서(2621)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(2623)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(2623)은 메인 프로세서(2621)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(2623)는 메인 프로세서(2621)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(2623)는, 예를 들면, 메인 프로세서(2621)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(2621)를 대신하여, 또는 메인 프로세서(2621)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(2621)와 함께, 전자 장치(2601)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(2660), 센서 모듈(2676), 또는 통신 모듈(2690))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(2623)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(2680) 또는 통신 모듈(2690))의 일부로서 구현될 수 있다.
메모리(2630)는, 전자 장치(2601)의 적어도 하나의 구성요소(예: 프로세서(2620) 또는 센서모듈(2676))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(2640)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(2630)는, 휘발성 메모리(2632) 또는 비휘발성 메모리(2634)를 포함할 수 있다.
프로그램(2640)은 메모리(2630)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(2642), 미들 웨어(2644) 또는 어플리케이션(2646)을 포함할 수 있다.
입력 장치(2650)는, 전자 장치(2601)의 구성요소(예: 프로세서(2620))에 사용될 명령 또는 데이터를 전자 장치(2601)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(2650)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예:스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(2655)는 음향 신호를 전자 장치(2601)의 외부로 출력할 수 있다. 음향 출력 장치(2655)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(2660)는 전자 장치(2601)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(2660)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(2660)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(2670)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(2670)은, 입력 장치(2650) 를 통해 소리를 획득하거나, 음향 출력 장치(2655), 또는 전자 장치(2601)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(2602)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(2676)은 전자 장치(2601)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(2676)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(2677)는 전자 장치(2601)이 외부 전자 장치(예: 전자 장치(2602))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(2677)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(2678)는, 그를 통해서 전자 장치(2601)가 외부 전자 장치(예: 전자 장치(2602))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(2678)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(2679)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(2679)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(2680)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(2680)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(2688)은 전자 장치(2601)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(2688)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(2689)는 전자 장치(2601)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(2689)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(2690)은 전자 장치(2601)와 외부 전자 장치(예: 전자 장치(2602), 전자 장치(2604), 또는 서버(2608))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(2690)은 프로세서(2620)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(2690)은 무선 통신 모듈(2692)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(2694)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(2698)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(2699)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(2692)은 가입자 식별 모듈(2696)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(2698) 또는 제 2 네트워크(2699)와 같은 통신 네트워크 내에서 전자 장치(2601)를 확인 및 인증할 수 있다.
안테나 모듈(2697)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(2697)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(2698) 또는 제 2 네트워크(2699)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(2690)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(2690)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(2697)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(2699)에 연결된 서버(2608)를 통해서 전자 장치(2601)와 외부의 전자 장치(2604)간에 송신 또는 수신될 수 있다. 전자 장치(2602, 2604) 각각은 전자 장치(2601)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(2601)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(2602, 2604, 또는 2608) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(2601)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(2601)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(2601)로 전달할 수 있다. 전자 장치(2601)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(2601)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(2636) 또는 외장 메모리(2638))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(2640))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(2601))의 프로세서(예: 프로세서(2620))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
다양한 실시예들에 따르면, 전자 장치의 제어 동작에 있어서, 제 1 사용자 발화를 사용자 장치로부터 수신하는 동작, 복수 개의 카테고리들 중 상기 수신된 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하는 동작, 상기 결정된 특정 카테고리와 관련된 복수 개의 도메인들 중 상기 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정하는 동작, 상기 결정된 제 1 도메인을 기반으로 상기 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하는 동작, 제 2 사용자 발화를 상기 사용자 장치로부터 수신하는 동작, 상기 이미 결정된 제 1 도메인에서 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작, 상기 제 1 도메인에 기반한 상기 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 상기 복수 개의 도메인들 중 제 2 도메인을 확인하고, 상기 제 2 도메인에 기반한 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작, 및 상기 제 2 도메인에서 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 상기 제 2 도메인을 기반으로 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하는 동작을 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면, 상기 복수 개의 카테고리들 중 상기 특정 카테고리에 상기 복수 개의 도메인들의 각각에 대응하는 각각의 복수 개의 어플리케이션들과 관련된 정보가 등록됨으로써, 상기 복수 개의 도메인들이 상기 특정 카테고리에 포함되는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면,상기 복수 개의 카테고리들 중 상기 특정 카테고리와는 다른 적어도 하나의 카테고리에 상기 제 1 도메인이 포함되는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면, 상기 제 2 도메인에 의해 대응되는 어플리케이션에서 상기 제 2 사용자 발화가 처리되도록 하는 동작, 및 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보로서, 상기 처리 결과를 기반으로 상기 어플리케이션과 관련된 컨텐트를 포함하는 그래픽 엘리먼트 또는 상기 어플리케이션의 특정 화면에 접근하도록 하는 정보를 포함하는 딥링크를 획득하는 동작을 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면, 사용자 발화들을 기반으로 학습된 복수 개의 리졸버들 중 상기 제 1 사용자 발화에 대응하는 제 1 리졸버를 결정하는 동작, 및 상기 제 1 사용자 발화와 관련된 정보를 기반으로 상기 제 1 리졸버에 할당된 복수 개의 카테고리들 중 상기 특정 카테고리를 결정하는 동작을 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면,상기 제 1 사용자 발화와 관련된 정보는, 상기 제 1 사용자 발화로부터 획득되는 기기에 관한 정보, 상기 제 1 사용자 발화로부터 획득되는 특정 단어에 대한 정보, 상기 제 1 사용자 발화로부터 획득되는 사용자의 의도를 나타내는 정보, 또는 상기 제 1 사용자 발화를 기반으로 수행된 검색의 결과를 나타내는 정보 중 적어도 하나를 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면,상기 제 1 사용자 발화와 함께 상기 제 1 사용자 발화와 관련된 컨텍스트 정보를 수신하는 동작, 및 상기 제 1 사용자 발화와 관련된 정보 및 상기 컨텍스트 정보를 기반으로 상기 리졸버에 할당된 상기 복수 개의 카테고리들 중 상기 특정 카테고리를 선택하는 동작을 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면,관련된 상기 복수 개의 도메인들과 관련된 정보를 상기 사용자 장치로 송신하는 동작, 상기 사용자 장치로부터 상기 복수 개의 도메인들 중 상기 제 1 도메인이 선택됨을 나타내는 제 1 정보를 수신하는 동작, 및 상기 제 1 정보에 기반하여, 상기 복수 개의 도메인들 중 상기 제 1 도메인을 결정하는 동작을 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면,상기 제 1 도메인이 결정된 후 상기 제 2 사용자 발화와 관련된 지정된 조건이 만족되는 경우, 상기 제 1 도메인에 의해 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작을 포함하고, 상기 제 2 사용자 발화와 관련된 상기 지정된 조건은 상기 제 1 도메인이 결정된 시점으로부터 상기 제 2 사용자 발화가 지정된 시간 내에 수신되는 경우 또는 상기 제 1 도메인과 관련된 제 1 어플리케이션이 상기 사용자 장치에서 포어 그라운드 상태로 실행 중임을 나타내는 정보가 상기 제 2 사용자 발화와 함께 수신되는 경우 중 적어도 하나를 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면,상기 제 1 도메인으로부터 상기 제 2 사용자 발화가 처리가 불가능함을 나타내는 제 2 정보를 획득하는 동작, 상기 제 2 정보를 획득한 것에 대한 응답으로, 상기 특정 카테고리에 포함된 상기 제 1 도메인 이외의 적어도 하나의 도메인을 확인하는 동작, 상기 확인된 적어도 하나의 도메인과 관련된 스코어를 산출하는 동작, 및 상기 적어도 하나의 도메인 중 산출된 스코어가 가장 높은 상기 제 2 도메인을 확인하는 동작을 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면, 상기 제 2 도메인에 의해 상기 제 2 사용자 발화의 처리가 불가능한 것으로 확인된 경우, 상기 복수 개의 카테고리들 중 상기 특정 카테고리 이외의 적어도 하나의 카테고리와 연관된 적어도 하나의 도메인을 확인하는 동작, 및 상기 확인된 적어도 하나의 도메인에 의해 상기 제 2 사용자 발화가 처리되도록 하는 동작을 포함하는, 제어 동작이 제공될 수 있다.
다양한 실시예들에 따르면, 전자 장치에 있어서, 적어도 하나의 통신회로, 및 상기 적어도 하나의 통신회로와 작동적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 제 1 사용자 발화를 사용자 장치로부터 수신하도록 상기 적어도 하나의 통신회로를 제어하고, 복수 개의 카테고리들 중 상기 수신된 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하고, 결정된 특정 카테고리와 관련된 복수 개의 도메인들 중 상기 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정하고, 상기 결정된 제 1 도메인을 기반으로 상기 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하고, 제 2 사용자 발화를 상기 사용자 장치로부터 수신하도록 상기 적어도 하나의 통신 회로를 제어하고, 상기 이미 결정된 제 1 도메인에서 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고, 상기 제 1 도메인에 기반한 상기 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 상기 복수 개의 도메인들 중 제 2 도메인을 확인하고, 상기 제 2 도메인에 기반한 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고 상기 제 2 도메인에서 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 상기 제 2 도메인을 기반으로 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하도록 구성된, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 복수 개의 카테고리들 중 상기 특정 카테고리에 상기 복수 개의 도메인들의 각각에 대응하는 각각의 복수 개의 어플리케이션들과 관련된 정보가 등록됨으로써, 상기 복수 개의 도메인들이 상기 특정 카테고리에 포함되는, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 복수 개의 카테고리들 중 상기 특정 카테고리와는 다른 적어도 하나의 카테고리에 상기 제 1 도메인이 포함되는, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서는 상기 제 2 도메인에 의해 대응되는 어플리케이션에서 상기 제 2 사용자 발화가 처리되도록 하고, 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보로서, 상기 처리 결과를 기반으로 상기 어플리케이션과 관련된 컨텐트를 포함하는 그래픽 엘리먼트 또는 상기 어플리케이션의 특정 화면에 접근하도록 하는 정보를 포함하는 딥링크를 획득하도록 구성된, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서는 상기 결정된 특정 카테고리에 관련된 상기 복수 개의 도메인들과 관련된 정보를 상기 사용자 장치로 송신하도록 상기 적어도 하나의 통신회로를 제어하고, 상기 사용자 장치로부터 상기 복수 개의 도메인들 중 상기 제 1 도메인이 선택됨을 나타내는 제 1 정보를 수신 하도록 상기 적어도 하나의 통신회로를 제어하고, 상기 제 1 정보에 기반하여, 상기 복수 개의 도메인들 중 상기 제 1 도메인을 결정하도록 구성된, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서는 상기 제 1 도메인이 결정된 후 상기 제 2 사용자 발화와 관련된 지정된 조건이 만족되는 경우, 상기 제 1 도메인에 의해 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하도록 구성되고, 상기 제 2 사용자 발화와 관련된 지정된 조건은 상기 제 1 도메인이 결정된 시점으로부터 상기 제 2 사용자 발화가 지정된 시간 내에 수신되는 경우 또는 상기 제 1 도메인과 관련된 제 1 어플리케이션이 상기 사용자 장치에서 포어 그라운드 상태로 실행 중임을 나타내는 정보가 상기 제 2 사용자 발화와 함께 수신되는 경우 중 적어도 하나를 포함하는, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서는 상기 제 1 도메인으로부터 상기 제 2 사용자 발화가 처리가 불가능함을 나타내는 제 2 정보를 획득하고, 상기 제 2 정보를 획득한 것에 대한 응답으로, 상기 특정 카테고리에 포함된 상기 제 1 도메인 이외의 적어도 하나의 도메인을 확인하고, 상기 확인된 적어도 하나의 도메인과 관련된 스코어를 산출하고, 상기 적어도 하나의 도메인 중 산출된 스코어가 가장 높은 상기 제 2 도메인을 확인하도록 구성된, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서는 상기 제 2 도메인에 의해 상기 제 2 사용자 발화의 처리가 불가능한 것으로 확인된 경우, 상기 복수 개의 카테고리들 중 상기 특정 카테고리 이외의 다른 적어도 하나의 카테고리와 연관된 적어도 하나의 도메인을 확인하고, 상기 확인된 적어도 하나의 도메인에 의해 상기 제 2 사용자 발화가 처리되도록 하도록 구성된, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 인스트럭션들, 복수 개의 카테고리들에 대한 제 1 정보, 및 상기 복수 개의 카테고리들의 각각에 포함된 적어도 하나의 도메인에 대한 제 2 정보를 저장하도록 구성되는 메모리, 및 적어도 하나의 프로세서를 포함하고 상기 인스트럭션들은, 실행 시에 상기 적어도 하나의 프로세서가 제 1 사용자 발화를 획득하고, 상기 제 1 정보의 적어도 일부를 기반으로 복수 개의 카테고리들 중 상기 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하고, 상기 제 2 정보의 적어도 일부를 기반으로 결정된 특정 카테고리와 관련된 복수 개의 도메인들 중 상기 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정하고, 상기 결정된 제 1 도메인을 기반으로 상기 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하고, 제 2 사용자 발화를 획득하고, 상기 제 2 정보의 적어도 일부를 기반으로 상기 이미 결정된 제 1 도메인에서 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고, 상기 제 1 도메인에 기반한 상기 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 상기 복수 개의 도메인들 중 제 2 도메인을 확인하고, 상기 제 2 도메인에 기반한 상기 제 2 사용자 발화를 처리 가능한지 여부를 확인하고 상기 제 2 도메인에서 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 상기 제 2 도메인을 기반으로 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하도록 구성된, 전자 장치가 제공될 수 있다.

Claims (15)

  1. 전자 장치의 제어 동작에 있어서,
    제 1 사용자 발화를 사용자 장치로부터 수신하는 동작;
    복수 개의 카테고리들 중 상기 수신된 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하는 동작;
    상기 결정된 특정 카테고리와 관련된 복수 개의 도메인들 중 상기 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정하는 동작;
    상기 결정된 제 1 도메인을 기반으로 상기 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하는 동작;
    제 2 사용자 발화를 상기 사용자 장치로부터 수신하는 동작;
    상기 결정된 제 1 도메인에서 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작;
    상기 제 1 도메인에 기반한 상기 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 상기 복수 개의 도메인들 중 제 2 도메인을 확인하고, 상기 제 2 도메인에 기반한 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작; 및
    상기 제 2 도메인에 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 상기 제 2 도메인을 기반으로 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하는 동작;을 포함하는,
    제어 동작.
  2. 제 1 항에 있어서
    상기 복수 개의 카테고리들 중 상기 특정 카테고리에 상기 복수 개의 도메인들의 각각에 대응하는 각각의 복수 개의 어플리케이션들과 관련된 정보가 등록됨으로써, 상기 복수 개의 도메인들이 상기 특정 카테고리에 포함되는,
    제어 동작.
  3. 제 2 항에 있어서
    상기 복수 개의 카테고리들 중 상기 특정 카테고리와는 다른 적어도 하나의 카테고리에 상기 제 1 도메인이 포함되는, 제어 동작.
  4. 제 1 항에 있어서,
    상기 제 2 도메인에 의해 대응되는 어플리케이션에서 상기 제 2 사용자 발화가 처리되도록 하는 동작; 및
    상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보로서, 상기 처리 결과를 기반으로 상기 어플리케이션과 관련된 컨텐트를 포함하는 그래픽 엘리먼트 또는 상기 어플리케이션의 특정 화면에 접근하도록 하는 정보를 포함하는 딥링크를 획득하는 동작;을 포함하는,
    제어 동작.
  5. 제 1 항에 있어서,
    사용자 발화들을 기반으로 학습된 복수 개의 리졸버들 중 상기 제 1 사용자 발화에 대응하는 제 1 리졸버를 결정하는 동작; 및
    상기 제 1 사용자 발화와 관련된 정보를 기반으로 상기 제 1 리졸버에 할당된 복수 개의 카테고리들 중 상기 특정 카테고리를 결정하는 동작;을 포함하는,
    제어 동작.
  6. 제 5 항에 있어서,
    상기 제 1 사용자 발화와 관련된 정보는, 상기 제 1 사용자 발화로부터 획득되는 기기에 관한 정보, 상기 제 1 사용자 발화로부터 획득되는 특정 단어에 대한 정보, 상기 제 1 사용자 발화로부터 획득되는 사용자의 의도를 나타내는 정보, 또는 상기 제 1 사용자 발화를 기반으로 수행된 검색의 결과를 나타내는 정보 중 적어도 하나를 포함하는,
    제어 동작.
  7. 제 6 항에 있어서,
    상기 제 1 사용자 발화와 함께 상기 제 1 사용자 발화와 관련된 컨텍스트 정보를 수신하는 동작; 및
    상기 제 1 사용자 발화와 관련된 정보 및 상기 컨텍스트 정보를 기반으로 상기 제 1 리졸버에 할당된 상기 복수 개의 카테고리들 중 상기 특정 카테고리를 선택하는 동작;을 포함하는,
    제어 동작.
  8. 제 1 항에 있어서,
    상기 결정된 특정 카테고리에 관련된 상기 복수 개의 도메인들과 관련된 정보를 상기 사용자 장치로 송신하는 동작;
    상기 사용자 장치로부터 상기 복수 개의 도메인들 중 상기 제 1 도메인이 선택됨을 나타내는 제 1 정보를 수신하는 동작; 및
    상기 제 1 정보에 기반하여, 상기 복수 개의 도메인들 중 상기 제 1 도메인을 결정하는 동작;을 포함하는,
    제어 동작.
  9. 제 8 항에 있어서,
    상기 제 1 도메인이 결정된 후 상기 제 2 사용자 발화와 관련된 지정된 조건이 만족되는 경우, 상기 제 1 도메인에 의해 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하는 동작;을 포함하고,
    상기 제 2 사용자 발화와 관련된 상기 지정된 조건은 상기 제 1 도메인이 결정된 시점으로부터 상기 제 2 사용자 발화가 지정된 시간 내에 수신되는 경우 또는 상기 제 1 도메인과 관련된 제 1 어플리케이션이 상기 사용자 장치에서 포어 그라운드 상태로 실행 중임을 나타내는 정보가 상기 제 2 사용자 발화와 함께 수신되는 경우 중 적어도 하나를 포함하는,
    제어 동작.
  10. 제 9 항에 있어서,
    상기 제 1 도메인으로부터 상기 제 2 사용자 발화가 처리가 불가능함을 나타내는 제 2 정보를 획득하는 동작;
    상기 제 2 정보를 획득한 것에 대한 응답으로, 상기 특정 카테고리에 포함된 상기 제 1 도메인 이외의 적어도 하나의 도메인을 확인하는 동작;
    상기 확인된 적어도 하나의 도메인과 관련된 스코어를 산출하는 동작; 및
    상기 적어도 하나의 도메인 중 산출된 스코어가 가장 높은 상기 제 2 도메인을 확인하는 동작;을 포함하는,
    제어 동작.
  11. 제 10 항에 있어서,
    상기 제 2 도메인에 의해 상기 제 2 사용자 발화의 처리가 불가능한 것으로 확인된 경우, 상기 복수 개의 카테고리들 중 상기 특정 카테고리 이외의 적어도 하나의 카테고리와 연관된 적어도 하나의 도메인을 확인하는 동작; 및
    상기 확인된 적어도 하나의 도메인에 의해 상기 제 2 사용자 발화가 처리되도록 하는 동작;을 포함하는,
    제어 동작.
  12. 전자 장치에 있어서,
    적어도 하나의 통신회로; 및
    상기 적어도 하나의 통신회로와 작동적으로 연결된 적어도 하나의 프로세서;를 포함하고,
    상기 적어도 하나의 프로세서는:
    제 1 사용자 발화를 사용자 장치로부터 수신하도록 상기 적어도 하나의 통신회로를 제어하고,
    복수 개의 카테고리들 중 상기 수신된 제 1 사용자 발화에 대응하는 특정 카테고리를 결정하고,
    상기 결정된 특정 카테고리와 관련된 복수 개의 도메인들 중 상기 제 1 사용자 발화를 처리하기 위한 제 1 도메인을 결정하고,
    상기 결정된 제 1 도메인을 기반으로 상기 제 1 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하고,
    제 2 사용자 발화를 상기 사용자 장치로부터 수신하도록 상기 적어도 하나의 통신 회로를 제어하고,
    상기 결정된 제 1 도메인에서 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고,
    상기 제 1 도메인에 기반한 상기 제 2 사용자 발화의 처리가 불가능 한 것으로 확인된 경우, 상기 복수 개의 도메인들 중 제 2 도메인을 확인하고, 상기 제 2 도메인에 기반한 상기 제 2 사용자 발화의 처리가 가능한지 여부를 확인하고
    상기 제 2 도메인에 기반한 상기 제 2 사용자 발화의 처리가 가능한 것으로 확인된 경우, 상기 제 2 도메인을 기반으로 상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보를 획득하도록 구성된,
    전자 장치.
  13. 제 12 항에 있어서
    상기 복수 개의 카테고리들 중 상기 특정 카테고리에 상기 복수 개의 도메인들의 각각에 대응하는 각각의 복수 개의 어플리케이션들과 관련된 정보가 등록됨으로써, 상기 복수 개의 도메인들이 상기 특정 카테고리에 포함되는,
    전자 장치.
  14. 제 13 항에 있어서,
    상기 복수 개의 카테고리들 중 상기 특정 카테고리와는 다른 적어도 하나의 카테고리에 상기 제 1 도메인이 포함되는,
    전자 장치.
  15. 제 12 항에 있어서,
    상기 적어도 하나의 프로세서는:
    상기 제 2 도메인에 의해 대응되는 어플리케이션에서 상기 제 2 사용자 발화가 처리되도록 하고,
    상기 제 2 사용자 발화에 대응하는 동작이 수행되도록 하는 정보로서, 상기 처리 결과를 기반으로 상기 어플리케이션과 관련된 컨텐트를 포함하는 그래픽 엘리먼트 또는 상기 어플리케이션의 특정 화면에 접근하도록 하는 정보를 포함하는 딥링크를 획득하도록 구성된,
    전자 장치.
PCT/KR2020/008365 2019-06-26 2020-06-26 사용자 발화를 처리하는 전자 장치와 그 동작 방법 WO2020263016A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/490,383 US20220020358A1 (en) 2019-06-26 2021-09-30 Electronic device for processing user utterance and operation method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190076622A KR20210001082A (ko) 2019-06-26 2019-06-26 사용자 발화를 처리하는 전자 장치와 그 동작 방법
KR10-2019-0076622 2019-06-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/490,383 Continuation US20220020358A1 (en) 2019-06-26 2021-09-30 Electronic device for processing user utterance and operation method therefor

Publications (1)

Publication Number Publication Date
WO2020263016A1 true WO2020263016A1 (ko) 2020-12-30

Family

ID=74062002

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/008365 WO2020263016A1 (ko) 2019-06-26 2020-06-26 사용자 발화를 처리하는 전자 장치와 그 동작 방법

Country Status (3)

Country Link
US (1) US20220020358A1 (ko)
KR (1) KR20210001082A (ko)
WO (1) WO2020263016A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023059041A1 (en) * 2021-10-06 2023-04-13 Samsung Electronics Co., Ltd. Methods and systems for providing an enhanced response to a query in an iot environment
WO2023158076A1 (ko) * 2022-02-16 2023-08-24 삼성전자주식회사 전자 장치 및 전자 장치의 발화 처리 방법
EP4372737A1 (en) * 2022-09-29 2024-05-22 Samsung Electronics Co., Ltd. Electronic device, operating method and storage medium for processing speech not including predicate

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040102224A (ko) * 2002-05-10 2004-12-03 아사히 가세이 가부시키가이샤 음성 인식 장치
US20050171779A1 (en) * 2002-03-07 2005-08-04 Koninklijke Philips Electronics N. V. Method of operating a speech dialogue system
KR20160006464A (ko) * 2014-07-09 2016-01-19 삼성전자주식회사 멀티-레벨 음성 인식 방법 및 장치
KR20160059640A (ko) * 2014-11-19 2016-05-27 에스케이텔레콤 주식회사 다중 음성인식모듈을 적용한 음성 인식 방법 및 이를 위한 음성인식장치
KR20170032114A (ko) * 2015-09-14 2017-03-22 삼성전자주식회사 음성 인식 장치 및 그의 제어방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620549B2 (en) * 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
US8073681B2 (en) * 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US10417037B2 (en) * 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US10431214B2 (en) * 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10152299B2 (en) * 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9953648B2 (en) * 2015-05-11 2018-04-24 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
US10509834B2 (en) * 2015-06-05 2019-12-17 Apple Inc. Federated search results scoring
US10691473B2 (en) * 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
DK179343B1 (en) * 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10783883B2 (en) * 2016-11-03 2020-09-22 Google Llc Focus session at a voice interface device
US10467509B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US11100384B2 (en) * 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US11188808B2 (en) * 2017-04-11 2021-11-30 Lenovo (Singapore) Pte. Ltd. Indicating a responding virtual assistant from a plurality of virtual assistants
WO2019148102A1 (en) * 2018-01-29 2019-08-01 Telepathy Labs, Inc. Domain assistant system and method
KR102596436B1 (ko) * 2018-02-20 2023-11-01 삼성전자주식회사 사용자 발화를 처리하는 시스템 및 그 시스템의 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050171779A1 (en) * 2002-03-07 2005-08-04 Koninklijke Philips Electronics N. V. Method of operating a speech dialogue system
KR20040102224A (ko) * 2002-05-10 2004-12-03 아사히 가세이 가부시키가이샤 음성 인식 장치
KR20160006464A (ko) * 2014-07-09 2016-01-19 삼성전자주식회사 멀티-레벨 음성 인식 방법 및 장치
KR20160059640A (ko) * 2014-11-19 2016-05-27 에스케이텔레콤 주식회사 다중 음성인식모듈을 적용한 음성 인식 방법 및 이를 위한 음성인식장치
KR20170032114A (ko) * 2015-09-14 2017-03-22 삼성전자주식회사 음성 인식 장치 및 그의 제어방법

Also Published As

Publication number Publication date
US20220020358A1 (en) 2022-01-20
KR20210001082A (ko) 2021-01-06

Similar Documents

Publication Publication Date Title
WO2021071115A1 (en) Electronic device for processing user utterance and method of operating same
WO2019182325A1 (ko) 전자 장치 및 전자 장치의 음성 인식 제어 방법
WO2019039834A1 (en) METHOD FOR PROCESSING VOICE DATA AND ELECTRONIC DEVICE SUPPORTING SAID METHOD
WO2020017849A1 (en) Electronic device and method for providing artificial intelligence services based on pre-gathered conversations
WO2019182226A1 (en) System for processing sound data and method of controlling system
WO2020197166A1 (en) Electronic device providing response and method of operating same
WO2019078588A1 (ko) 전자 장치 및 그의 동작 방법
WO2021025350A1 (en) Electronic device managing plurality of intelligent agents and operation method thereof
WO2019078576A1 (ko) 음성 신호를 제어하기 위한 전자 장치 및 방법
WO2020032563A1 (en) System for processing user voice utterance and method for operating same
WO2020263016A1 (ko) 사용자 발화를 처리하는 전자 장치와 그 동작 방법
WO2019017715A1 (en) ELECTRONIC DEVICE AND SYSTEM FOR DETERMINING SPEECH INPUT RECEIVING TIME BASED ON CONTEXTUAL INFORMATION
AU2019319322B2 (en) Electronic device for performing task including call in response to user utterance and operation method thereof
WO2019212213A1 (en) Electronic device and method of executing function of electronic device
WO2019050242A1 (en) ELECTRONIC DEVICE, SERVER, AND RECORDING MEDIUM SUPPORTING THE EXECUTION OF A TASK USING AN EXTERNAL DEVICE
WO2019194426A1 (en) Method for executing application and electronic device supporting the same
WO2019221440A1 (ko) 사용자 발화를 처리하는 시스템 및 그 시스템의 제어 방법
WO2019172627A1 (en) System for processing user utterance and controlling method thereof
WO2020167006A1 (en) Method of providing speech recognition service and electronic device for same
WO2018174445A1 (ko) 파셜 랜딩 후 사용자 입력에 따른 동작을 수행하는 전자 장치
WO2019017665A1 (en) ELECTRONIC APPARATUS FOR PROCESSING A USER STATEMENT FOR CONTROLLING AN EXTERNAL ELECTRONIC APPARATUS AND METHOD FOR CONTROLLING THE APPARATUS
WO2019235878A1 (ko) 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
WO2019039873A1 (ko) Tts 모델을 생성하는 시스템 및 전자 장치
WO2020171570A1 (en) Method for providing routine and electronic device supporting same
WO2020076089A1 (en) Electronic device processing user utterance and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20832898

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20832898

Country of ref document: EP

Kind code of ref document: A1