KR20200092763A - Electronic device for processing user speech and controlling method thereof - Google Patents

Electronic device for processing user speech and controlling method thereof Download PDF

Info

Publication number
KR20200092763A
KR20200092763A KR1020190010101A KR20190010101A KR20200092763A KR 20200092763 A KR20200092763 A KR 20200092763A KR 1020190010101 A KR1020190010101 A KR 1020190010101A KR 20190010101 A KR20190010101 A KR 20190010101A KR 20200092763 A KR20200092763 A KR 20200092763A
Authority
KR
South Korea
Prior art keywords
user
information
electronic device
voice
server
Prior art date
Application number
KR1020190010101A
Other languages
Korean (ko)
Inventor
홍예슬
추희영
김용호
김선아
이보람
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190010101A priority Critical patent/KR20200092763A/en
Priority to PCT/KR2020/001030 priority patent/WO2020153720A1/en
Publication of KR20200092763A publication Critical patent/KR20200092763A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1807Speech classification or search using natural language modelling using prosody or stress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to various embodiments of the present invention, an electronic device comprises: a microphone; a communication module including a circuit; and at least one processor. The at least one processor controls the microphone to obtain a user voice, controls the communication module to transmit the obtained user voice to a server, and controls the communication module to receive a command for performing at least one operation performed in order from the server. The at least one operation corresponds to at least part of the semantic information of the user voice and at least part of the emphasis information of the user voice, which is confirmed according to the analysis of the user voice. The electronic device is set to perform the at least one operation based on the received command. Other various embodiments of the present invention are possible.

Description

사용자 음성을 처리하는 전자장치 및 그 제어 방법{ELECTRONIC DEVICE FOR PROCESSING USER SPEECH AND CONTROLLING METHOD THEREOF}ELECTRONIC DEVICE FOR PROCESSING USER SPEECH AND CONTROLLING METHOD THEREOF}

본 문서는 사용자 음성을 처리하는 전자장치 및 그 제어 방법 에 관한 것이다.This document relates to an electronic device that processes a user's voice and a control method thereof.

현대를 살아가는 많은 사람들에게 휴대용 디지털 통신기기들은 하나의 필수 요소가 되었다. 소비자들은 휴대용 디지털 통신기기들을 이용하여 언제 어디서나 자신이 원하는 다양한 고품질의 서비스를 제공받고 싶어한다.For many people living in modern times, portable digital communication devices have become an essential element. Consumers want to be provided with various high-quality services they want anytime, anywhere using portable digital communication devices.

음성인식 서비스는, 휴대용 디지털 통신기기들에 구현되는 음성인식 인터페이스를 기반으로, 수신되는 사용자 음성에 대응하여 다양한 컨텐츠 서비스를 소비자들에게 제공하는 서비스이다. 음성인식 서비스의 제공을 위해 휴대용 디지털 통시기기들에는 인간의 언어를 인식하고 분석하는 기술들(예: 자동 음성 인식, 자연어 이해, 자연어 생성, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성, 등)이 구현된다.The voice recognition service is a service that provides various content services to consumers in response to the received user voice based on a voice recognition interface implemented in portable digital communication devices. In order to provide voice recognition services, portable digital aisles include technologies that recognize and analyze human language (eg, automatic speech recognition, natural language understanding, natural language generation, machine translation, conversation system, question and answer, speech recognition/synthesis, Etc) is implemented.

소비자들에게 질 높은 음성인식 서비스가 제공되기 위해서는, 사용자 음성으로부터 사용자 의도를 정확하게 확인하는 기술의 구현과 확인된 사용자 의도에 대응하는 적절한 컨텐츠 서비스를 제공하는 기술의 구현이 필요하다.In order to provide a high-quality voice recognition service to consumers, it is necessary to implement a technology for accurately identifying a user's intention from a user's voice and a technology for providing an appropriate content service corresponding to the identified user's intention.

사용자 음성에 대응하여 다양한 컨텐츠 서비스를 제공하는 음성인식 서비스가 제공된다. 그러나, 사용자 음성에 포함된 사용자 음성의 강조 정보(예: 사용자 음성 중 사용자에 의해 의도적으로 강조된 적어도 일부)가 확인되지 않기 때문에, 사용자 음성의 강조 정보에 대응하여 사용자 의도에 부합하는 적절한 컨텐츠 서비스가 제공될 수 없었다. 이에 따라, 종래의 전자장치들에서는, 사용자 의도에 부합하는 적절한 컨텐츠 서비스를 제공받기 위한 사용자의 제어에 따라 더 많은 태스크가 수행되어, 전자장치의 운용 부담이 커지는 문제점이 있었다.A voice recognition service that provides various content services in response to a user voice is provided. However, since the emphasis information of the user's voice included in the user's voice (for example, at least a part of the user's voice intentionally emphasized by the user) is not identified, an appropriate content service corresponding to the user's intention in response to the emphasis information of the user's voice Could not be provided. Accordingly, in the conventional electronic devices, more tasks are performed according to a user's control to receive an appropriate content service that meets a user's intention, thereby increasing the operational burden of the electronic device.

다양한 실시예에 따른 전자장치 및 그 제어 방법은 사용자 음성에 포함된 사용자 음성의 강조 정보를 확인하는 동작을 수행하고, 확인된 사용자 음성의 강조 정보에 대응하는 다양한 컨텐츠 서비스를 제공할 수 있다. 이에 따라, 사용자 의도에 부합하는 적절한 컨텐츠 서비스를 제공하기 위해 더 적은 태스크가 수행됨으로써 운용 부담이 경감되는 전자장치 및 그 제어 방법이 제공될 수 있다.The electronic device and the control method according to various embodiments may perform an operation of checking emphasis information of the user voice included in the user voice, and provide various content services corresponding to the highlighted emphasis information of the user voice. Accordingly, an electronic device and a method of controlling the operation burden are reduced by performing less tasks in order to provide an appropriate content service that meets a user's intention.

다양한 실시예들에 따르면, 전자장치에 있어서, 마이크, 회로를 포함하는 통신 모듈, 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 사용자 음성을 획득하도록 상기 마이크를 제어하고, 상기 획득된 사용자 음성을 서버로 전달하도록 상기 통신 모듈을 제어하고, 상기 서버로부터 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드(command)를 수신하도록 상기 통신 모듈을 제어하고, 상기 적어도 하나 이상의 동작은 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보 중 적어도 일부 및 상기 사용자 음성의 강조 정보(emphasis information) 중 적어도 일부에 대응하고, 상기 수신된 커맨드를 기반으로 상기 적어도 하나 이상의 동작을 수행하도록 설정된, 전자장치가 제공될 수 있다.According to various embodiments, in an electronic device, a microphone, a communication module including a circuit, and at least one processor, wherein the at least one processor controls the microphone to acquire a user voice, and the obtained Control the communication module to transmit a user voice to a server, and control the communication module to receive a command for performing at least one operation sequentially performed from the server, wherein the at least one operation is the Corresponds to at least some of the semantic information of the user's voice and at least some of the emphasis information of the user's voice identified according to analysis of the user's voice, and performs the at least one or more operations based on the received command An electronic device configured to be provided may be provided.

다양한 실시예들에 따르면, 마이크, 회로를 포함하는 통신 모듈, 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 사용자 음성을 획득하도록 상기 마이크를 제어하고, 상기 획득된 사용자 음성을 서버로 전달하도록 상기 통신 모듈을 제어하고, 상기 서버로부터 적어도 하나 이상의 텍스트를 포함하는 답변에 대한 정보를 수신하도록 상기 통신 모듈을 제어하고, 상기 적어도 하나 이상의 텍스트를 포함하는 답변에 대한 정보는 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보 중 적어도 일부 및 상기 사용자 음성의 강조 정보(emphasis information) 중 적어도 일부에 대응하고, 상기 수신된 답변에 대한 정보를 기반으로 지정된 방식으로 적어도 하나 이상의 텍스트를 출력하도록 설정된, 전자장치가 제공될 수 있다.According to various embodiments, a microphone, a communication module including a circuit, and at least one processor, wherein the at least one processor controls the microphone to acquire a user voice, and the acquired user voice to a server Control the communication module to deliver, and control the communication module to receive information on an answer including at least one text from the server, and information on an answer including the at least one text to the user voice Corresponding to at least a part of the meaning information of the user voice and at least a part of the emphasis information of the user voice confirmed according to the analysis of the user, and at least one or more texts in a designated manner based on the information on the received answer An electronic device, which is configured to output, may be provided.

다양한 실시예들에 따르면, 인스트럭션들을 저장하는 메모리, 및 적어도 하나의 프로세서를 포함하고, 상기 인스트럭션들은, 실행 시에 상기 적어도 하나의 프로세서가 사용자 음성을 획득하고, 상기 사용자 음성에 대응하는 사용자 음성의 강조 정보를 확인하고, 상기 사용자 음성에 대응하는 사용자 음성의 의미 정보를 확인하고, 상기 확인된 사용자 음성의 강조 정보 및 상기 확인된 사용자 음성의 의미 정보를 기반으로, 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 확인하고, 상기 확인된 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 전달하도록 설정된, 전자장치가 제공될 수 있다.According to various embodiments, a memory for storing instructions, and at least one processor, wherein the instructions, when executed, the at least one processor acquires a user voice, and the user voice corresponding to the user voice At least one or more operations sequentially performed by checking the emphasis information, checking the semantic information of the user voice corresponding to the user voice, and based on the emphasizing information of the identified user voice and the semantic information of the identified user voice An electronic device configured to confirm a command for performing a command and to transmit a command for performing the at least one identified operation may be provided.

다양한 실시예들에 따르면, 마이크, 회로를 포함하는 통신 모듈, 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 사용자 음성을 획득하도록 상기 마이크를 제어하고, 상기 획득된 사용자 음성을 서버로 전달하도록 상기 통신 모듈을 제어하고, 상기 서버로부터 순차적으로 수행되는 적어도 하나의 제 1 동작을 수행하기 위한 제 1 커맨드(command)를 수신하도록 상기 통신 모듈을 제어하고, 상기 적어도 하나의 제 1 동작은, 상기 사용자 음성으로부터 강조 정보가 확인되지 않는 경우, 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보에 대응하고, 상기 서버로부터 순차적으로 수행되는 적어도 하나의 제 2 동작을 수행하기 위한 제 2 커맨드(command)를 수신하도록 상기 통신 모듈을 제어하도록 설정되고, 상기 적어도 하나의 제 2 동작은, 상기 사용자 음성으로부터 강조 정보가 확인되는 경우, 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보 및 상기 사용자 음성의 강조 정보에 대응하는, 전자장치가 제공될 수 있다.According to various embodiments, a microphone, a communication module including a circuit, and at least one processor, wherein the at least one processor controls the microphone to acquire a user voice, and the acquired user voice to a server Control the communication module to deliver, control the communication module to receive a first command for performing at least one first operation performed sequentially from the server, the at least one first operation , When the emphasis information is not confirmed from the user voice, corresponds to the semantic information of the user voice identified according to the analysis of the user voice, and for performing at least one second operation sequentially performed by the server It is set to control the communication module to receive a second command (command), the at least one second operation, when the emphasis information is confirmed from the user voice, the user confirmed according to the analysis of the user voice An electronic device may be provided corresponding to the meaning information of the voice and the emphasis information of the user voice.

다양한 실시예들에 따른, 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.According to various embodiments, a solution means for solving a problem is not limited to the above-described solution means, and solution means not mentioned are provided to those skilled in the art from the present specification and the accompanying drawings. It will be clearly understood.

다양한 실시예들에 따르면, 사용자 음성에 포함된 사용자 음성의 강조 정보를 확인하는 동작을 수행하고, 확인된 사용자 음성의 강조 정보에 대응하는 다양한 컨텐츠 서비스를 제공하는 전자장치 및 그의 제어 방법이 제공될 수 있다. 다양한 실시예들에 따르면, 사용자 의도에 부합하는 적절한 컨텐츠 서비스를 제공하기 위해 더 적은 태스크가 수행되어 운용 부담이 경감되는 전자장치 및 그 제어 방법이 제공될 수 있다.According to various embodiments, there is provided an electronic device and a control method thereof, which perform an operation of confirming highlighting information of a user's voice included in the user's voice, and provide various content services corresponding to the identified highlighting information of the user's voice Can. According to various embodiments of the present disclosure, an electronic device and a method of controlling the same can be provided in which less task is performed and an operation burden is reduced to provide an appropriate content service that meets a user's intention.

도 1은 다양한 실시예들에 따른 네트워크 환경(100) 내의 전자장치의 블럭도이다.
도 2는 다양한 실시예들에 따른 전자장치 및 서버를 설명하기 위한 도면이다.
도 3은 다양한 실시예들에 따른 사용자 입력(예: 사용자 음성)의 강조 정보에 기반한 전자장치의 동작의 일 예를 설명하기 위한 흐름도이다.
도 4는 다양한 실시예들에 따른 사용자 입력(예: 사용자 음성)의 강조 정보에 기반한 전자장치의 동작의 일 예를 설명하기 위한 도면이다.
도 5는 다양한 실시예들에 따른 전자장치의 동작의 다른 예를 설명하기 위한 흐름도이다.
도 6은 다양한 실시예들에 따른 전자장치의 동작의 다른 예를 설명하기 위한 도면이다.
도 7은 다양한 실시예들에 따른 전자장치 및 서버의 동작의 일 예를 설명하기 위한 흐름도이다.
도 8은 다양한 실시예들에 따른 전자장치의 동작의 또 다른 예를 설명하기 위한 도면이다.
도 9는 다양한 실시예들에 따른, 전자장치 및 서버의 동작의 일 예를 설명하기 위한 흐름도이다.
도 10은 다양한 실시예들에 따른, 전자장치 및 서버의 동작의 일 예를 설명하기 위한 도면이다.
도 11은 다양한 실시예들에 따른, 서버의 동작의 일 예를 설명하기 위한 도면이다.
도 12는 다양한 실시예들에 따른 서버의 사용자 음성의 강조 정보를 확인하는 동작의 일 예를 나타내는 도면이다.
도 13은 다양한 실시예들에 따른 전자장치의 일정 알람 어플리케이션을 제어하는 동작의 일 예를 설명하기 위한 흐름도이다.
도 14는 다양한 실시예들에 따른 전자장치의 일정 알람 어플리케이션을 제어하는 동작의 일 예를 설명하기 위한 도면이다.
도 15는 다양한 실시예들에 따른 전자장치의 상태 값을 설정하는 동작의 일 예를 설명하기 위한 흐름도이다.
도 16 a는 다양한 실시예들에 따른 전자장치의 상태 값을 설정하는 동작의 일 예를 설명하기 위한 도면이다.
도 16 b는 다양한 실시예들에 따른 전자장치의 상태 값을 설정하는 동작의 일 예를 설명하기 위한 도면이다.
도 17은 다양한 실시예들에 따른 따른 전자장치의 상태 값을 설정하는 동작의 다른 예를 설명하기 위한 도면이다.
도 18은 다양한 실시예들에 따른 전자장치의 복수 개의 어플리케이션을 제어하는 동작의 일 예를 설명하기 위한 흐름도이다.
도 19는 다양한 실시예들에 따른 전자장치의 복수 개의 어플리케이션을 제어하는 동작의 일 예를 설명하기 위한 도면이다.
도 20은 다양한 실시예들에 따른 전자장치, 서버 및 적어도 하나 이상의 외부 전자장치의 동작의 일 예를 나타내는 도면이다.
도 21은 다양한 실시예들에 따른 전자장치, 서버 및 적어도 하나 이상의 외부 전자장치의 일 예를 나타내는 도면이다.
도 22는 다양한 실시예들에 따른 전자장치의 전자장치에 저장된 정보를 출력하는 동작을 설명하기 위한 흐름도이다.
도 23은 다양한 실시예들에 따른 전자장치의 전자장치에 저장된 정보를 출력하는 동작을 설명하기 위한 도면이다.
도 24는 다양한 실시예들에 따른 전자장치의 동작의 다른 예를 설명하기 위한 흐름도이다.
도 25는 다양한 실시예들에 따른, 전자장치 및 서버의 동작의 다른 예를 설명하기 위한 흐름도이다.
도 26은 다양한 실시예들에 따른, 전자장치 및 서버의 동작의 다른 예를 설명하기 위한 도면이다.
도 27은 다양한 실시예들에 따른, 서버의 동작의 일 예를 설명하기 위한 도면이다.
도 28은 다양한 실시예들에 따른, 전자장치의 텍스트를 지정된 순서로 출력하는 동작을 설명하기 위한 흐름도이다.
도 29는 다양한 실시예들에 따른, 전자장치의 텍스트를 지정된 순서로 출력하는 동작을 설명하기 위한 도면이다.
도 30은 다양한 실시예들에 따른, 전자장치의 적어도 하나 이상의 동작을 수행하고, 텍스트를 출력하는 동작을 설명하기 위한 흐름도이다.
도 31은 다양한 실시예들에 따른, 전자장치의 적어도 하나 이상의 동작을 수행하고, 텍스트를 출력하는 동작을 설명하기 위한 도면이다.
도 32는 다양한 실시 예에 따른, 통합 지능화 시스템을 나타낸 도면이다.
도 33은 다양한 실시예들에 따른, 통합 지능화 시스템의 사용자 단말을 나타낸 블록도이다.
도 34는 다양한 실시예들에 따른, 통합 지능화 시스템의 지능형 서버를 나타낸 블록도이다.
도 35는 다양한 실시예들에 따른, 패스 플래너 모듈(path planner module)의 패스 룰(path rule)을 생성하는 방법을 나타낸 도면이다.
1 is a block diagram of an electronic device in a network environment 100 according to various embodiments.
2 is a diagram illustrating an electronic device and a server according to various embodiments of the present disclosure.
3 is a flowchart illustrating an example of an operation of an electronic device based on emphasis information of a user input (eg, user voice) according to various embodiments.
4 is a diagram illustrating an example of an operation of an electronic device based on emphasis information of a user input (eg, user voice) according to various embodiments.
5 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments.
6 is a view for explaining another example of the operation of the electronic device according to various embodiments.
7 is a flowchart illustrating an example of an operation of an electronic device and a server according to various embodiments of the present disclosure.
8 is a view for explaining another example of the operation of the electronic device according to various embodiments.
9 is a flowchart illustrating an example of an operation of an electronic device and a server according to various embodiments.
10 is a view for explaining an example of the operation of the electronic device and the server according to various embodiments.
11 is a view for explaining an example of the operation of the server, according to various embodiments.
12 is a diagram illustrating an example of an operation of checking emphasis information of a user voice of a server according to various embodiments.
13 is a flowchart illustrating an example of an operation of controlling a certain alarm application of an electronic device according to various embodiments.
14 is a diagram illustrating an example of an operation of controlling a certain alarm application of an electronic device according to various embodiments.
15 is a flowchart illustrating an example of an operation of setting a state value of an electronic device according to various embodiments.
16A is a diagram illustrating an example of an operation of setting a state value of an electronic device according to various embodiments.
16B is a diagram illustrating an example of an operation of setting a state value of an electronic device according to various embodiments.
17 is a diagram illustrating another example of an operation of setting a state value of an electronic device according to various embodiments of the present disclosure.
18 is a flowchart illustrating an example of an operation of controlling a plurality of applications of an electronic device according to various embodiments.
19 is a diagram illustrating an example of an operation of controlling a plurality of applications of an electronic device according to various embodiments.
20 is a diagram illustrating an example of an operation of an electronic device, a server, and at least one external electronic device according to various embodiments of the present disclosure.
21 is a diagram illustrating an example of an electronic device, a server, and at least one external electronic device according to various embodiments of the present disclosure.
22 is a flowchart illustrating an operation of outputting information stored in an electronic device of an electronic device according to various embodiments.
23 is a diagram illustrating an operation of outputting information stored in an electronic device of an electronic device according to various embodiments.
24 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure.
25 is a flowchart illustrating another example of an operation of an electronic device and a server according to various embodiments.
26 is a view for explaining another example of the operation of the electronic device and the server according to various embodiments.
27 is a view for explaining an example of the operation of the server, according to various embodiments.
28 is a flowchart illustrating an operation of outputting text of an electronic device in a specified order according to various embodiments.
29 is a diagram for describing an operation of outputting text of an electronic device in a specified order according to various embodiments of the present disclosure.
30 is a flowchart illustrating an operation of performing at least one operation of an electronic device and outputting text according to various embodiments.
31 is a diagram illustrating an operation of performing at least one operation of an electronic device and outputting text according to various embodiments.
32 is a diagram illustrating an integrated intelligent system according to various embodiments of the present disclosure.
33 is a block diagram illustrating a user terminal of an integrated intelligent system according to various embodiments.
34 is a block diagram illustrating an intelligent server of an integrated intelligent system according to various embodiments.
35 is a diagram illustrating a method of generating a path rule of a path planner module according to various embodiments.

이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings. It should be understood that the examples and terms used therein are not intended to limit the technology described in this document to specific embodiments, but include various modifications, equivalents, and/or substitutes of the examples. In connection with the description of the drawings, similar reference numerals may be used for similar elements. Singular expressions may include plural expressions unless the context clearly indicates otherwise. In this document, expressions such as “A or B” or “at least one of A and/or B” may include all possible combinations of items listed together. Expressions such as "first," "second," "first," or "second," can modify the components, regardless of order or importance, to distinguish one component from another component It is used but does not limit the components. When it is stated that one (eg, first) component is “connected (functionally or communicatively)” to another (eg, second) component or is “connected,” the component is the other It may be directly connected to the component, or may be connected through another component (eg, the third component).

본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다. In this document, "configured to (or configured)" is changed to "a suitable for", "a suitable for," or "a", depending on the situation, for example, in hardware or software. It can be used interchangeably with "made to do," "can do," or "designed to do." In some situations, the expression "a device configured to" may mean that the device "can" with other devices or parts. For example, the phrase “processors configured (or set) to perform A, B, and C” means by executing a dedicated processor (eg, an embedded processor) to perform the operation, or one or more software programs stored in the memory device. , It may mean a general-purpose processor (eg, CPU or application processor) capable of performing the corresponding operations.

본 문서의 다양한 실시예들에 따른 전자장치 또는 외부 전자장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자장치 또는 전자장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스, 게임 콘솔, 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.Electronic devices or external electronic devices according to various embodiments of the present disclosure include, for example, a smart phone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, and a server. , PDA, portable multimedia player (PMP), MP3 player, medical device, camera, or wearable device. Wearable devices are accessories (e.g. watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-devices (HMD)), fabrics or clothing (e.g. electronic clothing), It may include at least one of a body-attached type (eg, a skin pad) or a bio-implantable circuit In some embodiments, the electronic device or electronic device is, for example, a television, a digital video disk (DVD) player. , Audio, refrigerator, air conditioner, cleaner, oven, microwave, washing machine, air purifier, set-top box, home automation control panel, security control panel, media box, game console, electronic dictionary, electronic key, camcorder, or electronic picture frame It may include at least one of.

다른 실시예에서, 전자장치 또는 외부 전자장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자장치 또는 외부 전자장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자장치 또는 적어도 하나 이상의 외부 전자장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자장치 또는 적어도 하나 이상의 외부 전자장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자장치 또는 적어도 하나 이상의 외부 전자장치를 사용하는 사람 또는 전자장치 또는 적어도 하나 이상의 외부 전자장치를 사용하는 장치(예: 인공지능 전자장치)를 지칭할 수 있다.In another embodiment, the electronic device or external electronic device includes various medical devices (eg, various portable medical measurement devices (such as a blood glucose meter, heart rate monitor, blood pressure meter, or body temperature meter), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI) resonance imaging (CT), computed tomography (CT), imaging, or ultrasound), navigation devices, global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), automotive infotainment devices , Marine electronic equipment (e.g. marine navigation devices, gyro compasses, etc.), avionics, security devices, head units for vehicles, industrial or household robots, drones, financial institution ATMs, shops Point of sales (POS), or Internet of Things devices (eg, light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.) Can. According to some embodiments, the electronic device or external electronic device is a furniture, building/structure, or part of a vehicle, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, Water, electricity, gas, or radio wave measurement devices, etc.). In various embodiments, the electronic device or at least one external electronic device may be flexible or a combination of two or more of the various devices described above. The electronic device or at least one external electronic device according to the embodiment of the present document is not limited to the above-described devices. In this document, the term user may refer to a person or electronic device using an electronic device or at least one external electronic device, or a device using at least one external electronic device (eg, artificial intelligence electronic device).

도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자장치(101)는 서버(108)를 통하여 전자장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments. Referring to FIG. 1, in the network environment 100, the electronic device 101 communicates with the electronic device 102 through the first network 198 (eg, a short-range wireless communication network), or the second network 199. It may communicate with the electronic device 104 or the server 108 through (for example, a remote wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108. According to an embodiment, the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, a sensor module ( 176), interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197 ). In some embodiments, at least one of the components (for example, the display device 160 or the camera module 180) may be omitted or one or more other components may be added to the electronic device 101. In some embodiments, some of these components may be implemented in one integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while embedded in the display device 160 (eg, a display).

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (eg, the program 140) to execute at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and can perform various data processing or operations. According to one embodiment, as at least part of data processing or computation, the processor 120 may receive instructions or data received from other components (eg, the sensor module 176 or the communication module 190) in the volatile memory 132. Loaded into, process instructions or data stored in volatile memory 132, and store result data in non-volatile memory 134. According to one embodiment, the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and an auxiliary processor 123 (eg, a graphics processing unit, an image signal processor) that can be operated independently or together. , Sensor hub processor, or communication processor). Additionally or alternatively, the coprocessor 123 may be set to use lower power than the main processor 121, or to be specialized for a specified function. The coprocessor 123 may be implemented separately from the main processor 121 or as a part thereof.

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.The coprocessor 123 may replace, for example, the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 may be active (eg, execute an application) ) While in the state, with the main processor 121, at least one component of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) It can control at least some of the functions or states associated with. According to one embodiment, the coprocessor 123 (eg, image signal processor or communication processor) may be implemented as part of other functionally relevant components (eg, camera module 180 or communication module 190). have.

메모리(130)는, 전자장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.The memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176). The data may include, for example, software (eg, the program 140) and input data or output data for commands related thereto. The memory 130 may include a volatile memory 132 or a nonvolatile memory 134.

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.The program 140 may be stored as software in the memory 130, and may include, for example, an operating system 142, middleware 144, or an application 146.

입력 장치(150)는, 전자장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.The input device 150 may receive commands or data to be used for components (eg, the processor 120) of the electronic device 101 from outside (eg, a user) of the electronic device 101. The input device 150 may include, for example, a microphone, mouse, or keyboard.

음향 출력 장치(155)는 음향 신호를 전자장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output device 155 may output an audio signal to the outside of the electronic device 101. The audio output device 155 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from, or as part of, the speaker.

표시 장치(160)는 전자장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. The display device 160 may visually provide information to the outside of the electronic device 101 (eg, a user). The display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to an embodiment, the display device 160 may include a touch circuitry configured to sense a touch, or a sensor circuit (eg, a pressure sensor) configured to measure the strength of the force generated by the touch. have.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자장치(101)와 직접 또는 무선으로 연결된 외부 전자장치(예: 전자장치(102))(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 170 may convert sound into an electrical signal, or vice versa. According to an embodiment, the audio module 170 acquires sound through the input device 150 or directly or wirelessly connects to the sound output device 155 or the electronic device 101 (for example, an external electronic device) Sound may be output through the electronic device 102) (eg, a speaker or headphones).

센서 모듈(176)은 전자장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state can do. According to one embodiment, the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a biological sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.

인터페이스(177)는 전자장치(101)이 외부 전자장치(예: 전자장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that may be used for the electronic device 101 to directly or wirelessly connect to an external electronic device (eg, the electronic device 102). According to an embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자장치(101)가 외부 전자장치(예: 전자장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ). According to an embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or movement) or electrical stimuli that the user can perceive through tactile or motor sensations. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 may capture still images and videos. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 may manage power supplied to the electronic device 101. According to one embodiment, the power management module 388 may be implemented, for example, as at least part of a power management integrated circuit (PMIC).

배터리(189)는 전자장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101. According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.

통신 모듈(190)은 전자장치(101)와 외부 전자장치(예: 전자장치(102), 전자장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자장치(101)를 확인 및 인증할 수 있다.The communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishing and performing communication through the established communication channel. The communication module 190 operates independently of the processor 120 (eg, an application processor) and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg : Local area network (LAN) communication module, or power line communication module. The corresponding communication module among these communication modules includes a first network 198 (for example, a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)) or a second network 199 (for example, a cellular network, the Internet, or It may communicate with external electronic devices through a computer network (eg, a telecommunication network such as a LAN or WAN). These various types of communication modules may be integrated into a single component (eg, a single chip), or may be implemented as a plurality of separate components (eg, multiple chips). The wireless communication module 192 uses a subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199. The electronic device 101 can be identified and authenticated.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제 1 네트워크 198 또는 제 2 네트워크 199와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자장치 간에 송신되거나 수신될 수 있다.The antenna module 197 may transmit a signal or power to the outside (eg, an external electronic device) or receive it from the outside. According to an embodiment, the antenna module 197 may include one or more antennas, from which at least one antenna suitable for a communication scheme used in a communication network, such as a first network 198 or a second network 199, For example, it may be selected by the communication module 190. The signal or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other via a communication method between peripheral devices (for example, a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)) and a signal ( Ex: command or data) can be exchanged with each other.

일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자장치(101)와 외부의 전자장치(104)간에 송신 또는 수신될 수 있다. 전자장치(102, 104) 각각은 전자장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자장치(101)로 전달할 수 있다. 전자장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.According to one embodiment, the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199. Each of the electronic devices 102 and 104 may be the same or a different type of device from the electronic device 101. According to an embodiment, all or some of the operations executed in the electronic device 101 may be performed in one or more external devices of the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead executes the function or service itself. In addition or in addition, one or more external electronic devices may be requested to perform at least a portion of the function or the service. The one or more external electronic devices receiving the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and deliver the result of the execution to the electronic device 101. The electronic device 101 may process the result, as it is or additionally, and provide it as at least part of a response to the request. To this end, cloud computing, distributed computing, or client-server computing technology can be used, for example.

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 일 예를 설명한다.Hereinafter, an example of the electronic device 101 and a control method thereof according to various embodiments will be described.

이하에서 설명되는 전자장치(101)의 동작은 프로세서(120)가 전자장치(101)의 적어도 하나의 구성을 이용하여 해당 동작을 수행하도록 제어되는 것으로 기재되어 있으나, 이에 국한되지 않을 수 있다. 예를 들어, 이하에서 설명되는 전자장치(101)의 동작을 유발하는 인스트럭션 또는 컴퓨터 코드가 메모리(130)에 저장되어 있을 수 있다. 저장된 인스트럭션 또는 컴퓨터 코드는 프로세서(120)가 전자장치(101)에 포함된 적어도 하나의 구성을 이용하여 해당 동작을 처리하도록 유발할 수 있다.The operation of the electronic device 101 described below is described as being controlled such that the processor 120 performs the corresponding operation using at least one configuration of the electronic device 101, but may not be limited thereto. For example, instructions or computer codes that cause the operation of the electronic device 101 described below may be stored in the memory 130. The stored instructions or computer code may cause the processor 120 to process the corresponding operation using at least one component included in the electronic device 101.

도 2는 다양한 실시예들에 따른 전자장치(101) 및 서버(201)를 설명하기 위한 도면이다.2 is a diagram illustrating an electronic device 101 and a server 201 according to various embodiments.

다양한 실시예들에 따른, 전자장치(101)는 서버(201)와 통신망으로 연결되고, 통신망을 통해 수신된 사용자 입력(예: 사용자 음성)을 서버(201)로 전달하도록 통신 모듈(190)을 제어하고, 서버(201)로부터 사용자 음성의 분석 결과 정보를 수신하도록 통신 모듈(190)을 제어하고, 수신된 사용자 음성의 분석 결과 정보를 기반으로 음성 인식 서비스를 제공할 수 있다.According to various embodiments, the electronic device 101 is connected to the server 201 through a communication network, and transmits a communication module 190 to transmit user input (eg, user voice) received through the communication network to the server 201. It is possible to control and control the communication module 190 to receive the analysis result information of the user's voice from the server 201, and provide a voice recognition service based on the analysis result information of the received user's voice.

다양한 실시예들에 따르면, 서버(201)는 전자장치(101)로부터 수신된 사용자 입력과 연관된 동작을 수행할 수 있다. 예를 들어, 서버(201)는 전자장치(101)로부터 수신된 사용자 입력을 적어도 하나 이상의 분석 방법에 기반하여 분석할 수 있다. 예를 들어, 서버(201)는 사용자 입력을 적어도 하나 이상의 분석 방법에 기반하여 분석한 것에 기반하여, 전자장치(101)에서 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 확인할 수 있다. 예를 들어, 서버(201)는 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 전자장치(101)로 전달하도록 통신 모듈(190)을 제어할 수 있다. 예를 들어, 서버(201)는 사용자 입력을 적어도 하나 이상의 분석 방법에 기반하여 분석한 것에 기반하여, 적어도 하나 이상의 텍스트에 관한 답변 정보를 확인할 수 있다. 예를 들어, 서버(201)는 적어도 하나 이상의 텍스트에 관한 답변 정보를 송신하도록 통신 모듈(190)을 제어할 수 있다. 서버(201)의 동작에 대해서는 구체적으로 후술한다.According to various embodiments, the server 201 may perform an operation associated with a user input received from the electronic device 101. For example, the server 201 may analyze the user input received from the electronic device 101 based on at least one analysis method. For example, the server 201 may check a command for performing at least one operation sequentially performed in the electronic device 101 based on the analysis of user input based on at least one analysis method. For example, the server 201 may control the communication module 190 to transmit a command for performing at least one operation performed sequentially to the electronic device 101. For example, the server 201 may check answer information on at least one text based on the analysis of user input based on at least one analysis method. For example, the server 201 may control the communication module 190 to transmit response information regarding at least one text. The operation of the server 201 will be described later in detail.

다양한 실시예들에 따른 서버(201)에서 수행되는 적어도 하나 이상의 동작은 전자장치(101)에서 수행될 수 있다. 다시 말해, 전자장치(101)는 다양한 실시예들에 따른 서버(201)의 동작이 전자장치(101)에서 수행되는 스탠드 어론 타입(stand-alone type)의 전자장치(101)로 구현될 수 있다. At least one operation performed in the server 201 according to various embodiments may be performed in the electronic device 101. In other words, the electronic device 101 may be implemented as a stand-alone type electronic device 101 in which the operation of the server 201 according to various embodiments is performed in the electronic device 101. .

즉, 이하에서 설명되는 서버(201)에서 수행되는 적어도 하나 이상의 동작은 전자장치(101)에서 수행될 수도 있다.That is, at least one operation performed in the server 201 described below may be performed in the electronic device 101.

도 3은 다양한 실시예들에 따른 사용자 입력(예: 사용자 음성)의 강조 정보에 기반한 전자장치의 동작의 일 예를 설명하기 위한 흐름도(300)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 3에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 3에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 도 3에 도시되는 전자장치(101)의 동작들 보다 더 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는 도 4를 참조하여 도 3에 대해서 설명한다. 3 is a flowchart 300 illustrating an example of an operation of an electronic device based on emphasis information of a user input (eg, user voice) according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 3, but may be performed in a different order from the order shown. In addition, according to various embodiments, more operations than the operations of the electronic device 101 shown in FIG. 3 are performed, or at least one or more operations less than those of the electronic device 101 shown in FIG. 3. The operation may be performed. Hereinafter, FIG. 3 will be described with reference to FIG. 4.

도 4는 다양한 실시예들에 따른 사용자 입력(예: 사용자 음성)의 강조 정보에 기반한 전자장치의 동작의 일 예를 설명하기 위한 도면이다.4 is a diagram illustrating an example of an operation of an electronic device based on emphasis information of a user input (eg, user voice) according to various embodiments.

다양한 실시예들에 따르면, 전자장치는 사용자 입력(예: 사용자 음성)의 강조 정보가 존재하는지 여부에 따라, 적어도 하나 이상의 동작을 수행할 수 있다.According to various embodiments, the electronic device may perform at least one operation according to whether emphasis information of a user input (eg, user voice) exists.

다양한 실시예들에 따르면, 전자장치는 301 동작에서 사용자 입력을 수신할 수 있다. 예를 들어, 전자장치는, 도 4에 도시된 바와 같이, 전자장치에 구비된 마이크를 활성화(예: 마이크 on)시켜, 활성화된 마이크를 이용하여 사용자로부터 음성 입력(예: "아침 일곱시 알람 설정"이라는 사용자의 음성)을 수신할 수 있다. 아울러 상기 기재에 국한되지 않고, 전자장치는 사용자로부터 텍스트 입력, 터치 입력 등을 수신할 수 있다.According to various embodiments, the electronic device may receive a user input in operation 301. For example, as illustrated in FIG. 4, the electronic device activates a microphone provided in the electronic device (eg, a microphone on), and inputs a voice from a user using the activated microphone (eg, “alarm at 7:00 in the morning”). Settings” user's voice). In addition, the present invention is not limited to the above description, and the electronic device may receive text input, touch input, and the like from the user.

다양한 실시예들에 따르면, 전자장치는 302 동작에서 사용자 입력의 강조 정보가 존재하는지 여부에 따라, 303 동작에서 사용자 입력의 의미 정보를 기반으로 적어도 하나의 제 1 동작을 수행하거나, 304 동작에서 사용자 입력의 의미 정보 및 사용자 입력의 강조 정보를 기반으로 적어도 하나의 제 2 동작을 수행할 수 있다. 예를 들어, 전자장치는 도 4를 참조하면 302 동작에서 "아침 일곱시 알람 설정"이라는 제 1 사용자 음성(401)을 획득하고, 303 동작에서 제 1 사용자 음성(401)의 의미 정보(예: "2018/xx/xx 오전 7시 알람 설정")에 대응하여 전자장치에 설치된 알람 기능과 관련된 어플리케이션을 실행하는 동작 및 실행된 어플리케이션을 이용하여 아침 일곱시에 알람이 제 1 횟수로 출력되도록 설정하는 동작을 수행할 수 있다. 또 예를 들어, 전자장치는 도 4를 참조하면 302 동작에서 사용자의 의도에 따라 사용자 음성에서 강조된 "알람 설정"이라는 사용자 음성을 포함하는 "아침 일곱시 알람 설정!"이라는 제 2 사용자 음성(402)을 획득할 수 있다. 예를 들어, "!"는 음성의 크기가 큰 것을 의미할 수 있다. 이에 국한되지 않고, "!"는 다양한 방식(예: 음성학적 강조, 언어학적 강조)으로 해당 음성이 강조된 것임을 의미할 수 있다. 전자 장치(101)는, 음성의 크기를 확인하여 강조 여부를 확인할 수 있으며, 이에 대하여서는 더욱 상세하게 후술하도록 한다. 303 동작에서 제 2 사용자 음성(402)의 의미 정보(예: "2018/xx/xx 오전 7시 알람 설정") 및 제 2 사용자 음성(402)의 강조 정보(예: 알람 설정!)에 대응하여 전자장치에 설치된 알람 기능과 관련된 어플리케이션을 실행하는 동작 및 실행된 어플리케이션을 이용하여 아침 일곱시에 알람이 제 1 횟수보다 많은 제 2 횟수로 출력되도록 설정하는 동작을 수행할 수 있다. 다시 말해, 두 개의 사용자 음성의 텍스트가 동일하다 하더라도, 전자장치는 사용자 입력에 강조 정보가 포함되는 경우, 사용자 입력에 강조 정보가 포함되지 않는 경우와 다른 적어도 하나 이상의 동작을 수행할 수 있다. 예를 들어 상술한 바와 같이, 전자장치는 사용자 입력(예: 제 1 사용자 음성(401))을 수신하는 경우, 강조 정보가 포함되지 않는 사용자 입력(예: 제 2 사용자 음성(402))을 수신하는 경우에 설정되는 알람 횟수보다 더 많은 알람 횟수를 설정하여, 사용자 입력에 대응하여 수행되는 전자장치의 적어도 하나 이상의 동작의 일부 동작을 강화하여 제공할 수 있다.According to various embodiments, the electronic device performs at least one first operation based on the semantic information of the user input in operation 303 or the user in operation 304 according to whether or not emphasis information of the user input exists in operation 302. At least one second operation may be performed based on the semantic information of the input and the emphasis information of the user input. For example, referring to FIG. 4, the electronic device acquires a first user voice 401 called “alarm set at 7 am” in operation 302, and semantic information of the first user voice 401 in operation 303 (eg: In response to "2018/xx/xx 7 AM alarm setting"), the operation related to the alarm function installed in the electronic device is executed, and the alarm is output as the first number at 7 AM using the executed application. You can perform the operation. Further, for example, referring to FIG. 4, the electronic device may display a second user voice 402 called “alarm setting at 7:00 in the morning!” including a user voice “alarm setting” highlighted in the user voice according to the user's intention in operation 302. ). For example, "!" may mean that the voice is loud. Without being limited to this, "!" may mean that the corresponding voice is emphasized in various ways (eg, phonetic emphasis, linguistic emphasis). The electronic device 101 may confirm whether or not emphasis is made by confirming the volume of the voice, which will be described later in more detail. In response to the semantic information of the second user voice 402 in operation 303 (for example, "2018/xx/xx 7 am alarm setting") and the emphasis information of the second user voice 402 (eg, alarm setting!) An operation related to an alarm function installed in the electronic device may be performed, and an operation of setting an alarm to be outputted at a second number of times greater than the first number of times using the executed application may be performed. In other words, even if the texts of the two user voices are the same, the electronic device may perform at least one or more operations different from the case where the emphasis information is included in the user input or the emphasis information is not included in the user input. For example, as described above, when the electronic device receives a user input (eg, the first user voice 401), the electronic device receives a user input (eg, the second user voice 402) that does not include emphasis information. In some cases, the number of alarms may be set to be greater than the number of alarms set, and some operations of at least one operation of the electronic device performed in response to a user input may be enhanced and provided.

다양한 실시예들에 따르면, 사용자 입력의 의미 정보는 사용자 입력으로부터 확인되는 사용자의 의도를 지시하는 정보일 수 있다. 예를 들어, 사용자 음성이 "아침 일곱시 알람 설정"인 경우, 사용자의 의도는 "2018/xx/xx 오전 7시 알람 설정"이며, 사용자 음성의 의미 정보는 상기 사용자 의도를 지시하는 정보일 수 있다. 다양한 실시예들에 따르면, 사용자 입력의 의미 정보는 자연어 이해 방법에 따라, 사용자 입력에 대응하는 텍스트 데이터와 자연어 인식 데이터 베이스에 저장된 매칭 룰에 따라서 확인될 수 있다.According to various embodiments, the semantic information of the user input may be information indicating a user's intention confirmed from the user input. For example, if the user voice is "alarm setting at 7 am", the user's intention is "2018/xx/xx 7 am alarm setting", and the semantic information of the user voice may be information indicating the user intention. have. According to various embodiments, the semantic information of the user input may be identified according to a text data corresponding to the user input and a matching rule stored in the natural language recognition database according to the natural language understanding method.

다양한 실시예들에 따르면, 사용자 입력의 강조 정보는 사용자의 의도에 따라 사용자 입력(예: 제 2 사용자 음성(402)) 중에서 다른 일부(예: 아침 일곱시)에 비하여 강조되는 적어도 일부(예: 알람 설정!)를 의미할 수 있다. 예를 들어, 사용자 입력이 음성 입력인 경우, 사용자 입력의 강조 정보는 사용자 의도에 따라 입력되는 사용자 음성 중 음성학적(예: 크기, 피치, 지속 시간 등) 또는 언어학적(예: 꼭, 빨리 등과 같은 수식어)으로 강조되는 일부를 의미할 수 있다. 예를 들어, 사용자 입력이 텍스트 입력인 경우, 사용자 입력의 강조 정보는 사용자 의도에 따라 입력되는 텍스트 중 언어학적으로 강조(예: 꼭, 빨리 등과 같은 수식어)되거나 또는 텍스트 서식(예: 하이라이트, 밑줄, 굵게 등)이 적용된 일부를 의미할 수 있다. 다양한 실시예들에 따르면, 사용자 입력의 강조 정보는 사용자 입력에 대한 적어도 하나 이상의 분석 방법에 기반하여 확인될 수 있다. 이에 대해서는 구체적으로 후술한다.According to various embodiments, the emphasis information of the user input is at least a part of the user input (eg, the second user voice 402) that is emphasized compared to another part (eg, 7:00 in the morning) according to the user's intention (eg, at 7 am). Alarm setting!). For example, when the user input is a voice input, the emphasis information of the user input is phonetic (eg, size, pitch, duration, etc.) or linguistic (eg, necessarily, fast, etc.) among the user voices input according to the user's intention. It can mean a part emphasized with the same modifier). For example, if the user input is text input, the highlighting information of the user input may be linguistically emphasized (for example, a modifier such as must, fast, etc.) among texts input according to the user's intention, or a text format (eg highlight, underline) , Bold, etc.). According to various embodiments, emphasis information of the user input may be identified based on at least one analysis method of the user input. This will be described later in detail.

이하에서는, 설명의 편의를 위해 전자장치로 입력되는 사용자 입력이 음성 입력인 것으로 하여 설명하나, 다른 종류의 사용자 입력들(예: 텍스트 입력, 터치 입력 등)에도 다양한 실시예들에 대한 설명이 준용될 수 있다.Hereinafter, for convenience of description, the user input to the electronic device is described as a voice input, but descriptions of various embodiments are also applied to other types of user inputs (eg, text input, touch input, etc.). Can be.

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 다른 예를 설명한다. Hereinafter, another example of the electronic device 101 and its control method according to various embodiments will be described.

다양한 실시예들에 따르면, 전자장치(101)는 사용자 음성의 강조 정보에 대응하는 적어도 하나 이상의 동작을 수행할 수 있다. 이하에서는, 전자장치(101)의 사용자 음성의 강조 정보에 대응하는 적어도 하나 이상의 동작의 수행에 대해서 도 5 및 도 6을 참조하여 설명한다.According to various embodiments, the electronic device 101 may perform at least one operation corresponding to emphasis information of the user's voice. Hereinafter, the performance of at least one operation corresponding to the emphasis information of the user's voice of the electronic device 101 will be described with reference to FIGS. 5 and 6.

도 5는 다양한 실시예들에 따른 전자장치(101)의 동작의 다른 예를 설명하기 위한 흐름도(500)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 5에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 5에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 도 5에 도시되는 전자장치(101)의 동작들 보다 더 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는, 도 6을 참조하여 도 5에 대해서 설명한다.5 is a flowchart 500 for explaining another example of the operation of the electronic device 101 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 5, but may be performed in a different order from the order shown. In addition, according to various embodiments, more operations than the operations of the electronic device 101 shown in FIG. 5 are performed, or at least one or more operations less than those of the electronic device 101 shown in FIG. 5. The operation may be performed. Hereinafter, FIG. 5 will be described with reference to FIG. 6.

도 6은 다양한 실시예들에 따른 전자장치(101)의 동작의 다른 예를 설명하기 위한 도면이다.6 is a view for explaining another example of the operation of the electronic device 101 according to various embodiments.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 501 동작에서 사용자 음성을 획득하도록 마이크를 제어할 수 있다. 예를 들어, 전자장치(101)는 도 5에 도시된 바와 같이 사용자에 의해 적어도 일부 음성(예: "알람 설정!")이 강조된 사용자 음성(예: "아침 일곱시 알람 설정!")을 수신하도록 마이크를 제어할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may control the microphone to acquire a user voice in operation 501. For example, as illustrated in FIG. 5, the electronic device 101 receives a user voice (eg, “alarm setting at 7 am!”) in which at least some voice (eg, “alarm setting!”) is emphasized by the user. So you can control the microphone.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 502 동작에서 획득된 사용자 음성을 서버(201)로 전달하도록 통신 모듈(190)을 제어할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may control the communication module 190 to transmit the user voice obtained in operation 502 to the server 201.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 503 동작에서 서버(201)로부터 순차적으로 수행되는 적어도 하나 이상의 동작(602)을 수행하기 위한 커맨드를 수신하도록 통신 모듈(190)을 제어할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) receives a command for performing at least one or more operations 602 sequentially performed from the server 201 in operation 503. The communication module 190 can be controlled to do so.

다양한 실시예들에 따르면, 도 6에 도시된 바와 같이 순차적으로 수행되는 적어도 하나 이상의 동작(602)(예: 제 1 동작(611)(예: 알람어플리케이션 실행), 제 2 동작(612)(예: 아침 일곱시 복수회 알람 설정))을 수행하기 위한 커맨드는 사용자 음성의 의미 정보(예: "2018/XX/XX", "오전 7시", "알람 설정") 및 사용자 음성의 강조 정보(예: "알람 설정!")에 기반하여 서버(201)에 의해 확인될 수 있다. 다양한 실시예들에 따르면, 도 6에 도시된 바와 같이 순차적으로 수행되는 적어도 하나 이상의 동작(602)의 적어도 일부(예: 제 2 동작(예: 아침 일곱시 복수회 알람 설정))에 대응하는 파라미터(예: 알람 설정 횟수)는 사용자 음성의 강조 정보(예: "알람 설정!")를 기반으로 확인될 수 있다. 구체적으로 도 6에 도시된 바와 같이 사용자 음성의 의미 정보 중 적어도 일부(예: "알람 설정")가 사용자 음성의 강조 정보(예: "알람 설정!")를 기반으로 확인되고, 사용자 음성의 의미 정보 중 적어도 일부에 포함된 파라미터(예: 알람 설정 횟수)가 사용자 음성의 강조 정보(예: "알람 설정!")를 기반으로 확인(예: 알람 설정 횟수를 복수회로 설정)될 수 있다. 이에 따라, 사용자 음성의 강조 정보를 기반으로 설정된 파라미터를 포함하는 사용자 음성의 의미 정보 중 적어도 일부에 기반하여 적어도 하나 이상의 동작(602)의 적어도 일부(예: 제 2 동작(예: 아침 일곱시 복수회 알람 설정))가 확인될 수 있다.According to various embodiments, at least one or more operations 602 sequentially performed as illustrated in FIG. 6 (eg, a first operation 611 (eg, executing an alarm application)) and a second operation 612 (eg, : Command for performing the alarm setting at 7 o'clock in the morning multiple times) is the meaning information of the user's voice (eg, "2018/XX/XX", "7 am", "alarm setting") and the highlight information of the user's voice ( Example: "Alarm setting!") can be confirmed by the server 201. According to various embodiments, parameters corresponding to at least a portion of at least one or more operations 602 that are sequentially performed as illustrated in FIG. 6 (for example, a second operation (for example, setting an alarm multiple times at 7 am)) (E.g., number of alarm settings) may be confirmed based on emphasis information of the user's voice (e.g., "alarm setting!"). Specifically, as illustrated in FIG. 6, at least some (eg, “alarm setting”) of the meaning information of the user voice is checked based on the emphasis information of the user voice (eg, “alarm setting!”), and the meaning of the user voice The parameters included in at least some of the information (for example, the number of alarm settings) may be checked based on the highlight information of the user voice (for example, “alarm setting!”) (for example, the number of alarm setting times is set multiple times). Accordingly, at least a part of at least one or more operations 602 (eg, a second operation (eg, a plurality of seven o'clock in the morning)) based on at least some of the meaning information of the user's voice that includes a parameter set based on emphasis information of the user's voice Times alarm setting)) can be confirmed.

다양한 실시예들에 따르면, 사용자 음성의 의미 정보와 사용자 음성의 강조 정보는 별도의 분석 방법으로 확인되거나, 또는 함께 확인될 수 있는데 이에 대해서는 구체적으로 후술한다.According to various embodiments, the semantic information of the user's voice and the emphasis information of the user's voice may be confirmed by separate analysis methods or may be confirmed together, which will be described later in detail.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 504 동작에서 수신된 커맨드를 기반으로 적어도 하나 이상의 동작(602)을 수행할 수 있다. 예를 들면, 전자장치(101)는 도 6에 도시된 바와 같이 수신된 커맨드를 기반으로, 알람 어플리케이션을 실행하고, 실행된 알람 어플리케이션이 2018/XX/XX 오전 7시 전후로 복수 회의 알람을 제공하도록 설정하는 동작을 수행할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may perform at least one operation 602 based on the command received in operation 504. For example, the electronic device 101 executes an alarm application based on the received command, as shown in FIG. 6, and the executed alarm application provides alarms multiple times around 7 am 2018/XX/XX The setting operation can be performed.

이하에서는 도 7 및 도 8을 참조하여 다양한 실시예들에 따른 501 동작 및 502 동작과 관련된 전자장치(101)의 동작의 일 예에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, an example of operations of the electronic device 101 related to operations 501 and 502 according to various embodiments will be described with reference to FIGS. 7 and 8. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

도 7은 다양한 실시예들에 따른 전자장치(101) 및 서버(201)의 동작의 일 예를 설명하기 위한 흐름도(700)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 7에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 7에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 도 7에 도시되는 전자장치(101)의 동작들 보다 더 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는 도 8을 참조하여 도 7에 대해서 설명한다. 7 is a flowchart 700 illustrating an example of operations of the electronic device 101 and the server 201 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 7, and may be performed in a different order from the order shown. In addition, according to various embodiments, more operations than the operations of the electronic device 101 shown in FIG. 7 are performed, or at least one or more operations less than those of the electronic device 101 shown in FIG. 7. The operation may be performed. Hereinafter, FIG. 7 will be described with reference to FIG. 8.

도 8은 다양한 실시예들에 따른 전자장치(101)의 동작의 또 다른 예를 설명하기 위한 도면이다.8 is a view for explaining another example of the operation of the electronic device 101 according to various embodiments.

다양한 실시예들에 따르면, 전자장치(101)는 상술한 501 동작과 502 동작의 적어도 일부로 실행된 프로그램을 기반으로 사용자 음성을 서버(201)로 실시간으로 전달하도록 통신 모듈(190)을 제어하고, 501 동작 및 502 동작의 이후에 서버(201)로부터 수신된 사용자 음성에 대응하는 정보를 표시하도록 디스플레이를 제어할 수 있다.According to various embodiments, the electronic device 101 controls the communication module 190 to deliver the user's voice to the server 201 in real time based on the programs executed as at least part of the above-described operations 501 and 502, The display may be controlled to display information corresponding to the user's voice received from the server 201 after operations 501 and 502.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 701 동작에서 프로그램을 실행할 수 있다. 다양한 실시예들에 따르면 상기 프로그램은 지능형 에이전트와 연관된 어플리케이션(예: 음성 인식 어플리케이션)일 수 있다. 전자장치(101)는 사용자 입력(예: 전자장치(101)에 구비된 하드웨어 키를 통한 입력, 터치스크린을 통한 입력, 지정된 음성 입력)을 수신한 것에 응답하여, 지능형 에이전트와 연동된 어플리케이션을 실행할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may execute a program in operation 701. According to various embodiments, the program may be an application associated with an intelligent agent (eg, a voice recognition application). The electronic device 101 executes an application associated with an intelligent agent in response to receiving a user input (eg, input through a hardware key provided in the electronic device 101, input through a touch screen, designated voice input). Can.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 702 동작에서 사용자 음성을 획득하도록 마이크를 제어할 수 있다. 예를 들어, 전자장치(101)는 실행된 지능형 에이전트와 연동된 어플리케이션을 기반으로, 사용자 음성을 획득하고, 수신된 사용자 음성을 전처리(예: 적응 반향 제거(adaptive echo canceller AEC), 노이즈 억제(noise suppression NS), 종점 검출(end-point detection EPD), 또는 자동 이득 제어(automatic gain control AGC) 등)할 수 있다. 전자장치(101)는 도 8에 도시된 바와 같이 사용자 음성(801, 802, 803)(예: "아침", "일곱시", "알람 설정")을 순차적으로 수신할 수 있다. 도8에 도시된 순차적으로 수신되는 사용자 음성은 설명의 편의를 위한 일 예로서, 전자장치(101)는 도 7에 도시된 수신되는 사용자 음성의 단위보다 더 작은 단위(예: "ㅇ", "ㅏ", "ㅊ", "ㅣ", "ㅁ" 등)로 사용자 음성을 순차적으로 수신할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may control the microphone to acquire a user voice in operation 702. For example, the electronic device 101 acquires a user voice based on an application associated with the executed intelligent agent, and preprocesses the received user voice (eg, adaptive echo canceller AEC, noise suppression ( noise suppression NS), end-point detection EPD, or automatic gain control AGC. 8, the electronic device 101 may sequentially receive user voices 801, 802, and 803 (eg, "morning", "seven hours", and "alarm setting"). The sequentially received user voice illustrated in FIG. 8 is an example for convenience of description, and the electronic device 101 is a unit smaller than the unit of the received user voice illustrated in FIG. 7 (eg, “ㅇ”, “ ㅏ", "ㅊ", "ㅣ", "ㅁ", etc.) to receive user voices sequentially.

다양한 실시예들에 따르면, 도 8에 도시된 바와 같이 전자장치(101)(예: 적어도 하나의 프로세서(120))는 순차적으로 수신되는 사용자 음성(801, 802, 803)에 대응하여, 순차적으로 텍스트를 표시하도록 디스플레이를 제어할 수 있다. 이때, 순차적으로 표시되는 텍스트 중 사용자 음성의 강조 정보에 대응하는 일부는 강조되어 전자장치(101)의 디스플레이 상에 표시될 수 있다. 이하에서는, 703 동작 내지 708 동작을 참조하여, 전자장치(101)의 순차적으로 텍스트를 표시하도록 디스플레이를 제어하는 동작의 일 예에 대해서 설명한다.According to various embodiments, as shown in FIG. 8, the electronic device 101 (eg, at least one processor 120) sequentially corresponds to user voices 801, 802, and 803 received sequentially You can control the display to display text. At this time, a portion of the text displayed sequentially corresponding to the highlighting information of the user's voice may be highlighted and displayed on the display of the electronic device 101. Hereinafter, an example of the operation of controlling the display to sequentially display the text of the electronic device 101 will be described with reference to operations 703 to 708.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 703 동작에서 순차적으로 수신되는 사용자 음성(811, 812, 813)을 서버(201)로 전달하도록 통신 모듈(190)을 제어할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) communicates with the server 201 to transmit user voices 811, 812, and 813 sequentially received in operation 703 to the server 201. 190 can be controlled.

다양한 실시예들에 따르면, 서버(201)는 704 동작에서 순차적으로 수신된 사용자 음성을 분석하여 사용자 음성에 대응하는 텍스트를 확인할 수 있다. 예를 들어, 서버(201)는 자동 음성 인식(automatic speech recognition ASR) 기술을 기반으로, 순차적으로 수신되는 사용자 음성(801, 802, 803)을 분석하고, 순차적으로 수신되는 사용자 음성(801, 802, 803)에 대응하는 텍스트 정보를 확인할 수 있다.According to various embodiments, the server 201 may check the text corresponding to the user voice by analyzing the user voice sequentially received in operation 704. For example, the server 201 analyzes sequentially received user voices 801, 802, and 803 based on automatic speech recognition ASR technology, and sequentially receives user voices 801, 802 , 803).

다양한 실시예들에 따르면, 서버(201)는 705 동작에서 사용자 음성의 강조 정보를 확인할 수 있다. 예를 들면, 서버(201)는 도 8에 도시된 바와 같이 순차적으로 수신되는 사용자 음성(801, 802, 803)으로부터, 사용자 음성의 강조 정보로서 "알람 설정!"을 확인할 수 있다.According to various embodiments, the server 201 may check emphasis information of the user's voice in operation 705. For example, the server 201 may confirm “alarm setting!” as emphasis information of the user voice from the user voices 801, 802, and 803 sequentially received as illustrated in FIG. 8.

다양한 실시예들에 따르면, 서버(201)는 706 동작에서 순차적으로 수신되는 사용자 음성(801, 802, 803)에 대응하여 확인되는 텍스트 중 사용자 음성의 강조 정보(예: "알람 설정!")에 대응하는 일부(예: 알람 설정)를 확인할 수 있다.According to various embodiments, the server 201 is configured to emphasis information (eg, “alarm setting!”) of the user voice among texts identified in response to the user voices 801, 802, and 803 sequentially received in operation 706. You can check the corresponding part (eg alarm setting).

다양한 실시예들에 따르면, 서버(201)는 707 동작에서 확인된 텍스트 중 사용자 음성의 강조 정보에 대응하는 일부를 강조할 수 있다. 예를 들어, 서버(201)는 확인된 텍스트 중 사용자 음성의 강조 정보에 대응하는 일부가 전자장치(101)에서 표시되는 경우, 하이라이트(예: 굵게, 밑줄, 다른 텍스트에 비하여 큰 크기 등)되어 표시되도록 텍스트 중 일부를 강조할 수 있다.According to various embodiments, the server 201 may highlight a part of the text identified in operation 707 corresponding to the emphasis information of the user's voice. For example, when a part of the identified text corresponding to the highlight information of the user's voice is displayed on the electronic device 101, the server 201 is highlighted (eg, bold, underlined, large size compared to other text, etc.) You can highlight some of the text to be displayed.

다양한 실시예들에 따르면, 서버(201)는 708 동작에서 순차적으로 확인된 텍스트(예:"아침", "일곱시")에 관한 정보 및 확인된 제 1 텍스트(예: "알람 설정!")에 관한 정보를 전자장치(101)로 전달하도록 통신 모듈을 제어할 수 있다.According to various embodiments, the server 201 may include information regarding the sequentially confirmed text (eg, “morning”, “seven hours”) in operation 708 and the first confirmed text (eg, “alarm setting!”). The communication module may be controlled to transmit information on the electronic device 101.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 709 동작에서 순차적으로 수신되는 텍스트 정보를 표시(예: 811, 812, 813)하도록 디스플레이를 제어할 수 있다. 전자장치는(101)는 텍스트 중 일부가 강조되도록 표시(813)할 수 있다. According to various embodiments, the electronic device 101 (eg, at least one processor 120) may control the display to display text information sequentially received in operation 709 (eg, 811, 812, 813). have. The electronic device 101 may display 813 such that some of the text is emphasized.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 710 동작에서 사용자 음성 획득을 종료할 수 있다. 예를 들어, 전자장치(101)는 지정된 시간 동안 마이크를 통해 사용자 음성이 수신되지 않는 경우, 사용자 음성 획득을 종료할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may end the user voice acquisition in operation 710. For example, if the user voice is not received through the microphone for a designated time, the electronic device 101 may end the user voice acquisition.

상술한 바와 같이 다양한 실시예들에 따르면 서버(201)에서 수행되는 동작이 전자장치(101)에서 수행될 수 있으므로, 상술한 서버(201)에서 수행되는 동작들은 전자장치(101)에서 수행되도록 구현될 수도 있다. 예를 들어, 전자장치(101)가 텍스트 데이터를 서버(201)로부터 수신하도록 통신 모듈(190)을 제어하고, 전자장치(101)에서 사용자의 강조 정보를 확인하고, 확인된 강조 정보에 대응하는 텍스트 데이터의 일부를 확인하고, 확인된 텍스트 데이터의 일부를 강조하여 표시하도록 디스플레이를 제어할 수도 있다.As described above, according to various embodiments, since the operation performed by the server 201 may be performed by the electronic device 101, the operations performed by the server 201 described above are implemented to be performed by the electronic device 101 It may be. For example, the electronic device 101 controls the communication module 190 to receive text data from the server 201, checks the user's emphasis information in the electronic device 101, and corresponds to the checked emphasis information. The display may be controlled to check a portion of the text data and to highlight and display a portion of the confirmed text data.

이하에서는 도 9 내지 도 12를 참조하여 다양한 실시예들에 따른 403 동작에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, operation 403 according to various embodiments will be described with reference to FIGS. 9 to 12. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

도 9는 다양한 실시예들에 따른, 전자장치(101) 및 서버(201)의 동작의 일 예를 설명하기 위한 흐름도(900)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 9에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 9에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 도 9에 도시되는 전자장치(101)의 동작들 보다 더 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는 도 10 내지 도 12를 참조하여 도 9에 대해서 설명한다. 9 is a flowchart 900 for describing an example of operations of the electronic device 101 and the server 201 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 9, and may be performed in a different order from the order shown. In addition, according to various embodiments, more operations than the operations of the electronic device 101 shown in FIG. 9 are performed, or at least one or more operations less than those of the electronic device 101 shown in FIG. 9. The operation may be performed. Hereinafter, FIG. 9 will be described with reference to FIGS. 10 to 12.

도 10은 다양한 실시예들에 따른, 전자장치(101) 및 서버(201)의 동작의 일 예를 설명하기 위한 도면이다.10 is a view for explaining an example of the operation of the electronic device 101 and the server 201 according to various embodiments.

도 11은 다양한 실시예들에 따른, 서버(201)의 동작의 일 예를 설명하기 위한 도면이다.11 is a view for explaining an example of the operation of the server 201 according to various embodiments.

도 12는 다양한 실시예들에 따른, 전자장치(101)의 답변을 출력하는 동작의 일예를 설명하기 위한 흐름도(1200)이다.12 is a flowchart 1200 illustrating an example of an operation of outputting an answer of the electronic device 101 according to various embodiments.

다양한 실시예들에 따르면, 서버(201)는 전자장치(101)로부터 수신된 사용자 음성을 적어도 하나 이상의 분석 방법을 기반으로 분석한 것에 기반하여 사용자 음성의 의미 정보(1104) 및 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 확인하고, 확인된 사용자 음성의 의미 정보(1104) 및 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 기반으로 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드(1106)를 확인하고, 확인된 커맨드(1106)를 전자장치(101)로 전달하도록 통신모듈을 제어할 수 있다.According to various embodiments, the server 201 may analyze the user's voice received from the electronic device 101 based on at least one analysis method, and the meaning information 1104 of the user's voice and the emphasis information of the user's voice (1103) (e.g., "alarm setting!"), and sequentially performed based on the identified meaning information 1104 of the user voice and the highlighting information 1103 of the user voice (e.g., "alarm setting!") It is possible to check the command 1106 for performing at least one or more operations, and to control the communication module to deliver the confirmed command 1106 to the electronic device 101.

다양한 실시예들에 따르면, 서버(201)는 901 동작에서 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 확인할 수 있다. 이하에서, 도 10을 참조하여 901 동작에 대해서 설명한다.According to various embodiments, the server 201 may check the highlighting information 1103 of the user's voice (eg, “alarm setting!”) in operation 901. Hereinafter, operation 901 will be described with reference to FIG. 10.

다양한 실시예들에 따르면, 서버(201)는 1001 동작에서 도 11에 도시된 바와 같이 언어학적 분석 방법 또는 음성학적 분석 방법을 이용하여 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 확인할 수 있다.According to various embodiments, the server 201 uses the linguistic analysis method or the phonetic analysis method as shown in FIG. 11 in operation 1001 to highlight information 1103 of the user's voice (eg, “alarm setting!”). ).

다양한 실시예들에 따르면 강조 정보는 사용자 음성 중 지정된 음성학적인 조건을 만족하는 적어도 일부, 또는 지정된 언어학적인 조건을 만족하는 적어도 일부 중 적어도 하나를 포함할 수 있다. 지정된 음성학적인 조건은 지정된 볼륨의 크기, 지정된 피치의 높이, 또는 지정된 발암이 길이 중 적어도 하나를 포함할 수 있다. 지정된 언어학적인 조건은 지정된 단어로 확인되는 것, 또는 상기 사용자 음성 내에서 반복되는 단어로 확인되는 것 중 적어도 하나를 포함할 수 있다.According to various embodiments, the emphasis information may include at least one of a user's voice that satisfies a specified phonetic condition, or at least a portion that satisfies a specified linguistic condition. The specified phonetic condition may include at least one of a specified volume size, a specified pitch height, or a specified carcinogenic length. The specified linguistic conditions may include at least one of being identified by a specified word or being repeated as a word repeated within the user's voice.

예를 들어, 서버(201)는 음성학적 분석 방법으로서, 사용자 음성의 볼륨, 사용자 음성의 피치, 또는 사용자 음성의 구간 별 지속 시간 중 적어도 하나를 확인하여, 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 확인할 수 있다. 일 예로, 서버(201)는 사용자 음성을 시구간 별로 분석하여 강조 정보(1103)(예: "알람 설정!")를 확인 수 있다. 서버(201)는 확인된 사용자 음성의 시구간 별 볼륨의 크기를 확인하고, 확인된 시구간 별 볼륨의 크기 중 지정된 크기 이상의 크기를 가지는 시구간을 확인하고, 확인된 시구간과 연관된 정보(예: 해당 시구간의 사용자 음성의 적어도 일부)를 강조 정보(1103)(예: "알람 설정!")로서 확인할 수 있다. 또 서버(201)는 서버(201)는 확인된 사용자 음성의 시구간 별 피치의 높이를 확인하고, 확인된 시구간 별 피치 중 지정된 피치의 높이 이상의 피치의 높이를 가지는 시구간을 확인하고, 확인된 시구간과 연관된 정보를 강조 정보(1103)(예: 해당 시구간의 사용자 음성의 적어도 일부)로서 확인할 수 있다. 또 서버(201)는 확인된 사용자 음성의 시구간 별 주파수별 세기를 확인하고, 확인된 시구간 별 주파수별 세기 중 FO 주파수의 세기가 높거나, 평균 피치의 지속시간(또는, 발음의 길이)이 긴 시구간을 확인하고, 강조 정보(1103)(예: "알람 설정!")로서 확인된 시구간과 연관된 정보를 확인할 수 있다. 여기서 FO 주파수는 사용자 음성에서 음성학적으로 분석되는 기본 주파수를 의미하며, 해당 F0 주파수는 사용자와 관련된 데이터를 기반으로 확인될 수 있다.For example, the server 201 is a phonetic analysis method, and checks at least one of the volume of the user's voice, the pitch of the user's voice, or the duration for each section of the user's voice, thereby highlighting the user's voice 1103 (eg : "Alarm setting!"). For example, the server 201 may analyze the user's voice for each time period and check the highlight information 1103 (eg, “alarm setting!”). The server 201 checks the size of the volume for each time interval of the identified user voice, checks a time interval having a size equal to or larger than a specified size among the sizes of the volume for each checked time interval, and information associated with the confirmed time interval (for example: At least a part of the user's voice in the corresponding time period can be confirmed as the highlight information 1103 (eg, “alarm setting!”). In addition, the server 201 checks the height of the pitch for each time interval of the identified user voice, and checks the time interval having a pitch height equal to or higher than the designated pitch among the checked time interval pitches. The information associated with the time period may be checked as emphasis information 1103 (eg, at least a part of a user's voice in the time period). In addition, the server 201 checks the strength of each user's voice for each time period, and the intensity of the FO frequency is high among the confirmed strength for each time period or the average pitch duration (or the length of pronunciation). This long time period can be checked, and information associated with the checked time period can be checked as the highlight information 1103 (eg, “alarm setting!”). Here, the FO frequency means a fundamental frequency that is phonetically analyzed in the user's voice, and the corresponding F0 frequency can be identified based on data related to the user.

또 예를 들어, 서버(201)는 언어학적 분석 방법으로서, 사용자 음성에 포함된 강조 단어를 확인하여, 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 확인할 수 있다. 일 예로, 서버(201)는 강조 단어로서, 사용자 음성 내에서 반복적으로 사용되는 단어, 또는 지정된 단어예: 꼭, 빨리, 어떻게든 등과 같은 수식어), 최상급 표현 등의 언어학적으로 강조되는 단어를 확인할 수 있다. 또 서버(201)는 사용자에 관한 데이터(예: 사용자가 빈번하게 사용한 단어에 관한 데이터)를 기반으로 빈번도가 높은 단어인 것으로 확인되는 사용자 음성 내의 단어를 확인할 수도 있다.In addition, for example, the server 201, as a linguistic analysis method, may check the emphasis word included in the user's voice, and confirm the emphasis information 1103 of the user's voice (eg, “alarm setting!”). For example, the server 201 identifies words that are used repeatedly in the user's voice, or words that are used in a user's voice, or words that are emphasized linguistically, such as, for example, modifiers such as must, fast, somehow, etc. Can. In addition, the server 201 may check a word in the user's voice that is identified as a high-frequency word based on data about the user (eg, data about words frequently used by the user).

상술한 서버(201)의 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 확인하기 위한 분석 방법은 서버(201)에 구비된 데이터 베이스에 저장될 수 있다.The analysis method for checking the highlight information 1103 of the user voice of the server 201 (for example, “alarm setting!”) may be stored in a database provided in the server 201.

다양한 실시예들에 따르면, 서버(201)는 1002 동작에서 확인된 사용자 음성의 강조 정보(1103)(예: "알람 설정!")와 연관된 값을 확인할 수 있다. 예를 들어, 서버(201)는 확인된 강조 정보(1103)(예: "알람 설정!")에 부여되는 웨이트 값을 확인하고, 확인된 웨이트 값이 지정된 값 이상인지 여부를 확인할 수 있다. 이때, 서버(201)는 사용자 데이터를 더 고려할 수 있다. 예를 들어, 서버(201)는 사용자 데이터를 참조하여, 전자장치(101)의 사용자의 음성 강조 습관(예: 음성의 볼륨의 크기, 음성의 피치의 높이, 음성의 주파수별 세기, 또는 빈번하게 사용하는 단어)과 관련된 사용자 데이터를 확인하고, 확인된 사용자 정보를 기반으로 확인된 강조 정보(1103)(예: "알람 설정!")에 대해서 웨이트 값을 부여할 수 있다. 예를 들어, 서버(201)는 확인된 사용자 정보를 기반으로, 상대적으로 강조의 정도가 높은 것으로 확인(예: 사용자 음성에서 확인된 강조 단어의 빈번도가 사용자 데이터에 따라 확인된 다른 강조 단어의 빈번도에 비해서 상대적으로 높은 것으로 확인됨)되는 강조 정보(1103)(예: "알람 설정!")에는 상대적으로 높은 웨이트 값을 부여할 수 있다.According to various embodiments, the server 201 may check a value associated with emphasis information 1103 (eg, “alarm setting!”) of the user voice identified in operation 1002. For example, the server 201 may check the weight value assigned to the checked highlight information 1103 (eg, “alarm setting!”), and check whether the checked weight value is greater than or equal to a specified value. At this time, the server 201 may further consider user data. For example, the server 201 refers to the user data, and the voice emphasis habit of the user of the electronic device 101 (eg, the size of the volume of the voice, the height of the pitch of the voice, the intensity of each frequency of the voice, or frequently The user data related to the word to be used may be checked, and a weight value may be assigned to the highlighted information 1103 (eg, “alarm setting!”) identified based on the verified user information. For example, the server 201 confirms that the degree of emphasis is relatively high based on the verified user information (eg, the frequency of the emphasis word identified in the user's voice is determined according to the user data. A relatively high weight value can be assigned to the highlight information 1103 (eg, “alarm setting!”) that is relatively high compared to the frequency.

다양한 실시예들에 따르면, 서버(201)는 1003 동작에서 확인된 사용자 음성의 강조 정보(1103)(예: "알람 설정!")와 연관된 값(예: 웨이트 값)이 지정된 값 이상인지 여부를 확인할 수 있다. 서버(201)는 사용자 음성의 강조 정보(1103)와 연관된 값이 지정된 값 이상인 것으로 확인되는 경우, 계속하여 902 동작을 수행할 수 있다. 이에 따라, 지정된 값을 기반으로 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드(1106)를 확인하는 데에 불필요한 강조 정보(1103)(예: "알람 설정!")가 필터링될 수 있다.According to various embodiments, the server 201 determines whether a value (eg, a weight value) associated with the highlighting information 1103 (eg, “alarm setting!”) of the user voice identified in operation 1003 is greater than or equal to a specified value. Can be confirmed. If it is determined that the value associated with the emphasis information 1103 of the user's voice is greater than or equal to the specified value, the server 201 may continue to perform operation 902. Accordingly, unnecessary highlighting information 1103 (eg, “alarm setting!”) may be filtered to check the command 1106 for performing at least one operation sequentially performed based on a specified value.

다양한 실시예들에 따르면, 서버(201)는 1004 동작에서 확인된 사용자 음성의 의미 정보(1104)를 확인하고, 1005 동작에서 확인된 사용자 음성의 의미 정보(1104)만을 기반으로 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드(1106)를 확인할 수 있다.According to various embodiments, the server 201 checks the semantic information 1104 of the user's voice identified in operation 1004 and at least sequentially performed based on only the semantic information 1104 of the user's voice identified in operation 1005 Commands 1106 for performing one or more operations may be identified.

다양한 실시예들에 따르면, 서버(201)는 902 동작에서 사용자 음성(1101)의 의미 정보(1104)를 확인할 수 있다. 서버(201)는, 도 11에 도시된 바와 같이, 수신된 사용자 음성(1102)(예: 아침 일곱시 알람 설정)에 대응하여, 자연어 이해 방식을 이용하여 사용자 음성의 의미 정보(1104)를 확인할 수 있다. 구체적으로, 서버(201)는 문법적 분석(syntactic analysis) 또는 의미적 분석(semantic analysis)을 기반으로, 사용자 음성(1102)에 대응하는 사용자 음성의 의미 정보(1104)를 확인할 수 있다. 예를 들어, 서버(201)는 자동 음성 인식을 기반으로 확인된 사용자 음성에 대응하는 텍스트를 지정된 단위(예: 단어, 구, 형태소 등)의 텍스트로 분할하고, 지정된 단위로 분할된 텍스트를 문법적으로 분석할 수 있다. 또 예를 들어, 서버(201)는 의미 매칭, 룰 매칭, 또는 포뮬러 매칭 등을 이용하여 사용자 음성에 대응하는 사용자 음성의 의미 정보(1104)를 의미적으로 분석할 수 있다. 이에 따라 서버(201)는, 도 11에 도시된 바와 같이 적어도 하나 이상의 데이터(1111, 1112, 1113)(예: "2018/xx/xx", "오전 7시", "알람 설정")를 포함하는 사용자 음성의 의미 정보(1104)를 확인할 수 있다. 상기 적어도 하나 이상의 데이터(1111, 1112, 1113)의 각각은 파라미터(1121, 1122, 1123, 1124)를 포함할 수 있다. 예를 들어, 도 11에 도시된 바와 같이 "알람 설정"이라는 사용자 음성에 포함된 일부 데이터는, "알람 설정"과 연관된 "벨소리 종류", "알람 설정 횟수", 및 "알람 지속 시간", "알람 제목" 등과 같은 적어도 하나 이상의 파라미터(1121, 1122, 1123, 1124)를 포함할 수 있다.According to various embodiments, the server 201 may check the semantic information 1104 of the user voice 1101 in operation 902. As shown in FIG. 11, the server 201 checks the semantic information 1104 of the user's voice by using a natural language understanding method in response to the received user's voice 1102 (for example, an alarm setting at 7:00 in the morning) Can. Specifically, the server 201 may check the semantic information 1104 of the user's voice corresponding to the user's voice 1102 based on syntactic analysis or semantic analysis. For example, the server 201 divides text corresponding to the identified user's voice based on automatic speech recognition into text in a designated unit (eg, word, phrase, morpheme, etc.), and grammatically divides the text divided into the specified unit. Can be analyzed. In addition, for example, the server 201 may semantically analyze the semantic information 1104 of the user's voice corresponding to the user's voice using semantic matching, rule matching, or formula matching. Accordingly, the server 201 includes at least one or more data 1111, 1112, and 1113 (eg, "2018/xx/xx", "7 AM", "Alarm Setting") as shown in FIG. The meaning information 1104 of the user's voice can be checked. Each of the at least one or more data 1111, 1112, 1113 may include parameters 1121, 1122, 1123, 1124. For example, as shown in FIG. 11, some data included in the user voice of “alarm setting” include “bell type”, “alarm setting number”, and “alarm duration”, “associated with “alarm setting”, “ Alarm title", and the like, at least one or more parameters 1121, 1122, 1123, 1124.

다양한 실시예들에 따르면, 서버(201)는 903 동작에서 확인된 사용자 음성의 강조 정보(1103)(예: "알람 설정!")에 대응하는 사용자 음성의 의미 정보(1104)의 적어도 일부를 확인할 수 있다. 예를 들어, 서버(201)는 도 11에 도시된 바와 같이, 사용자 음성의 의미 정보(1104)에 포함된 적어도 하나 이상의 데이터(1111, 1112, 1113) 중에서 사용자 음성의 강조 정보(1103)(예: "알람 설정!")(예: 알람설정!)에 대응하는 적어도 하나의 데이터(예: "알람 설정")를 확인할 수 있다. 서버(201)는, 확인된 사용자 음성의 강조 정보(1103)(예: "알람 설정!")의 시점 정보를 확인하고, 확인된 시점 정보를 기반으로 강조 정보(1103)(예: "알람 설정!")에 대응하는 사용자 음성의 의미 정보(1104) 중 적어도 일부를 확인할 수 있다. 상기 시점 정보는 상기 사용자 음성의 강조 정보(1103)에 대응하는 사용자 발화 중 시점을 나타내는 정보일 수 있다. 예를 들어, 서버(201)는 확인된 강조 정보(1103)(예: "알람 설정!")에 대응하는 시점 정보를 기반으로 사용자의 발화 중 강조 정보(1103)에 대응하는 사용자 음성 중 적어도 일부(예: "알람 설정!")가 출력된 시점을 확인하고, 확인된 시점에 대응하는 사용자 음성의 의미 정보(1104) 중 적어도 일부(예: "알람 설정")를 확인할 수 있다. 또 서버(201)는 확인된 사용자 음성의 종류 정보를 확인하고, 확인된 종류 정보를 기반으로 강조 정보(1103)(예: "알람 설정!")에 대응하는 사용자 음성의 의미 정보(1104) 중 적어도 일부를 확인할 수 있다. 상기 종류 정보는 상기 지정된 음성학적인 조건을 만족하는 제 1 강조 정보(또는 음성학적인 분석 방법을 기반으로 확인된 제1 강조 정보) 또는 상기 지정된 언어학적인 조건을 만족하는 제 2 강조 정보(또는 언어학적인 분석 방법을 기반으로 확인된 제2 강조 정보)를 포함할 수 있다. 예를 들어, 서버(201)는 확인된 강조 정보(1103)(예: "알람 설정!")의 종류에 따라 강조 정보(예: 강조 단어(예: 수식어))에 의해 수식되는 사용자 음성의 일부를 확인하고, 사용자 음성의 일부에 대응하는 사용자 음성의 의미 정보 중 적어도 일부를 확인할 수 있다.According to various embodiments, the server 201 checks at least a part of the semantic information 1104 of the user voice corresponding to the emphasis information 1103 of the user voice identified in operation 903 (eg, “alarm setting!”). Can be. For example, as illustrated in FIG. 11, the server 201 highlights the user's voice 1103 among at least one or more data 1111, 1112, and 1113 included in the meaning information 1104 of the user's voice (eg : It is possible to check at least one data (eg, “alarm setting”) corresponding to “alarm setting!”) (eg, alarm setting!). The server 201 checks the viewpoint information of the highlighted user's voice emphasis information 1103 (for example, “alarm setting!”), and highlights information 1103 (eg, “alarm setting” based on the confirmed viewpoint information). !"), at least a part of the meaning information 1104 of the user's voice. The viewpoint information may be information indicating a viewpoint during a user's speech corresponding to the emphasis information 1103 of the user's voice. For example, the server 201 at least part of the user voice corresponding to the highlight information 1103 during the user's speech based on the viewpoint information corresponding to the identified highlight information 1103 (eg, “alarm setting!”). (Eg, “alarm setting!”) may be checked, and at least a part (eg, “alarm setting”) of semantic information 1104 of the user voice corresponding to the checked time may be checked. In addition, the server 201 checks the type information of the confirmed user voice, and the semantic information 1104 of the user voice corresponding to the highlight information 1103 (eg, “alarm setting!”) based on the confirmed type information. At least some can be identified. The type information may include first emphasis information (or first emphasis information identified based on a phonetic analysis method) that satisfies the specified phonetic condition or second emphasis information (or linguistic analysis) that satisfies the specified linguistic condition. The second emphasis information identified based on the method may be included. For example, the server 201 is a part of the user's voice that is modified by the emphasis information (eg, emphasis word (eg, modifier)) according to the type of the highlighted emphasis information 1103 (eg, “alarm setting!”). And confirm at least some of the meaning information of the user's voice corresponding to the portion of the user's voice.

다양한 실시예들에 따르면, 서버(201)는 904 동작에서 사용자 음성의 강조 정보(1103)(예: "알람 설정!")의 활용 가능 여부를 확인할 수 있다. 또, 서버(201)는 확인된 사용자 음성의 강조 정보(1103)(예: "알람 설정!")에 대응하는 사용자 음성의 의미 정보(1104)에 포함된 적어도 하나의 데이터에 포함된 파라미터(1121, 1122, 1123, 1124)가 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 기반으로 설정 가능한지 여부를 확인할 수 있다.According to various embodiments, the server 201 may check whether the user voice emphasis information 1103 (eg, “alarm setting!”) is available in operation 904. In addition, the server 201 includes the parameters 1121 included in at least one data included in the semantic information 1104 of the user voice corresponding to the confirmed emphasis information 1103 of the user voice (eg, “alarm setting!”). , 1122, 1123, 1124 may be set based on highlighting information 1103 of the user's voice (eg, “alarm setting!”).

다양한 실시예들에 따르면, 서버(201)는 사용자 음성의 강조 정보(1103)(예: "알람 설정!")가 활용 가능한 것으로 확인된 경우, 905 동작에서 확인된 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 기반으로 사용자 음성의 의미 정보(1104)의 적어도 일부에 포함된 파라미터(1121, 1122, 1123, 1124)를 확인할 수 있다. 예를 들어, 서버(201)는 사용자 음성의 의미 정보(1104)의 적어도 일부에 포함된 적어도 하나 이상의 파라미터(1121, 1122, 1123, 1124) 중에서 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 기반으로 값을 설정할 적어도 하나 이상의 제 1 파라미터(1122, 1123)를 확인할 수 있다. 예를 들어, 서버(201)는 사용자 음성의 강조 정보(1103)(예: "알람 설정!")에 대응하는 것으로 확인된 사용자 음성의 의미 정보(1104)와 관련된 적절한 기능 강화 방식을 사용자 데이터를 기반으로 확인하고, 확인된 기능 강화 방식을 기반으로 확인된 사용자 음성의 강조 정보(1103)(예: "알람 설정!")에 포함된 적어도 하나 이상의 파라미터(1121, 1122, 1123, 1124) 중에서 적어도 하나 이상의 제 1 파라미터(1122, 1123)를 확인할 수 있다. 서버(201)는, 확인된 적어도 하나 이상의 제 1 파라미터(1122, 1123)의 값을 지정된 값으로 설정할 수 있다. 상기 지정된 값은 강조 정보(1103)(예: "알람 설정!")를 기반으로 파라미터(1122, 1123)의 값이 설정되는 것으로 미리 결정된 값일 수 있고, 이에 국한되지 않고 강조 정보(1103)(예: "알람 설정!")와 연관된 값(예: 웨이트 값)을 기반으로 결정되는 값일 수 있다.According to various embodiments of the present disclosure, when it is determined that the highlighting information 1103 of the user's voice (eg, “alarm setting!”) is available, the highlighting information 1103 of the user's voice confirmed in operation 905. Based on (eg, “alarm setting!”), parameters 1121, 1122, 1123, and 1124 included in at least a portion of the meaning information 1104 of the user voice may be checked. For example, the server 201 among the at least one or more parameters 1121, 1122, 1123, and 1124 included in at least a part of the semantic information 1104 of the user's voice, the highlighting information 1103 of the user's voice (for example, "alarm" Setting!"), at least one or more first parameters 1122 and 1123 to be set. For example, the server 201 provides the user data with an appropriate function enhancement method related to the semantic information 1104 of the user's voice, which is confirmed to correspond to the emphasis information 1103 of the user's voice (eg, “alarm setting!”). At least one of the at least one parameter (1121, 1122, 1123, 1124) included in the highlighting information 1103 (eg, “alarm setting!”) of the user voice confirmed based on the confirmed function enhancement method. One or more first parameters 1122 and 1123 may be identified. The server 201 may set the values of the identified at least one first parameter 1122 or 1123 to a specified value. The specified value may be a predetermined value that the values of the parameters 1122 and 1123 are set based on the emphasis information 1103 (eg, “alarm setting!”), and the emphasis information 1103 is not limited thereto (eg : “Alarm setting!”) may be a value determined based on a value (eg, a weight value).

다양한 실시예들에 따르면, 서버(201)는 906 동작에서 설정된 파라미터(1122, 1123)를 포함하는 적어도 일부(1113)와 다른 일부를 포함하는 사용자 음성의 의미 정보(1104)를 기반으로 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드(1106)를 확인할 수 있다. 예를 들어, 서버(201)는 도 11에 도시된 바와 같이, 사용자 음성의 의미 정보(1104)에 대응하여 알람 어플리케이션을 실행하는 동작(제 1 동작) 및 실행된 알람 어플리케이션이 오전 7시 전후로 복수회의 알람을 지정된 알람 크기로 제공하도록 설정하는 동작(제 2 동작)을 수행하기 위한 커맨드(1106)를 확인할 수 있다. 이때, 커맨드(1106) 중 적어도 일부에 대응하는 파라미터(1122, 1123)(예: 복수회의 알람, 지정된 알람 크기) 상술한 바와 같이 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 기반으로 확인된 것이다.According to various embodiments, the server 201 sequentially performs at least a portion 1113 including parameters 1122 and 1123 set in operation 906 and a semantic information 1104 of a user voice including another portion. The command 1106 for performing at least one or more operations. For example, as shown in FIG. 11, the server 201 executes an alarm application in response to semantic information 1104 of a user's voice (first operation) and a plurality of executed alarm applications before or after 7 am A command 1106 for performing an operation (second operation) of setting a conference alarm to be provided in a specified alarm size may be confirmed. At this time, the parameters 1122 and 1123 corresponding to at least a part of the command 1106 (eg, multiple alarms, a specified alarm size), as described above, highlighting information 1103 of the user's voice (eg, “alarm setting!”) It was confirmed based on.

다양한 실시예들에 따르면 커맨드(1106)는 패스 룰 셋일 수 있다. 패스룰 셋은 실행될 앱, 상기 앱에서 실행될 동작 및 상기 동작을 실행하는데 필요한 파라미터에 대한 정보를 포함할 수 있다. 서버(201)는, 전자장치(101)의 정보를 이용하여 전자장치(101)에서 실행될 앱 및 상기 앱에서 실행될 동작을 온톨로지(ontology) 또는 그래프 모델(graph model) 형태로 배열하여 적어도 하나 이상의 패스 룰을 확인할 수 있다. 서버(201)는, 생성된 적어도 하나 이상의 패스 룰 중 최적의 패스 룰 셋을 선택할 수 있다.According to various embodiments, the command 1106 may be a pass rule set. The pass rule set may include information about an app to be executed, an action to be executed in the app, and parameters required to execute the action. The server 201 uses the information of the electronic device 101 to arrange an app to be executed in the electronic device 101 and an operation to be executed in the app in an ontology or graph model form, and at least one pass. You can check the rules. The server 201 may select an optimal pass rule set from the generated at least one pass rule.

다양한 실시예들에 따르면, 서버(201)는 사용자 음성의 강조 정보(1103)(예: "알람 설정!")가 활용 불가능한 것으로 확인된 경우, 907 동작에서 확인된 사용자 음성 정보를 기반으로 커맨드(1106)를 확인할 수 있다. 다시 말해, 서버(201)는 강조 정보(1103)(예: "알람 설정!")가 반영되지 않은 일반적인 태스크를 수행하기 위한 커맨드(1106)를 확인할 수 있다.According to various embodiments, when the server 201 determines that the user's voice emphasis information 1103 (eg, “alarm setting!”) is not usable, the command 20 based on the user voice information identified in operation 907 ( 1106). In other words, the server 201 may check the command 1106 for performing a general task in which the highlight information 1103 (eg, “alarm setting!”) is not reflected.

다양한 실시예들에 따르면, 서버(201)는 908 동작에서 확인된 커맨드(1106)를 전자장치(101)로 전달하도록 통신 모듈을 제어할 수 있다.According to various embodiments, the server 201 may control the communication module to transmit the command 1106 identified in operation 908 to the electronic device 101.

다양한 실시예들에 따르면, 전자장치(101)는 909 동작에서 수신된 커맨드(1106)를 기반으로 적어도 하나 이상의 동작을 수행할 수 있다. 예를 들어, 전자장치(101)는 도 10에 도시된 바와 같이 커맨드(1106)를 기반으로, 어플리케이션을 실행(예: 알람 어플리케이션을 실행)하고, 실행된 어플리케이션이 지정된 동작을 수행하도록 제어(예: 오전 7시 전후로 복수회의 알람을 지정된 알람 크기로 제공하도록 설정)할 수 있다.According to various embodiments, the electronic device 101 may perform at least one operation based on the command 1106 received in operation 909. For example, the electronic device 101 executes an application (eg, executes an alarm application) based on the command 1106 as illustrated in FIG. 10, and controls the executed application to perform a specified operation (eg : You can set multiple alarms to be provided at a specified alarm size before or after 7 am).

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 910 동작에서 수행된 적어도 하나 이상의 동작과 관련된 정보를 출력(예: 텍스트를 표시하도록 디스플레이를 제어 또는 오디오를 출력하도록 오디오 출력 장치를 제어)할 수 있다. 이하에서는, 도 12를 참조하여 전자장치(101)의 910 동작에 대해서 설명한다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) outputs information related to at least one operation performed in operation 910 (eg, controls a display or displays audio to display text) You can control the audio output device to output. Hereinafter, operation 910 of the electronic device 101 will be described with reference to FIG. 12.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1201 동작에서 적어도 하나 이상의 동작을 수행한 이후, 결과 정보를 서버(201)로 전달하도록 통신 모듈을 제어할 수 있다. According to various embodiments, the electronic device 101 (eg, at least one processor 120) controls the communication module to transmit result information to the server 201 after performing at least one or more operations in operation 1201 can do.

다양한 실시예들에 따르면, 서버(201)는, 1202 동작에서 수신된 결과 정보를 기반으로, 적어도 하나 이상의 동작과 관련된 텍스트 정보를 확인할 수 있다. According to various embodiments, the server 201 may check text information related to at least one operation based on result information received in operation 1202.

다양한 실시예들에 따르면, 서버(201)는 1203 동작에서 확인된 사용자 음성의 강조 정보(1103)(예: "알람 설정!")에 대응하는 확인된 텍스트 정보 중 적어도 일부를 확인하고, 확인된 텍스트 정보 중 적어도 일부의 서식을 강조(예: 하이라이트, 밑줄, 굵게 등)할 수 있다. According to various embodiments, the server 201 checks at least some of the confirmed text information corresponding to the highlighting information 1103 (eg, “alarm setting!”) of the user's voice identified in operation 1203, and confirms You can highlight the formatting of at least some of the text information (eg highlight, underline, bold, etc.).

다양한 실시예들에 따르면, 서버(201)는 1204 동작에서 서식이 강조된 적어도 일부를 포함하는 텍스트 정보를 전자장치(101)로 전달하도록 통신 모듈을 제어할 수 있다. According to various embodiments, the server 201 may control the communication module to transmit text information including at least a portion of which a form is emphasized in operation 1204 to the electronic device 101.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1205 동작에서 수신된 텍스트 정보를 기반으로, 도 11에 도시된 바와 같이 수신된 텍스트 정보에 대응하는 텍스트(1107)(예: "아침 일곱시 전후로 두번!! 알람 설정 했어요")를 표시하도록 디스플레이를 제어할 수 있다. 표시되는 텍스트의 적어도 일부(1108)(예: "일곱시 전후로 두번!!")가 강조될 수 있다.According to various embodiments, the electronic device 101 (eg, the at least one processor 120) is based on text information received in operation 1205, and text corresponding to the received text information as shown in FIG. 11. You can control the display to display (1107) (eg "Twice around 7 o'clock in the morning!! I have set an alarm"). At least a portion 1108 of the displayed text (eg, "twice around seven hours!!") may be highlighted.

이상에서는, 텍스트를 표시하는 동작은 오디오 출력 동작에 준용될 수 잇다. 상술한 동작에서 텍스트 정보 대신에 오디오 정보가 확인되고, 전자장치(101)는 확인된 오디오 정보를 출력하도록 오디오 출력 장치를 제어할 수 있다.In the above, the operation of displaying text can be applied to the audio output operation. In the above-described operation, audio information is checked instead of text information, and the electronic device 101 can control the audio output device to output the checked audio information.

한편, 다양한 실시예들에 따르면 서버(201)는 별도의 언어학적 분석 방법 또는 음성학적 분석 방법의 수행 없이, 사용자 음성의 의미 정보(1104)를 확인하는 동작의 적어도 일부로 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 확인할 수 있다. 예를 들어, 서버(201)는 사용자 음성에 강조 단어가 포함된 경우, 별도의 분석 방법의 수행 없이, 사용자 음성의 의미 정보(1104)를 확인하는 동작의 적어도 일부로 사용자 음성의 강조 정보(1103)(예: "알람 설정!")를 확인할 수 있다. 구체적으로, 서버(201)는 사용자 음성(예: "아침 일곱시 꼭 알람 설정")에 대응하여 사용자 음성의 의미 정보(1104)(예: "2018/xx/xx", "오전 7시", "알람 설정", "꼭")를 확인하고, 미리 저장된 강조 단어에 관한 정보를 기반으로 확인된 사용자 음성의 의미 정보(1104) 중에서 강조 단어에 대응하는 적어도 하나의 데이터(예: "꼭")를 확인할 수 있다. 서버(201)는, 확인된 적어도 하나의 데이터(예: "꼭")에 대응하는 사용자 음성의 의미 정보(1104) 중 적어도 일부(예: "알람 설정")을 확인하고, 상술한 바와 같이 적어도 하나 이상의 동작을 수행하기 위한 커맨드(1106)를 확인할 수 있다. 이외에 중복되는 설명은 생략한다.Meanwhile, according to various embodiments of the present disclosure, the server 201 emphasis information 1103 of the user's voice as at least part of an operation of checking the meaning information 1104 of the user's voice without performing a separate linguistic analysis method or a phonetic analysis method ) (Eg "Alarm Settings!"). For example, when the user's voice contains the emphasis word, the server 201 emphasis information 1103 of the user's voice as at least part of the operation of checking the semantic information 1104 of the user's voice without performing a separate analysis method (Eg "Alarm settings!"). Specifically, the server 201 corresponds to the user's voice (eg, “must set alarm at 7 am”), meaning information 1104 of the user's voice (eg, “2018/xx/xx”, “7 am”), At least one piece of data corresponding to the highlighted word (eg, “must”) among the semantic information 1104 of the user's voice that is checked based on the information about the highlighted word stored in advance by checking “alarm setting” and “must”. You can check The server 201 checks at least a part (eg, “alarm setting”) of the semantic information 1104 of the user voice corresponding to the checked at least one data (eg, “must”), and as described above, at least Commands 1106 for performing one or more operations may be identified. Other redundant descriptions will be omitted.

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 또 다른 예에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, another example of the electronic device 101 and its control method according to various embodiments will be described. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 사용자 음성의 강조 정보를 기반으로 지정된 횟수로 일정 알람이 제공되도록 일정 알람 어플리케이션을 제어할 수 있다. 이하에서는 해당 전자장치(101)의 동작에 대해서, 도 13 및 도 14를 참조하여 설명한다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may control a schedule alarm application so that a schedule alarm is provided a specified number of times based on emphasis information of a user's voice. Hereinafter, the operation of the electronic device 101 will be described with reference to FIGS. 13 and 14.

도 13은 다양한 실시예들에 따른 전자장치(101)의 일정 알람 어플리케이션을 제어하는 동작의 일 예를 설명하기 위한 흐름도(1300)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 13에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 13에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 도 13에 도시되는 전자장치(101)의 동작들 보다 더 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는, 도 14를 참조하여 도 13을 설명한다.13 is a flowchart 1300 illustrating an example of an operation of controlling a certain alarm application of the electronic device 101 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 13, and may be performed in a different order from the order shown. In addition, according to various embodiments, more operations than the operations of the electronic device 101 shown in FIG. 13 are performed, or at least one or more operations less than those of the electronic device 101 shown in FIG. 13. The operation may be performed. Hereinafter, FIG. 13 will be described with reference to FIG. 14.

도 14는 다양한 실시예들에 따른 전자장치(101)의 일정 알람 어플리케이션을 제어하는 동작의 일 예를 설명하기 위한 도면이다.14 is a diagram illustrating an example of an operation of controlling a certain alarm application of the electronic device 101 according to various embodiments.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1301 동작에서 사용자 음성을 획득하도록 마이크를 제어하고, 1302 동작에서 제 1 사용자 음성을 서버(201)로 전달한 것에 응답하여, 서버(201)로부터 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 수신할 수 있다. 예를 들어, 전자장치(101)는 도 14 (b)에 도시된 바와 같이 "오후 5시까지 우체국에 소포 찾으러 가라고 꼭 리마인드 해줘."라는 사용자 음성(1402)을 획득할 수 있다. 전자장치(101)는 사용자 음성(1402)을 서버(201)로 전달하고, 서버(201)로부터 상기 사용자 음성(1402)에 포함된 강조 정보(예: 꼭!)에 대응하는 제 1 동작(예: 알람을 복수회 설정)을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 수신할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) controls the microphone to acquire a user voice in operation 1301, and transfers the first user voice to the server 201 in operation 1302. In response to the transmission, the server 201 may receive a command for performing at least one operation. For example, as shown in FIG. 14(b), the electronic device 101 may obtain a user voice 1402 that says, “Please remind the post office to go find the parcel by 5 pm.” The electronic device 101 transmits the user voice 1402 to the server 201, and the first operation corresponding to the emphasis information (for example, necessarily!) included in the user voice 1402 from the server 201 (eg : Set an alarm multiple times).

다양한 실시예들에 따르면, 서버(201)는 사용자 음성을 기반으로 사용자 음성의 강조 정보로서 강조 단어(예: 꼭!)를 확인하고, 사용자 음성의 의미 정보(예: "2018/XX/XX", "오후 5시", "일정 알람 설정")를 확인하고, 사용자 음성의 강조 정보에 대응하는 사용자 음성의 의미 정보 중 적어도 일부(예: "일정 알람 설정")를 확인할 수 있다. 서버(201)는 확인된 사용자 음성의 의미 정보 중 적어도 일부에 포함된 일정 알람 기간과 일정 알람 횟수와 관련된 파라미터를, 해당 파라미터와 대응하는 제 1 동작을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드에 의해 전자장치(101)에서 지정된 기간 동안 지정된 횟수 만큼 일정 알람이 수행되도록, 설정할 수 있다. 이에 따라, 서버(201)는 상기 파라미터가 설정된 적어도 일부를 포함하는 사용자 음성의 의미 정보를 기반으로, 적어도 하나 이상의 동작(예: "일정 알람 어플리케이션을 실행" "지정된 시간 구간 동안 지정된 횟수로 일정 알람을 수행")을 수행하기 위한 커맨드를 확인하고, 확인된 커맨드를 전자장치(101)로 전달하도록 통신 모듈을 제어할 수 있다.According to various embodiments, the server 201 identifies a highlighted word (eg, necessarily!) as emphasis information of the user's voice based on the user's voice, and semantic information of the user's voice (eg, "2018/XX/XX") , "5 PM", "Schedule Alarm Settings"), and at least some of the meaning information of the user voice corresponding to the emphasis information of the user voice (eg, "Schedule Alarm Settings"). The server 201 is a command for performing at least one operation including a parameter related to a predetermined alarm period and a predetermined number of alarms included in at least some of the semantic information of the identified user voice, and a first operation corresponding to the parameter. By doing so, the electronic device 101 can be set to perform a predetermined alarm for a specified number of times during a specified period. Accordingly, the server 201, based on the semantic information of the user voice including at least a portion of which the parameter is set, at least one or more operations (for example, "execute a certain alarm application" "scheduled alarm at a specified number of times during a specified time period" It is possible to check the command for performing "), and to control the communication module to deliver the confirmed command to the electronic device 101.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1303 동작에서 수신된 커맨드를 기반으로, 일정 알람 어플리케이션을 실행하고, 일정 알람 어플리케이션에 의해 지정된 시간 구간 동안 상기 사용자 음성에 포함된 제 1 정보에 대응하는 지정된 횟수로 일정 알람이 제공되도록 제어하는 동작을 수행할 수 있다. 상기 커맨드는 도 14 (a)에 도시된 바와 같이 사용자 음성(1401)에 강조 정보가 포함되지 않는 경우에 설정되는 일정 알람 설정 횟수와 비교하여, 지정된 기간 동안 더 많은 일정 알람이 제공되도록 일정 알람 어플리케이션의 일정 알람 횟수가 설정되도록 할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) executes a schedule alarm application based on a command received in operation 1303, and during a time period designated by the schedule alarm application The control may be performed such that a predetermined alarm is provided at a specified number of times corresponding to the first information included in the user voice. The command is a schedule alarm application so that more schedule alarms are provided for a specified period, compared to a set number of schedule alarms set when the user voice 1401 does not include emphasis information as shown in FIG. 14(a). It is possible to set a certain number of alarms.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 도 14 (b)에 도시된 바와 같이 동작의 수행 결과를 텍스트로 표시(1403)할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may display the result of the operation as text 1403 as illustrated in FIG. 14B.

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 또 다른 예에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, another example of the electronic device 101 and its control method according to various embodiments will be described. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 사용자 음성의 강조 정보를 기반으로 전자장치(101)의 상태 값(예: 오디오 볼륨)을 설정하는 동작을 수행하고, 지정된 기간 동안 수신되는 다른 사용자 음성을 기반으로 설정된 상태 값(예: 오디오 볼륨)을 조정할 수 있다. According to various embodiments, the electronic device 101 (eg, at least one processor 120) sets an operation state value (eg, audio volume) of the electronic device 101 based on emphasis information of the user's voice It is possible to adjust the set status value (for example, audio volume) based on other user voices received for a specified period.

다양한 실시예들에 따르면, 전자장치의 상태 값은 전자장치의 오디오 볼륨 값, 전자장치의 디스플레이의 밝기 값, 전자장치의 진동 설정 값 등을 포함하고, 아울러 상기 기재에 국한되지 않고 전자장치에서 설정될 수 있는 다양한 설정 값들을 모두 포함할 수 있다.According to various embodiments, the state value of the electronic device includes an audio volume value of the electronic device, a brightness value of the display of the electronic device, a vibration setting value of the electronic device, and the like, and is not limited to the above description. It can include all of the various possible settings.

이하에서는, 도 15 및 도 16을 참조하여 해당 전자장치(101)의 동작에 대해서 설명한다. 한편, 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, the operation of the electronic device 101 will be described with reference to FIGS. 15 and 16. Meanwhile, overlapping descriptions related to the operation of the electronic device 101 are omitted.

도 15는 다양한 실시예들에 따른 전자장치(101)의 상태 값을 설정하는 동작의 일 예를 설명하기 위한 흐름도(1500)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 15에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 15에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는, 도 16을 참조하여 도 15에 대해서 설명한다. 15 is a flowchart 1500 for describing an example of an operation of setting a state value of the electronic device 101 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 15, and may be performed in a different order from the order shown. In addition, according to various embodiments, more operations than the operations of the electronic device 101 illustrated in FIG. 15 may be performed, or at least one or more operations may be performed. Hereinafter, FIG. 15 will be described with reference to FIG. 16.

도 16 a는 다양한 실시예들에 따른 전자장치(101)의 상태 값을 설정하는 동작의 일 예를 설명하기 위한 도면이다. 도 16 b는 다양한 실시예들에 따른 전자장치(101)의 상태 값을 설정하는 동작의 일 예를 설명하기 위한 도면이다.16A is a diagram illustrating an example of an operation of setting a state value of the electronic device 101 according to various embodiments. 16B is a diagram illustrating an example of an operation of setting a state value of the electronic device 101 according to various embodiments.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1501 동작에서 제 1 사용자 음성(1601)을 획득하도록 마이크를 제어하고, 1502 동작에서 제 1 사용자 음성(1601)을 서버(201)로 전달한 것에 응답하여, 서버(201)로부터 적어도 하나 이상의 동작을 수행하기 위한 제 1 커맨드를 수신할 수 있다. 예를 들어, 전자장치(101)는 도 16 b에 도시된 바와 같이 "볼륨 크게!"라는 제 1 사용자 음성(1601)을 획득할 수 있다. 전자장치(101)는 제 1 사용자 음성(1601)을 서버(201)로 전달하고, 서버(201)로부터 상기 제 1 사용자 음성(1601)에 포함된 강조 정보(예: 크게!)에 대응하는 제 1 동작(예: "전자장치(101)의 오디오 출력 값을 5 단계 증가시킴")을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 수신할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) controls the microphone to acquire the first user voice 1601 in operation 1501, and the first user voice in operation 1502 ( 1601), the first command for performing at least one operation may be received from the server 201. For example, as illustrated in FIG. 16B, the electronic device 101 may acquire the first user voice 1601 saying “Volume louder!”. The electronic device 101 transmits the first user voice 1601 to the server 201, and from the server 201, the electronic device 101 corresponds to emphasis information (for example, loud!) included in the first user voice 1601. A command for performing at least one operation including one operation (eg, “increase the audio output value of the electronic device 101 by five steps”) may be received.

다양한 실시예들에 따르면, 서버(201)는 사용자 음성을 기반으로 사용자 음성의 강조 정보(예: 크게!)를 확인하고, 사용자 음성의 의미 정보(예: "오디오 볼륨 크게 설정")를 확인하고, 사용자 음성의 강조 정보에 대응하는 사용자 음성의 의미 정보 중 적어도 일부(예: "오디오 출력 값 크게 설정")를 확인할 수 있다. 서버(201)는 확인된 사용자 음성의 의미 정보 중 적어도 일부에 포함된 상태 값의 크기와 관련된 파라미터를, 해당 파라미터와 대응하는 제 1 동작을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드에 의해 전자장치(101)의 상태값(예: 오디오 출력 값)이 제 1 상태값(예: Volume 5 up)으로 설정되도록, 지정된 값으로 설정할 수 있다. 이에 따라, 서버(201)는 파라미터가 설정된 적어도 일부를 포함하는 사용자 음성이 의미 정보를 기반으로 적어도 하나 이상의 동작(예: "전자장치(101)의 오디오 출력 값을 5 단계 증가시킴")을 수행하기 위한 커맨드를 확인하고, 확인된 커맨드를 전자장치(101)로 전달하도록 통신 모듈을 제어할 수 있다.According to various embodiments, the server 201 checks emphasis information (eg, loud!) of the user's voice based on the user's voice, checks semantic information of the user's voice (for example, “set the audio volume to a large volume”), , At least some of the meaning information of the user voice corresponding to the emphasis information of the user voice (eg, “set the audio output value large”) may be checked. The server 201 electronically transmits a parameter related to the size of the state value included in at least a part of the semantic information of the identified user voice by a command for performing at least one or more operations including a first operation corresponding to the parameter. The device 101 may be set to a specified value so that the state value (eg, audio output value) is set to the first state value (eg, Volume 5 up). Accordingly, the server 201 performs at least one or more operations (for example, "increase the audio output value of the electronic device 101 by 5 steps") based on the semantic information of the user voice including at least a part of which parameters are set. The communication module may be controlled to confirm a command to be performed and to transmit the confirmed command to the electronic device 101.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1503 동작에서 도 16 b에 도시된 바와 같이 수신된 제 1 커맨드를 기반으로, 전자장치(101)의 상태 값(예: 오디오 출력 값)을 사용자 음성의 강조 정보에 대응하는 지정된 제 1 값으로 설정할 수 있다. 상기 커맨드는 도 16 a에 도시된 바와 같이 사용자 음성(1602)에 강조 정보가 포함되지 않는 경우에 설정되는 상태 값과 비교하여, 더 높은 상태 값인 제 1 값으로 전자장치(101)의 상태 값이 설정되도록 할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 (eg, at least one processor 120) is based on the first command received as shown in FIG. 16B in operation 1503, and the electronic device 101 The status value (eg, an audio output value) may be set to a designated first value corresponding to emphasis information of the user's voice. As illustrated in FIG. 16A, the command compares the state value set when the user voice 1602 does not include emphasis information, and the state value of the electronic device 101 is the first value that is a higher state value. Can be set.

또, 다양한 실시예들에 따르면 전자장치(101)(예: 적어도 하나의 프로세서(120))는 도 16 b에 도시된 바와 같이 전자장치(101)의 상태 값을 사용자 음성의 강조 정보에 대응하는 지정된 제 1 값으로 설정하는 적어도 하나 이상의 동작을 수행한 이후, 적어도 하나 이상의 동작과 관련된 텍스트(예: 네 볼륨을 높였어요(Volume 5 up))를 표시할 수 있다. 전자장치(101)의 텍스트를 표시하는 동작과 관련된 중복되는 설명은 생략한다.In addition, according to various embodiments, the electronic device 101 (eg, at least one processor 120) corresponds to a state value of the electronic device 101 corresponding to emphasis information of a user's voice, as shown in FIG. 16B. After performing at least one action to set the specified first value, text related to at least one action (eg, volume 5 up) may be displayed. Redundant descriptions related to the operation of displaying the text of the electronic device 101 are omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1504 동작에서 지정된 기간 동안 제 2 사용자 음성(1603)의 수신 여부를 확인하고, 지정된 기간 동안 제 2 사용자 음성(1603)을 획득하는 경우 1505 동작에서 획득된 제 2 사용자 음성(1603)을 서버(201)로 전달한 것에 응답하여 서버(201)로부터 제 2 커맨드를 수신할 수 있다. 예를 들어, 전자장치(101)는 제 1 사용자 음성(1601)에 대응하는 제 1 커맨드를 기반으로 적어도 하나 이상의 동작을 수행한 이후, 지정된 기간 동안 마이크를 활성화할 수 있다. 전자장치(101)는 지정된 기간 동안 활성화된 마이크를 통해 제 2 사용자 음성(1603)이 수신되는 경우, 해당 제 2 사용자 음성(1603)을 서버(201)로 전달할 수 있다. 서버(201)는 수신된 제 2 사용자 음성(1603)이 적어도 하나 이상의 동작 중 사용자 음성의 강조 정보에 대응하는 제 1 동작(예: 전자장치(101)의 오디오 출력 값을 5 단계 증가")에 대응하는 것을 확인한 것에 응답하여, 제 2 사용자 음성(1603)을 기반으로 제 1 동작과 다른 적어도 하나 이상의 제 2 동작(예: 전자장치(101)의 오디오 출력 값을 2 단계 증가")을 확인할 수 있다. 서버(201)는 확인된 적어도 하나 이상의 제 2 동작을 포함하는 제 2 커맨드를 전자장치(101)로 전달하도록 통신모듈을 제어할 수 있다.According to various embodiments, the electronic device 101 (eg, the at least one processor 120) checks whether the second user voice 1603 is received during the designated period in operation 1504, and the second user during the designated period. In the case of acquiring the voice 1603, a second command may be received from the server 201 in response to transmitting the second user voice 1603 obtained in operation 1505 to the server 201. For example, the electronic device 101 may activate the microphone for a specified period after performing at least one operation based on the first command corresponding to the first user voice 1601. When the second user voice 1603 is received through the microphone activated for a designated period of time, the electronic device 101 may transmit the second user voice 1603 to the server 201. The server 201 performs a first operation (for example, an audio output value of the electronic device 101 is increased by 5 steps) corresponding to the emphasis information of the user voice among the at least one of the received second user voices 1603. In response to confirming the correspondence, it is possible to check at least one second operation different from the first operation based on the second user voice 1603 (eg, increasing the audio output value of the electronic device 101 by 2 steps). have. The server 201 may control the communication module to transmit the second command including the identified at least one second operation to the electronic device 101.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1506 동작에서 수신된 제 2 커맨드를 기반으로, 전자장치(101)의 상태 값(예: 오디오 출력 값)을 사용자 음성의 강조 정보에 대응하는 지정된 제 2 값으로 설정할 수 있다.According to various embodiments of the present disclosure, the electronic device 101 (eg, at least one processor 120) is based on the second command received in operation 1506, and the status value of the electronic device 101 (eg, an audio output value) ) May be set to a designated second value corresponding to emphasis information of the user's voice.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 사용자의 터치 입력을 기반으로 설정된 상태 값(예: 오디오 볼륨)을 조정할 수 있다. 이하에서, 도 17을 참조하여 전자장치(101)의 사용자의 터치 입력을 기반으로 설정된 상태 값(예: 오디오 볼륨)을 조정하는 동작에 대해서 설명한다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may adjust a set state value (eg, audio volume) based on a user's touch input. Hereinafter, an operation of adjusting a set state value (eg, audio volume) based on a user's touch input of the electronic device 101 will be described with reference to FIG. 17.

도 17은 다양한 실시예들에 따른 따른 전자장치(101)의 상태 값을 설정하는 동작의 다른 예를 설명하기 위한 도면이다.17 is a diagram illustrating another example of an operation of setting a state value of the electronic device 101 according to various embodiments.

다양한 실시예들에 따른, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 도 17에 도시된 바와 같이 전자장치(101)에 의해 수행된 적어도 하나 이상의 동작과 관련된 텍스트를 표시하도록 터치 스크린 디스플레이를 제어하고, 표시된 텍스트 중 일부(1702)를 선택하기 위한 사용자 입력을 수신하도록 터치 스크린 디스플레이를 제어할 수 있다. 전자장치(101)는 수신된 사용자 입력에 응답하여, 복수 개의 상태 값(1703)(예: Volume 1 up, Volume 2 up, Volume 3 up, Volume 4 up, Volume 5 up)에 관련된 정보를 표시하도록 터치 스크린 디스플레이를 제어할 수 있다. 전자장치(101)는 표시된 복수 개의 상태값(1703) 중 적어도 하나를 선택하기 위한 사용자 입력을 수신하고, 선택된 복수 개의 상태값 중 적어도 하나를 기반으로 전자장치의 상태 값(예: 오디오 볼륨)을 재설정할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) displays text related to at least one operation performed by the electronic device 101 as illustrated in FIG. 17. The touch screen display may be controlled to control a touch screen display and to receive a user input for selecting a portion 1702 of the displayed text. The electronic device 101 may display information related to a plurality of status values 1703 (eg, Volume 1 up, Volume 2 up, Volume 3 up, Volume 4 up, Volume 5 up) in response to the received user input. You can control the touch screen display. The electronic device 101 receives a user input for selecting at least one of the displayed plurality of status values 1703, and based on at least one of the selected plurality of status values, the electronic device 101 (eg, an audio volume). Can be reset.

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 또 다른 예에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, another example of the electronic device 101 and its control method according to various embodiments will be described. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 전자장치(101)에 설치된 복수 개의 어플리케이션 중 사용자 음성의 강조 정보에 대응하는 복수 개의 제 1 어플리케이션을 실행하고, 실행된 제 1 복수 개의 어플리케이션이 적어도 하나 이상의 동작을 수행하도록 제어할 수 있다. 이하에서는, 도 18 및 도 19를 참조하여 해당 전자장치(101)의 동작에 대해서 설명한다. 한편, 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) executes a plurality of first applications corresponding to emphasis information of a user's voice among a plurality of applications installed in the electronic device 101. And, it is possible to control the executed first plurality of applications to perform at least one operation. Hereinafter, the operation of the electronic device 101 will be described with reference to FIGS. 18 and 19. Meanwhile, overlapping descriptions related to the operation of the electronic device 101 are omitted.

도 18은 다양한 실시예들에 따른 전자장치(101)의 복수 개의 어플리케이션을 제어하는 동작의 일 예를 설명하기 위한 흐름도(1800)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 18에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 18에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는, 도 19를 참조하여 도 18에 대해서 설명한다. 18 is a flowchart 1800 illustrating an example of an operation of controlling a plurality of applications of the electronic device 101 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 18, but may be performed in a different order from the order shown. Further, according to various embodiments, more operations than the operations of the electronic device 101 shown in FIG. 18 may be performed, or at least one or more operations may be performed. Hereinafter, FIG. 18 will be described with reference to FIG. 19.

도 19는 다양한 실시예들에 따른 전자장치(101)의 복수 개의 어플리케이션을 제어하는 동작의 일 예를 설명하기 위한 도면이다. 19 is a diagram illustrating an example of an operation of controlling a plurality of applications of the electronic device 101 according to various embodiments.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1801 동작에서 사용자 음성을 획득하도록 마이크를 제어하고, 1802 동작에서 사용자 음성을 서버(201)로 전달한 것에 응답하여, 서버(201)로부터 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 수신할 수 있다. 예를 들면, 전자장치(101)는 도 19 (b)에 도시된 바와 같이, "빅스비! 급해. 택시 좀 어떻게든 잡아줘."라는 사용자 음성(1902)을 획득하고 수신된 사용자 음성을 서버(201)로 전달하고, 서버(201)로부터 상기 사용자 음성에 포함된 강조 정보(예: "급해!", "어떻게든")에 대응하는 제 1 동작을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 수신할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) controls the microphone to acquire a user voice in operation 1801, and transmits the user voice to the server 201 in operation 1802. In response, the server 201 may receive a command for performing at least one operation. For example, as shown in FIG. 19(b), the electronic device 101 acquires a user voice 1902 saying “Bixby! Hurry up, somehow catch a taxi.” and receives the user voice from the server. To perform at least one operation including a first operation corresponding to the emphasis information (eg, “emergency!”, “somehow”) included in the user voice from the server 201 and transmitted to the server 201. Commands can be received.

다양한 실시예들에 따르면, 서버(201)는 사용자 음성을 기반으로 사용자 음성의 강조 정보(예: "급해", "어떻게든")를 확인하고, 사용자 음성의 의미 정보(예: "현재 장소 xx동 xx길", "택시 호출")를 확인하고, 사용자 음성의 강조 정보에 대응하는 사용자 음성의 의미 정보 중 적어도 일부(예: "택시 호출")를 확인할 수 있다. 서버(201)는 사용자 음성의 의미 정보 중 적어도 일부와 상기 사용자 음성의 강조 정보를 기반으로, 전자장치에 설치된 복수 개의 어플리케이션 중 복수 개의 제1 어플리케이션을 실행하도록 하는 제1 동작을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 확인할 수 있다. 서버(201)는 확인된 사용자 음성의 의미 정보 중 적어도 일부에 포함된 어플리케이션 실행과 관련된 파라미터를, 해당 파라미터와 대응하는 제 1 동작을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드에 의해 전자장치(101)에서 전자장치(101)에 설치된 복수 개의 어플리케이션 중 복수 개의 제1 어플리케이션(예: 복수 개의 교통 수단 호출 어플리케이션)이 실행되도록, 지정된 값으로 설정할 수 있다. 이에 따라, 서버(201)는 파라미터가 설정된 적어도 일부를 포함하는 사용자 음성이 의미 정보를 기반으로 적어도 하나 이상의 동작(예: "전자장치에 설치된 모든 교통 수단 호출 어플리케이션 실행", "교통 수단을 호출하도록 교통 수단 호출 어플리케이션을 제어")을 수행하기 위한 커맨드를 확인하고, 확인된 커맨드를 전자장치(101)로 전달하도록 통신 모듈을 제어할 수 있다. According to various embodiments, the server 201 checks emphasis information (eg, “emergency”, “somehow”) of the user's voice based on the user's voice, and semantic information of the user's voice (eg, “current place xx Dong-xx-gil", "Taxi Call"), and at least a part (eg, "Taxi Call") of the semantic information of the user voice corresponding to the emphasis information of the user voice. The server 201 may include at least one or more operations including a first operation to execute a plurality of first applications among a plurality of applications installed on the electronic device, based on at least some of the meaning information of the user voice and the emphasis information of the user voice. The command for performing the operation can be confirmed. The server 201 uses the electronic device by a command for performing at least one or more operations including a first operation corresponding to a parameter related to execution of an application included in at least some of the semantic information of the identified user voice ( In step 101), a plurality of first applications (for example, a plurality of traffic calling applications) among a plurality of applications installed in the electronic device 101 may be executed, and set to a specified value. Accordingly, the server 201 may cause the user voice including at least a part of which parameters are set to perform at least one or more operations based on the semantic information (eg, "run all traffic call applications installed in the electronic device", "transport means") It is possible to control a communication module to confirm a command for performing the traffic control call application control) and to transmit the confirmed command to the electronic device 101.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 1803 동작에서 수신된 커맨드를 기반으로, 전자장치에 설치된 복수 개의 어플리케이션을 실행하고, 1804 동작에서 실행된 복수의 어플리케이션들의 각각이 상기 수신된 명령어에 기반한 동작(예: xx동 xx길로 택시 호출)을 수행하도록 동작을 수행하도록 제어할 수 있다. 상기 커맨드는 도 19 (a)에 도시된 바와 같이 사용자 음성(1901)에 강조 정보가 포함되지 않는 경우에 실행되는 어플케이션의 수와 비교하여, 더 많은 복수의 어플리케이션들이 전자장치(101)에서 실행되도록 할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) executes a plurality of applications installed in the electronic device based on the command received in operation 1803, and is executed in operation 1804. Each of the plurality of applications may be controlled to perform an operation to perform an operation based on the received command (for example, a taxi call to xx-dong xx-gil). The command is compared to the number of applications that are executed when emphasis information is not included in the user's voice 1901 as shown in FIG. 19(a), and a plurality of applications are executed by the electronic device 101. It can be done.

또, 다양한 실시예들에 따르면 전자장치(101)(예: 적어도 하나의 프로세서(120))는 도 19 (b)에 도시된 바와 같이 복수 개의 어플리케이션을 실행하여 제어하는 동작을 수행한 이후, 수행된 동작과 관련된 텍스트(1903)(예: "연계되어 있는 서비스 모두 연결, 네, 택시를 불렀어요")를 표시할 수 있다. 전자장치(101)의 텍스트를 표시하는 동작과 관련된 중복되는 설명은 생략한다.In addition, according to various embodiments, the electronic device 101 (eg, at least one processor 120) performs an operation of controlling a plurality of applications by executing a plurality of applications, as illustrated in FIG. 19B. It can display text 1902 related to the action (eg, "All connected services are connected, yes, I called a taxi"). Redundant descriptions related to the operation of displaying the text of the electronic device 101 are omitted.

다양한 실시예들에 따르면 전자장치(101)(예: 적어도 하나의 프로세서(120))는 상술한 기재에 따른 적어도 하나 이상의 동작에 국한되지 않고, 다른 적어도 하나 이상의 동작(예: 복수 개의 장소 검색 어플리케이션을 실행하여 장소를 검색)을 수행할 수 있다. 중복되는 설명은 생략한다.According to various embodiments of the present disclosure, the electronic device 101 (eg, at least one processor 120) is not limited to at least one operation according to the above description, and other at least one operation (eg, multiple location search applications) You can run it to search for a place). Redundant explanation is omitted.

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 또 다른 예에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, another example of the electronic device 101 and its control method according to various embodiments will be described. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

다양한 실시예들에 따르면, 사용자 음성의 강조 정보를 기반으로 적어도 하나 이상의 동작을 수행하기 위한 커맨드가 전자장치(101)와 연관된 적어도 하나의 외부 전자장치로 전달되고, 적어도 하나 이상의 동작이 전자장치(101)와 연관된 적어도 하나의 외부 전자장치에서 수행될 수 있다. 이하에서는 해당 동작에 대해서, 도 20 및 도 21을 참조하여 설명한다.According to various embodiments, a command for performing at least one operation based on emphasis information of a user voice is transmitted to at least one external electronic device associated with the electronic device 101, and at least one operation is performed by the electronic device ( 101) may be performed in at least one external electronic device. Hereinafter, the operation will be described with reference to FIGS. 20 and 21.

도 20은 다양한 실시예들에 따른 전자장치(101), 서버(201) 및 적어도 하나 이상의 외부 전자장치(2010)의 동작의 일 예를 나타내는 도면이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 20에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 20에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는, 도 21을 참조하여 도 20에 대해서 설명한다.20 is a diagram illustrating an example of operations of the electronic device 101, the server 201, and at least one external electronic device 2010 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 20, and may be performed in a different order from the order shown. Further, according to various embodiments, more operations may be performed than the operations of the electronic device 101 illustrated in FIG. 20, or at least one or more operations may be performed. Hereinafter, FIG. 20 will be described with reference to FIG. 21.

도 21은 다양한 실시예들에 따른 전자장치(101), 서버(201) 및 적어도 하나 이상의 외부 전자장치(2010)의 일 예를 나타내는 도면이다.21 is a diagram illustrating an example of an electronic device 101, a server 201, and at least one external electronic device 2010 according to various embodiments.

다양한 실시예들에 따르면, 전자장치(101)는 2001 동작에서 사용자 음성을 획득하도록 마이크를 제어하고, 2002 동작에서 사용자 음성을 서버(201)로 전달한 것에 응답하여, 서버(201)로부터 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 수신할 수 있다. 예를 들면, 전자장치(101)는 도 18에 도시된 바와 같이, "빅스비, 앞으로 날씨가 나쁠 때는 미세먼지 농도를 꼭 알려줘"라는 사용자 음성(2101)을 획득하고 수신된 사용자 음성을 서버(201)로 전달하고, 서버(201)로부터 상기 사용자 음성에 대응하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 수신할 수 있다.According to various embodiments, the electronic device 101 controls the microphone to acquire a user voice in operation 2001, and in response to transmitting the user voice to the server 201 in operation 2002, at least one or more from the server 201 A command for performing an operation may be received. For example, as illustrated in FIG. 18, the electronic device 101 acquires a user voice 2101 saying “Bixby, let me know the concentration of fine dust when the weather is bad in the future” and receives the received user voice from the server ( 201), and receive a command for performing at least one operation corresponding to the user voice from the server 201.

다양한 실시예들에 따르면 서버(201)는 2003 동작에서 사용자 음성의 강조 정보 및 사용자 음성의 의미 정보를 확인하고, 2004 동작에서 사용자 음성의 의미 정보를 기반으로 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 확인할 수 있다. 예를 들어 서버(201)는, 사용자 음성(2101)을 기반으로 사용자 음성의 강조 정보로서 강조 단어(예: 꼭)를 확인하고, 사용자 음성의 의미 정보(예: "날씨 나쁨 확인", "미세 먼지 농도 확인 및 알림")를 확인하고, 사용자 음성의 의미 정보를 기반으로 적어도 하나 이상의 동작(예: "날씨 정보 확인", "확인된 날씨 정보로부터 날씨 나쁨 상태 확인", "날씨 나쁨 상태 확인되는 경우 미세 먼지 농도 확인 및 알림")을 포함하는 커맨드를 확인할 수 있다.According to various embodiments, the server 201 checks the emphasis information of the user's voice and semantic information of the user's voice in operation 2003, and executes a command for performing at least one operation based on the semantic information of the user's voice in operation 2004. Can be confirmed. For example, the server 201 checks the emphasis word (eg, necessarily) as the emphasis information of the user's voice based on the user's voice 2101, and semantic information of the user's voice (eg, "deterioration of bad weather", "fine" Dust concentration check and notification", and at least one action based on the semantic information of the user's voice (for example, "Check weather information", "Check bad weather condition from confirmed weather information", "Weather bad condition check" In the case, it is possible to confirm the command including the fine dust concentration confirmation and notification").

다양한 실시예들에 따르면 서버(201)는 2005 동작에서 커맨드를 전자장치(101)로 전달하도록 통신 모듈을 제어할 수 있다. 이에 대응하여, 전자장치는 2006 동작에서 커맨드를 기반으로 적어도 하나 이상의 동작을 수행할 수 있다.According to various embodiments, the server 201 may control the communication module to transmit a command to the electronic device 101 in operation 2005. In response to this, the electronic device may perform at least one operation based on a command in operation 2006.

다양한 실시예들에 따르면 서버(201)는 2007 동작에서 사용자 음성의 강조 정보를 확인한 것에 응답하여, 전자장치(101)와 연관된 적어도 하나 이상의 외부 전자장치(2010)를 확인할 수 있다. 달리 말해, 상기 사용자 음성의 강조 정보에 의해, 서버(201)의 외부 전자장치로의 커맨드를 송신하는 동작이 유발될 수 있다. 예를 들어, 서버(201)는 지정된 강조 정보(예: 꼭!)가 포함되는 것으로 확인되는 것에 응답하여, 전자장치(101)와 연관된 적어도 하나 이상의 외부 전자장치(2010)를 확인할 수 있다. 상기 지정된 강조 정보는, 데이터베이스에 미리 저장된(예: 언어학적/음성학적 강조 정보) 강조 정보 중에서 전자장치(101)와 연관된 적어도 하나 이상의 외부 전자장치(2010)의 확인을 유발하는 것으로 사용자, 전자장치(101), 또는 서버(201)에 의해 지정된 강조 정보일 수 있다. According to various embodiments, the server 201 may check at least one external electronic device 2010 associated with the electronic device 101 in response to checking the highlight information of the user voice in operation 2007. In other words, an operation of transmitting a command to the external electronic device of the server 201 may be triggered by the emphasis information of the user voice. For example, the server 201 may check at least one external electronic device 2010 associated with the electronic device 101 in response to being confirmed to include the designated emphasis information (eg, necessarily!). The specified emphasis information is to cause confirmation of at least one external electronic device 2010 associated with the electronic device 101 among emphasis information previously stored in the database (eg, linguistic/speech emphasis information). It may be 101, or emphasis information designated by the server 201.

다양한 실시예들에 따르면 서버(201)는 전자장치(101)와 동일한 통신 네트워크를 이용하는 적어도 하나 이상의 외부 전자장치(2010)를 확인할 수 있다. 상기 통신 네트워크는 AP(acceess point)를 이용하는 Wifi등의 무선 통신 네트워크, 블루투스, Wifi-direct 등의 D2D 통신 네트워크 등을 포함할 수 있으며, 상기 기재에 국한되지 않고 전자장치(101)가 이용할 수 있는 모든 통신 네트워크 방식을 포함할 수 있다. 예를 들어, 서버(201)는 전자장치(101)와 동일한 Wifi 통신 네트워크를 이용하는 적어도 하나 이상의 외부 전자장치(2010)를 확인할 수 있다.According to various embodiments, the server 201 may check at least one external electronic device 2010 using the same communication network as the electronic device 101. The communication network may include a wireless communication network such as Wifi using an AP (acceess point), a D2D communication network such as Bluetooth, Wifi-direct, etc., and is not limited to the above description and can be used by the electronic device 101. Any communication network method can be included. For example, the server 201 may check at least one external electronic device 2010 using the same Wifi communication network as the electronic device 101.

다양한 실시예들에 따르면 서버(201)는 전자장치(101)가 서버(201)에 등록된 전자장치(101)인 경우, 전자장치(101)의 등록 정보를 확인하고, 확인된 등록정보와 연관된 적어도 하나 이상의 외부 전자장치(2010)를 확인할 수 있다. 예를 들어, 전자장치(101)의 사용자가 서버(201)에 가입하는 경우, 사용자는 전자장치(101)와 연관된 적어도 하나 이상의 외부 전자장치(2010)를 전자장치(101)와 함께 등록할 수 있다. 이에 따라, 전자장치(101)의 등록 정보는 전자장치(101)와 연관된 적어도 하나 이상의 외부 전자장치(2010)와 연관된 정보를 포함할 수 있다. According to various embodiments, the server 201 checks the registration information of the electronic device 101 when the electronic device 101 is the electronic device 101 registered in the server 201, and is associated with the confirmed registration information. At least one external electronic device 2010 may be identified. For example, when a user of the electronic device 101 subscribes to the server 201, the user can register at least one external electronic device 2010 associated with the electronic device 101 together with the electronic device 101. have. Accordingly, the registration information of the electronic device 101 may include information associated with at least one external electronic device 2010 associated with the electronic device 101.

다양한 실시예들에 따르면 서버(201)는 2008 동작에서 커맨드를 확인된 적어도 하나 이상의 외부 전자장치(2010)(예: 제 1 외부 전자장치(2010))로 전달하도록 통신 모듈을 제어할 수 있다. 이에 대응하여, 적어도 하나 이상의 외부 전자장치(2010)(예: 제 1 외부 전자장치(2010))는 2009 동작에서 커맨드를 기반으로 적어도 하나 이상의 동작을 수행할 수 있다.According to various embodiments, the server 201 may control the communication module to transmit a command to at least one external electronic device 2010 (eg, the first external electronic device 2010) identified in operation 2008. In response to this, at least one external electronic device 2010 (eg, the first external electronic device 2010) may perform at least one or more operations based on a command in operation 2009.

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 또 다른 예에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, another example of the electronic device 101 and its control method according to various embodiments will be described. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 사용자 음성의 강조 정보에 대응하는 전자장치(101)에 저장된 정보를 순차적으로 출력하고, 사용자의 음성 제어에 따라 저장된 정보의 출력을 중지하는 동작을 수행할 수 있다. 이하에서는 해당 동작에 대해서, 도 22및 도 23을 참조하여 설명한다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) sequentially outputs information stored in the electronic device 101 corresponding to emphasis information of the user's voice, and controls the user's voice According to this, an operation of stopping outputting of stored information may be performed. Hereinafter, the operation will be described with reference to FIGS. 22 and 23.

도 22는 다양한 실시예들에 따른 전자장치(101)의 전자장치(101)에 저장된 정보를 출력하는 동작을 설명하기 위한 흐름도(2200)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 22에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 22에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는, 도 23을 참조하여 도 22에 대해서 설명한다.22 is a flowchart 2200 illustrating an operation of outputting information stored in the electronic device 101 of the electronic device 101 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 22, and may be performed in a different order from the order shown. Further, according to various embodiments, more operations may be performed than the operations of the electronic device 101 illustrated in FIG. 22, or at least one or more operations may be performed. Hereinafter, FIG. 22 will be described with reference to FIG. 23.

도 23은 다양한 실시예들에 따른 전자장치(101)의 전자장치(101)에 저장된 정보를 출력하는 동작을 설명하기 위한 도면이다.23 is a view for explaining an operation of outputting information stored in the electronic device 101 of the electronic device 101 according to various embodiments.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 2201 동작에서 사용자 음성을 획득하도록 마이크를 제어하고, 2202 동작에서 사용자 음성을 서버(201)로 전달한 것에 응답하여, 서버(201)로부터 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 수신할 수 있다. 예를 들면, 전자장치(101)는 도 23 (b)에 도시된 바와 같이, "빅스비 오늘 일정 다~~~ 알려줘"라는 사용자 음성(2302)을 획득하고 수신된 사용자 음성(2302)을 서버(201)로 전달하고, 서버(201)로부터 상기 사용자 음성(2302)에 포함된 강조 단어(예: 다~~~)에 대응하는 제 1 동작(예: 저장된 정보 순차 출력)을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 수신할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) controls the microphone to acquire a user voice in operation 2201, and transmits the user voice to the server 201 in operation 2202. In response, the server 201 may receive a command for performing at least one operation. For example, as shown in FIG. 23(b), the electronic device 101 acquires a user voice 2302 saying “Please tell me about Bixby's schedule today~~” and the received user voice 2302 server At least one that includes a first operation (eg, sequential output of stored information) corresponding to the emphasized word (eg, multi-~~) included in the user voice 2302 from the server 201 and transmitted to the 201. A command for performing the above operation may be received.

다양한 실시예들에 따르면, 서버(201)는 사용자 음성을 기반으로 사용자 음성의 강조 정보(예: 다~~~~)를 확인하고, 사용자 음성의 의미 정보(예: "2018/xx/xx", "일정 정보 출력")를 확인하고, 사용자 음성의 강조 정보에 대응하는 사용자 음성의 의미 정보 중 적어도 일부(예: 일정 정보 출력)를 확인할 수 있다. 서버(201)는 확인된 사용자 음성의 의미 정보 중 적어도 일부에 포함된 어플리케이션 실행과 관련된 파라미터를, 해당 파라미터와 대응하는 제 1 동작을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드에 의해 저장된 일정 정보가 순차적으로 출력되도록, 지정된 값으로 설정할 수 있다. 이에 따라, 서버(201)는 파라미터가 설정된 적어도 일부를 포함하는 사용자 음성이 의미 정보를 기반으로 적어도 하나 이상의 동작(예: "2018/xx/xx와 연관된 일정 정보를 확인", "확인된 일정 정보를 순차적으로 출력")을 수행하기 위한 커맨드를 확인하고, 확인된 커맨드를 전자장치(101)로 전달하도록 통신 모듈을 제어할 수 있다. According to various embodiments, the server 201 checks emphasis information (eg, da~~~~) of the user's voice based on the user's voice, and semantic information of the user's voice (for example, "2018/xx/xx" , "Schedule information output"), and at least some (eg, schedule information output) of the meaning information of the user voice corresponding to the emphasis information of the user voice. The server 201 is a schedule information stored by a command for performing at least one operation including a first operation corresponding to a parameter related to application execution included in at least some of the semantic information of the identified user voice. To be output sequentially, it can be set to the specified value. Accordingly, the server 201 has at least one or more actions based on the semantic information of the user's voice including at least a portion of which parameters are set (eg, "confirming schedule information associated with 2018/xx/xx", "confirmed schedule information" It is possible to control the communication module to confirm the command for performing "sequential output") and to transmit the confirmed command to the electronic device 101.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 2203 동작에서 수신된 커맨드를 기반으로, 수신된 커맨드를 기반으로, 전자장치에 저장된 사용자 음성에 대응하는 정보를 출력하는 동작(예: 2018/xx/xx의 일정 정보를 순차적으로 출력)을 수행하도록 제어할 수 있다. 상기 커맨드는 도 23 (a)에 도시된 바와 같이 사용자 음성(2301)에 강조 정보가 포함되지 않는 경우에 출력되는 정보의 수와 비교하여, 더 많은 정보가 순차적으로 전자장치(101)에서 출력(예: 해당 정보를 텍스트로 출력, 해당 정보를 오디오로 출력)되도록 할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) is based on the command received in operation 2203, and based on the received command, corresponds to the user voice stored in the electronic device. It may be controlled to perform an operation of outputting information (for example, sequentially outputting 2018/xx/xx schedule information). The command outputs more information sequentially from the electronic device 101 as compared to the number of information output when the user's voice 2301 does not include emphasis information as shown in FIG. 23(a) ( Example: You can output the information in text and the information in audio).

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 2204 동작에서 사용자 음성(2302)에 대응하는 정보의 출력 중, 사용자 입력의 획득 여부를 확인할 수 있다. 예를 들어, 전자장치(101)는 사용자 음성에 대응하는 정보의 출력 중에 마이크를 활성화할 수 있다. 전자장치(101)는 활성화된 마이크를 통해 해당 오디오 출력을 중지시키기 위한 사용자 음성을 획득할 수 있다. 또는 전자장치는 오디오 출력을 중지시키기 위한 사용자 터치 입력을 수신하도록 터치스크린을 제어할 수 있다. 전자장치(101)는 사용자 입력의 획득을 확인한 것에 응답하여, 사용자 음성(2302)에 대응하는 정보의 출력을 중지할 수 있다. 또는, 전자장치(101)는 사용자 입력의 획득이 확인되지 않는 것에 응답하여, 사용자 음성에 대응하는 정보의 출력을 계속할 수 있다. According to various embodiments, the electronic device 101 (eg, at least one processor 120) may determine whether a user input is acquired during output of information corresponding to the user voice 2302 in operation 2204. For example, the electronic device 101 may activate the microphone during output of information corresponding to the user's voice. The electronic device 101 may acquire a user voice for stopping the corresponding audio output through the activated microphone. Alternatively, the electronic device may control the touch screen to receive a user touch input for stopping audio output. The electronic device 101 may stop outputting information corresponding to the user voice 2302 in response to confirming the acquisition of the user input. Alternatively, the electronic device 101 may continue to output information corresponding to the user's voice in response to the acquisition of the user input being not confirmed.

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 다른 예를 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, another example of the electronic device 101 and its control method according to various embodiments will be described. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 사용자 음성의 강조 정보에 대응하는 답변을 출력할 수 있다. 이하에서는, 전자장치(101)의 사용자 음성의 강조 정보에 대응하는 답변 출력 동작에 대해서 도 24를 참조하여 설명한다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may output an answer corresponding to emphasis information of the user's voice. Hereinafter, a response output operation corresponding to the emphasis information of the user's voice of the electronic device 101 will be described with reference to FIG. 24.

도 24는 다양한 실시예들에 따른 전자장치(101)의 동작의 다른 예를 설명하기 위한 흐름도(2400)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 24에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 24에 도시되는 전자장치(101)의 동작 보다 더 많은 동작들이 수행되거나, 또는 도 24에 도시되는 전자장치(101)의 동작들 보다 더 적은 적어도 하나 이상의 동작이 수행될 수도 있다.24 is a flowchart 2400 illustrating another example of the operation of the electronic device 101 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 24, but may be performed in a different order from the order shown. Further, according to various embodiments, more operations than the operation of the electronic device 101 shown in FIG. 24 are performed, or at least one or more operations less than those of the electronic device 101 shown in FIG. 24. This can also be done.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 2401 동작에서 사용자 음성을 획득하도록 마이크를 제어하고, 2402 동작에서 획득된 사용자 음성을 서버(201)로 전달하도록 통신 모듈을 제어할 수 있다. 2401 동작 및 2402 동작은, 상술한 501 동작 및 502 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) controls the microphone to acquire a user voice in operation 2401, and sends the user voice obtained in operation 2402 to the server 201. The communication module can be controlled to deliver. Operations 2401 and 2402 may be performed in the same manner as operations 501 and 502 described above, and thus duplicate descriptions are omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 2403 동작에서 서버(201)로부터 순차적으로 수행되는 적어도 하나 이상의 텍스트에 관한 답변 정보를 수신하도록 통신 모듈을 제어할 수 있다. 다양한 실시예들에 따르면, 적어도 하나 이상의 텍스트를 포함하는 답변 정보는 사용자 음성의 의미 정보 및 사용자 음성의 강조 정보에 기반하여 서버(201)에 의해 확인될 수 있다. 다양한 실시예들에 따르면, 적어도 하나 이상의 텍스트의 적어도 일부에 대응하는 파라미터는 사용자 음성의 강조 정보를 기반으로 확인될 수 있다. 이에 따라, 사용자 음성의 강조 정보를 기반으로 확인된 사용자 음성의 의미 정보 중 적어도 일부에 기반하여 적어도 하나 이상의 텍스트의 적어도 일부가 확인될 수 있다. 확인된 적어도 하나 이상의 텍스트의 적어도 일부는 전자장치(101)에서 출력 시 다른 일부에 비하여 강조될 수 있도록 설정될 수 있다. 2403 동작은, 상술한 503 동작과 같이 수행될 수 있으므로 그 외에 중복되는 설명은 생략한다.According to various embodiments, the electronic device 101 (eg, the at least one processor 120) receives a communication module to receive answer information regarding at least one text sequentially performed from the server 201 in operation 2403. Can be controlled. According to various embodiments, the answer information including at least one text may be checked by the server 201 based on the meaning information of the user voice and emphasis information of the user voice. According to various embodiments, parameters corresponding to at least a part of the at least one text may be identified based on emphasis information of the user's voice. Accordingly, at least a part of the at least one text may be identified based on at least some of the semantic information of the user voice identified based on the emphasis information of the user voice. At least a portion of the identified at least one text may be set to be emphasized compared to other portions when output from the electronic device 101. The operation 2403 may be performed as the operation 503 described above, and thus redundant description will be omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 2404 동작에서 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행할 수 있다. 예를 들면, 전자장치(101)는 수신된 답변 정보를 기반으로, 적어도 하나 이상의 텍스트의 적어도 일부를 강조하여 출력(예: 디스플레이를 통한 출력 또는 오디오를 통한 출력)할 수 있다. 다양한 실시예들에 따르면, 텍스트의 적어도 일부의 강조는 시각적인 방법으로 수행될 수 있다. 예를 들어, 텍스트의 적어도 일부가 음영되거나, 다른 일부에 비하여 더 큰 크기로 표시되거나, 또는 볼드체/밑줄 등의 서식 설정에 의해 강조될 수 있다. 또는, 텍스트가 오디오 장치를 통해 오디오로 출력되는 경우 청각적인 방법으로 강조 될 수 있다. 예를 들어, 텍스트의 적어도 일부가 오디오로 출력되는 경우 다른 일부에 비하여 더 큰 볼륨으로 출력되거나, 다른 종류의 오디오(예: 다른 음성)로 출력되거나, 지정된 오디오(예: back ground music BGM)와 함께 출력되는 등의 방식으로 강조될 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may perform at least one or more operations based on the command received in operation 2404. For example, the electronic device 101 may output (eg, output through a display or output via audio) by emphasizing at least a part of at least one text based on the received answer information. According to various embodiments, emphasis of at least a portion of the text may be performed in a visual way. For example, at least a portion of the text may be shaded, displayed at a larger size compared to other portions, or emphasized by formatting such as bold/underlined. Alternatively, when text is output as audio through an audio device, it may be emphasized in an audible manner. For example, if at least a portion of the text is output as audio, it is output at a larger volume compared to the other portion, output as a different kind of audio (e.g., a different voice), or a specified audio (e.g., back ground music BGM). It can be emphasized in a manner that is output together.

그 외, 전자장치(101)의 답변 출력 동작에서, 순차적으로 수신되는 사용자의 음성에 대응하여 텍스트를 출력할 수 있는데, 이는 도 6에서 상술한 바와 같이 수행될 수 있으므로 중복되는 설명은 생략한다.In addition, in the response output operation of the electronic device 101, text may be output in response to the user's voice sequentially received, which may be performed as described above with reference to FIG. 6, and thus duplicate description will be omitted.

이하에서는 도 25 내지 도 27을 참조하여 다양한 실시예들에 따른 2403 동작에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, operation 2403 according to various embodiments will be described with reference to FIGS. 25 to 27. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

도 25는 다양한 실시예들에 따른, 전자장치(101) 및 서버(201)의 동작의 다른 예를 설명하기 위한 흐름도(2500)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 25에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 25에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 도 25에 도시되는 전자장치(101)의 동작들 보다 더 적은 적어도 하나 이상의 동작이 수행될 수도 있다.25 is a flowchart 2500 illustrating another example of operations of the electronic device 101 and the server 201 according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 25, but may be performed in a different order from the order shown. In addition, according to various embodiments, more operations than the operations of the electronic device 101 shown in FIG. 25 are performed, or at least one or more operations less than those of the electronic device 101 shown in FIG. 25. The operation may be performed.

이하에서는 도 26 및 27을 참조하여 도 25에 대해서 설명한다. Hereinafter, FIG. 25 will be described with reference to FIGS. 26 and 27.

도 26은 다양한 실시예들에 따른, 전자장치(101) 및 서버(201)의 동작의 다른 예를 설명하기 위한 도면이다. 26 is a diagram illustrating another example of operations of the electronic device 101 and the server 201 according to various embodiments.

도 27은 다양한 실시예들에 따른, 서버(201)의 동작의 일 예를 설명하기 위한 도면이다.27 is a view for explaining an example of the operation of the server 201 according to various embodiments.

다양한 실시예들에 따르면 서버(201)는 2501 동작에서 사용자 음성의 강조 정보를 확인하고, 2502 동작에서 사용자 음성의 의미정보를 확인하고, 2503 동작에서 확인된 사용자 음성의 강조 정보에 대응하는 사용자 음성의 의미 정보의 적어도 일부를 확인하고, 2504 동작에서 강조 정보 활용 가능 여부를 확인할 수 있다. 예를 들어, 서버(201)는 도 26에 도시된 바와 같이, 전자장치(101)로부터 전달된 "한 시에서 두 시로 미팅 변경"과 같은 사용자 음성에 대응하여, 사용자 음성의 강조 정보(예: 두시 미팅)를 확인하고, 사용자 음성의 의미 정보(예: "한시 미팅", "두시 미팅", "미팅 일정 변경")를 확인할 수 있다. 이외에 2501 동작 내지 2504 동작은, 상술한 901 동작 내지 904 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the server 201 checks the emphasis information of the user's voice in operation 2501, confirms the semantic information of the user's voice in operation 2502, and the user's voice corresponding to the emphasis information of the user's voice identified in operation 2503 It is possible to check at least a part of the semantic information of and to check whether the highlight information is available in operation 2504. For example, as illustrated in FIG. 26, the server 201 corresponds to a user voice, such as “change meeting from one hour to two o'clock” transmitted from the electronic device 101, such as highlighting information of the user voice (eg, You can check the semantic information of the user's voice (for example, "Time Meeting", "Time Meeting", "Change Meeting Schedule"). In addition, operations 2501 to 2504 may be performed in the same manner as operations 901 to 904 described above, and thus duplicate descriptions are omitted.

다양한 실시예들에 따르면, 서버(201)는 사용자 음성의 강조 정보가 활용 가능한 것으로 확인된 경우, 2505 동작에서 도 26에 도시된 바와 같이 확인된 사용자 음성의 강조 정보(예: 두 시로)를 기반으로 사용자 음성의 의미 정보의 적어도 일부(예: 두시 미팅)를 확인할 수 있다. According to various embodiments, when it is determined that the user's voice emphasis information is available, the server 201 is based on the emphasis information (eg, two o'clock) of the user's voice identified in operation 2505 as shown in FIG. 26. As a result, it is possible to check at least a part (eg, a two o'clock meeting) of the meaning information of the user's voice.

다양한 실시예들에 따르면, 서버(201)는 2506 동작에서 확인된 적어도 일부와 다른 일부를 포함하는 사용자 음성의 의미 정보를 기반으로 적어도 하나 이상의 텍스트에 관한 답변 정보 확인할 수 있다. 이때, 서버(201)는 도 26에 도시된 바와 같이 적어도 하나 이상의 텍스트 중 확인된 사용자 음성의 의미 정보의 적어도 일부에 대응하는 텍스트가 다른 일부에 대응하는 텍스트에 비하여 답변 정보를 확인할 수 있다.According to various embodiments, the server 201 may check answer information on at least one text based on semantic information of a user voice including at least a part different from a part identified in operation 2506. At this time, as shown in FIG. 26, the server 201 may check the answer information in comparison to text corresponding to at least a part of the semantic information of the identified user voice among at least one text compared to text corresponding to another part.

다양한 실시예들에 따르면, 서버(201)는 사용자 음성의 강조 정보가 활용 불가능한 것으로 확인된 경우 2507 동작에서 확인된 사용자 음성 정보를 기반으로 적어도 하나 이상의 텍스트에 관한 답변 정보를 확인할 수 있다. 서버(201)는 도 27에 도시된 바와 같이 2507 동작의 적어도 일부로 미리 저장된 강조 정보를 기반으로 적어도 하나 이상의 텍스트 중 적어도 일부를 확인할 수 있다. 예를 들어, 서버(201)가 사용자 음성을 기반으로 적어도 하나 이상의 텍스트(예: 빅스비는 현재 부재중입니다. “삐-” 소리가 난 후에 메시지를 남겨주세요.)를 확인하는 경우, 미리 저장된 강조 정보 (예: "삐-")를 확인하고, 확인된 강조 정보에 대응하는 적어도 하나 이상의 텍스트의 적어도 일부(예: "삐-")를 확인할 수 있다. 서버(201)는 확인된 적어도 하나 이상의 텍스트의 적어도 일부를 강조할 수 있다. 그러나 상기 기재에 국한되지 않고, 서버(201)는 사용자 음성 정보를 기반으로 사용자 음성의 강조 정보에 대응하여 강조된 텍스트를 포함하지 않는 적어도 하나 이상의 텍스트에 관한 답변 정보를 확인할 수 있다. According to various embodiments of the present disclosure, when it is determined that the user's voice emphasis information is unavailable, the server 201 may check answer information related to at least one text based on the user voice information identified in operation 2507. As illustrated in FIG. 27, the server 201 may check at least a part of at least one text based on emphasis information previously stored as at least a part of operation 2507. For example, if the server 201 checks at least one text based on the user's voice (eg Bixby is currently absent. Please leave a message after the “beep-” sounds). The information (eg, “beep-”) may be checked, and at least a part (eg, “beep-”) of at least one text corresponding to the checked highlight information may be checked. The server 201 may highlight at least a part of the identified at least one text. However, the present invention is not limited to the above description, and the server 201 may check answer information related to at least one text that does not include the emphasized text corresponding to the emphasis information of the user voice based on the user voice information.

다양한 실시예들에 따르면, 서버(201)는 2508 동작에서 전자장치(101)로 답변 정보를 전달하도록 통신 모듈을 제어할 수 있다. 전자장치(101)는 2509 동작에서 답변 정보를 기반으로, 적어도 하나 이상의 텍스트(예: 디스플레이를 통한 출력 또는 오디오를 통한 출력)를 출력할 수 있다. 예를 들어, 전자장치(101)는 도 26에 도시된 바와 같이 적어도 하나 이상의 텍스트 중 적어도 일부(예: 두 시로)를 강조(예: 시각적인 방법에 의한 강조 또는 청각적인 방법에 의한 강조)하여 출력할 수 있다. 또 예를 들어, 전자장치(101)는 도 27에 도시된 바와 같이 적어도 하나 이상의 텍스트 중 적어도 일부(예: "삐-")를 강조(예: 시각적인 방법에 의한 강조 또는 청각적인 방법에 의한 강조)하여 출력할 수 있다.According to various embodiments, the server 201 may control the communication module to transmit answer information to the electronic device 101 in operation 2508. In operation 2509, the electronic device 101 may output at least one text (eg, output through a display or output through audio) based on the response information. For example, as illustrated in FIG. 26, the electronic device 101 highlights at least a part (eg, two o'clock) of at least one text (eg, emphasis by visual means or emphasis by audible method). Can print For example, as illustrated in FIG. 27, the electronic device 101 emphasizes at least a part (eg, “beep”) of at least one text (eg, a visual method or an aural method). Emphasis).

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 또 다른 예에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, another example of the electronic device 101 and its control method according to various embodiments will be described. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 사용자 음성의 강조 정보에 대응하는 텍스트를 지정된 순서로 출력할 수 있다. 이하에서는, 전자장치(101)의 사용자 음성의 강조 정보에 대응하는 텍스트를 지정된 순서로 출력하는 동작에 대해서, 도 28 및 도 29를 참조하여 설명한다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) may output text corresponding to emphasis information of the user's voice in a designated order. Hereinafter, the operation of outputting the text corresponding to the emphasis information of the user's voice of the electronic device 101 in a specified order will be described with reference to FIGS. 28 and 29.

도 28은 다양한 실시예들에 따른, 전자장치(101)의 텍스트를 지정된 순서로 출력하는 동작을 설명하기 위한 흐름도(2800)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 28에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 28에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 도 28에 도시되는 전자장치(101)의 동작들 보다 더 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는, 도 29를 참조하여 도 28에 대해서 설명한다. 28 is a flowchart 2800 illustrating an operation of outputting text of the electronic device 101 in a specified order according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 28, but may be performed in a different order from the order shown. In addition, according to various embodiments, more operations than the operations of the electronic device 101 shown in FIG. 28 are performed, or at least one or more operations less than those of the electronic device 101 shown in FIG. 28. The operation may be performed. Hereinafter, FIG. 28 will be described with reference to FIG. 29.

도 29는 다양한 실시예들에 따른, 전자장치(101)의 텍스트를 지정된 순서로 출력하는 동작을 설명하기 위한 도면이다.29 is a diagram for describing an operation of outputting text of the electronic device 101 in a specified order according to various embodiments.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 2801 동작에서 사용자 음성을 획득하도록 마이크를 제어하고, 2802 동작에서 서버(201)로부터 적어도 하나 이상의 텍스트에 관한 답변에 대한 정보를 수신할 수 있다. 예를 들어, 전자장치(101)는 도 29(b)에 도시된 바와 같이 "일정 저장해줘. 내일 9시에 업체 미팅!"라는 사용자 음성(2901)을 획득할 수 있다. 전자장치(101)는 사용자 음성(2901)을 서버(201)로 전달하고, 서버(201)로부터 상기 사용자 음성(2901)에 포함된 강조 정보(예: "업체 미팅!")에 대응하도록 강조된 텍스트에 관한 답변 정보를 수신할 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) controls the microphone to acquire a user voice in operation 2801, and transmits to the at least one text from the server 201 in operation 2802. You can receive information about the answers. For example, as shown in FIG. 29(b), the electronic device 101 may obtain a user voice 2901 saying "Please save a schedule. At 9:00 tomorrow, a business meeting!" The electronic device 101 delivers the user voice 2901 to the server 201, and the text highlighted from the server 201 to correspond to the emphasis information (eg, "business meeting!") included in the user voice 2901 You can receive answer information about.

다양한 실시예들에 따르면, 서버(201)는 사용자 음성을 기반으로 사용자 음성의 강조 정보(예: 업체 미팅!)를 확인하고, 사용자 음성의 의미 정보(예: "2018/xx/xx", "오전 9시", "일정 저장", "업체 미팅")를 확인하고, 사용자 음성의 강조 정보에 대응하는 사용자 음성의 의미 정보 중 적어도 일부(예: "업체 미팅")를 확인할 수 있다. 서버(201)는 사용자 음성의 의미 정보에 대응하는 적어도 하나 이상의 텍스트를 확인하고, 확인된 의미 정보 중 적어도 일부에 대응하는 적어도 하나 이상의 텍스트의 적어도 일부를 강조할 수 있다. 예를 들어, 서버(201)는 강조된 적어도 하나 이상의 텍스트의 적어도 일부가 지정된 순서로 출력되도록 답변 정보를 확인할 수 있다. 예를 들어, 서버(201)는 상기 강조된 적어도 하나 이상의 텍스트의 적어도 일부가 디스플레이를 통해 표시되는 경우, 문장 내에서 지정된 순서(예: 텍스트 중 "네, "라는 단어를 제외한 가장 앞 순서)에 표시되도록 할 수 있다. 예를 들어, 서버(201)는 상기 강조된 적어도 하나 이상의 텍스트의 적어도 일부가 오디오 장치를 통해 출력되는 경우, 지정된 순서(예: 텍스트 중 "네, "라는 단어를 제외한 가장 앞 순서)로 오디오 장치를 통해 출력되도록 할 수 있다.According to various embodiments, the server 201 checks emphasis information (eg, a business meeting!) of the user voice based on the user voice, and semantic information of the user voice (eg, “2018/xx/xx”,” 9:00 am", "schedule storage", "business meeting"), and at least some of the meaning information of the user voice corresponding to the highlight information of the user voice (eg, "business meeting"). The server 201 may check at least one text corresponding to the meaning information of the user's voice, and highlight at least a portion of the at least one text corresponding to at least some of the identified meaning information. For example, the server 201 may check the answer information so that at least a part of the highlighted at least one text is output in a designated order. For example, when at least a portion of the highlighted at least one text is displayed through the display, the server 201 is displayed in a designated order within a sentence (eg, the earliest order excluding the word "yes," among texts) It can be done. For example, when at least a portion of the highlighted at least one text is output through the audio device, the server 201 searches the audio devices in a designated order (for example, the earliest order excluding the word "yes," among text). Output.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 2803 동작에서 도 29 (b)에 도시된 바와 같이 수신된 답변 정보를 기반으로, 출력되는 텍스트 중 강조 정보에 대응하는 적어도 일부를 지정된 순서로 출력(예: 지정된 순서로 문장 내에 표시 또는 지정된 순서로 오디오로 출력)할 수 있다. 이에 따라 도 29 (a)에 도시된 바와 같이 사용자 음성(2901)에 강조 정보가 포함되지 않는 경우에 텍스트의 적어도 일부가 표시되는 순서에 비하여, 더 앞의 순서로 문장 내에 표시되거나 더 빠른 순서로 음성으로 출력되도록 할 수 있다. According to various embodiments, the electronic device 101 (eg, the at least one processor 120) is highlighted in the text output based on the received answer information as shown in FIG. 29(b) in operation 2803. At least a portion corresponding to the information may be output in a specified order (eg, displayed in a sentence in a specified order or output in audio in a specified order). Accordingly, as shown in FIG. 29(a), when the user's voice 2901 does not include emphasis information, it is displayed in a sentence in an earlier order or in a faster order compared to an order in which at least a part of the text is displayed. It can be output by voice.

이하에서는, 다양한 실시예들에 따른 전자장치(101) 및 그 제어 방법의 또 다른 예에 대해서 설명한다. 한편 이하에서, 상술한 전자장치(101)의 동작과 관련된 중복되는 설명은 생략한다.Hereinafter, another example of the electronic device 101 and its control method according to various embodiments will be described. Meanwhile, hereinafter, overlapping descriptions related to the operation of the electronic device 101 will be omitted.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 사용자 음성의 강조 정보에 대응하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드 및 적어도 하나 이상의 텍스트에 관한 답변 정보를 수신하여, 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행하고, 수신된 답변 정보를 기반으로 텍스트를 출력할 수 있다. 이하에서는, 전자장치(101)의 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행하고, 수신된 답변 정보를 기반으로 텍스트를 출력하는 동작에 대해서, 도 30 및 도 31을 참조하여 설명한다.According to various embodiments, the electronic device 101 (eg, the at least one processor 120) includes commands for performing at least one operation corresponding to emphasis information of a user's voice, and response information regarding at least one text To receive, perform at least one or more operations based on the received command, and output text based on the received answer information. Hereinafter, an operation of performing at least one operation based on the received command of the electronic device 101 and outputting text based on the received answer information will be described with reference to FIGS. 30 and 31.

도 30은 다양한 실시예들에 따른, 전자장치(101)의 적어도 하나 이상의 동작을 수행하고, 텍스트를 출력하는 동작을 설명하기 위한 흐름도(3000)이다. 다양한 실시예들에 따르면, 전자장치(101)의 동작은 도 30에 도시되는 전자장치(101)의 동작의 순서에 국한되지 않고, 도시되는 순서와 다른 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면, 도 30에 도시되는 전자장치(101)의 동작들 보다 더 많은 동작들이 수행되거나, 또는 도 30에 도시되는 전자장치(101)의 동작들 보다 더 적은 적어도 하나 이상의 동작이 수행될 수도 있다. 이하에서는, 도 31을 참조하여 도 30에 대해서 설명한다. 30 is a flowchart 3000 illustrating an operation of performing at least one operation of the electronic device 101 and outputting text, according to various embodiments. According to various embodiments, the operation of the electronic device 101 is not limited to the order of the operation of the electronic device 101 shown in FIG. 30, and may be performed in a different order from the order shown. In addition, according to various embodiments, more operations than the operations of the electronic device 101 shown in FIG. 30 are performed, or at least one or more operations less than those of the electronic device 101 shown in FIG. 30. The operation may be performed. Hereinafter, FIG. 30 will be described with reference to FIG. 31.

도 31은 다양한 실시예들에 따른, 전자장치(101)의 적어도 하나 이상의 동작을 수행하고, 텍스트를 출력하는 동작을 설명하기 위한 도면이다.31 is a view for explaining an operation of performing at least one operation of the electronic device 101 and outputting text, according to various embodiments.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 3001 동작에서 사용자 음성을 획득하도록 마이크를 제어하고, 3002 동작에서 서버(201)로부터 적어도 하나 이상의 텍스트에 관한 답변 정보를 수신할 수 있다. 예를 들어, 전자장치(101)는 도 31 (b)에 도시된 바와 같이 "여기가 어디지? 여긴 와도 와도 진짜 모르겠네. "라는 사용자 음성(3101)을 획득할 수 있다. 전자장치(101)는 사용자 음성(3201)을 서버(201)로 전달하고, 서버(201)로부터 상기 사용자 음성(3201)의 강조 정보(예: 와도 와도 진짜)에 대응하는 제 1 동작을 포함하는 적어도 하나 이상의 동작을 수행하기 위한 커맨드 및 상기 사용자 음성의 강조 정보에 대응하여 강조된 텍스트를 포함하는 적어도 하나 이상의 텍스트에 관한 답변 정보를 수신할 수 있다.According to various embodiments, the electronic device 101 (eg, the at least one processor 120) controls the microphone to acquire a user voice in operation 3001, and transmits to the at least one text from the server 201 in operation 3002. You can receive information about answers. For example, as shown in FIG. 31(b), the electronic device 101 may obtain a user voice 3101, “Where am I here? The electronic device 101 transmits the user's voice 3201 to the server 201, and includes a first operation corresponding to the emphasis information (for example, even if it is true) of the user's voice 3201 from the server 201 Response information regarding at least one or more texts may be received, including commands for performing at least one or more operations and texts highlighted in response to the emphasis information of the user voice.

다양한 실시예들에 따르면, 서버(201)는 사용자 음성을 기반으로 사용자 음성의 강조 정보(예: 와도 와도 진짜)를 확인하고, 사용자 음성의 의미 정보(예: "현재 장소", "출력")를 확인하고, 사용자 음성의 강조 정보에 대응하는 사용자 음성의 의미 정보의 적어도 일부(예: "현재 장소")를 확인할 수 있다. 서버(201)는 사용자 음성의 의미 정보에 대응하는 적어도 하나 이상의 텍스트(예: "네 서울시 서초구 성촌길 33 삼성전자 서울 R&D 센터에요")를 확인하고, 확인된 의미 정보 중 적어도 일부에 대응하는 적어도 하나 이상의 텍스트의 적어도 일부(예: "서울시 서초구 성촌길 33 삼성전자 서울 R&D 센터")를 강조할 수 있다. 또 서버(201)는 인된 의미 정보 중 적어도 일부에 대응하는 제 1 동작(예: "지도 어플리케이션 상에 현재 위치를 강조하여 표시")을 포함하는 적어도 하나 이상의 동작(예: "지도 어플리케이션 실행", "지도 어플리케이션 상에 현재 위치를 강조하여 표시")을 수행하기 위한 커맨드를 확인할 수 있다.According to various embodiments, the server 201 checks emphasis information of the user's voice based on the user's voice (eg, even if it is real) and semantic information of the user's voice (eg, “current place”, “output”) , And at least a part (eg, “current place”) of semantic information of the user voice corresponding to the emphasis information of the user voice. The server 201 checks at least one text corresponding to the meaning information of the user's voice (for example, "Yes, it is the Seoul R&D Center of Samsung Electronics 33, Seongchon-gil, Seocho-gu, Seoul") It is possible to emphasize at least part of one or more texts (eg, “Seoul R&D Center, Samsung Electronics, 33 Seongchon-gil, Seocho-gu, Seoul”). In addition, the server 201 may include at least one or more operations (eg, “execute the map application”) including a first operation corresponding to at least some of the recognized semantic information (eg, “highlighting the current location on the map application”). , You can check the command for performing "Highlight the current location on the map application").

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 3003 동작에서 도 31 (b)에 도시된 바와 같이 수신된 답변 정보를 기반으로, 출력되는 적어도 하나 이상의 텍스트(3103) 중 사용자 음성의 강조 정보에 대응하는 적어도 일부가 강조되도록 표시할 수 있다. According to various embodiments, the electronic device 101 (eg, at least one processor 120) may output at least one or more output based on the received answer information as shown in FIG. 31(b) in operation 3003. At least a portion of the text 3103 corresponding to the emphasis information of the user's voice may be displayed to be emphasized.

다양한 실시예들에 따르면, 전자장치(101)(예: 적어도 하나의 프로세서(120))는 3004 동작에서 도 31 (b)에 도시된 바와 같이 수신된 커맨드를 기반으로 사용자 음성의 강조 정보에 대응하는 정보(3104)를 실행된 어플리케이션의 화면에 표시하도록 디스플레이를 제어할 수 있다. 예를 들어, 전자장치(101)는, 수신된 커맨드를 기반으로 지도 어플리케이션을 실행하고, 사용자 음성의 강조 정보에 대응하는 정보(3104)(예: 현재 위치 정보)를 강조하여 실행된 지도 어플리케이션의 화면에 표시하도록 디스플레이를 제어할 수 있다. 이에 따라 도 31 (a)에 도시된 바와 같이 사용자 음성(3102)에 강조 정보가 포함되지 않는 경우에 비하여, 시각적으로 더 강조된 컨텐츠가 제공될 수 있다.According to various embodiments, the electronic device 101 (eg, at least one processor 120) corresponds to emphasis information of the user's voice based on the received command as shown in FIG. 31(b) in operation 3004. The display can be controlled to display the information 3104 on the screen of the executed application. For example, the electronic device 101 executes a map application based on the received command, and highlights information 3104 (for example, current location information) corresponding to the user's voice emphasis information. The display can be controlled to display on the screen. Accordingly, as illustrated in FIG. 31(a), the content more visually emphasized may be provided as compared to the case where the emphasis information is not included in the user voice 3102.

도 32 내지 34에서는, 본 발명의 다양한 실시예에 의한 전자장치(예: 전자장치(101)) 또는 외부 서버(예: 외부 서버(600))가 적용될 수 있는 통합 지능화 시스템에 대하여 설명한다.32 to 34, an integrated intelligent system to which an electronic device (for example, the electronic device 101) or an external server (for example, the external server 600) according to various embodiments of the present disclosure can be applied will be described.

도 32는 다양한 실시 예에 따른 통합 지능화 시스템을 나타낸 도면이다.32 is a diagram illustrating an integrated intelligent system according to various embodiments of the present disclosure.

도 32을 참조하면, 통합 지능화 시스템(3200)은 사용자 단말(3210)(예: 전자장치(101)), 지능형 서버(3220), 개인화 정보 서버(3230) 또는 제안 서버(3240)를 포함할 수 있다. 지능형 서버(3220), 개인화 정보 서버(3230) 또는 제안 서버(3240) 중 적어도 하나는 상술한 외부 서버(600)에 포함될 수 있다.Referring to FIG. 32, the integrated intelligent system 3200 may include a user terminal 3210 (eg, an electronic device 101), an intelligent server 3220, a personalization information server 3230, or a suggestion server 3240. have. At least one of the intelligent server 3220, the personalized information server 3230, or the proposal server 3240 may be included in the external server 600 described above.

사용자 단말(3210)은 사용자 단말(3210) 내부에 저장된 어플리케이션(app)(또는, 어플리케이션 프로그램(application program))(예: 알람 어플리케이션, 메시지 어플리케이션, 사진(갤러리) 어플리케이션 등)을 통해 사용자에게 필요한 서비스를 제공할 수 있다. 예를 들어, 사용자 단말(3210)은 사용자 단말(3210) 내부에 저장된 지능형 어플리케이션(또는, 음성 인식 어플리케이션)을 통해 다른 어플리케이션을 실행하고 동작시킬 수 있다. 사용자 단말(3210)의 상기 지능형 어플리케이션을 통해 상기 다른 어플리케이션의 실행하고 동작을 실행시키기 위한 사용자 입력을 수신할 수 있다. 상기 사용자 입력은, 예를 들어, 물리적 버튼, 터치 패드, 음성 입력, 원격 입력 등을 통해 수신될 수 있다. 다양한 실시예들에 따르면, 사용자 단말(3210)은 휴대폰, 스마트폰, PDA(personal digital assistant) 또는 노트북 컴퓨터 등 인터넷에 연결 가능한 각종 단말 장치(또는, 전자장치)가 이에 해당될 수 있다.The user terminal 3210 is a service required for a user through an application (or an application program) stored in the user terminal 3210 (eg, an alarm application, a message application, a photo (gallery) application, and the like). Can provide. For example, the user terminal 3210 may execute and operate other applications through an intelligent application (or voice recognition application) stored in the user terminal 3210. Through the intelligent application of the user terminal 3210, a user input for executing and executing an operation of the other application may be received. The user input may be received through, for example, a physical button, a touch pad, voice input, remote input, or the like. According to various embodiments, the user terminal 3210 may correspond to various terminal devices (or electronic devices) that can be connected to the Internet, such as a mobile phone, a smart phone, a personal digital assistant (PDA), or a notebook computer.

다양한 실시예들에 따르면, 사용자 단말(3210)은 사용자의 발화를 사용자 입력으로 수신할 수 있다. 사용자 단말(3210)은 사용자의 발화를 수신하고, 상기 사용자의 발화에 기초하여 어플리케이션을 동작시키는 명령을 생성할 수 있다. 이에 따라, 사용자 단말(3210)은 상기 명령을 이용하여 상기 어플리케이션을 동작시킬 수 있다.According to various embodiments, the user terminal 3210 may receive a user's speech as a user input. The user terminal 3210 may receive a user's utterance and generate a command to operate an application based on the user's utterance. Accordingly, the user terminal 3210 may operate the application using the command.

지능형 서버(3220)는 통신망을 통해 사용자 단말(3210)로부터 사용자 음성 입력(voice input)(예: 사용자 발화)을 수신하여 텍스트 데이터(text data)로 변경할 수 있다. 다른 실시 예에서는, 지능형 서버(3220)는 상기 텍스트 데이터에 기초하여 패스 룰(path rule)(예: 액션 시퀀스)을 생성(또는, 선택)할 수 있다. 상기 패스 룰은 어플리케이션의 기능을 수행하기 위한 동작(action)(또는, 오퍼레이션(operation) 또는 태스크(task))에 대한 정보 또는 상기 동작을 실행하기 위해 필요한 파라미터에 대한 정보를 포함할 수 있다. 또한, 상기 패스 룰은 상기 어플리케이션의 상기 동작의 순서를 포함할 수 있다. 사용자 단말(3210)은 상기 패스 룰을 수신하고, 상기 패스 룰에 따라 어플리케이션을 선택하고, 상기 선택된 어플리케이션에서 상기 패스 룰에 포함된 동작을 실행시킬 수 있다.The intelligent server 3220 may receive a user voice input (eg, user speech) from the user terminal 3210 through a communication network and change it to text data. In another embodiment, the intelligent server 3220 may generate (or select) a path rule (eg, action sequence) based on the text data. The pass rule may include information on an action (or operation or task) for performing a function of an application or information on parameters required to execute the action. Also, the pass rule may include an order of the operation of the application. The user terminal 3210 may receive the pass rule, select an application according to the pass rule, and execute an operation included in the pass rule in the selected application.

예를 들어, 사용자 단말(3210)은 상기 동작을 실행하고, 동작을 실행한 사용자 단말(3210)의 상태에 대응되는 화면를 디스플레이에 표시할 수 있다. 다른 예를 들어, 사용자 단말(3210)은 상기 동작을 실행하고, 동작을 수행한 결과를 디스플레이에 표시하지 않을 수 있다. 사용자 단말(3210)은, 예를 들어, 복수의 동작을 실행하고, 상기 복수의 동작의 일부 결과 만을 디스플레이에 표시할 수 있다. 사용자 단말(3210)은, 예를 들어, 마지막 순서의 동작을 실행한 결과만을 디스플레이에 표시할 수 있다. 또 다른 예를 들어, 사용자 단말(3210)은 사용자의 입력을 수신하여 상기 동작을 실행한 결과를 디스플레이에 표시할 수 있다.For example, the user terminal 3210 may execute the above operation and display a screen corresponding to the state of the user terminal 3210 that executed the operation on the display. For another example, the user terminal 3210 may execute the operation and may not display the result of performing the operation on the display. The user terminal 3210 may, for example, execute a plurality of operations and display only partial results of the plurality of operations on the display. The user terminal 3210 may, for example, display only the result of executing the last sequence of operations on the display. For another example, the user terminal 3210 may receive a user input and display the result of executing the operation on the display.

개인화 정보 서버(3230)는 사용자 정보가 저장된 데이터베이스를 포함할 수 있다. 예를 들어, 개인화 정보 서버(3230)는 사용자 단말(3210)로부터 사용자 정보(예: 컨텍스트 정보, 어플리케이션 실행 등)를 수신하여 상기 데이터베이스에 저장할 수 있다. 지능형 서버(3220)는 통신망을 통해 개인화 정보 서버(3230)로부터 상기 사용자 정보를 수신하여 사용자 입력에 대한 패스 룰을 생성하는 경우에 이용할 수 있다. 다양한 실시예들에 따르면, 사용자 단말(3210)은 통신망을 통해 개인화 정보 서버(3230)로부터 사용자 정보를 수신하여 데이터베이스를 관리하기 위한 정보로 이용할 수 있다.The personalized information server 3230 may include a database in which user information is stored. For example, the personalization information server 3230 may receive user information (eg, context information, application execution, etc.) from the user terminal 3210 and store it in the database. The intelligent server 3220 may be used when receiving the user information from the personalized information server 3230 through a communication network to generate a pass rule for user input. According to various embodiments, the user terminal 3210 may receive user information from the personalized information server 3230 through a communication network and use it as information for managing the database.

제안 서버(3240)는 단말 내에 기능 혹은 어플리케이션의 소개 또는 제공될 기능에 대한 정보가 저장된 데이터베이스를 포함할 수 있다. 예를 들어, 제안 서버(3240)는 개인화 정보 서버(3230)로부터 사용자 단말(3210)의 사용자 정보를 수신하여 사용자가 사용 할 수 있는 기능에 대한 데이터베이스를 포함 할 수 있다. 사용자 단말(3210)은 통신망을 통해 제안 서버(3240)로부터 상기 제공될 기능에 대한 정보를 수신하여 사용자에게 정보를 제공할 수 있다.The proposal server 3240 may include a database in which information about a function or application to be provided or function to be provided is stored in the terminal. For example, the proposal server 3240 may receive a user information of the user terminal 3210 from the personalization information server 3230 and include a database of functions that a user can use. The user terminal 3210 may receive information on the function to be provided from the proposal server 3240 through a communication network and provide information to the user.

도 33은 다양한 실시예들에 따른 통합 지능화 시스템의 사용자 단말을 나타낸 블록도이다.33 is a block diagram illustrating a user terminal of an integrated intelligent system according to various embodiments.

도 33를 참조하면, 사용자 단말(3210)은 입력 모듈(3310)(예: 마이크(288) 또는 입력 장치(250)), 디스플레이(3320)(예: 디스플레이(160 또는 260)), 스피커(4320)(예: 스피커(282)), 메모리(3340)(예: 메모리(130) 또는 메모리(230)) 또는 프로세서(3350)(예: 프로세서(120 또는 210))을 포함할 수 있다. 사용자 단말(3210)은 하우징을 더 포함할 수 있고, 상기 사용자 단말(3210)의 구성들은 상기 하우징의 내부에 안착되거나 하우징 상에(on the housing) 위치할 수 있다.Referring to FIG. 33, the user terminal 3210 includes an input module 3310 (eg, a microphone 288 or an input device 250), a display 3320 (eg, a display 160 or 260), a speaker 4320 ) (Eg, speaker 282), memory 3340 (eg, memory 130 or memory 230) or processor 3350 (eg, processor 120 or 210). The user terminal 3210 may further include a housing, and components of the user terminal 3210 may be seated inside the housing or may be located on the housing.

다양한 실시예들에 따른, 입력 모듈(3310)은 사용자로부터 사용자 입력을 수신할 수 있다. 예를 들어, 입력 모듈(3310)은 연결된 외부 장치(예: 키보드, 헤드셋)로부터 사용자 입력을 수신할 수 있다. 다른 예를 들어, 입력 모듈(3310)은 디스플레이(3320)와 결합된 터치 스크린(예: 터치 스크린 디스플레이)을 포함할 수 있다. 또 다른 예를 들어, 입력 모듈(3310)은 사용자 단말(3210)(또는, 사용자 단말(3210)의 하우징)에 위치한 하드웨어 키(또는, 물리적 키)를 포함할 수 있다.According to various embodiments, the input module 3310 may receive user input from a user. For example, the input module 3310 may receive user input from a connected external device (eg, keyboard, headset). For another example, the input module 3310 may include a touch screen (eg, a touch screen display) combined with the display 3320. For another example, the input module 3310 may include a hardware key (or a physical key) located in the user terminal 3210 (or the housing of the user terminal 3210).

다양한 실시예들에 따르면, 입력 모듈(3310)은 사용자의 발화를 음성 신호로 수신할 수 있는 마이크(3311)를 포함할 수 있다. 예를 들어, 입력 모듈(3310)은 발화 입력 시스템(speech input system)을 포함하고, 상기 발화 입력 시스템을 통해 사용자의 발화를 음성 신호로 수신할 수 있다.According to various embodiments, the input module 3310 may include a microphone 3311 capable of receiving a user's speech as a voice signal. For example, the input module 3310 includes a speech input system and may receive a user's speech as a voice signal through the speech input system.

다양한 실시예들에 따른, 디스플레이(3320)는 이미지나 비디오, 및/또는 어플리케이션의 실행 화면을 표시할 수 있다. 예를 들어, 디스플레이(3320)는 어플리케이션의 그래픽 사용자 인터페이스(graphic user interface)(GUI)를 표시할 수 있다.According to various embodiments, the display 3320 may display an image, a video, and/or an execution screen of an application. For example, the display 3320 may display a graphical user interface (GUI) of the application.

다양한 실시예들에 따르면, 스피커(4320)는 음성 신호를 출력할 수 있다. 예를 들어, 스피커(4320)는 사용자 단말(3210) 내부에서 생성된 음성 신호를 외부로 출력할 수 있다.According to various embodiments, the speaker 4320 may output a voice signal. For example, the speaker 4320 may output a voice signal generated inside the user terminal 3210 to the outside.

다양한 실시예들에 따르면, 메모리(3340)는 복수의 어플리케이션(3341, 3343)을 저장할 수 있다. 메모리(3340)에 저장된 복수의 어플리케이션(3341, 3343)은 사용자 입력에 따라 선택되어 실행되고 동작할 수 있다.According to various embodiments, the memory 3340 may store a plurality of applications 3331 and 3343. The plurality of applications 3331 and 3343 stored in the memory 3340 may be selected, executed, and operated according to user input.

다양한 실시예들에 따르면, 메모리(3340)는 사용자 입력을 인식하는데 필요한 정보를 저장할 수 있는 데이터베이스를 포함할 수 있다. 예를 들어, 메모리(3340)은 로그(log) 정보를 저장할 수 있는 로그 데이터베이스를 포함할 수 있다. 다른 예를 들어, 메모리(3340)는 사용자 정보를 저장할 수 있는 페르소나 데이터베이스를 포함할 수 있다.According to various embodiments, the memory 3340 may include a database capable of storing information necessary to recognize a user input. For example, the memory 3340 may include a log database capable of storing log information. For another example, the memory 3340 may include a persona database that can store user information.

다양한 실시예들에 따르면, 메모리(3340)는 복수의 어플리케이션(3341, 3343)을 저장하고, 복수의 어플리케이션(3341, 3343)은 로드되어 동작할 수 있다. 예를 들어, 메모리(3340)에 저장된 복수의 어플리케이션(3341,132)은 프로세서(3350)의 실행 매니저 모듈(3353)에 의해 로드되어 동작할 수 있다. 복수의 어플리케이션(3341, 3343)은 기능을 수행하는 실행 서비스(3341a, 3343a) 또는 복수의 동작(또는, 단위 동작)(3341b, 3343b)을 포함할 수 있다. 실행 서비스(3341a, 3343a)는 프로세서(3350)의 실행 매니저 모듈(3353)에 의해 생성되고, 복수의 동작 (3341b, 3343b)을 실행할 수 있다.According to various embodiments, the memory 3340 stores a plurality of applications 3331 and 3343, and the plurality of applications 3331 and 3343 may be loaded and operated. For example, the plurality of applications 3331 and 132 stored in the memory 3340 may be loaded and operated by the execution manager module 3355 of the processor 3350. The plurality of applications 3331 and 3343 may include execution services 3331a and 3343a that perform functions or a plurality of operations (or unit operations) 3331b and 3343b. The execution services 3331a and 3343a are generated by the execution manager module 3335 of the processor 3350, and may execute a plurality of operations 3331b and 3343b.

다양한 실시예들에 따르면, 어플리케이션(3341, 3343)의 동작(3341b, 3343b)이 실행되었을 때, 동작(3341b, 3343b)의 실행에 따른 실행 상태 화면은 디스플레이(3320)에 표시될 수 있다. 상기 실행 상태 화면은, 예를 들어, 동작(3341b, 3343b)이 완료된 상태의 화면일 수 있다. 상기 실행 상태 화면은, 다른 예를 들어, 동작(3341b, 3343b)의 실행이 정지된 상태(partial landing)(예: 동작(3341b, 3343b)에 필요한 파라미터가 입력되지 않은 경우)의 화면일 수 있다.According to various embodiments, when the operations 3331b and 3343b of the applications 3331 and 3343 are executed, the execution status screen according to the execution of the operations 3331b and 3343b may be displayed on the display 3320. The execution status screen may be, for example, a screen in which the operations 3331b and 3343b have been completed. The execution status screen may be, for example, a screen in which the execution of operations 3331b and 3343b is stopped (eg, when parameters required for operations 3331b and 3343b are not input). .

다양한 실시예들에 따른, 실행 서비스(3341a, 3343a)는 패스 룰에 따라 동작(3341b, 3343b)을 실행할 수 있다. 예를 들어, 실행 서비스(3341a, 3343a)는 실행 매니저 모듈(3353)에 의해 생성되고, 실행 매니저 모듈(3353)로부터 상기 패스 룰에 따라 실행 요청을 수신하고, 상기 실행 요청에 따라 동작(3341b, 3343b)을 어플리케이션(3341, 3343)의 동작을 실행할 수 있다. 실행 서비스(3341a, 3343a)는 상기 동작(3341b, 3343b)의 수행이 완료되면 완료 정보를 실행 매니저 모듈(3353)로 송신할 수 있다.According to various embodiments, the execution services 3331a and 3343a may execute operations 3331b and 3343b according to a pass rule. For example, the execution services 3331a and 3343a are generated by the execution manager module 3335, receive an execution request according to the pass rule from the execution manager module 3335, and operate 341b according to the execution request. 3343b) may execute the operations of the applications 3331 and 3343. The execution services 3331a and 3343a may transmit completion information to the execution manager module 3335 when the operations 3331b and 3343b are completed.

다양한 실시예들에 따르면, 어플리케이션(3341, 3343)에서 복수의 동작(3341b, 3343b)이 실행되는 경우, 복수의 동작(3341b, 3343b)은 순차적으로 실행될 수 있다. 실행 서비스(3341a, 3343a)는 하나의 동작(동작 1)의 실행이 완료되면 다음 동작(동작 2)을 오픈하고 완료 정보를 실행 매니저 모듈(3353)로 송신할 수 있다. 여기서 임의의 동작을 오픈한다는 것은, 임의의 동작을 실행 가능한 상태로 천이시키거나, 임의의 동작의 실행을 준비하는 것으로 이해될 수 있다. 다시 말해서, 임의의 동작이 오픈되지 않으면, 해당 동작은 실행될 수 없다. 실행 매니저 모듈(3353)은 상기 완료 정보가 수신되면 다음 동작(3341b, 3343b)에 대한 실행 요청을 실행 서비스(예: 동작 2)로 송신할 수 있다. 다양한 실시예들에 따르면, 복수의 어플리케이션(3341, 3343)이 실행되는 경우, 복수의 어플리케이션(3341, 3343)은 순차적으로 실행될 수 있다. 예를 들어, 제 1 어플리케이션(3341)의 마지막 동작의 실행이 완료되어 완료 정보를 수신하면, 실행 매니저 모듈(3353)은 제 2 어플리케이션(3343)의 첫번째 동작의 실행 요청을 실행 서비스(3343a)로 송신할 수 있다.According to various embodiments, when a plurality of operations 3331b and 3343b are executed in the applications 3331 and 3343, the plurality of operations 3331b and 3343b may be sequentially executed. When the execution of one operation (operation 1) is completed, the execution services 3331a and 3343a may open the next operation (operation 2) and transmit the completion information to the execution manager module 3335. Here, opening an arbitrary operation may be understood as transitioning the arbitrary operation to an executable state or preparing for execution of the arbitrary operation. In other words, if any operation is not opened, the operation cannot be executed. When the completion information is received, the execution manager module 3335 may transmit an execution request for the next operations 3331b and 3343b to the execution service (eg, operation 2). According to various embodiments, when a plurality of applications 3331 and 3343 are executed, the plurality of applications 3331 and 3343 may be sequentially executed. For example, when execution of the last operation of the first application 3331 is completed and the completion information is received, the execution manager module 3335 sends an execution request of the first operation of the second application 3333 to the execution service 3333a. I can send it.

다양한 실시예들에 따르면, 어플리케이션(3341, 3343)에서 복수의 동작(3341b, 3343b)이 실행된 경우, 상기 실행된 복수의 동작(3341b, 3343b) 각각의 실행에 따른 결과 화면은 디스플레이(3320)에 표시될 수 있다. 다양한 실시예들에 따르면, 상기 실행된 복수의 동작(3341b, 3343b)의 실행에 따른 복수의 결과 화면 중 일부만 디스플레이(3320)에 표시될 수 있다.According to various embodiments, when a plurality of operations 3331b and 3343b are executed in the applications 3331 and 3343, a result screen according to each execution of the plurality of operations 3331b and 3343b is displayed 3320 Can be displayed on. According to various embodiments, only a part of the plurality of result screens according to execution of the executed plurality of operations 3331b and 3343b may be displayed on the display 3320.

다양한 실시예들에 따르면, 메모리(3340)는 지능형 에이전트(3351)와 연동된 지능형 어플리케이션(예: 음성 인식 어플리케이션)을 저장할 수 있다. 지능형 에이전트(3351)와 연동된 어플리케이션은 사용자의 발화를 음성 신호로 수신하여 처리할 수 있다. 다양한 실시예들에 따르면, 지능형 에이전트(3351)와 연동된 어플리케이션은 입력 모듈(3310)을 통해 입력되는 특정 입력(예: 하드웨어 키를 통한 입력, 터치 스크린을 통한 입력, 특정 음성 입력)에 의해 동작될 수 있다.According to various embodiments, the memory 3340 may store an intelligent application (eg, a voice recognition application) associated with the intelligent agent 3351. The application associated with the intelligent agent 3351 may receive and process a user's speech as a voice signal. According to various embodiments, the application associated with the intelligent agent 3351 operates by a specific input (eg, input through a hardware key, input through a touch screen, specific voice input) input through the input module 3310. Can be.

다양한 실시예들에 따르면, 프로세서(3350)는 사용자 단말(3210)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(3350)는 입력 모듈(3310)을 제어하여 사용자 입력을 수신할 수 있다. 프로세서(3350)는 디스플레이(3320)를 제어하여 이미지를 표시할 수 있다. 프로세서(3350)는 스피커(4320)를 제어하여 음성 신호를 출력할 수 있다. 프로세서(3350)는 메모리(3340)를 제어하여 필요한 정보를 불러오거나 저장할 수 있다.According to various embodiments, the processor 3350 may control the overall operation of the user terminal 3210. For example, the processor 3350 may control the input module 3310 to receive a user input. The processor 3350 may control the display 3320 to display an image. The processor 3350 may control the speaker 4320 to output a voice signal. The processor 3350 controls the memory 3340 to load or store necessary information.

다양한 실시예들에 따르면 프로세서(3350)는 지능형 에이전트(3351), 실행 매니저 모듈(3353) 또는 지능형 서비스 모듈(3355)를 포함할 수 있다. 다양한 실시예들에서, 프로세서(3350)는 메모리(3340)에 저장된 명령어들을 실행하여 지능형 에이전트(3351), 실행 매니저 모듈(3353) 또는 지능형 서비스 모듈(3355)을 구동시킬 수 있다. 본 발명의 다양한 실시 예에서 언급되는 여러 모듈들은 하드웨어로 구현될 수도 있고, 소프트웨어로 구현될 수도 있다. 본 발명의 다양한 실시 예에서 지능형 에이전트(3351), 실행 매니저 모듈(3353) 또는 지능형 서비스 모듈(3355)에 의해 수행되는 동작은 프로세서(3350)에 의해 수행되는 동작으로 이해될 수 있다.According to various embodiments, the processor 3350 may include an intelligent agent 3351, an execution manager module 3355 or an intelligent service module 3355. In various embodiments, the processor 3350 executes instructions stored in the memory 3340 to drive the intelligent agent 3351, the execution manager module 3355, or the intelligent service module 3355. Various modules mentioned in various embodiments of the present invention may be implemented in hardware or may be implemented in software. In various embodiments of the present invention, an operation performed by the intelligent agent 3351, the execution manager module 3355, or the intelligent service module 3355 may be understood as an operation performed by the processor 3350.

다양한 실시예들에 따른, 지능형 에이전트(3351)는 사용자 입력으로 수신된 음성 신호에 기초하여 어플리케이션을 동작시키는 명령을 생성할 수 있다. 다양한 실시예들에 따른, 실행 매니저 모듈(3353)은 지능형 에이전트(3351)로부터 상기 생성된 명령을 수신하여 메모리(3340)에 저장된 어플리케이션(3341, 3343)을 선택하여 실행시키고 동작시킬 수 있다. 다양한 실시예들에 따르면, 지능형 서비스 모듈(3355)은 사용자의 정보를 관리하여 사용자 입력을 처리하는데 이용할 수 있다.According to various embodiments, the intelligent agent 3351 may generate a command to operate an application based on a voice signal received as a user input. According to various embodiments, the execution manager module 3335 may receive the generated command from the intelligent agent 3351, select and execute and operate the applications 3331 and 3343 stored in the memory 3340. According to various embodiments, the intelligent service module 3355 may be used to process user input by managing user information.

지능형 에이전트(3351)는 입력 모듈(3310)을 통해 수신된 사용자 입력을 지능형 서버(3220)로 송신하여 처리할 수 있다.The intelligent agent 3351 may transmit and process user input received through the input module 3310 to the intelligent server 3220.

다양한 실시예들에 따르면, 지능형 에이전트(3351)는 상기 사용자 입력을 지능형 서버(3220)로 송신하기 전에, 상기 사용자 입력을 전처리할 수 있다. 다양한 실시예들에 따르면, 지능형 에이전트(3351)는 상기 사용자 입력을 전처리하기 위하여, 적응 반향 제거(adaptive echo canceller)(AEC) 모듈, 노이즈 억제(noise suppression)(NS) 모듈, 종점 검출(end-point detection)(EPD) 모듈 또는 자동 이득 제어(automatic gain control)(AGC) 모듈을 포함할 수 있다. 상기 적응 반향 제거부는 상기 사용자 입력에 포함된 에코(echo)를 제거할 수 있다. 상기 노이즈 억제 모듈은 상기 사용자 입력에 포함된 배경 잡음을 억제할 수 있다. 상기 종점 검출 모듈은 상기 사용자 입력에 포함된 사용자 음성의 종점을 검출하여 사용자의 음성이 존재하는 부분을 찾을 수 있다. 상기 자동 이득 제어 모듈은 상기 사용자 입력을 인식하여 처리하기 적합하도록 상기 사용자 입력의 음량을 조절할 수 있다. 다양한 실시예들에 따르면, 지능형 에이전트(3351)는 성능을 위하여 상기 전처리 구성을 전부 포함할 수 있지만, 다른 실시 예에서 지능형 에이전트(3351)는 저전력으로 동작하기 위해 상기 전처리 구성 중 일부를 포함할 수 있다.According to various embodiments, the intelligent agent 3351 may preprocess the user input before transmitting the user input to the intelligent server 3220. According to various embodiments, the intelligent agent 3351 pre-processes the user input, an adaptive echo canceller (AEC) module, a noise suppression (NS) module, and an endpoint detection (end-) point detection (EPD) module or automatic gain control (AGC) module. The adaptive echo canceller may remove echo included in the user input. The noise suppression module may suppress background noise included in the user input. The end point detection module may detect the end point of the user's voice included in the user input to find a portion where the user's voice is present. The automatic gain control module may adjust the volume of the user input to be suitable for recognizing and processing the user input. According to various embodiments, the intelligent agent 3351 may include all of the preprocessing configurations for performance, but in other embodiments, the intelligent agent 3351 may include some of the preprocessing configurations to operate at low power. have.

다양한 실시예들에 따르면, 지능형 에이전트(3351)는 사용자의 호출을 인식하는 웨이크 업(wake up) 인식 모듈을 포함할 수 있다. 상기 웨이크 업 인식 모듈은 음성 인식 모듈을 통해 사용자의 웨이크 업 명령을 인식할 수 있고, 상기 웨이크 업 명령을 수신한 경우 사용자 입력을 수신하기 위해 지능형 에이전트(3351)을 활성화시킬 수 있다. 다양한 실시예들에 따르면, 지능형 에이전트(3351)의 웨이크 업 인식 모듈은 저전력 프로세서(예: 오디오 코덱에 포함된 프로세서)에 구현될 수 있다. 다양한 실시예들에 따르면, 지능형 에이전트(3351)는 하드웨어 키를 통한 사용자 입력에 따라 활성화될 수 있다. 지능형 에이전트(3351)가 활성화 되는 경우, 지능형 에이전트(3351)와 연동된 지능형 어플리케이션(예: 음성 인식 어플리케이션)이 실행될 수 있다.According to various embodiments, the intelligent agent 3351 may include a wake up recognition module that recognizes a user's call. The wake-up recognition module may recognize a user's wake-up command through a voice recognition module, and activate the intelligent agent 3351 to receive a user input when the wake-up command is received. According to various embodiments, the wake-up recognition module of the intelligent agent 3351 may be implemented in a low-power processor (eg, a processor included in an audio codec). According to various embodiments, the intelligent agent 3351 may be activated according to user input through a hardware key. When the intelligent agent 3351 is activated, an intelligent application (eg, a voice recognition application) linked with the intelligent agent 3351 may be executed.

다양한 실시예들에 따르면, 지능형 에이전트(3351)는 사용자 입력을 실행하기 위한 음성 인식 모듈을 포함할 수 있다. 상기 음성 인식 모듈은 어플리케이션에서 동작을 실행하도록 하기 위한 사용자 입력을 인식할 수 있다. 예를 들어, 상기 음성 인식 모듈은 어플리케이션(3341, 3343)에서 상기 웨이크 업 명령과 같은 동작을 실행하는 제한된 사용자 (음성) 입력(예: 카메라 어플리케이션이 실행 중일 때 촬영 동작을 실행시키는 "찰칵"과 같은 발화 등)을 인식할 수 있다. 상기 지능형 서버(3220)를 보조하여 사용자 입력을 인식하는 음성 인식 모듈은, 예를 들어, 사용자 단말(3210)내에서 처리할 수 있는 사용자 명령을 인식하여 빠르게 처리할 수 있다. 다양한 실시예들에 따르면, 지능형 에이전트(3351)의 사용자 입력을 실행하기 위한 음성 인식 모듈은 어플리케이션 프로세서에서 구현될 수 있다.According to various embodiments, the intelligent agent 3351 may include a voice recognition module for executing user input. The voice recognition module may recognize a user input for causing an application to perform an operation. For example, the speech recognition module may include a limited user (speech) input (eg, “click”) that executes a shooting operation when the camera application is running, such as the wakeup command in the applications 3331 and 3343. The same utterance, etc.). The voice recognition module that recognizes a user input by assisting the intelligent server 3220 may recognize and process a user command that can be processed in the user terminal 3210, for example. According to various embodiments, a voice recognition module for executing user input of the intelligent agent 3351 may be implemented in an application processor.

다양한 실시예들에 따르면, 지능형 에이전트(3351)의 음성 인식 모듈(웨이크 업 모듈의 음성 인식 모듈을 포함)은 음성을 인식하기 위한 알고리즘을 이용하여 사용자 입력을 인식할 수 있다. 상기 음성을 인식하기 위해 사용되는 알고리즘은, 예를 들어, HMM(hidden markov model) 알고리즘, ANN(artificial neural network) 알고리즘 또는 DTW(dynamic time warping) 알고리즘 중 적어도 하나일 수 있다.According to various embodiments, the voice recognition module of the intelligent agent 3351 (including the voice recognition module of the wake-up module) may recognize a user input using an algorithm for recognizing voice. The algorithm used to recognize the voice may be, for example, at least one of a hidden markov model (HMM) algorithm, an artificial neural network (ANN) algorithm, or a dynamic time warping (DTW) algorithm.

다양한 실시예들에 따르면, 지능형 에이전트(3351)는 사용자의 음성 입력을 텍스트 데이터로 변환할 수 있다. 다양한 실시예들에 따르면, 지능형 에이전트(3351)는 사용자의 음성을 지능형 서버(3320)로 전달하여, 변환된 텍스트 데이터를 수신할 수 있다. 이에 따라, 지능형 에이전트(3351)는 상기 텍스트를 데이터를 디스플레이(3320)에 표시할 수 있다.According to various embodiments, the intelligent agent 3351 may convert a user's voice input into text data. According to various embodiments, the intelligent agent 3351 may transmit the user's voice to the intelligent server 3320 to receive the converted text data. Accordingly, the intelligent agent 3351 may display the text on the display 3320.

다양한 실시예들에 따르면, 지능형 에이전트(3351)는 지능형 서버(3220)로부터 송신한 패스 룰을 수신할 수 있다. 다양한 실시예들에 따르면, 지능형 에이전트(3351)은 상기 패스 룰을 실행 매니저 모듈(3353)로 송신할 수 있다.According to various embodiments, the intelligent agent 3351 may receive a pass rule transmitted from the intelligent server 3220. According to various embodiments, the intelligent agent 3351 may transmit the pass rule to the execution manager module 3335.

다양한 실시예들에 따르면, 지능형 에이전트(3351)는 지능형 서버(3220)로부터 수신된 패스 룰에 따른 실행 결과 로그(log)를 지능형 서비스(intelligence service) 모듈(3355)로 송신하고, 상기 송신된 실행 결과 로그는 페르소나 모듈(persona manager)(3355b)의 사용자의 선호(preference) 정보에 누적되어 관리될 수 있다.According to various embodiments, the intelligent agent 3351 transmits the execution result log according to the pass rule received from the intelligent server 3220 to the intelligent service module 3355, and the executed execution The result log may be accumulated and managed in the preference information of the user of the persona module (persona manager) 3355b.

다양한 실시예들에 따른, 실행 매니저 모듈(3353)은 지능형 에이전트(3351)로부터 패스 룰을 수신하여 어플리케이션(3341, 3343)을 실행시키고, 어플리케이션(3341, 3343)이 상기 패스 룰에 포함된 동작(3341b, 3343b)을 실행하도록 할 수 있다. 예를 들어, 실행 매니저 모듈(3353)은 어플리케이션(3341, 3343)으로 동작(3341b, 3343b)을 실행하기 위한 명령 정보를 송신할 수 있고, 상기 어플리케이션(3341, 3343)로부터 동작(3341b, 3343b)의 완료 정보를 수신할 수 있다.According to various embodiments, the execution manager module 3353 receives the pass rules from the intelligent agent 3351 to execute the applications 3331 and 3343, and the applications 3331 and 3343 are included in the pass rules ( 3341b, 3343b). For example, the execution manager module 3335 can transmit command information for executing the operations 3331b and 3343b to the applications 3331 and 3343, and the operations 3331b and 3343b from the applications 3331 and 3343. You can receive the complete information.

다양한 실시예들에 따르면, 실행 매니저 모듈(3353)은 지능형 에이전트(3351)와 어플리케이션(3341, 3343)의 사이에서 어플리케이션(3341, 3343)의 동작(3341b, 3343b)을 실행하기 위한 명령 정보를 송수신할 수 있다. 실행 매니저 모듈(3353)은 상기 패스 룰에 따라 실행할 어플리케이션(3341, 3343)을 바인딩(binding)하고, 상기 패스 룰에 포함된 동작(3341b, 3343b)의 명령 정보를 어플리케이션(3341, 3343)으로 송신할 수 있다. 예를 들어, 실행 매니저 모듈(3353)은 상기 패스 룰에 포함된 동작(3341b, 3343b)을 순차적으로 어플리케이션(3341, 3343)으로 송신하여, 어플리케이션(3341, 3343)의 동작(3341b, 3343b)을 상기 패스 룰에 따라 순차적으로 실행시킬 수 있다.According to various embodiments, the execution manager module 3335 transmits and receives command information for executing the operations 3331b and 3343b of the applications 3331 and 3343 between the intelligent agent 3351 and the applications 3331 and 3343. can do. The execution manager module 3355 binds the applications 3331 and 3343 to be executed according to the pass rule, and transmits command information of the operations 3331b and 3343b included in the pass rule to the applications 3331 and 3343. can do. For example, the execution manager module 3335 sequentially transmits the operations 3331b and 3343b included in the pass rule to the applications 3331 and 3343, thereby executing the operations 3331b and 3343b of the applications 3331 and 3343. It can be executed sequentially according to the pass rule.

다양한 실시예들에 따르면, 실행 매니저 모듈(3353)은 어플리케이션(3341, 3343)의 동작(3341b, 3343b)의 실행 상태를 관리할 수 있다. 예를 들어, 실행 매니저 모듈(3353)은 어플리케이션(3341, 3343)으로부터 상기 동작(3341b, 3343b)의 실행 상태에 대한 정보를 수신할 수 있다. 상기 동작(3341b, 3343b)의 실행 상태가, 예를 들어, 정지된 상태(partial landing)인 경우(예: 동작(3341b, 3343b)에 필요한 파라미터가 입력되지 않은 경우), 실행 매니저 모듈(3353)은 상기 정지된 상태에 대한 정보를 지능형 에이전트(3351)로 송신할 수 있다. 지능형 에이전트(3351)는 상기 수신된 정보를 이용하여, 사용자에게 필요한 정보(예: 파라미터 정보)의 입력을 요청할 수 있다. 상기 동작(3341b, 3343b)의 실행 상태가, 다른 예를 들어, 동작 상태인 경우에 사용자로부터 발화를 수신할 수 있고, 실행 매니저 모듈(3353)은 상기 실행되고 있는 어플리케이션(3341, 3343) 및 어플리케이션(3341, 3343)의 실행 상태에 대한 정보를 지능형 에이전트(3351)로 송신할 수 있다. 지능형 에이전트(3351)는 지능형 서버(3220)를 통해 상기 사용자의 발화의 파라미터 정보를 수신할 수 있고, 상기 수신된 파라미터 정보를 실행 매니저 모듈(3353)로 송신할 수 있다. 실행 매니저 모듈(3353)은 상기 수신한 파라미터 정보를 이용하여 동작(3341b, 3343b)의 파라미터를 새로운 파라미터로 변경할 수 있다.According to various embodiments, the execution manager module 3335 may manage the execution state of the operations 3331b and 3343b of the applications 3331 and 3343. For example, the execution manager module 3335 may receive information on the execution status of the operations 3331b and 3343b from the applications 3331 and 3343. When the execution state of the operations 3331b and 3343b is, for example, a partial landing (for example, when a parameter required for the operations 3331b and 3343b is not input), the execution manager module 3351 May transmit the information on the stopped state to the intelligent agent 3351. The intelligent agent 3351 may request the user to input necessary information (eg, parameter information) using the received information. When the execution state of the operations 3331b and 3343b is, for example, an operation state, a utterance may be received from a user, and the execution manager module 3335 may execute the applications 3331 and 3343 and applications. Information about the execution state of (3341, 3343) may be transmitted to the intelligent agent 3351. The intelligent agent 3351 may receive parameter information of the user's utterance through the intelligent server 3220, and may transmit the received parameter information to the execution manager module 3335. The execution manager module 3335 may change the parameters of the operations 3331b and 3343b to new parameters using the received parameter information.

다양한 실시예들에 따르면, 실행 매니저 모듈(3353)은 패스 룰에 포함된 파라미터 정보를 어플리케이션(3341, 3343)로 전달할 수 있다. 상기 패스 룰에 따라 복수의 어플리케이션(3341, 3343)이 순차적으로 실행되는 경우, 실행 매니저 모듈(3353)은 하나의 어플리케이션에서 다른 어플리케이션으로 패스 룰에 포함된 파라미터 정보를 전달할 수 있다.According to various embodiments, the execution manager module 3335 may transmit parameter information included in the pass rule to the applications 3331 and 3343. When a plurality of applications 3331 and 3343 are sequentially executed according to the pass rule, the execution manager module 3335 may transmit parameter information included in the pass rule from one application to another application.

다양한 실시예들에 따르면, 실행 매니저 모듈(3353)은 복수의 패스 룰을 수신할 수 있다. 실행 매니저 모듈(3353)은 사용자의 발화에 기초하여 복수의 패스 룰이 선택될 수 있다. 예를 들어, 실행 매니저 모듈(3353)은 사용자의 발화가 일부 동작(3341a)을 실행할 일부 어플리케이션(3341)을 특정하였지만, 나머지 동작(3343b)을 실행할 다른 어플리케이션(3343)을 특정하지 않은 경우, 일부 동작(3341a)를 실행할 동일한 어플리케이션(3341)(예: 갤러리 어플리케이션)이 실행되고 나머지 동작(3343b)를 실행할 수 있는 서로 다른 어플리케이션(3343)(예: 메시지 어플리케이션, 텔레그램 어플리케이션)이 각각 실행되는 서로 다른 복수의 패스 룰을 수신할 수 있다. 실행 매니저 모듈(3353)은, 예를 들어, 상기 복수의 패스 룰의 동일한 동작(3341b, 3343b)(예: 연속된 동일한 동작(3341b, 3343b))을 실행할 수 있다. 실행 매니저 모듈(3353)은 상기 동일한 동작까지 실행한 경우, 상기 복수의 패스 룰에 각각 포함된 서로 다른 어플리케이션(3341, 3343)을 선택할 수 있는 상태 화면을 디스플레이(3320)에 표시할 수 있다.According to various embodiments, the execution manager module 3335 may receive a plurality of pass rules. The execution manager module 3353 may select a plurality of pass rules based on the user's speech. For example, the execution manager module 3335 specifies some applications 3331 in which the user's speech will execute some operations 3331a, but does not specify other applications 3431 to execute the remaining operations 3431b. The same application 3341 (e.g., gallery application) to execute the operation 3331a (e.g., gallery application) is executed, and different applications 3343 (e.g., message application, telegram application) capable of executing the remaining operation 3343b are executed. A plurality of different pass rules may be received. The execution manager module 3335 may execute, for example, the same operations 3331b and 3343b of the plurality of pass rules (for example, the same operations 3331b and 3343b in series). When executing the same operation, the execution manager module 3335 may display a status screen on the display 3320 to select different applications 3331 and 3343 included in the plurality of pass rules, respectively.

다양한 실시예들에 따르면, 지능형 서비스 모듈(3355)는 컨텍스트 모듈(3355a), 페르소나 모듈(3355b) 또는 제안 모듈(3355c)을 포함할 수 있다.According to various embodiments, the intelligent service module 3355 may include a context module 3355a, a persona module 3355b, or a proposal module 3355c.

컨텍스트 모듈(3355a)는 어플리케이션(3341, 3343)으로부터 어플리케이션(3341, 3343)의 현재 상태를 수집할 수 있다. 예를 들어, 컨텍스트 모듈(3355a)은 어플리케이션(3341, 3343)의 현재 상태를 나타내는 컨텍스트 정보를 수신하여 어플리케이션(3341, 3343)의 현재 상태를 수집할 수 있다.The context module 3355a may collect the current state of the applications 3331 and 3343 from the applications 3331 and 3343. For example, the context module 3355a may collect the current state of the applications 3331 and 3343 by receiving context information indicating the current state of the applications 3331 and 3343.

페르소나 모듈(3355b)은 사용자 단말(3210)을 사용하는 사용자의 개인 정보를 관리할 수 있다. 예를 들어, 페르소나 모듈(3355b)은 사용자 단말(3210)의 사용 정보 및 수행 결과를 수집하여 사용자의 개인 정보를 관리할 수 있다.The persona module 3355b may manage personal information of a user who uses the user terminal 3210. For example, the persona module 3355b may collect user information and performance results of the user terminal 3210 to manage personal information of the user.

제안 모듈(3355c)는 사용자의 의도를 예측하여 사용자에게 명령을 추천해줄 수 있다. 예를 들어, 제안 모듈(3355c)은 사용자의 현재 상태(예: 시간, 장소, 상황, 어플리케이션)을 고려하여 사용자에게 명령을 추천해줄 수 있다.The proposal module 3355c may predict a user's intention and recommend a command to the user. For example, the suggestion module 3355c may recommend a command to the user in consideration of the user's current state (eg, time, place, situation, application).

도 34는 다양한 실시예들에 따른 통합 지능화 시스템의 지능형 서버를 나타낸 블록도이다.34 is a block diagram showing an intelligent server of the integrated intelligent system according to various embodiments.

도 34를 참조하면, 지능형 서버(3220)는 자동 음성 인식(automatic speech recognition)(ASR) 모듈(3410)(예: ASR 모듈(751)), 자연어 이해(natural language understanding)(NLU) 모듈(3420)(예: NLU 모듈(753)), 패스 플래너(path planner) 모듈(3430)(예:액션 계획 매니저(759)), 대화 매니저(dialogue manager)(DM) 모듈(3440)(예: DM(757)), 자연어 생성(natural language generator)(NLG) 모듈(3450)(예: NLG 매니저(761)) 또는 텍스트 음성 변환(text to speech)(TTS) 모듈(3460)(예: TTS 매니저(763)을 포함할 수 있다.Referring to FIG. 34, the intelligent server 3220 includes an automatic speech recognition (ASR) module 3410 (eg, ASR module 751), a natural language understanding (NLU) module 3420 ) (E.g. NLU module 753), path planner module 3430 (e.g. action plan manager 759), conversation manager (DM) module 3440 (e.g. DM ( 757), natural language generator (NLG) module 3450 (e.g. NLG manager 761) or text to speech (TTS) module 3460 (e.g. TTS manager 763) ).

지능형 서버(3220)의 자연어 이해 모듈(3420) 또는 패스 플래너 모듈(3430)은 패스 룰(path rule)(예: 액션 시퀀스 또는 태스크)을 생성할 수 있다.The natural language understanding module 3420 or the path planner module 3430 of the intelligent server 3220 may generate path rules (eg, action sequences or tasks).

다양한 실시예들에 따르면, 자동 음성 인식(automatic speech recognition)(ASR) 모듈(3410)은 사용자 단말(3210)로부터 수신된 사용자 입력을 텍스트 데이터로 변환할 수 있다.According to various embodiments, the automatic speech recognition (ASR) module 3410 may convert user input received from the user terminal 3210 into text data.

다양한 실시예들에 따르면, 자동 음성 인식 모듈(3410)은 사용자 단말(3210)로부터 수신된 사용자 입력을 텍스트 데이터로 변환할 수 있다. 예를 들어, 자동 음성 인식 모듈(3410)은 발화 인식 모듈을 포함할 수 있다. 상기 발화 인식 모듈은 음향(acoustic) 모델 및 언어(language) 모델을 포함할 수 있다. 예를 들어, 상기 음향 모델은 발성에 관련된 정보를 포함할 수 있고, 상기 언어 모델은 단위 음소 정보 및 단위 음소 정보의 조합에 대한 정보를 포함할 수 있다. 상기 발화 인식 모듈은 발성에 관련된 정보 및 단위 음소 정보에 대한 정보를 이용하여 사용자 발화를 텍스트 데이터로 변환할 수 있다. 상기 음향 모델 및 언어 모델에 대한 정보는, 예를 들어, 자동 음성 인식 데이터베이스(automatic speech recognition database)(ASR DB)(3411)에 저장될 수 있다.According to various embodiments, the automatic speech recognition module 3410 may convert user input received from the user terminal 3210 into text data. For example, the automatic speech recognition module 3410 may include a speech recognition module. The speech recognition module may include an acoustic model and a language model. For example, the acoustic model may include information related to speech, and the language model may include information on a combination of unit phoneme information and unit phoneme information. The speech recognition module may convert user speech into text data by using information related to speech and information about unit phoneme information. Information about the acoustic model and the language model may be stored in, for example, an automatic speech recognition database (ASR DB) 3411.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 문법적 분석(syntactic analyze) 또는 의미적 분석(semantic analyze)을 수행하여 사용자 의도를 파악할 수 있다. 상기 문법적 분석은 사용자 입력을 문법적 단위(예: 단어, 구, 형태소 등)로 나누고, 상기 나누어진 단위가 어떤 문법적인 요소를 갖는지 파악할 수 있다. 상기 의미적 분석은 의미(semantic) 매칭, 룰(rule) 매칭, 포뮬러(formula) 매칭 등을 이용하여 수행할 수 있다. 이에 따라, 자연어 이해 모듈(3420)은 사용자 입력이 어느 도메인(domain), 의도(intent) 또는 상기 의도를 표현하는데 필요한 파라미터(parameter)(또는, 슬롯(slot))를 얻을 수 있다.According to various embodiments, the natural language understanding module 3420 may grasp a user's intention by performing syntactic analysis or semantic analysis. The grammatical analysis may divide user input into grammatical units (eg, words, phrases, morphemes, etc.), and grasp what grammatical elements the divided units have. The semantic analysis may be performed using semantic matching, rule matching, or formula matching. Accordingly, the natural language understanding module 3420 may obtain a domain, an intent, or a parameter (or a slot) necessary for the user input to express the intention.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 도메인(domain), 의도(intend) 및 상기 의도를 파악하는데 필요한 파라미터(parameter)(또는, 슬롯(slot))로 나누어진 매칭 규칙을 이용하여 사용자의 의도 및 파라미터를 결정할 수 있다. 예를 들어, 상기 하나의 도메인(예: 알람)은 복수의 의도(예: 알람 설정, 알람 해제 등)를 포함할 수 있고, 하나의 의도는 복수의 파라미터(예: 시간, 반복 횟수, 알람음 등)을 포함할 수 있다. 복수의 룰은, 예를 들어, 하나 이상의 필수 요소 파라미터를 포함할 수 있다. 상기 매칭 규칙은 자연어 인식 데이터베이스(natural language understanding database)(NLU DB)(3421)에 저장될 수 있다.According to various embodiments, the natural language understanding module 3420 uses a matching rule divided into a domain, an intent, and a parameter (or a slot) required to grasp the intention. The user's intentions and parameters can be determined. For example, the one domain (eg, alarm) may include a plurality of intentions (eg, alarm setting, alarm release, etc.), and one intention may include a plurality of parameters (eg, time, number of repetitions, alarm sound) Etc.). The plurality of rules may include, for example, one or more essential element parameters. The matching rule may be stored in a natural language understanding database (NLU DB) 3421.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 형태소, 구 등의 언어적 특징(예: 문법적 요소)을 이용하여 사용자 입력으로부터 추출된 단어의 의미를 파악하고, 상기 파악된 단어의 의미를 도메인 및 의도에 매칭시켜 사용자의 의도를 결정할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 각각의 도메인 및 의도에 사용자 입력에서 추출된 단어가 얼마나 포함되어 있는 지를 계산하여 사용자 의도를 결정할 수 있다. 다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 상기 의도를 파악하는데 기초가 된 단어를 이용하여 사용자 입력의 파라미터를 결정할 수 있다. 다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 사용자 입력의 의도를 파악하기 위한 언어적 특징이 저장된 자연어 인식 데이터베이스(3421)를 이용하여 사용자의 의도를 결정할 수 있다. 다른 실시 예에 따르면, 자연어 이해 모듈(3420)은 개인화 언어 모델(personal language model)(PLM)을 이용하여 사용자의 의도를 결정할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 개인화된 정보(예: 연락처 리스트, 음악 리스트)를 이용하여 사용자의 의도를 결정할 수 있다. 상기 개인화 언어 모델은, 예를 들어, 자연어 인식 데이터베이스(3421)에 저장될 수 있다. 다양한 실시예들에 따르면, 자연어 이해 모듈(3420)뿐만 아니라 자동 음성 인식 모듈(3410)도 자연어 인식 데이터베이스(3421)에 저장된 개인화 언어 모델을 참고하여 사용자의 음성을 인식할 수 있다.According to various embodiments, the natural language understanding module 3420 uses a linguistic feature such as a morpheme and a phrase (eg, a grammatical element) to grasp the meaning of the word extracted from the user input, and to determine the meaning of the identified word. The user's intention can be determined by matching the domain and the intention. For example, the natural language understanding module 3420 may determine the user intention by calculating how many words extracted from the user input are included in each domain and intention. According to various embodiments, the natural language understanding module 3420 may determine a parameter of a user input using a word based on grasping the intention. According to various embodiments, the natural language understanding module 3420 may determine the user's intention using the natural language recognition database 3421 in which linguistic features for identifying the intention of the user input are stored. According to another embodiment, the natural language understanding module 3420 may determine a user's intention using a personal language model (PLM). For example, the natural language understanding module 3420 may determine a user's intention using personalized information (eg, a contact list, a music list). The personalized language model may be stored in the natural language recognition database 3421, for example. According to various embodiments, the automatic speech recognition module 3410 as well as the natural language understanding module 3420 may recognize a user's voice by referring to a personalized language model stored in the natural language recognition database 3421.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 사용자 입력의 의도 및 파라미터에 기초하여 패스 룰을 생성할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 사용자 입력의 의도에 기초하여 실행될 어플리케이션을 선택하고, 상기 선택된 어플리케이션에서 수행될 동작을 결정할 수 있다. 상자연어 이해 모듈(3420)은 상기 결정된 동작에 대응되는 파라미터를 결정하여 패스 룰을 생성할 수 있다. 다양한 실시예들에 따르면, 자연어 이해 모듈(3420)에 의해 생성된 패스 룰은 실행될 어플리케이션, 상기 어플리케이션에서 실행될 동작 및 상기 동작을 실행하는데 필요한 파라미터에 대한 정보를 포함할 수 있다.According to various embodiments, the natural language understanding module 3420 may generate a pass rule based on intention and parameters of a user input. For example, the natural language understanding module 3420 may select an application to be executed based on the intention of a user input, and determine an operation to be performed in the selected application. The box salmon understanding module 3420 may generate a pass rule by determining a parameter corresponding to the determined operation. According to various embodiments, the pass rule generated by the natural language understanding module 3420 may include information about an application to be executed, an operation to be executed in the application, and parameters required to execute the operation.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 사용자 입력의 의도 및 파라미터를 기반으로 하나의 패스 룰, 또는 복수의 패스 룰을 생성할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 패스 플래너 모듈(3430)로부터 사용자 단말(3210)에 대응되는 패스 룰 셋을 수신하고, 사용자 입력의 의도 및 파라미터를 상기 수신된 패스 룰 셋에 매핑하여 패스 룰을 결정할 수 있다.According to various embodiments, the natural language understanding module 3420 may generate one pass rule or a plurality of pass rules based on the intention and parameters of the user input. For example, the natural language understanding module 3420 receives the pass rule set corresponding to the user terminal 3210 from the pass planner module 3430, and maps the intent and parameters of the user input to the received pass rule set to pass Rules can be determined.

다른 실시 예에 따르면, 자연어 이해 모듈(3420)은 사용자 입력의 의도 및 파라미터에 기초하여 실행될 어플리케이션, 상기 어플리케이션에서 실행될 동작 및 상기 동작을 실행하는데 필요한 파라미터를 결정하여 하나의 패스 룰, 또는 복수의 패스 룰을 생성할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 사용자 단말(3210)의 정보를 이용하여 상기 실행될 어플리케이션 및 상기 어플리케이션에서 실행될 동작을 사용자 입력의 의도에 따라 온톨로지(ontology) 또는 그래프 모델(graph model) 형태로 배열하여 패스 룰을 생성할 수 있다. 상기 생성된 패스 룰은, 예를 들어, 패스 플래너 모듈(3430)를 통해 패스 룰 데이터베이스(path rule database)(PR DB)(3431)에 저장될 수 있다. 상기 생성된 패스 룰은 데이터베이스(3431)의 패스 룰 셋에 추가될 수 있다.According to another embodiment, the natural language understanding module 3420 determines an application to be executed, an operation to be executed in the application, and a parameter required to execute the operation, based on the intention and parameters of a user input, to perform one pass rule, or multiple passes You can create rules. For example, the natural language understanding module 3420 uses the information of the user terminal 3210 to display the application to be executed and the operation to be executed in the application in the form of an ontology or graph model according to the intention of user input. You can create pass rules by arranging them. The generated pass rule may be stored in a path rule database (PR DB) 3431 through the pass planner module 3430, for example. The generated pass rule may be added to the pass rule set of the database 3431.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 생성된 복수의 패스 룰 중 적어도 하나의 패스 룰을 선택할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 상기 복수의 패스 룰 최적의 패스 룰을 선택할 수 있다. 다른 예를 들어, 자연어 이해 모듈(3420)은 사용자 발화에 기초하여 일부 동작만이 특정된 경우 복수의 패스 룰을 선택할 수 있다. 자연어 이해 모듈(3420)은 사용자의 추가 입력에 의해 상기 복수의 패스 룰 중 하나의 패스 룰을 결정할 수 있다.According to various embodiments, the natural language understanding module 3420 may select at least one pass rule among the generated plurality of pass rules. For example, the natural language understanding module 3420 may select an optimal pass rule for the plurality of pass rules. For another example, the natural language understanding module 3420 may select a plurality of pass rules when only some motions are specified based on a user's speech. The natural language understanding module 3420 may determine one pass rule among the plurality of pass rules by the user's additional input.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 사용자 입력에 대한 요청으로 패스 룰을 사용자 단말(3210)로 송신할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 사용자 입력에 대응되는 하나의 패스 룰을 사용자 단말(3210)로 송신할 수 있다. 다른 예를 들어, 자연어 이해 모듈(3420)은 사용자 입력에 대응되는 복수의 패스 룰을 사용자 단말(3210)로 송신할 수 있다. 상기 복수의 패스 룰은, 예를 들어, 사용자 발화에 기초하여 일부 동작만이 특정된 경우 자연어 이해 모듈(3420)에 의해 생성될 수 있다.According to various embodiments, the natural language understanding module 3420 may transmit a pass rule to the user terminal 3210 as a request for user input. For example, the natural language understanding module 3420 may transmit one pass rule corresponding to the user input to the user terminal 3210. For another example, the natural language understanding module 3420 may transmit a plurality of pass rules corresponding to user input to the user terminal 3210. The plurality of pass rules may be generated by the natural language understanding module 3420 when only some actions are specified based on, for example, user speech.

다양한 실시예들에 따르면, 패스 플래너 모듈(3430)은 복수의 패스 룰 중 적어도 하나의 패스 룰을 선택할 수 있다.According to various embodiments, the pass planner module 3430 may select at least one pass rule among a plurality of pass rules.

다양한 실시예들에 따르면, 패스 플래너 모듈(3430)은 자연어 이해 모듈(3420)로 복수의 패스 룰을 포함하는 패스 룰 셋을 전달할 수 있다. 상기 패스 룰 셋의 복수의 패스 룰은 패스 플래너 모듈(3430)에 연결된 패스 룰 데이터베이스(3431)에 테이블 형태로 저장될 수 있다. 예를 들어, 패스 플래너 모듈(3430)은 지능형 에이전트(3351)로부터 수신된 사용자 단말(3210)의 정보(예: OS 정보, 어플리케이션 정보)에 대응되는 패스 룰 셋을 자연어 이해 모듈(3420)로 전달할 수 있다. 상기 패스 룰 데이터베이스(3431)에 저장된 테이블은, 예를 들어, 도메인 또는 도메인의 버전 별로 저장될 수 있다.According to various embodiments, the pass planner module 3430 may transmit a pass rule set including a plurality of pass rules to the natural language understanding module 3420. The plurality of pass rules of the pass rule set may be stored in a table form in the pass rule database 3431 connected to the pass planner module 3430. For example, the pass planner module 3430 transmits a pass rule set corresponding to information (eg, OS information, application information) of the user terminal 3210 received from the intelligent agent 3351 to the natural language understanding module 3420. Can. The table stored in the pass rule database 3431 may be stored, for example, for each domain or version of the domain.

다양한 실시예들에 따르면, 패스 플래너 모듈(3430)은 패스 룰 셋에서 하나의 패스 룰, 또는 복수의 패스 룰을 선택하여 자연어 이해 모듈(3420)로 전달할 수 있다. 예를 들어, 패스 플래너 모듈(3430)은 사용자의 의도 및 파라미터를 사용자 단말(3210) 에 대응되는 패스 룰 셋에 매칭하여 하나의 패스 룰, 또는 복수의 패스 룰을 선택하여 자연어 이해 모듈(3420)로 전달할 수 있다.According to various embodiments, the pass planner module 3430 may select one pass rule or a plurality of pass rules from the pass rule set and transmit the selected pass rule to the natural language understanding module 3420. For example, the path planner module 3430 matches a user's intention and parameters to a set of pass rules corresponding to the user terminal 3210 to select one pass rule or a plurality of pass rules to understand the natural language module 3420 Can be delivered to.

다양한 실시예들에 따르면, 패스 플래너 모듈(3430)은 사용자 의도 및 파라미터를 이용하여 하나의 패스 룰, 또는 복수의 패스 룰을 생성할 수 있다. 예를 들어, 패스 플래너 모듈(3430)은 사용자 의도 및 파라미터에 기초하여 실행될 어플리케이션 및 상기 어플리케이션에서 실행될 동작을 결정하여 하나의 패스 룰, 또는 복수의 패스 룰을 생성할 수 있다. 다양한 실시예들에 따르면, 패스 플래너 모듈(3430)은 상기 생성된 패스 룰을 패스 룰 데이터베이스(3431)에 저장할 수 있다.According to various embodiments, the pass planner module 3430 may generate one pass rule or a plurality of pass rules using user intention and parameters. For example, the pass planner module 3430 may generate an pass rule or a plurality of pass rules by determining an application to be executed and an operation to be performed in the application based on user intention and parameters. According to various embodiments, the pass planner module 3430 may store the generated pass rules in the pass rule database 3431.

다양한 실시예들에 따르면, 패스 플래너 모듈(3430)은 자연어 이해 모듈(3420)에서 생성된 패스 룰을 패스 룰 데이터베이스(3431)에 저장할 수 있다. 상기 생성된 패스 룰은 패스 룰 데이터베이스(3431)에 저장된 패스 룰 셋에 추가될 수 있다.According to various embodiments, the pass planner module 3430 may store the pass rules generated in the natural language understanding module 3420 in the pass rule database 3431. The generated pass rule may be added to the pass rule set stored in the pass rule database 3431.

다양한 실시예들에 따르면, 패스 룰 데이터베이스(3431)에 저장된 테이블에는 복수의 패스 룰 또는 복수의 패스 룰 셋을 포함할 수 있다. 복수의 패스 룰 또는 복수의 패스 룰 셋은 각 패스 룰을 수행하는 장치의 종류, 버전, 타입, 또는 특성을 반영할 수 있다.According to various embodiments, the table stored in the pass rule database 3431 may include a plurality of pass rules or a plurality of pass rule sets. The plurality of pass rules or the plurality of pass rule sets may reflect a type, version, type, or characteristic of a device that performs each pass rule.

다양한 실시예들에 따르면, 대화 매니저 모듈(3440)은 자연어 이해 모듈(3420)에 의해 파악된 사용자의 의도가 명확한지 여부를 판단할 수 있다. 예를 들어, 대화 매니저 모듈(3440)은 파라미터의 정보가 충분하지 여부에 기초하여 사용자의 의도가 명확한지 여부를 판단할 수 있다. 대화 매니저 모듈(3440)는 자연어 이해 모듈(3420)에서 파악된 파라미터가 태스크를 수행하는데 충분한지 여부를 판단할 수 있다. 다양한 실시예들에 따르면, 대화 매니저 모듈(3440)는 사용자의 의도가 명확하지 않은 경우 사용자에게 필요한 정보를 요청하는 피드백을 수행할 수 있다. 예를 들어, 대화 매니저 모듈(3440)는 사용자의 의도를 파악하기 위한 파라미터에 대한 정보를 요청하는 피드백을 수행할 수 있다.According to various embodiments, the conversation manager module 3440 may determine whether the user's intention identified by the natural language understanding module 3420 is clear. For example, the conversation manager module 3440 may determine whether the user's intention is clear based on whether the parameter information is sufficient. The conversation manager module 3440 may determine whether the parameters identified in the natural language understanding module 3420 are sufficient to perform the task. According to various embodiments, the conversation manager module 3440 may perform feedback requesting information necessary from the user when the user's intention is not clear. For example, the conversation manager module 3440 may perform feedback requesting information about parameters for grasping the user's intention.

다양한 실시예들에 따르면, 대화 매니저 모듈(3440)은 컨텐츠 제공(content provider) 모듈을 포함할 수 있다. 상기 컨텐츠 제공 모듈은 자연어 이해 모듈(3420)에서 파악된 의도 및 파라미터에 기초하여 동작을 수행할 수 있는 경우, 사용자 입력에 대응되는 태스크를 수행한 결과를 생성할 수 있다. 다양한 실시예들에 따르면, 대화 매니저 모듈(3440)은 사용자 입력에 대한 응답으로 상기 컨텐츠 제공 모듈에서 생성된 상기 결과를 사용자 단말(3210)로 송신할 수 있다.According to various embodiments, the conversation manager module 3440 may include a content provider module. The content providing module may generate a result of performing a task corresponding to a user input when an operation can be performed based on intentions and parameters identified in the natural language understanding module 3420. According to various embodiments, the conversation manager module 3440 may transmit the result generated in the content providing module to the user terminal 3210 in response to a user input.

다양한 실시예들에 따르면, 자연어 생성 모듈(NLG)(3450)은 지정된 정보를 텍스트 형태로 변경할 수 있다. 상기 텍스트 형태로 변경된 정보는 자연어 발화의 형태일 수 있다. 상기 지정된 정보는, 예를 들어, 추가 입력에 대한 정보, 사용자 입력에 대응되는 동작의 완료를 안내하는 정보 또는 사용자의 추가 입력을 안내하는 정보(예: 사용자 입력에 대한 피드백 정보)일 수 있다. 상기 텍스트 형태로 변경된 정보는 사용자 단말(3210)로 송신되어 디스플레이(3320)에 표시되거나, 텍스트 음성 변환 모듈(3460)로 송신되어 음성 형태로 변경될 수 있다.According to various embodiments, the natural language generation module (NLG) 3450 may change the designated information into a text form. The information changed to the text form may be in the form of natural language speech. The specified information may be, for example, information about additional input, information that guides the completion of an operation corresponding to the user input, or information that guides an additional input of the user (eg, feedback information on user input). The information changed in the text form may be transmitted to the user terminal 3210 and displayed on the display 3320, or may be transmitted to the text-to-speech module 3460 to be changed into a voice form.

다양한 실시예들에 따르면, 텍스트 음성 변환 모듈(3460)은 텍스트 형태의 정보를 음성 형태의 정보로 변경할 수 있다. 텍스트 음성 변환 모듈(3460)은 자연어 생성 모듈(3450)로부터 텍스트 형태의 정보를 수신하고, 상기 텍스트 형태의 정보를 음성 형태의 정보로 변경하여 사용자 단말(3210)로 송신할 수 있다. 사용자 단말(3210)은 상기 음성 형태의 정보를 스피커(4320)로 출력할 수 있다.According to various embodiments, the text-to-speech module 3460 may change text-type information to voice-type information. The text-to-speech module 3460 may receive text-type information from the natural language generation module 3450 and change the text-type information to voice-type information and transmit the text-type information to the user terminal 3210. The user terminal 3210 may output the voice type information to the speaker 4320.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420), 패스 플래너 모듈(3430) 및 대화 매니저 모듈(3440)은 하나의 모듈로 구현될 수 있다. 예를 들어, 자연어 이해 모듈(3420), 패스 플래너 모듈(3430) 및 대화 매니저 모듈(3440)은 하나의 모듈로 구현되어 사용자의 의도 및 파라미터를 결정하고, 상기 결정된 사용자의 의도 및 파라미터에 대응되는 응답(예: 패스 룰)을 생성할 수 있다. 이에 따라, 생성된 응답은 사용자 단말(3210)로 송신될 수 있다.According to various embodiments, the natural language understanding module 3420, the path planner module 3430, and the conversation manager module 3440 may be implemented as one module. For example, the natural language understanding module 3420, the path planner module 3430, and the conversation manager module 3440 may be implemented as one module to determine the user's intentions and parameters, and correspond to the determined user's intentions and parameters. You can generate a response (eg pass rule). Accordingly, the generated response may be transmitted to the user terminal 3210.

도 35는 다양한 실시예들에 따른 패스 플래너 모듈(path planner module)의 패스 룰(path rule)을 생성하는 방법을 나타낸 도면이다.35 is a diagram illustrating a method of generating a path rule of a path planner module according to various embodiments.

도 35를 참조하면, 다양한 실시예들에 따른, 자연어 이해 모듈(3420)은 앱의 기능을 단위 동작(A 내지 F)으로 구분하여 패스 룰 데이터베이스(3435)에 저장할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 단위 동작으로 구분된 복수의 패스 룰(A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F)을 포함하는 패스 룰 셋을 패스 룰 데이터베이스(3435)에 저장할 수 있다.Referring to FIG. 35, according to various embodiments, the natural language understanding module 3420 may divide the function of the app into unit operations A to F and store it in the pass rule database 3435. For example, the natural language understanding module 3420 uses a plurality of pass rules (A-B1-C1, A-B1-C2, A-B1-C3-DF, A-B1-C3-DEF), which are divided into unit operations. The included pass rule set may be stored in the pass rule database 3435.

다양한 실시예들에 따르면, 패스 플래너 모듈(3430)의 패스 룰 데이터베이스(3435)는 앱의 기능을 수행하기 위한 패스 룰 셋을 저장할 수 있다. 상기 패스 룰 셋은 복수의 동작을 포함하는 복수의 패스 룰을 포함할 수 있다. 상기 복수의 패스 룰은 복수의 동작 각각에 입력되는 파라미터에 따라 실행되는 동작이 순차적으로 배열될 수 있다. 일 실시 예에 따르면, 상기 복수의 패스 룰은 온톨로지(ontology) 또는 그래프 모델(graph model) 형태로 구성되어 패스 룰 데이터베이스(3435)에 저장될 수 있다.According to various embodiments, the pass rule database 3435 of the pass planner module 3430 may store a pass rule set for performing an app function. The pass rule set may include a plurality of pass rules including a plurality of operations. In the plurality of pass rules, operations executed according to parameters input to each of the plurality of operations may be sequentially arranged. According to an embodiment, the plurality of pass rules may be configured in an ontology or graph model form and stored in the pass rule database 3435.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 사용자 입력의 의도 및 파라미터에 대응되는 상기 복수의 패스 룰(A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F) 중에 최적의 패스 룰(A-B1-C3-D-F)을 선택할 수 있다.According to various embodiments, the natural language understanding module 3420 may include the plurality of pass rules A-B1-C1, A-B1-C2, A-B1-C3-DF, and A corresponding to intention and parameters of a user input. The optimal pass rule (A-B1-C3-DF) can be selected from -B1-C3-DEF).

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 사용자 입력에 완벽히 매칭되는 패스 룰이 없는 경우 사용자 단말(3210)에 복수의 룰을 전달할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 사용자 입력에 부분적으로 대응된 패스 룰(예: A-B1)을 선택할 수 있다. 자연어 이해 모듈(3420)은 사용자 입력에 부분적으로 대응된 패스 룰(예: A-B1)을 포함하는 하나 이상의 패스 룰(예: A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F)을 선택하여 사용자 단말(3210)에 전달할 수 있다.According to various embodiments, the natural language understanding module 3420 may deliver a plurality of rules to the user terminal 3210 when there is no pass rule that perfectly matches the user input. For example, the natural language understanding module 3420 may select a pass rule (eg, A-B1) partially corresponding to the user input. The natural language understanding module 3420 includes one or more pass rules (eg, A-B1-C1, A-B1-C2, A-B1-C3) including pass rules (eg, A-B1) partially corresponding to user input. -DF, A-B1-C3-DEF) can be delivered to the user terminal 3210.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 사용자 단말(3210)의 추가 입력에 기초하여 복수의 패스 룰 중 하나를 선택하고, 상기 선택된 하나의 패스 룰을 사용자 단말(3210)에 전달 할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 사용자 단말(3210)에서 추가로 입력된 사용자 입력(예: C3를 선택하는 입력)에 따라 복수의 패스 룰(예: A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F) 중 하나의 패스 룰(예: A-B1-C3-D-F)을 선택하여 사용자 단말(3210)에 송신할 수 있다.According to various embodiments, the natural language understanding module 3420 selects one of a plurality of pass rules based on the additional input of the user terminal 3210, and delivers the selected one pass rule to the user terminal 3210. Can. For example, the natural language understanding module 3420 may include a plurality of pass rules (eg, A-B1-C1, A-B1) according to a user input (eg, an input for selecting C3) additionally input from the user terminal 3210. One of the pass rules (eg, A-B1-C3-DF) among -C2, A-B1-C3-DF, and A-B1-C3-DEF) may be selected and transmitted to the user terminal 3210.

다양한 실시예들예에 따르면, 자연어 이해 모듈(3420)은 자연어 이해 모듈(3420)을 통해 사용자 단말(3210)에 추가로 입력된 사용자 입력(예: C3를 선택하는 입력)에 대응되는 사용자의 의도 및 파라미터를 결정할 수 있고, 상기 결정된 사용자의 의도 또는 파라미터를 사용자 단말(3210)로 송신할 수 있다. 사용자 단말(3210)은 상기 송신된 의도 또는 상기 파라미터에 기초하여, 복수의 패스 룰(예: A-B1-C1, A-B1-C2, A-B1-C3-D-F, A-B1-C3-D-E-F) 중 하나의 패스 룰(예: A-B1-C3-D-F)을 선택할 수 있다.According to various embodiments of the present disclosure, the natural language understanding module 3420 is a user's intention corresponding to a user input (eg, an input for selecting C3) additionally input to the user terminal 3210 through the natural language understanding module 3420 And a parameter, and transmit the determined user's intention or parameter to the user terminal 3210. The user terminal 3210 is based on the transmitted intention or the parameter, a plurality of pass rules (eg, A-B1-C1, A-B1-C2, A-B1-C3-DF, A-B1-C3- DEF), one of the pass rules (eg, A-B1-C3-DF) can be selected.

이에 따라, 사용자 단말(3210)은 상기 선택된 하나의 패스 룰에 의해 앱(3541, 3543)의 동작을 완료시킬 수 있다.Accordingly, the user terminal 3210 may complete the operation of the apps 3551 and 3543 by the selected one pass rule.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 정보가 부족한 사용자 입력이 지능형 서버(3400)에 수신된 경우, 상기 수신한 사용자 입력에 부분적으로 대응되는 패스 룰을 생성할 수 있다. 예를 들어, 자연어 이해 모듈(3420)은 상기 부분적으로 대응된 패스 룰을 지능형 에이전트(3551)로 송신(①)할 수 있다. 지능형 에이전트(3551)는 실행 매니저 모듈(3553)로 상기 부분적으로 대응된 패스 룰을 송신(②)하고, 실행 매니저 모듈(3553)는 상기 패스 룰에 따라 제 1 앱(3541)을 실행시킬 수 있다. 실행 매니저 모듈(3553)는 제 1 앱(3541)을 실행하면서 부족한 파라미터에 대한 정보를 지능형 에이전트(3551)로 송신(③)할 수 있다. 지능형 에이전트(3551)는 상기 부족한 파라미터에 대한 정보를 이용하여 사용자에게 추가 입력을 요청할 수 있다. 지능형 에이전트(3551)는 사용자에 의해 추가 입력이 수신(④)되면 지능형 서버(3400)로 송신하여 처리할 수 있다. 자연어 이해 모듈(3420)은 상기 추가로 입력된 사용자 입력의 의도 및 파라미터 정보에 기초하여 추가된 패스 룰을 생성하여 지능형 에이전트(3551)로 송신(⑤)할 수 있다. 지능형 에이전트(3551)는 실행 매니저 모듈(3553)로 상기 패스 룰을 송신(⑥)하여 제 2 앱(3543)를 실행할 수 있다.According to various embodiments, the natural language understanding module 3420 may generate a pass rule partially corresponding to the received user input when a user input lacking information is received by the intelligent server 3400. For example, the natural language understanding module 3420 may transmit (①) the partially corresponding pass rule to the intelligent agent 3551. The intelligent agent 3551 transmits (②) the partially corresponding pass rule to the execution manager module 353, and the execution manager module 353 can execute the first app 3541 according to the pass rule. . The execution manager module 353 may transmit (③) information about the insufficient parameter to the intelligent agent 3551 while executing the first app 3541. The intelligent agent 3551 may request additional input from the user by using the information on the insufficient parameter. When an additional input is received (④) by the user, the intelligent agent 3551 may transmit to the intelligent server 3400 for processing. The natural language understanding module 3420 may generate an additional pass rule based on the additionally input user input intention and parameter information and transmit (⑤) it to the intelligent agent 3551. The intelligent agent 3551 may execute the second app 3543 by transmitting (⑥) the pass rule to the execution manager module 353.

다양한 실시예들에 따르면, 자연어 이해 모듈(3420)은 일부 정보가 누락된 사용자 입력이 지능형 서버(3400)에 수신된 경우, 개인화 정보 서버(3300)로 사용자 정보 요청을 송신할 수 있다. 개인화 정보 서버(3300)는 페르소나 데이터베이스에 저장된 사용자 입력을 입력한 사용자의 정보를 자연어 이해 모듈(3420)로 송신할 수 있다. 자연어 이해 모듈(3420)은 상기 사용자 정보를 이용하여 일부 동작이 누락된 사용자 입력에 대응되는 패스 룰을 선택할 수 있다. 이에 따라, 자연어 이해 모듈(3420)은 일부 정보가 누락된 사용자 입력이 지능형 서버(3400)에 수신되더라도, 누락된 정보를 요청하여 추가 입력을 받거나 사용자 정보를 이용하여 상기 사용자 입력에 대응되는 패스 룰을 결정할 수 있다.According to various embodiments, the natural language understanding module 3420 may transmit a user information request to the personalized information server 3300 when a user input in which some information is missing is received by the intelligent server 3400. The personalization information server 3300 may transmit information of a user who inputs a user input stored in a persona database to the natural language understanding module 3420. The natural language understanding module 3420 may use the user information to select a pass rule corresponding to a user input in which some operations are missing. Accordingly, the natural language understanding module 3420 requests additional information by requesting the missing information or receives the additional input, or passes the rule corresponding to the user input by using the user information, even if the user input with some information missing is received by the intelligent server 3400. Can decide.

다양한 실시예들에 따르면, 전자장치(101)에 있어서, 마이크, 회로를 포함하는 통신 모듈, 및 적어도 하나의 프로세서(120)를 포함하고, 상기 적어도 하나의 프로세서(120)는 사용자 음성을 획득하도록 상기 마이크를 제어하고, 상기 획득된 사용자 음성을 서버(201)로 전달하도록 상기 통신 모듈을 제어하고, 상기 서버(201)로부터 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드(command)를 수신하도록 상기 통신 모듈을 제어하고, 상기 적어도 하나 이상의 동작은 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보의 적어도 일부 및 상기 사용자 음성의 강조 정보(emphasis information)의 적어도 일부에 대응하고, 상기 수신된 커맨드를 기반으로 상기 적어도 하나 이상의 동작을 수행하도록 설정된, 전자장치(101)가 제공될 수 있다.According to various embodiments, in the electronic device 101, a microphone, a communication module including a circuit, and at least one processor 120, the at least one processor 120 to obtain a user voice Control the microphone, control the communication module to deliver the obtained user voice to the server 201, and receive a command for performing at least one operation sequentially performed from the server 201 To control the communication module, and the at least one or more operations correspond to at least a part of the semantic information of the user voice and at least a part of the emphasis information of the user voice identified according to the analysis of the user voice An electronic device 101 configured to perform the at least one or more operations based on the received command may be provided.

다양한 실시예들에 따르면, 상기 강조 정보는 상기 사용자 음성 중 지정된 음성학적인 조건을 만족하는 적어도 일부, 또는 지정된 언어학적인 조건을 만족하는 적어도 일부 중 적어도 하나를 포함하는 것을 특징으로 하고, 상기 지정된 음성학적인 조건은 지정된 볼륨의 크기, 지정된 피치의 높이, 또는 지정된 발음의 길이 중 적어도 하나를 포함하고, 상기 지정된 언어학적인 조건은 지정된 단어로 확인되는 것, 또는 상기 사용자 음성 내에서 반복되는 단어로 확인되는 것 중 적어도 하나를 포함할 수 있다.According to various embodiments, the emphasis information may include at least one of the user's voice that satisfies a specified phonetic condition, or at least a portion that satisfies a specified linguistic condition, and the specified phonetic The condition includes at least one of a size of a specified volume, a height of a specified pitch, or a length of a specified pronunciation, wherein the specified linguistic condition is confirmed by a specified word, or a repeated word within the user's voice It may include at least one of.

다양한 실시예들에 따르면, 상기 사용자 음성의 의미 정보의 적어도 일부는 상기 사용자 음성의 강조 정보의 적어도 일부를 기반으로 확인되고, 상기 사용자 음성의 의미 정보의 적어도 일부에 포함된 적어도 하나의 파라미터는 상기 사용자 음성의 강조 정보의 적어도 일부를 기반으로 설정될 수 있다.According to various embodiments, at least a portion of the semantic information of the user voice is identified based on at least a portion of the emphasis information of the user voice, and at least one parameter included in at least a portion of the semantic information of the user voice is the It may be set based on at least a part of the emphasis information of the user voice.

다양한 실시예들에 따르면, 상기 적어도 하나 이상의 동작 중 적어도 일부에 대응하는 파라미터는, 상기 사용자 음성의 의미 정보 중 적어도 일부에 포함된 파라미터이고, 상기 사용자 음성의 의미 정보 중 적어도 일부에 포함된 상기 파라미터는 상기 사용자 음성의 강조 정보를 기반으로 설정될 수 있다.According to various embodiments, a parameter corresponding to at least a part of the at least one operation is a parameter included in at least some of the meaning information of the user voice, and the parameter included in at least some of the meaning information of the user voice May be set based on emphasis information of the user voice.

다양한 실시예들에 따르면, 상기 사용자 음성의 의미 정보 중 적어도 일부는 상기 사용자 음성의 강조 정보의 상기 사용자 음성의 강조 정보에 대응하는 사용자 발화의 시점을 나타내는 정보 또는 상기 사용자 음성의 강조 정보의 종류와 관련된 정보를 기반으로 확인되고, 상기 시점과 관련된 정보는 상기 사용자 음성의 강조 정보에 대응하는 사용자 발화의 시점을 나타내는 정보이고, 상기 사용자 음성의 강조 정보의 종류는 상기 지정된 음성학적인 조건을 만족하는 제 1 강조 정보 또는 상기 지정된 언어학적인 조건을 만족하는 제 2 강조 정보를 포함할 수 있다.According to various embodiments, at least some of the semantic information of the user voice includes information indicating a time point of a user's speech corresponding to the user voice emphasis information of the emphasis information of the user voice or a type of emphasis information of the user voice and It is identified based on the related information, and the information related to the viewpoint is information indicating a viewpoint of the user's speech corresponding to the emphasis information of the user's voice, and the type of the emphasis information of the user's voice is a product that satisfies the specified phonetic condition It may include 1 emphasis information or second emphasis information that satisfies the specified linguistic conditions.

다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(120)는, 상기 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행하는 동작의 적어도 일부로, 상기 수신된 커맨드를 기반으로, 알람 어플리케이션을 실행하고, 상기 실행된 알람 어플리케이션에 의해 지정된 시간 구간 동안 상기 사용자 음성의 강조 정보에 대응하는 지정된 횟수로 알람이 제공되도록 하도록 설정되는, 전자장치(101).According to various embodiments, the at least one processor 120 executes an alarm application based on the received command as at least part of an operation of performing at least one or more operations based on the received command, The electronic device 101 is set so that an alarm is provided at a specified number of times corresponding to emphasis information of the user voice during a time period specified by the executed alarm application.

다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(120)는 상기 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행하는 동작의 적어도 일부로, 상기 커맨드를 기반으로 전자장치(101)에 설치된 복수의 어플리케이션 중 상기 사용자 음성의 강조 정보에 대응하는 복수의 제 1 어플리케이션들을 실행하고, 상기 실행된 복수의 제 1 어플리케이션들의 각각에 의해 상기 적어도 하나 이상의 동작 중 적어도 일부에 대응하는 동작이 수행되도록 제어하도록 설정될 수 있다.According to various embodiments, the at least one processor 120 is at least part of an operation of performing at least one operation based on the received command, and a plurality of applications installed in the electronic device 101 based on the command Among the plurality of first applications corresponding to the emphasis information of the user's voice, the plurality of first applications may be executed, and an operation corresponding to at least a portion of the at least one operation may be performed by each of the plurality of executed first applications. Can.

다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(120)는, 상기 사용자 음성을 서버(201)로 전달한 것에 응답하여, 서버(201)로부터 적어도 하나 이상의 동작을 수행하기 위한 제 1 커맨드를 수신하도록 상기 통신 모듈을 제어하고, 수신된 제 1 커맨드를 기반으로, 상기 전자장치(101)의 상태 값을 사용자 음성의 강조 정보에 대응하는 지정된 제 1 값으로 설정하도록 설정될 수 있다.According to various embodiments, the at least one processor 120 may receive a first command for performing at least one operation from the server 201 in response to transmitting the user voice to the server 201. The communication module may be configured to set the status value of the electronic device 101 to a designated first value corresponding to emphasis information of the user's voice, based on the received first command.

다양한 실시예들에 따르면, 상기 상태 값은 상기 전자장치의 적어도 하나의 오디오 출력 파라미터, 상기 전자장치의 디스플레이 밝기 값, 또는 상기 전자장치의 진동 정도를 나타내는 값을 포함하는 상기 전자장치의 설정 값을 포함할 수 있다.According to various embodiments, the status value may include a setting value of the electronic device including at least one audio output parameter of the electronic device, a display brightness value of the electronic device, or a value indicating the degree of vibration of the electronic device. It can contain.

다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(120)는, 지정된 기간 동안 제 1 사용자 음성을 획득하고, 상기 서버(201)로 상기 획득된 제 1 사용자 음성을 전달하고, 서버(201)로부터 적어도 하나 이상의 제 1 동작을 수행하기 위한 제 2 커맨드를 수신하고, 상기 적어도 하나 이상의 제 1 동작의 적어도 일부는 상기 사용자 음성의 강조 정보에 대응하는 상기 제 1 사용자 음성의 제 1 정보에 대응하고, 수신된 제 2 커맨드를 기반으로, 전자장치(101)의 상태 값을 상기 제 1 사용자 음성의 제 1 정보에 대응하는 제 2 값으로 설정하도록 더 설정될 수 있다.According to various embodiments, the at least one processor 120 acquires a first user voice for a specified period of time, delivers the acquired first user voice to the server 201, and from the server 201 Receiving a second command for performing at least one first operation, and at least a portion of the at least one first operation corresponds to first information of the first user voice corresponding to emphasis information of the user voice, Based on the received second command, the state value of the electronic device 101 may be further set to be set to a second value corresponding to the first information of the first user voice.

다양한 실시예들에 따르면, 상기 서버에 의해 상기 사용자 음성의 강조 정보를 기반으로 상기 전자장치와 연관된 적어도 하나의 외부 전자장치가 확인되고, 상기 서버(201)에 의해 상기 적어도 하나 이상의 동작을 수행하기 위한 커맨드가 상기 적어도 하나의 외부 전자장치(2010)로 전달되고, 상기 적어도 하나의 다른 외부 전자장치(2010)에 의해 상기 수신된 커맨드를 기반으로 상기 적어도 하나 이상의 동작이 수행될 수 있다.According to various embodiments, at least one external electronic device associated with the electronic device is identified by the server based on emphasis information of the user voice, and the server 201 performs the at least one operation. The command for the communication is transmitted to the at least one external electronic device 2010, and the at least one operation may be performed based on the received command by the at least one other external electronic device 2010.

다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(120)는 상기 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행하는 동작의 적어도 일부로, 상기 강조 정보에 대응하는 적어도 하나 이상의 동작 중 적어도 일부를 기반으로, 상기 전자장치에 저장된 상기 사용자 음성에 대응하는 정보를 순차적으로 출력하고, 상기 사용자 음성에 대응하는 정보를 순차적으로 출력하는 중에 사용자 입력을 획득하고, 상기 사용자 입력을 획득한 것에 응답하여, 상기 사용자 음성에 대응하는 정보의 출력을 중지하도록 설정될 수 있다.According to various embodiments, the at least one processor 120 is at least part of an operation for performing at least one operation based on the received command, and is based on at least a portion of at least one operation corresponding to the emphasis information. In response, in response to acquiring user input and obtaining the user input while sequentially outputting information corresponding to the user voice stored in the electronic device and sequentially outputting information corresponding to the user voice, the It may be set to stop outputting information corresponding to the user's voice.

다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(120)는 상기 서버(201)로부터 적어도 하나 이상의 텍스트를 포함하는 답변에 대한 정보를 수신하도록 상기 통신 모듈을 제어하도록 설정되고, 상기 적어도 하나 이상의 텍스트는 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보 및 상기 사용자 음성의 강조 정보에 기반하여 확인되고, 상기 수신된 답변 정보를 기반으로, 적어도 하나 이상의 텍스트를 출력하도록 설정될 수 있다.According to various embodiments, the at least one processor 120 is set to control the communication module to receive information on an answer including at least one text from the server 201, and the at least one text Is confirmed based on the meaning information of the user voice and the emphasis information of the user voice confirmed according to the analysis of the user voice, and may be set to output at least one text based on the received answer information. .

다양한 실시예들에 따르면, 마이크, 회로를 포함하는 통신 모듈, 및 적어도 하나의 프로세서(120)를 포함하고, 상기 적어도 하나의 프로세서(120)는 사용자 음성을 획득하도록 상기 마이크를 제어하고, 상기 획득된 사용자 음성을 서버(201)로 전달하도록 상기 통신 모듈을 제어하고, 상기 서버(201)로부터 적어도 하나 이상의 텍스트를 포함하는 답변에 대한 정보를 수신하도록 상기 통신 모듈을 제어하고, 상기 적어도 하나 이상의 텍스트를 포함하는 답변에 대한 정보는 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보 및 상기 사용자 음성의 강조 정보(emphasis information)에 기반하여 확인되고, 상기 수신된 답변에 대한 정보를 기반으로 지정된 방식으로 적어도 하나 이상의 텍스트를 출력하도록 설정된, 전자장치(101)가 제공될 수 있다.According to various embodiments, a microphone, a communication module including a circuit, and at least one processor 120, wherein the at least one processor 120 controls the microphone to acquire a user voice, and the acquisition The communication module controls the communication module to transmit the user voice to the server 201, and controls the communication module to receive information on an answer including at least one text from the server 201, and the at least one text Information about the answer including is confirmed based on the meaning information of the user voice and emphasis information of the user voice confirmed according to the analysis of the user voice, and based on the information on the received answer The electronic device 101, which is configured to output at least one text in a designated manner as may be provided.

다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(120)는 상기 답변에 대한 정보를 기반으로 지정된 방식으로 적어도 하나 이상의 텍스트를 출력하는 동작의 적어도 일부로, 상기 답변에 대한 정보를 기반으로, 상기 적어도 하나 이상의 텍스트를 상기 전자장치(101)의 디스플레이 상에 표시하도록 설정되고, 상기 적어도 하나 이상의 텍스트 중 상기 사용자 음성의 강조 정보에 대응하는 제 1 텍스트가 상기 표시되는 상기 적어도 하나 이상의 텍스트 중 다른 텍스트에 비해 시각적으로 강조되어 표시될 수 있다.According to various embodiments, the at least one processor 120 is at least part of an operation of outputting at least one text in a designated manner based on information on the answer, based on the information on the answer, and the at least One or more texts are set to be displayed on the display of the electronic device 101, and a first text corresponding to the emphasis information of the user's voice among the at least one text is displayed on another text of the displayed at least one text. In comparison, it may be visually emphasized.

다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(120)는 상기 답변에 대한 정보를 기반으로 지정된 방식으로 적어도 하나 이상의 텍스트를 출력하는 동작의 적어도 일부로, 상기 답변에 대한 정보를 기반으로 상기 적어도 하나 이상의 텍스트를 상기 전자장치(101)의 오디오 장치를 통해 출력하도록 설정되고, 상기 출력되는 적어도 하나 이상의 텍스트 중 상기 사용자 음성의 상기 강조 정보에 대응하는 적어도 일부는 상기 출력되는 적어도 하나 이상의 텍스트 중 다른 일부에 비하여 청각적으로 강조되어 출력될 수 있다.According to various embodiments, the at least one processor 120 is at least part of an operation of outputting at least one text in a designated manner based on the information on the answer, and the at least one is based on the information on the answer The text above is set to be output through the audio device of the electronic device 101, and at least a part of the at least one text corresponding to the emphasis information of the user's voice is another part of the at least one text It can be output with audible emphasis.

다양한 실시예들에 따르면, 인스트럭션들을 저장하는 메모리, 및 적어도 하나의 프로세서(120)를 포함하고, 상기 인스트럭션들은, 실행 시에 상기 적어도 하나의 프로세서(120)가 사용자 음성을 획득하고, 상기 사용자 음성에 대응하는 사용자 음성의 강조 정보를 확인하고, 상기 사용자 음성에 대응하는 사용자 음성의 의미 정보를 확인하고, 상기 확인된 사용자 음성의 강조 정보 및 상기 확인된 사용자 음성의 의미 정보를 기반으로, 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 확인하고, 상기 확인된 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 전달하도록 설정된, 전자장치(101)가 제공될 수 있다.According to various embodiments, a memory for storing instructions, and at least one processor 120, wherein the instructions, when executed, the at least one processor 120 acquires a user voice, and the user voice Check the emphasis information of the user's voice corresponding to, check the semantic information of the user's voice corresponding to the user's voice, sequentially based on the identified emphasis information of the user's voice and the semantic information of the identified user's voice An electronic device 101 configured to identify a command for performing at least one or more operations performed and to transmit a command for performing the identified at least one operation may be provided.

다양한 실시예들에 따르면, 상기 인스트럭션들은 적어도 하나의 프로세서(120)가 상기 사용자 음성의 강조 정보의 적어도 일부에 대응하는 상기 사용자 음성의 의미 정보의 적어도 일부를 확인하고, 상기 사용자 음성의 강조 정보의 적어도 일부에 기반하여 상기 확인된 사용자 음성의 의미 정보의 적어도 일부에 포함된 적어도 하나의 파라미터의 값을 설정하고, 상기 설정된 파라미터의 값을 포함하는 적어도 일부 및 다른 일부를 포함하는 상기 사용자 음성의 의미 정보를 기반으로, 상기 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 확인하도록 설정될 수 있다.According to various embodiments of the present disclosure, at least one processor 120 identifies at least a portion of the meaning information of the user voice corresponding to at least a portion of the highlight information of the user voice, and displays the highlight information of the user voice. A value of at least one parameter included in at least a part of the semantic information of the identified user voice is set based on at least a part, and the meaning of the user voice includes at least a part and another part including a value of the set parameter Based on the information, it may be set to confirm a command for performing the at least one operation.

다양한 실시예들에 따르면, 상기 사용자 음성의 강조 정보는 적어도 하나 이상의 음향학적 분석 기술 또는 적어도 하나 이상의 언어학적 분석 기술 중 적어도 하나를 이용하여 확인될 수 있다.According to various embodiments, the emphasis information of the user voice may be identified using at least one of at least one acoustic analysis technique or at least one linguistic analysis technique.

다양한 실시예들에 따르면, 상기 적어도 하나 이상의 음향학적 분석 기술은 상기 사용자 음성의 적어도 일부의 볼륨, 피치 또는 발음 길이 중 적어도 하나를 분석하는 기술이고, 상기 적어도 하나 이상의 언어학적 분석 기술은 상기 사용자 음성의 특정 단어 반복, 또는 강조 부사 발화를 분석하는 기술이며, 상기 제 1 정보는 상기 적어도 하나 이상의 음향학적 분석 기술에 따라 상기 사용자 음성으로부터 확인된 제 1 강조 정보 또는 상기 적어도 하나 이상의 언어학적 분석 기술에 따라 상기 사용자 음성으로부터 확인된 제 2 강조 정보인 것을 특징으로 할 수 있다.According to various embodiments, the at least one acoustic analysis technique is a technique for analyzing at least one of a volume, pitch, or pronunciation length of at least a portion of the user voice, and the at least one linguistic analysis technique is the user voice Is a technique for analyzing a specific word repetition, or emphasizing adverb utterance, wherein the first information is applied to the first emphasis information identified from the user's voice or the at least one linguistic analysis technique according to the at least one acoustic analysis technique. Accordingly, it may be characterized in that the second emphasis information confirmed from the user voice.

다양한 실시예들에 따르면, 상기 인스트럭션들은 적어도 하나의 프로세서(120)가 상기 확인된 사용자 음성의 강조 정보 및 상기 확인된 사용자 음성의 의미 정보를 기반으로, 적어도 하나 이상의 텍스트에 관한 답변 정보를 확인하고, 상기 적어도 하나 이상의 텍스트에 관한 답변 정보를 전달하도록 설정될 수 있다.According to various embodiments, at least one processor 120 checks answer information on at least one text based on the highlighted user voice emphasis information and the identified user voice semantic information. , May be configured to transmit answer information regarding the at least one text.

다양한 실시예들에 따르면, 마이크, 회로를 포함하는 통신 모듈, 및 적어도 하나의 프로세서(120)를 포함하고, 상기 적어도 하나의 프로세서(120)는 사용자 음성을 획득하도록 상기 마이크를 제어하고, 상기 획득된 사용자 음성을 서버(201)로 전달하도록 상기 통신 모듈을 제어하고, 상기 서버(201)로부터 순차적으로 수행되는 적어도 하나의 제 1 동작을 수행하기 위한 제 1 커맨드(command)를 수신하도록 상기 통신 모듈을 제어하고, 상기 적어도 하나의 제 1 동작은, 상기 사용자 음성으로부터 강조 정보가 확인되지 않는 경우, 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보에 대응하고, 상기 서버(201)로부터 순차적으로 수행되는 적어도 하나의 제 2 동작을 수행하기 위한 제 2 커맨드(command)를 수신하도록 상기 통신 모듈을 제어하도록 설정되고, 상기 적어도 하나의 제 2 동작은, 상기 사용자 음성으로부터 강조 정보가 확인되는 경우, 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보 및 상기 사용자 음성의 강조 정보에 대응하고, 전자장치(101)가 제공될 수 있다.According to various embodiments, a microphone, a communication module including a circuit, and at least one processor 120, wherein the at least one processor 120 controls the microphone to acquire a user voice, and the acquisition The communication module to control the communication module to transmit the user voice to the server 201, and to receive a first command (command) for performing at least one first operation performed sequentially from the server 201 And the first operation corresponds to semantic information of the user voice identified according to the analysis of the user voice when the emphasis information is not confirmed from the user voice, and the server 201. It is set to control the communication module to receive a second command (command) for performing at least one second operation performed sequentially from the, the at least one second operation, the highlight information from the user voice is confirmed In some cases, the electronic device 101 may be provided to correspond to semantic information of the user voice and emphasis information of the user voice identified according to the analysis of the user voice.

Claims (21)

전자장치에 있어서,
마이크;
회로를 포함하는 통신 모듈; 및
적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는:
사용자 음성을 획득하도록 상기 마이크를 제어하고,
상기 획득된 사용자 음성을 서버로 전달하도록 상기 통신 모듈을 제어하고,
상기 서버로부터 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드(command)를 수신하도록 상기 통신 모듈을 제어하고, 상기 적어도 하나 이상의 동작은 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보의 적어도 일부 및 상기 사용자 음성의 강조 정보(emphasis information)의 적어도 일부에 대응하고,
상기 수신된 커맨드를 기반으로 상기 적어도 하나 이상의 동작을 수행하도록 설정된, 전자장치.
In the electronic device,
MIC;
A communication module including circuitry; And
And at least one processor; wherein the at least one processor comprises:
Control the microphone to obtain a user voice,
Control the communication module to deliver the acquired user voice to a server,
The communication module is controlled to receive a command for performing at least one operation sequentially performed from the server, and the at least one operation is the meaning of the user voice confirmed according to analysis of the user voice Corresponds to at least a portion of information and at least a portion of emphasis information of the user voice,
An electronic device configured to perform the at least one or more operations based on the received command.
제 1 항에 있어서,
상기 강조 정보는 상기 사용자 음성 중 지정된 음성학적인 조건을 만족하는 적어도 일부, 또는 지정된 언어학적인 조건을 만족하는 적어도 일부 중 적어도 하나를 포함하는 것을 특징으로 하고,
상기 지정된 음성학적인 조건은 지정된 볼륨의 크기, 지정된 피치의 높이, 또는 지정된 발음의 길이 중 적어도 하나를 포함하고,
상기 지정된 언어학적인 조건은 지정된 단어로 확인되는 것, 또는 상기 사용자 음성 내에서 반복되는 단어로 확인되는 것 중 적어도 하나를 포함하는, 전자장치.
According to claim 1,
The emphasis information may include at least one of the user voices that satisfies a specified phonetic condition, or at least a portion that satisfies a specified linguistic condition,
The designated phonetic condition includes at least one of a specified volume size, a specified pitch height, or a specified pronunciation length,
The specified linguistic condition includes at least one of being identified by a designated word or being repeated by a word repeated in the user's voice.
제 2 항에 있어서,
상기 사용자 음성의 의미 정보의 적어도 일부는 상기 사용자 음성의 강조 정보의 적어도 일부를 기반으로 확인되고,
상기 사용자 음성의 의미 정보의 적어도 일부에 포함된 적어도 하나의 파라미터는 상기 사용자 음성의 강조 정보의 적어도 일부를 기반으로 설정되는, 전자장치.
According to claim 2,
At least a part of the semantic information of the user voice is identified based on at least a part of the emphasis information of the user voice,
The at least one parameter included in at least a part of the meaning information of the user voice is set based on at least a part of the emphasis information of the user voice.
제 3 항에 있어서,
상기 적어도 하나 이상의 동작 중 적어도 일부는 상기 사용자 음성의 의미 정보의 적어도 일부에 포함된 적어도 하나의 파라미터에 대응하는, 전자장치.
The method of claim 3,
At least some of the at least one operation corresponds to at least one parameter included in at least a part of the semantic information of the user voice, the electronic device.
제 4 항에 있어서,
상기 사용자 음성의 의미 정보 중 적어도 일부는 상기 사용자 음성의 강조 정보의 상기 사용자 음성의 강조 정보에 대응하는 사용자 발화의 시점을 나타내는 정보 또는 상기 사용자 음성의 강조 정보의 종류와 관련된 정보를 기반으로 확인되고,
상기 시점과 관련된 정보는 상기 사용자 음성의 강조 정보에 대응하는 사용자 발화의 시점을 나타내는 정보이고,
상기 사용자 음성의 강조 정보의 종류는 상기 지정된 음성학적인 조건을 만족하는 제 1 강조 정보 또는 상기 지정된 언어학적인 조건을 만족하는 제 2 강조 정보를 포함하는, 전자장치.
The method of claim 4,
At least some of the meaning information of the user's voice is identified based on information related to the type of the user's voice emphasis information or information indicating a time point of the user's speech corresponding to the user voice emphasis information of the user voice emphasis information ,
The information related to the viewpoint is information indicating a viewpoint of user speech corresponding to the emphasis information of the user voice,
The type of emphasis information of the user voice includes first emphasis information that satisfies the specified phonetic condition or second emphasis information that satisfies the specified linguistic condition.
제 1 항에 있어서,
상기 사용자 음성의 강조 정보는 상기 사용자 음성의 의미 정보와 별도로 언어학적 분석 기술 또는 음향학적 분석 기술을 기반으로 확인되는, 전자장치.
According to claim 1,
The electronic device emphasizing information of the user voice is identified based on linguistic analysis technology or acoustic analysis technology separately from the semantic information of the user voice.
제 1 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행하는 동작의 적어도 일부로, 상기 수신된 커맨드를 기반으로, 알람 어플리케이션을 실행하고, 지정된 시간에 상기 사용자 음성의 강조 정보에 대응하는 횟수로 상기 실행된 알람 어플리케이션에 의해 알람이 제공되도록 하도록 설정되는, 전자장치.
According to claim 1,
The at least one processor is:
At least part of the operation of performing at least one or more operations based on the received command, the alarm application is executed based on the received command, and the execution is executed at a number of times corresponding to the emphasis information of the user's voice at a specified time. An electronic device that is configured to provide an alarm by an alarm application.
제 1 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행하는 동작의 적어도 일부로:
상기 커맨드를 기반으로 전자장치에 설치된 복수의 어플리케이션들 중 상기 사용자 음성의 강조 정보에 대응하는 복수의 제 1 어플리케이션들을 실행하고,
상기 실행된 복수의 제1 어플리케이션의 각각에 의해 상기 적어도 하나 이상의 동작에 대응하는 동작이 수행되도록 제어하도록 설정된, 전자장치.
According to claim 1,
The at least one processor is:
As at least part of the operation of performing at least one or more operations based on the received command:
Based on the command, among the plurality of applications installed in the electronic device, the plurality of first applications corresponding to the emphasis information of the user voice are executed,
An electronic device configured to control an operation corresponding to the at least one operation to be performed by each of the plurality of executed first applications.
제 1 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행하는 동작의 적어도 일부로:
수신된 제 1 커맨드를 기반으로, 상기 전자장치의 상태 값을 사용자 음성의 강조 정보에 대응하는 지정된 제 1 값으로 설정하도록 설정된, 전자장치.
According to claim 1,
The at least one processor is:
As at least part of the operation of performing at least one or more operations based on the received command:
Based on the received first command, the electronic device is set to set the state value of the electronic device to a designated first value corresponding to emphasis information of the user's voice.
제 9 항에 있어서,
상기 상태 값은 상기 전자장치의 적어도 하나의 오디오 볼륨 값, 상기 전자장치의 디스플레이 밝기 값, 또는 상기 전자장치의 진동 정도를 나타내는 값을 포함하는 상기 전자장치의 설정 값인, 전자장치.
The method of claim 9,
The status value is a set value of the electronic device including at least one audio volume value of the electronic device, a display brightness value of the electronic device, or a value indicating the degree of vibration of the electronic device.
제 10 항에 있어서,
상기 적어도 하나의 프로세서는:
지정된 기간 동안 제 1 사용자 음성을 획득하고,
상기 서버로 상기 획득된 제 1 사용자 음성을 전달하고,
서버로부터 적어도 하나 이상의 제 1 동작을 수행하기 위한 제 2 커맨드를 수신하고, 상기 적어도 하나 이상의 제 1 동작의 적어도 일부는 상기 사용자 음성의 강조 정보에 대응하는 상기 제 1 사용자 음성의 제 1 정보에 대응하고,
상기 수신된 제 2 커맨드를 기반으로, 전자장치의 상태 값을 상기 제 1 사용자 음성의 제 1 정보에 대응하는 제 2 값으로 설정하도록 더 설정된, 전자장치.
The method of claim 10,
The at least one processor is:
Acquire a first user voice for a specified period of time,
Deliver the acquired first user voice to the server,
A second command for performing at least one first operation from a server, and at least a portion of the at least one first operation corresponds to first information of the first user voice corresponding to emphasis information of the user voice and,
Based on the received second command, the electronic device is further set to set a state value of the electronic device to a second value corresponding to the first information of the first user voice.
제 1 항에 있어서,
상기 서버에 의해 상기 사용자 음성의 강조 정보를 기반으로 상기 전자장치와 연관된 적어도 하나의 외부 전자장치가 확인되고,
상기 서버에 의해 상기 적어도 하나 이상의 동작을 수행하기 위한 커맨드가 상기 적어도 하나의 외부 전자장치로 전달되고,
상기 적어도 하나의 다른 외부 전자장치에 의해 상기 수신된 커맨드를 기반으로 상기 적어도 하나 이상의 동작이 수행되는, 전자장치.
According to claim 1,
At least one external electronic device associated with the electronic device is identified by the server based on the emphasis information of the user voice,
Commands for performing the at least one operation by the server is transmitted to the at least one external electronic device,
The at least one operation is performed based on the received command by the at least one other external electronic device.
제 1 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 수신된 커맨드를 기반으로 적어도 하나 이상의 동작을 수행하는 동작의 적어도 일부로:
상기 강조 정보에 대응하는 적어도 하나 이상의 동작 중 적어도 일부를 기반으로, 상기 전자장치에 저장된 상기 사용자 음성에 대응하는 정보를 순차적으로 출력하고,
상기 사용자 음성에 대응하는 정보를 순차적으로 출력하는 중에 사용자 입력을 획득하고,
상기 사용자 입력을 획득한 것에 응답하여, 상기 사용자 음성에 대응하는 정보의 출력을 중지하도록 설정된, 전자장치.
According to claim 1,
The at least one processor is:
As at least part of the operation of performing at least one or more operations based on the received command:
Sequentially outputting information corresponding to the user's voice stored in the electronic device based on at least a part of at least one operation corresponding to the emphasis information,
While sequentially outputting information corresponding to the user's voice, a user input is acquired,
And in response to obtaining the user input, set to stop outputting information corresponding to the user voice.
제 1 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 서버로부터 적어도 하나 이상의 텍스트를 포함하는 답변에 대한 정보를 수신하도록 상기 통신 모듈을 제어하도록 설정되고, 상기 적어도 하나 이상의 텍스트는 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보 및 상기 사용자 음성의 강조 정보에 기반하여 확인되고,
상기 수신된 답변 정보를 기반으로, 적어도 하나 이상의 텍스트를 출력하도록 설정된, 전자장치.
According to claim 1,
The at least one processor is:
It is set to control the communication module to receive information on an answer including at least one text from the server, wherein the at least one text is semantic information of the user's voice and the information identified by the analysis of the user's voice Confirmed based on the emphasis information of the user's voice,
An electronic device configured to output at least one or more texts based on the received answer information.
전자장치에 있어서,
마이크;
회로를 포함하는 통신 모듈; 및
적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는:
사용자 음성을 획득하도록 상기 마이크를 제어하고,
상기 획득된 사용자 음성을 서버로 전달하도록 상기 통신 모듈을 제어하고,
상기 서버로부터 적어도 하나 이상의 텍스트를 포함하는 답변에 대한 정보를 수신하도록 상기 통신 모듈을 제어하고, 상기 적어도 하나 이상의 텍스트를 포함하는 답변에 대한 정보는 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보 중 적어도 일부 및 상기 사용자 음성의 강조 정보(emphasis information) 중 적어도 일부에 대응하고,
상기 수신된 답변에 대한 정보를 기반으로 지정된 방식으로 적어도 하나 이상의 텍스트를 출력하도록 설정된, 전자장치.
In the electronic device,
MIC;
A communication module including circuitry; And
And at least one processor; wherein the at least one processor comprises:
Control the microphone to obtain a user voice,
Control the communication module to deliver the acquired user voice to a server,
The communication module controls the communication module to receive information on an answer including at least one text from the server, and the information on the answer including the at least one text is the user voice confirmed according to the analysis on the user voice Corresponds to at least a part of the semantic information and to at least a part of the emphasis information of the user voice,
An electronic device configured to output at least one text in a designated manner based on information on the received answer.
제 15 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 수신된 답변에 대한 정보를 기반으로 지정된 방식으로 적어도 하나 이상의 텍스트를 출력하는 동작의 적어도 일부로, 상기 답변에 대한 정보를 기반으로, 상기 적어도 하나 이상의 텍스트를 상기 전자장치의 디스플레이 상에 표시하도록 설정되고,
상기 적어도 하나 이상의 텍스트 중 상기 사용자 음성의 강조 정보에 대응하는 제 1 텍스트가 상기 표시되는 상기 적어도 하나 이상의 텍스트 중 다른 텍스트에 비해 시각적으로 강조되어 표시되는, 전자장치.
The method of claim 15,
The at least one processor is:
Set to display the at least one text on the display of the electronic device as at least a part of the operation of outputting at least one text in a designated manner based on the information on the received answer. Become,
An electronic device in which the first text corresponding to the emphasis information of the user's voice among the at least one text is visually emphasized compared to other text among the displayed at least one text.
제 15 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 수신된 답변에 대한 정보를 기반으로 지정된 방식으로 적어도 하나 이상의 텍스트를 출력하는 동작의 적어도 일부로, 상기 답변에 대한 정보를 기반으로 상기 적어도 하나 이상의 텍스트를 상기 전자장치의 오디오 장치를 통해 출력하도록 설정되고,
상기 출력되는 적어도 하나 이상의 텍스트 중 상기 사용자 음성의 상기 강조 정보에 대응하는 적어도 일부는 상기 출력되는 적어도 하나 이상의 텍스트 중 다른 일부에 비하여 청각적으로 강조되어 출력되는, 전자장치.
The method of claim 15,
The at least one processor is:
Set to output the at least one text through the audio device of the electronic device as at least a part of the operation of outputting at least one text in a designated manner based on the information on the received answer. Become,
An electronic device in which at least a portion of the output at least one text corresponding to the emphasis information of the user's voice is audibly emphasized and output compared to another portion of the output at least one text.
인스트럭션들을 저장하는 메모리; 및
적어도 하나의 프로세서;를 포함하고
상기 인스트럭션들은, 실행 시에 상기 적어도 하나의 프로세서가:
사용자 음성을 획득하고,
상기 사용자 음성에 대응하는 사용자 음성의 강조 정보를 확인하고,
상기 사용자 음성에 대응하는 사용자 음성의 의미 정보를 확인하고,
상기 확인된 사용자 음성의 강조 정보 및 상기 확인된 사용자 음성의 의미 정보를 기반으로, 순차적으로 수행되는 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 확인하고,
상기 확인된 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 전달하도록 설정된, 전자장치.
A memory for storing instructions; And
And at least one processor;
The instructions, when executed, cause the at least one processor to:
To acquire a user voice,
Check the emphasis information of the user voice corresponding to the user voice,
Check the meaning information of the user voice corresponding to the user voice,
Based on the highlighted user voice emphasis information and the identified user voice semantic information, identify a command for performing at least one operation sequentially performed,
And an electronic device configured to transmit a command for performing the identified at least one operation.
제 18 항에 있어서,
상기 인스트럭션들은 적어도 하나의 프로세서가:
상기 사용자 음성의 강조 정보의 적어도 일부에 대응하는 상기 사용자 음성의 의미 정보의 적어도 일부를 확인하고,
상기 사용자 음성의 강조 정보의 적어도 일부에 기반하여 상기 확인된 사용자 음성의 의미 정보의 적어도 일부에 포함된 적어도 하나의 파라미터의 값을 설정하고,
상기 설정된 파라미터의 값을 포함하는 적어도 일부 및 다른 일부를 포함하는 상기 사용자 음성의 의미 정보를 기반으로, 상기 적어도 하나 이상의 동작을 수행하기 위한 커맨드를 확인하도록 설정된, 전자장치.
The method of claim 18,
The instructions have at least one processor:
Confirming at least a portion of the semantic information of the user voice corresponding to at least a portion of the emphasis information of the user voice,
Set values of at least one parameter included in at least a portion of the semantic information of the identified user voice based on at least a portion of the emphasis information of the user voice,
The electronic device is configured to confirm a command for performing the at least one operation, based on the semantic information of the user voice including at least a part including the value of the set parameter and another part.
제 18 항에 있어서,
상기 사용자 음성의 강조 정보는 적어도 하나 이상의 음향학적 분석 기술 또는 적어도 하나 이상의 언어학적 분석 기술 중 적어도 하나를 이용하여 확인되고,
상기 적어도 하나 이상의 음향학적 분석 기술은 상기 사용자 음성의 적어도 일부의 볼륨, 피치 또는 발음 길이 중 적어도 하나를 분석하는 기술이고,
상기 적어도 하나 이상의 언어학적 분석 기술은 상기 사용자 음성의 특정 단어 반복, 또는 강조 부사 발화를 분석하는 기술이며,
상기 제 1 정보는 상기 적어도 하나 이상의 음향학적 분석 기술에 따라 상기 사용자 음성으로부터 확인된 제 1 강조 정보 또는 상기 적어도 하나 이상의 언어학적 분석 기술에 따라 상기 사용자 음성으로부터 확인된 제 2 강조 정보인 것을 특징으로 하는, 전자장치.
The method of claim 18,
The emphasis information of the user voice is identified using at least one of at least one acoustic analysis technique or at least one linguistic analysis technique,
The at least one acoustic analysis technique is a technique for analyzing at least one of volume, pitch, or pronunciation length of at least a portion of the user's voice,
The at least one linguistic analysis technique is a technique for analyzing a specific word repetition or emphasizing speech of the user's voice,
The first information may be first emphasis information identified from the user's voice according to the at least one acoustic analysis technique or second emphasis information identified from the user's voice according to the at least one linguistic analysis technique. Electronic device.
전자장치에 있어서,
마이크;
회로를 포함하는 통신 모듈; 및
적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는:
사용자 음성을 획득하도록 상기 마이크를 제어하고,
상기 획득된 사용자 음성을 서버로 전달하도록 상기 통신 모듈을 제어하고,
상기 서버로부터 순차적으로 수행되는 적어도 하나의 제 1 동작을 수행하기 위한 제 1 커맨드(command)를 수신하도록 상기 통신 모듈을 제어하고, 상기 적어도 하나의 제 1 동작은, 상기 사용자 음성으로부터 강조 정보가 확인되지 않는 경우, 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보에 대응하고,
상기 서버로부터 순차적으로 수행되는 적어도 하나의 제 2 동작을 수행하기 위한 제 2 커맨드(command)를 수신하도록 상기 통신 모듈을 제어하도록, 상기 적어도 하나의 제 2 동작은, 상기 사용자 음성으로부터 강조 정보가 확인되는 경우, 상기 사용자 음성에 대한 분석에 따라 확인된 상기 사용자 음성의 의미 정보 및 상기 사용자 음성의 강조 정보에 대응하는, 전자장치.
In the electronic device,
MIC;
A communication module including circuitry; And
And at least one processor; wherein the at least one processor comprises:
Control the microphone to obtain a user voice,
Control the communication module to deliver the acquired user voice to a server,
The communication module is controlled to receive a first command for performing at least one first operation sequentially performed from the server, and the at least one first operation is confirmed by highlighting information from the user voice. If not, it corresponds to the semantic information of the user voice confirmed according to the analysis of the user voice,
In order to control the communication module to receive a second command for performing at least one second operation performed sequentially from the server, the at least one second operation is confirmed by highlighting information from the user voice If possible, the electronic device corresponding to the semantic information of the user's voice and emphasis information of the user's voice identified according to the analysis of the user's voice.
KR1020190010101A 2019-01-25 2019-01-25 Electronic device for processing user speech and controlling method thereof KR20200092763A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190010101A KR20200092763A (en) 2019-01-25 2019-01-25 Electronic device for processing user speech and controlling method thereof
PCT/KR2020/001030 WO2020153720A1 (en) 2019-01-25 2020-01-21 Electronic device for processing user voice and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190010101A KR20200092763A (en) 2019-01-25 2019-01-25 Electronic device for processing user speech and controlling method thereof

Publications (1)

Publication Number Publication Date
KR20200092763A true KR20200092763A (en) 2020-08-04

Family

ID=71735637

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190010101A KR20200092763A (en) 2019-01-25 2019-01-25 Electronic device for processing user speech and controlling method thereof

Country Status (2)

Country Link
KR (1) KR20200092763A (en)
WO (1) WO2020153720A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101513615B1 (en) * 2008-06-12 2015-04-20 엘지전자 주식회사 Mobile terminal and voice recognition method
US20120310642A1 (en) * 2011-06-03 2012-12-06 Apple Inc. Automatically creating a mapping between text data and audio data
KR102017700B1 (en) * 2013-03-15 2019-09-03 엘지전자 주식회사 Terminal and method for controlling the same
KR102302721B1 (en) * 2014-11-24 2021-09-15 삼성전자주식회사 Electronic apparatus for executing plurality of applications and method for controlling thereof
US9772817B2 (en) * 2016-02-22 2017-09-26 Sonos, Inc. Room-corrected voice detection

Also Published As

Publication number Publication date
WO2020153720A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
KR102426704B1 (en) Method for operating speech recognition service and electronic device supporting the same
KR102371313B1 (en) Electronic apparatus for recognizing keyword included in your utterance to change to operating state and controlling method thereof
KR102298947B1 (en) Voice data processing method and electronic device supporting the same
KR102416782B1 (en) Method for operating speech recognition service and electronic device supporting the same
KR20190101630A (en) System for processing user utterance and controlling method thereof
KR102365649B1 (en) Method for controlling display and electronic device supporting the same
KR20190006403A (en) Voice processing method and system supporting the same
KR20190099761A (en) System for processing user utterance and controlling method thereof
KR102347208B1 (en) Method for performing task using external device and electronic device, server and recording medium supporting the same
KR102440651B1 (en) Method for providing natural language expression and electronic device supporting the same
US11120792B2 (en) System for processing user utterance and controlling method thereof
KR102361458B1 (en) Method for responding user speech and electronic device supporting the same
KR102391298B1 (en) electronic device providing speech recognition service and method thereof
KR102563817B1 (en) Method for processing user voice input and electronic device supporting the same
KR102369083B1 (en) Voice data processing method and electronic device supporting the same
KR20190008663A (en) Voice data processing method and system supporting the same
KR20190109916A (en) A electronic apparatus and a server for processing received data from the apparatus
KR102388539B1 (en) Electronic apparatus for processing user utterance
KR20190127372A (en) Electronic device and method for executing function of electronic device
KR20190068133A (en) Electronic device and method for speech recognition
KR20200099380A (en) Method for providing speech recognition serivce and electronic device thereof
KR20190139489A (en) method for operating speech recognition service and electronic device supporting the same
KR102345883B1 (en) Electronic device for ouputting graphical indication
KR20190114325A (en) The apparatus for processing user voice input
KR102426411B1 (en) Electronic apparatus for processing user utterance and server