KR20190079791A - Method for providing service using plurality wake up word in artificial intelligence device, and system thereof - Google Patents

Method for providing service using plurality wake up word in artificial intelligence device, and system thereof Download PDF

Info

Publication number
KR20190079791A
KR20190079791A KR1020170181758A KR20170181758A KR20190079791A KR 20190079791 A KR20190079791 A KR 20190079791A KR 1020170181758 A KR1020170181758 A KR 1020170181758A KR 20170181758 A KR20170181758 A KR 20170181758A KR 20190079791 A KR20190079791 A KR 20190079791A
Authority
KR
South Korea
Prior art keywords
answer information
voice
electronic device
term
information
Prior art date
Application number
KR1020170181758A
Other languages
Korean (ko)
Other versions
KR102079979B1 (en
Inventor
김영재
이민희
정민영
박수만
신중호
Original Assignee
네이버 주식회사
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사, 라인 가부시키가이샤 filed Critical 네이버 주식회사
Priority to KR1020170181758A priority Critical patent/KR102079979B1/en
Priority to JP2018233018A priority patent/JP6728319B2/en
Publication of KR20190079791A publication Critical patent/KR20190079791A/en
Application granted granted Critical
Publication of KR102079979B1 publication Critical patent/KR102079979B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Abstract

Disclosed are a service providing method using a plurality of call terms in an artificial intelligence device, and a system thereof. The service providing method comprises the steps of: defining a plurality of call terms used as a conversation activation trigger for activating a conversation function of an electronic device, and setting a desired response information range per call term; activating the conversation function when at least one specific call term among the plurality of call terms is recognized through a voice interface of the electronic device; and providing response information based on the desired response information ranged corresponding to the specific call term with respect to a voice query inputted in a state where the conversation function is activated.

Description

인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템{METHOD FOR PROVIDING SERVICE USING PLURALITY WAKE UP WORD IN ARTIFICIAL INTELLIGENCE DEVICE, AND SYSTEM THEREOF}TECHNICAL FIELD [0001] The present invention relates to a service providing method using a plurality of call terms in an artificial intelligence device,

아래의 설명은 인공지능 대화 시스템에 관한 것이다.The following discussion is about artificial intelligence dialogue systems.

일반적으로 개인비서 시스템, 인공지능(AI) 스피커, 챗봇 플랫폼(chatbot platform) 등에서 사용되는 인공지능 대화 시스템은 사람의 명령어에 대한 의도를 이해하고 그에 대응하는 답변 문구를 제공하는 방식이다.In general, an artificial intelligence dialog system used in a personal secretary system, an AI speaker, a chatbot platform, etc. is a way of understanding an intention of a human command and providing an answer phrase corresponding thereto.

주로 인공지능 대화 시스템은 사람이 기능적인 요구를 전달하고 이에 기계가 사람의 요구에 대한 해답을 제공하는 방식으로, 마이크(microphone)를 통해 사용자의 음성 입력을 수신하고 수신된 음성 입력에 기반하여 디바이스 동작이나 컨텐츠 제공을 제어할 수 있다.An artificial intelligence dialogue system mainly receives a user's speech input via a microphone in such a way that a person delivers a functional request and the machine provides a solution to the needs of a person, It is possible to control operation and content provisioning.

예를 들어, 한국공개특허 제10-2011-0139797호(공개일 2011년 12월 30일)에는 홈 네트워크 서비스에서 홈 내 복수의 멀티미디어 기기를 사용자가 음성 명령을 통해 다중 제어할 수 있는 기술이 개시되어 있다.For example, Korean Unexamined Patent Publication No. 10-2011-0139797 (published on December 30, 2011) discloses a technology that enables a user to multiplexly control a plurality of multimedia devices in a home using a voice command in a home network service. .

일반적으로 인공지능 대화 시스템은 사전에 정해진 호출 용어(wake up word))(예를 들어, 기기의 이름 등)를 기기를 활성화하기 위한 대화 활성 트리거로 사용하고 있다. 인공지능 기기는 호출 용어를 기반으로 음성인식 기능을 수행하게 되며, 예를 들어 사용자가 기계의 이름을 부르면 기기가 활성화되어 이어지는 사용자의 음성 질의를 입력받기 위한 대기 모드로 진입할 수 있다.In general, an artificial intelligence dialogue system uses predefined wake up words (e.g., the name of the device) as a dialogue activation trigger to activate the device. The artificial intelligence device performs a voice recognition function based on the calling term. For example, when the user calls the name of the machine, the device is activated and can enter a standby mode for receiving a voice query of the succeeding user.

음성 기반 인터페이스를 제공하는 인공지능 기기의 호출 용어를 둘 이상으로 구분하고 각 호출 용어에 따라 서비스 대상을 구분할 수 있는 방법 및 시스템을 제공한다.A method and system for distinguishing two or more calling terms of an artificial intelligent device providing a voice-based interface and distinguishing service objects according to each calling term is provided.

컴퓨터로 구현되는 전자 기기에서 수행되는 음성 기반 서비스 제공 방법에 있어서, 상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계; 상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화하는 단계; 및 상기 대화 기능이 활성화된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 단계를 포함하는 음성 기반 서비스 제공 방법을 제공한다.A method for providing a voice-based service performed in an electronic device implemented by a computer, the method comprising: defining a plurality of call terms used as a dialogue activation trigger for activating an interactive function of the electronic device; ; Activating the dialog function if any one of the plurality of call terms is recognized through the voice interface of the electronic device; And providing answer information based on a range of a desired answer information corresponding to the specific call term with respect to a voice query inputted while the conversation function is activated.

일 측면에 따르면, 상기 복수의 호출 용어와 각 호출 용어 별 희망 답변 정보 범위는 상기 전자 기기의 사용자에 의해 직접 설정될 수 있다.According to an aspect, the plurality of call terms and the range of the desired answer information for each call term can be set directly by the user of the electronic device.

다른 측면에 따르면, 상기 제공하는 단계는, 상기 음성 인터페이스를 통해 수신된 음성 입력에 대해 상기 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버로 전달하는 단계; 및 상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계를 포함할 수 있다.According to another aspect, the step of providing comprises constructing a query including the desired answer information range for voice input received through the voice interface and transmitting the constructed query to a server; And receiving answer information based on a range of the desired answer information corresponding to the specific call term in response to the inquiry from the server, and outputting the response information through the voice interface.

또 다른 측면에 따르면, 상기 제공하는 단계는, 상기 음성 인터페이스를 통해 수신된 음성 입력을 상기 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 서버로 전달하는 단계; 및 상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계를 포함할 수 있다.According to another aspect, the providing step includes the steps of: delivering voice input received through the voice interface to a server with a query for a service request together with information on the specific call term; And receiving answer information based on a range of the desired answer information corresponding to the specific call term in response to the inquiry from the server, and outputting the response information through the voice interface.

또 다른 측면에 따르면, 상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과를 상기 희망 답변 정보 범위에 해당하지 않는 검색 결과보다 높은 우선순위로 포함할 수 있다.According to another aspect, the answer information may include a search result corresponding to the desired answer information range with a higher priority than a search result not corresponding to the desired answer information range.

또 다른 측면에 따르면, 상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과로 한정될 수 있다.According to another aspect, the answer information may be limited to a search result corresponding to the desired answer information range.

또 다른 측면에 따르면, 상기 답변 정보는 상기 전자 기기의 사용자의 과거 이용 내역을 고려한 개인화 정보에 기초하여 구성될 수 있다.According to another aspect, the answer information may be configured based on personalization information that considers past usage history of the user of the electronic device.

또 다른 측면에 따르면, 상기 복수의 호출 용어에 대해 각 호출 용어 별로 연령층이 설정될 수 있다.According to another aspect, an age group may be set for each of the plurality of call terms.

또 다른 측면에 따르면, 상기 제공하는 단계는, 상기 특정 호출 용어의 연령층에 대응되는 검색 정보를 상기 답변 정보로 제공하거나 상기 특정 호출 용어의 연령층에 대응되는 출력 형태로 상기 답변 정보를 제공할 수 있다.According to another aspect of the present invention, the providing step may provide the search information corresponding to the age layer of the specific call term as the answer information, or may provide the answer information in an output form corresponding to the age layer of the specific call term .

컴퓨터로 구현되는 서버에서 수행되는 음성 기반 서비스 제공 방법에 있어서, 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계; 상기 전자 기기로부터 상기 복수의 호출 용어 중 상기 대화 기능의 활성화에 이용된 특정 호출 용어에 대한 정보를 포함한 질의를 수신하는 단계; 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 구성하는 단계; 및 상기 수신된 질의에 대한 응답으로 상기 구성된 답변 정보를 상기 전자 기기로 제공하는 단계를 포함하는 음성 기반 서비스 제공 방법을 제공한다.A method for providing a voice-based service in a server implemented by a computer, the method comprising: defining a plurality of call terms used as a conversation activation trigger for activating an interactive function of the electronic device and setting a range of desired answer information for each call term ; Receiving a query from the electronic device, the query including information about a specific call term used for activation of the dialog function among the plurality of call terms; Constructing answer information based on a desired answer information range corresponding to the specific call term; And providing the configured answer information to the electronic device in response to the received query.

컴퓨터와 결합되어 상기 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.There is provided a computer program stored in a computer-readable medium for causing a computer to execute the method for providing a voice-based service in combination with a computer.

상기 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체를 제공한다.There is provided a computer-readable recording medium having recorded thereon a program for causing a computer to execute the method for providing a voice-based service.

컴퓨터로 구현되는 전자 기기의 음성 기반 서비스 제공 시스템에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 호출 용어 설정부; 상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화 하는 음성 처리부; 및 상기 대화 기능이 활성화 된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 응답 처리부를 포함하는 음성 기반 서비스 제공 시스템을 제공한다.A system for providing a voice-based service in an electronic device, the system comprising: at least one processor implemented to execute computer-readable instructions, the at least one processor being operable to activate a dialog function of the electronic device A calling term setting unit for defining a plurality of calling terms used as a conversation active trigger and setting a desired answer information range for each calling term; A voice processor for activating the conversation function when any one of the plurality of call terms is recognized through the voice interface of the electronic device; And a response processing unit for providing answer information based on a desired answer information range corresponding to the specific call term with respect to the voice query inputted in a state where the conversation function is activated.

도 1은 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 다른 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 있어서, 클라우드 인공지능 플랫폼의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 5는 본 발명의 일실시예에 따른 전자 기기의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 전자 기기가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
도 7은 본 발명의 일실시예에 있어서 서비스 대상이 특정된 호출 용어들을 설명하기 위한 예시 도면이다.
도 8은 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
1 is a diagram illustrating an example of a service environment using a voice-based interface according to an embodiment of the present invention.
2 is a diagram illustrating another example of a service environment using a voice-based interface according to an embodiment of the present invention.
3 is a diagram illustrating an example of a cloud intelligence platform in one embodiment of the present invention.
4 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention.
5 is a diagram illustrating an example of a component that a processor of an electronic device according to an embodiment of the present invention may include.
6 is a flowchart showing an example of a method that an electronic apparatus according to an embodiment of the present invention can perform.
FIG. 7 is an exemplary diagram for explaining service term-specific calling terms in an embodiment of the present invention. FIG.
FIG. 8 is a diagram illustrating an example of a component that a processor of a server according to an embodiment of the present invention may include.
FIG. 9 is a flowchart illustrating an example of a method that a server according to an embodiment of the present invention can perform.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들에 따른 음성 기반 서비스 제공 시스템은 사용자와의 대화를 기반으로 동작하는 인터페이스를 제공하는 전자 기기를 통해 구현될 수 있다. 이때, 음성 기반 서비스 제공 시스템은 기기의 활성화를 위한 호출 용어를 둘 이상 이용하여 각 호출 용어에 따라 서비스 대상을 구분할 수 있다.The voice-based service providing system according to embodiments of the present invention can be implemented through an electronic device that provides an interface that operates based on a conversation with a user. At this time, the voice-based service providing system can distinguish service objects according to each calling term by using two or more calling terms for activating the apparatus.

본 발명의 실시예들에 따른 음성 기반 서비스 제공 방법은 상술한 전자 기기를 통해 수행될 수 있다. 이때, 전자 기기에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 전자 기기는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 일실시예에 따른 음성 기반 서비스 제공 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터로 구현되는 전자 기기와 결합되어 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.The method of providing a voice-based service according to embodiments of the present invention can be performed through the above-described electronic device. At this time, a computer program according to an embodiment of the present invention may be installed and driven in the electronic device, and the electronic device may perform a method of providing a voice-based service according to an embodiment of the present invention, . The above-described computer program may be stored in a computer-readable recording medium for execution by a computer to execute a method for providing a voice-based service in combination with an electronic device implemented by a computer.

도 1은 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 예를 도시한 도면이다. 도 1의 실시예에서는 스마트홈(smart home)이나 홈 네트워크 서비스와 같이 댁내의 디바이스들을 연결하여 제어하는 기술에서, 음성을 기반으로 동작하는 인터페이스를 제공하는 전자 기기(100)가 사용자(110)의 발화에 따라 수신되는 음성 입력 "불 꺼줘"를 인식 및 분석하여 댁내에서 전자 기기(100)와 내부 네트워크를 통해 연계된 댁내 조명기기(120)의 라이트 전원을 제어하는 예를 나타내고 있다.1 is a diagram illustrating an example of a service environment using a voice-based interface according to an embodiment of the present invention. In the embodiment of FIG. 1, an electronic device 100 providing an interface that operates on the basis of a voice is connected to a user 110 via a network, such as a smart home or a home network service, And recognizes and analyzes the received voice input "Turn off" according to the utterance to control the lighting power of the domestic lighting apparatus 120 connected to the electronic apparatus 100 through the internal network at home.

예를 들어, 댁내의 디바이스들은 상술한 댁내 조명기기(120) 외에도 텔레비전, PC(Personal Computer), 주변기기, 에어컨, 냉장고, 로봇 청소기 등과 같은 가전제품을 비롯하여, 수도, 전기, 냉난방 기기 등과 같은 에너지 소비장치, 도어록, 감시카메라 등과 같은 보안기기 등 온라인 상에서 연결되어 제어될 수 있는 다양한 디바이스들을 포함할 수 있다. 또한, 내부 네트워크는 이더넷(Ethernet), HomePNA, IEEE 1394와 같은 유선 네트워크 기술이나, 블루투스(Bluetooth), UWB(ultra Wide Band), 지그비(ZigBee), Wireless 1394, Home RF와 같은 무선 네트워크 기술 등이 활용될 수 있다.For example, the home-use devices may be used in home appliances such as televisions, personal computers (PCs), peripherals, air conditioners, refrigerators, and robot cleaners in addition to the home lighting devices 120, A security device such as a device, a door lock, a surveillance camera, and the like, which can be connected and controlled on-line. In addition, the internal network includes a wired network technology such as Ethernet, HomePNA, and IEEE 1394, and a wireless network technology such as Bluetooth, Ultra Wide Band (UWB), ZigBee, Wireless 1394, Can be utilized.

전자 기기(100)는 댁내의 디바이스들 중 하나일 수 있다. 예를 들어, 전자 기기(100)는 댁내에 구비된 인공지능 스피커나 로봇 청소기 등과 같은 디바이스들 중 하나일 수 있다. 또한, 전자 기기(100)는 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등과 같은 사용자(110)의 모바일 기기일 수도 있다. 이처럼 전자 기기(100)는 사용자(110)의 음성 입력을 수신하여 댁내의 디바이스들을 제어하기 위해 댁내의 디바이스들과 연결 가능한 기능을 포함하는 기기라면 특별히 제한되지 않는다. 또한, 실시예에 따라 상술한 사용자(110)의 모바일 기기들이 댁내의 디바이스들로서 포함될 수도 있다.The electronic device 100 may be one of the devices in the home. For example, the electronic device 100 may be one of devices such as an artificial intelligent speaker, a robot cleaner, and the like provided at home. The electronic device 100 may be a smart phone, a mobile phone, a navigation device, a computer, a notebook, a terminal for digital broadcasting, a personal digital assistant (PDA), a portable multimedia player (PMP), a tablet PC, , A wearable device, an internet of things (IoT) device, a virtual reality (VR) device, an augmented reality (AR) device, As described above, the electronic device 100 is not particularly limited as long as it is a device including a function capable of connecting with the devices in the home in order to receive the voice input of the user 110 and control the devices in the home. Also, according to the embodiment, the mobile devices of the user 110 described above may be included as in-house devices.

도 2는 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 다른 예를 도시한 도면이다. 도 2는 음성을 기반으로 동작하는 인터페이스를 제공하는 전자 기기(100)가 사용자(110)의 발화에 따라 수신되는 음성 입력 "오늘 날씨"를 인식 및 분석하여 외부 네트워크를 통해 외부 서버(210)로부터 오늘의 날씨에 대한 정보를 획득하고 획득한 정보를 "오늘의 날씨는 ..."와 같이 음성으로 출력하는 예를 나타내고 있다.2 is a diagram illustrating another example of a service environment using a voice-based interface according to an embodiment of the present invention. 2 illustrates an example in which an electronic device 100 providing an interface that operates on a voice recognizes and analyzes a voice input "today's weather" that is received in response to a user's utterance, Information of today's weather, and information obtained is outputted as a voice like "Today's weather is ... ".

예를 들어, 외부 네트워크는 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다.For example, the external network may be a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network Lt; RTI ID = 0.0 > and / or < / RTI >

도 2의 실시예에서도 전자 기기(100)는 댁내의 디바이스들 중 하나이거나 사용자(110)의 모바일 기기 중 하나일 수 있으며, 사용자(110)의 음성 입력을 수신하여 처리하기 위한 기능과 외부 네트워크를 통해 외부 서버(210)에 접속하여 외부 서버(210)가 제공하는 서비스나 컨텐츠를 사용자(110)에게 제공하기 위한 기능을 포함하는 기기라면 특별히 제한되지 않는다.2, the electronic device 100 may be one of the devices in the home or the mobile device of the user 110, and may have a function for receiving and processing the voice input of the user 110, The present invention is not particularly limited as long as it is a device including a function for connecting to the external server 210 and providing the service or contents provided by the external server 210 to the user 110.

이처럼, 본 발명의 실시예들에 따른 전자 기기(100)는 음성 기반 인터페이스를 통해 사용자(110)의 발화에 따라 수신되는 음성 입력을 포함하는 사용자 명령을 처리할 수 있는 기기라면 특별히 제한되지 않을 수 있다. 예를 들어, 전자 기기(100)는 직접 사용자의 음성 입력을 인식 및 분석하여 음성 입력에 알맞은 동작을 수행함으로써 사용자 명령을 처리할 수도 있으나, 실시예에 따라 사용자의 음성 입력에 대한 인식이나 인식된 음성 입력의 분석, 사용자에게 제공될 음성의 합성 등의 처리를 전자 기기(100)와 연계된 외부의 플랫폼을 통해 수행할 수도 있다.As described above, the electronic device 100 according to the embodiments of the present invention is not particularly limited as long as it is a device capable of processing a user command including a voice input received according to the utterance of the user 110 via the voice-based interface have. For example, the electronic device 100 may directly process a user command by recognizing and analyzing a user's voice input and performing an appropriate operation for the voice input. However, according to an exemplary embodiment of the present invention, Analysis of speech input, synthesis of speech to be provided to the user, and the like may be performed through an external platform associated with the electronic device 100. [

도 3은 본 발명의 일실시예에 있어서, 클라우드 인공지능 플랫폼의 예를 도시한 도면이다. 도 3은 전자 기기들(310)과 클라우드 인공지능 플랫폼(320) 및 컨텐츠·서비스(330)를 나타내고 있다.3 is a diagram illustrating an example of a cloud intelligence platform in one embodiment of the present invention. 3 shows the electronic devices 310, the cloud intelligent platform 320, and the content service 330. As shown in FIG.

일례로, 전자 기기들(310)은 댁내에 구비되는 디바이스들을 의미할 수 있으며, 적어도 앞서 설명한 전자 기기(100)를 포함할 수 있다. 이러한 전자 기기들(310)이나 전자 기기들(310)에 설치 및 구동되는 어플리케이션들(이하, 앱들)은 인터페이스 커넥트(340)를 통해 클라우드 인공지능 플랫폼(320)과 연계될 수 있다. 여기서 인터페이스 커넥트(340)는 전자 기기들(310)이나 전자 기기들(310)에 설치 및 구동되는 앱들의 개발을 위한 SDK(Software Development Kit) 및/또는 개발 문서들을 개발자들에게 제공할 수 있다. 또한, 인터페이스 커넥트(340)는 전자 기기들(310)이나 전자 기기들(310)에 설치 및 구동되는 앱들이 클라우드 인공지능 플랫폼(320)이 제공하는 기능들을 활용할 수 있는 API(Application Program Interface)를 제공할 수 있다. 구체적인 예로, 개발자들은 인터페이스 커넥트(340)가 제공하는 SDK(Software Development Kit) 및/또는 개발 문서를 이용하여 개발한 기기나 앱은 인터페이스 커넥트(340)가 제공하는 API를 이용하여 클라우드 인공지능 플랫폼(320)이 제공하는 기능들을 활용할 수 있게 된다.For example, the electronic devices 310 may refer to devices included in the home, and may include at least the electronic device 100 described above. Applications (hereinafter referred to as apps) installed and driven in the electronic devices 310 and the electronic devices 310 may be linked to the cloud intelligence platform 320 via the interface connect 340. The interface connect 340 may provide developers with software development kits (SDKs) and / or development documents for developing applications installed and run on the electronic devices 310 or the electronic devices 310. In addition, the interface connect 340 is configured to allow an application program interface (API) that enables applications installed and operated in the electronic devices 310 and the electronic devices 310 to utilize the functions provided by the cloud intelligent platform 320 . As a specific example, a developer can use a software development kit (SDK) provided by the interface connect 340 and / or a device or an application developed using a development document to create a cloud intelligence platform (API) using the API provided by the interface connect 340 320 can be utilized.

여기서 클라우드 인공지능 플랫폼(320)은 음성 기반의 서비스를 제공하기 위한 기능을 제공할 수 있다. 예를 들어, 클라우드 인공지능 플랫폼(320)은 수신된 음성을 인식하고, 출력될 음성을 합성하기 위한 음성처리모듈(321), 수신된 영상이나 동영상을 분석하여 처리하기 위한 비전처리모듈(322), 수신된 음성에 따라 알맞은 음성을 출력하기 위해 적절한 대화를 결정하기 위한 대화처리모듈(323), 수신된 음성에 알맞은 기능을 추천하기 위한 추천모듈(324), 인공지능이 데이터 학습을 통해 문장 단위로 언어를 번역할 수 있도록 지원하는 인공신경망 기반 기계 번역(Neural Machine Translation, NMT, 325) 등과 같이 음성 기반 서비스를 제공하기 위한 다양한 모듈들을 포함할 수 있다.Here, the cloud intelligence platform 320 may provide a function for providing a voice-based service. For example, the cloud artificial intelligence platform 320 may include a speech processing module 321 for recognizing the received speech and synthesizing the speech to be output, a vision processing module 322 for analyzing and processing the received image or moving image, A dialog processing module 323 for determining an appropriate dialogue to output a suitable speech according to the received speech, a recommendation module 324 for recommending a function suitable for the received speech, Based services such as Neural Machine Translation (NMT) 325, which enables translation of a language into a language-based service.

예를 들어, 도 1 및 도 2의 실시예들에서 전자 기기(100)는 사용자(110)의 음성 입력을 인터페이스 커넥트(340)에서 제공하는 API를 이용하여 클라우드 인공지능 플랫폼(320)으로 전송할 수 있다. 이 경우, 클라우드 인공지능 플랫폼(320)은 수신된 음성 입력을 상술한 모듈들(321 내지 325)을 활용하여 인식 및 분석할 수 있으며, 수신된 음성 입력에 따라 적절한 답변 음성을 합성하여 제공하거나, 적절한 동작을 추천할 수 있다.For example, in the embodiments of Figures 1 and 2, the electronic device 100 may transmit the voice input of the user 110 to the cloud intelligence platform 320 using an API provided by the interface connect 340 have. In this case, the cloud intelligent platform 320 can recognize and analyze the received voice input using the above-described modules 321 to 325, synthesize and provide an appropriate answer voice according to the received voice input, Proper operation can be recommended.

또한, 확장 키트(350)는 제3자 컨텐츠 개발자 또는 회사들이 클라우드 인공지능 플랫폼(320)에 기반하여 새로운 음성기반 기능을 구현할 수 있는 개발 키트를 제공할 수 있다. 예를 들어, 도 2의 실시예에서, 전자 기기(100)는 사용자(110)의 음성 입력을 외부 서버(210)로 전송할 수 있고, 외부 서버(210)는 확장 키트(350)를 통해 제공되는 API를 통해 클라우드 인공지능 플랫폼(320)으로 음성 입력을 전송할 수 있다. 이 경우, 앞서 설명한 바와 유사하게 클라우드 인공지능 플랫폼(320)은 수신되는 음성 입력을 인식, 분석하여 적절한 답변 음성을 합성하여 제공하거나 음성 입력을 통해 처리되어야 할 기능에 대한 추천정보를 외부 서버(210)로 제공할 수 있다. 일례로, 도 2에서, 외부 서버(210)는 음성 입력 "오늘 날씨"를 클라우드 인공지능 플랫폼(320)으로 전송할 수 있고, 클라우드 인공지능 플랫폼(320)으로부터 음성 입력 "오늘 날씨"의 인식을 통해 추출되는 키워드 "오늘" 및 "날씨"를 수신할 수 있다. 이 경우, 외부 서버(210)는 키워드 "오늘" 및 "날씨"를 통해 "오늘의 날씨는 ..."와 같은 텍스트 정보를 생성하여 다시 클라우드 인공지능 플랫폼(320)으로 생성된 텍스트 정보를 전송할 수 있다. 이때, 클라우드 인공지능 플랫폼(320)는 텍스트 정보를 음성으로 합성하여 외부 서버(210)로 제공할 수 있다. 외부 서버(210)는 합성된 음성을 전자 기기(100)로 전송할 수 있고, 전자 기기(100)는 합성된 음성 "오늘의 날씨는 ..."을 스피커를 통해 출력함으로써, 사용자(110)로부터 수신한 음성 입력 "오늘 날씨"가 처리될 수 있다. 이때, 전자 기기(100)는 사용자와의 대화를 기반으로 디바이스 동작이나 컨텐츠 제공을 위한 것이다.In addition, the extension kit 350 may provide a development kit that enables third party content developers or companies to implement new voice-based functions based on the cloud intelligence platform 320. For example, in the embodiment of FIG. 2, the electronic device 100 may transmit the voice input of the user 110 to the external server 210, and the external server 210 may receive the voice input of the user 110 via the expansion kit 350 API to send the voice input to the cloud intelligence platform 320. [ In this case, the cloud intelligent platform 320 recognizes and analyzes the received voice input, synthesizes an appropriate answer voice, or provides recommendation information on functions to be processed through voice input to the external server 210 ). 2, the external server 210 may send a voice input "today's weather" to the cloud intelligence platform 320 and may receive the voice input "current weather" from the cloud intelligence platform 320 You can receive keywords "Today" and "Weather" to be extracted. In this case, the external server 210 generates text information such as "Today's weather is ..." through keywords "Today" and "Weather", and transmits the text information generated by the cloud intelligent platform 320 again . At this time, the cloud artificial intelligence platform 320 may synthesize the text information by voice and provide it to the external server 210. The external server 210 can transmit the synthesized voice to the electronic device 100 and the electronic device 100 outputs the synthesized voice "Today's weather ..." through the speaker, The received voice input "Today's weather" can be processed. At this time, the electronic device 100 is for device operation or content provision based on conversation with the user.

도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 4의 전자 기기(410)는 앞서 설명한 전자 기기(100)에 대응할 수 있고, 서버(420)는 앞서 설명한 외부 서버(210) 또는 클라우드 인공지능 플랫폼(320)을 구현하는 하나의 컴퓨터 장치에 대응할 수 있다.4 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention. The electronic device 410 of FIG. 4 may correspond to the electronic device 100 described above, and the server 420 may correspond to one of the computer devices that implement the external server 210 or the cloud intelligent platform 320 described above .

전자 기기(410)와 서버(420)는 메모리(411, 421), 프로세서(412, 422), 통신 모듈(413, 423) 그리고 입출력 인터페이스(414, 424)를 포함할 수 있다. 메모리(411, 421)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리(411, 421)와는 구분되는 별도의 영구 저장 장치로서 전자 기기(410)나 서버(420)에 포함될 수도 있다. 또한, 메모리(411, 421)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기(410)에 설치되어 특정 서비스의 제공을 위해 전자 기기(410)에서 구동되는 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(411, 421)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(413, 423)을 통해 메모리(411, 421)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 네트워크(430)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(일례로 상술한 어플리케이션)에 기반하여 전자 기기(410)의 메모리(411)에 로딩될 수 있다.The electronic device 410 and the server 420 may include memories 411 and 421, processors 412 and 422, communication modules 413 and 423, and input / output interfaces 414 and 424. The memories 411 and 421 are computer-readable recording media and are nonvolatile large capacity such as random access memory (RAM), read only memory (ROM), disk drive, solid state drive (SSD), flash memory, Or a permanent mass storage device. Herein, the non-decaying mass storage device such as a ROM, an SSD, a flash memory, a disk drive, etc. may be included in the electronic device 410 or the server 420 as a separate persistent storage device different from the memories 411 and 421. In addition, the memories 411 and 421 are stored with an operating system and at least one program code (for example, a code for an application installed in the electronic device 410 and driven by the electronic device 410 for providing a specific service) . These software components may be loaded from a computer readable recording medium separate from the memories 411 and 421. [ Such a computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, and a memory card. In other embodiments, the software components may be loaded into memory 411, 421 via communication modules 413, 423 rather than a computer readable recording medium. For example, at least one program may be provided by a developer or a file distribution system that distributes the installation files of an application based on a computer program (e.g., the application described above) installed by files provided by the network 430. [ May be loaded into the memory 411 of the device 410.

프로세서(412, 422)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(411, 421) 또는 통신 모듈(413, 423)에 의해 프로세서(412, 422)로 제공될 수 있다. 예를 들어 프로세서(412, 422)는 메모리(411, 421)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.Processors 412 and 422 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and I / O operations. An instruction may be provided to the processor 412, 422 by the memory 411, 421 or the communication module 413, 423. For example, the processors 412 and 422 may be configured to execute instructions received in accordance with program codes stored in a recording device, such as memories 411 and 421. [

통신 모듈(413, 423)은 네트워크(430)를 통해 전자 기기(410)와 서버(420)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기(410) 및/또는 서버(420)가 다른 전자 기기 또는 다른 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기(410)의 프로세서(412)가 메모리(411)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(413)의 제어에 따라 네트워크(430)를 통해 서버(420)로 전달될 수 있다. 역으로, 서버(420)의 프로세서(422)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(423)과 네트워크(430)를 거쳐 전자 기기(410)의 통신 모듈(413)을 통해 전자 기기(410)로 수신될 수 있다. 예를 들어 통신 모듈(413)을 통해 수신된 서버(420)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(412)나 메모리(411)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기(410)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The communication modules 413 and 423 may provide functions for the electronic device 410 and the server 420 to communicate with each other through the network 430 and the electronic device 410 and / Electronic devices, or other servers. The request generated by the processor 412 of the electronic device 410 according to the program code stored in the recording device such as the memory 411 is transmitted to the server 420 through the network 430 under the control of the communication module 413. [ ). ≪ / RTI > Conversely, control signals, commands, contents, files, and the like provided under the control of the processor 422 of the server 420 are transmitted to the communication module 413 of the electronic device 410 via the communication module 423 and the network 430 (Not shown). Contents or files of the server 420 received through the communication module 413 may be transmitted to the processor 412 or the memory 411 and contents or files may be transmitted to the electronic device 410) may be further included in the storage medium (the persistent storage device described above).

입출력 인터페이스(414)는 입출력 장치(415)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드, 마우스, 마이크로폰, 카메라 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(414)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(415)는 전자 기기(410)와 하나의 장치로 구성될 수도 있다. 또한, 서버(420)의 입출력 인터페이스(424)는 서버(420)와 연결되거나 서버(420)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기(410)의 프로세서(412)가 메모리(411)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(420)나 다른 전자 기기가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(414)를 통해 디스플레이에 표시될 수 있다.The input / output interface 414 may be a means for interfacing with the input / output device 415. For example, the input device may include a device such as a keyboard, a mouse, a microphone, a camera, and the like, and the output device may include a device such as a display, a speaker, a haptic feedback device, As another example, the input / output interface 414 may be a means for interfacing with a device having integrated functions for input and output, such as a touch screen. The input / output device 415 may be composed of the electronic device 410 and one device. The input / output interface 424 of the server 420 may be a means for interfacing with the server 420 or an interface with a device (not shown) for input or output that the server 420 may include. More specifically, when the processor 412 of the electronic device 410 processes a command of a computer program loaded in the memory 411, a service screen composed of data provided by the server 420 or other electronic device Content can be displayed on the display through the input / output interface 414. [

또한, 다른 실시예들에서 전자 기기(410) 및 서버(420)는 도 4의 구성요소들보다 더 적은 또는 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기(410)는 상술한 입출력 장치(415) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기(410)가 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 동작 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기(410)에 더 포함되도록 구현될 수 있다.Also, in other embodiments, electronic device 410 and server 420 may include fewer or more components than the components of FIG. However, there is no need to clearly illustrate most prior art components. For example, the electronic device 410 may be implemented to include at least some of the input / output devices 415 described above, or may be implemented with other components such as a transceiver, Global Positioning System (GPS) module, camera, As shown in FIG. More specifically, when the electronic device 410 is a smart phone, the acceleration sensor, the gyro sensor, the motion sensor, the camera module, various physical buttons, buttons using the touch panel, input / output ports, Such as a vibrator for the electronic device 410, may be further included in the electronic device 410.

본 실시예들에서 전자 기기(410)는 사용자의 음성 입력을 수신하기 위한 마이크를 입출력 장치(415)로서 기본적으로 포함할 수 있으며, 사용자의 음성 입력에 대응하는 답변 음성이나 오디오 컨텐츠와 같은 소리를 출력하기 위한 스피커를 입출력 장치(415)로서 더 포함할 수 있다.In the present embodiment, the electronic device 410 may basically include a microphone for receiving a user's voice input as the input / output device 415, and may include a response voice corresponding to the voice input of the user, Output device 415. The input /

이러한 음성 인터페이스를 제공하는 전자 기기(410)는 호출 용어에 의해 활성화되고 활성화 상태에서 사용자가 발화하는 음성 입력을 질의로 입력받게 된다. 전자 기기(410)의 활성화 상태에서 입력된 음성 질의는 서버(420)로 전달되고 음성 질의에 맞게 서버(420)가 데이터를 검색하여 답변 정보를 구성하고 이를 최종적으로 전자 기기(410)에서 출력한다.The electronic device 410 providing such a voice interface receives a voice input that is activated by a calling term and is uttered by the user in an activated state. The voice query inputted in the activated state of the electronic device 410 is transmitted to the server 420 and the server 420 searches the data according to the voice query to construct the answer information and finally outputs the voice information from the electronic device 410 .

음성 인터페이스의 경우 음성 질의에 대응되는 결과를 음성 출력으로 제공하기 때문에 출력할 수 있는 정보가 매우 한정적이라는 점에서 보다 선별된 정보를 제공할 필요가 있다. 통상의 선별 과정은, 예를 들어 검색된 데이터의 상위 결과 중 극히 일부만 제공하는 형태이므로 이로 인해 사용자의 질의에 대해 적절한 정보를 판별하는 부담이 크고 그 결과 또한 개인별 기호에 따라 크게 좌우된다.In the case of the voice interface, since the output corresponding to the voice query is provided as the voice output, it is necessary to provide more selective information in that the information that can be output is very limited. The conventional sorting process, for example, provides only a small portion of the top results of the retrieved data, which makes it difficult to determine appropriate information about the user's query, and the result also greatly depends on the individual preference.

이를 해결하기 위해, 목소리 지문(voice ID)을 기계학습을 이용하여 데이터화 하는 방법, 사용자 관심사를 사전 설정하는 방법, 과거 이용 기록을 통해 사용자 취향을 파악하는 방법 등을 통해 개인화를 달성할 수 있다. 그러나, 이러한 개인화 방법은 별도의 학습 과정 또는 설정 과정이 필요하거나 오랜 시간의 이용 기록이 필요하다는 문제가 있고 또한 개인화된 정보가 유출될 경우 프라이버시 문제가 대두될 수 있다.In order to solve this problem, personalization can be achieved through a method of digitizing a voice ID using machine learning, a method of presetting a user interest, and a method of grasping a user's taste through past use records. However, such a personalization method has a problem that a separate learning process or setting process is required or a record of use for a long period of time is required, and a privacy problem may arise when personalized information is leaked.

본 발명에서는 별도의 개인화 과정 없이 기기의 활성화를 위한 호출 용어를 사용자가 관심 있는 분야의 서비스를 한정하기 위한 용도로 이용할 수 있다. 본 발명에 따른 전자 기기(410)는 서비스 대상의 카테고리를 특정할 수 있는 복수 개의 호출 용어가 설정된 상태에서 사용자가 기기 활성화를 위해 발화한 호출 용어에 따라 해당 호출 용어에 대응되는 카테고리의 서비스를 제공할 수 있다.In the present invention, a calling term for activating a device can be used as a purpose for limiting a service in a field of interest by a user without a separate personalization process. The electronic device 410 according to the present invention provides a service of a category corresponding to a corresponding calling term in accordance with a calling term that the user has uttered for activation of the device in a state in which a plurality of calling terms capable of specifying the category of the service target is set can do.

도 5는 본 발명의 일실시예에 따른 전자 기기의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이고, 도 6은 본 발명의 일실시예에 따른 전자 기기가 수행할 수 있는 방법의 예를 도시한 흐름도이다.FIG. 5 is a block diagram illustrating an example of components that a processor of an electronic device according to an exemplary embodiment of the present invention may include; FIG. 6 is a diagram illustrating an example of a method Fig.

본 실시예에 따른 전자 기기(410)에는 음성 기반 서비스 제공 시스템이 구성될 수 있다. 음성 기반 서비스 제공 시스템은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 실시예에서의 음성 기반 서비스 제공 시스템은 독립적으로 동작하는 프로그램 형태로 구현되거나, 혹은 특정 어플리케이션의 인-앱(in-app) 형태로 구성되어 상기 특정 어플리케이션 상에서 동작이 가능하도록 구현될 수 있다.The electronic device 410 according to the present embodiment may be configured with a voice-based service providing system. The voice-based service providing system may be configured as a PC-based program or an application dedicated to a mobile terminal. The voice-based service providing system according to the present embodiment may be implemented in a form of a program operating independently or in an in-app form of a specific application so that the voice-based service providing system can operate on the specific application.

예를 들어, 전자 기기(410)에 설치된 어플리케이션이 제공하는 명령에 기반하여 전자 기기(410)에 구현된 음성 기반 서비스 제공 시스템은 음성 기반 서비스 제공 방법을 수행할 수 있다. 도 6에 따른 음성 기반 서비스 제공 방법을 수행하기 위해, 전자 기기(410)의 프로세서(412)는 구성요소로서 도 5에 도시된 바와 같이, 호출 용어 설정부(510), 음성 처리부(520), 질의 전달부(530), 및 응답 처리부(540)를 포함할 수 있다. 실시예에 따라 프로세서(412)의 구성요소들은 선택적으로 프로세서(412)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(412)의 구성요소들은 프로세서(412)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.For example, a voice-based service providing system implemented in the electronic device 410 may perform a voice-based service providing method based on an instruction provided by an application installed in the electronic device 410. 5, the processor 412 of the electronic device 410 includes a call term setting unit 510, a voice processing unit 520, A query transmission unit 530, and a response processing unit 540. [ The components of processor 412 may optionally be included or excluded from processor 412 in accordance with an embodiment. In addition, in accordance with an embodiment, the components of processor 412 may be separate or merged for presentation of the functionality of processor 412.

이러한 프로세서(412) 및 프로세서(412)의 구성요소들은 도 6의 음성 기반 서비스 제공 방법이 포함하는 단계들(S610 내지 S650)을 수행하도록 전자 기기(410)를 제어할 수 있다. 예를 들어, 프로세서(412) 및 프로세서(412)의 구성요소들은 메모리(411)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.The components of the processor 412 and the processor 412 may control the electronic device 410 to perform the steps S610 to S650 included in the voice-based service providing method of Fig. For example, the components of processor 412 and processor 412 may be implemented to execute instructions in accordance with the code of the operating system and the code of at least one program that memory 411 contains.

여기서, 프로세서(412)의 구성요소들은 전자 기기(410)에 저장된 프로그램 코드가 제공하는 명령(일례로, 전자 기기(410)에서 구동된 어플리케이션이 제공하는 명령)에 따라 프로세서(412)에 의해 수행되는 프로세서(412)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 전자 기기(410)가 사용자 발화에 따른 음성 입력을 처리하도록 상술한 명령에 따라 전자 기기(410)를 제어하는 프로세서(412)의 기능적 표현으로서 음성 처리부(520)가 이용될 수 있다.Here, the components of the processor 412 are executed by the processor 412 in accordance with an instruction provided by the program code stored in the electronic device 410 (for example, an instruction provided by the application driven in the electronic device 410) Lt; RTI ID = 0.0 > 412 < / RTI > For example, the voice processing unit 520 may be used as a functional representation of the processor 412 that controls the electronic device 410 in accordance with the instructions described above, such that the electronic device 410 processes voice input as a result of user utterance .

단계(S610)에서 프로세서(412)는 전자 기기(410)의 제어와 관련된 명령이 로딩된 메모리(411)로부터 필요한 명령을 읽어들일 수 있다. 이 경우, 상기 읽어들인 명령은 프로세서(412)가 이후 설명될 단계들(S620 내지 S650)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.In step S610, the processor 412 may read the necessary commands from the loaded memory 411 with instructions related to control of the electronic device 410. [ In this case, the read command may include instructions for controlling the processor 412 to execute steps S620 to S650 to be described later.

단계(S620)에서 호출 용어 설정부(510)는 전자 기기(410)의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정할 수 있다. 본 발명에서 호출 용어는 전자 기기(410)의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용함과 동시에 사용자가 원하는 서비스 대상인 희망 답변 정보 범위를 특정하기 위한 용도로 사용한다. 호출 용어는 사용자를 대상으로 제공 가능한 서비스 대상에 대해 각 카테고리 별로 사전에 정의되어 설정될 수 있으며, 더 나아가 사용자에 의해 임의로 설정될 수도 있다. 희망 답변 정보 범위는 서비스 대상, 즉 정보를 검색하기 위한 범위를 특정하는 것으로, 본 명세서에서는 서비스 대상을 구분하는 카테고리를 대표적인 예로 하여 설명한다. 도 7을 참조하면, 복수 개의 호출 용어(701)가 정의되고 호출 용어(701) 별로 서비스 대상의 카테고리(702), 언어(703), 추가 검색어(704)가 특정될 수 있다. 호출 용어 설정부(510)는 사용자 정의에 따라 호출 용어(701), 카테고리(702), 언어(703), 추가 검색어(704)를 설정할 수 있고, 이후 추가, 수정, 삭제 등이 가능한 편집 기능을 제공할 수 있다. 예를 들어, 도 7에 도시한 바와 같이 카테고리를 특정하지 않고 서비스 전체를 대상으로 하는 기본 호출 용어는 '샐리'로 설정하고, 카테고리 '야구'를 대상으로 하는 호출 용어는 '야구 박사'로 설정하고, 카테고리 '요리'를 대상으로 하고 검색어에 추가 검색어('요리법' 또는 '레시피')를 추가하는 호출 용어는 '쉐프'로 설정하고, 영어 컨텐츠만을 한정하는 호출 용어는 '코니'로 설정하는 등 다양한 호출 용어(701)를 통해 정보 서비스의 분야를 나타내는 카테고리(702), 제공받는 정보의 언어를 나타내는 언어(703), 정보 검색 시 추가로 사용되는 검색어를 나타내는 추가 검색어(704)를 특정할 수 있다. 호출 용어(701)는 서비스를 이용하는 모든 사용자에게 동일하게 적용되는 공용어일 수 있으며, 다른 예로는 사용자가 자주 이용하거나 관심 있는 서비스 대상에 직접 임의 용어를 지정하여 이용하는 것 또한 가능하다. 사용자가 서비스받고자 하는 정보의 카테고리(예를 들어 육아 정보는 '제인 맘') 또는 언어(예를 들어 중국어 컨텐츠를 제공받고 싶을 경우 '니하오')에 대해 임의대로 호출 용어(701)를 설정할 수 있다. 도시되지 않았으나 제공받고자 하는 컨텐츠의 종류(이미지, 동영상, 지도 등), 컨텐츠 소스(카페, 블로그, 특정 웹사이트 등), 검색 날짜(최근 1주일 이내, 2002년6월 등) 등을 한정하는 것도 가능하다. 그리고, 호출 용어를 둘 이상으로 구분하여 서비스 이용자나 연령층을 구분하는 것 또한 가능하다. 예를 들어, '제임스'는 성인 이용자를 대상으로 하고 '브라운'은 어린이 이용자를 대상으로 할 수 있다. 즉, 호출 용어 별로 서비스 대상뿐만 아니라 서비스 이용자층을 특정하는 것 또한 가능하다. 공통으로 사전 정의되거나 사용자에 의해 직접 설정된 호출 용어(701) 및 호출 용어(701) 별 서비스 대상 카테고리(702)는 전자 기기(410)와 서버(420) 상에 저장되어 상호 연동을 통해 서비스 대상을 구분하기 위해 이용될 수 있다. 호출 용어(701)는 전자 기기(410)와 서버(420) 상에 음성 형태나 문자값 등으로 탑재될 수 있다.In step S620, the call terminology setting unit 510 defines a call term used as a conversation activation trigger for activating the conversation function of the electronic device 410, and may set a desired answer information range for each call term. In the present invention, the calling term is used as a conversation activation trigger for activating the conversation function of the electronic device 410, and at the same time, is used for specifying a desired answer information range, which is a desired service target of the user. The calling term may be predefined and set for each category for a service object that can be provided to the user, and may be further arbitrarily set by the user. The range of the desired answer information specifies a service target, that is, a range for searching for information. In the present specification, a category for identifying a service target is described as a representative example. Referring to FIG. 7, a plurality of call terms 701 are defined, and a category 702, a language 703, and an additional search word 704 of a service target can be specified for each call term 701. FIG. The calling term setting unit 510 can set the calling term 701, the category 702, the language 703 and the additional term 704 according to the user definition and then edit the term . For example, as shown in FIG. 7, the basic call term targeting the entire service without specifying a category is set to "Sally", and the call term targeting the category "baseball" is set to "baseball doctor" , The call term for adding the additional search term ("recipe" or "recipe") to the category "cooking" is set to "chef", and the calling term for limiting only the English content is set to "cone" A category 702 representing a field of the information service, a language 703 representing a language of provided information, and an additional search word 704 indicating a search word additionally used in information search are specified through various call words 701 . The calling term 701 may be an official language that applies equally to all users using the service. In another example, it is also possible to designate and use arbitrary terms directly to the service object frequently used or interested by the user. The calling term 701 can be arbitrarily set for the category of the information the user wants to receive (for example, the child care information is 'Jane's heart') or the language (for example, 'Nihao' have. (Eg, images, videos, maps, etc.), content sources (cafes, blogs, specific websites, etc.), search dates (within the last week, June 2002, etc.) It is possible. It is also possible to distinguish service users and age groups by dividing the call term into two or more terms. For example, 'James' may be for adult users and 'Brown' for children. That is, it is also possible to specify not only the service object but also the service user layer for each call term. The service target category 702 according to the call term 701 and the call term 701 that are predefined in common or directly set by the user are stored on the electronic device 410 and the server 420, Can be used to distinguish. The calling term 701 may be mounted on the electronic device 410 and the server 420 in the form of a voice or character value.

다시 도 6에서, 단계(S630)에서 음성 처리부(520)는 서비스 대상의 카테고리를 특정할 수 있는 복수 개의 호출 용어 중에서 어느 하나의 특정 호출 용어가 인식되면 전자 기기(410)의 대화 기능을 활성화할 수 있다. 음성 처리부(520)는 전자 기기(410)의 대화 기능이 비활성화 상태에서 음성 인터페이스(예컨대, 스피커)를 통해 수신된 음성 입력이 복수 개의 호출 용어 중 어느 하나의 호출 용어가 해당되는 경우 대화 기능을 자동 활성화할 수 있다. 이때, 음성 처리부(520)는 음성 인터페이스를 통해 수신된 음성 입력에 대해 잡음 제거 등 전처리 과정을 거친 후 전처리된 음성이 호출 용어에 해당되는지 여부를 확인할 수 있다.6, in step S630, the voice processing unit 520 activates the conversation function of the electronic device 410 when any one of the plurality of calling words that can specify the category of the service target is recognized . The voice processing unit 520 may be configured to automatically switch the conversation function when the voice input received through the voice interface (e.g., speaker) in the inactive state of the conversation function of the electronic device 410 corresponds to one of a plurality of calling terms Can be activated. At this time, the voice processing unit 520 can perform pre-processing such as noise cancellation on the voice input received through the voice interface, and then confirm whether or not the preprocessed voice corresponds to the calling term.

단계(S640)에서 질의 전달부(530)는 전자 기기(410)의 대화 기능이 활성화된 상태에서 음성 인터페이스를 통해 수신된 음성 입력에 대해 대화 기능의 활성화에 이용된 특정 호출 용어에 대응되는 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버(420)로 전달할 수 있다. 다시 말해, 질의 전달부(530)는 음성 인터페이스를 통해 수신된 음성 입력에 대해 서비스 대상이 대화 기능의 활성화에 이용된 특정 호출 용어에 대응되는 카테고리로 특정된 질의를 구성하여 서버(420)로 전달할 수 있다. 일례로, 질의 전달부(530)는 대화 기능이 활성화된 상태에서 수신된 음성 입력을 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 전달할 수 있다. 이때, 질의 전달부(530)는 음성 인터페이스를 통해 수신된 특정 호출 용어와 특정 호출 용어에 이어 수신된 음성 입력을 음성 신호 형태 그대로 질의로 구성하거나 혹은 음성 인터페이스를 통해 수신된 음성 신호를 음성 인식 기술로 텍스트화한 문자값을 질의로 구성할 수 있다. 질의 전달부(530)는 특정 호출 용어와 호출 용어 이후 음성 입력을 서버(420)에 동시에 전달하거나 혹은 순차적으로 전달하는 것 또한 가능하다. 서비스 요청을 위한 질의는 사용자가 요청하고자 하는 서비스 대상이 한정될 수 있으며, 이는 사용자가 이용한 호출 용어에 대응하는 카테고리로 특정될 수 있다. 전자 기기(410)에서 서버(420)로 전달되는 질의에는 사용자가 이용한 호출 용어 자체나 식별 코드가 포함되거나, 혹은 사용자가 이용한 호출 용어에 대응되는 카테고리 정보 등이 포함될 수 있다. 도 7의 호출 용어를 예로 하면, 사용자가 호출 용어 '샐리'를 이용하여 "샐리, 오늘 야구 경기 어땠어"와 같이 발화하는 경우 서비스 대상이 한정되지 않은 질의가 서버(420)로 전달되고, "야구 박사, 오늘 야구 경기 어땠어?"와 같이 발화하는 경우 서비스 대상의 카테고리를 '야구'로 특정한 질의가 서버(420)로 전달될 수 있다.In step S640, the inquiry delivery unit 530 transmits a request response corresponding to a specific call term used for activating the conversation function to the voice input received through the voice interface in a state in which the conversation function of the electronic device 410 is activated, A query including the information range can be constructed and transmitted to the server 420. In other words, the query delivery unit 530 constructs a query specified by a category corresponding to a specific call term used for activating the conversation function with respect to voice input received through the voice interface, and transmits the query to the server 420 . For example, the query transferring unit 530 can transfer the voice input received in a state in which the conversation function is activated to the query for the service request together with the information about the specific call term. In this case, the inquiry delivery unit 530 may be configured to query the specific call term received via the voice interface and the voice input received following the specific call term in the form of a voice signal as it is, or a voice signal received through the voice interface, A text value can be composed of a query value. It is also possible for the query delivery unit 530 to simultaneously or sequentially deliver the voice input to the server 420 after the specific calling term and calling term. The query for the service request may be limited to the service object to be requested by the user, and may be specified in a category corresponding to the calling term used by the user. The query transmitted from the electronic device 410 to the server 420 may include the call term itself used by the user or the identification code, or category information corresponding to the call term used by the user. 7, when a user utteres a call such as "Sally, today's baseball game" using the calling term "Sally", a query whose service object is not limited is transmitted to the server 420, Quot; doctor, what was the baseball game today? &Quot;, the specific query of the service target category as 'baseball' may be transmitted to the server 420. [

단계(S650)에서 응답 처리부(540)는 서버(420)로부터 질의에 대한 응답으로서 사용자가 이용한 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보, 즉 대화 기능의 활성화에 이용된 특정 호출 용어에 대응되는 카테고리의 서비스 정보를 포함한 답변 정보를 수신하여 출력할 수 있다. 서버(420)는 전자 기기(410)의 사용자가 기기의 활성화에 이용한 호출 용어의 특징에 부합하는 서비스 정보를 다른 서비스보다 높은 우선순위로 검색한 결과를 답변 정보로서 제공할 수 있고, 응답 처리부(540)는 서버(420)에서 제공하는 답변 정보를 음성 인터페이스를 통해 출력할 수 있다. 다시 말해, 본 발명에서는 서비스 특정을 위한 별도의 개인화 과정 없이 기기의 활성화에 이용하는 호출 용어만으로 서비스 대상을 특정할 수 있고, 호출 용어에 의해 특정된 서비스를 보다 높은 우선순위로 검색한 답변 정보를 제공할 수 있다. 이때, 호출 용어에 의해 서비스 이용자층이 특정되는 경우 서버(420)에서 이용자층에 대응되는 답변 정보를 제공하거나, 혹은 응답 처리부(540)에서 이용자층에 맞는 출력 형태로 답변 정보를 출력할 수 있다. 예를 들어, 아동 이용자에게는 성인 이용자와 다른 톤의 목소리로 답변 정보를 출력할 수 있고 음성 인터페이스를 통해 발화되는 답변 문장의 형식도 아동 수준에 맞게 생성할 수 있다. 따라서, 전자 기기(410)의 활성화에 이용하는 호출 용어로 서비스 대상이 특정됨에 따라 동일한 질의더라도 호출 용어 별로 제공되는 정보가 다를 수 있으며, 이를 통해 사용자가 별도의 설정 과정 없이 개인의 관심사나 연령층에 맞는 정보를 제공받을 수 있다. 그리고, 응답 처리부(540)는 질의에 대한 응답으로 수신한 답변 정보를 음성 인터페이스를 통해 음성으로 출력하는 것 이외에도, 영상이나 기타 다른 형태로 출력하는 것 또한 가능하며, 이러한 답변 정보에는 시각적, 청각적, 촉각적 출력 등이 가능한 서로 다른 정보가 포함될 수 있다.In step S650, the response processing unit 540 obtains answer information based on the desired answer information range corresponding to the call term used by the user, that is, the specific call term used for activation of the conversation function, as response to the inquiry from the server 420 It is possible to receive and output the answer information including the service information of the corresponding category. The server 420 can provide the result of searching for service information that matches the feature of the calling term used by the user of the electronic device 410 for the activation of the device with higher priority than other services as answer information, 540 may output the answer information provided by the server 420 through the voice interface. In other words, according to the present invention, a service object can be identified only by a call term used for activating a device without a separate personalization process for service identification, and answer information obtained by searching a service specified by a call term with a higher priority is provided can do. In this case, when the service user layer is specified by the calling term, the server 420 may provide the answer information corresponding to the user layer, or the response processor 540 may output the answer information in the form of an output suited to the user layer. For example, a child user can output answer information in a tone of tone different from that of an adult user, and the form of a response sentence uttered through a voice interface can also be generated in accordance with a child's level. Accordingly, information to be provided for each call term may be different even if the same query is made as the service target is specified in the call term used for activating the electronic device 410. Accordingly, the user can set the service target Information can be provided. In addition to outputting the answer information received in response to the inquiry through the voice interface through the voice interface, the response processing unit 540 can also output the response information in the form of a video or other form. The answer information includes visual and auditory , Tactile output, and the like.

도 8은 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이고, 도 9는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.FIG. 8 is a diagram showing an example of a component that a server of a server according to an embodiment of the present invention can include; FIG. 9 is a diagram illustrating an example of a method that a server can perform according to an embodiment of the present invention; Fig.

본 실시예에 따른 서버(420)에는 음성 기반 서비스 제공 시스템이 구성될 수 있다. 서버(420)는 클라이언트(client)인 전자 기기(410)를 대상으로 음성 기반의 서비스를 제공하는 것으로, 전자 기기(410)로부터 수신된 서비스 요청에 대한 답변 정보를 제공할 수 있다.The server 420 according to the present embodiment may be configured with a voice-based service providing system. The server 420 provides a voice-based service to the electronic device 410 as a client and can provide answer information on the service request received from the electronic device 410.

도 9에 따른 음성 기반 서비스 제공 방법을 수행하기 위해, 서버(420)의 프로세서(422)는 구성요소로서 도 8에 도시된 바와 같이, 정보 구성부(810), 및 정보 제공부(820)를 포함할 수 있다. 실시예에 따라 프로세서(422)의 구성요소들은 선택적으로 프로세서(422)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(422)의 구성요소들은 프로세서(422)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.9, the processor 422 of the server 420 includes an information configuration unit 810 and an information provision unit 820 as shown in FIG. 8 as a component. . The components of processor 422 may optionally be included or excluded from processor 422 in accordance with an embodiment. In addition, in accordance with an embodiment, the components of processor 422 may be separate or merged for the representation of the functionality of processor 422.

이러한 프로세서(422) 및 프로세서(422)의 구성요소들은 도 9의 음성 기반 서비스 제공 방법이 포함하는 단계들(S910 내지 S930)을 수행하도록 서버(420)를 제어할 수 있다. 예를 들어, 프로세서(422) 및 프로세서(422)의 구성요소들은 메모리(421)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.The processor 422 and the components of the processor 422 may control the server 420 to perform the steps S910 to S930 included in the voice-based service providing method of FIG. For example, the components of processor 422 and processor 422 may be implemented to execute instructions in accordance with the code of the operating system and the code of at least one program that memory 421 contains.

여기서, 프로세서(422)의 구성요소들은 서버(420)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(422)에 의해 수행되는 프로세서(422)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 서버(420)가 답변 정보를 구성하도록 상술한 명령에 따라 서버(420)를 제어하는 프로세서(422)의 기능적 표현으로서 정보 구성부(810)가 이용될 수 있다.Here, the components of processor 422 may be representations of different functions of processor 422 performed by processor 422 in accordance with instructions provided by the program code stored in server 420 . For example, the information organization 810 may be used as a functional representation of the processor 422 that controls the server 420 in accordance with the above-described instructions so that the server 420 constructs the answer information.

단계(S910)에서 프로세서(422)는 서버(420)의 제어와 관련된 명령이 로딩된 메모리(421)로부터 필요한 명령을 읽어드릴 수 있다. 이 경우, 상기 읽어드린 명령은 프로세서(422)가 이후 설명될 단계들(S920 내지 S930)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.In step S910, the processor 422 can read the necessary commands from the loaded memory 421 with instructions related to the control of the server 420. [ In this case, the read command may include instructions for controlling the processor 422 to execute steps S920 to S930 to be described later.

단계(S920)에서 정보 구성부(810)는 전자 기기(410)로부터 수신된 질의에 대해 질의 내 특정 호출 용어에 대응되는 카테고리의 서비스 정보를 포함하는 답변 정보를 구성할 수 있다. 먼저, 정보 구성부(810)는 전자 기기(410)로부터 수신된 질의를 자연어 처리하여 해당 질의의 의도와 목표 등을 추출할 수 있다. 전자 기기(410)로부터 수신된 질의에는 사용자가 기기의 활성화에 이용한 특정 호출 용어에 대한 정보가 포함될 수 있다. 서버(420)에는 전자 기기(410)의 사용자에 대해 호출 용어에 대한 사용자 정의(도 7을 통해 설명한 호출 용어(701), 카테고리(702), 언어(703), 추가 검색어(704)를 포함함)가 탑재되어 있고, 이를 바탕으로 정보 구성부(810)는 질의에 포함된 특정 호출 용어에 따라 사용자가 원하는 서비스 대상을 파악할 수 있다. 일례로, 정보 구성부(810)는 전자 기기(410)의 사용자가 기기의 활성화에 이용한 호출 용어에 대응되는 카테고리의 서비스 정보를 다른 서비스보다 높은 우선순위로 검색한 결과를 질의에 대한 답변 정보로 구성할 수 있다. 다른 예로, 정보 구성부(810)는 질의에 대한 서비스 대상을 전자 기기(410)의 사용자가 기기의 활성화에 이용한 호출 용어에 대응되는 카테고리로 한정하여 한정된 서비스의 정보로 답변 정보를 구성할 수 있다. 따라서, 정보 구성부(810)는 사용자가 기기의 활성화에 이용한 호출 용어를 답변 정보를 구성하기 위한 정보 선별 기준으로 활용할 수 있다. 정보 구성부(810)는 질의에 포함된 특정 호출 용어에 따라 사용자가 원하는 서비스를 파악함으로써 응답할 정보의 양과 질을 조절할 수 있다. 그리고, 정보 구성부(810)는 전자 기기(410)로부터 수신된 질의에 대해 전자 기기(410)의 사용자와 관련된 과거 이용 내역을 고려한 개인화 정보를 추가하여 답변 정보를 구성할 수 있다. 과거 이용 내역은 각 사용자 별로 서버(420) 상에 저장될 수 있으며, 질의와 답변 정보에 대한 기록을 포함할 수 있다. 예를 들어, "야구박사, 오늘 삼성 경기 어땠어"라는 질의로 사용자가 '삼성' 팀에 관심을 가지고 있음을 알 수 있고, 추후 "야구박사, 오늘 경기 어땠어?"라는 질의에 대해 사용자의 이전 질의에 따른 개인화 정보를 기초하여 '삼성' 팀의 야구 정보로 답변 정보를 구성할 수 있다. 이를 통해 사용자가 매번 같은 형식의 질문이 아닌, 보다 간략한 질문으로도 사용자가 원하는 정보를 얻을 수 있다. 음성 답변은 사용자가 끝까지 다 들어야 하는 시간소모적인 정보 전달 방법이므로 가급적 간략하고 주요한 정보를 답변으로 구성하는 것이 사용자 경험에 있어 중요하다. 궁극적으로는 과거의 이용 내역에 기반하여 답변을 가급적 짧게 핵심 내용만으로 구성하는 것이 개인화의 역할이라 할 수 있다. 또 다른 예로서, 동일한 질문에 대해, 과거 이용 내역에 비추어볼 때 "삼성이 한화에 3:5로 패했습니다"라고 짧게 대답한 경우 "패인이 뭐야?" "이승엽 출전했어" 등 계속하여 추가적인 질문을 하였던 사용자라면 보다 풍부한 답변 정보를 구성할 수도 있다. 예를 들어, "야구박사, 오늘 삼성 경기 어땠어?"와 같은 동일한 질문에 대해 과거 이용 내역을 기초로 최근 답변 등을 비교하여 "오늘은 지난 경기와 다르게 삼성이 한화에 3:5로 패배했습니다. MVP였던 이승엽 선수는 오늘 출전하지 않았습니다." 또는 최근 연쇄 질문 리스트를 기초로 "오늘 한화와의 경기에서 삼성이 8:1로 승리했습니다. 승리의 주역은 이승엽 선수의 8회말 2점 홈런입니다. 하이라이트는 4회초, 8회말 입니다."와 같이 보다 다양한 정보로 답변 정보를 구성할 수 있다.In step S920, the information constructing unit 810 may construct answer information including the service information of the category corresponding to the specific calling term in the query with respect to the query received from the electronic device 410. [ First, the information constructing unit 810 can process a query received from the electronic device 410 in a natural language, and extract an intention and a goal of the query. The query received from the electronic device 410 may include information about a specific calling term that the user used to activate the device. The server 420 includes user definitions (call term 701, category 702, language 703, and additional term 704 described with reference to FIG. 7) for the user of the electronic device 410 Based on this information, the information constructing unit 810 can grasp a desired service object according to a specific calling term included in the query. For example, the information constructing unit 810 may obtain the service information of the category corresponding to the call term used by the user of the electronic device 410 for the activation of the device with higher priority than other services, Can be configured. In another example, the information constructing unit 810 can construct the answer information by limiting the service object for the query to the category corresponding to the call term used by the user of the electronic device 410 in activation of the device . Accordingly, the information constructing unit 810 can utilize the call term used by the user for activating the apparatus as an information selection criterion for constructing the answer information. The information constructing unit 810 can adjust the amount and quality of information to be responded by grasping a desired service according to a specific calling term included in the query. The information constructing unit 810 may construct the answer information by adding personalization information that considers past usage history related to the user of the electronic device 410 to the query received from the electronic device 410. [ Past usage history may be stored on server 420 for each user and may include records of query and answer information. For example, you can see that the user is interested in 'Samsung' team by asking 'What was the baseball doctor, what was the Samsung game today?' Based on the personalization information of the 'Samsung' team. This allows users to get the information they want, even with simpler questions, rather than the same type of question each time. Since spoken answers are a time-consuming way of communicating information that users need to hear to the end, it is important for the user experience to organize brief and important information into answers. Ultimately, it is the role of personalization that constructs answers based on past usage history as short as possible. As another example, if you answer the same question briefly in the light of past usage, "Samsung lost 3: 5 to Hanhwa." If the user has continued to ask additional questions such as "Lee Seung-Yeop participated in the exhibition", it is possible to construct richer answer information. For example, comparing the recent answers based on past usage history with the same question such as "Dr. Baseball, how was Samsung game today?", "Today, unlike last game, Samsung lost 3: 5 to Hanhwa. Lee Seung Yeop who was MVP did not play today. " Based on the list of recent questions, "Samsung won 8: 1 in the match against Hanwha today, and the main part of the victory is Lee Seung-yeop's 2-point home run at the end of the 8th, with the highlight being the 4th and 8th." Answer information can be composed of more various information.

단계(S930)에서 정보 제공부(820)는 전자 기기(410)로부터 수신된 질의에 대한 응답으로 단계(S920)에서 구성된 답변 정보를 전자 기기(410)로 제공할 수 있다. 답변 정보에는 사용자가 기기의 활성화에 이용한 호출 용어의 특징에 부합하는 서비스 정보가 우선적으로 포함될 수 있으며, 음성 출력은 물론 영상이나 다른 형태로의 출력이 가능한 정보가 포함될 수 있다.In step S930, the information providing unit 820 may provide the electronic device 410 with the answer information configured in step S920 in response to the inquiry received from the electronic device 410. [ The answer information may include preferentially service information that matches the feature of the calling term used by the user for activation of the device, and may include information capable of outputting images or other forms as well as voice output.

따라서, 서버(420)는 사용자가 기기의 활성화에 이용한 호출 용어를 통해 사용자의 관심사를 즉시 파악할 수 있어 사용자 질의에 대한 답변 정보를 효과적으로 선별하여 구성할 수 있다. 사용자는 보다 관심 있는 분야의 질의 시 해당 분야에 특정된 호출 용어를 이용함으로써 원하는 결과를 받을 수 있다. 다시 말해, 복수의 호출 용어에 대해 각 호출 용어에 따라 제공되는 정보가 다르고, 이를 통해 사용자가 별도의 개인화 과정 없이 특정 사용층이나 개인의 관심사 또는 지식 수준 등에 맞는 정보를 제공 받을 수 있다.Accordingly, the server 420 can instantly grasp the user's interest through the call term used for activating the device, thereby effectively selecting answer information for the user query. The user can receive the desired result by using the call term specified in the field in the query of the more interested field. In other words, information provided according to each calling term for a plurality of calling terms is different, so that the user can be provided with information corresponding to a specific use level or individual's interest or knowledge level without a separate personalization process.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented as a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit, a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be embodied in any type of machine, component, physical device, computer storage media, or device for interpretation by a processing device or to provide instructions or data to the processing device have. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. At this time, the medium may be a program that continuously stores a computer executable program, or temporarily stores the program for execution or downloading. Further, the medium may be a variety of recording means or storage means in the form of a combination of a single hardware or a plurality of hardware, but is not limited to a medium directly connected to any computer system, but may be dispersed on a network. Examples of the medium include a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, And program instructions including ROM, RAM, flash memory, and the like. As another example of the medium, a recording medium or a storage medium that is managed by a site or a server that supplies or distributes an application store or various other software is also enumerated.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

컴퓨터로 구현되는 전자 기기에서 수행되는 음성 기반 서비스 제공 방법에 있어서,
상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계;
상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화하는 단계; 및
상기 대화 기능이 활성화된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 단계
를 포함하는 음성 기반 서비스 제공 방법.
A method for providing a voice-based service performed in a computer-implemented electronic device,
Defining a plurality of call terms used as a dialogue activation trigger for activating an interactive function of the electronic device and setting a desired answer information range for each call term;
Activating the dialog function if any one of the plurality of call terms is recognized through the voice interface of the electronic device; And
Providing answer information based on a range of the desired answer information corresponding to the specific call term with respect to the voice query inputted while the conversation function is activated
And a voice-based service providing method.
제1항에 있어서,
상기 복수의 호출 용어와 각 호출 용어 별 희망 답변 정보 범위는 상기 전자 기기의 사용자에 의해 직접 설정되는, 음성 기반 서비스 제공 방법.
The method according to claim 1,
Wherein the plurality of call terms and the range of the desired answer information for each call term are set directly by the user of the electronic device.
제1항에 있어서,
상기 제공하는 단계는,
상기 음성 인터페이스를 통해 수신된 음성 입력에 대해 상기 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버로 전달하는 단계; 및
상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계
를 포함하는, 음성 기반 서비스 제공 방법.
The method according to claim 1,
Wherein the providing step comprises:
Constructing a query including the desired answer information range for voice input received through the voice interface and transmitting the constructed query to a server; And
Receiving answer information based on a desired answer information range corresponding to the specific call term in response to the inquiry from the server and outputting the response information through the voice interface
Based service.
제1항에 있어서,
상기 제공하는 단계는,
상기 음성 인터페이스를 통해 수신된 음성 입력을 상기 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 서버로 전달하는 단계; 및
상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계
를 포함하는, 음성 기반 서비스 제공 방법.
The method according to claim 1,
Wherein the providing step comprises:
Transmitting a voice input received through the voice interface to the server with a query for a service request together with information on the specific call term; And
Receiving answer information based on a desired answer information range corresponding to the specific call term in response to the inquiry from the server and outputting the response information through the voice interface
Based service.
제1항에 있어서,
상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과를 상기 희망 답변 정보 범위에 해당하지 않는 검색 결과보다 높은 우선순위로 포함하는, 음성 기반 서비스 제공 방법.
The method according to claim 1,
Wherein the answer information includes a search result corresponding to the desired answer information range with a higher priority than a search result not corresponding to the desired answer information range.
제1항에 있어서,
상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과로 한정되는, 음성 기반 서비스 제공 방법.
The method according to claim 1,
Wherein the answer information is limited to a search result corresponding to the desired answer information range.
제1항에 있어서,
상기 답변 정보는 상기 전자 기기의 사용자의 과거 이용 내역을 고려한 개인화 정보에 기초하여 구성되는, 음성 기반 서비스 제공 방법.
The method according to claim 1,
Wherein the answer information is configured based on personalization information that takes into account the past usage history of the user of the electronic device.
제1항에 있어서,
상기 복수의 호출 용어에 대해 각 호출 용어 별로 연령층이 설정되는, 음성 기반 서비스 제공 방법.
The method according to claim 1,
Wherein the age level is set for each of the plurality of call terms.
제8항에 있어서,
상기 제공하는 단계는,
상기 특정 호출 용어의 연령층에 대응되는 검색 정보를 상기 답변 정보로 제공하거나 상기 특정 호출 용어의 연령층에 대응되는 출력 형태로 상기 답변 정보를 제공하는, 음성 기반 서비스 제공 방법.
9. The method of claim 8,
Wherein the providing step comprises:
Providing search information corresponding to an age layer of the specific call term as the answer information or providing the answer information in an output form corresponding to an age layer of the specific call term.
컴퓨터로 구현되는 서버에서 수행되는 음성 기반 서비스 제공 방법에 있어서,
전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계;
상기 전자 기기로부터 상기 복수의 호출 용어 중 상기 대화 기능의 활성화에 이용된 특정 호출 용어에 대한 정보를 포함한 질의를 수신하는 단계;
상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 구성하는 단계; 및
상기 수신된 질의에 대한 응답으로 상기 구성된 답변 정보를 상기 전자 기기로 제공하는 단계
를 포함하는 음성 기반 서비스 제공 방법.
A method for providing a voice-based service performed in a computer-implemented server,
Defining a plurality of call terms used as a dialogue activation trigger for activating an interactive function of the electronic device and setting a desired answer information range for each call term;
Receiving a query from the electronic device, the query including information about a specific call term used for activation of the dialog function among the plurality of call terms;
Constructing answer information based on a desired answer information range corresponding to the specific call term; And
Providing the configured answer information to the electronic device in response to the received query
And a voice-based service providing method.
컴퓨터와 결합되어 제1항 내지 제10항 중 어느 한 항의 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable medium for causing a computer to execute the method of any one of claims 1 to 10 in combination with a computer. 제1항 내지 제10항 중 어느 한 항의 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체.A computer-readable recording medium having recorded thereon a program for causing a computer to execute the method for providing a voice-based service according to any one of claims 1 to 10. 컴퓨터로 구현되는 전자 기기의 음성 기반 서비스 제공 시스템에 있어서,
컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 호출 용어 설정부;
상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화 하는 음성 처리부; 및
상기 대화 기능이 활성화 된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 응답 처리부
를 포함하는 음성 기반 서비스 제공 시스템.
A system for providing a voice-based service of an electronic device implemented by a computer,
At least one processor configured to execute computer readable instructions,
Lt; / RTI >
Wherein the at least one processor comprises:
A calling term setting unit for defining a plurality of calling terms used as a conversation activation trigger for activating an interactive function of the electronic device and setting a desired answer information range for each calling term;
A voice processor for activating the conversation function when any one of the plurality of call terms is recognized through the voice interface of the electronic device; And
And a response processing unit for providing answer information based on a desired answer information range corresponding to the specific call term with respect to a voice query inputted in a state where the conversation function is activated,
Based service providing system.
제13항에 있어서,
상기 복수의 호출 용어와 각 호출 용어 별 희망 답변 정보 범위는 상기 전자 기기의 사용자에 의해 직접 설정되는, 음성 기반 서비스 제공 시스템.
14. The method of claim 13,
Wherein the plurality of call terms and the range of the desired answer information for each call term are set directly by a user of the electronic device.
제13항에 있어서,
상기 적어도 하나의 프로세서는,
상기 음성 인터페이스를 통해 수신된 음성 입력에 대해 서비스 대상이 상기 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버로 전달하는 질의 전달부
를 더 포함하고,
상기 응답 처리부는,
상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는, 음성 기반 서비스 제공 시스템.
14. The method of claim 13,
Wherein the at least one processor comprises:
A query transmitting unit configured to form a query including a range of the desired answer information for a voice input received through the voice interface,
Further comprising:
The response processing unit,
And receives response information based on a desired answer information range corresponding to the specific call term in response to the query from the server, and outputs the answer information through the voice interface.
제13항에 있어서,
상기 적어도 하나의 프로세서는,
상기 음성 인터페이스를 통해 수신된 음성 입력을 상기 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 서버로 전달하는 질의 전달부
를 더 포함하고,
상기 응답 처리부는,
상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는, 음성 기반 서비스 제공 시스템.
14. The method of claim 13,
Wherein the at least one processor comprises:
And a query transmission unit for transmitting the voice input received through the voice interface to the server with a query for a service request together with information on the specific call term
Further comprising:
The response processing unit,
And receives response information based on a desired answer information range corresponding to the specific call term in response to the query from the server, and outputs the answer information through the voice interface.
제13항에 있어서,
상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과를 상기 희망 답변 정보 범위에 해당하지 않는 검색 결과보다 높은 우선순위로 포함하는, 음성 기반 서비스 제공 시스템.
14. The method of claim 13,
Wherein the answer information includes a search result corresponding to the desired answer information range with a higher priority than a search result not corresponding to the desired answer information range.
제13항에 있어서,
상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과로 한정되는, 음성 기반 서비스 제공 시스템.
14. The method of claim 13,
Wherein the answer information is limited to a search result corresponding to the desired answer information range.
제13항에 있어서,
상기 답변 정보는 상기 전자 기기의 사용자의 과거 이용 내역을 고려한 개인화 정보에 기초하여 구성되는, 음성 기반 서비스 제공 시스템.
14. The method of claim 13,
Wherein the answer information is configured based on personalization information in consideration of past usage history of the user of the electronic device.
제13항에 있어서,
상기 복수의 호출 용어에 대해 각 호출 용어 별로 연령층이 설정되고,
상기 응답 처리부는,
상기 특정 호출 용어의 연령층에 대응되는 검색 정보를 상기 답변 정보로 제공하거나 상기 특정 호출 용어의 연령층에 대응되는 출력 형태로 상기 답변 정보를 제공하는, 음성 기반 서비스 제공 시스템.
14. The method of claim 13,
An age layer is set for each of the plurality of call terms,
The response processing unit,
Providing search information corresponding to an age layer of the specific call term as the answer information or providing the answer information in an output form corresponding to an age layer of the specific call term.
KR1020170181758A 2017-12-28 2017-12-28 Method for providing service using plurality wake up word in artificial intelligence device, and system thereof KR102079979B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170181758A KR102079979B1 (en) 2017-12-28 2017-12-28 Method for providing service using plurality wake up word in artificial intelligence device, and system thereof
JP2018233018A JP6728319B2 (en) 2017-12-28 2018-12-13 Service providing method and system using a plurality of wake words in an artificial intelligence device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170181758A KR102079979B1 (en) 2017-12-28 2017-12-28 Method for providing service using plurality wake up word in artificial intelligence device, and system thereof

Publications (2)

Publication Number Publication Date
KR20190079791A true KR20190079791A (en) 2019-07-08
KR102079979B1 KR102079979B1 (en) 2020-02-21

Family

ID=67255946

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170181758A KR102079979B1 (en) 2017-12-28 2017-12-28 Method for providing service using plurality wake up word in artificial intelligence device, and system thereof

Country Status (2)

Country Link
JP (1) JP6728319B2 (en)
KR (1) KR102079979B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102256182B1 (en) * 2020-07-15 2021-05-25 건국대학교 산학협력단 Method and apparatus for providing automatic question and answer chatbot service for video remote lecture
CN113284502A (en) * 2021-05-08 2021-08-20 埃顿能源科技(四川)有限公司 Intelligent customer service voice interaction method and system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200085143A (en) 2019-01-04 2020-07-14 삼성전자주식회사 Conversational control system and method for registering external apparatus
JP2021021860A (en) * 2019-07-29 2021-02-18 三菱自動車工業株式会社 Voice assistance system and vehicle
JP7335115B2 (en) * 2019-08-26 2023-08-29 株式会社第一興商 Karaoke input device
CN112927698A (en) * 2021-02-27 2021-06-08 北京基智科技有限公司 Smart phone voice system based on deep learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060070605A (en) * 2004-12-21 2006-06-26 한국전자통신연구원 Using domain dialogue model and language model in intelligent robot speech recognition service device and method
KR20140123369A (en) * 2013-04-12 2014-10-22 얄리주식회사 Question answering system using speech recognition and its application method thereof
US20170169817A1 (en) * 2015-12-09 2017-06-15 Lenovo (Singapore) Pte. Ltd. Extending the period of voice recognition

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5616390B2 (en) * 2012-03-27 2014-10-29 ヤフー株式会社 Response generation apparatus, response generation method, and response generation program
JP2014109889A (en) * 2012-11-30 2014-06-12 Toshiba Corp Content retrieval device, content retrieval method and control program
US9786296B2 (en) * 2013-07-08 2017-10-10 Qualcomm Incorporated Method and apparatus for assigning keyword model to voice operated function
JP6223744B2 (en) * 2013-08-19 2017-11-01 株式会社東芝 Method, electronic device and program
JP2016095383A (en) * 2014-11-14 2016-05-26 株式会社ATR−Trek Voice recognition client device and server-type voice recognition device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060070605A (en) * 2004-12-21 2006-06-26 한국전자통신연구원 Using domain dialogue model and language model in intelligent robot speech recognition service device and method
KR20140123369A (en) * 2013-04-12 2014-10-22 얄리주식회사 Question answering system using speech recognition and its application method thereof
US20170169817A1 (en) * 2015-12-09 2017-06-15 Lenovo (Singapore) Pte. Ltd. Extending the period of voice recognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102256182B1 (en) * 2020-07-15 2021-05-25 건국대학교 산학협력단 Method and apparatus for providing automatic question and answer chatbot service for video remote lecture
CN113284502A (en) * 2021-05-08 2021-08-20 埃顿能源科技(四川)有限公司 Intelligent customer service voice interaction method and system

Also Published As

Publication number Publication date
JP6728319B2 (en) 2020-07-22
JP2019120935A (en) 2019-07-22
KR102079979B1 (en) 2020-02-21

Similar Documents

Publication Publication Date Title
KR101949497B1 (en) Method and system for processing user command to provide and adjust operation of device or range of providing contents accoding to analyzing presentation of user speech
KR102079979B1 (en) Method for providing service using plurality wake up word in artificial intelligence device, and system thereof
CN109844855B (en) Multiple computing agent execution of tasks
JP6731894B2 (en) Device control method and electronic device
JP6752870B2 (en) Methods and systems for controlling artificial intelligence devices using multiple wake words
KR102209092B1 (en) Method and system for controlling artificial intelligence device using plurality wake up word
KR101968723B1 (en) Method and system for providing camera effect
KR101968725B1 (en) Media selection for providing information corresponding to voice query
US10872617B2 (en) User command processing method and system for adjusting output volume of sound to be output, on basis of input volume of received voice input
US10860289B2 (en) Flexible voice-based information retrieval system for virtual assistant
KR102034255B1 (en) Method and system for human-machine emotional communication
KR101924852B1 (en) Method and system for multi-modal interaction with acoustic apparatus connected with network
KR101975423B1 (en) Method and apparatus for providing appropriate information for location and space of user actively
US20220172722A1 (en) Electronic device for processing user utterance and method for operating same
KR20200017290A (en) Electronic device and method for providing one or more items responding to speech of user
KR20190021012A (en) Continuous coversation function in artificial intelligence device
KR20190002073A (en) Method and system for automatic activation of machine
KR20190134975A (en) Augmented realtity device for rendering a list of apps or skills of artificial intelligence system and method of operating the same
JP6670364B2 (en) Information providing method and device control method using voice recognition function
KR20220165993A (en) Method and system for generating artificial intelligence character
KR102255844B1 (en) Method and apparatus for providing appropriate information for location and space of user actively
KR20190018666A (en) Method and system for automatic activation of machine
US11600260B1 (en) Utterance generation and evaluation
KR102309509B1 (en) Method and system for controlling IoT devices using calls between artificial intelligence devices
KR102241792B1 (en) Continuous coversation function in artificial intelligence device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant