KR20190079791A - Method for providing service using plurality wake up word in artificial intelligence device, and system thereof - Google Patents
Method for providing service using plurality wake up word in artificial intelligence device, and system thereof Download PDFInfo
- Publication number
- KR20190079791A KR20190079791A KR1020170181758A KR20170181758A KR20190079791A KR 20190079791 A KR20190079791 A KR 20190079791A KR 1020170181758 A KR1020170181758 A KR 1020170181758A KR 20170181758 A KR20170181758 A KR 20170181758A KR 20190079791 A KR20190079791 A KR 20190079791A
- Authority
- KR
- South Korea
- Prior art keywords
- answer information
- voice
- electronic device
- term
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
- G06F16/24578—Query processing with adaptation to user needs using ranking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Abstract
Description
아래의 설명은 인공지능 대화 시스템에 관한 것이다.The following discussion is about artificial intelligence dialogue systems.
일반적으로 개인비서 시스템, 인공지능(AI) 스피커, 챗봇 플랫폼(chatbot platform) 등에서 사용되는 인공지능 대화 시스템은 사람의 명령어에 대한 의도를 이해하고 그에 대응하는 답변 문구를 제공하는 방식이다.In general, an artificial intelligence dialog system used in a personal secretary system, an AI speaker, a chatbot platform, etc. is a way of understanding an intention of a human command and providing an answer phrase corresponding thereto.
주로 인공지능 대화 시스템은 사람이 기능적인 요구를 전달하고 이에 기계가 사람의 요구에 대한 해답을 제공하는 방식으로, 마이크(microphone)를 통해 사용자의 음성 입력을 수신하고 수신된 음성 입력에 기반하여 디바이스 동작이나 컨텐츠 제공을 제어할 수 있다.An artificial intelligence dialogue system mainly receives a user's speech input via a microphone in such a way that a person delivers a functional request and the machine provides a solution to the needs of a person, It is possible to control operation and content provisioning.
예를 들어, 한국공개특허 제10-2011-0139797호(공개일 2011년 12월 30일)에는 홈 네트워크 서비스에서 홈 내 복수의 멀티미디어 기기를 사용자가 음성 명령을 통해 다중 제어할 수 있는 기술이 개시되어 있다.For example, Korean Unexamined Patent Publication No. 10-2011-0139797 (published on December 30, 2011) discloses a technology that enables a user to multiplexly control a plurality of multimedia devices in a home using a voice command in a home network service. .
일반적으로 인공지능 대화 시스템은 사전에 정해진 호출 용어(wake up word))(예를 들어, 기기의 이름 등)를 기기를 활성화하기 위한 대화 활성 트리거로 사용하고 있다. 인공지능 기기는 호출 용어를 기반으로 음성인식 기능을 수행하게 되며, 예를 들어 사용자가 기계의 이름을 부르면 기기가 활성화되어 이어지는 사용자의 음성 질의를 입력받기 위한 대기 모드로 진입할 수 있다.In general, an artificial intelligence dialogue system uses predefined wake up words (e.g., the name of the device) as a dialogue activation trigger to activate the device. The artificial intelligence device performs a voice recognition function based on the calling term. For example, when the user calls the name of the machine, the device is activated and can enter a standby mode for receiving a voice query of the succeeding user.
음성 기반 인터페이스를 제공하는 인공지능 기기의 호출 용어를 둘 이상으로 구분하고 각 호출 용어에 따라 서비스 대상을 구분할 수 있는 방법 및 시스템을 제공한다.A method and system for distinguishing two or more calling terms of an artificial intelligent device providing a voice-based interface and distinguishing service objects according to each calling term is provided.
컴퓨터로 구현되는 전자 기기에서 수행되는 음성 기반 서비스 제공 방법에 있어서, 상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계; 상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화하는 단계; 및 상기 대화 기능이 활성화된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 단계를 포함하는 음성 기반 서비스 제공 방법을 제공한다.A method for providing a voice-based service performed in an electronic device implemented by a computer, the method comprising: defining a plurality of call terms used as a dialogue activation trigger for activating an interactive function of the electronic device; ; Activating the dialog function if any one of the plurality of call terms is recognized through the voice interface of the electronic device; And providing answer information based on a range of a desired answer information corresponding to the specific call term with respect to a voice query inputted while the conversation function is activated.
일 측면에 따르면, 상기 복수의 호출 용어와 각 호출 용어 별 희망 답변 정보 범위는 상기 전자 기기의 사용자에 의해 직접 설정될 수 있다.According to an aspect, the plurality of call terms and the range of the desired answer information for each call term can be set directly by the user of the electronic device.
다른 측면에 따르면, 상기 제공하는 단계는, 상기 음성 인터페이스를 통해 수신된 음성 입력에 대해 상기 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버로 전달하는 단계; 및 상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계를 포함할 수 있다.According to another aspect, the step of providing comprises constructing a query including the desired answer information range for voice input received through the voice interface and transmitting the constructed query to a server; And receiving answer information based on a range of the desired answer information corresponding to the specific call term in response to the inquiry from the server, and outputting the response information through the voice interface.
또 다른 측면에 따르면, 상기 제공하는 단계는, 상기 음성 인터페이스를 통해 수신된 음성 입력을 상기 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 서버로 전달하는 단계; 및 상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계를 포함할 수 있다.According to another aspect, the providing step includes the steps of: delivering voice input received through the voice interface to a server with a query for a service request together with information on the specific call term; And receiving answer information based on a range of the desired answer information corresponding to the specific call term in response to the inquiry from the server, and outputting the response information through the voice interface.
또 다른 측면에 따르면, 상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과를 상기 희망 답변 정보 범위에 해당하지 않는 검색 결과보다 높은 우선순위로 포함할 수 있다.According to another aspect, the answer information may include a search result corresponding to the desired answer information range with a higher priority than a search result not corresponding to the desired answer information range.
또 다른 측면에 따르면, 상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과로 한정될 수 있다.According to another aspect, the answer information may be limited to a search result corresponding to the desired answer information range.
또 다른 측면에 따르면, 상기 답변 정보는 상기 전자 기기의 사용자의 과거 이용 내역을 고려한 개인화 정보에 기초하여 구성될 수 있다.According to another aspect, the answer information may be configured based on personalization information that considers past usage history of the user of the electronic device.
또 다른 측면에 따르면, 상기 복수의 호출 용어에 대해 각 호출 용어 별로 연령층이 설정될 수 있다.According to another aspect, an age group may be set for each of the plurality of call terms.
또 다른 측면에 따르면, 상기 제공하는 단계는, 상기 특정 호출 용어의 연령층에 대응되는 검색 정보를 상기 답변 정보로 제공하거나 상기 특정 호출 용어의 연령층에 대응되는 출력 형태로 상기 답변 정보를 제공할 수 있다.According to another aspect of the present invention, the providing step may provide the search information corresponding to the age layer of the specific call term as the answer information, or may provide the answer information in an output form corresponding to the age layer of the specific call term .
컴퓨터로 구현되는 서버에서 수행되는 음성 기반 서비스 제공 방법에 있어서, 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계; 상기 전자 기기로부터 상기 복수의 호출 용어 중 상기 대화 기능의 활성화에 이용된 특정 호출 용어에 대한 정보를 포함한 질의를 수신하는 단계; 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 구성하는 단계; 및 상기 수신된 질의에 대한 응답으로 상기 구성된 답변 정보를 상기 전자 기기로 제공하는 단계를 포함하는 음성 기반 서비스 제공 방법을 제공한다.A method for providing a voice-based service in a server implemented by a computer, the method comprising: defining a plurality of call terms used as a conversation activation trigger for activating an interactive function of the electronic device and setting a range of desired answer information for each call term ; Receiving a query from the electronic device, the query including information about a specific call term used for activation of the dialog function among the plurality of call terms; Constructing answer information based on a desired answer information range corresponding to the specific call term; And providing the configured answer information to the electronic device in response to the received query.
컴퓨터와 결합되어 상기 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.There is provided a computer program stored in a computer-readable medium for causing a computer to execute the method for providing a voice-based service in combination with a computer.
상기 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체를 제공한다.There is provided a computer-readable recording medium having recorded thereon a program for causing a computer to execute the method for providing a voice-based service.
컴퓨터로 구현되는 전자 기기의 음성 기반 서비스 제공 시스템에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 호출 용어 설정부; 상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화 하는 음성 처리부; 및 상기 대화 기능이 활성화 된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 응답 처리부를 포함하는 음성 기반 서비스 제공 시스템을 제공한다.A system for providing a voice-based service in an electronic device, the system comprising: at least one processor implemented to execute computer-readable instructions, the at least one processor being operable to activate a dialog function of the electronic device A calling term setting unit for defining a plurality of calling terms used as a conversation active trigger and setting a desired answer information range for each calling term; A voice processor for activating the conversation function when any one of the plurality of call terms is recognized through the voice interface of the electronic device; And a response processing unit for providing answer information based on a desired answer information range corresponding to the specific call term with respect to the voice query inputted in a state where the conversation function is activated.
도 1은 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 다른 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 있어서, 클라우드 인공지능 플랫폼의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 5는 본 발명의 일실시예에 따른 전자 기기의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 전자 기기가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
도 7은 본 발명의 일실시예에 있어서 서비스 대상이 특정된 호출 용어들을 설명하기 위한 예시 도면이다.
도 8은 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.1 is a diagram illustrating an example of a service environment using a voice-based interface according to an embodiment of the present invention.
2 is a diagram illustrating another example of a service environment using a voice-based interface according to an embodiment of the present invention.
3 is a diagram illustrating an example of a cloud intelligence platform in one embodiment of the present invention.
4 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention.
5 is a diagram illustrating an example of a component that a processor of an electronic device according to an embodiment of the present invention may include.
6 is a flowchart showing an example of a method that an electronic apparatus according to an embodiment of the present invention can perform.
FIG. 7 is an exemplary diagram for explaining service term-specific calling terms in an embodiment of the present invention. FIG.
FIG. 8 is a diagram illustrating an example of a component that a processor of a server according to an embodiment of the present invention may include.
FIG. 9 is a flowchart illustrating an example of a method that a server according to an embodiment of the present invention can perform.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 실시예들에 따른 음성 기반 서비스 제공 시스템은 사용자와의 대화를 기반으로 동작하는 인터페이스를 제공하는 전자 기기를 통해 구현될 수 있다. 이때, 음성 기반 서비스 제공 시스템은 기기의 활성화를 위한 호출 용어를 둘 이상 이용하여 각 호출 용어에 따라 서비스 대상을 구분할 수 있다.The voice-based service providing system according to embodiments of the present invention can be implemented through an electronic device that provides an interface that operates based on a conversation with a user. At this time, the voice-based service providing system can distinguish service objects according to each calling term by using two or more calling terms for activating the apparatus.
본 발명의 실시예들에 따른 음성 기반 서비스 제공 방법은 상술한 전자 기기를 통해 수행될 수 있다. 이때, 전자 기기에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 전자 기기는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 일실시예에 따른 음성 기반 서비스 제공 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터로 구현되는 전자 기기와 결합되어 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.The method of providing a voice-based service according to embodiments of the present invention can be performed through the above-described electronic device. At this time, a computer program according to an embodiment of the present invention may be installed and driven in the electronic device, and the electronic device may perform a method of providing a voice-based service according to an embodiment of the present invention, . The above-described computer program may be stored in a computer-readable recording medium for execution by a computer to execute a method for providing a voice-based service in combination with an electronic device implemented by a computer.
도 1은 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 예를 도시한 도면이다. 도 1의 실시예에서는 스마트홈(smart home)이나 홈 네트워크 서비스와 같이 댁내의 디바이스들을 연결하여 제어하는 기술에서, 음성을 기반으로 동작하는 인터페이스를 제공하는 전자 기기(100)가 사용자(110)의 발화에 따라 수신되는 음성 입력 "불 꺼줘"를 인식 및 분석하여 댁내에서 전자 기기(100)와 내부 네트워크를 통해 연계된 댁내 조명기기(120)의 라이트 전원을 제어하는 예를 나타내고 있다.1 is a diagram illustrating an example of a service environment using a voice-based interface according to an embodiment of the present invention. In the embodiment of FIG. 1, an
예를 들어, 댁내의 디바이스들은 상술한 댁내 조명기기(120) 외에도 텔레비전, PC(Personal Computer), 주변기기, 에어컨, 냉장고, 로봇 청소기 등과 같은 가전제품을 비롯하여, 수도, 전기, 냉난방 기기 등과 같은 에너지 소비장치, 도어록, 감시카메라 등과 같은 보안기기 등 온라인 상에서 연결되어 제어될 수 있는 다양한 디바이스들을 포함할 수 있다. 또한, 내부 네트워크는 이더넷(Ethernet), HomePNA, IEEE 1394와 같은 유선 네트워크 기술이나, 블루투스(Bluetooth), UWB(ultra Wide Band), 지그비(ZigBee), Wireless 1394, Home RF와 같은 무선 네트워크 기술 등이 활용될 수 있다.For example, the home-use devices may be used in home appliances such as televisions, personal computers (PCs), peripherals, air conditioners, refrigerators, and robot cleaners in addition to the
전자 기기(100)는 댁내의 디바이스들 중 하나일 수 있다. 예를 들어, 전자 기기(100)는 댁내에 구비된 인공지능 스피커나 로봇 청소기 등과 같은 디바이스들 중 하나일 수 있다. 또한, 전자 기기(100)는 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등과 같은 사용자(110)의 모바일 기기일 수도 있다. 이처럼 전자 기기(100)는 사용자(110)의 음성 입력을 수신하여 댁내의 디바이스들을 제어하기 위해 댁내의 디바이스들과 연결 가능한 기능을 포함하는 기기라면 특별히 제한되지 않는다. 또한, 실시예에 따라 상술한 사용자(110)의 모바일 기기들이 댁내의 디바이스들로서 포함될 수도 있다.The
도 2는 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 다른 예를 도시한 도면이다. 도 2는 음성을 기반으로 동작하는 인터페이스를 제공하는 전자 기기(100)가 사용자(110)의 발화에 따라 수신되는 음성 입력 "오늘 날씨"를 인식 및 분석하여 외부 네트워크를 통해 외부 서버(210)로부터 오늘의 날씨에 대한 정보를 획득하고 획득한 정보를 "오늘의 날씨는 ..."와 같이 음성으로 출력하는 예를 나타내고 있다.2 is a diagram illustrating another example of a service environment using a voice-based interface according to an embodiment of the present invention. 2 illustrates an example in which an
예를 들어, 외부 네트워크는 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다.For example, the external network may be a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network Lt; RTI ID = 0.0 > and / or < / RTI >
도 2의 실시예에서도 전자 기기(100)는 댁내의 디바이스들 중 하나이거나 사용자(110)의 모바일 기기 중 하나일 수 있으며, 사용자(110)의 음성 입력을 수신하여 처리하기 위한 기능과 외부 네트워크를 통해 외부 서버(210)에 접속하여 외부 서버(210)가 제공하는 서비스나 컨텐츠를 사용자(110)에게 제공하기 위한 기능을 포함하는 기기라면 특별히 제한되지 않는다.2, the
이처럼, 본 발명의 실시예들에 따른 전자 기기(100)는 음성 기반 인터페이스를 통해 사용자(110)의 발화에 따라 수신되는 음성 입력을 포함하는 사용자 명령을 처리할 수 있는 기기라면 특별히 제한되지 않을 수 있다. 예를 들어, 전자 기기(100)는 직접 사용자의 음성 입력을 인식 및 분석하여 음성 입력에 알맞은 동작을 수행함으로써 사용자 명령을 처리할 수도 있으나, 실시예에 따라 사용자의 음성 입력에 대한 인식이나 인식된 음성 입력의 분석, 사용자에게 제공될 음성의 합성 등의 처리를 전자 기기(100)와 연계된 외부의 플랫폼을 통해 수행할 수도 있다.As described above, the
도 3은 본 발명의 일실시예에 있어서, 클라우드 인공지능 플랫폼의 예를 도시한 도면이다. 도 3은 전자 기기들(310)과 클라우드 인공지능 플랫폼(320) 및 컨텐츠·서비스(330)를 나타내고 있다.3 is a diagram illustrating an example of a cloud intelligence platform in one embodiment of the present invention. 3 shows the
일례로, 전자 기기들(310)은 댁내에 구비되는 디바이스들을 의미할 수 있으며, 적어도 앞서 설명한 전자 기기(100)를 포함할 수 있다. 이러한 전자 기기들(310)이나 전자 기기들(310)에 설치 및 구동되는 어플리케이션들(이하, 앱들)은 인터페이스 커넥트(340)를 통해 클라우드 인공지능 플랫폼(320)과 연계될 수 있다. 여기서 인터페이스 커넥트(340)는 전자 기기들(310)이나 전자 기기들(310)에 설치 및 구동되는 앱들의 개발을 위한 SDK(Software Development Kit) 및/또는 개발 문서들을 개발자들에게 제공할 수 있다. 또한, 인터페이스 커넥트(340)는 전자 기기들(310)이나 전자 기기들(310)에 설치 및 구동되는 앱들이 클라우드 인공지능 플랫폼(320)이 제공하는 기능들을 활용할 수 있는 API(Application Program Interface)를 제공할 수 있다. 구체적인 예로, 개발자들은 인터페이스 커넥트(340)가 제공하는 SDK(Software Development Kit) 및/또는 개발 문서를 이용하여 개발한 기기나 앱은 인터페이스 커넥트(340)가 제공하는 API를 이용하여 클라우드 인공지능 플랫폼(320)이 제공하는 기능들을 활용할 수 있게 된다.For example, the
여기서 클라우드 인공지능 플랫폼(320)은 음성 기반의 서비스를 제공하기 위한 기능을 제공할 수 있다. 예를 들어, 클라우드 인공지능 플랫폼(320)은 수신된 음성을 인식하고, 출력될 음성을 합성하기 위한 음성처리모듈(321), 수신된 영상이나 동영상을 분석하여 처리하기 위한 비전처리모듈(322), 수신된 음성에 따라 알맞은 음성을 출력하기 위해 적절한 대화를 결정하기 위한 대화처리모듈(323), 수신된 음성에 알맞은 기능을 추천하기 위한 추천모듈(324), 인공지능이 데이터 학습을 통해 문장 단위로 언어를 번역할 수 있도록 지원하는 인공신경망 기반 기계 번역(Neural Machine Translation, NMT, 325) 등과 같이 음성 기반 서비스를 제공하기 위한 다양한 모듈들을 포함할 수 있다.Here, the
예를 들어, 도 1 및 도 2의 실시예들에서 전자 기기(100)는 사용자(110)의 음성 입력을 인터페이스 커넥트(340)에서 제공하는 API를 이용하여 클라우드 인공지능 플랫폼(320)으로 전송할 수 있다. 이 경우, 클라우드 인공지능 플랫폼(320)은 수신된 음성 입력을 상술한 모듈들(321 내지 325)을 활용하여 인식 및 분석할 수 있으며, 수신된 음성 입력에 따라 적절한 답변 음성을 합성하여 제공하거나, 적절한 동작을 추천할 수 있다.For example, in the embodiments of Figures 1 and 2, the
또한, 확장 키트(350)는 제3자 컨텐츠 개발자 또는 회사들이 클라우드 인공지능 플랫폼(320)에 기반하여 새로운 음성기반 기능을 구현할 수 있는 개발 키트를 제공할 수 있다. 예를 들어, 도 2의 실시예에서, 전자 기기(100)는 사용자(110)의 음성 입력을 외부 서버(210)로 전송할 수 있고, 외부 서버(210)는 확장 키트(350)를 통해 제공되는 API를 통해 클라우드 인공지능 플랫폼(320)으로 음성 입력을 전송할 수 있다. 이 경우, 앞서 설명한 바와 유사하게 클라우드 인공지능 플랫폼(320)은 수신되는 음성 입력을 인식, 분석하여 적절한 답변 음성을 합성하여 제공하거나 음성 입력을 통해 처리되어야 할 기능에 대한 추천정보를 외부 서버(210)로 제공할 수 있다. 일례로, 도 2에서, 외부 서버(210)는 음성 입력 "오늘 날씨"를 클라우드 인공지능 플랫폼(320)으로 전송할 수 있고, 클라우드 인공지능 플랫폼(320)으로부터 음성 입력 "오늘 날씨"의 인식을 통해 추출되는 키워드 "오늘" 및 "날씨"를 수신할 수 있다. 이 경우, 외부 서버(210)는 키워드 "오늘" 및 "날씨"를 통해 "오늘의 날씨는 ..."와 같은 텍스트 정보를 생성하여 다시 클라우드 인공지능 플랫폼(320)으로 생성된 텍스트 정보를 전송할 수 있다. 이때, 클라우드 인공지능 플랫폼(320)는 텍스트 정보를 음성으로 합성하여 외부 서버(210)로 제공할 수 있다. 외부 서버(210)는 합성된 음성을 전자 기기(100)로 전송할 수 있고, 전자 기기(100)는 합성된 음성 "오늘의 날씨는 ..."을 스피커를 통해 출력함으로써, 사용자(110)로부터 수신한 음성 입력 "오늘 날씨"가 처리될 수 있다. 이때, 전자 기기(100)는 사용자와의 대화를 기반으로 디바이스 동작이나 컨텐츠 제공을 위한 것이다.In addition, the
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 4의 전자 기기(410)는 앞서 설명한 전자 기기(100)에 대응할 수 있고, 서버(420)는 앞서 설명한 외부 서버(210) 또는 클라우드 인공지능 플랫폼(320)을 구현하는 하나의 컴퓨터 장치에 대응할 수 있다.4 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention. The
전자 기기(410)와 서버(420)는 메모리(411, 421), 프로세서(412, 422), 통신 모듈(413, 423) 그리고 입출력 인터페이스(414, 424)를 포함할 수 있다. 메모리(411, 421)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리(411, 421)와는 구분되는 별도의 영구 저장 장치로서 전자 기기(410)나 서버(420)에 포함될 수도 있다. 또한, 메모리(411, 421)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기(410)에 설치되어 특정 서비스의 제공을 위해 전자 기기(410)에서 구동되는 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(411, 421)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(413, 423)을 통해 메모리(411, 421)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 네트워크(430)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(일례로 상술한 어플리케이션)에 기반하여 전자 기기(410)의 메모리(411)에 로딩될 수 있다.The
프로세서(412, 422)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(411, 421) 또는 통신 모듈(413, 423)에 의해 프로세서(412, 422)로 제공될 수 있다. 예를 들어 프로세서(412, 422)는 메모리(411, 421)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(413, 423)은 네트워크(430)를 통해 전자 기기(410)와 서버(420)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기(410) 및/또는 서버(420)가 다른 전자 기기 또는 다른 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기(410)의 프로세서(412)가 메모리(411)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(413)의 제어에 따라 네트워크(430)를 통해 서버(420)로 전달될 수 있다. 역으로, 서버(420)의 프로세서(422)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(423)과 네트워크(430)를 거쳐 전자 기기(410)의 통신 모듈(413)을 통해 전자 기기(410)로 수신될 수 있다. 예를 들어 통신 모듈(413)을 통해 수신된 서버(420)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(412)나 메모리(411)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기(410)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The
입출력 인터페이스(414)는 입출력 장치(415)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드, 마우스, 마이크로폰, 카메라 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(414)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(415)는 전자 기기(410)와 하나의 장치로 구성될 수도 있다. 또한, 서버(420)의 입출력 인터페이스(424)는 서버(420)와 연결되거나 서버(420)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기(410)의 프로세서(412)가 메모리(411)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(420)나 다른 전자 기기가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(414)를 통해 디스플레이에 표시될 수 있다.The input /
또한, 다른 실시예들에서 전자 기기(410) 및 서버(420)는 도 4의 구성요소들보다 더 적은 또는 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기(410)는 상술한 입출력 장치(415) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기(410)가 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 동작 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기(410)에 더 포함되도록 구현될 수 있다.Also, in other embodiments,
본 실시예들에서 전자 기기(410)는 사용자의 음성 입력을 수신하기 위한 마이크를 입출력 장치(415)로서 기본적으로 포함할 수 있으며, 사용자의 음성 입력에 대응하는 답변 음성이나 오디오 컨텐츠와 같은 소리를 출력하기 위한 스피커를 입출력 장치(415)로서 더 포함할 수 있다.In the present embodiment, the
이러한 음성 인터페이스를 제공하는 전자 기기(410)는 호출 용어에 의해 활성화되고 활성화 상태에서 사용자가 발화하는 음성 입력을 질의로 입력받게 된다. 전자 기기(410)의 활성화 상태에서 입력된 음성 질의는 서버(420)로 전달되고 음성 질의에 맞게 서버(420)가 데이터를 검색하여 답변 정보를 구성하고 이를 최종적으로 전자 기기(410)에서 출력한다.The
음성 인터페이스의 경우 음성 질의에 대응되는 결과를 음성 출력으로 제공하기 때문에 출력할 수 있는 정보가 매우 한정적이라는 점에서 보다 선별된 정보를 제공할 필요가 있다. 통상의 선별 과정은, 예를 들어 검색된 데이터의 상위 결과 중 극히 일부만 제공하는 형태이므로 이로 인해 사용자의 질의에 대해 적절한 정보를 판별하는 부담이 크고 그 결과 또한 개인별 기호에 따라 크게 좌우된다.In the case of the voice interface, since the output corresponding to the voice query is provided as the voice output, it is necessary to provide more selective information in that the information that can be output is very limited. The conventional sorting process, for example, provides only a small portion of the top results of the retrieved data, which makes it difficult to determine appropriate information about the user's query, and the result also greatly depends on the individual preference.
이를 해결하기 위해, 목소리 지문(voice ID)을 기계학습을 이용하여 데이터화 하는 방법, 사용자 관심사를 사전 설정하는 방법, 과거 이용 기록을 통해 사용자 취향을 파악하는 방법 등을 통해 개인화를 달성할 수 있다. 그러나, 이러한 개인화 방법은 별도의 학습 과정 또는 설정 과정이 필요하거나 오랜 시간의 이용 기록이 필요하다는 문제가 있고 또한 개인화된 정보가 유출될 경우 프라이버시 문제가 대두될 수 있다.In order to solve this problem, personalization can be achieved through a method of digitizing a voice ID using machine learning, a method of presetting a user interest, and a method of grasping a user's taste through past use records. However, such a personalization method has a problem that a separate learning process or setting process is required or a record of use for a long period of time is required, and a privacy problem may arise when personalized information is leaked.
본 발명에서는 별도의 개인화 과정 없이 기기의 활성화를 위한 호출 용어를 사용자가 관심 있는 분야의 서비스를 한정하기 위한 용도로 이용할 수 있다. 본 발명에 따른 전자 기기(410)는 서비스 대상의 카테고리를 특정할 수 있는 복수 개의 호출 용어가 설정된 상태에서 사용자가 기기 활성화를 위해 발화한 호출 용어에 따라 해당 호출 용어에 대응되는 카테고리의 서비스를 제공할 수 있다.In the present invention, a calling term for activating a device can be used as a purpose for limiting a service in a field of interest by a user without a separate personalization process. The
도 5는 본 발명의 일실시예에 따른 전자 기기의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이고, 도 6은 본 발명의 일실시예에 따른 전자 기기가 수행할 수 있는 방법의 예를 도시한 흐름도이다.FIG. 5 is a block diagram illustrating an example of components that a processor of an electronic device according to an exemplary embodiment of the present invention may include; FIG. 6 is a diagram illustrating an example of a method Fig.
본 실시예에 따른 전자 기기(410)에는 음성 기반 서비스 제공 시스템이 구성될 수 있다. 음성 기반 서비스 제공 시스템은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 실시예에서의 음성 기반 서비스 제공 시스템은 독립적으로 동작하는 프로그램 형태로 구현되거나, 혹은 특정 어플리케이션의 인-앱(in-app) 형태로 구성되어 상기 특정 어플리케이션 상에서 동작이 가능하도록 구현될 수 있다.The
예를 들어, 전자 기기(410)에 설치된 어플리케이션이 제공하는 명령에 기반하여 전자 기기(410)에 구현된 음성 기반 서비스 제공 시스템은 음성 기반 서비스 제공 방법을 수행할 수 있다. 도 6에 따른 음성 기반 서비스 제공 방법을 수행하기 위해, 전자 기기(410)의 프로세서(412)는 구성요소로서 도 5에 도시된 바와 같이, 호출 용어 설정부(510), 음성 처리부(520), 질의 전달부(530), 및 응답 처리부(540)를 포함할 수 있다. 실시예에 따라 프로세서(412)의 구성요소들은 선택적으로 프로세서(412)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(412)의 구성요소들은 프로세서(412)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.For example, a voice-based service providing system implemented in the
이러한 프로세서(412) 및 프로세서(412)의 구성요소들은 도 6의 음성 기반 서비스 제공 방법이 포함하는 단계들(S610 내지 S650)을 수행하도록 전자 기기(410)를 제어할 수 있다. 예를 들어, 프로세서(412) 및 프로세서(412)의 구성요소들은 메모리(411)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.The components of the
여기서, 프로세서(412)의 구성요소들은 전자 기기(410)에 저장된 프로그램 코드가 제공하는 명령(일례로, 전자 기기(410)에서 구동된 어플리케이션이 제공하는 명령)에 따라 프로세서(412)에 의해 수행되는 프로세서(412)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 전자 기기(410)가 사용자 발화에 따른 음성 입력을 처리하도록 상술한 명령에 따라 전자 기기(410)를 제어하는 프로세서(412)의 기능적 표현으로서 음성 처리부(520)가 이용될 수 있다.Here, the components of the
단계(S610)에서 프로세서(412)는 전자 기기(410)의 제어와 관련된 명령이 로딩된 메모리(411)로부터 필요한 명령을 읽어들일 수 있다. 이 경우, 상기 읽어들인 명령은 프로세서(412)가 이후 설명될 단계들(S620 내지 S650)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.In step S610, the
단계(S620)에서 호출 용어 설정부(510)는 전자 기기(410)의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정할 수 있다. 본 발명에서 호출 용어는 전자 기기(410)의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용함과 동시에 사용자가 원하는 서비스 대상인 희망 답변 정보 범위를 특정하기 위한 용도로 사용한다. 호출 용어는 사용자를 대상으로 제공 가능한 서비스 대상에 대해 각 카테고리 별로 사전에 정의되어 설정될 수 있으며, 더 나아가 사용자에 의해 임의로 설정될 수도 있다. 희망 답변 정보 범위는 서비스 대상, 즉 정보를 검색하기 위한 범위를 특정하는 것으로, 본 명세서에서는 서비스 대상을 구분하는 카테고리를 대표적인 예로 하여 설명한다. 도 7을 참조하면, 복수 개의 호출 용어(701)가 정의되고 호출 용어(701) 별로 서비스 대상의 카테고리(702), 언어(703), 추가 검색어(704)가 특정될 수 있다. 호출 용어 설정부(510)는 사용자 정의에 따라 호출 용어(701), 카테고리(702), 언어(703), 추가 검색어(704)를 설정할 수 있고, 이후 추가, 수정, 삭제 등이 가능한 편집 기능을 제공할 수 있다. 예를 들어, 도 7에 도시한 바와 같이 카테고리를 특정하지 않고 서비스 전체를 대상으로 하는 기본 호출 용어는 '샐리'로 설정하고, 카테고리 '야구'를 대상으로 하는 호출 용어는 '야구 박사'로 설정하고, 카테고리 '요리'를 대상으로 하고 검색어에 추가 검색어('요리법' 또는 '레시피')를 추가하는 호출 용어는 '쉐프'로 설정하고, 영어 컨텐츠만을 한정하는 호출 용어는 '코니'로 설정하는 등 다양한 호출 용어(701)를 통해 정보 서비스의 분야를 나타내는 카테고리(702), 제공받는 정보의 언어를 나타내는 언어(703), 정보 검색 시 추가로 사용되는 검색어를 나타내는 추가 검색어(704)를 특정할 수 있다. 호출 용어(701)는 서비스를 이용하는 모든 사용자에게 동일하게 적용되는 공용어일 수 있으며, 다른 예로는 사용자가 자주 이용하거나 관심 있는 서비스 대상에 직접 임의 용어를 지정하여 이용하는 것 또한 가능하다. 사용자가 서비스받고자 하는 정보의 카테고리(예를 들어 육아 정보는 '제인 맘') 또는 언어(예를 들어 중국어 컨텐츠를 제공받고 싶을 경우 '니하오')에 대해 임의대로 호출 용어(701)를 설정할 수 있다. 도시되지 않았으나 제공받고자 하는 컨텐츠의 종류(이미지, 동영상, 지도 등), 컨텐츠 소스(카페, 블로그, 특정 웹사이트 등), 검색 날짜(최근 1주일 이내, 2002년6월 등) 등을 한정하는 것도 가능하다. 그리고, 호출 용어를 둘 이상으로 구분하여 서비스 이용자나 연령층을 구분하는 것 또한 가능하다. 예를 들어, '제임스'는 성인 이용자를 대상으로 하고 '브라운'은 어린이 이용자를 대상으로 할 수 있다. 즉, 호출 용어 별로 서비스 대상뿐만 아니라 서비스 이용자층을 특정하는 것 또한 가능하다. 공통으로 사전 정의되거나 사용자에 의해 직접 설정된 호출 용어(701) 및 호출 용어(701) 별 서비스 대상 카테고리(702)는 전자 기기(410)와 서버(420) 상에 저장되어 상호 연동을 통해 서비스 대상을 구분하기 위해 이용될 수 있다. 호출 용어(701)는 전자 기기(410)와 서버(420) 상에 음성 형태나 문자값 등으로 탑재될 수 있다.In step S620, the call
다시 도 6에서, 단계(S630)에서 음성 처리부(520)는 서비스 대상의 카테고리를 특정할 수 있는 복수 개의 호출 용어 중에서 어느 하나의 특정 호출 용어가 인식되면 전자 기기(410)의 대화 기능을 활성화할 수 있다. 음성 처리부(520)는 전자 기기(410)의 대화 기능이 비활성화 상태에서 음성 인터페이스(예컨대, 스피커)를 통해 수신된 음성 입력이 복수 개의 호출 용어 중 어느 하나의 호출 용어가 해당되는 경우 대화 기능을 자동 활성화할 수 있다. 이때, 음성 처리부(520)는 음성 인터페이스를 통해 수신된 음성 입력에 대해 잡음 제거 등 전처리 과정을 거친 후 전처리된 음성이 호출 용어에 해당되는지 여부를 확인할 수 있다.6, in step S630, the
단계(S640)에서 질의 전달부(530)는 전자 기기(410)의 대화 기능이 활성화된 상태에서 음성 인터페이스를 통해 수신된 음성 입력에 대해 대화 기능의 활성화에 이용된 특정 호출 용어에 대응되는 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버(420)로 전달할 수 있다. 다시 말해, 질의 전달부(530)는 음성 인터페이스를 통해 수신된 음성 입력에 대해 서비스 대상이 대화 기능의 활성화에 이용된 특정 호출 용어에 대응되는 카테고리로 특정된 질의를 구성하여 서버(420)로 전달할 수 있다. 일례로, 질의 전달부(530)는 대화 기능이 활성화된 상태에서 수신된 음성 입력을 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 전달할 수 있다. 이때, 질의 전달부(530)는 음성 인터페이스를 통해 수신된 특정 호출 용어와 특정 호출 용어에 이어 수신된 음성 입력을 음성 신호 형태 그대로 질의로 구성하거나 혹은 음성 인터페이스를 통해 수신된 음성 신호를 음성 인식 기술로 텍스트화한 문자값을 질의로 구성할 수 있다. 질의 전달부(530)는 특정 호출 용어와 호출 용어 이후 음성 입력을 서버(420)에 동시에 전달하거나 혹은 순차적으로 전달하는 것 또한 가능하다. 서비스 요청을 위한 질의는 사용자가 요청하고자 하는 서비스 대상이 한정될 수 있으며, 이는 사용자가 이용한 호출 용어에 대응하는 카테고리로 특정될 수 있다. 전자 기기(410)에서 서버(420)로 전달되는 질의에는 사용자가 이용한 호출 용어 자체나 식별 코드가 포함되거나, 혹은 사용자가 이용한 호출 용어에 대응되는 카테고리 정보 등이 포함될 수 있다. 도 7의 호출 용어를 예로 하면, 사용자가 호출 용어 '샐리'를 이용하여 "샐리, 오늘 야구 경기 어땠어"와 같이 발화하는 경우 서비스 대상이 한정되지 않은 질의가 서버(420)로 전달되고, "야구 박사, 오늘 야구 경기 어땠어?"와 같이 발화하는 경우 서비스 대상의 카테고리를 '야구'로 특정한 질의가 서버(420)로 전달될 수 있다.In step S640, the
단계(S650)에서 응답 처리부(540)는 서버(420)로부터 질의에 대한 응답으로서 사용자가 이용한 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보, 즉 대화 기능의 활성화에 이용된 특정 호출 용어에 대응되는 카테고리의 서비스 정보를 포함한 답변 정보를 수신하여 출력할 수 있다. 서버(420)는 전자 기기(410)의 사용자가 기기의 활성화에 이용한 호출 용어의 특징에 부합하는 서비스 정보를 다른 서비스보다 높은 우선순위로 검색한 결과를 답변 정보로서 제공할 수 있고, 응답 처리부(540)는 서버(420)에서 제공하는 답변 정보를 음성 인터페이스를 통해 출력할 수 있다. 다시 말해, 본 발명에서는 서비스 특정을 위한 별도의 개인화 과정 없이 기기의 활성화에 이용하는 호출 용어만으로 서비스 대상을 특정할 수 있고, 호출 용어에 의해 특정된 서비스를 보다 높은 우선순위로 검색한 답변 정보를 제공할 수 있다. 이때, 호출 용어에 의해 서비스 이용자층이 특정되는 경우 서버(420)에서 이용자층에 대응되는 답변 정보를 제공하거나, 혹은 응답 처리부(540)에서 이용자층에 맞는 출력 형태로 답변 정보를 출력할 수 있다. 예를 들어, 아동 이용자에게는 성인 이용자와 다른 톤의 목소리로 답변 정보를 출력할 수 있고 음성 인터페이스를 통해 발화되는 답변 문장의 형식도 아동 수준에 맞게 생성할 수 있다. 따라서, 전자 기기(410)의 활성화에 이용하는 호출 용어로 서비스 대상이 특정됨에 따라 동일한 질의더라도 호출 용어 별로 제공되는 정보가 다를 수 있으며, 이를 통해 사용자가 별도의 설정 과정 없이 개인의 관심사나 연령층에 맞는 정보를 제공받을 수 있다. 그리고, 응답 처리부(540)는 질의에 대한 응답으로 수신한 답변 정보를 음성 인터페이스를 통해 음성으로 출력하는 것 이외에도, 영상이나 기타 다른 형태로 출력하는 것 또한 가능하며, 이러한 답변 정보에는 시각적, 청각적, 촉각적 출력 등이 가능한 서로 다른 정보가 포함될 수 있다.In step S650, the
도 8은 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이고, 도 9는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.FIG. 8 is a diagram showing an example of a component that a server of a server according to an embodiment of the present invention can include; FIG. 9 is a diagram illustrating an example of a method that a server can perform according to an embodiment of the present invention; Fig.
본 실시예에 따른 서버(420)에는 음성 기반 서비스 제공 시스템이 구성될 수 있다. 서버(420)는 클라이언트(client)인 전자 기기(410)를 대상으로 음성 기반의 서비스를 제공하는 것으로, 전자 기기(410)로부터 수신된 서비스 요청에 대한 답변 정보를 제공할 수 있다.The
도 9에 따른 음성 기반 서비스 제공 방법을 수행하기 위해, 서버(420)의 프로세서(422)는 구성요소로서 도 8에 도시된 바와 같이, 정보 구성부(810), 및 정보 제공부(820)를 포함할 수 있다. 실시예에 따라 프로세서(422)의 구성요소들은 선택적으로 프로세서(422)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(422)의 구성요소들은 프로세서(422)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.9, the
이러한 프로세서(422) 및 프로세서(422)의 구성요소들은 도 9의 음성 기반 서비스 제공 방법이 포함하는 단계들(S910 내지 S930)을 수행하도록 서버(420)를 제어할 수 있다. 예를 들어, 프로세서(422) 및 프로세서(422)의 구성요소들은 메모리(421)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.The
여기서, 프로세서(422)의 구성요소들은 서버(420)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(422)에 의해 수행되는 프로세서(422)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 서버(420)가 답변 정보를 구성하도록 상술한 명령에 따라 서버(420)를 제어하는 프로세서(422)의 기능적 표현으로서 정보 구성부(810)가 이용될 수 있다.Here, the components of
단계(S910)에서 프로세서(422)는 서버(420)의 제어와 관련된 명령이 로딩된 메모리(421)로부터 필요한 명령을 읽어드릴 수 있다. 이 경우, 상기 읽어드린 명령은 프로세서(422)가 이후 설명될 단계들(S920 내지 S930)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.In step S910, the
단계(S920)에서 정보 구성부(810)는 전자 기기(410)로부터 수신된 질의에 대해 질의 내 특정 호출 용어에 대응되는 카테고리의 서비스 정보를 포함하는 답변 정보를 구성할 수 있다. 먼저, 정보 구성부(810)는 전자 기기(410)로부터 수신된 질의를 자연어 처리하여 해당 질의의 의도와 목표 등을 추출할 수 있다. 전자 기기(410)로부터 수신된 질의에는 사용자가 기기의 활성화에 이용한 특정 호출 용어에 대한 정보가 포함될 수 있다. 서버(420)에는 전자 기기(410)의 사용자에 대해 호출 용어에 대한 사용자 정의(도 7을 통해 설명한 호출 용어(701), 카테고리(702), 언어(703), 추가 검색어(704)를 포함함)가 탑재되어 있고, 이를 바탕으로 정보 구성부(810)는 질의에 포함된 특정 호출 용어에 따라 사용자가 원하는 서비스 대상을 파악할 수 있다. 일례로, 정보 구성부(810)는 전자 기기(410)의 사용자가 기기의 활성화에 이용한 호출 용어에 대응되는 카테고리의 서비스 정보를 다른 서비스보다 높은 우선순위로 검색한 결과를 질의에 대한 답변 정보로 구성할 수 있다. 다른 예로, 정보 구성부(810)는 질의에 대한 서비스 대상을 전자 기기(410)의 사용자가 기기의 활성화에 이용한 호출 용어에 대응되는 카테고리로 한정하여 한정된 서비스의 정보로 답변 정보를 구성할 수 있다. 따라서, 정보 구성부(810)는 사용자가 기기의 활성화에 이용한 호출 용어를 답변 정보를 구성하기 위한 정보 선별 기준으로 활용할 수 있다. 정보 구성부(810)는 질의에 포함된 특정 호출 용어에 따라 사용자가 원하는 서비스를 파악함으로써 응답할 정보의 양과 질을 조절할 수 있다. 그리고, 정보 구성부(810)는 전자 기기(410)로부터 수신된 질의에 대해 전자 기기(410)의 사용자와 관련된 과거 이용 내역을 고려한 개인화 정보를 추가하여 답변 정보를 구성할 수 있다. 과거 이용 내역은 각 사용자 별로 서버(420) 상에 저장될 수 있으며, 질의와 답변 정보에 대한 기록을 포함할 수 있다. 예를 들어, "야구박사, 오늘 삼성 경기 어땠어"라는 질의로 사용자가 '삼성' 팀에 관심을 가지고 있음을 알 수 있고, 추후 "야구박사, 오늘 경기 어땠어?"라는 질의에 대해 사용자의 이전 질의에 따른 개인화 정보를 기초하여 '삼성' 팀의 야구 정보로 답변 정보를 구성할 수 있다. 이를 통해 사용자가 매번 같은 형식의 질문이 아닌, 보다 간략한 질문으로도 사용자가 원하는 정보를 얻을 수 있다. 음성 답변은 사용자가 끝까지 다 들어야 하는 시간소모적인 정보 전달 방법이므로 가급적 간략하고 주요한 정보를 답변으로 구성하는 것이 사용자 경험에 있어 중요하다. 궁극적으로는 과거의 이용 내역에 기반하여 답변을 가급적 짧게 핵심 내용만으로 구성하는 것이 개인화의 역할이라 할 수 있다. 또 다른 예로서, 동일한 질문에 대해, 과거 이용 내역에 비추어볼 때 "삼성이 한화에 3:5로 패했습니다"라고 짧게 대답한 경우 "패인이 뭐야?" "이승엽 출전했어" 등 계속하여 추가적인 질문을 하였던 사용자라면 보다 풍부한 답변 정보를 구성할 수도 있다. 예를 들어, "야구박사, 오늘 삼성 경기 어땠어?"와 같은 동일한 질문에 대해 과거 이용 내역을 기초로 최근 답변 등을 비교하여 "오늘은 지난 경기와 다르게 삼성이 한화에 3:5로 패배했습니다. MVP였던 이승엽 선수는 오늘 출전하지 않았습니다." 또는 최근 연쇄 질문 리스트를 기초로 "오늘 한화와의 경기에서 삼성이 8:1로 승리했습니다. 승리의 주역은 이승엽 선수의 8회말 2점 홈런입니다. 하이라이트는 4회초, 8회말 입니다."와 같이 보다 다양한 정보로 답변 정보를 구성할 수 있다.In step S920, the
단계(S930)에서 정보 제공부(820)는 전자 기기(410)로부터 수신된 질의에 대한 응답으로 단계(S920)에서 구성된 답변 정보를 전자 기기(410)로 제공할 수 있다. 답변 정보에는 사용자가 기기의 활성화에 이용한 호출 용어의 특징에 부합하는 서비스 정보가 우선적으로 포함될 수 있으며, 음성 출력은 물론 영상이나 다른 형태로의 출력이 가능한 정보가 포함될 수 있다.In step S930, the
따라서, 서버(420)는 사용자가 기기의 활성화에 이용한 호출 용어를 통해 사용자의 관심사를 즉시 파악할 수 있어 사용자 질의에 대한 답변 정보를 효과적으로 선별하여 구성할 수 있다. 사용자는 보다 관심 있는 분야의 질의 시 해당 분야에 특정된 호출 용어를 이용함으로써 원하는 결과를 받을 수 있다. 다시 말해, 복수의 호출 용어에 대해 각 호출 용어에 따라 제공되는 정보가 다르고, 이를 통해 사용자가 별도의 개인화 과정 없이 특정 사용층이나 개인의 관심사 또는 지식 수준 등에 맞는 정보를 제공 받을 수 있다.Accordingly, the
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented as a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit, a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be embodied in any type of machine, component, physical device, computer storage media, or device for interpretation by a processing device or to provide instructions or data to the processing device have. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. At this time, the medium may be a program that continuously stores a computer executable program, or temporarily stores the program for execution or downloading. Further, the medium may be a variety of recording means or storage means in the form of a combination of a single hardware or a plurality of hardware, but is not limited to a medium directly connected to any computer system, but may be dispersed on a network. Examples of the medium include a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, And program instructions including ROM, RAM, flash memory, and the like. As another example of the medium, a recording medium or a storage medium that is managed by a site or a server that supplies or distributes an application store or various other software is also enumerated.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (20)
상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계;
상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화하는 단계; 및
상기 대화 기능이 활성화된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 단계
를 포함하는 음성 기반 서비스 제공 방법.A method for providing a voice-based service performed in a computer-implemented electronic device,
Defining a plurality of call terms used as a dialogue activation trigger for activating an interactive function of the electronic device and setting a desired answer information range for each call term;
Activating the dialog function if any one of the plurality of call terms is recognized through the voice interface of the electronic device; And
Providing answer information based on a range of the desired answer information corresponding to the specific call term with respect to the voice query inputted while the conversation function is activated
And a voice-based service providing method.
상기 복수의 호출 용어와 각 호출 용어 별 희망 답변 정보 범위는 상기 전자 기기의 사용자에 의해 직접 설정되는, 음성 기반 서비스 제공 방법.The method according to claim 1,
Wherein the plurality of call terms and the range of the desired answer information for each call term are set directly by the user of the electronic device.
상기 제공하는 단계는,
상기 음성 인터페이스를 통해 수신된 음성 입력에 대해 상기 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버로 전달하는 단계; 및
상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계
를 포함하는, 음성 기반 서비스 제공 방법.The method according to claim 1,
Wherein the providing step comprises:
Constructing a query including the desired answer information range for voice input received through the voice interface and transmitting the constructed query to a server; And
Receiving answer information based on a desired answer information range corresponding to the specific call term in response to the inquiry from the server and outputting the response information through the voice interface
Based service.
상기 제공하는 단계는,
상기 음성 인터페이스를 통해 수신된 음성 입력을 상기 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 서버로 전달하는 단계; 및
상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계
를 포함하는, 음성 기반 서비스 제공 방법.The method according to claim 1,
Wherein the providing step comprises:
Transmitting a voice input received through the voice interface to the server with a query for a service request together with information on the specific call term; And
Receiving answer information based on a desired answer information range corresponding to the specific call term in response to the inquiry from the server and outputting the response information through the voice interface
Based service.
상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과를 상기 희망 답변 정보 범위에 해당하지 않는 검색 결과보다 높은 우선순위로 포함하는, 음성 기반 서비스 제공 방법.The method according to claim 1,
Wherein the answer information includes a search result corresponding to the desired answer information range with a higher priority than a search result not corresponding to the desired answer information range.
상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과로 한정되는, 음성 기반 서비스 제공 방법.The method according to claim 1,
Wherein the answer information is limited to a search result corresponding to the desired answer information range.
상기 답변 정보는 상기 전자 기기의 사용자의 과거 이용 내역을 고려한 개인화 정보에 기초하여 구성되는, 음성 기반 서비스 제공 방법.The method according to claim 1,
Wherein the answer information is configured based on personalization information that takes into account the past usage history of the user of the electronic device.
상기 복수의 호출 용어에 대해 각 호출 용어 별로 연령층이 설정되는, 음성 기반 서비스 제공 방법.The method according to claim 1,
Wherein the age level is set for each of the plurality of call terms.
상기 제공하는 단계는,
상기 특정 호출 용어의 연령층에 대응되는 검색 정보를 상기 답변 정보로 제공하거나 상기 특정 호출 용어의 연령층에 대응되는 출력 형태로 상기 답변 정보를 제공하는, 음성 기반 서비스 제공 방법.9. The method of claim 8,
Wherein the providing step comprises:
Providing search information corresponding to an age layer of the specific call term as the answer information or providing the answer information in an output form corresponding to an age layer of the specific call term.
전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계;
상기 전자 기기로부터 상기 복수의 호출 용어 중 상기 대화 기능의 활성화에 이용된 특정 호출 용어에 대한 정보를 포함한 질의를 수신하는 단계;
상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 구성하는 단계; 및
상기 수신된 질의에 대한 응답으로 상기 구성된 답변 정보를 상기 전자 기기로 제공하는 단계
를 포함하는 음성 기반 서비스 제공 방법.A method for providing a voice-based service performed in a computer-implemented server,
Defining a plurality of call terms used as a dialogue activation trigger for activating an interactive function of the electronic device and setting a desired answer information range for each call term;
Receiving a query from the electronic device, the query including information about a specific call term used for activation of the dialog function among the plurality of call terms;
Constructing answer information based on a desired answer information range corresponding to the specific call term; And
Providing the configured answer information to the electronic device in response to the received query
And a voice-based service providing method.
컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 호출 용어 설정부;
상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화 하는 음성 처리부; 및
상기 대화 기능이 활성화 된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 응답 처리부
를 포함하는 음성 기반 서비스 제공 시스템.A system for providing a voice-based service of an electronic device implemented by a computer,
At least one processor configured to execute computer readable instructions,
Lt; / RTI >
Wherein the at least one processor comprises:
A calling term setting unit for defining a plurality of calling terms used as a conversation activation trigger for activating an interactive function of the electronic device and setting a desired answer information range for each calling term;
A voice processor for activating the conversation function when any one of the plurality of call terms is recognized through the voice interface of the electronic device; And
And a response processing unit for providing answer information based on a desired answer information range corresponding to the specific call term with respect to a voice query inputted in a state where the conversation function is activated,
Based service providing system.
상기 복수의 호출 용어와 각 호출 용어 별 희망 답변 정보 범위는 상기 전자 기기의 사용자에 의해 직접 설정되는, 음성 기반 서비스 제공 시스템.14. The method of claim 13,
Wherein the plurality of call terms and the range of the desired answer information for each call term are set directly by a user of the electronic device.
상기 적어도 하나의 프로세서는,
상기 음성 인터페이스를 통해 수신된 음성 입력에 대해 서비스 대상이 상기 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버로 전달하는 질의 전달부
를 더 포함하고,
상기 응답 처리부는,
상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는, 음성 기반 서비스 제공 시스템.14. The method of claim 13,
Wherein the at least one processor comprises:
A query transmitting unit configured to form a query including a range of the desired answer information for a voice input received through the voice interface,
Further comprising:
The response processing unit,
And receives response information based on a desired answer information range corresponding to the specific call term in response to the query from the server, and outputs the answer information through the voice interface.
상기 적어도 하나의 프로세서는,
상기 음성 인터페이스를 통해 수신된 음성 입력을 상기 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 서버로 전달하는 질의 전달부
를 더 포함하고,
상기 응답 처리부는,
상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는, 음성 기반 서비스 제공 시스템.14. The method of claim 13,
Wherein the at least one processor comprises:
And a query transmission unit for transmitting the voice input received through the voice interface to the server with a query for a service request together with information on the specific call term
Further comprising:
The response processing unit,
And receives response information based on a desired answer information range corresponding to the specific call term in response to the query from the server, and outputs the answer information through the voice interface.
상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과를 상기 희망 답변 정보 범위에 해당하지 않는 검색 결과보다 높은 우선순위로 포함하는, 음성 기반 서비스 제공 시스템.14. The method of claim 13,
Wherein the answer information includes a search result corresponding to the desired answer information range with a higher priority than a search result not corresponding to the desired answer information range.
상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과로 한정되는, 음성 기반 서비스 제공 시스템.14. The method of claim 13,
Wherein the answer information is limited to a search result corresponding to the desired answer information range.
상기 답변 정보는 상기 전자 기기의 사용자의 과거 이용 내역을 고려한 개인화 정보에 기초하여 구성되는, 음성 기반 서비스 제공 시스템.14. The method of claim 13,
Wherein the answer information is configured based on personalization information in consideration of past usage history of the user of the electronic device.
상기 복수의 호출 용어에 대해 각 호출 용어 별로 연령층이 설정되고,
상기 응답 처리부는,
상기 특정 호출 용어의 연령층에 대응되는 검색 정보를 상기 답변 정보로 제공하거나 상기 특정 호출 용어의 연령층에 대응되는 출력 형태로 상기 답변 정보를 제공하는, 음성 기반 서비스 제공 시스템.14. The method of claim 13,
An age layer is set for each of the plurality of call terms,
The response processing unit,
Providing search information corresponding to an age layer of the specific call term as the answer information or providing the answer information in an output form corresponding to an age layer of the specific call term.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170181758A KR102079979B1 (en) | 2017-12-28 | 2017-12-28 | Method for providing service using plurality wake up word in artificial intelligence device, and system thereof |
JP2018233018A JP6728319B2 (en) | 2017-12-28 | 2018-12-13 | Service providing method and system using a plurality of wake words in an artificial intelligence device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170181758A KR102079979B1 (en) | 2017-12-28 | 2017-12-28 | Method for providing service using plurality wake up word in artificial intelligence device, and system thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190079791A true KR20190079791A (en) | 2019-07-08 |
KR102079979B1 KR102079979B1 (en) | 2020-02-21 |
Family
ID=67255946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170181758A KR102079979B1 (en) | 2017-12-28 | 2017-12-28 | Method for providing service using plurality wake up word in artificial intelligence device, and system thereof |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6728319B2 (en) |
KR (1) | KR102079979B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102256182B1 (en) * | 2020-07-15 | 2021-05-25 | 건국대학교 산학협력단 | Method and apparatus for providing automatic question and answer chatbot service for video remote lecture |
CN113284502A (en) * | 2021-05-08 | 2021-08-20 | 埃顿能源科技(四川)有限公司 | Intelligent customer service voice interaction method and system |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200085143A (en) | 2019-01-04 | 2020-07-14 | 삼성전자주식회사 | Conversational control system and method for registering external apparatus |
JP2021021860A (en) * | 2019-07-29 | 2021-02-18 | 三菱自動車工業株式会社 | Voice assistance system and vehicle |
JP7335115B2 (en) * | 2019-08-26 | 2023-08-29 | 株式会社第一興商 | Karaoke input device |
CN112927698A (en) * | 2021-02-27 | 2021-06-08 | 北京基智科技有限公司 | Smart phone voice system based on deep learning |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060070605A (en) * | 2004-12-21 | 2006-06-26 | 한국전자통신연구원 | Using domain dialogue model and language model in intelligent robot speech recognition service device and method |
KR20140123369A (en) * | 2013-04-12 | 2014-10-22 | 얄리주식회사 | Question answering system using speech recognition and its application method thereof |
US20170169817A1 (en) * | 2015-12-09 | 2017-06-15 | Lenovo (Singapore) Pte. Ltd. | Extending the period of voice recognition |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5616390B2 (en) * | 2012-03-27 | 2014-10-29 | ヤフー株式会社 | Response generation apparatus, response generation method, and response generation program |
JP2014109889A (en) * | 2012-11-30 | 2014-06-12 | Toshiba Corp | Content retrieval device, content retrieval method and control program |
US9786296B2 (en) * | 2013-07-08 | 2017-10-10 | Qualcomm Incorporated | Method and apparatus for assigning keyword model to voice operated function |
JP6223744B2 (en) * | 2013-08-19 | 2017-11-01 | 株式会社東芝 | Method, electronic device and program |
JP2016095383A (en) * | 2014-11-14 | 2016-05-26 | 株式会社ATR−Trek | Voice recognition client device and server-type voice recognition device |
-
2017
- 2017-12-28 KR KR1020170181758A patent/KR102079979B1/en active IP Right Grant
-
2018
- 2018-12-13 JP JP2018233018A patent/JP6728319B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060070605A (en) * | 2004-12-21 | 2006-06-26 | 한국전자통신연구원 | Using domain dialogue model and language model in intelligent robot speech recognition service device and method |
KR20140123369A (en) * | 2013-04-12 | 2014-10-22 | 얄리주식회사 | Question answering system using speech recognition and its application method thereof |
US20170169817A1 (en) * | 2015-12-09 | 2017-06-15 | Lenovo (Singapore) Pte. Ltd. | Extending the period of voice recognition |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102256182B1 (en) * | 2020-07-15 | 2021-05-25 | 건국대학교 산학협력단 | Method and apparatus for providing automatic question and answer chatbot service for video remote lecture |
CN113284502A (en) * | 2021-05-08 | 2021-08-20 | 埃顿能源科技(四川)有限公司 | Intelligent customer service voice interaction method and system |
Also Published As
Publication number | Publication date |
---|---|
JP6728319B2 (en) | 2020-07-22 |
JP2019120935A (en) | 2019-07-22 |
KR102079979B1 (en) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101949497B1 (en) | Method and system for processing user command to provide and adjust operation of device or range of providing contents accoding to analyzing presentation of user speech | |
KR102079979B1 (en) | Method for providing service using plurality wake up word in artificial intelligence device, and system thereof | |
CN109844855B (en) | Multiple computing agent execution of tasks | |
JP6731894B2 (en) | Device control method and electronic device | |
JP6752870B2 (en) | Methods and systems for controlling artificial intelligence devices using multiple wake words | |
KR102209092B1 (en) | Method and system for controlling artificial intelligence device using plurality wake up word | |
KR101968723B1 (en) | Method and system for providing camera effect | |
KR101968725B1 (en) | Media selection for providing information corresponding to voice query | |
US10872617B2 (en) | User command processing method and system for adjusting output volume of sound to be output, on basis of input volume of received voice input | |
US10860289B2 (en) | Flexible voice-based information retrieval system for virtual assistant | |
KR102034255B1 (en) | Method and system for human-machine emotional communication | |
KR101924852B1 (en) | Method and system for multi-modal interaction with acoustic apparatus connected with network | |
KR101975423B1 (en) | Method and apparatus for providing appropriate information for location and space of user actively | |
US20220172722A1 (en) | Electronic device for processing user utterance and method for operating same | |
KR20200017290A (en) | Electronic device and method for providing one or more items responding to speech of user | |
KR20190021012A (en) | Continuous coversation function in artificial intelligence device | |
KR20190002073A (en) | Method and system for automatic activation of machine | |
KR20190134975A (en) | Augmented realtity device for rendering a list of apps or skills of artificial intelligence system and method of operating the same | |
JP6670364B2 (en) | Information providing method and device control method using voice recognition function | |
KR20220165993A (en) | Method and system for generating artificial intelligence character | |
KR102255844B1 (en) | Method and apparatus for providing appropriate information for location and space of user actively | |
KR20190018666A (en) | Method and system for automatic activation of machine | |
US11600260B1 (en) | Utterance generation and evaluation | |
KR102309509B1 (en) | Method and system for controlling IoT devices using calls between artificial intelligence devices | |
KR102241792B1 (en) | Continuous coversation function in artificial intelligence device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |