KR102079979B1 - 인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템 - Google Patents

인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템 Download PDF

Info

Publication number
KR102079979B1
KR102079979B1 KR1020170181758A KR20170181758A KR102079979B1 KR 102079979 B1 KR102079979 B1 KR 102079979B1 KR 1020170181758 A KR1020170181758 A KR 1020170181758A KR 20170181758 A KR20170181758 A KR 20170181758A KR 102079979 B1 KR102079979 B1 KR 102079979B1
Authority
KR
South Korea
Prior art keywords
answer information
voice
term
electronic device
call
Prior art date
Application number
KR1020170181758A
Other languages
English (en)
Other versions
KR20190079791A (ko
Inventor
김영재
이민희
정민영
박수만
신중호
Original Assignee
네이버 주식회사
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사, 라인 가부시키가이샤 filed Critical 네이버 주식회사
Priority to KR1020170181758A priority Critical patent/KR102079979B1/ko
Priority to JP2018233018A priority patent/JP6728319B2/ja
Publication of KR20190079791A publication Critical patent/KR20190079791A/ko
Application granted granted Critical
Publication of KR102079979B1 publication Critical patent/KR102079979B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템이 개시된다. 서비스 제공 방법은, 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계, 상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화 하는 단계, 및 상기 대화 기능이 활성화 된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 단계를 포함한다.

Description

인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템{METHOD FOR PROVIDING SERVICE USING PLURALITY WAKE UP WORD IN ARTIFICIAL INTELLIGENCE DEVICE, AND SYSTEM THEREOF}
아래의 설명은 인공지능 대화 시스템에 관한 것이다.
일반적으로 개인비서 시스템, 인공지능(AI) 스피커, 챗봇 플랫폼(chatbot platform) 등에서 사용되는 인공지능 대화 시스템은 사람의 명령어에 대한 의도를 이해하고 그에 대응하는 답변 문구를 제공하는 방식이다.
주로 인공지능 대화 시스템은 사람이 기능적인 요구를 전달하고 이에 기계가 사람의 요구에 대한 해답을 제공하는 방식으로, 마이크(microphone)를 통해 사용자의 음성 입력을 수신하고 수신된 음성 입력에 기반하여 디바이스 동작이나 컨텐츠 제공을 제어할 수 있다.
예를 들어, 한국공개특허 제10-2011-0139797호(공개일 2011년 12월 30일)에는 홈 네트워크 서비스에서 홈 내 복수의 멀티미디어 기기를 사용자가 음성 명령을 통해 다중 제어할 수 있는 기술이 개시되어 있다.
일반적으로 인공지능 대화 시스템은 사전에 정해진 호출 용어(wake up word))(예를 들어, 기기의 이름 등)를 기기를 활성화하기 위한 대화 활성 트리거로 사용하고 있다. 인공지능 기기는 호출 용어를 기반으로 음성인식 기능을 수행하게 되며, 예를 들어 사용자가 기계의 이름을 부르면 기기가 활성화되어 이어지는 사용자의 음성 질의를 입력받기 위한 대기 모드로 진입할 수 있다.
음성 기반 인터페이스를 제공하는 인공지능 기기의 호출 용어를 둘 이상으로 구분하고 각 호출 용어에 따라 서비스 대상을 구분할 수 있는 방법 및 시스템을 제공한다.
컴퓨터로 구현되는 전자 기기에서 수행되는 음성 기반 서비스 제공 방법에 있어서, 상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계; 상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화하는 단계; 및 상기 대화 기능이 활성화된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 단계를 포함하는 음성 기반 서비스 제공 방법을 제공한다.
일 측면에 따르면, 상기 복수의 호출 용어와 각 호출 용어 별 희망 답변 정보 범위는 상기 전자 기기의 사용자에 의해 직접 설정될 수 있다.
다른 측면에 따르면, 상기 제공하는 단계는, 상기 음성 인터페이스를 통해 수신된 음성 입력에 대해 상기 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버로 전달하는 단계; 및 상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 제공하는 단계는, 상기 음성 인터페이스를 통해 수신된 음성 입력을 상기 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 서버로 전달하는 단계; 및 상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과를 상기 희망 답변 정보 범위에 해당하지 않는 검색 결과보다 높은 우선순위로 포함할 수 있다.
또 다른 측면에 따르면, 상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과로 한정될 수 있다.
또 다른 측면에 따르면, 상기 답변 정보는 상기 전자 기기의 사용자의 과거 이용 내역을 고려한 개인화 정보에 기초하여 구성될 수 있다.
또 다른 측면에 따르면, 상기 복수의 호출 용어에 대해 각 호출 용어 별로 연령층이 설정될 수 있다.
또 다른 측면에 따르면, 상기 제공하는 단계는, 상기 특정 호출 용어의 연령층에 대응되는 검색 정보를 상기 답변 정보로 제공하거나 상기 특정 호출 용어의 연령층에 대응되는 출력 형태로 상기 답변 정보를 제공할 수 있다.
컴퓨터로 구현되는 서버에서 수행되는 음성 기반 서비스 제공 방법에 있어서, 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계; 상기 전자 기기로부터 상기 복수의 호출 용어 중 상기 대화 기능의 활성화에 이용된 특정 호출 용어에 대한 정보를 포함한 질의를 수신하는 단계; 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 구성하는 단계; 및 상기 수신된 질의에 대한 응답으로 상기 구성된 답변 정보를 상기 전자 기기로 제공하는 단계를 포함하는 음성 기반 서비스 제공 방법을 제공한다.
컴퓨터와 결합되어 상기 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.
상기 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체를 제공한다.
컴퓨터로 구현되는 전자 기기의 음성 기반 서비스 제공 시스템에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 호출 용어 설정부; 상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화 하는 음성 처리부; 및 상기 대화 기능이 활성화 된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 응답 처리부를 포함하는 음성 기반 서비스 제공 시스템을 제공한다.
도 1은 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 다른 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 있어서, 클라우드 인공지능 플랫폼의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 5는 본 발명의 일실시예에 따른 전자 기기의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 전자 기기가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
도 7은 본 발명의 일실시예에 있어서 서비스 대상이 특정된 호출 용어들을 설명하기 위한 예시 도면이다.
도 8은 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 발명의 실시예들에 따른 음성 기반 서비스 제공 시스템은 사용자와의 대화를 기반으로 동작하는 인터페이스를 제공하는 전자 기기를 통해 구현될 수 있다. 이때, 음성 기반 서비스 제공 시스템은 기기의 활성화를 위한 호출 용어를 둘 이상 이용하여 각 호출 용어에 따라 서비스 대상을 구분할 수 있다.
본 발명의 실시예들에 따른 음성 기반 서비스 제공 방법은 상술한 전자 기기를 통해 수행될 수 있다. 이때, 전자 기기에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 전자 기기는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 일실시예에 따른 음성 기반 서비스 제공 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터로 구현되는 전자 기기와 결합되어 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
도 1은 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 예를 도시한 도면이다. 도 1의 실시예에서는 스마트홈(smart home)이나 홈 네트워크 서비스와 같이 댁내의 디바이스들을 연결하여 제어하는 기술에서, 음성을 기반으로 동작하는 인터페이스를 제공하는 전자 기기(100)가 사용자(110)의 발화에 따라 수신되는 음성 입력 "불 꺼줘"를 인식 및 분석하여 댁내에서 전자 기기(100)와 내부 네트워크를 통해 연계된 댁내 조명기기(120)의 라이트 전원을 제어하는 예를 나타내고 있다.
예를 들어, 댁내의 디바이스들은 상술한 댁내 조명기기(120) 외에도 텔레비전, PC(Personal Computer), 주변기기, 에어컨, 냉장고, 로봇 청소기 등과 같은 가전제품을 비롯하여, 수도, 전기, 냉난방 기기 등과 같은 에너지 소비장치, 도어록, 감시카메라 등과 같은 보안기기 등 온라인 상에서 연결되어 제어될 수 있는 다양한 디바이스들을 포함할 수 있다. 또한, 내부 네트워크는 이더넷(Ethernet), HomePNA, IEEE 1394와 같은 유선 네트워크 기술이나, 블루투스(Bluetooth), UWB(ultra Wide Band), 지그비(ZigBee), Wireless 1394, Home RF와 같은 무선 네트워크 기술 등이 활용될 수 있다.
전자 기기(100)는 댁내의 디바이스들 중 하나일 수 있다. 예를 들어, 전자 기기(100)는 댁내에 구비된 인공지능 스피커나 로봇 청소기 등과 같은 디바이스들 중 하나일 수 있다. 또한, 전자 기기(100)는 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등과 같은 사용자(110)의 모바일 기기일 수도 있다. 이처럼 전자 기기(100)는 사용자(110)의 음성 입력을 수신하여 댁내의 디바이스들을 제어하기 위해 댁내의 디바이스들과 연결 가능한 기능을 포함하는 기기라면 특별히 제한되지 않는다. 또한, 실시예에 따라 상술한 사용자(110)의 모바일 기기들이 댁내의 디바이스들로서 포함될 수도 있다.
도 2는 본 발명의 일실시예에 따른 음성 기반 인터페이스를 활용한 서비스 환경의 다른 예를 도시한 도면이다. 도 2는 음성을 기반으로 동작하는 인터페이스를 제공하는 전자 기기(100)가 사용자(110)의 발화에 따라 수신되는 음성 입력 "오늘 날씨"를 인식 및 분석하여 외부 네트워크를 통해 외부 서버(210)로부터 오늘의 날씨에 대한 정보를 획득하고 획득한 정보를 "오늘의 날씨는 ..."와 같이 음성으로 출력하는 예를 나타내고 있다.
예를 들어, 외부 네트워크는 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다.
도 2의 실시예에서도 전자 기기(100)는 댁내의 디바이스들 중 하나이거나 사용자(110)의 모바일 기기 중 하나일 수 있으며, 사용자(110)의 음성 입력을 수신하여 처리하기 위한 기능과 외부 네트워크를 통해 외부 서버(210)에 접속하여 외부 서버(210)가 제공하는 서비스나 컨텐츠를 사용자(110)에게 제공하기 위한 기능을 포함하는 기기라면 특별히 제한되지 않는다.
이처럼, 본 발명의 실시예들에 따른 전자 기기(100)는 음성 기반 인터페이스를 통해 사용자(110)의 발화에 따라 수신되는 음성 입력을 포함하는 사용자 명령을 처리할 수 있는 기기라면 특별히 제한되지 않을 수 있다. 예를 들어, 전자 기기(100)는 직접 사용자의 음성 입력을 인식 및 분석하여 음성 입력에 알맞은 동작을 수행함으로써 사용자 명령을 처리할 수도 있으나, 실시예에 따라 사용자의 음성 입력에 대한 인식이나 인식된 음성 입력의 분석, 사용자에게 제공될 음성의 합성 등의 처리를 전자 기기(100)와 연계된 외부의 플랫폼을 통해 수행할 수도 있다.
도 3은 본 발명의 일실시예에 있어서, 클라우드 인공지능 플랫폼의 예를 도시한 도면이다. 도 3은 전자 기기들(310)과 클라우드 인공지능 플랫폼(320) 및 컨텐츠·서비스(330)를 나타내고 있다.
일례로, 전자 기기들(310)은 댁내에 구비되는 디바이스들을 의미할 수 있으며, 적어도 앞서 설명한 전자 기기(100)를 포함할 수 있다. 이러한 전자 기기들(310)이나 전자 기기들(310)에 설치 및 구동되는 어플리케이션들(이하, 앱들)은 인터페이스 커넥트(340)를 통해 클라우드 인공지능 플랫폼(320)과 연계될 수 있다. 여기서 인터페이스 커넥트(340)는 전자 기기들(310)이나 전자 기기들(310)에 설치 및 구동되는 앱들의 개발을 위한 SDK(Software Development Kit) 및/또는 개발 문서들을 개발자들에게 제공할 수 있다. 또한, 인터페이스 커넥트(340)는 전자 기기들(310)이나 전자 기기들(310)에 설치 및 구동되는 앱들이 클라우드 인공지능 플랫폼(320)이 제공하는 기능들을 활용할 수 있는 API(Application Program Interface)를 제공할 수 있다. 구체적인 예로, 개발자들은 인터페이스 커넥트(340)가 제공하는 SDK(Software Development Kit) 및/또는 개발 문서를 이용하여 개발한 기기나 앱은 인터페이스 커넥트(340)가 제공하는 API를 이용하여 클라우드 인공지능 플랫폼(320)이 제공하는 기능들을 활용할 수 있게 된다.
여기서 클라우드 인공지능 플랫폼(320)은 음성 기반의 서비스를 제공하기 위한 기능을 제공할 수 있다. 예를 들어, 클라우드 인공지능 플랫폼(320)은 수신된 음성을 인식하고, 출력될 음성을 합성하기 위한 음성처리모듈(321), 수신된 영상이나 동영상을 분석하여 처리하기 위한 비전처리모듈(322), 수신된 음성에 따라 알맞은 음성을 출력하기 위해 적절한 대화를 결정하기 위한 대화처리모듈(323), 수신된 음성에 알맞은 기능을 추천하기 위한 추천모듈(324), 인공지능이 데이터 학습을 통해 문장 단위로 언어를 번역할 수 있도록 지원하는 인공신경망 기반 기계 번역(Neural Machine Translation, NMT, 325) 등과 같이 음성 기반 서비스를 제공하기 위한 다양한 모듈들을 포함할 수 있다.
예를 들어, 도 1 및 도 2의 실시예들에서 전자 기기(100)는 사용자(110)의 음성 입력을 인터페이스 커넥트(340)에서 제공하는 API를 이용하여 클라우드 인공지능 플랫폼(320)으로 전송할 수 있다. 이 경우, 클라우드 인공지능 플랫폼(320)은 수신된 음성 입력을 상술한 모듈들(321 내지 325)을 활용하여 인식 및 분석할 수 있으며, 수신된 음성 입력에 따라 적절한 답변 음성을 합성하여 제공하거나, 적절한 동작을 추천할 수 있다.
또한, 확장 키트(350)는 제3자 컨텐츠 개발자 또는 회사들이 클라우드 인공지능 플랫폼(320)에 기반하여 새로운 음성기반 기능을 구현할 수 있는 개발 키트를 제공할 수 있다. 예를 들어, 도 2의 실시예에서, 전자 기기(100)는 사용자(110)의 음성 입력을 외부 서버(210)로 전송할 수 있고, 외부 서버(210)는 확장 키트(350)를 통해 제공되는 API를 통해 클라우드 인공지능 플랫폼(320)으로 음성 입력을 전송할 수 있다. 이 경우, 앞서 설명한 바와 유사하게 클라우드 인공지능 플랫폼(320)은 수신되는 음성 입력을 인식, 분석하여 적절한 답변 음성을 합성하여 제공하거나 음성 입력을 통해 처리되어야 할 기능에 대한 추천정보를 외부 서버(210)로 제공할 수 있다. 일례로, 도 2에서, 외부 서버(210)는 음성 입력 "오늘 날씨"를 클라우드 인공지능 플랫폼(320)으로 전송할 수 있고, 클라우드 인공지능 플랫폼(320)으로부터 음성 입력 "오늘 날씨"의 인식을 통해 추출되는 키워드 "오늘" 및 "날씨"를 수신할 수 있다. 이 경우, 외부 서버(210)는 키워드 "오늘" 및 "날씨"를 통해 "오늘의 날씨는 ..."와 같은 텍스트 정보를 생성하여 다시 클라우드 인공지능 플랫폼(320)으로 생성된 텍스트 정보를 전송할 수 있다. 이때, 클라우드 인공지능 플랫폼(320)는 텍스트 정보를 음성으로 합성하여 외부 서버(210)로 제공할 수 있다. 외부 서버(210)는 합성된 음성을 전자 기기(100)로 전송할 수 있고, 전자 기기(100)는 합성된 음성 "오늘의 날씨는 ..."을 스피커를 통해 출력함으로써, 사용자(110)로부터 수신한 음성 입력 "오늘 날씨"가 처리될 수 있다. 이때, 전자 기기(100)는 사용자와의 대화를 기반으로 디바이스 동작이나 컨텐츠 제공을 위한 것이다.
도 4는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 4의 전자 기기(410)는 앞서 설명한 전자 기기(100)에 대응할 수 있고, 서버(420)는 앞서 설명한 외부 서버(210) 또는 클라우드 인공지능 플랫폼(320)을 구현하는 하나의 컴퓨터 장치에 대응할 수 있다.
전자 기기(410)와 서버(420)는 메모리(411, 421), 프로세서(412, 422), 통신 모듈(413, 423) 그리고 입출력 인터페이스(414, 424)를 포함할 수 있다. 메모리(411, 421)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리(411, 421)와는 구분되는 별도의 영구 저장 장치로서 전자 기기(410)나 서버(420)에 포함될 수도 있다. 또한, 메모리(411, 421)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기(410)에 설치되어 특정 서비스의 제공을 위해 전자 기기(410)에서 구동되는 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(411, 421)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(413, 423)을 통해 메모리(411, 421)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 네트워크(430)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(일례로 상술한 어플리케이션)에 기반하여 전자 기기(410)의 메모리(411)에 로딩될 수 있다.
프로세서(412, 422)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(411, 421) 또는 통신 모듈(413, 423)에 의해 프로세서(412, 422)로 제공될 수 있다. 예를 들어 프로세서(412, 422)는 메모리(411, 421)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(413, 423)은 네트워크(430)를 통해 전자 기기(410)와 서버(420)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기(410) 및/또는 서버(420)가 다른 전자 기기 또는 다른 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기(410)의 프로세서(412)가 메모리(411)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(413)의 제어에 따라 네트워크(430)를 통해 서버(420)로 전달될 수 있다. 역으로, 서버(420)의 프로세서(422)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(423)과 네트워크(430)를 거쳐 전자 기기(410)의 통신 모듈(413)을 통해 전자 기기(410)로 수신될 수 있다. 예를 들어 통신 모듈(413)을 통해 수신된 서버(420)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(412)나 메모리(411)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기(410)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스(414)는 입출력 장치(415)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드, 마우스, 마이크로폰, 카메라 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(414)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(415)는 전자 기기(410)와 하나의 장치로 구성될 수도 있다. 또한, 서버(420)의 입출력 인터페이스(424)는 서버(420)와 연결되거나 서버(420)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기(410)의 프로세서(412)가 메모리(411)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(420)나 다른 전자 기기가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(414)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 전자 기기(410) 및 서버(420)는 도 4의 구성요소들보다 더 적은 또는 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기(410)는 상술한 입출력 장치(415) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기(410)가 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 동작 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기(410)에 더 포함되도록 구현될 수 있다.
본 실시예들에서 전자 기기(410)는 사용자의 음성 입력을 수신하기 위한 마이크를 입출력 장치(415)로서 기본적으로 포함할 수 있으며, 사용자의 음성 입력에 대응하는 답변 음성이나 오디오 컨텐츠와 같은 소리를 출력하기 위한 스피커를 입출력 장치(415)로서 더 포함할 수 있다.
이러한 음성 인터페이스를 제공하는 전자 기기(410)는 호출 용어에 의해 활성화되고 활성화 상태에서 사용자가 발화하는 음성 입력을 질의로 입력받게 된다. 전자 기기(410)의 활성화 상태에서 입력된 음성 질의는 서버(420)로 전달되고 음성 질의에 맞게 서버(420)가 데이터를 검색하여 답변 정보를 구성하고 이를 최종적으로 전자 기기(410)에서 출력한다.
음성 인터페이스의 경우 음성 질의에 대응되는 결과를 음성 출력으로 제공하기 때문에 출력할 수 있는 정보가 매우 한정적이라는 점에서 보다 선별된 정보를 제공할 필요가 있다. 통상의 선별 과정은, 예를 들어 검색된 데이터의 상위 결과 중 극히 일부만 제공하는 형태이므로 이로 인해 사용자의 질의에 대해 적절한 정보를 판별하는 부담이 크고 그 결과 또한 개인별 기호에 따라 크게 좌우된다.
이를 해결하기 위해, 목소리 지문(voice ID)을 기계학습을 이용하여 데이터화 하는 방법, 사용자 관심사를 사전 설정하는 방법, 과거 이용 기록을 통해 사용자 취향을 파악하는 방법 등을 통해 개인화를 달성할 수 있다. 그러나, 이러한 개인화 방법은 별도의 학습 과정 또는 설정 과정이 필요하거나 오랜 시간의 이용 기록이 필요하다는 문제가 있고 또한 개인화된 정보가 유출될 경우 프라이버시 문제가 대두될 수 있다.
본 발명에서는 별도의 개인화 과정 없이 기기의 활성화를 위한 호출 용어를 사용자가 관심 있는 분야의 서비스를 한정하기 위한 용도로 이용할 수 있다. 본 발명에 따른 전자 기기(410)는 서비스 대상의 카테고리를 특정할 수 있는 복수 개의 호출 용어가 설정된 상태에서 사용자가 기기 활성화를 위해 발화한 호출 용어에 따라 해당 호출 용어에 대응되는 카테고리의 서비스를 제공할 수 있다.
도 5는 본 발명의 일실시예에 따른 전자 기기의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이고, 도 6은 본 발명의 일실시예에 따른 전자 기기가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
본 실시예에 따른 전자 기기(410)에는 음성 기반 서비스 제공 시스템이 구성될 수 있다. 음성 기반 서비스 제공 시스템은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 실시예에서의 음성 기반 서비스 제공 시스템은 독립적으로 동작하는 프로그램 형태로 구현되거나, 혹은 특정 어플리케이션의 인-앱(in-app) 형태로 구성되어 상기 특정 어플리케이션 상에서 동작이 가능하도록 구현될 수 있다.
예를 들어, 전자 기기(410)에 설치된 어플리케이션이 제공하는 명령에 기반하여 전자 기기(410)에 구현된 음성 기반 서비스 제공 시스템은 음성 기반 서비스 제공 방법을 수행할 수 있다. 도 6에 따른 음성 기반 서비스 제공 방법을 수행하기 위해, 전자 기기(410)의 프로세서(412)는 구성요소로서 도 5에 도시된 바와 같이, 호출 용어 설정부(510), 음성 처리부(520), 질의 전달부(530), 및 응답 처리부(540)를 포함할 수 있다. 실시예에 따라 프로세서(412)의 구성요소들은 선택적으로 프로세서(412)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(412)의 구성요소들은 프로세서(412)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.
이러한 프로세서(412) 및 프로세서(412)의 구성요소들은 도 6의 음성 기반 서비스 제공 방법이 포함하는 단계들(S610 내지 S650)을 수행하도록 전자 기기(410)를 제어할 수 있다. 예를 들어, 프로세서(412) 및 프로세서(412)의 구성요소들은 메모리(411)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
여기서, 프로세서(412)의 구성요소들은 전자 기기(410)에 저장된 프로그램 코드가 제공하는 명령(일례로, 전자 기기(410)에서 구동된 어플리케이션이 제공하는 명령)에 따라 프로세서(412)에 의해 수행되는 프로세서(412)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 전자 기기(410)가 사용자 발화에 따른 음성 입력을 처리하도록 상술한 명령에 따라 전자 기기(410)를 제어하는 프로세서(412)의 기능적 표현으로서 음성 처리부(520)가 이용될 수 있다.
단계(S610)에서 프로세서(412)는 전자 기기(410)의 제어와 관련된 명령이 로딩된 메모리(411)로부터 필요한 명령을 읽어들일 수 있다. 이 경우, 상기 읽어들인 명령은 프로세서(412)가 이후 설명될 단계들(S620 내지 S650)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.
단계(S620)에서 호출 용어 설정부(510)는 전자 기기(410)의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정할 수 있다. 본 발명에서 호출 용어는 전자 기기(410)의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용함과 동시에 사용자가 원하는 서비스 대상인 희망 답변 정보 범위를 특정하기 위한 용도로 사용한다. 호출 용어는 사용자를 대상으로 제공 가능한 서비스 대상에 대해 각 카테고리 별로 사전에 정의되어 설정될 수 있으며, 더 나아가 사용자에 의해 임의로 설정될 수도 있다. 희망 답변 정보 범위는 서비스 대상, 즉 정보를 검색하기 위한 범위를 특정하는 것으로, 본 명세서에서는 서비스 대상을 구분하는 카테고리를 대표적인 예로 하여 설명한다. 도 7을 참조하면, 복수 개의 호출 용어(701)가 정의되고 호출 용어(701) 별로 서비스 대상의 카테고리(702), 언어(703), 추가 검색어(704)가 특정될 수 있다. 호출 용어 설정부(510)는 사용자 정의에 따라 호출 용어(701), 카테고리(702), 언어(703), 추가 검색어(704)를 설정할 수 있고, 이후 추가, 수정, 삭제 등이 가능한 편집 기능을 제공할 수 있다. 예를 들어, 도 7에 도시한 바와 같이 카테고리를 특정하지 않고 서비스 전체를 대상으로 하는 기본 호출 용어는 '샐리'로 설정하고, 카테고리 '야구'를 대상으로 하는 호출 용어는 '야구 박사'로 설정하고, 카테고리 '요리'를 대상으로 하고 검색어에 추가 검색어('요리법' 또는 '레시피')를 추가하는 호출 용어는 '쉐프'로 설정하고, 영어 컨텐츠만을 한정하는 호출 용어는 '코니'로 설정하는 등 다양한 호출 용어(701)를 통해 정보 서비스의 분야를 나타내는 카테고리(702), 제공받는 정보의 언어를 나타내는 언어(703), 정보 검색 시 추가로 사용되는 검색어를 나타내는 추가 검색어(704)를 특정할 수 있다. 호출 용어(701)는 서비스를 이용하는 모든 사용자에게 동일하게 적용되는 공용어일 수 있으며, 다른 예로는 사용자가 자주 이용하거나 관심 있는 서비스 대상에 직접 임의 용어를 지정하여 이용하는 것 또한 가능하다. 사용자가 서비스받고자 하는 정보의 카테고리(예를 들어 육아 정보는 '제인 맘') 또는 언어(예를 들어 중국어 컨텐츠를 제공받고 싶을 경우 '니하오')에 대해 임의대로 호출 용어(701)를 설정할 수 있다. 도시되지 않았으나 제공받고자 하는 컨텐츠의 종류(이미지, 동영상, 지도 등), 컨텐츠 소스(카페, 블로그, 특정 웹사이트 등), 검색 날짜(최근 1주일 이내, 2002년6월 등) 등을 한정하는 것도 가능하다. 그리고, 호출 용어를 둘 이상으로 구분하여 서비스 이용자나 연령층을 구분하는 것 또한 가능하다. 예를 들어, '제임스'는 성인 이용자를 대상으로 하고 '브라운'은 어린이 이용자를 대상으로 할 수 있다. 즉, 호출 용어 별로 서비스 대상뿐만 아니라 서비스 이용자층을 특정하는 것 또한 가능하다. 공통으로 사전 정의되거나 사용자에 의해 직접 설정된 호출 용어(701) 및 호출 용어(701) 별 서비스 대상 카테고리(702)는 전자 기기(410)와 서버(420) 상에 저장되어 상호 연동을 통해 서비스 대상을 구분하기 위해 이용될 수 있다. 호출 용어(701)는 전자 기기(410)와 서버(420) 상에 음성 형태나 문자값 등으로 탑재될 수 있다.
다시 도 6에서, 단계(S630)에서 음성 처리부(520)는 서비스 대상의 카테고리를 특정할 수 있는 복수 개의 호출 용어 중에서 어느 하나의 특정 호출 용어가 인식되면 전자 기기(410)의 대화 기능을 활성화할 수 있다. 음성 처리부(520)는 전자 기기(410)의 대화 기능이 비활성화 상태에서 음성 인터페이스(예컨대, 스피커)를 통해 수신된 음성 입력이 복수 개의 호출 용어 중 어느 하나의 호출 용어가 해당되는 경우 대화 기능을 자동 활성화할 수 있다. 이때, 음성 처리부(520)는 음성 인터페이스를 통해 수신된 음성 입력에 대해 잡음 제거 등 전처리 과정을 거친 후 전처리된 음성이 호출 용어에 해당되는지 여부를 확인할 수 있다.
단계(S640)에서 질의 전달부(530)는 전자 기기(410)의 대화 기능이 활성화된 상태에서 음성 인터페이스를 통해 수신된 음성 입력에 대해 대화 기능의 활성화에 이용된 특정 호출 용어에 대응되는 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버(420)로 전달할 수 있다. 다시 말해, 질의 전달부(530)는 음성 인터페이스를 통해 수신된 음성 입력에 대해 서비스 대상이 대화 기능의 활성화에 이용된 특정 호출 용어에 대응되는 카테고리로 특정된 질의를 구성하여 서버(420)로 전달할 수 있다. 일례로, 질의 전달부(530)는 대화 기능이 활성화된 상태에서 수신된 음성 입력을 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 전달할 수 있다. 이때, 질의 전달부(530)는 음성 인터페이스를 통해 수신된 특정 호출 용어와 특정 호출 용어에 이어 수신된 음성 입력을 음성 신호 형태 그대로 질의로 구성하거나 혹은 음성 인터페이스를 통해 수신된 음성 신호를 음성 인식 기술로 텍스트화한 문자값을 질의로 구성할 수 있다. 질의 전달부(530)는 특정 호출 용어와 호출 용어 이후 음성 입력을 서버(420)에 동시에 전달하거나 혹은 순차적으로 전달하는 것 또한 가능하다. 서비스 요청을 위한 질의는 사용자가 요청하고자 하는 서비스 대상이 한정될 수 있으며, 이는 사용자가 이용한 호출 용어에 대응하는 카테고리로 특정될 수 있다. 전자 기기(410)에서 서버(420)로 전달되는 질의에는 사용자가 이용한 호출 용어 자체나 식별 코드가 포함되거나, 혹은 사용자가 이용한 호출 용어에 대응되는 카테고리 정보 등이 포함될 수 있다. 도 7의 호출 용어를 예로 하면, 사용자가 호출 용어 '샐리'를 이용하여 "샐리, 오늘 야구 경기 어땠어"와 같이 발화하는 경우 서비스 대상이 한정되지 않은 질의가 서버(420)로 전달되고, "야구 박사, 오늘 야구 경기 어땠어?"와 같이 발화하는 경우 서비스 대상의 카테고리를 '야구'로 특정한 질의가 서버(420)로 전달될 수 있다.
단계(S650)에서 응답 처리부(540)는 서버(420)로부터 질의에 대한 응답으로서 사용자가 이용한 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보, 즉 대화 기능의 활성화에 이용된 특정 호출 용어에 대응되는 카테고리의 서비스 정보를 포함한 답변 정보를 수신하여 출력할 수 있다. 서버(420)는 전자 기기(410)의 사용자가 기기의 활성화에 이용한 호출 용어의 특징에 부합하는 서비스 정보를 다른 서비스보다 높은 우선순위로 검색한 결과를 답변 정보로서 제공할 수 있고, 응답 처리부(540)는 서버(420)에서 제공하는 답변 정보를 음성 인터페이스를 통해 출력할 수 있다. 다시 말해, 본 발명에서는 서비스 특정을 위한 별도의 개인화 과정 없이 기기의 활성화에 이용하는 호출 용어만으로 서비스 대상을 특정할 수 있고, 호출 용어에 의해 특정된 서비스를 보다 높은 우선순위로 검색한 답변 정보를 제공할 수 있다. 이때, 호출 용어에 의해 서비스 이용자층이 특정되는 경우 서버(420)에서 이용자층에 대응되는 답변 정보를 제공하거나, 혹은 응답 처리부(540)에서 이용자층에 맞는 출력 형태로 답변 정보를 출력할 수 있다. 예를 들어, 아동 이용자에게는 성인 이용자와 다른 톤의 목소리로 답변 정보를 출력할 수 있고 음성 인터페이스를 통해 발화되는 답변 문장의 형식도 아동 수준에 맞게 생성할 수 있다. 따라서, 전자 기기(410)의 활성화에 이용하는 호출 용어로 서비스 대상이 특정됨에 따라 동일한 질의더라도 호출 용어 별로 제공되는 정보가 다를 수 있으며, 이를 통해 사용자가 별도의 설정 과정 없이 개인의 관심사나 연령층에 맞는 정보를 제공받을 수 있다. 그리고, 응답 처리부(540)는 질의에 대한 응답으로 수신한 답변 정보를 음성 인터페이스를 통해 음성으로 출력하는 것 이외에도, 영상이나 기타 다른 형태로 출력하는 것 또한 가능하며, 이러한 답변 정보에는 시각적, 청각적, 촉각적 출력 등이 가능한 서로 다른 정보가 포함될 수 있다.
도 8은 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이고, 도 9는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
본 실시예에 따른 서버(420)에는 음성 기반 서비스 제공 시스템이 구성될 수 있다. 서버(420)는 클라이언트(client)인 전자 기기(410)를 대상으로 음성 기반의 서비스를 제공하는 것으로, 전자 기기(410)로부터 수신된 서비스 요청에 대한 답변 정보를 제공할 수 있다.
도 9에 따른 음성 기반 서비스 제공 방법을 수행하기 위해, 서버(420)의 프로세서(422)는 구성요소로서 도 8에 도시된 바와 같이, 정보 구성부(810), 및 정보 제공부(820)를 포함할 수 있다. 실시예에 따라 프로세서(422)의 구성요소들은 선택적으로 프로세서(422)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(422)의 구성요소들은 프로세서(422)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.
이러한 프로세서(422) 및 프로세서(422)의 구성요소들은 도 9의 음성 기반 서비스 제공 방법이 포함하는 단계들(S910 내지 S930)을 수행하도록 서버(420)를 제어할 수 있다. 예를 들어, 프로세서(422) 및 프로세서(422)의 구성요소들은 메모리(421)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
여기서, 프로세서(422)의 구성요소들은 서버(420)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(422)에 의해 수행되는 프로세서(422)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 서버(420)가 답변 정보를 구성하도록 상술한 명령에 따라 서버(420)를 제어하는 프로세서(422)의 기능적 표현으로서 정보 구성부(810)가 이용될 수 있다.
단계(S910)에서 프로세서(422)는 서버(420)의 제어와 관련된 명령이 로딩된 메모리(421)로부터 필요한 명령을 읽어드릴 수 있다. 이 경우, 상기 읽어드린 명령은 프로세서(422)가 이후 설명될 단계들(S920 내지 S930)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.
단계(S920)에서 정보 구성부(810)는 전자 기기(410)로부터 수신된 질의에 대해 질의 내 특정 호출 용어에 대응되는 카테고리의 서비스 정보를 포함하는 답변 정보를 구성할 수 있다. 먼저, 정보 구성부(810)는 전자 기기(410)로부터 수신된 질의를 자연어 처리하여 해당 질의의 의도와 목표 등을 추출할 수 있다. 전자 기기(410)로부터 수신된 질의에는 사용자가 기기의 활성화에 이용한 특정 호출 용어에 대한 정보가 포함될 수 있다. 서버(420)에는 전자 기기(410)의 사용자에 대해 호출 용어에 대한 사용자 정의(도 7을 통해 설명한 호출 용어(701), 카테고리(702), 언어(703), 추가 검색어(704)를 포함함)가 탑재되어 있고, 이를 바탕으로 정보 구성부(810)는 질의에 포함된 특정 호출 용어에 따라 사용자가 원하는 서비스 대상을 파악할 수 있다. 일례로, 정보 구성부(810)는 전자 기기(410)의 사용자가 기기의 활성화에 이용한 호출 용어에 대응되는 카테고리의 서비스 정보를 다른 서비스보다 높은 우선순위로 검색한 결과를 질의에 대한 답변 정보로 구성할 수 있다. 다른 예로, 정보 구성부(810)는 질의에 대한 서비스 대상을 전자 기기(410)의 사용자가 기기의 활성화에 이용한 호출 용어에 대응되는 카테고리로 한정하여 한정된 서비스의 정보로 답변 정보를 구성할 수 있다. 따라서, 정보 구성부(810)는 사용자가 기기의 활성화에 이용한 호출 용어를 답변 정보를 구성하기 위한 정보 선별 기준으로 활용할 수 있다. 정보 구성부(810)는 질의에 포함된 특정 호출 용어에 따라 사용자가 원하는 서비스를 파악함으로써 응답할 정보의 양과 질을 조절할 수 있다. 그리고, 정보 구성부(810)는 전자 기기(410)로부터 수신된 질의에 대해 전자 기기(410)의 사용자와 관련된 과거 이용 내역을 고려한 개인화 정보를 추가하여 답변 정보를 구성할 수 있다. 과거 이용 내역은 각 사용자 별로 서버(420) 상에 저장될 수 있으며, 질의와 답변 정보에 대한 기록을 포함할 수 있다. 예를 들어, "야구박사, 오늘 삼성 경기 어땠어"라는 질의로 사용자가 '삼성' 팀에 관심을 가지고 있음을 알 수 있고, 추후 "야구박사, 오늘 경기 어땠어?"라는 질의에 대해 사용자의 이전 질의에 따른 개인화 정보를 기초하여 '삼성' 팀의 야구 정보로 답변 정보를 구성할 수 있다. 이를 통해 사용자가 매번 같은 형식의 질문이 아닌, 보다 간략한 질문으로도 사용자가 원하는 정보를 얻을 수 있다. 음성 답변은 사용자가 끝까지 다 들어야 하는 시간소모적인 정보 전달 방법이므로 가급적 간략하고 주요한 정보를 답변으로 구성하는 것이 사용자 경험에 있어 중요하다. 궁극적으로는 과거의 이용 내역에 기반하여 답변을 가급적 짧게 핵심 내용만으로 구성하는 것이 개인화의 역할이라 할 수 있다. 또 다른 예로서, 동일한 질문에 대해, 과거 이용 내역에 비추어볼 때 "삼성이 한화에 3:5로 패했습니다"라고 짧게 대답한 경우 "패인이 뭐야?" "이승엽 출전했어" 등 계속하여 추가적인 질문을 하였던 사용자라면 보다 풍부한 답변 정보를 구성할 수도 있다. 예를 들어, "야구박사, 오늘 삼성 경기 어땠어?"와 같은 동일한 질문에 대해 과거 이용 내역을 기초로 최근 답변 등을 비교하여 "오늘은 지난 경기와 다르게 삼성이 한화에 3:5로 패배했습니다. MVP였던 이승엽 선수는 오늘 출전하지 않았습니다." 또는 최근 연쇄 질문 리스트를 기초로 "오늘 한화와의 경기에서 삼성이 8:1로 승리했습니다. 승리의 주역은 이승엽 선수의 8회말 2점 홈런입니다. 하이라이트는 4회초, 8회말 입니다."와 같이 보다 다양한 정보로 답변 정보를 구성할 수 있다.
단계(S930)에서 정보 제공부(820)는 전자 기기(410)로부터 수신된 질의에 대한 응답으로 단계(S920)에서 구성된 답변 정보를 전자 기기(410)로 제공할 수 있다. 답변 정보에는 사용자가 기기의 활성화에 이용한 호출 용어의 특징에 부합하는 서비스 정보가 우선적으로 포함될 수 있으며, 음성 출력은 물론 영상이나 다른 형태로의 출력이 가능한 정보가 포함될 수 있다.
따라서, 서버(420)는 사용자가 기기의 활성화에 이용한 호출 용어를 통해 사용자의 관심사를 즉시 파악할 수 있어 사용자 질의에 대한 답변 정보를 효과적으로 선별하여 구성할 수 있다. 사용자는 보다 관심 있는 분야의 질의 시 해당 분야에 특정된 호출 용어를 이용함으로써 원하는 결과를 받을 수 있다. 다시 말해, 복수의 호출 용어에 대해 각 호출 용어에 따라 제공되는 정보가 다르고, 이를 통해 사용자가 별도의 개인화 과정 없이 특정 사용층이나 개인의 관심사 또는 지식 수준 등에 맞는 정보를 제공 받을 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 컴퓨터로 구현되는 전자 기기에서 수행되는 음성 기반 서비스 제공 방법에 있어서,
    상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계;
    상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화하는 단계; 및
    상기 대화 기능이 활성화된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 단계
    를 포함하고,
    상기 호출 용어는 상기 전자 기기의 사용자가 원하는 서비스 대상인 상기 희망 답변 정보 범위를 특정하기 위한 용도로 사용되고,
    상기 희망 답변 정보 범위는 정보를 검색하기 위한 범위로서 상기 서비스 대상을 구분하는 적어도 하나의 카테고리가 포함되고,
    상기 제공하는 단계는,
    상기 특정 호출 용어에 대응되는 카테고리의 서비스 정보를 포함한 답변 정보를 제공하는 것
    을 특징으로 하는 음성 기반 서비스 제공 방법.
  2. 제1항에 있어서,
    상기 복수의 호출 용어와 각 호출 용어 별 희망 답변 정보 범위는 상기 전자 기기의 사용자에 의해 직접 설정되는, 음성 기반 서비스 제공 방법.
  3. 제1항에 있어서,
    상기 제공하는 단계는,
    상기 음성 인터페이스를 통해 수신된 음성 입력에 대해 상기 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버로 전달하는 단계; 및
    상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계
    를 포함하는, 음성 기반 서비스 제공 방법.
  4. 제1항에 있어서,
    상기 제공하는 단계는,
    상기 음성 인터페이스를 통해 수신된 음성 입력을 상기 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 서버로 전달하는 단계; 및
    상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는 단계
    를 포함하는, 음성 기반 서비스 제공 방법.
  5. 제1항에 있어서,
    상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과를 상기 희망 답변 정보 범위에 해당하지 않는 검색 결과보다 높은 우선순위로 포함하는, 음성 기반 서비스 제공 방법.
  6. 제1항에 있어서,
    상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과로 한정되는, 음성 기반 서비스 제공 방법.
  7. 제1항에 있어서,
    상기 답변 정보는 상기 전자 기기의 사용자의 과거 이용 내역을 고려한 개인화 정보에 기초하여 구성되는, 음성 기반 서비스 제공 방법.
  8. 제1항에 있어서,
    상기 복수의 호출 용어에 대해 각 호출 용어 별로 연령층이 설정되는, 음성 기반 서비스 제공 방법.
  9. 제8항에 있어서,
    상기 제공하는 단계는,
    상기 특정 호출 용어의 연령층에 대응되는 검색 정보를 상기 답변 정보로 제공하거나 상기 특정 호출 용어의 연령층에 대응되는 출력 형태로 상기 답변 정보를 제공하는, 음성 기반 서비스 제공 방법.
  10. 컴퓨터로 구현되는 서버에서 수행되는 음성 기반 서비스 제공 방법에 있어서,
    전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 단계;
    상기 전자 기기로부터 상기 복수의 호출 용어 중 상기 대화 기능의 활성화에 이용된 특정 호출 용어에 대한 정보를 포함한 질의를 수신하는 단계;
    상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 구성하는 단계; 및
    상기 수신된 질의에 대한 응답으로 상기 구성된 답변 정보를 상기 전자 기기로 제공하는 단계
    를 포함하고,
    상기 호출 용어는 상기 전자 기기의 사용자가 원하는 서비스 대상인 상기 희망 답변 정보 범위를 특정하기 위한 용도로 사용되고,
    상기 희망 답변 정보 범위는 정보를 검색하기 위한 범위로서 상기 서비스 대상을 구분하는 적어도 하나의 카테고리가 포함되고,
    상기 구성하는 단계는,
    상기 특정 호출 용어에 대응되는 카테고리의 서비스 정보를 포함한 답변 정보를 구성하는 것
    을 특징으로 하는 음성 기반 서비스 제공 방법.
  11. 컴퓨터와 결합되어 제1항 내지 제10항 중 어느 한 항의 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  12. 제1항 내지 제10항 중 어느 한 항의 음성 기반 서비스 제공 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체.
  13. 컴퓨터로 구현되는 전자 기기의 음성 기반 서비스 제공 시스템에 있어서,
    컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 전자 기기의 대화 기능을 활성화하기 위한 대화 활성 트리거로 사용되는 복수의 호출 용어를 정의하고 각 호출 용어 별로 희망 답변 정보 범위를 설정하는 호출 용어 설정부;
    상기 전자 기기의 음성 인터페이스를 통해 상기 복수의 호출 용어 중 어느 하나의 특정 호출 용어가 인식되면 상기 대화 기능을 활성화 하는 음성 처리부; 및
    상기 대화 기능이 활성화 된 상태에서 입력된 음성 질의에 대해 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 제공하는 응답 처리부
    를 포함하고,
    상기 호출 용어는 상기 전자 기기의 사용자가 원하는 서비스 대상인 상기 희망 답변 정보 범위를 특정하기 위한 용도로 사용되고,
    상기 희망 답변 정보 범위는 정보를 검색하기 위한 범위로서 상기 서비스 대상을 구분하는 적어도 하나의 카테고리가 포함되고,
    상기 응답 처리부는,
    상기 특정 호출 용어에 대응되는 카테고리의 서비스 정보를 포함한 답변 정보를 제공하는 것
    을 특징으로 하는 음성 기반 서비스 제공 시스템.
  14. 제13항에 있어서,
    상기 복수의 호출 용어와 각 호출 용어 별 희망 답변 정보 범위는 상기 전자 기기의 사용자에 의해 직접 설정되는, 음성 기반 서비스 제공 시스템.
  15. 제13항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 음성 인터페이스를 통해 수신된 음성 입력에 대해 서비스 대상이 상기 희망 답변 정보 범위를 포함하는 질의를 구성하여 서버로 전달하는 질의 전달부
    를 더 포함하고,
    상기 응답 처리부는,
    상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는, 음성 기반 서비스 제공 시스템.
  16. 제13항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 음성 인터페이스를 통해 수신된 음성 입력을 상기 특정 호출 용어에 대한 정보와 함께 서비스 요청을 위한 질의로 서버로 전달하는 질의 전달부
    를 더 포함하고,
    상기 응답 처리부는,
    상기 서버로부터 상기 질의에 대한 응답으로, 상기 특정 호출 용어에 대응되는 희망 답변 정보 범위에 기초한 답변 정보를 수신하여 상기 음성 인터페이스를 통해 출력하는, 음성 기반 서비스 제공 시스템.
  17. 제13항에 있어서,
    상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과를 상기 희망 답변 정보 범위에 해당하지 않는 검색 결과보다 높은 우선순위로 포함하는, 음성 기반 서비스 제공 시스템.
  18. 제13항에 있어서,
    상기 답변 정보는 상기 희망 답변 정보 범위에 해당하는 검색 결과로 한정되는, 음성 기반 서비스 제공 시스템.
  19. 제13항에 있어서,
    상기 답변 정보는 상기 전자 기기의 사용자의 과거 이용 내역을 고려한 개인화 정보에 기초하여 구성되는, 음성 기반 서비스 제공 시스템.
  20. 제13항에 있어서,
    상기 복수의 호출 용어에 대해 각 호출 용어 별로 연령층이 설정되고,
    상기 응답 처리부는,
    상기 특정 호출 용어의 연령층에 대응되는 검색 정보를 상기 답변 정보로 제공하거나 상기 특정 호출 용어의 연령층에 대응되는 출력 형태로 상기 답변 정보를 제공하는, 음성 기반 서비스 제공 시스템.
KR1020170181758A 2017-12-28 2017-12-28 인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템 KR102079979B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170181758A KR102079979B1 (ko) 2017-12-28 2017-12-28 인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템
JP2018233018A JP6728319B2 (ja) 2017-12-28 2018-12-13 人工知能機器で複数のウェイクワードを利用したサービス提供方法およびそのシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170181758A KR102079979B1 (ko) 2017-12-28 2017-12-28 인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템

Publications (2)

Publication Number Publication Date
KR20190079791A KR20190079791A (ko) 2019-07-08
KR102079979B1 true KR102079979B1 (ko) 2020-02-21

Family

ID=67255946

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170181758A KR102079979B1 (ko) 2017-12-28 2017-12-28 인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템

Country Status (2)

Country Link
JP (1) JP6728319B2 (ko)
KR (1) KR102079979B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11170778B2 (en) 2019-01-04 2021-11-09 Samsung Electronics Co., Ltd. Conversational control system and method for registering external device

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021021860A (ja) * 2019-07-29 2021-02-18 三菱自動車工業株式会社 音声アシスタントシステム及び車両
JP7335115B2 (ja) * 2019-08-26 2023-08-29 株式会社第一興商 カラオケ用入力装置
KR102256182B1 (ko) * 2020-07-15 2021-05-25 건국대학교 산학협력단 동영상 원격 강의용 자동 질의응답 챗봇 서비스 제공 방법 및 장치
CN112927698A (zh) * 2021-02-27 2021-06-08 北京基智科技有限公司 一种基于深度学习的智能电话语音系统
CN113284502A (zh) * 2021-05-08 2021-08-20 埃顿能源科技(四川)有限公司 一种智能客服语音交互方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170169817A1 (en) * 2015-12-09 2017-06-15 Lenovo (Singapore) Pte. Ltd. Extending the period of voice recognition

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060070605A (ko) * 2004-12-21 2006-06-26 한국전자통신연구원 영역별 언어모델과 대화모델을 이용한 지능형 로봇 음성인식 서비스 장치 및 방법
JP5616390B2 (ja) * 2012-03-27 2014-10-29 ヤフー株式会社 応答生成装置、応答生成方法および応答生成プログラム
JP2014109889A (ja) * 2012-11-30 2014-06-12 Toshiba Corp コンテンツ検索装置、コンテンツ検索方法及び制御プログラム
KR20140123369A (ko) * 2013-04-12 2014-10-22 얄리주식회사 음성인식 질의응답 시스템 및 그것의 운용방법
US9786296B2 (en) * 2013-07-08 2017-10-10 Qualcomm Incorporated Method and apparatus for assigning keyword model to voice operated function
JP6223744B2 (ja) * 2013-08-19 2017-11-01 株式会社東芝 方法、電子機器およびプログラム
JP2016095383A (ja) * 2014-11-14 2016-05-26 株式会社ATR−Trek 音声認識クライアント装置及びサーバ型音声認識装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170169817A1 (en) * 2015-12-09 2017-06-15 Lenovo (Singapore) Pte. Ltd. Extending the period of voice recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11170778B2 (en) 2019-01-04 2021-11-09 Samsung Electronics Co., Ltd. Conversational control system and method for registering external device

Also Published As

Publication number Publication date
JP2019120935A (ja) 2019-07-22
JP6728319B2 (ja) 2020-07-22
KR20190079791A (ko) 2019-07-08

Similar Documents

Publication Publication Date Title
KR102079979B1 (ko) 인공지능 기기에서의 복수의 호출 용어를 이용한 서비스 제공 방법 및 그 시스템
KR101949497B1 (ko) 사용자 발화의 표현법을 파악하여 기기의 동작이나 컨텐츠 제공 범위를 조정하여 제공하는 사용자 명령 처리 방법 및 시스템
JP7190917B2 (ja) ホームオートメーションのためのインテリジェントアシスタント
KR102173014B1 (ko) 디바이스들 간의 상태 상호작용의 캡슐화 및 동기화
CN109243432B (zh) 话音处理方法以及支持该话音处理方法的电子设备
JP6752870B2 (ja) 複数のウェイクワードを利用して人工知能機器を制御する方法およびシステム
US10885091B1 (en) System and method for content playback
KR102209092B1 (ko) 복수의 호출 용어를 이용하여 인공지능 기기를 제어하는 방법 및 시스템
US10803859B1 (en) Speech processing for public devices
KR102025391B1 (ko) 사용자의 발화 위치에 따른 디바이스 제어
US11790912B2 (en) Phoneme recognizer customizable keyword spotting system with keyword adaptation
KR101968725B1 (ko) 음성요청에 대응하는 정보 제공을 위한 미디어 선택
US10733222B1 (en) Profile disambiguation
US10860289B2 (en) Flexible voice-based information retrieval system for virtual assistant
KR102034255B1 (ko) 사람-기계 간 감정 대화를 위한 방법 및 시스템
US20220172722A1 (en) Electronic device for processing user utterance and method for operating same
US10043069B1 (en) Item recognition using context data
JP2018206385A (ja) ユーザの位置及び空間に適した情報を能動的に提供する方法及び装置
KR102012927B1 (ko) 인공지능 기기의 자동 불량 검출을 위한 방법 및 시스템
JPWO2018043137A1 (ja) 情報処理装置及び情報処理方法
JP6554517B2 (ja) サウンドを利用したソーシャルネットワークサービス提供装置及びその方法
KR20200040562A (ko) 사용자 발화를 처리하기 위한 시스템
KR102255844B1 (ko) 사용자의 위치 및 공간에 알맞은 정보를 능동적으로 제공하는 방법 및 장치
KR20220165993A (ko) 인공지능 캐릭터 생성 방법 및 그 시스템
KR102241792B1 (ko) 인공지능 기기에서의 연속 대화 기능

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant