KR101777392B1 - 중앙 서버 및 이에 의한 사용자 음성 처리 방법 - Google Patents

중앙 서버 및 이에 의한 사용자 음성 처리 방법 Download PDF

Info

Publication number
KR101777392B1
KR101777392B1 KR1020160084032A KR20160084032A KR101777392B1 KR 101777392 B1 KR101777392 B1 KR 101777392B1 KR 1020160084032 A KR1020160084032 A KR 1020160084032A KR 20160084032 A KR20160084032 A KR 20160084032A KR 101777392 B1 KR101777392 B1 KR 101777392B1
Authority
KR
South Korea
Prior art keywords
service
task
voice command
user
service server
Prior art date
Application number
KR1020160084032A
Other languages
English (en)
Inventor
이상욱
장두성
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020160084032A priority Critical patent/KR101777392B1/ko
Priority to US15/641,843 priority patent/US10311877B2/en
Application granted granted Critical
Publication of KR101777392B1 publication Critical patent/KR101777392B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0633Lists, e.g. purchase orders, compilation or processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • General Engineering & Computer Science (AREA)
  • Development Economics (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

복수의 서비스 서버의 수행 가능 태스크를 등록하는 단계; 사용자 단말로부터 사용자의 음성 명령에 대응하는 데이터를 수신하여 복수의 서비스 서버 중 음성 명령에 따른 태스크를 수행하는 서비스 서버를 선택하는 단계; 선택된 서비스 서버로 음성 명령에 따른 태스크 수행 명령을 전송하는 단계; 및 선택된 서비스 서버의 태스크 수행 결과를 사용자 단말로 전송하는 단계를 포함하는 것을 특징으로 하는 본 발명의 일 실시예에 따른 사용자 음성 처리 방법이 개시된다.

Description

중앙 서버 및 이에 의한 사용자 음성 처리 방법{CENTRAL SERVER AND METHOD FOR PROCESSING OF VOICE OF USER}
본 발명은 음성 처리 분야에 관한 것이다. 보다 구체적으로, 본 발명은 사용자의 음성 명령에 대응하는 태스크를 수행하기 위한 중앙 서버 및 이에 의한 사용자 음성 처리 방법에 관한 것이다.
최근 스마트폰, TV 등 다양한 음성 입력장치의 보급과, 음성 인식, 자연어 처리 등의 음성 인터페이스 기술의 비약적인 발전으로 대화 방식의 사용자 인터페이스가 점차 보편화되고 있다.
과거와는 달리 단순 명령어뿐 아니라, 복잡한 문장 구조를 분석하고 이전 문맥을 파악하는 등 사용자의 의도를 보다 정확하게 해석하여, 타 인터페이스 방식에 비해 추가 학습 비용 없이 편리하게 빠른 작업을 수행할 수 있다는 장점이 있다.
하지만 아직까지는 음성 인터페이스를 도입한 서비스의 대부분이 호텔, 항공, 리모콘 조작 등과 같이 제한된 영역에서만 수행되고 있으며, 이들 서비스 각각을 수행하기 위해서는 별도의 독립된 인터페이스와 입력 장치를 구비하여야만 하는 불편이 있었다.
본 발명의 일 실시예에 따른 중앙 서버 및 이에 의한 사용자 음성 처리 방법은 사용자에게 다양한 음성 서비스를 제공하는 것을 목적으로 한다.
또한, 본 발명의 일 실시예에 따른 중앙 서버 및 이에 의한 사용자 음성 처리 방법은 하나의 음성 입력 장치만으로 사용자에게 여러 도메인의 서비스를 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 사용자 음성 처리 방법은,
복수의 서비스 서버의 수행 가능 태스크를 등록하는 단계; 사용자 단말로부터 사용자의 음성 명령에 대응하는 데이터를 수신하여 상기 복수의 서비스 서버 중 상기 음성 명령에 따른 태스크를 수행하는 서비스 서버를 선택하는 단계; 상기 선택된 서비스 서버로 상기 음성 명령에 따른 태스크 수행 명령을 전송하는 단계; 및 상기 선택된 서비스 서버의 태스크 수행 결과를 상기 사용자 단말로 전송하는 단계를 포함할 수 있다.
상기 서비스 서버를 선택하는 단계는, 상기 음성 명령에 대응하는 데이터에, 복수의 서비스 서버 각각에 매핑된 서비스 호출 단어, 서비스 호출 문장, 문장 패턴 및 키워드가 포함되어 있는지에 따라 상기 서비스 서버를 선택하는 단계를 포함할 수 있다.
상기 서비스 서버를 선택하는 단계는, 서비스 호출 단어, 서비스 호출 문장, 문장 패턴 및 키워드의 순서로 상기 음성 명령에 대응하는 데이터에 상기 서비스 호출 단어, 서비스 호출 문장, 문장 패턴 및 키워드 포함되어 있는지를 판단하여, 상기 서비스 서버를 선택하는 단계를 포함할 수 있다.
상기 서비스 서버를 선택하는 단계는, 상기 복수의 서비스 서버 각각에 매핑된 서비스 호출 단어 또는 서비스 호출 문장이 상기 데이터에 포함되어 있는지를 판단하는 단계; 및 상기 데이터에 어느 하나의 서비스 호출 단어 또는 서비스 호출 문장이 포함되어 있는 경우, 상기 어느 하나의 서비스 호출 단어 또는 서비스 호출 문장으로 매핑된 서비스 서버를 선택하는 단계를 포함할 수 있다.
상기 서비스 서버를 선택하는 단계는, 상기 음성 명령에 대응하는 데이터로부터 확인되는 키워드 또는 문장 패턴이 2개 이상의 서비스 서버에 매핑되어 있는 경우, 상기 음성 명령에 따른 태스크를 수행할 수 있는 서비스 서버가 2개 이상인 것으로 판단하는 단계를 포함할 수 있다.
상기 소정 조건은, 상기 사용자 단말의 이용 이력 또는 상기 중앙 서버에 의해 기 설정된 우선 순위에 따라 결정될 수 있다.
상기 서비스 서버를 선택하는 단계는, 상기 음성 명령에 따른 태스크가 2개 이상인 경우, 상기 2개 이상의 태스크를 수행할 수 있는 2개 이상의 서비스 서버를 선택하는 단계를 포함하고, 상기 태스크 수행 명령을 전송하는 단계는, 상기 선택된 2개 이상의 서비스 서버 각각에 대해 태스크 수행 명령을 전송할 순서를 설정하는 단계; 및 상기 설정된 순서에 따라 순차적으로 상기 2개 이상의 서비스 서버로 태스크 수행 명령을 전송하는 단계를 포함할 수 있다.
상기 2개 이상의 서비스 서버 중 임의의 순위에 해당하는 서비스 서버로 전송하는 태스크 수행 명령은, 상기 임의의 순위의 이전 순위에 해당하는 서비스 서버로부터 수신되는 태스크 수행 결과에 기초하여 생성될 수 있다.
상기 태스크를 등록하는 단계는, 상기 복수의 서버의 수행 가능 태스크의 종류 및 각 태스크를 수행하기 위한 필요 정보를 등록하는 단계를 포함하되, 상기 사용자 음성 처리 방법은, 상기 음성 명령에 따른 태스크를 수행하기 위한 필요 정보 중 일부가 상기 음성 명령에 대응하는 데이터에 포함되어 있지 않은 경우, 상기 사용자 단말로 추가 정보를 요청하는 단계를 더 포함할 수 있다.
상기 사용자 음성 처리 방법은, 상기 음성 명령에 따른 태스크의 직접 수행이 가능한 경우, 상기 음성 명령에 따른 태스크를 수행하여 태스크 수행 결과를 상기 사용자 단말로 전송하는 단계를 더 포함할 수 있다.
본 발명의 다른 실시예에 따른 중앙 서버는,
복수의 서비스 서버의 수행 가능 태스크를 등록하고, 사용자 단말로부터 수신된 사용자의 음성 명령에 대응하는 데이터에 기초하여 상기 복수의 서비스 서버 중 상기 음성 명령에 따른 태스크를 수행하는 서비스 서버를 선택하는 제어부; 및 상기 선택된 서비스 서버로 상기 음성 명령에 따른 태스크 수행 명령을 전송하고, 상기 선택된 서비스 서버의 태스크 수행 결과를 상기 사용자 단말로 전송하는 통신부를 포함할 수 있다.
본 발명의 일 실시예에 따른 중앙 서버 및 이에 의한 사용자 음성 처리 방법이 달성할 수 있는 일부의 효과는 다음과 같다.
i) 사용자에게 다양한 음성 서비스의 제공이 가능하다.
ii) 사용자는 하나의 음성 입력 장치만을 가지고도 여러 도메인의 서비스를 이용할 수 있다.
다만, 본 발명의 일 실시예에 따른 중앙 서버 및 이에 의한 사용자 음성 처리 방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 사용자 단말, 중앙 서버 및 복수의 서비스 서버를 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 중앙 서버에 의한 사용자 음성 처리 방법을 설명하기 위한 순서도이다.
도 3은 중앙 서버에 등록되는 서비스 서버의 태스크 정보를 나타내는 예시적인 도면이다.
도 4는 본 발명의 일 실시예에 따른 태스크 수행 과정을 설명하기 위한 예시적인 도면이다.
도 5는 본 발명의 일 실시예에 따른 태스크 수행 과정을 설명하기 위한 예시적인 도면이다.
도 6은 중앙 서버에 등록되는 서비스 서버의 태스크 정보를 나타내는 예시적인 도면이다.
도 7은 본 발명의 일 실시예에 따른 중앙 서버의 구성을 나타내는 블록도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명은 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
또한, 본 명세서에서 '~부(유닛)', '모듈' 등으로 표현되는 구성요소는 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.
이하에서는, 도면을 참조하여 본 발명의 기술적 사상에 따른 예시적인 실시예들에 대해 설명한다.
도 1은 본 발명의 일 실시예에 따른 사용자 단말(100), 중앙 서버(200) 및 복수의 서비스 서버(300)를 도시하는 도면이다.
사용자 단말(100)은 사용자에 의해 발화된 음성을 입력받는 단말로서, 예를 들어, 스마트폰, 노트북, 테블릿 PC, 스마트워치, 데스크탑 컴퓨터 등과 같이 음성 인식 기능 및 네트워크 접속 기능을 갖는 다양한 종류의 기기를 포함한다.
사용자 단말(100)은 사용자에 의해 발화된 음성 명령을 입력받아, 음성 명령에 대응하는 데이터를 중앙 서버(200)로 전송한다. 상기 음성 명령에 대응하는 데이터는 음성 데이터, 또는 음성 명령에 대응하는 텍스트 데이터를 포함할 수 있다.
중앙 서버(200)는 사용자 단말(100)로부터 수신된 음성 명령에 대응하는 데이터를 분석하여, 사용자의 의도를 확인 및 서비스 서버(300)로 전송하고, 서비스 서버(300)의 태스크 수행 결과를 사용자 단말(100)로 전송한다. 즉, 중앙 서버(200)는 사용자 단말(100)과 서비스 서버(300) 사이에서 사용자의 음성 명령의 처리를 위한 중개 역할을 수행한다.
복수의 서비스 서버(300) 각각은 사용자의 음성 명령에 따른 태스크를 수행하며, 예를 들어, 날씨 서버, 티켓 예매 서버, 음식 주문 서버 등과 같은 다양한 종류의 서버를 포함할 수 있다.
한편, 사용자 단말(100), 중앙 서버(200) 및 복수의 서비스 서버(300)는 서로 간에 네트워크(10)를 통해 통신을 할 수 있는데, 여기서 네트워크(10)는 유선 네트워크와 무선 네트워크를 포함할 수 있으며, 구체적으로, 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등의 다양한 네트워크를 포함할 수 있다. 또한, 네트워크(10)는 공지의 월드 와이드 웹(WWW: World Wide Web)을 포함할 수도 있다. 그러나, 본 발명에 따른 네트워크(10)는 상기 열거된 네트워크에 국한되지 않고, 공지의 무선 데이터 네트워크나 공지의 전화 네트워크, 공지의 유무선 텔레비전 네트워크를 적어도 일부로 포함할 수도 있다.
이하에서는, 도 2 이하를 참조하여, 본 발명의 일 실시예에 따른 중앙 서버(200)에 의한 사용자 음성 처리 방법에 대해 구체적으로 살펴본다.
도 2는 본 발명의 일 실시예에 따른 중앙 서버(200)에 의한 사용자 음성 처리 방법을 설명하기 위한 순서도이고, 도 3은 중앙 서버(200)에 등록되는 서비스 서버(300)의 태스크 정보를 나타내는 예시적인 도면이다.
S210 단계에서, 중앙 서버(200)는 복수의 서비스 서버(300)의 수행 가능 태스크를 등록한다. 구체적으로, 중앙 서버(200)는 복수의 서비스 서버(300) 각각이 어떠한 태스크를 수행하는지의 정보를 등록할 수 있다. 이를 위해, 복수의 서비스 서버(300) 각각은 네트워크(10)를 통해 중앙 서버(200)로 자신의 수행 가능 태스크 정보를 전송할 수 있다.
도 3은 중앙 서버(200)에 등록되는 태스크 정보를 도시하고 있는데, 도 3에 도시된 바와 같이, 서비스 서버(300) 별로 서비스 서버(300)의 수행 가능 태스크의 종류(310), 서비스 호출 단어(320), 서비스 호출 문장(330), 문장 패턴(340), 키워드(350) 및 URL(360)이 중앙 서버(200)에 등록될 수 있다. 다만, 중앙 서버(200)에 등록되는 정보들은 도 3에 도시된 항목들에 한정되는 것은 아니며, 일부의 항목이 생략되거나, 추가적인 항목이 더 등록될 수도 있다.
서비스 호출 단어(320), 서비스 호출 문장(330), 문장 패턴(340) 및 키워드(350)는 서비스 서버(300)를 특정하기 위한 정보이다.
구체적으로, 서비스 호출 단어(320) 및 서비스 호출 문장(330)은 서비스 서버(300)를 호출하기 위한 것들로서, 서비스 호출 단어(320) 및 서비스 호출 문장(330)은 서비스 서버(300)마다 고유하게 등록된다. 예를 들어, '기상청'이라는 서비스 호출 단어(320)는 A 서비스 서버(300)를 특정하는 것이며, '피자 주문해줘'라는 서비스 호출 문장(330)은 B 서비스 서버(300)를 특정하는 것이다.
문장 패턴(340) 및 키워드(350)는 서비스 서버(300)를 특정하기 위한 정보로서, 문장 패턴(340) 및 키워드(350)는 여러 서비스 서버(300) 사이에 중복되게 등록될 수 있다. 예를 들어, '피자'라는 키워드의 경우, B 서비스 서버(300)와 D 서비스 서버(300)를 특정할 수 있다. 문장 패턴(340)은 특정 의미군의 집합을 지정할 수도 있고, 정규 표현식으로 표현될 수도 있다.
URL(360)은 각 서비스 서버(300)의 인터넷 접속 주소를 나타낸다.
다시 도 2를 참조하면, S220 단계에서, 중앙 서버(200)는 사용자의 음성 명령에 대응하는 데이터를 사용자 단말(100)로부터 수신한다. 상기 데이터는 음성 명령에 대응하는 음성 데이터 또는 텍스트 데이터를 포함할 수 있다.
S230 단계에서, 중앙 서버(200)는 수신된 데이터를 분석하여 복수의 서비스 서버(300) 중 음성 명령에 따른 태스크를 수행하는 서비스 서버(300)를 선택한다. 예를 들어, 중앙 서버(200)는 수신된 데이터를 파싱하여 단위 토큰을 추출하고, 필요한 메타 정보들을 태깅할 수 있다.
중앙 서버(200)는 분석된 데이터에 포함된 서비스 호출 단어, 서비스 호출 문장, 문장 패턴 또는 키워드에 기초하여 서비스 서버(300)를 선택할 수 있다.
예를 들어, 음성 명령에 대응하는 데이터에 특정의 서비스 호출 단어 또는 서비스 호출 문장이 포함된 경우, 해당 서비스 호출 단어 또는 서비스 호출 문장에 매핑된 서비스 서버(300)를 선택할 수 있다. 도 3의 예에서 설명한 바와 같이, 음성 명령에 대응하는 데이터 내에 '기상청'이라는 서비스 호출 단어가 포함된 경우, 중앙 서버(200)는 A 서비스 서버(300)를 선택할 수 있는 것이다.
또한, 중앙 서버(200)는 음성 명령에 대응하는 데이터에 특정의 문장 패턴 또는 키워드가 포함된 경우, 해당 문장 패턴 또는 키워드에 매핑된 서비스 서버(300)를 선택할 수 있다. 도 3의 예에서, 음성 명령에 대응하는 데이터 내에 '*피자*주문'이라는 문장 패턴이 있거나 '피자'라는 키워드가 있는 경우, 중앙 서버(200)는 B 서비스 서버(300)와 D 서비스 서버(300)를 선택할 수 있다.
중앙 서버가 서비스 서버(300)를 선택하는 데 있어서, 데이터에 서비스 호출 단어가 포함되어 있는지를 가장 먼저 판단하고, 다음으로 서비스 호출 문장의 포함 여부, 다음으로 문장 패턴의 포함 여부, 마지막으로 키워드의 포함 여부를 판단할 수 있다. 예를 들어, 사용자의 음성 명령이 하나의 태스크를 나타내고 있으나, 해당 음성 명령에 어느 하나의 서비스 서버(300)에 매핑된 서비스 호출 단어와, 다른 하나의 서비스 서버(300)에 매핑된 서비스 호출 문장이 모두 포함되어 있는 경우, 중앙 서버(200)는 우선적으로 서비스 호출 단어에 매핑된 서비스 서버(300)를 태스크 수행 서버로 선택할 수 있는 것이다. 이는, 사용자가 서비스 호출 단어가 포함된 음성 명령을 발화한 경우는, 사용자가 특정 서비스 서버를 지칭한 것으로 해석할 수 있기 때문이다. 다시 말하면, 서비스 호출 단어, 서비스 호출 문장, 문장 패턴 및 키워드의 순으로, 사용자가 특정 서비스 서버를 지칭한 것이라는 확률이 높아지므로, 사용자의 의도를 반영하여 우선 순위를 설정하는 것이다.
S240 단계에서, 중앙 서버(200)는 S230 단계에서 선택된 서비스 서버(300)로 음성 명령에 따른 태스크 수행 명령을 전송한다.
S250 단계에서, 중앙 서버(200)는 서비스 서버(300)로부터 태스크 수행 결과를 수신하고, 이를 사용자 단말(100)로 전송할 수 있다. 중앙 서버(200)가 사용자 단말(100)로 전송하는 태스크 수행 결과는 텍스트 데이터, 음성 데이터, 동영상 데이터, 웹 페이지 데이터 등의 다양한 컨텐츠로 구성될 수 있다.
사용자 단말(100)은 중앙 서버(200)로부터 수신된 태스크 수행 결과를 출력하여 사용자에게 제공할 수 있다. 사용자가 날씨를 문의한 경우, 상기 태스크 수행 결과는 날씨 정보를 나타내는 컨텐츠를 포함할 수 있고, 사용자가 음식 주문을 요청한 경우, 상기 태스크 수행 결과는 주문 결과를 나타내는 컨텐츠를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 사용자의 음성 명령에 대응하는 데이터에 기초하여, 다양한 서비스 서버(300) 중 사용자의 음성 명령에 따른 태스크를 수행할 수 있는 서비스 서버(300)를 선택하고, 선택된 서비스 서버(300)에 의한 태스크 수행 결과를 사용자 단말(100)로 전송해주므로, 사용자에게 다양한 서비스의 제공이 가능해질 수 있다.
도 4는 본 발명의 일 실시예에 따른 태스크 수행 과정을 설명하기 위한 예시적인 도면이다.
앞서 설명한 바와 같이, 사용자의 음성 명령에 대응하는 데이터에 특정 키워드가 포함되어 있는 경우, 키워드는 각 서비스 서버(300) 별로 중복되어 설정될 수 있으므로, 중앙 서버(200)는 데이터에 포함된 키워드로 매핑된 2개 이상의 서비스 서버(300)를 선택할 수도 있다. 그러나, 2개 이상의 서비스 서버(300)로부터 모두 태스크 수행 결과를 수신하는 경우, 사용자에게 불편이 될 수 있으므로, 중앙 서버(200)는 소정 조건에 따라 2개 이상의 서비스 서버(300) 중 어느 하나의 서비스 서버(300)만을 선택할 수 있다.
도 4를 보면, 사용자의 음성 명령이 '치즈 피자 주문해줘'인 경우, '피자'라는 키워드에 매핑된 2개의 서비스 서버(300a, 300b)가 존재할 수 있다. 2개의 서비스 서버(300a, 300b)에 의해 피자 주문이 함께 이루어지는 경우, 사용자의 의도와는 다른 처리 결과가 발생하는 것이므로, 중앙 서버(200)는 2개의 서비스 서버(300a, 300b) 중 어느 하나의 서비스 서버만을 선택하여, 선택된 서비스 서버에 의해 피자 주문이 이루어지도록 하는 것이다.
태스크를 수행할 서비스 서버(300)를 선택하는 방법의 일 예로서, 중앙 서버(200)는 데이터 내에 존재하는 키워드에 대응하는 2개 이상의 서비스 서버(300) 중 사용자의 이용 이력이 가장 많은 서비스 서버(300)를 음성 명령에 따른 태스크를 수행할 서비스 서버(300)로 선택할 수 있다.
다른 예로서, 중앙 서버(200)는 관리자에 의해 설정된 우선 순위에 따라 2개 이상의 서비스 서버(300) 중 어느 하나의 서비스 서버(300)를 선택할 수도 있다. 관리자는 서비스 서버(300) 별로 우선 순위를 할당하고, 해당 우선 순위에 따라 태스크가 수행되도록 할 수 있다.
도 5는 본 발명의 일 실시예에 따른 태스크 수행 과정을 설명하기 위한 예시적인 도면이다.
구현예에 따라서는 사용자의 음성 명령에는 서로 다른 태스크가 2개 이상 포함되어 있을 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 사용자의 음성 명령이 '다음 주 비 오지 않는 날에 부산가는 기차표 예매해줘'인 경우, 사용자의 음성 명령은 다음 주 비가 오지 않는 날의 확인을 요청하는 태스크와, 부산행 기차표의 예매를 요청하는 태스크를 포함하는 것이다.
이 경우, 중앙 서버(200)는 음성 명령에 대응하는 데이터에 기초하여 2개 이상의 태스크를 수행할 수 있는 2개 이상의 서비스 서버(300)를 선택하고, 선택된 2개 이상의 서비스 서버(300) 각각에 대해 태스크 수행 명령을 전송할 순서를 설정한다.
상기 '다음 주 비 오지 않는 날에 부산가는 기차 예매해줘'의 경우, 다음 주 비가 오지 않는 날의 확인을 요청하는 태스크가, 부산행 기차표의 예매를 요청하는 태스크보다 선행적으로 수행되어야 하므로, 중앙 서버(200)는 날씨 관련 태스크를 수행하는 어느 하나의 서비스 서버(300c)로 먼저 태스크 수행 명령을 전송하고, 다음으로, 기차표 예매 관련 태스크를 수행하는 다른 하나의 서비스 서버(300d)로 태스크 수행 명령을 전송할 것으로 설정할 수 있다.
이에 따라, 중앙 서버(200)는 날씨 관련 태스크를 수행하는 서비스 서버(300c)로 태스크 수행 명령을 전송하여 다음 주 비가 오지 않는 날의 정보(예를 들어, 다음 주 월요일)를 확인하고, 확인된 정보에 기초하여 새로운 태스크 수행 명령을 생성하여 기차표 예매 관련 태스크를 수행하는 서비스 서버(300d)로 상기 생성된 태스크 수행 명령(예를 들어, 다음 주 월요일의 기차표 예매)을 전송할 수 있다.
즉, 본 발명의 일 실시예에 따른 중앙 서버(200)는 사용자의 음성 명령에 2개 이상이 태스크가 포함된 경우, 각 태스크 사이의 우선 순위를 결정하고, 그에 따라 순차적으로 각 서비스 서버(300)에 태스크 수행 명령을 전송하는 것이다. 이 때, 임의의 순위에 해당하는 서비스 서버(300)로 전송하는 태스크 수행 명령은, 이전 순위에 해당하는 서비스 서버(300)로부터 수신되는 태스크 수행 결과에 기초하여 생성될 수 있다.
도 6은 중앙 서버(200)에 등록되는 서비스 서버(300)의 태스크 정보를 나타내는 예시적인 도면이다.
도 6에 도시된 바와 같이, 중앙 서버(200)에 등록되는 서비스 서버(300)의 태스크 정보는, 각 서비스 서버(300)가 수행하는 태스크의 종류(610), 태스크 별 필요 정보(620)를 포함할 수 있다. 태스크에 따른 필요 정보(620)는 해당 태스크를 수행하기 위해 서비스 서버(300)가 필요로 하는 정보로서, 서비스 서버(300)로부터 중앙 서버(200)로 전송되어 중앙 서버(200)에 등록될 수 있다.
중앙 서버(200)는 사용자 단말(100)로부터 음성 명령에 대응하는 데이터가 수신된 경우, 태스크를 수행하기 위해 필요한 필요 정보(620)들이 수신된 데이터에 모두 포함되어 있는지를 판단하고, 일부 결여된 정보에 대해서는 사용자 단말(100)로 요청할 수 있다. 예를 들어, 사용자가 '치즈 피자 주문해줘'라는 음성 명령을 발화한 경우, 중앙 서버(200)는 피자 주문 태스크에 필요한 정보들이 이름, 주소 및 메뉴이나, 음성 명령에 대응하는 데이터에는 이름 및 주소에 대한 정보들이 포함되어 있지 않으므로, 이름 및 주소를 다시 입력하라는 요청을 사용자 단말(100)로 전송할 수 있는 것이다. 구현예에 따라서, 이름 및 주소에 대한 정보가 중앙 서버(200)에 미리 저장되어 있는 경우에는 사용자 단말(100)로 추가 정보의 요청을 하지 않을 수도 있으며, 미리 저장된 이름 및 주소 정보와 함께 사용자의 음성 명령에 대응하는 데이터에 기초하여 태스크 수행 명령을 생성하여 서비스 서버(300)로 전송할 수 있다.
중앙 서버(200)는 음성 명령에 대응하는 데이터에서 이름, 주소, 날짜, 지역 등을 식별하는 방법은 다양할 수 있다. 예를 들어, 중앙 서버(200)는 이름, 주소, 날짜, 지역들의 다양한 명칭을 미리 저장한 후, 사용자 단말로부터 수신된 데이터로부터 추출된 텍스트와 미리 저장된 명칭 리스트를 비교하여, 데이터 내에 이름, 주소, 날짜, 지역 등의 명칭이 포함되어 있는지를 식별할 수 있다.
한편, 앞서서는 중앙 서버(200)가 사용자의 음성 명령에 대응하는 태스크의 수행을 서비스 서버(300)로 요청하고, 서비스 서버(300)의 태스크 수행 결과를 사용자 단말(100)로 전송하는 것으로 설명하였지만, 구현예에 따라서, 사용자의 음성 명령에 대응하는 태스크를 중앙 서버(200)가 직접 수행할 수 있는 경우에는 중앙 서버(200)가 해당 태스크를 수행하고 태스크 수행 결과를 사용자 단말(100)로 전송할 수도 있다.
도 7은 본 발명의 일 실시예에 따른 중앙 서버(700)의 구성을 나타내는 블록도이다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 중앙 서버(700)는 통신부(710), 제어부(730) 및 메모리(750)를 포함할 수 있다. 통신부(710), 제어부(730) 및 메모리(750)는 적어도 하나의 프로세서로 구현될 수 있으며, 메모리(750)에 저장된 프로그램에 따라 동작할 수 있다.
통신부(710)는 네트워크(10)를 통해 사용자 단말(100) 및 서비스 서버(300)와 통신을 한다. 통신부(710)는 사용자 단말(100)로부터 사용자의 음성 명령에 대응하는 데이터를 수신할 수 있다.
제어부(730)는 복수의 서비스 서버(300)의 수행 가능 태스크를 등록하고, 통신부(710)가 수신한 데이터를 분석하여, 사용자의 음성 명령에 따른 태스크를 수행할 서비스 서버(300)를 선택할 수 있다. 또한, 제어부(730)는 사용자의 음성 명령에 따른 태스크의 직접 수행이 가능한 경우에는 서비스 서버(300)를 선택하는 대신 사용자의 음성 명령에 따른 태스크를 수행할 수도 있다.
통신부(710)는 제어부(730)에 의해 선택된 서비스 서버(300)로 태스크 수행 명령을 전송하고, 서비스 서버(300)의 태스크 수행 결과를 수신하여 사용자 단말(100)로 전송할 수 있다.
메모리(750)는 제어부(730)에 의해 등록된 태스크 정보를 저장한다. 또한, 메모리(750)는 사용자 단말(100)을 이용하는 사용자의 개인 정보, 예를 들어, 이름, 주소, 전화번호 정보 등을 더 저장할 수도 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.
상기 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함할 수 있으나, 이에 한정되는 것은 아니다.
첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 사용자 단말
200, 700: 중앙 서버
300: 서비스 서버
710: 통신부
730: 제어부
750: 메모리

Claims (13)

  1. 복수의 서비스 서버의 수행 가능 태스크를 등록하는 단계;
    사용자 단말로부터 사용자의 음성 명령에 대응하는 데이터를 수신하여 상기 복수의 서비스 서버 중 상기 음성 명령에 따른 태스크를 수행하는 서비스 서버를 선택하는 단계;
    상기 선택된 서비스 서버로 상기 음성 명령에 따른 태스크 수행 명령을 전송하는 단계; 및
    상기 선택된 서비스 서버의 태스크 수행 결과를 상기 사용자 단말로 전송하는 단계를 포함하되,
    상기 서비스 서버를 선택하는 단계는, 상기 음성 명령에 따른 태스크가 2개 이상인 경우, 상기 2개 이상의 태스크를 수행할 수 있는 2개 이상의 서비스 서버를 선택하는 단계를 포함하고,
    상기 태스크 수행 명령을 전송하는 단계는, 상기 선택된 2개 이상의 서비스 서버 각각에 대해 태스크 수행 명령을 전송할 순서를 설정하고, 상기 설정된 순서에 따라 순차적으로 상기 2개 이상의 서비스 서버로 태스크 수행 명령을 전송하는 단계를 포함하는 것을 특징으로 하는, 중앙 서버에 의한 사용자 음성 처리 방법.
  2. 제1항에 있어서,
    상기 서비스 서버를 선택하는 단계는,
    상기 음성 명령에 대응하는 데이터에, 복수의 서비스 서버 각각에 매핑된 서비스 호출 단어, 서비스 호출 문장, 문장 패턴 및 키워드가 포함되어 있는지에 따라 상기 서비스 서버를 선택하는 단계를 포함하는 것을 특징으로 하는 사용자 음성 처리 방법.
  3. 제2항에 있어서,
    상기 서비스 서버를 선택하는 단계는,
    서비스 호출 단어, 서비스 호출 문장, 문장 패턴 및 키워드의 순서로 상기 음성 명령에 대응하는 데이터에 상기 서비스 호출 단어, 서비스 호출 문장, 문장 패턴 및 키워드 포함되어 있는지를 판단하여, 상기 서비스 서버를 선택하는 단계를 포함하는 것을 특징으로 하는 사용자 음성 처리 방법.
  4. 제1항에 있어서,
    상기 서비스 서버를 선택하는 단계는,
    상기 복수의 서비스 서버 각각에 매핑된 서비스 호출 단어 또는 서비스 호출 문장이 상기 데이터에 포함되어 있는지를 판단하는 단계; 및
    상기 데이터에 어느 하나의 서비스 호출 단어 또는 서비스 호출 문장이 포함되어 있는 경우, 상기 어느 하나의 서비스 호출 단어 또는 서비스 호출 문장으로 매핑된 서비스 서버를 선택하는 단계를 포함하는 것을 특징으로 하는 사용자 음성 처리 방법.
  5. 제1항에 있어서,
    상기 서비스 서버를 선택하는 단계는,
    상기 음성 명령에 따른 태스크를 수행할 수 있는 서비스 서버가 2개 이상인 경우, 소정 조건에 기초하여 상기 2개 이상의 서비스 서버 중 어느 하나의 서비스 서버를 선택하는 단계를 포함하는 것을 특징으로 하는 사용자 음성 처리 방법.
  6. 제5항에 있어서,
    상기 서비스 서버를 선택하는 단계는,
    상기 음성 명령에 대응하는 데이터로부터 확인되는 키워드 또는 문장 패턴이 2개 이상의 서비스 서버에 매핑되어 있는 경우, 상기 음성 명령에 따른 태스크를 수행할 수 있는 서비스 서버가 2개 이상인 것으로 판단하는 단계를 포함하는 것을 특징으로 하는 사용자 음성 처리 방법.
  7. 제5항에 있어서,
    상기 소정 조건은,
    상기 사용자 단말의 이용 이력 또는 상기 중앙 서버에 의해 기 설정된 우선 순위에 따라 결정되는 것을 특징으로 하는 사용자 음성 처리 방법.
  8. 삭제
  9. 제1항에 있어서,
    상기 2개 이상의 서비스 서버 중 임의의 순위에 해당하는 서비스 서버로 전송하는 태스크 수행 명령은,
    상기 임의의 순위의 이전 순위에 해당하는 서비스 서버로부터 수신되는 태스크 수행 결과에 기초하여 생성되는 것을 특징으로 하는 사용자 음성 처리 방법.
  10. 제1항에 있어서,
    상기 태스크를 등록하는 단계는,
    상기 복수의 서버의 수행 가능 태스크의 종류 및 각 태스크를 수행하기 위한 필요 정보를 등록하는 단계를 포함하되,
    상기 사용자 음성 처리 방법은,
    상기 음성 명령에 따른 태스크를 수행하기 위한 필요 정보 중 일부가 상기 음성 명령에 대응하는 데이터에 포함되어 있지 않은 경우, 상기 사용자 단말로 추가 정보를 요청하는 단계를 더 포함하는 것을 특징으로 하는 사용자 음성 처리 방법.
  11. 제1항에 있어서,
    상기 사용자 음성 처리 방법은,
    상기 음성 명령에 따른 태스크의 직접 수행이 가능한 경우, 상기 음성 명령에 따른 태스크를 수행하여 태스크 수행 결과를 상기 사용자 단말로 전송하는 단계를 더 포함하는 것을 특징으로 하는 사용자 음성 처리 방법.
  12. 하드웨어에 결합되어 제1항 내지 제7항, 제9항 내지 제11항 중 어느 하나의 항의 사용자 음성 처리 방법을 실행시키기 위하여 매체에 저장된 프로그램.
  13. 복수의 서비스 서버의 수행 가능 태스크를 등록하고, 사용자 단말로부터 수신된 사용자의 음성 명령에 대응하는 데이터에 기초하여 상기 복수의 서비스 서버 중 상기 음성 명령에 따른 태스크를 수행하는 서비스 서버를 선택하는 제어부; 및
    상기 선택된 서비스 서버로 상기 음성 명령에 따른 태스크 수행 명령을 전송하고, 상기 선택된 서비스 서버의 태스크 수행 결과를 상기 사용자 단말로 전송하는 통신부를 포함하되,
    상기 제어부는, 상기 음성 명령에 따른 태스크가 2개 이상인 경우, 상기 2개 이상의 태스크를 수행할 수 있는 2개 이상의 서비스 서버를 선택하고, 상기 선택된 2개 이상의 서비스 서버 각각에 대해 태스크 수행 명령을 전송할 순서를 설정하고,
    상기 통신부는, 상기 설정된 순서에 따라 순차적으로 상기 2개 이상의 서비스 서버로 태스크 수행 명령을 전송하는 것을 특징으로 하는 중앙 서버.
KR1020160084032A 2016-07-04 2016-07-04 중앙 서버 및 이에 의한 사용자 음성 처리 방법 KR101777392B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160084032A KR101777392B1 (ko) 2016-07-04 2016-07-04 중앙 서버 및 이에 의한 사용자 음성 처리 방법
US15/641,843 US10311877B2 (en) 2016-07-04 2017-07-05 Performing tasks and returning audio and visual answers based on voice command

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160084032A KR101777392B1 (ko) 2016-07-04 2016-07-04 중앙 서버 및 이에 의한 사용자 음성 처리 방법

Publications (1)

Publication Number Publication Date
KR101777392B1 true KR101777392B1 (ko) 2017-09-11

Family

ID=59926134

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160084032A KR101777392B1 (ko) 2016-07-04 2016-07-04 중앙 서버 및 이에 의한 사용자 음성 처리 방법

Country Status (2)

Country Link
US (1) US10311877B2 (ko)
KR (1) KR101777392B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190051425A (ko) * 2017-11-07 2019-05-15 주식회사 엘지유플러스 대화형 서비스 장치 및 대화형 서비스 장치의 제어 방법
WO2020060325A1 (ko) * 2018-09-21 2020-03-26 삼성전자주식회사 전자 장치, 시스템 및 음성 인식 서비스 이용 방법
US12056517B2 (en) 2020-12-21 2024-08-06 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling electronic apparatus

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9821344B2 (en) 2004-12-10 2017-11-21 Ikan Holdings Llc Systems and methods for scanning information from storage area contents
US7861933B2 (en) 2006-11-06 2011-01-04 Ikan Technologies Inc. Methods and systems for network configuration
KR102384643B1 (ko) * 2017-08-17 2022-04-08 엘지전자 주식회사 전자 장치 및 그 제어 방법
US10841411B1 (en) * 2017-11-09 2020-11-17 Amazon Technologies, Inc. Systems and methods for establishing a communications session
US10152970B1 (en) * 2018-02-08 2018-12-11 Capital One Services, Llc Adversarial learning and generation of dialogue responses
US10540977B2 (en) 2018-03-20 2020-01-21 Microsoft Technology Licensing, Llc Proximity-based engagement with digital assistants
US10747560B2 (en) * 2018-03-20 2020-08-18 Microsoft Technology Licensing, Llc Computerized task guidance across devices and applications
WO2019238380A1 (de) * 2018-06-12 2019-12-19 Siemens Mobility GmbH Verfahren und vorrichtung zum protokollieren einer ein schienenfahrzeug betreffenden information
US10978051B2 (en) * 2018-09-28 2021-04-13 Capital One Services, Llc Adversarial learning framework for persona-based dialogue modeling
CN109741739A (zh) * 2018-12-21 2019-05-10 上海拍拍贷金融信息服务有限公司 一种应用处理方法及装置
JP2021086445A (ja) * 2019-11-28 2021-06-03 株式会社リコー 情報処理システム、情報処理方法及び情報処理装置
US11297181B2 (en) * 2020-04-13 2022-04-05 Toshiba Global Commerce Solutions Holdings Corporation Dynamic user interface during a voice call session
US20220058444A1 (en) 2020-08-19 2022-02-24 Capital One Services, Llc Asymmetric adversarial learning framework for multi-turn dialogue response generation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060391A (ja) * 2013-09-18 2015-03-30 株式会社Nttドコモ ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、端末装置、プログラム、システムおよび方法

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5777614A (en) 1994-10-14 1998-07-07 Hitachi, Ltd. Editing support system including an interactive interface
JPH08166866A (ja) 1994-10-14 1996-06-25 Hitachi Ltd 対話型インターフェースを具備した編集支援システム
JPH1020884A (ja) 1996-07-04 1998-01-23 Nec Corp 音声対話装置
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
KR100331033B1 (ko) 1999-10-25 2002-04-06 오길록 차세대지능망 지능형정보제공시스템을 이용한 전화 사용자를 위한 웹 정보 제공 서비스 방법
JP2002041276A (ja) 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
JP2002244688A (ja) 2001-02-15 2002-08-30 Sony Computer Entertainment Inc 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム
KR100446627B1 (ko) 2002-03-29 2004-09-04 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법
ES2470976T3 (es) 2003-09-12 2014-06-24 Open Tv, Inc. Método y sistema para controlar la grabación y reproducción de aplicaciones interactivas
KR100644027B1 (ko) 2004-01-05 2006-11-10 삼성에스디에스 주식회사 텍스트 기반의 음성정보 서비스 제공 시스템
JP4684739B2 (ja) 2005-05-13 2011-05-18 クラリオン株式会社 音声処理装置
TWI282235B (en) 2005-11-15 2007-06-01 Inst Information Industry Intelligent power-saving communication mode switching subsystem and method thereof
KR100768653B1 (ko) 2006-05-26 2007-10-18 주식회사 케이티 음성 인식 기반의 ip-tv 서비스 제어 시스템과 그방법 및 기록매체
US20080183678A1 (en) 2006-12-29 2008-07-31 Denise Chapman Weston Systems and methods for personalizing responses to user requests
KR20080099883A (ko) 2007-02-22 2008-11-14 중앙대학교 산학협력단 성격 별 정서 변화 모델링 방법 및 그 방법을 이용한캐릭터 모델링 시스템
KR100939914B1 (ko) 2008-02-28 2010-02-03 석민규 Ip셋톱박스와 음성 송수신 리모콘을 이용한 멀티미디어 시스템
US10872322B2 (en) 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
US8758102B2 (en) 2008-03-25 2014-06-24 Wms Gaming, Inc. Generating casino floor maps
KR100955247B1 (ko) 2008-07-09 2010-04-29 울산대학교 산학협력단 캐릭터 표현 시스템 또는 캐릭터 표현 방법
GB2477252A (en) 2008-10-24 2011-07-27 Wms Gaming Inc Controlling and presenting online wagering games
US9741147B2 (en) 2008-12-12 2017-08-22 International Business Machines Corporation System and method to modify avatar characteristics based on inferred conditions
KR20110059178A (ko) 2009-11-27 2011-06-02 주식회사 인스프리트 아바타 개인비서 서비스 제공 방법 및 그 시스템
US8694313B2 (en) 2010-05-19 2014-04-08 Google Inc. Disambiguation of contact information using historical data
US8761933B2 (en) 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
KR101339684B1 (ko) 2012-04-06 2013-12-10 주식회사 럭샐 사용자 감성 전달을 위한 가상 캐릭터 생성 방법 및 장치
US20130325466A1 (en) 2012-05-10 2013-12-05 Clickberry, Inc. System and method for controlling interactive video using voice
KR101909250B1 (ko) 2012-06-07 2018-10-17 주식회사 케이티 단말의 음성 정보에 기초하여 서비스 타입을 결정하는 음성 인식 서버, 서비스 타입에 따라 단말로 컨텐츠를 제공하는 컨텐츠 서버, 단말 및 방법
US9199122B2 (en) 2012-10-09 2015-12-01 Kc Holdings I Personalized avatar responsive to user physical state and context
KR101483191B1 (ko) 2012-11-22 2015-01-15 주식회사 케이티 대화형 서비스를 제공하는 장치 및 방법 그리고, 서버
US20140278403A1 (en) 2013-03-14 2014-09-18 Toytalk, Inc. Systems and methods for interactive synthetic character dialogue
EP2976749A4 (en) 2013-03-20 2016-10-26 Intel Corp AVATAR-BASED TRANSMISSION PROTOCOLS, SYMBOL GENERATION AND PUPPET ANIMATION
JP6115941B2 (ja) 2013-03-28 2017-04-19 Kddi株式会社 対話シナリオにユーザ操作を反映させる対話プログラム、サーバ及び方法
US9333433B2 (en) 2014-02-04 2016-05-10 Sony Computer Entertainment America Llc Online video game service with split clients
KR20160124770A (ko) 2014-02-20 2016-10-28 엠비엘 리미티드 로봇식 요리용 키친에서의 음식 준비를 위한 방법 및 시스템
US20150256873A1 (en) 2014-03-04 2015-09-10 Microsoft Technology Licensing, Llc Relayed voice control of devices
KR102247533B1 (ko) 2014-07-30 2021-05-03 삼성전자주식회사 음성 인식 장치 및 그 제어 방법
KR102298767B1 (ko) 2014-11-17 2021-09-06 삼성전자주식회사 음성 인식 시스템, 서버, 디스플레이 장치 및 그 제어 방법
CN107005724B (zh) 2014-12-03 2020-09-18 索尼公司 信息处理装置、信息处理方法和程序
KR102383791B1 (ko) 2014-12-11 2022-04-08 삼성전자주식회사 전자 장치에서의 개인 비서 서비스 제공
US20160328014A1 (en) 2015-05-07 2016-11-10 King's Metal Fiber Technologies Co., Ltd. Situational simulation system
CN105046238A (zh) 2015-08-17 2015-11-11 华侨大学 一种面部表情机器人多通道信息情感表达映射方法
US20180067381A1 (en) 2015-10-22 2018-03-08 Aflatoon AFLATOONI Interactive event photography kiosk
US10249207B2 (en) 2016-01-19 2019-04-02 TheBeamer, LLC Educational teaching system and method utilizing interactive avatars with learning manager and authoring manager functions
KR102478606B1 (ko) 2016-07-18 2022-12-16 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
KR102568897B1 (ko) 2016-08-16 2023-08-21 삼성전자주식회사 전자 장치 및 그 제어 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060391A (ja) * 2013-09-18 2015-03-30 株式会社Nttドコモ ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、端末装置、プログラム、システムおよび方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190051425A (ko) * 2017-11-07 2019-05-15 주식회사 엘지유플러스 대화형 서비스 장치 및 대화형 서비스 장치의 제어 방법
KR102445779B1 (ko) 2017-11-07 2022-09-21 주식회사 엘지유플러스 대화형 서비스 장치 및 대화형 서비스 장치의 제어 방법
WO2020060325A1 (ko) * 2018-09-21 2020-03-26 삼성전자주식회사 전자 장치, 시스템 및 음성 인식 서비스 이용 방법
US12056517B2 (en) 2020-12-21 2024-08-06 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling electronic apparatus

Also Published As

Publication number Publication date
US10311877B2 (en) 2019-06-04
US20180005631A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
KR101777392B1 (ko) 중앙 서버 및 이에 의한 사용자 음성 처리 방법
CN107844586B (zh) 新闻推荐方法和装置
CN107111516B (zh) 数字个人助理内的无头任务完成
US9871888B2 (en) Adaptive function-based dynamic application extension framework
US9798531B2 (en) Dependency-aware transformation of multi-function applications for on-demand execution
US9952848B2 (en) Dependency-aware transformation of multi-function applications for on-demand execution
EP3611723B1 (en) Graphical user interface voice control apparatus/system and method
US9622016B2 (en) Invisiblemask: a tangible mechanism to enhance mobile device smartness
WO2016004763A1 (zh) 业务推荐方法和具有智能助手的装置
US11310066B2 (en) Method and apparatus for pushing information
EP3289450A1 (en) Developer exchange system
CN110096655A (zh) 搜索结果的排序方法、装置、设备及存储介质
KR20160032564A (ko) 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
CN112256772A (zh) 数据服务方法、装置以及可读存储介质
CN108959294A (zh) 一种访问搜索引擎的方法和装置
CN103718179A (zh) 信息处理装置、信息处理方法、信息处理程序以及记录有信息处理程序的记录介质
US10529323B2 (en) Semantic processing method of robot and semantic processing device
CN112948733B (zh) 接口维护方法、装置、计算设备以及介质
CN115061785A (zh) 信息下发方法、装置、存储介质及服务器
JP2009251655A (ja) フィルタリング装置、フィルタリング方法、プログラムおよび記録媒体
US9639611B2 (en) System and method for providing suitable web addresses to a user device
KR101387859B1 (ko) 애플리케이션 사용 현황 정보 제공 시스템
CN113760382B (zh) 一种插件启动方法、装置、终端设备及存储介质
KR102091441B1 (ko) 서드 파티 테스크 공급자들의 서비스 제공을 대행하는 협력적 퍼스널 어시스턴트 시스템 및 그에 따른 방법
KR20130031946A (ko) 애플리케이션의 사용 현황 정보 제공 시스템 및 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant