KR102297519B1 - 서버 및 이의 가이드 문장 생성 방법 - Google Patents

서버 및 이의 가이드 문장 생성 방법 Download PDF

Info

Publication number
KR102297519B1
KR102297519B1 KR1020140021999A KR20140021999A KR102297519B1 KR 102297519 B1 KR102297519 B1 KR 102297519B1 KR 1020140021999 A KR1020140021999 A KR 1020140021999A KR 20140021999 A KR20140021999 A KR 20140021999A KR 102297519 B1 KR102297519 B1 KR 102297519B1
Authority
KR
South Korea
Prior art keywords
category
user
voice
sentence
server
Prior art date
Application number
KR1020140021999A
Other languages
English (en)
Other versions
KR20150100322A (ko
Inventor
송인지
정지혜
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140021999A priority Critical patent/KR102297519B1/ko
Priority to PCT/KR2015/001287 priority patent/WO2015130035A1/en
Priority to EP15755655.6A priority patent/EP3080802A4/en
Priority to US14/624,815 priority patent/US9620109B2/en
Publication of KR20150100322A publication Critical patent/KR20150100322A/ko
Application granted granted Critical
Publication of KR102297519B1 publication Critical patent/KR102297519B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

서버 및 이의 가이드 문장 생성 방법이 제공된다. 본 서버의 가이드 문장 생성 방법에 따르면, 사용자 음성을 수신하는 단계, 사용자 음성을 분석하여 복수의 카테고리 중 사용자 음성에 대응되는 카테고리를 판단하여 저장하는 단계, 복수의 카테고리 각각에 대한 사용 빈도 및 인기도를 판단하는 단계 및 사용 빈도 및 인기도를 바탕으로 복수의 카테고리 중 하나를 선택하고, 선택된 카테고리에 대응되는 가이드 문장을 생성하는 단계를 포함한다.

Description

서버 및 이의 가이드 문장 생성 방법 { SERVER FOR GENERATING GUIDE SENTENCE AND METHOD THEREOF }
본 발명은 서버 및 이의 가이드 문장 생성 방법에 관한 것으로, 더욱 상세하게는 사용자가 용이하게 전자 장치의 음성 인식 기능을 사용할 수 있도록 하는 서버 및 이의 가이드 문장 생성 방법에 관한 것이다.
사용자는 전자 장치를 더욱 편리하게 사용하고자 한다. 이에 따라, 전자 장치를 용이하게 제어하는 기술은 점차 발달하는 추세이다. 즉, 전자 장치를 용이하게 제어하는 기술은 전자 장치에 부착된 입력부를 통해 전자 장치를 제어하던 방법에서 시작하여, 근거리에서도 제어 가능한 외부 리모트 컨트롤러(Remote Controller)를 이용하는 방법으로 발전하였다. 최근에는 전자 장치에서 터치 패널을 구비하는 디스플레이부의 사용이 일반화됨에 따라, 터치 입력을 이용하여 전자 장치를 제어하는 기술이 보편적으로 사용된다.
그러나 터치로 전자 장치를 제어하는 방법은 사용자가 반드시 전자 장치와 터치할 수 있는 거리 내에 있어야 한다는 불편함이 존재한다. 따라서 사용자의 근거리 내에서 리모트 컨트롤러와 같은 외부 기기 없이 전자 장치를 제어하려는 니즈(needs)가 증가하였다.
이에 따라, 음성 인식 기술이 개발되었으며, 음성 인식을 이용하여 전자 장치의 다양한 기능을 이용할 수 있다.
그러나 사용자는 습관적으로 자주 사용하는 음성 인식 기능이 있는 경우가 많다. 그리고 사용자 음성을 통해 제어할 수 있는 기능이 증가함에 따라 사용자는 모든 기능에 대해 즉시 숙지하여 사용하기 어렵다. 즉, 사용자 음성을 이용하여 사용할 수 있는 편리한 기능을 포함하는 경우에도 사용자가 모르고 있는 경우가 많다.
따라서, 사용자가 용이하게 다양한 음성 인식 기능을 사용할 수 있도록 하는 기술에 대한 필요성이 대두되었다.
본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 사용자가 다양한 음성 인식 기능을 사용할 수 있도록 하는 서버 및 이의 가이드 문장 생성 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 서버의 가이드 문장 생성 방법은, 사용자 음성을 수신하는 단계, 상기 사용자 음성을 분석하여 복수의 카테고리 중 상기 사용자 음성에 대응되는 카테고리를 판단하여 저장하는 단계, 상기 복수의 카테고리 각각에 대한 사용 빈도 및 인기도를 판단하는 단계 및 상기 사용 빈도 및 인기도를 바탕으로 복수의 카테고리 중 하나를 선택하고, 상기 선택된 카테고리에 대응되는 가이드 문장을 생성하는 단계를 포함할 수 있다.
한편, 상기 생성하는 단계는, 상기 복수의 카테고리 중 상기 사용 빈도수가 가장 낮고 인기도가 가장 높은 카테고리를 선택하는 것을 특징으로 할 수 있다.
그리고 상기 복수의 카테고리는 상기 사용자 음성의 도메인 카테고리, 상기 사용자 음성을 통해 사용한 전자 장치의 기능 카테고리, 상기 사용자 음성의 문장 구조 카테고리 및 상기 사용자 음성에 포함된 키워드 카테고리 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.
한편, 상기 복수의 카테고리는 문장의 길이에 대응되는 복잡도 정보를 포함하고, 상기 생성하는 단계는, 상기 사용 빈도 및 인기도를 바탕으로 선택된 카테고리가 복수 개인 경우, 상기 복잡도가 가장 낮은 카테고리를 선택하여 상기 가이드 문장을 생성하는 것을 특징으로 할 수 있다.
그리고 상기 생성하는 단계는, 상기 문장 구조 카테고리가 선택된 경우, 상기 사용자 음성에 포함된 키워드 를 상기 선택된 카테고리에 포함된 문장 구조에 삽입하여 상기 가이드 문장을 생성하는 것을 특징으로 할 수 있다.
한편, 상기 생성하는 단계는, 상기 도메인 카테고리, 상기 기능 카테고리 및 상기 키워드 카테고리 중 적어도 하나가 선택된 경우, 기 저장된 인기도를 바탕으로 상기 가이드 문장을 생성하는 것을 특징으로 할 수 있다.
한편, 본 발명의 일 실시 예에 따른, 서버는 사용자 음성을 수신하는 통신부, 상기 사용자 음성을 분석하여 복수의 카테고리 중 상기 사용자 음성에 대응되는 카테고리를 판단하여 저장하는 저장부 및 상기 복수의 카테고리 각각에 대한 사용 빈도 및 인기도를 판단하며, 상기 사용 빈도 및 인기도를 바탕으로 복수의 카테고리 중 하나를 선택하고, 상기 선택된 카테고리에 대응되는 가이드 문장을 생성하는 제어부를 포함할 수 있다.
그리고 상기 제어부는, 상기 복수의 카테고리 중 상기 사용 빈도수가 가장 낮고 인기도가 가장 높은 카테고리를 선택하는 것을 특징으로 할 수 있다.
한편, 상기 복수의 카테고리는 상기 사용자 음성의 도메인 카테고리, 상기 사용자 음성을 통해 사용한 전자 장치의 기능 카테고리, 상기 사용자 음성의 문장 구조 카테고리 및 상기 사용자 음성에 포함된 키워드 카테고리 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.
그리고 상기 복수의 카테고리는 문장의 길이에 대응되는 복잡도 정보를 포함하고, 상기 제어부는, 상기 사용 빈도 및 인기도를 바탕으로 선택된 카테고리가 복수 개인 경우, 상기 복잡도가 가장 낮은 카테고리를 선택하여 상기 가이드 문장을 생성하는 것을 특징으로 할 수 있다.
한편, 상기 제어부는, 상기 문장 구조 카테고리가 선택된 경우, 상기 사용자 음성에 포함된 키워드 를 상기 선택된 카테고리에 포함된 문장 구조에 삽입하여 상기 가이드 문장을 생성하는 것을 특징으로 할 수 있다.
그리고 상기 제어부는, 상기 도메인 카테고리, 상기 기능 카테고리 및 상기 키워드 카테고리 중 적어도 하나가 선택된 경우, 기 저장된 인기도를 바탕으로 상기 가이드 문장을 생성하는 것을 특징으로 할 수 있다.
본 발명의 다양한 실시예에 따르면, 사용자는 다양한 사용자 음성을 발화하여 전자 장치의 편리한 기능을 용이하게 사용할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른, 가이드 문장 생성 시스템을 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 서버의 구성을 도시한 블럭도,
도 3은 본 발명의 일 실시예에 따른, 사용자가 최근 발화한 사용자 음성의 분석 결과를 카테고리에 따라 분류한 결과를 도시한 도면,
도 4는 본 발명의 일 실시예에 따른, 사용자가 발화한 사용자 음성의 누적된 분석 결과를 카테고리에 따라 분류한 결과를 도시한 도면,
도 5 및 도 6은 각 사용자 음성 분석 결과를 복수의 카테고리에 따라 저장한 정보를 도시한 도면,
도 7은 본 발명의 일 실시예에 따른, 서버의 가이드 문장 생성 방법을 도시한 흐름도,
도 8은 본 발명의 일 실시예에 따른, 서버의 구체적인 가이드 문장 생성 방법을 도시한 흐름도, 그리고,
도 9는 본 발명의 일 실시예에 따른, 서버의 가이드 문장 생성 방법을 도시한 시퀀스도이다.
이하에서는 첨부된 도면을 참조하여, 본 발명의 다양한 실시 예를 좀더 상세하게 설명한다. 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술 되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른, 가이드 문장 생성 시스템(1000)을 도시한 도면이다. 도 1에 도시된 바와 같이 가이드 문장 생성 시스템(1000)은 서버(100) 및 전자 장치(200)를 포함할 수 있다.
서버(100)는 가이드 문장을 생성한다. 즉, 서버(100)는 사용자(300)가 전자 장치(200)에 대해 발화한 사용자 음성을 수신하여 분석한다. 또는 전자 장치(200)가 사용자 음성을 수신하여 분석한 경우, 서버(100)는 사용자 음성에 대응되는 음성 데이터를 전자 장치(200)로부터 수신할 수 있다.
서버(100)는 사용자 음성에 대한 분석 결과를 복수의 카테고리에 따라 저장할 수 있다. 그리고 복수의 카테고리에 저장된 정보를 이용하여 가이드 문장을 생성할 수 있다. 구체적인 가이드 문장 생성 방법에 대해서는 후술한다.
서버(100)는 음성 인식 서버 또는 사용자 음성 분석 결과 저장 서버와 같은 복수의 서버를 포함할 수 있다. 또는, 음성 인식 서버 또는 사용자 음성 분석 결과 저장 서버와 같은 복수의 서버는 서버(100)의 외부에 존재할 수도 있다.
전자 장치(200)는 사용자 음성을 수신할 수 있다. 즉, 전자 장치(200)는 내장되거나 전자 장치(200)의 외부에 존재하는 음성 수신부를 통해 사용자 음성을 수신할 수 있다. 그리고 전자 장치(200)는 수신한 사용자 음성을 서버(100)에 전송할 수 있을 뿐만 아니라 사용자 음성을 음성 인식 처리하여 음성 인식 결과에 대응되는 음성인식 데이터를 서버(100)에 전송할 수 있다.
한편, 전자 장치(200)는 서버(100)에서 생성한 가이드 문장을 수신하여 출력할 수 있다. 전자 장치(200)는 가이드 문장을 텍스트 형태로 디스플레이할 수 있으며, 스피커를 통해 출력할 수 있다.
그리고 전자 장치(200)는 기 설정된 주기마다 또는 가이드 문장을 출력하도록 하는 사용자 명령이 있는 경우 가이드 문장을 출력할 수 있다.
전자 장치(200)는 도 1에 도시된 바와 같이 TV일 수 있으나 이는 일 실시예에 불과할 뿐, 휴대폰, PDP, 태블릿 PC, 홈시어터, 노트북, 냉장고, 세탁기 등 음성 인식 기능을 포함하는 다양한 전자 장치로 구현될 수 있다.
도 2는 본 발명의 일 실시예에 따른, 서버(100)의 구성을 도시한 블럭도이다. 도 2에 도시된 바와 같이, 서버(100)는 통신부(110), 저장부(120) 및 제어부(130)를 포함한다.
통신부(110)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 즉, 서버(100)는 통신부(110)를 통해 사용자 음성 또는 사용자 음성에 대해 음성 인식을 수행한 음성 데이터를 수신할 수 있다. 그리고 통신부(110)는 서버(100)에서 생성한 가이드 문장을 전자 장치(200)로 전송할 수 있다.
통신부(110)는 와이파이 칩, 블루투스 칩, NFC칩, 무선 통신 칩 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 이 중 NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.
한편, 음성 인식 서버 또는 사용자 음성 분석 결과 저장 서버 등의 별도의 서버가 서버(100)의 외부에 존재하는 경우, 서버(100)는 통신부(110)를 통해 외부 서버와 통신을 수행할 수 있다.
저장부(120)는 사용자 음성에 대한 분석결과를 저장하기 위한 구성요소이다. 즉, 저장부(120)는 사용자 음성에 대한 분석 결과를 복수의 카테고리 중 사용자 음성에 대응되는 카테고리로 분류하여 저장할 수 있다.
구체적으로 복수의 카테고리는 사용자 음성의 도메인 카테고리, 사용자 음성을 통해 사용한 전자 장치의 기능 카테고리, 사용자 음성의 문장 구조 카테고리 및 사용자 음성에 포함된 키워드 카테고리 중 적어도 하나를 포함할 수 있다. 따라서, 서버(100)는 사용자 음성에 대한 분석 결과를 카테고리에 따라 저장할 수 있다.
한편, 제어부(130)는 서버(100)의 전반적인 동작을 제어하기 위한 구성 요소이다. 특히, 제어부(130)는 복수의 카테고리 각각에 대한 사용 빈도 및 인기도를 판단할 수 있다. 그리고 제어부(130)는 사용 빈도 및 인기도를 바탕으로 복수의 카테고리 중 하나를 선택하고, 선택된 카테고리에 대응되는 가이드 문장을 생성할 수 있다. 구체적으로, 제어부(130)는 복수의 카테고리 중 사용 빈도가 가장 낮고 인기도가 가장 높은 카테고리를 선택하여 가이드 문장을 생성할 수 있다.
한편, 복수의 카테고리는 문장의 길이에 대응되는 정보인 복잡도 정보를 포함한다. 복잡도는 문장의 길이에 대한 정보를 나타내며, 문장의 길이와 비례하도록 수치화된 정보이다. 예를 들면, 복잡도는 0 내지 9 사이의 숫자로 표현되며, "날씨"와 같은 단어는 복잡도 1, "프랑스 영화 감독 A가 만든 느와르 영화를 보여줘"와 같은 문장은 복잡도 8로 표현될 수 있다.
그리고 제어부(130)는 사용 빈도 및 인기도를 바탕으로 선택된 카테고리가 복수 개인 경우, 복잡도가 가장 낮은 카테고리를 가이드 문장을 생성하기 위한 카테고리로 선택할 수 있다. 즉, 제어부(130)는 사용 빈도 및 인기도는 높고, 복잡도는 낮은 카테고리를 가이드 문장을 생성하기 위한 카테고리로 선택할 수 있다.
한편, 복수의 카테고리 중 문장 구조 카테고리가 선택된 경우, 제어부(130)는 사용자 음성에 포함된 키워드를 선택된 카테고리에 포함된 문장 구조에 삽입하여 가이드 문장을 생성할 수 있다. 또는, 도메인 카테고리, 기능 카테고리 및 키워드 카테고리 중 적어도 하나가 선택된 경우, 제어부(130)는 기 저장된 인기도를 바탕으로 가이드 문장을 생성할 수 있다.
이하에서는 도 3 내지 도 6을 참조하여 가이드 문장을 생성하는 구체적인 방법에 대해 설명한다.
도 3 및 도 4는 사용자 음성을 분석한 분석 결과를 카테고리에 따라 저장한 데이터를 나타내는 도면이다.
구체적으로 서버(100)는 사용자 음성을 분석하여 복수의 카테고리에 따라 저장할 수 있다. 도 3 및 도 4에 도시된 바와 같이 복수의 카테고리는 사용자 음성의 도메인 카테고리, 사용자 음성을 통해 사용한 전자 장치의 기능 카테고리, 사용자 음성의 문장 구조 카테고리 및 사용자 음성에 포함된 키워드 카테고리를 포함할 수 있으나 이는 일 실시예에 불과할 뿐, 사용자 음성을 구분할 수 있는 다른 카테고리를 포함할 수 있다.
도메인 카테고리는 TV control, EPG(Electronic Program Guide), VOD 및 날씨와 같은 소 카테고리를 포함하며, 사용자 음성이 해당하는 분야 또는 영역을 의미한다.
기능 카테고리는 각 도메인에 대해 사용자가 사용할 수 있는 기능을 포함한다. 예를 들면, 기능 카테고리는 TV control 중 볼륨 조절 기능, 화질 조절 기능 등과 같은 소 카테고리를 포함할 수 있다. 그리고 EPG 중 검색 기능, 알람 기능 등과 같은 소 카테고리를 포함할 수 있다.
문장 구조 카테고리는 사용자 음성이 이루는 문장의 구조를 나타내는 카테고리이다. 예를 들면, "A 프로그램 찾아줘"라는 사용자 음성은 문장 구조 카테고리 중 소 카테고리인 "$title$ 찾아줘" 카테고리에 해당한다. 또는, "드라마"라는 사용자 음성은 문장 구조 카테고리 중 소 카테고리인 "$genre$" 카테고리에 해당한다.
키워드 카테고리는 사용자 음성에 포함된 키워드를 나타내는 카테고리이다. 예를 들면, 키워드 카테고리는 "드라마", "예능", "영화", "프랑스" 및 "알랭 코르누"와 같은 다양한 키워드에 대한 소 카테고리를 포함할 수 있다.
도 3은 사용자 A 및 B의 최근 발화한 사용자 음성을 분석한 결과를 카테고리에 따라 저장한 표를 도시한 도면이다. 즉, 서버(100)는 사용자 음성을 분석한 결과를 사용자에 따라 저장할 수 있다. 그리고 서버(100)는 통신부(110)를 통해 각 사용자에 대한 음성 인식 분석 결과를 해당 사용자의 전자 장치로 전송할 수 있다.
도 3에 도시된 바와 같이 사용자 A는 최근 'TV control' 및 'EPG'와 관련된 사용자 음성을 발화하였고, 특히 'Volume Up' 및 'Search'기능을 사용하기 위한 사용자 음성을 발화하였다. 그리고 사용자 A가 최근 사용한 문장 구조는 '$title$' 및 '$genre$'로 비교적 단순한 구조의 문장을 발화하였다. 사용자 A가 발화한 사용자 음성에 포함된 키워드는 '예능' 및 '즐거운 일요일' 이였다.
사용자 B는 최근 'TV control', 'EPG' 및 'VOD'와 관련된 사용자 음성을 발화하였고, 특히 'Search' 및 'Set Picture Quality'기능을 사용하기 위한 사용자 음성을 발화하였다. 그리고 사용자 B가 최근 사용한 문장 구조는 '$director$가 $year$에 만든 $genre$' 찾아줘'였다. 사용자 B가 발화한 사용자 음성에 포함된 키워드는 '느와르', '프랑스' 및 '알랭 코르누'였다.
한편, 서버(100)는 도 4에 도시된 바와 같은 각 사용자가 발화한 사용자 음성의 분석 결과 전체를 카테고리에 따라 누적하여 저장할 수 있다. 그리고 서버(100)는 서버(100)와 유선 또는 무선으로 연결 가능한 전자 장치를 사용하는 모든 사용자가 발화한 사용자 음성의 분석 결과를 카테고리에 따라 누적하여 저장할 수 있다. 예를 들면, 도 4에 도시된 바와 같이 모든 사용자가 발화한 사용자 음성의 분석 결과를 Grobal 사용자로 정의하여 카테고리에 따라 누적하여 저장할 수 있다.
구체적으로, 도 4를 살피면 사용자 A는 'TV control' 및 'EPG'와 관련된 사용자 음성을 각각 90회, 300회 발화하였고, 특히 'Volume Up' 및 'Search'기능을 사용하기 위한 사용자 음성을 각각 50회, 99회 발화하였다. 또한, 사용자 A는 '$title$'의 문장 구조를 가지는 사용자 음성을 99회 발화하고, '$genre$'의 문장 구조를 가지는 사용자 음성을 20회 발화하였다. 그리고 키워드 카테고리에서 사용자 A는 '예능'을 100회, '즐거운 일요일'을 50회 발화하였다.
한편, 사용자 B는 'TV control', 'EPG' 및 'VOD'와 관련된 사용자 음성을 각각 400회, 823회 및 1040회 발화하였고, 특히 'Search' 및 'Set Picture Quality'기능을 사용하기 위한 사용자 음성을 각각 120회, 80회 발화하였다. 또한, 사용자 B는 '$director$가 $year$에 만든 $genre$ 찾아줘'의 문장 구조를 가지는 사용자 음성을 2회 발화하고, 키워드 카테고리에서 '영화'를 30회, '느와르'를 20회 그리고 '프랑스'를 19회 발화하였다.
서버(100)는 사용자 A 및 B를 비롯하여 서버(100)로 수신된 모든 사용자 음성 또는 사용자 음성 분석 결과를 카테고리에 따라 누적하여 저장할 수 있다.
예를 들면, 도 4에 도시된 바와 같이 Global 사용자는 대표적으로 'TV control'과 관련된 사용자 음성을 2,007,897회 발화하였고, 특히 'Volume Up' 기능을 사용하기 위한 사용자 음성을 100,237회 발화하였다. 또한, Global 사용자는 '$title$'의 문장 구조를 가지는 사용자 음성을 187,654회 발화하고, 키워드 카테고리에서 '예능'을 1,597,657회 발화하였다.
즉, 서버(100)는 각 사용자에 대해 사용자 음성 분석 결과를 기 설정된 기간 동안 또는 전체 기간 동안으로 분류하여 카테고리에 따라 저장할 수 있다. 그리고 서버(100)는 서버(100)로 수신된 모든 사용자 음성 또는 사용자 음성 분석 결과를 카테고리에 따라 누적하여 저장할 수 있다. 도 4는 Global 사용자의 전체 기간 동안 발화한 사용자 음성 분석 결과를 저장하는 경우에 대해 도시하였으나, 서버(100)는 전체 사용자에 해당하는 Global 사용자에 대해서도 기 설정된 기간 동안 발화한 분석 결과를 카테고리에 따라 저장할 수 있음은 물론이다.
한편, 도 5는 상술한 내용을 바탕으로 각 카테고리에 대해서 복잡도, Global 인기도 및 사용자 A의 각 카테고리에 대한 사용자 음성의 사용 빈도를 나타내는 도면이다.
서버(100)는 복잡도 및 Global 인기도를 0 부터 9까지의 숫자로 판단하여 저장할 수 있으며, 숫자가 클수록 복잡도가 커서 문장의 길이가 길며 Global 인기도가 높아서 서버(100)에 연결 가능한 전자 장치를 사용하는 전체 사용자의 발화 빈도가 높다. 또한, 서버(100)는 사용자의 사용 빈도는 0 부터 99 사이의 숫자로 판단할 수 있다. 사용 빈도 역시 사용 빈도를 나타내는 숫자에 정비례할 수 있다.
예를 들면, 도메인 카테고리의 소 카테고리인 '도메인: TV Control' 카테고리는 '볼륨 업', '채널 다운'과 같은 비교적 짧은 길이의 사용자 음성을 포함한다. 따라서, '도메인: TV Control' 카테고리는 복잡도를 나타내는 수치가 2로 낮다. 그리고 도 4에 도시된 바와 같이 Global 사용자는 2,007,897회 발화하였으므로, 전체 사용자의 사용 빈도가 높아 Global 인기도는 6이 된다. 그리고 도 3 및 도 4에 나타난 바와 같이 사용자 A는 'TV control'에 대한 사용자 음성을 꾸준히 발화한 것을 알 수 있다. 따라서, 사용자 A의 사용빈도는 60이 된다.
제어부(130)는 도 5에 도시된 바와 같은 복수의 카테고리 중 적어도 하나의 카테고리를 선택한다. 즉, 제어부(130)는 Global 인기도 및 사용자의 사용빈도를 바탕으로 복수의 카테고리 중 하나를 선택할 수 있다. 구체적으로 제어부(130)는 Global 인기도는 높아서 복수의 사용자가 사용한 빈도가 높으면서, 사용자의 사용 빈도는 낮아서 사용자의 사용이 잦지 않은 카테고리를 선택할 수 있다.
도 5의 경우를 바탕으로 사용자 A가 최근 '뽀로로', '어린이' 및 '애니메이션'을 발화한 경우를 예로 든다. 이때, 제어부(130)는 사용자 A는 한 단어로 이루어진 짧은 음성을 발화한 것으로 판단할 수 있다. 따라서, 제어부(130)는 사용자 A의 최근 발화가 문장 구조에 특징이 있는 것으로 판단하고, 도메인 카테고리, 기능 카테고리, 문장 구조 카테고리 및 키워드 카테고리 중 문장 구조 카테고리를 선택할 수 있다.
또한, 도메인 카테고리, 기능 카테고리, 문장 구조 카테고리 및 키워드 카테고리는 도메인 카테고리를 상위 카테고리로 하여, 기능 카테고리는 도메인 카테고리의 하위 카테고리이고, 문장 구조 카테고리는 기능 카테고리의 하위 카테고리이며, 키워드 카테고리는 문장 구조 카테고리의 하위 카테고리일 수 있다.
따라서, 제어부(130)가 문장 구조 카테고리를 가이드 문장을 생성하기 위한 카테고리로 선택한 경우, 하위 카테고리인 키워드 카테고리까지 포함될 수 있다. 즉, 선택된 문장 구조 카테고리 내에서 적합한 가이드 문장을 생성할 수 없는 경우, 제어부(130)는 하위 카테고리인 키워드 카테고리 내에서 가이드 문장을 생성할 수 있다.
또한, 제어부(130)는 문장 구조 카테고리가 선택된 경우, 사용자 음성에 포함된 키워드를 선택된 카테고리에 포함된 문장 구조에 삽입하여 가이드 문장을 생성할 수 있다.
예를 들면, 도 5에 도시된 바와 같이 문장 구조 카테고리 내에서 Global 인기도는 높으면서 사용자 A의 사용 빈도는 낮은 소 카테고리는 '$grade$가 볼만한 $genre$' 카테고리이다. 따라서, 제어부(130)는 '$grade$가 볼만한 $genre$' 카테고리를 선택하고, 사용자 A가 최근 발화한 '뽀로로', '어린이' 및 '애니메이션'을 삽입하여 가이드 문장을 생성할 수 있다. 즉, 제어부(130)는 '어린이가 볼만한 애니메이션'을 가이드 문장으로 생성할 수 있다.
그리고 제어부(130)는 문장 구조 카테고리의 하위 카테고리인 키워드 카테고리 내에서도 Global 인기도는 높으면서 사용자 A의 사용 빈도는 낮은 '키워드: 어린이/등급, 장르', '키워드: 영화/장르' 및 '키워드: 느와르/장르'와 같은 소 카테고리를 선택할 수 있다. 이때, 제어부(130)는 Global 인기도를 바탕으로 다른 사용자들이 자주 발화하였고, '키워드: 어린이/등급, 장르', '키워드: 영화/장르' 및 '키워드: 느와르/장르' 카테고리에 해당하는 단어를 이용하여 가이드 문장으로 생성할 수 있다.
예를 들면, 다른 사용자 B는 최근 '느와르', '프랑스' 및 '알랭 코르누'와 같은 키워드를 발화하였으므로, 기 선택된 문장 구조 카테고리인 '$grade$가 볼만한 $genre$' 카테고리에 다른 사용자 B가 발화한 키워드 및 사용자 A가 발화한 키워드를 조합하여, '어린이가 볼만한 느와르'를 가이드 문장으로 생성할 수 있다.
즉, 제어부(130)는 사용자 A 및 그 외 사용자가 발화한 키워드를 선택된 문장 구조 카테고리 내의 문장 구조에 삽입하여 다양한 문장을 생성하고, 생성된 복수의 문장 중 서버(100)를 통해 분석된바 있거나 수신된바 있는 사용자 음성 분석 결과에 해당하는 문장을 가이드 문장으로 출력할 수 있다.
한편, 서버(100)는 선택할 수 있는 카테고리의 수에 대해 기 설정할 수 있다. 따라서, 기설정된 수 이상의 카테고리가 선택된 경우, 제어부(130)는 복잡도를 고려하여 카테고리를 선택할 수 있다.
즉, 사용자는 음성 인식 기능을 이용하는 경우 짧은 어휘 또는 짧은 문장으로 발화하는 경우가 많으므로 제어부(130)는 복수의 카테고리 중 복잡도가 낮은 카테고리를 선택할 수 있다.
또한, 서버(100)는 복잡도, Global 인기도 및 사용자의 사용 빈도를 고려하여 카테고리를 선택할 수 있다. 즉, 서버(100)는 복잡도가 낮고, Global 인기도 높으며 사용자의 사용 빈도가 낮은 카테고리를 가이드 문장을 생성하기 위한 카테고리로 선택할 수 있다.
한편, 도 6은 각 카테고리에 대해서 복잡도, Global 인기도 및 사용자 B의 각 카테고리에 대한 사용자 음성의 사용 빈도를 나타내는 도면이다.
서버(100)는 복잡도 및 Global 인기도를 0 부터 9까지의 숫자로 판단하여 저장할 수 있으며, 숫자가 클수록 복잡도가 커서 문장의 길이가 길며 Global 인기도가 높아서 서버(100)에 연결 가능한 전자 장치를 사용하는 전체 사용자의 발화 빈도가 높다. 또한, 서버(100)는 사용자의 사용 빈도는 0 부터 99 사이의 숫자로 판단할 수 있다. 사용 빈도 역시 사용 빈도를 나타내는 숫자에 정비례할 수 있다.
예를 들면, 도메인 카테고리의 소 카테고리인 '도메인: EPG' 카테고리는 '등장 인물 검색', '줄거리 보여줘'와 같은 길이의 사용자 음성을 포함한다. 따라서, '도메인: EPG' 카테고리는 복잡도를 나타내는 수치가 4로 0 에서 9 사이의 중간값을 가질 수 있다. 그리고 전체 사용자의 사용 빈도에 따른 Global 인기도가 높아 Global 인기도는 3일 수 있다. 또한, 도 3 및 도 4에 나타난 바와 같이 사용자 B는 'EPG'와 관련된 사용자 음성을 꾸준히 발화한 것을 알 수 있다. 따라서, 사용자 B의 사용빈도는 70이 된다.
제어부(130)는 도 6에 도시된 바와 같은 복수의 카테고리 중 적어도 하나의 카테고리를 선택한다. 즉, 제어부(130)는 Global 인기도 및 사용자의 사용빈도를 바탕으로 복수의 카테고리 중 하나를 선택할 수 있다. 구체적으로 제어부(130)는 Global 인기도는 높아서 복수의 사용자가 사용한 빈도가 높으면서, 사용자의 사용 빈도는 낮아서 사용자의 사용이 잦지 않은 카테고리를 선택할 수 있다.
도 6의 경우를 바탕으로 사용자 B가 최근 'X 감독이 만든 프랑스 느와르 영화 뭐 있어?', '다큐멘터리 중에 감독 Y가 만든 게 뭐 있지?' 및 '배우 Z가 나오는 호러 영화 찾아줘'를 발화한 경우를 예로 든다. 이때, 제어부(130)는 사용자 B가 발화한 사용자 음성을 분석하여, 사용자 B의 음성은 영화에 대해 검색을 수행하는 발화라고 판단할 수 있다. 따라서, 제어부(130)는 사용자 B의 최근 발화가 도메인에 특징이 있는 것으로 판단하고, 도메인 카테고리, 기능 카테고리, 문장 구조 카테고리 및 키워드 카테고리 중 도메인 카테고리를 선택할 수 있다.
또한, 도메인 카테고리, 기능 카테고리, 문장 구조 카테고리 및 키워드 카테고리는 도메인 카테고리를 상위 카테고리로 하여, 기능 카테고리는 도메인 카테고리의 하위 카테고리이고, 문장 구조 카테고리는 기능 카테고리의 하위 카테고리이며, 키워드 카테고리는 문장 구조 카테고리의 하위 카테고리일 수 있다.
따라서, 제어부(130)가 도메인 카테고리를 가이드 문장을 생성하기 위한 카테고리로 선택한 경우, 하위 카테고리인 기능 카테고리, 문장 구조 카테고리 및 키워드 카테고리까지 포함될 수 있다. 즉, 선택된 문장 구조 카테고리 내에서 적합한 가이드 문장을 생성할 수 없는 경우, 제어부(130)는 하위 카테고리인 기능 카테고리, 문장 구조 카테고리 및 키워드 카테고리 내에서 가이드 문장을 생성할 수 있다. 또한, 제어부(130)는 사용자의 발화가 속하는 카테고리를 명확하게 판단할 수 없는 경우, 도메인 카테고리를 가이드 문장을 생성하기 위한 카테고리로 선택하여, 가이드 문장을 생성하기 위한 카테고리의 영역을 넓게 할 수 있다.
또한, 제어부(130)는 도메인 카테고리가 선택된 경우, 기 저장된 Global 인기도를 바탕으로 가이드 문장을 생성할 수 있다.
예를 들면, 도 6에 도시된 바와 같이 도메인 카테고리 내에서 Global 인기도는 높으면서 사용자 B의 사용 빈도는 낮은 소 카테고리는 '도메인: 날씨' 카테고리이다. 따라서, 제어부(130)는 '도메인: 날씨' 카테고리를 선택하고, '도메인: 날씨' 카테고리에 해당하는 가이드 문장을 생성할 수 있다.
구체적으로, 도 6에 도시된 바와 같이 기능 카테고리에서는 '기능: 날씨-날씨' 카테고리가, 문장 구조 카테고리에서는 '$date$ 날씨' 또는 '$date$ 날씨가 어때?' 카테고리가 Global 인기도는 높지만, 사용자 B의 사용빈도는 낮으므로, 제어부(130)는 '도메인: 날씨', '기능: 날씨-날씨', '$date$ 날씨' 또는 '$date$ 날씨가 어때?' 카테고리에 해당하는 문장을 가이드 문장으로 생성할 수 있다.
한편, 서버(100)는 선택할 수 있는 카테고리의 수에 대해 기 설정할 수 있다. 따라서, 기설정된 수 이상의 카테고리가 선택된 경우, 제어부(130)는 복잡도를 고려하여 카테고리를 선택할 수 있다.
즉, 사용자는 음성 인식 기능을 이용하는 경우 짧은 어휘 또는 짧은 문장으로 발화하는 경우가 많으므로 제어부(130)는 복수의 카테고리 중 복잡도가 낮은 카테고리를 선택할 수 있다.
또한, 서버(100)는 복잡도, Global 인기도 및 사용자의 사용 빈도를 고려하여 카테고리를 선택할 수 있다. 즉, 복잡도가 낮고, Global 인기도 높으며 사용자의 사용 빈도가 낮은 카테고리를 가이드 문장을 생성하기 위한 카테고리로 선택할 수 있다.
한편, 도 7은 본 발명의 일 실시예에 따른, 서버의 가이드 문장 생성 방법을 도시한 흐름도이다.
서버(100)는 사용자 음성을 수신한다(S700). 즉, 서버(100)는 사용자가 TV와 같은 전자 장치에 대해 발화한 사용자 음성을 수신하여 분석한다. 서버(100)는 수신한 음성을 외부의 사용자 음성 분석 서버로 전송하여, 사용자 음성을 분석할 수도 있다. 또는 전자 장치가 사용자 음성을 수신하여 분석한 경우, 서버(100)는 사용자 음성에 대응되는 음성 데이터를 전자 장치로부터 수신할 수 있다.
서버(100)는 사용자 음성을 분석하여 복수의 카테고리 중 사용자 음성에 대응되는 카테고리를 판단하여 저장한다(S710). 복수의 카테고리는 사용자 음성의 도메인 카테고리, 사용자 음성을 통해 사용한 전자 장치의 기능 카테고리, 사용자 음성의 문장 구조 카테고리 및 사용자 음성에 포함된 키워드 카테고리 중 적어도 하나를 포함할 수 있다. 따라서, 서버(100)는 사용자 음성에 대한 분석 결과를 카테고리에 따라 저장할 수 있다.
서버(100)는 복수의 카테고리 각각에 대한 사용 빈도 및 인기도를 판단한다(S720). 사용 빈도는 사용자에 따라 각 카테고리에 해당하는 문장이 사용된 횟수에 비례하며, 인기도는 복수의 사용자가 각 카테고리에 해당하는 문장을 사용한 횟수에 비례한다.
그리고 서버(100)는 사용 빈도 및 인기도를 바탕으로 복수의 카테고리 중 하나를 선택하고, 선택된 카테고리에 대응되는 가이드 문장을 생성한다(S730). 구체적으로, 서버(100)는 복수의 카테고리 중 사용 빈도가 가장 낮고 인기도가 가장 높은 카테고리를 선택하여 가이드 문장을 생성할 수 있다.
이하에서는 도 8을 참조하여 서버(100)의 가이드 문장 생성 방법에 대해 구체적으로 설명한다.
서버(100)는 사용자 음성을 수신한다(S800). 즉, 서버(100)는 사용자가 TV와 같은 전자 장치에 대해 발화한 사용자 음성을 수신하여 분석한다. 서버(100)는 수신한 음성을 외부의 사용자 음성 분석 서버로 전송하여, 사용자 음성을 분석할 수도 있다. 또는 전자 장치가 사용자 음성을 수신하여 분석한 경우, 서버(100)는 사용자 음성에 대응되는 음성 데이터를 전자 장치로부터 수신할 수 있다.
서버(100)는 사용자 음성을 분석하여 도메인 카테고리, 기능 카테고리, 문장 구조 카테고리 및 키워드 카테고리 중 적어도 하나를 사용자 음성에 대응되는 카테고리로 판단하여 저장한다(S810).
즉, 서버(100)는 사용자 음성에 대한 분석 결과를 기 설정된 복수의 카테고리에 따라 저장할 수 있다.
그리고 서버(100)는 복수의 카테고리 각각에 대한 사용 빈도 및 인기도를 판단한다(S820). 사용 빈도는 사용자에 따라 각 카테고리에 해당하는 문장이 사용된 횟수에 비례하며, 인기도는 복수의 사용자가 각 카테고리에 해당하는 문장을 사용한 횟수에 비례한다.
서버(100)는 복수의 카테고리 중 사용빈도가 가장 낮고, 인기도가 가장 높은 카테고리를 선택한다(S830). 즉, 서버(100)는 사용 빈도 및 인기도를 바탕으로 복수의 카테고리 중 하나를 선택하는데, 특히 다른 사용자는 많이 사용하여 인기도가 높지만 해당 사용자는 사용 빈도가 낮은 카테고리를 선택할 수 있다.
또한, 서버(100)는 기 설정된 카테고리 수만큼 카테고리를 선택할 수 있다. 예를 들면, 기 설정된 선택 가능한 카테고리 수가 한 개인 경우, 사용 빈도 및 인기도가 동일한 카테고리가 세 개 선택되면, 서버(100)는 일정한 기준에 따라 한 개의 카테고리를 선택할 수 있다.
구체적으로, 서버(100)는 선택된 카테고리가 한 개인지 판단하고(S840), 기 설정된 수인 한 개의 카테고리가 선택되지 않은 경우(S840-N), 서버(100)는 선택된 카테고리 중 복잡도가 가장 낮은 카테고리를 선택한다(S850).
복잡도는 문장의 길이에 대한 정보를 나타내며, 문장의 길이와 비례하도록 수치화된 정보이다. 예를 들면, 복잡도는 0 내지 9 사이의 숫자로 표현되며, "날씨"와 같은 단어는 복잡도 1, "프랑스 영화 감독 A가 만든 느와르 영화를 보여줘"와 같은 문장은 복잡도 8로 표현될 수 있다.
선택된 카테고리가 한 개이거나(S840-Y), 복잡도가 가장 낮은 카테고리를 선택(S850)하여 하나의 카테고리가 선택된 경우, 서버(100)는 선택된 카테고리가 문장 구조 카테고리인지 판단한다(S860).
선택된 카테고리가 문장 구조 카테고리가 아닌 경우(S860-N), 즉 선택된 카테고리가 도메인 카테고리, 기능 카테고리 및 키워드 카테고리인 경우, 서버(100)는 기 저장된 인기도를 바탕으로 가이드 문장을 생성한다(S870).
즉, 선택된 카테고리가 도메인 카테고리, 기능 카테고리 및 키워드 카테고리인 경우, 서버(100)는 전체 사용자의 사용 빈도가 높은 도메인, 기능 또는 키워드를 이용하여 가이드 문장을 생성할 수 있다.
한편, 선택된 카테고리가 문장 구조 카테고리인 경우(S860-Y), 선택된 카테고리에 포함된 문장구조에 사용자 음성에 포함된 키워드를 삽입하여 가이드 문장을 생성한다(S880). 또한, 서버(100)는 전체 사용자의 사용빈도가 높은 키워드를 선택된 카테고리에 포함된 문장구조에 삽입하여 가이드 문장을 생성할 수도 있다.
한편, 도 9는 본 발명의 일 실시예에 따른, 서버의 가이드 문장 생성 방법을 도시한 시퀀스도이다. 도 9에서는 전자 장치의 일 예로 TV, 휴대폰, 노트북 등과 같이 디스플레이 부를 포함하는 디스플레이 장치(200)를 든다.
디스플레이 장치(200)는 사용자 음성을 수신하여(S900) 서버(100)로 전송한다(S910). 디스플레이 장치(200)는 사용자 음성 자체를 서버(100)로 전송할 수 있으나 디스플레이 장치(200) 내에서 사용자 음성에 대한 분석을 수행하여 사용자 음성에 대응되는 음성 데이터를 전송할 수도 있다.
사용자 음성을 수신한 경우, 서버(100)는 사용자 음성을 분석한다(S920). 서버(100)는 분석 결과를 복수의 카테고리에 따라 저장하고(S930), 복수의 카테고리 각각에 대한 사용빈도 및 인기도를 판단한다(S940). 또한, 서버(100)는 사용자 빈도 및 인기도를 바탕으로 복수의 카테고리 중 하나를 선택하고 선택된 카테고리에 대응되는 가이드 문장을 생성한다(S950).
구체적으로 복수의 카테고리는 사용자 음성의 도메인 카테고리, 사용자 음성을 통해 사용한 전자 장치의 기능 카테고리, 사용자 음성의 문장 구조 카테고리 및 사용자 음성에 포함된 키워드 카테고리 중 적어도 하나를 포함할 수 있다. 따라서, 서버(100)는 사용자 음성에 대한 분석 결과를 카테고리에 따라 저장할 수 있다.
그리고 서버(100)는 생성한 가이드 문장을 디스플레이 장치(200)로 전송한다(S960). 또한, 디스플레이 장치(200)는 가이드 문장을 출력한다(S970).
구체적으로 디스플레이 장치(200)는 디스플레이부를 통해 가이드 문장을 텍스트 또는 이미지 형태로 출력할 수 있다. 또는 디스플레이 장치(200)는 가이드 문장을 스피커를 통해 출력할 수 있다.
디스플레이 장치(200)는 기 설정된 주기마다 가이드 문장을 출력할 수 있고, 사용자의 요청이 있는 경우 가이드 문장을 출력할 수 있다.
또한, 디스플레이 장치(200)는 기 설정된 주기마다 디스플레이부의 일부에 가이드 문장을 출력할 수 있다고 알리기 위한 UI를 출력할 수 있다. 이때, 사용자로부터 가이드 문장을 출력할 수 있다고 알리기 위한 UI를 선택하는 사용자 명령이 입력되는 경우, 디스플레이 장치(200)는 가이드 문장을 출력할 수 있다.
상술한 바와 같은 가이드 문장 생성 방법에 따라, 사용자는 음성 인식 기능의 다양한 기능을 사용하도록 돕기 위한 가이드 문장을 이용하여, 다양한 기능을 사용하기 위한 사용자 음성을 발화할 수 있게 된다.
상술한 다양한 실시 예들에 따른 서버의 가이드 문장 생성 방법은 소프트웨어로 코딩되어 비일시적 판독 가능 매체(non-transitory readable medium)에 저장될 수 있다. 이러한 비일시적 판독 가능 매체는 다양한 장치에 탑재되어 사용될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.
100: 서버 110: 통신부
120: 저장부 130: 제어부
200: 전자 장치

Claims (12)

  1. 서버의 가이드 문장 생성 방법에 있어서,
    복수의 사용자 각각이 발화한 사용자 음성에 기초한 복수의 카테고리 별 인기도 및 상기 복수의 사용자와 다른 사용자가 발화한 사용자 음성에 기초한 복수의 카테고리 별 사용 빈도에 따라, 상기 복수의 카테고리 중 상기 사용자가 발화한 사용자 음성에 대응되는 하나의 카테고리를 선택하는 단계; 및
    상기 선택된 카테고리에 대응되는 상기 사용자가 발화한 사용자 음성에 대한 가이드 문장을 생성하는 단계;를 포함하며,
    상기 선택하는 단계는,
    상기 사용 빈도 및 인기도를 바탕으로 상기 복수의 카테고리 중 상기 사용 빈도가 가장 낮고 인기도가 가장 높은 카테고리를 선택하는 가이드 문장 생성 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 복수의 카테고리는 상기 사용자 음성의 도메인 카테고리, 상기 사용자 음성을 통해 사용한 전자 장치의 기능 카테고리, 상기 사용자 음성의 문장 구조 카테고리 및 상기 사용자 음성에 포함된 키워드 카테고리 중 적어도 하나를 포함하는 것을 특징으로 하는 가이드 문장 생성 방법.
  4. 제1항에 있어서,
    상기 복수의 카테고리는 문장의 길이에 대응되는 복잡도 정보를 포함하고,
    상기 생성하는 단계는,
    상기 사용 빈도 및 인기도를 바탕으로 선택된 카테고리가 복수 개인 경우, 상기 복잡도가 가장 낮은 카테고리를 선택하여 상기 가이드 문장을 생성하는 것을 특징으로 하는 가이드 문장 생성 방법.
  5. 제3항에 있어서,
    상기 생성하는 단계는,
    상기 문장 구조 카테고리가 선택된 경우, 상기 사용자 음성에 포함된 키워드를 상기 선택된 카테고리에 포함된 문장 구조에 삽입하여 상기 가이드 문장을 생성하는 것을 특징으로 하는 가이드 문장 생성 방법.
  6. 제3항에 있어서,
    상기 생성하는 단계는,
    상기 도메인 카테고리, 상기 기능 카테고리 및 상기 키워드 카테고리 중 적어도 하나가 선택된 경우, 기 저장된 인기도를 바탕으로 상기 가이드 문장을 생성하는 것을 특징으로 하는 가이드 문장 생성 방법.
  7. 서버에 있어서,
    사용자 음성을 수신하는 통신부;
    복수의 사용자 각각이 발화한 사용자 음성에 기초한 복수의 카테고리 별 인기도 및 상기 복수의 사용자와 다른 사용자가 발화한 사용자 음성에 기초한 복수의 카테고리 별 사용 빈도에 대한 정보가 저장된 저장부; 및
    상기 기저장된 정보에 기초하여 상기 사용 빈도 및 인기도를 바탕으로 상기 복수의 카테고리 중 상기 통신부를 통해 수신된 상기 사용자가 발화한 사용자 음성에 대응되는 하나의 카테고리를 선택하고, 상기 선택된 카테고리에 대응되는 상기 통신부를 통해 수신된 상기 사용자가 발화한 상기 사용자 음성에 대한 가이드 문장을 생성하는 제어부;를 포함하며,
    상기 제어부는,
    상기 사용 빈도 및 인기도를 바탕으로 상기 복수의 카테고리 중 상기 사용 빈도가 가장 낮고 인기도가 가장 높은 카테고리를 선택하는 서버.
  8. 삭제
  9. 제7항에 있어서,
    상기 복수의 카테고리는 상기 사용자 음성의 도메인 카테고리, 상기 사용자 음성을 통해 사용한 전자 장치의 기능 카테고리, 상기 사용자 음성의 문장 구조 카테고리 및 상기 사용자 음성에 포함된 키워드 카테고리 중 적어도 하나를 포함하는 것을 특징으로 하는 서버.
  10. 제7항에 있어서,
    상기 복수의 카테고리는 문장의 길이에 대응되는 복잡도 정보를 포함하고,
    상기 제어부는,
    상기 사용 빈도 및 인기도를 바탕으로 선택된 카테고리가 복수 개인 경우, 상기 복잡도가 가장 낮은 카테고리를 선택하여 상기 가이드 문장을 생성하는 것을 특징으로 하는 서버.
  11. 제9항에 있어서,
    상기 제어부는,
    상기 문장 구조 카테고리가 선택된 경우, 상기 사용자 음성에 포함된 키워드를 상기 선택된 카테고리에 포함된 문장 구조에 삽입하여 상기 가이드 문장을 생성하는 것을 특징으로 하는 서버.
  12. 제9항에 있어서,
    상기 제어부는,
    상기 도메인 카테고리, 상기 기능 카테고리 및 상기 키워드 카테고리 중 적어도 하나가 선택된 경우, 기 저장된 인기도를 바탕으로 상기 가이드 문장을 생성하는 것을 특징으로 하는 서버.

KR1020140021999A 2014-02-25 2014-02-25 서버 및 이의 가이드 문장 생성 방법 KR102297519B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140021999A KR102297519B1 (ko) 2014-02-25 2014-02-25 서버 및 이의 가이드 문장 생성 방법
PCT/KR2015/001287 WO2015130035A1 (en) 2014-02-25 2015-02-09 Apparatus and method for generating a guide sentence
EP15755655.6A EP3080802A4 (en) 2014-02-25 2015-02-09 Apparatus and method for generating a guide sentence
US14/624,815 US9620109B2 (en) 2014-02-25 2015-02-18 Apparatus and method for generating a guide sentence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140021999A KR102297519B1 (ko) 2014-02-25 2014-02-25 서버 및 이의 가이드 문장 생성 방법

Publications (2)

Publication Number Publication Date
KR20150100322A KR20150100322A (ko) 2015-09-02
KR102297519B1 true KR102297519B1 (ko) 2021-09-03

Family

ID=53882821

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140021999A KR102297519B1 (ko) 2014-02-25 2014-02-25 서버 및 이의 가이드 문장 생성 방법

Country Status (4)

Country Link
US (1) US9620109B2 (ko)
EP (1) EP3080802A4 (ko)
KR (1) KR102297519B1 (ko)
WO (1) WO2015130035A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102468214B1 (ko) 2018-02-19 2022-11-17 삼성전자주식회사 사용자의 발화를 기반으로 컨텐츠를 제공하는 장치 및 시스템
KR20190114321A (ko) * 2018-03-29 2019-10-10 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102638373B1 (ko) * 2018-09-06 2024-02-20 주식회사 케이티 다국어 음성 명령 서비스를 제공하는 미디어 재생 장치, 방법 및 컴퓨터 프로그램
KR102661340B1 (ko) 2018-09-21 2024-04-30 삼성전자주식회사 전자 장치 및 이의 제어 방법
EP4026121A4 (en) * 2019-09-04 2023-08-16 Telepathy Labs, Inc. VOICE RECOGNITION SYSTEMS AND METHODS

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297374A (ja) 2001-03-30 2002-10-11 Alpine Electronics Inc 音声検索装置
US20050182628A1 (en) 2004-02-18 2005-08-18 Samsung Electronics Co., Ltd. Domain-based dialog speech recognition method and apparatus
JP2008070805A (ja) * 2006-09-15 2008-03-27 Honda Motor Co Ltd 音声認識装置、音声認識方法、及び音声認識プログラム
US20080242279A1 (en) * 2005-09-14 2008-10-02 Jorey Ramer Behavior-based mobile content placement on a mobile communication facility
US20090006085A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Automated call classification and prioritization

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5933139A (en) 1997-01-31 1999-08-03 Microsoft Corporation Method and apparatus for creating help functions
US20020078045A1 (en) * 2000-12-14 2002-06-20 Rabindranath Dutta System, method, and program for ranking search results using user category weighting
US7398209B2 (en) 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
KR20050017885A (ko) * 2003-08-11 2005-02-23 현대자동차주식회사 화자 적응형 음성 명령어 인식장치 및 방법
JP4437047B2 (ja) 2004-02-20 2010-03-24 本田技研工業株式会社 音声対話装置
KR100617711B1 (ko) 2004-06-25 2006-08-28 삼성전자주식회사 휴대단말기에서 음성인식구동 방법
US20090119250A1 (en) * 2005-04-13 2009-05-07 Kenneth Todd Reed Method and system for searching and ranking entries stored in a directory
US8311836B2 (en) 2006-03-13 2012-11-13 Nuance Communications, Inc. Dynamic help including available speech commands from content contained within speech grammars
KR20080026782A (ko) 2006-09-21 2008-03-26 학교법인 포항공과대학교 정보추출 기법을 이용한 음성언어 이해방법 및 장치
KR100904049B1 (ko) 2007-07-06 2009-06-23 주식회사 예스피치 음성 인식에 대한 통계적 의미 분류 시스템 및 방법
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8676904B2 (en) * 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
KR101253104B1 (ko) 2009-09-01 2013-04-10 한국전자통신연구원 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법
KR20120080069A (ko) 2011-01-06 2012-07-16 삼성전자주식회사 디스플레이 장치 및 그 음성 제어 방법
US8453058B1 (en) * 2012-02-20 2013-05-28 Google Inc. Crowd-sourced audio shortcuts
KR101309042B1 (ko) 2012-09-17 2013-09-16 포항공과대학교 산학협력단 다중 도메인 음성 대화 장치 및 이를 이용한 다중 도메인 음성 대화 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297374A (ja) 2001-03-30 2002-10-11 Alpine Electronics Inc 音声検索装置
US20050182628A1 (en) 2004-02-18 2005-08-18 Samsung Electronics Co., Ltd. Domain-based dialog speech recognition method and apparatus
US20080242279A1 (en) * 2005-09-14 2008-10-02 Jorey Ramer Behavior-based mobile content placement on a mobile communication facility
JP2008070805A (ja) * 2006-09-15 2008-03-27 Honda Motor Co Ltd 音声認識装置、音声認識方法、及び音声認識プログラム
US20090006085A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Automated call classification and prioritization

Also Published As

Publication number Publication date
US9620109B2 (en) 2017-04-11
US20150243281A1 (en) 2015-08-27
WO2015130035A1 (en) 2015-09-03
EP3080802A1 (en) 2016-10-19
EP3080802A4 (en) 2017-08-23
KR20150100322A (ko) 2015-09-02

Similar Documents

Publication Publication Date Title
KR102649208B1 (ko) 질의 응답을 위한 디스플레이 장치 및 방법
KR102215579B1 (ko) 대화형 시스템, 디스플레이 장치 및 그 제어 방법
US11823682B2 (en) Display apparatus capable of releasing a voice input mode by sensing a speech finish and voice control method thereof
KR102245747B1 (ko) 사용자 명령어 등록을 위한 디스플레이 장치 및 방법
KR102246900B1 (ko) 전자 장치 및 이의 음성 인식 방법
EP2728859B1 (en) Method of providing information-of-users' interest when video call is made, and electronic apparatus thereof
CN109508167B (zh) 显示装置和在语音识别系统中控制显示装置的方法
US11330320B2 (en) Display device and method for controlling display device
US9219949B2 (en) Display apparatus, interactive server, and method for providing response information
KR102297519B1 (ko) 서버 및 이의 가이드 문장 생성 방법
KR102072826B1 (ko) 음성 인식 장치 및 응답 정보 제공 방법
US20150189362A1 (en) Display apparatus, server apparatus, display system including them, and method for providing content thereof
US20140196092A1 (en) Dialog-type interface apparatus and method for controlling the same
US9749699B2 (en) Display device, server device, voice input system and methods thereof
US10832669B2 (en) Electronic device and method for updating channel map thereof
KR102587112B1 (ko) 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
KR102667407B1 (ko) 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
KR102237832B1 (ko) 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
KR102420155B1 (ko) 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
KR102599069B1 (ko) 사용자 명령어 등록을 위한 디스플레이 장치 및 방법
KR20240078409A (ko) 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right