KR102084739B1 - 대화형 서버, 디스플레이 장치 및 제어 방법 - Google Patents
대화형 서버, 디스플레이 장치 및 제어 방법 Download PDFInfo
- Publication number
- KR102084739B1 KR102084739B1 KR1020130025819A KR20130025819A KR102084739B1 KR 102084739 B1 KR102084739 B1 KR 102084739B1 KR 1020130025819 A KR1020130025819 A KR 1020130025819A KR 20130025819 A KR20130025819 A KR 20130025819A KR 102084739 B1 KR102084739 B1 KR 102084739B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- speech
- user
- voice
- interactive server
- Prior art date
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 150
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000004891 communication Methods 0.000 claims abstract description 33
- 230000001939 inductive effect Effects 0.000 claims abstract description 28
- 238000000605 extraction Methods 0.000 abstract description 6
- 108091027981 Response element Proteins 0.000 abstract 1
- 239000000284 extract Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 238000010295 mobile communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
대화형 서버, 디스플레이 장치 및 제어 방법이 개시된다. 본 발명에 따른 대화형 서버는 디스플레이 장치와 통신을 수행하는 통신부, 디스플레이 장치로부터 수신된 발화 음성으로부터 발화 요소를 추출하는 추출부, 추출된 발화 요소로부터 실행 대상을 나타내는 개체 정보가 포함되어 있는지 여부를 판단하는 판단부 및 추출된 발화 요소에 개체 정보가 포함되어 있으면, 추출된 발화 요소에 기초하여 응답 정보를 생성하고, 개체 정보가 포함되어 있지 않으면, 기저장된 발화 음성 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 가이드 정보를 생성하여 상기 디스플레이 장치로 전송하는 제어부를 포함한다. 이에 따라, 대화형 서버는 불완전 발화 음성의 경우, 응답 서비스를 종료하지 않고, 사용자의 의도를 올바르게 해석할 수 있도록 대화 진행을 지속적으로 유지할 수 있다.
Description
본 발명은 대화형 서버, 디스플레이 장치 및 제어 방법에 관한 것으로써, 보다 상세하게는 사용자의 다양한 발화에 대응되는 응답 정보를 제공하기 위한 대화형 서버, 디스플레이 장치 및 제어 방법에 관한 것이다.
일반적으로, 대화형 시스템에서 음성 인식이 가능한 디스플레이 장치는 사용자의 발화 음성을 수집하고, 그 수집한 발화 음성을 네트워크를 통해 연결된 외부 서버로 전송한다. 발화 음성을 수신한 외부 서버는 발화 음성을 분석하여 사용자의 의도를 파악하고, 그에 따른 응답 정보를 생성하여 디스플레이 장치로 전송한다. 이에 따라, 디스플레이 장치는 외부 서버로부터 수신한 응답 정보에 기초하여 사용자의 발화 음성에 대응하는 기능을 실행하거나 정보를 제공할 수 있다.
그러나, 이 같은 종래의 대화형 시스템은 사용자의 발화 음성을 분석하고, 그 분석 결과에 기초하여 사용자의 의도를 파악하는데 한계가 있다. 특히, 종래의 대화형 시스템은 사용자의 발화 음성으로부터 사용자의 의도 즉, 실행 대상을 나타내는 개체 정보가 포함되어 있지 않으면, 사용자의 발화에 대응되는 기능을 실행하거나 정보를 제공하지 못하는 문제가 있다.
예를 들어, "제1 컨텐츠 보여줘"와 같이, 실행하고자 하는 실행 대상이 명확한 발화의 경우, 대화형 시스템은 사용자의 의도를 올바르게 파악하고, 그에 따른 응답 정보 즉, 제1 컨텐츠를 제공할 수 있다.
한편, "프로그램 보여줘"와 같이, 실행하고자 하는 실행 대상이 불명확한 발화의 경우, 대화형 시스템은 이 같은 사용자의 발화로부터 사용자의 의도를 올바르게 파악하지 못하여 사용자의 발화에 대한 서비스를 제공하지 못하는 문제가 있다.
본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은, 대화형 시스템에서 사용자의 불완전 발화에 대해서도 사용자 의도를 올바르게 파악하여 사용자의 발화에 대응되는 동작을 수행하도록 함을 목적으로 한다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 디스플레이 장치와 통신을 수행하는 통신부, 상기 디스플레이 장치로부터 수신된 발화 음성으로부터 발화 요소를 추출하는 추출부, 상기 추출된 발화 요소로부터 실행 대상을 나타내는 개체 정보가 포함되어 있는지 여부를 판단하는 판단부 및 상기 추출된 발화 요소에 상기 개체 정보가 포함되어 있으면, 상기 추출된 발화 요소에 기초하여 응답 정보를 생성하고, 상기 개체 정보가 포함되어 있지 않으면, 기저장된 발화 음성 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 가이드 정보를 생성하여 상기 디스플레이 장치로 전송하는 제어부를 포함한다.
그리고, 상기 발화 음성 정보를 저장하는 저장부를 더 포함하며, 기 제어부는, 상기 저장부에 저장된 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보에 기초하여 상기 가이드 정보를 생성할 수 있다.
또한, 상기 제어부는, 상기 추출된 발화 요소에 상기 개체 정보가 포함되어 있지 않으면, 상기 빈도 수가 높은 개체 정보가 연상되도록 하는 가이드 정보를 생성할 수 있다.
그리고, 상기 제어부는, 상기 저장부에 저장된 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보 순으로 개체 정보 리스트를 생성하고, 기설정된 이벤트에 따라 상기 생성된 개체 정보 리스트를 상기 디스플레이 장치로 전송할 수 있다.
또한, 상기 제어부는, 상기 개체 정보 리스트를 각 도메인 별로 생성할 수 있다.
한편, 본 발명의 일 실시 예에 따르면, 음성 및 영상 중 적어도 하나를 출력하는 출력부, 사용자 발화 음성을 수집하는 음성 수집부, 상기 발화 음성을 대화형 서버로 전송하고, 상기 발화 음성에 기초하여 생성된 응답 정보를 수신하는 통신부, 상기 대화형 서버로부터 응답 정보가 수신되면, 상기 수신된 응답 정보에 기초하여 상기 발화 음성에 대응되는 응답 메시지를 출력하고, 상기 대화형 서버로부터 가이드 정보가 수신되면, 상기 수신된 가이드 정보에 기초하여 상기 사용자의 추가 발화를 유도하기 위한 안내 메시지를 출력하도록 상기 출력부를 제어하는 제어부를 포함하며, 상기 가이드 정보는, 상기 발화 음성으로부터 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 불포함되어 상기 응답 정보를 생성할 수 없는 경우에 수신되는 정보이다.
그리고, 이전 발화 음성 정보에 포함된 개체 정보의 빈도 수에 기초하여 생성된 개체 정보 리스트를 저장하는 저장부를 더 포함하며, 상기 제어부는, 상기 가이드 정보 및 상기 개체 정보 리스트에 기초하여 빈도 수가 높은 개체 정보가 연상되도록 하는 안내 메시지를 생성할 수 있다.
한편, 본 발명의 일 실시 예에 따르면, 대화형 서버의 제어 방법에 있어서, 상기 방법은 디스플레이 장치로부터 발화 음성을 수신하는 단계, 상기 수신된 발화 음성으로부터 발화 요소를 추출하는 단계, 상기 추출된 발화 요소로부터 실행 대상을 나타내는 개체 정보가 포함되어 있는지 여부를 판단하는 단계, 상기 판단 결과, 상기 추출된 발화 요소에 상기 개체 정보가 포함되어 있으면, 상기 추출된 발화 요소에 기초하여 응답 정보를 생성하고, 상기 개체 정보가 포함되어 있지 않으면, 기저장된 발화 음성 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 가이드 정보를 생성하는 단계 및 상기 생성된 가이드 정보를 디스플레이 장치로 전송하는 단계를 포함한다.
그리고, 상기 생성하는 단계는, 기저장된 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보에 기초하여 상기 가이드 정보를 생성할 수 있다.
또한, 상기 생성하는 단계는, 상기 추출된 발화 요소에 상기 개체 정보가 포함되어 있지 않으면, 상기 빈도 수가 높은 개체 정보가 연상되도록 하는 가이드 정보를 생성할 수 있다.
그리고, 상기 기저장된 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보 순으로 개체 정보 리스트를 생성하는 단계 및 기설정된 이벤트에 따라 상기 생성된 개체 정보 리스트를 상기 디스플레이 장치로 전송하는 단계를 더 포함할 수 있다.
또한, 상기 개체 정보 리스트를 생성하는 단계는, 상기 개체 정보 리스트를 각 도메인 별로 생성할 수 있다.
한편, 본 발명의 일 실시 예에 따르면, 디스플레이 장치의 제어 방법에 있어서, 상기 방법은 사용자의 발화 음성을 수집하는 단계, 상기 발화 음성을 대화형 서버로 전송하는 단계 및 상기 대화형 서버로부터 상기 발화 음성에 기초하여 생성된 응답 정보가 수신되면, 상기 수신된 응답 정보에 기초하여 상기 발화 음성에 대응되는 응답 메시지를 출력하고, 상기 대화형 서버로부터 가이드 정보가 수신되면, 상기 수신된 가이드 정보에 기초하여 상기 사용자의 추가 발화를 유도하기 위한 안내 메시지를 출력하는 단계를 포함하며, 상기 가이드 정보는, 상기 발화 음성으로부터 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 불포함되어 상기 응답 정보를 생성할 수 없는 경우에 수신되는 정보이다.
그리고, 상기 출력하는 단계는, 상기 가이드 정보 및 이전 발화 음성 정보에 포함된 객체 정보의 빈도 수에 기초하여 생성되어 기저장된 개체 정보 리스트에 기초하여 빈도 수가 높은 개체 정보가 연상되도록 하는 안내 메시지를 생성할 수 있다.
이상과 같이 본 발명의 다양한 실시 예에 따르면, 대화형 시스템에서 대화형 서버는 불완전 발화 음성의 경우, 응답 서비스를 종료하지 않고, 사용자의 의도를 올바르게 해석할 수 있도록 대화 진행을 지속적으로 유지하여 사용자가 의도한 발화에 대응되는 응답 서비스를 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 사용자 발화 음성에 적합한 응답 정보를 제공하는 대화형 시스템의 제1 예시도,
도 2는 본 발명의 또다른 실시예에 따른 사용자 발화 음성에 적합한 응답 정보를 제공하는 대화형 시스템의 제2 예시도,
도 3은 본 발명의 일 실시예에 따른 디스플레이 장치의 블록도,
도 4는 본 발명의 일 실시예에 따른 디스플레이 장치에서 응답 메시지를 출력하는 예시도,
도 5는 본 발명의 일 실시예에 따른 디스플레이 장치에서 안내 메시지를 출력하는 예시도,
도 6은 본 발명의 일 실시예에 따른 대화형 서버의 블록도,
도 7은 본 발명의 일 실시예에 따른 디스플레이 장치의 제어 방법에 대한 흐름도,
도 8은 본 발명의 일 실시예에 따른 대화형 서버의 제어 방법에 대한 흐름도이다.
도 2는 본 발명의 또다른 실시예에 따른 사용자 발화 음성에 적합한 응답 정보를 제공하는 대화형 시스템의 제2 예시도,
도 3은 본 발명의 일 실시예에 따른 디스플레이 장치의 블록도,
도 4는 본 발명의 일 실시예에 따른 디스플레이 장치에서 응답 메시지를 출력하는 예시도,
도 5는 본 발명의 일 실시예에 따른 디스플레이 장치에서 안내 메시지를 출력하는 예시도,
도 6은 본 발명의 일 실시예에 따른 대화형 서버의 블록도,
도 7은 본 발명의 일 실시예에 따른 디스플레이 장치의 제어 방법에 대한 흐름도,
도 8은 본 발명의 일 실시예에 따른 대화형 서버의 제어 방법에 대한 흐름도이다.
이하 첨부된 도면들을 참조하여 본 발명의 일시 예를 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 사용자 발화 음성에 적합한 응답 정보를 제공하는 대화형 시스템의 제1 예시도이다.
도 1에 도시된 바와 같이, 대화형 시스템은 디스플레이 장치(100) 및 대화형 서버(200)를 포함한다.
디스플레이 장치(100)는 인터넷이 가능한 장치로써, 스마트 TV, 스마트폰과 같은 휴대폰, 데스크탑 PC, 노트북, 네비게이션 등과 같은 다양한 전자 장치로 구현될 수 있다. 이 같은 디스플레이 장치(100)는 사용자의 발화 음성이 입력되면, 입력된 사용자의 발화 음성에 대응되는 동작을 수행한다. 구체적으로, 디스플레이 장치(100)는 사용자로부터 발화 음성이 입력되면, 입력된 발화 음성을 분석하여 내부적으로 수행가능한지 여부를 판단하고, 그 판단 결과에 따라, 수신된 발화 음성에 대응되는 동작을 수행하거나 혹은 대화형 서버(200)로부터 수신된 응답 정보에 기초하여 동작을 수행한다.
예를 들어, 사용자의 발화 음성이 "볼륨 올려"와 같은 볼륨 조정 명령이면, 디스플레이 장치(100)는 "볼륨 올려"라는 발화 음성에 대응되는 제어 정보가 기저장되어 있는지 여부를 판단한다. 판단 결과, 수신된 발화 음성에 대응되는 제어 정보가 기저장되어 있으면, 디스플레이 장치(100)는 기저장된 제어 정보에 기초하여 볼륨을 조정할 수 있다.
한편, 사용자의 발화 음성에 대응되는 제어 정보가 기저장되어 있지 않으면, 디스플레이 장치(100)는 수신된 발화 음성을 대화형 서버(200)로 전송한다. 이후, 대화형 서버(200)로부터 사용자의 발화 음성에 대응되는 응답 정보가 수신되면, 수신된 응답 정보에 기초하여 사용자의 발화 음성에 대응되는 기능 혹은 응답 메시지를 출력할 수 있다.
예를 들어, 사용자의 발화 음성이 "○○○(프로그램명)프로그램 보여줘!"라는 특정 프로그램에 대한 시청을 요청하는 정보이면, 디스플레이 장치(100)는 내부적으로 수행이 불가능한 것으로 판단한다. 따라서, 디스플레이 장치(100)는 사용자의 발화 음성을 대화형 서버(200)로 전송하고, 그에 따른 응답 정보가 대화형 서버(200)로부터 수신되면, 수신된 응답 정보에 기초하여 사용자의 발화 음성에 대응되는 프로그램을 출력할 수 있다.
대화형 서버(200)는 디스플레이 장치(100)로부터 수신된 사용자의 발화 음성를 텍스트 정보로 변환한다. 이후, 대화형 서버(200)는 변환된 텍스트 정보를 분석하여 발화 요소를 추출하고, 추출된 발화 요소에 기초하여 사용자의 발화 음성에 대한 응답 정보를 생성하여 디스플레이 장치(200)로 전송한다. 구체적으로, 대화형 서버(200)는 디스플레이 장치(100)로부터 사용자의 발화 음성이 수신되면, 수신된 발화 음성을 텍스트 정보로 변환한다. 실시예에 따라, 대화형 서버(200)는 STT(Speech to Text) 알고리즘을 이용하여 수신된 사용자의 발화 음성을 텍스트 정보로 변환할 수 있다. 이후, 대화형 서버(200)는 텍스트 정보로 변환된 발화 음성과 통계적으로 유사한 이전 발화 음성으로부터 추출된 발화 요소에 대한 태깅 정보에 기초하여 텍스트 정보로 변환된 발화 음성에 대한 발화 요소를 추출한다.
여기서, 발화 요소는 사용자의 발화 음성을 형태소 단위로 분류된 것으로써, 화행(dialogue ation)에 대한 발화 요소, 주행(main action)에 대한 발화 요소 및 구성 요소(component slot)(이하 개체 정보라 함)를 나타내는 발화 요소를 포함할 수 있다. 여기서, 화행은 문장의 형태와 관련된 분류 기준으로, 해당 문장이 서술문(Statement), 요청문(Request) 또는 의문문(Qiestion)인지를 나타낸다. 그리고, 주행은 해당 발화가 특정 도메인에서 대화를 통해 원하는 행위는 나타내는 의미적 정보이다. 예를 들어, 방송 서비스 도메인에서 주행은 프로그램 찾기, 프로그램 시간 찾기, 프로그램 예약 등이 될 수 있다. 그리고, 개체 정보는 사용자의 발화에 나타나는 특정 도메인에서 의도하는 행동의 의미를 구체화하기 위한 정보이다. 즉, 개체 정보는 실행 대상을 나타내는 발화 요소로써, 예를 들어, 방송 서비스 도메인에서 개체 정보는 장르, 프로그램명, 방송 시간, 채널 명, 배우, 영화 장르 등을 포함할 수 있다.
예를 들어, "○○○(프로그램명)은 언제 해?"라는 발화 음성의 경우, 대화형 서버(200)는 현재 발화 음성과 매칭되거나 혹은 유사한 이전 발화 음성에 태깅된 정보에 기초하여 "해?"라는 의문문 관련 화행의 발화 요소와 "언제"라는 프로그램 시간 찾기 관련 주행의 발화 요소와 "○○○(프로그램명)"라는 프로그램명 관련 개체 정보의 발화 요소를 추출할 수 있다. 이 같은 발화 요소가 추출되면, 대화형 서버(200)는 추출된 발화 요소에 기초하여 그에 따른 응답 정보를 생성하고, 생성된 응답 정보를 디스플레이 장치(100)로 전송한다. 이에 따라, 디스플레이 장치(100)는 대화형 서버(200)로부터 수신한 응답 정보에 기초하여 "○○○(방송프로그램명)은 7시에 방송 시작합니다."라는 응답 메시지를 음성 또는 텍스트 형태의 영상으로 출력할 수 있다.
한편, 대화형 서버(200)는 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 사용자의 발화 음성에 대응되는 응답 정보를 생성하지 못할 수 있다. 예를 들어, "볼만한 프로그램 있어?"라는 발화 음성의 경우, 대화형 서버(200)는 현재 발화 음성과 매칭되거나 혹은 유사한 이전 발화 음성에 태깅된 정보에 기초하여 "있어?"라는 의문문 관련 화행의 발화 요소와 "볼만한", "프로그램"이라는 프로그램 찾기 관련 주행의 발화 요소만 추출할 수 있다. 이와 같이, 사용자의 발화 음성으로부터 화행 및 주행의 발화 요소만 추출되고, 개체 정보의 발화 요소가 추출되지 않으면, 대화형 서버(200)는 사용자의 발화 음성이 불완전한 발화 음성인 것으로 판단한다. 따라서, 대화형 서버(200)는 기저장된 이전 발화 음성에 기초하여 사용자로부터 추가 발화를 유도하기 위한 가이드 정보를 생성하고, 생성된 가이드 정보를 디스플레이 장치(100)로 전송한다.
이에 따라, 디스플레이 장치(100)는 대화형 서버(200)로부터 수신한 가이드 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 안내 메시지를 음성 및 텍스트 형태의 영상으로 출력한다. 따라서, 사용자는 디스플레이 장치(100)를 통해 출력된 안내 메시지에 따라, 개체 정보 관련 발화 요소를 포함하는 발화를 재차 수행할 수 있으며, 대화형 서버(200)는 재차 수행된 발화 음성에 기초하여 응답 정보를 생성하고, 이를 디스플레이 장치(100)로 전송할 수 있다.
도 2는 본 발명의 또다른 실시예에 따른 사용자 발화 음성에 적합한 응답 정보를 제공하는 대화형 시스템의 제2 예시도이다.
도 2에 도시된 바와 같이, 대화형 시스템은 디스플레이 장치(100), 제1 서버(10) 및 제2 서버(20)를 포함할 수 있다. 이 경우, 디스플레이 장치(100)는 전술한 바와 같이, 사용자의 발화 음성이 수집되면, 내부적으로 수집된 발화 음성에 대응되는 동작의 수행 가능 여부를 판단한다. 판단 결과, 내부적으로 수행이 불가능한 것으로 판단되면, 디스플레이 장치(100)는 제1 서버(10)로 사용자의 발화 음성을 전송한다. 이에 따라, 제1 서버(10)는 디스플레이 장치(100)로부터 수신된 사용자의 발화 음성을 텍스트 정보로 생성하고, 생성된 텍스트 정보를 디스플레이 장치(100)로 전송한다. 제1 서버(10)로부터 사용자의 발화 음성에 대한 텍스트 정보가 수신되면, 디스플레이 장치(100)는 수신된 텍스트 정보를 제2 서버(20)로 전송한다. 사용자의 발화 음성에 대한 텍스트 정보를 수신하는 제2 서버(20)는 수신한 텍스트 정보를 분석하여 발화 요소를 추출하고, 그 추출된 발화 요소에 기초하여 사용자의 발화 음성에 대응되는 동작을 수행하기 위한 응답 정보 생성 가능 여부를 판단한다.
판단 결과, 응답 정보 생성이 가능하면, 제2 서버(20)는 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 응답 정보를 생성하여 디스플레이 장치(100)로 전송한다. 이에 따라, 디스플레이 장치(100)는 제2 서버(20)로부터 수신한 응답 정보에 기초하여 응답 메시지를 생성하고, 생성된 응답 메시지를 음성 또는 텍스트 형태의 영상으로 출력할 수 있다.
한편, 판단 결과, 응답 정보 생성이 불가능하면, 제2 서버(20)는 기저장된 이전 발화 음성에 기초하여 사용자의 추가 발화를 유도하기 위한 가이드 정보를 생성하여 디스플레이 장치(100)로 전송한다. 이에 따라, 디스플레이 장치(100)는 제2 서버(20)로부터 수신한 가이드 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 안내 메시지를 음성 및 텍스트 형태의 영상으로 출력한다. 따라서, 사용자는 디스플레이 장치(100)를 통해 출력된 안내 메시지에 따라, 개체 정보 관련 발화 요소를 포함하는 발화를 재차 수행할 수 있으며, 제2 서버(20)는 재차 수행된 발화 음성에 기초하여 응답 정보를 생성하고, 이를 디스플레이 장치(100)로 전송할 수 있다.
지금까지, 사용자의 발화 음성에 대응되는 응답 정보를 제공하는 대화형 시스템의 각 구성에 대해서 개략적으로 설명하였다. 이하에서는 전술한 디스플레이 장치(100) 및 대화형 서버(200)의 각 구성에 대해서 상세히 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른 디스플레이 장치의 블록도이다.
도 3에 도시된 바와 같이, 디스플레이 장치(100)는 통신부(110), 음성 수집부(120), 제어부(130) 및 출력부(140)를 포함한다.
통신부(110)는 사용자의 발화 음성에 적합한 응답 정보를 제공하는 대화형 서버(200)와 통신을 수행한다. 구체적으로, 통신부(110)는 다양한 통신 방식에 따라 대화형 서버(200)와 통신을 수행하여, 사용자의 발화 음성을 대화형 서버(200)로 전송할 수 있다. 이를 위해, 통신부(110)는 근거리 무선 통신 모듈(미도시), 무선 통신 모듈(미도시) 등과 같은 다양한 통신 모듈을 포함할 수 있다. 여기서, 근거리 무선 통신 모듈(미도시)은 근거리에 위치한 외부 기기와 무선 통신을 수행하는 통신 모듈로써, 예를 들어, 블루투스, 지그비 등이 될 수 있다. 무선 통신 모듈(미도시)은 와이파이(WiFi), IEEE 등과 같은 무선 통신 프로토콜에 따라 외부 네트워크에 연결되어 통신을 수행하는 모듈이다. 이 밖에 무선 통신 모듈은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신을 수행하는 이동 통신 모듈을 더 포함할 수도 있다.
음성 수집부(120)는 마이크(미도시)를 통해 입력된 사용자의 발화 음성을 수집하며, 수집된 사용자의 발화 음성에 대한 신호 처리를 수행한다. 구체적으로, 음성 수집부(120)는 아날로그 형태의 사용자 음성이 입력되면, 입력된 발화 음성을 샘플링하여 디지털 신호로 변환한다. 이때, 음성 수집부(120)는 디지털 신호로 변환된 발화 음성에 노이즈가 있는지 여부를 판단하여, 노이즈가 있는 경우, 변환된 디지털 신호로부터 노이즈를 제거하는 것이 바람직하다. 이 같이, 사용자의 발화 음성이 디지털 신호로 신호 처리되면, 통신부(110)는 디지털 신호로 신호 처리된 사용자의 발화 음성을 대화형 서버(200)로 전송한다. 여기서, 대화형 서버(200)는 도 전술한 바와 같이, 사용자의 발화 음성을 텍스트 정보로 변환한다. 이후, 대화형 서버(200)는 변환된 텍스트 정보를 분석하여 발화 요소를 추출하고, 추출된 발화 요소에 기초하여 사용자의 발화 음성에 대한 응답 정보를 생성하여 디스플레이 장치(200)로 전송한다.
그러나, 본 발명은 이에 한정되지 않으며, 도 2에서 설명한 바와 같이, 대화형 서버(200)는 사용자의 발화 음성을 텍스트 정보로 변환하는 제1 서버(10)와 텍스트 정보로 변환된 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 사용자의 발화 음성에 대응되는 응답 정보를 생성하는 제2 서버(20)로 이루어질 수 있다. 본 발명에서는 도 1에서 설명한 대화형 서버(200)에 대해서 설명하도록 한다.
제어부(130)는 대화형 서버(200)로부터 사용자의 발화 음성에 대응되는 응답 정보가 수신되면, 수신한 응답 정보에 기초하여 사용자의 발화 음성에 대응되는 응답 메시지를 출력하도록 출력부(140)를 제어한다. 이에 따라, 출력부(140)는 사용자의 발화 음성에 대응되는 응답 메시지를 음성 및 영상 중 적어도 하나로 출력한다. 구체적으로, 출력부(140)는 제어부(130)의 제어 명령에 따라, 대화형 서버(200)로부터 수신된 응답 정보에 기초하여 생성된 응답 메시지를 음성 또는 텍스트 형태의 영상으로 출력할 수 있다. 이를 위해 출력부(140)는 디스플레이부(141) 및 오디오 출력부(143)를 포함할 수 있다.
디스플레이부(141)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel, PDP) 등으로 구현되어, 디스플레이 장치(100)를 통해 제공 가능한 다양한 디스플레이 화면을 제공할 수 있다. 특히, 디스플레이부(141) 사용자의 발화 음성에 대응되는 응답 메시지가 텍스트 또는 이미지 형태로 디스플레이할 수 있다. 여기서, 디스플레이부(141)는 터치패드와 함께 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수 있으며, 터치 스크린은 터치 입력 위치, 면적, 터치 입력의 압력까지도 검출하도록 구성될 수 있다. 그리고, 오디오 출력부(143)는 스피커 또는 잭 등과 같은 출력 포트로 구현되어, 사용자 발화 음성에 대한 응답 메시지를 가청음 형태로 출력할 수 있다.
한편, 전술한 제어부(130)는 대화형 서버(200)로부터 가이드 정보가 수신되면, 수신된 가이드 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 안내 메시지를 출력하도록 출력부(140)를 제어할 수 있다. 여기서, 가이드 정보는 사용자의 발화 음성으로부터 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 불포함되어 대화형 서버(200)로부터 사용자의 발화 음성에 대응되는 응답 정보를 생성할 수 없는 경우에 수신되는 정보가 될 수 있다.
따라서, 이 같은 가이드 정보가 대화형 서버(200)로부터 수신되면, 제어부(130)는 수신된 가이드 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 안내 메시지를 출력하도록 출력부(140)를 제어할 수 있다. 이 같은 제어 명령에 따라서, 출력부(140)는 디스플레이부(141) 및 오디오 출력부(143) 중 적어도 하나를 통해 사용자의 추가 발화를 유도하기 위한 안내 메시지를 출력할 수 있다. 따라서, 사용자는 디스플레이부(141) 및 오디오 출력부(143) 중 적어도 하나를 통해 출력된 안내 메시지에 따라, 실행 대상을 나타내는 개체 정보 관련 발화 요소를 포함하는 발화를 재차 수행할 수 있다.
본 발명의 추가적인 양상에 따라, 디스플레이 장치(100)는 이전 발화 음성 정보에 포함된 개체 정보의 빈도 수에 기초하여 생성된 개체 정보를 저장하는 저장부(150)를 더 포함할 수 있다. 이 경우, 제어부(130)는 대화형 서버(200)로부터 수신한 가이드 정보 및 저장부(150)에 저장된 개체 정보 리스트에 기초하여 빈도 수가 높은 개체 정보가 연상되도록 하는 안내 메시지를 생성할 수 있다.
여기서, 개체 정보 리스트는 이전 사용자의 발화 음성으로부터 추출된 발화 요소 중 실행 대상을 나타내는 개체 정보에 대한 발화 요소의 발화 빈도 수가 높은 개체 정보 순서대로 순위가 결정된 리스트로써, 이 같은 개체 정보 리스트는 대화형 서버(200)에서 생성될 수 있다. 구체적으로, 대화형 서버(200)는 디스플레이 장치(100)로부터 수신된 이전 발화 음성 정보에 기초하여 개체 정보 리스트를 생성하여 디스플레이 장치(100)로 전송한다. 이에 따라, 저장부(150)는 통신부(110)를 통해 대화형 서버(200)로부터 수신된 개체 정보 리스트를 저장할 수 있다. 한편, 대화형 서버(200)는 디스플레이 장치(100)로부터 수신된 이전 발화 음성 정보에 기초하여 주기적으로 개체 정보 리스트를 업데이트 할 수 있다. 이 경우, 대화형 서버(200)는 업데이트된 개체 정보 리스트를 디스플레이 장치(100)로 전송하며, 저장부(150)는 기저장된 개체 정보 리스트를 업데이트된 개체 정보 리스트로 갱신하여 저장할 수 있다.
따라서, 제어부(130)는 대화형 서버(200)로부터 가이드 정보가 수신되면, 수신된 가이드 정보와 저장부(150)에 기저장된 객체 정보 리스트에 기초하여 빈도 수가 높은 개체 정보가 연상되도록 하는 안내 메시지를 생성할 수 있다. 이 같은 안내 메시지가 생성되면, 출력부(140)는 제어부(130)의 제어 명령에 따라, 디스플레이부(141) 및 오디오 출력부(143) 중 적어도 하나를 통해 빈도 수가 높은 개체 정보가 연상되도록 하는 안내 메시지를 출력할 수 있다. 뿐만 아니라, 출력부(140)는 제어부(130)의 제어 명령에 따라, 빈도 수가 높은 개체 정보가 연상되도록 하는 안내 메시지와 함께, 저장부(150)에 저장된 객체 정보 리스트를 디스플레이부(141)를 통해 화면상에 출력할 수 있다. 따라서, 사용자는 화면상에 출력된 안내 메시지 및 객체 정보 리스트를 참조하여 실행 대상을 나타내는 개체 정보에 대한 발화 요소를 포함하는 발화를 재차 수행할 수 있다.
이하에서는 도 4 및 도 5를 통해 디스플레이 장치(100)에서 사용자의 추가 발화를 유도하기 위한 안내 메시지를 출력하는 동작에 대해서 상세히 설명하도록 한다.
도 4는 본 발명의 일 실시예에 따른 디스플레이 장치에서 응답 메시지를 출력하는 예시도이다.
도 4에 도시된 바와 같이, 디스플레이 장치(100)는 사용자로부터 발화 음성이 수집되면, 수집된 발화 음성을 대화형 서버(200)로 전송한다. 예를 들어, "○○○(프로그램명)은 언제 해?"라는 발화 음성(410)이 수집되면, 디스플레이 장치(100)는 수집된 발화 음성을 대화형 서버(200)로 전송한다. 디스플레이 장치(100)로부터 사용자의 발화 음성이 수신되면, 대화형 서버(200)는 수신된 발화 음성을 텍스트 정보로 변환한다. 이후, 대화형 서버(200)는 텍스트 정보로 변환된 발화 음성으로부터 발화 요소를 추출하고, 추출된 발화 요소 중 실행 대상을 나타내는 개체 정보에 대한 발화 요소가 있는지 여부를 판단한다. 판단 결과, 개체 정보에 대한 발화 요소가 있으면, 대화형 서버(200)는 사용자의 발화 음성에 대응되는 응답 정보를 생성한다.
전술한 예와 같이, "○○○(프로그램명)은 언제 해?"라는 발화 음성의 경우, 대화형 서버(200)는 현재 발화 음성과 매칭되거나 혹은 유사한 이전 발화 음성에 태깅된 정보에 기초하여 "해?"라는 의문문 관련 화행의 발화 요소와 "언제"라는 프로그램 시간 찾기 관련 주행의 발화 요소와 "○○○(프로그램명)"라는 프로그램명 관련 개체 정보의 발화 요소를 추출할 수 있다. 이 같은 발화 요소가 추출되면, 대화형 서버(200)는 사용자의 발화 음성에 개체 정보에 대한 발화 요소가 포함된 것으로 판단하고, 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 그에 따른 응답 정보를 생성한다. 전술한 예에서, "○○○(프로그램명)"이 토요일 저녁 7시에 하는 것으로 판단되면, 대화형 서버(200)는 "○○○(프로그램명)"의 방송 날짜 정보를 포함하는 응답 정보를 생성한다. 이후, 대화형 서버(200)는 사용자의 발화 음성에 대응하여 생성된 응답 정보를 디스플레이 장치(100)로 전송한다. 이에 따라, 디스플레이 장치(100)는 대화형 서버(200)로부터 수신한 응답 정보에 기초하여 "○○○(프로그램명)은 토요일 저녁 7시에 시작합니다"라는 응답 메시지(420)를 출력할 수 있다.
한편, 사용자의 발화 음성으로부터 추출된 발화 요소 중 개체 정보에 대한 발화 요소가 포함되지 않으면, 대화형 서버(200)는 사용자의 발화 음성이 불완전 발화인 것으로 판단하고, 사용자의 추가 발화를 유도하기 위한 가이드 정보를 생성하여 디스플레이 장치(100)로 전송한다. 이에 따라, 디스플레이 장치(100)는 대화형 서버(200)로부터 수신한 가이드 정보에 기초하여 안내 메시지를 생성할 수 있다.
도 5는 본 발명의 일 실시예에 따른 디스플레이 장치에서 안내 메시지를 출력하는 예시도이다.
도 5에 도시된 바와 같이, 예를 들어, "볼만한 프로그램 있어?"라는 발화 음성(510)이 수집되면, 디스플레이 장치(100)는 수집된 발화 음성을 대화형 서버(200)로 전송한다. 따라서, 대화형 서버(200)는 디스플레이 장치(100)로부터 수신된 사용자의 발화 음성을 텍스트 정보하고, 텍스트로 변환된 발화 음성으로부터 발화 요소를 추출한다. 이후, 대화형 서버(200)는 추출된 발화 요소 중 실행 대상을 나타내는 개체 정보에 대한 발화 요소가 있는지 여부를 판단한다. 판단 결과, 개체 정보에 대한 발화 요소가 없으면, 대화형 서버(200)는 사용자의 발화 음성이 불완전 발화인 것으로 판단하고, 사용자로부터 추가 발화를 유도하기 위한 가이드 정보를 생성하여 디스플레이 장치(100)로 전송한다.
전술한 예와 같이, "볼만한 프로그램 있어?"라는 발화 음성의 경우, 대화형 서버(200)는 현재 발화 음성과 매칭되거나 혹은 유사한 이전 발화 음성에 태깅된 정보에 기초하여 "있어?"라는 의문문 관련 화행의 발화 요소와 "볼만한", "프로그램"이라는 프로그램 찾기 관련 주행의 발화 요소만 추출할 수 있다. 이와 같이, 사용자의 발화 음성으로부터 화행 및 주행의 발화 요소만 추출되고, 개체 정보의 발화 요소가 추출되지 않으면, 대화형 서버(200)는 사용자의 발화 음성이 불완전한 발화 음성인 것으로 판단한다. 따라서, 대화형 서버(200)는 사용자로부터 추가 발화를 유도하기 위한 가이드 정보를 생성한다.
일 실시예에 따라, 대화형 서버(200)는 사용자의 발화 음성이 불완전한 발화임을 안내하는 알림 정보 및 기저장된 이전 발화 음성 정보에 포함된 개체 정보 중 빈도 수가 가장 높은 개체 정보가 사용자의 발화 음성에 추가되도록 유도하기 위한 안내 정보를 포함하는 가이드 정보를 생성할 수 있다. 여기서, 사용자의 발화 음성에 개체 정보가 포함되도록 유도하기 위한 안내 정보는 해당 개체 정보에 대한 단어의 글자 수를 안내하기 위한 정보이다. 예를 들어, 이전 발화 음성 정보에 포함된 개체 정보 중 빈도 수가 가장 높은 개체 정보에 대한 단어가 "드라마"이면, 가이드 정보는 "드라마"라는 단어에 대한 글자 수를 안내하는 안내 정보를 포함할 수 있다.
따라서, 이 같은 가이드 정보가 생성되면, 대화형 서버(200)는 생성된 가이드 정보를 디스플레이 장치(100)로 전송한다. 이에 따라, 디스플레이 장치(100)는 대화형 서버(200)로부터 수신한 가이드 정보에 포함된 알림 정보 및 안내 정보에 기초하여 "다음과 같은 추가 정보를 주세요. 볼만한 □□□ 프로그램 있어?"라는 안내 메시지(520)를 출력할 수 있다.
또다른 실시예에 따라, 대화형 서버(200)는 사용자의 발화 음성이 불완전한 발화임을 안내하는 알림 정보를 포함하는 가이드 정보만을 생성하여 디스플레이 장치(100)로 전송할 수 있다. 이 경우, 디스플레이 장치(100)는 기저장된 개체 정보 리스트를 참조하여 빈도 수가 가장 높은 개체 정보를 획득한다. 이후, 디스플레이 장치(100)는 대화형 서버(200)로부터 수신한 가이드 정보에 포함된 알림 정보와 기획득한 개체 정보에 대한 단어의 글자 수에 기초하여 "다음과 같은 추가 정보를 주세요. 볼만한 □□□ 프로그램 있어?"라는 안내 메시지(520)를 출력할 수 있다.
또다른 실시예에 따라, 디스플레이 장치(100)는 대화형 서버(200)로부터 수신된 가이드 정보에 기초하여 생성된 안내 메시지(520)와 함께 기저장된 개체 정보 리스트에 기초하여 생성된 연관 단어 리스트(530)를 화면상에 출력할 수 있다.
그러나, 본 발명은 이에 한정되지 않으며, 대화형 서버(200)는 사용자의 발화 음성이 불완전한 발화임을 안내하는 알림 정보 및 기저장된 이전 발화 음성 정보에 포함된 개체 정보 중 빈도 수가 가장 높은 개체 정보가 사용자의 발화 음성에 추가되도록 유도하기 위한 안내 정보를 포함하는 가이드 정보와 개체 정보 리스트를 디스플레이 장치(100)로 전송할 수 있다. 이 경우, 디스플레이 장치(100)는 대화형 서버(200)로부터 수신한 가이드 정보 및 개체 정보 리스트에 기초하여 안내 메시지 및 연관 단어 리스트(530)를 생성하고, 이를 화면상에 출력할 수 있다.
지금까지, 본 발명에 따른 사용자의 발화 음성을 수집하고, 수집된 발화 음성에 대응되는 동작을 수행하는 디스플레이 장치(100)의 각 구성에 대해서 상세히 설명하였다. 이하에서는, 사용자의 발화 음성에 대응되는 응답 정보를 생성하는 대화형 서버(200)의 각 구성에 대해서 상세히 설명하도록 한다.
도 6은 본 발명의 일 실시예에 따른 대화형 서버의 블록도이다.
도 6에서 설명하는 대화형 서버(600)는 도 2에서 설명한 제2 서버(20)로써, 제1 서버(10)를 통해 텍스트 정보로 변환된 사용자의 발화 음성을 디스플레이 장치(100)로부터 수신한다. 이후, 대화형 서버(600)는 디스플레이 장치(100)로부터 수신된 사용자의 발화 음성에 대한 텍스트 정보로부터 발화 요소를 추출하여 사용자의 발화 음성에 대응되는 응답 정보를 디스플레이 장치(100)로 전송한다. 이 같은 대화형 서버(600)는 도시된 바와 같이, 통신부(610), 추출부(620), 판단부(630), 제어부(640) 및 저장부(650)를 포함한다.
통신부(610)는 디스플레이 장치(100)와 통신을 수행하며, 추출부(620)는 통신부(610)를 통해 디스플레이 장치(100)로부터 수신한 발화 음성으로부터 발화 요소를 추출한다. 판단부(630)는 추출부(620)로부터 추출된 발화 요소로부터 실행 대상을 나타내는 개체 정보가 포함되어 있는지 여부를 판단한다. 제어부(640)는 판단부(630)의 판단 결과에 따라 사용자의 발화 음성에 대응되는 응답 정보를 생성하거나 혹은 가이드 정보를 생성하고, 생성된 응답 정보 혹은 가이드 정보를 디스플레이 장치(100)로 전송하도록 통신부(610)를 제어한다.
구체적으로, 제어부(640)는 사용자의 발화 음성으로부터 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 포함되어 있으면, 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 응답 정보를 생성한다. 한편, 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 포함되어 있지 않으면, 제어부(640)는 저장부(650)에 기저장된 이전 발화 음성 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 가이드 정보를 생성한다.
구체적으로, 추출부(620)는 디스플레이 장치(100)로부터 수신된 텍스트 형태의 발화 음성으로부터 화행에 대한 발화 요소, 주행에 대한 발화 요소 및 개체 정보를 나타내는 발화 요소 중 적어도 하나의 발화 요소를 추출할 수 있다. 전술한 바와 같이, 화행에 대한 발화 요소는 문장의 형태와 관련된 분류 기준으로, 해당 문장이 서술문(Statement), 요청문(Request) 또는 의문문(Qiestion)인지를 나타낸다. 그리고, 주행에 대한 발화 요소는 해당 발화가 특정 도메인에서 대화를 통해 원하는 행위는 나타내는 의미적 정보이다. 그리고, 개체 정보에 대한 발화 요소는 실행 대상을 나타내는 발화 요소로써, 구체적으로, 사용자의 발화에 나타나는 특정 도메인에서 의도하는 행동의 의미를 구체화하기 위한 정보이다.
예를 들어, "○○○(프로그램명)은 언제 해?"라는 발화 음성의 경우, 추출부(620)는 저장부(650)에 저장된 이전 발화 음성 정보에 기초하여 현재 발화 음성과 매칭되거나 혹은 유사한 이전 발화 음성 정보에 태깅된 정보에 기초하여 "해?"라는 의문문 관련 화행의 발화 요소와 "언제"라는 프로그램 시간 찾기 관련 주행의 발화 요소와 "○○○(프로그램명)"라는 프로그램명 관련 개체 정보의 발화 요소를 추출할 수 있다.
이 같이, 사용자의 발화 음성으로부터 발화 요소가 추출되면, 판단부(630)는 추출된 발화 요소로부터 실행 대상을 나타내는 개체 정보에 대한 발화 요소가 포함되어 있는지 여부를 판단한다. 전술한 예와 같이, "○○○(프로그램명)은 언제 해?"라는 발화 음성의 경우, 화행, 주행 및 개체 정보에 대한 발화 요소가 추출될 수 있다. 이 경우, 판단부(630)는 해당 발화 음성으로부터 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 포함된 것으로 판단한다. 따라서, 제어부(640)는 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 응답 정보를 생성한다.
구체적으로, 제어부(640)는 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 서비스를 제공할 도메인을 결정한다. 서비스를 제공할 도메인이 결정되면, 제어부(640)는 기결정된 도메인 내에서 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 응답 정보를 생성할 수 있다.
전술한 예와 같이, "○○○(프로그램명)은 언제 해?"라는 발화 음성의 경우, 제어부(640)는 해당 발화 음성으로부터 추출된 발화 요소에 기초하여 해당 발화 음성이 방송 서비스 도메인에 속하는 것으로 판단한다. 이 같이, 발화 음성이 방송 서비스 도메인에 속하는 것으로 판단되면, 제어부(640)는 EPG(Electronic Program Guide) 정보를 참조하여 "○○○(프로그램명)"의 방송 시간 및 날짜를 검색하고, 검색된 방송 시간 및 날짜 정보를 포함하는 응답 정보를 생성한다.
이후, 통신부(610)는 제어부(640)의 제어 명령에 따라, "○○○(프로그램명)"에 대한 방송 시간 및 날짜 정보를 포함하는 응답 정보를 디스플레이 장치(100)로 전송한다. 이에 따라, 디스플레이 장치(100)는 대화형 서버(600)로부터 수신한 응답 정보에 기초하여 도 4와 같은 응답 메시지를 출력할 수 있다.
또다른 예를 들어, "볼만한 프로그램 있어?"라는 발화 음성에 대한 텍스트 정보가 수신되면, 추출부(620)는 저장부(650)에 기저장된 이전 발화 음성 정보에 기초하여 현재 발화 음성과 매칭되거나 혹은 유사한 이전 발화 음성에 태깅된 정보에 기초하여 있어?"라는 의문문 관련 화행의 발화 요소와 "볼만한", "프로그램"이라는 프로그램 찾기 관련 주행의 발화 요소만 추출할 수 있다. 이 같이, 사용자의 발화 음성으로부터 화행 및 주행에 대한 발화 요소만 추출되면, 판단부(630)는 사용자의 발화 음성에 실행 대상을 나타내는 개체 정보가 포함되지 않은 것으로 판단한다. 즉, 판단부(630)는 사용자의 발화 음성이 불완전 발화 음성인 것으로 판단한다. 따라서, 제어부(640)는 저장부(650)에 기저장된 이전 발화 음성 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 가이드 정보를 생성한다.
실시예에 따라, 제어부(640)는 저장부(650)에 저장된 이전 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보에 기초하여 가이드 정보를 생성할 수 있다. 이때, 제어부(640)는 빈도 수가 높은 개체 정보가 연상되도록 하는 가이드 정보를 생성하는 것이 바람직하다.
실시예에 따라, 제어부(640)는 사용자의 발화 음성이 불완전한 발화이면, 사용자의 발화 음성이 불완전한 발화임을 안내하는 알림 정보 및 저장부(650)에 저장된 이전 발화 음성 정보에 포함된 개체 정보 중 빈도 수가 가장 높은 개체 정보가 사용자의 발화 음성에 추가되도록 유도하기 위한 안내 정보를 포함하는 가이드 정보를 생성할 수 있다. 여기서, 사용자의 발화 음성에 개체 정보가 포함되도록 유도하기 위한 안내 정보는 해당 개체 정보에 대한 단어의 글자 수를 안내하기 위한 정보이다. 예를 들어, 이전 발화 음성 정보에 포함된 개체 정보 중 빈도 수가 가장 높은 개체 정보에 대한 단어가 "드라마"이면, 가이드 정보는 "드라마"라는 단어에 대한 글자 수를 안내하는 안내 정보를 포함할 수 있다.
따라서, 이 같은 가이드 정보가 생성되면, 통신부(610)는 제어부(640)의 제어 명령에 따라, 기생성된 가이드 정보를 디스플레이 장치(100)로 전송한다. 이에 따라, 디스플레이 장치(100)는 도 5와 같이, "다음과 같은 추가 정보를 주세요. 볼만한 □□□ 프로그램 있어?"라는 안내 메시지(520)를 출력할 수 있다.
본 발명의 추가적인 양상에 따라, 제어부(640)는 저장부(650)에 저장된 이전 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보 순으로 개체 정보 리스트를 생성한다. 이때, 제어부(640)는 개체 정보 리스트를 각 도메인 별로 생성할 수 있다. 실시예에 따라, 저장부(650)에 저장된 이전 발화 음성 정보는 도메인 별로 매칭되어 저장될 수 있다. 예를 들어, 이전 발화 음성 정보 중 제1 내지 제10 발화 음성 정보 중 제1 내지 제3 발화 음성 정보는 방송 서비스 도메인에 속하며, 제4 내지 제6 발화 음성 정보가 VOD 도메인에 속하며, 제7 내지 제 10 발화 음성 정보는 디바이스 제어 도메인에 속하는 경우, 저장부(650)는 제1 내지 제10 발화 음성 정보 각각을 각 도메인과 매칭시켜 저장할 수 있다.
이 경우, 제어부(640)는 제1 내지 제3 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보 순으로 생성된 개체 정보 리스트를 방송 서비스 도메인과 매칭시켜 저장하고, 제4 내지 제6 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보 순으로 생성된 개체 정보 리스트를 VOD 도메인과 매칭시켜 저장하며,제7 내지 제10 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보 순으로 생성된 개체 정보 리스트를 디바이스 제어 도메인과 매칭시켜 저장할 수 있다.
한편, 제어부(640)는 저장부(650)에 저장된 이전 발화 음성 정보에 포함된 개체 정보에 기초하여 개체 정보 리스트가 생성되면, 기설정된 이벤트에 따라 기생성된 개체 정보 리스트를 디스플레이 장치(100)로 전송한다.
일 실시예에 따라, 제어부(640)는 저장부(650)에 저장된 이전 발화 음성 정보에 포함된 개체 정보에 기초하여 개체 정보 리스트를 주기적으로 업데이트하여 저장부(650)에 저장하고, 동시에 디스플레이 장치(100)로 전송할 수 있다.
또다른 실시예에 따라, 제어부(640)는 사용자의 추가 발화를 유도하기 위한 가이드 정보가 생성되면, 기생성된 가이드 정보와 함께 저장부(650)에 기저장된 가장 최근의 개체 정보 리스트를 디스플레이 장치(100)로 전송할 수 있다.
따라서, 디스플레이 장치(100)는 대화형 서버(600)로부터 수신된 가이드 정보 및 개체 정보 리스트에 기초하여 도 5와 같이, "다음과 같은 추가 정보를 주세요. 볼만한 □□□ 프로그램 있어?"라는 안내 메시지(520)와 함께 연과 단어 리스트(530)를 생성하여 화면상에 출력할 수 있다.
지금까지, 본 발명에 따른 대화형 서버(600)의 각 구성에 대해서 상세히 설명하였다. 이하에서는, 전술한 디스플레이 장치(100) 및 대화형 서버(600)의 동작을 제어하는 방법에 대해서 구체적으로 설명하도록 한다.
도 7은 본 발명의 일 실시예에 따른 디스플레이 장치의 제어 방법에 대한 흐름도이다.
도 7에 도시된 바와 같이, 디스플레이 장치는 사용자로부터 음성 인식 모드를 개시하기 위한 사용자 명령이 입력되면, 입력된 사용자 명령에 따라 사용자의 음성을 인식할 수 있는 음성 인식 모드로 진입한다. 이 같은 음성 인식 모드로 진입한 상태에서, 디스플레이 장치는 사용자의 발화 음성이 입력되면, 입력된 발화 음성을 수집한다(S710). 사용자의 발화 음성이 수집되면, 디스플레이 장치는 수집된 발화 음성을 디지털 신호로 변환하여 대화형 서버로 전송한다(S720). 이후, 디스플레이 장치는 대화형 서버로부터 사용자의 발화 음성에 대응되는 응답 정보가 수신되는지 여부를 판단하고, 판단 결과, 응답 정보가 수신되면, 수신된 응답 정보에 기초하여 응답 메시지를 출력한다(S730,S740). 한편, 판단 결과, 대화형 서버로부터 가이드 정보가 수신되면, 디스플레이 장치는 수신된 가이드 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 안내 메시지를 생성하고, 생성된 안내 메시지를 출력한다(S750). 여기서, 가이드 정보는 사용자의 발화 음성으로부터 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 불포함되어 사용자의 발화 음성에 대응되는 응답 정보를 생성할 수 없는 경우에 수신되는 정보이다.
실시예에 따라, 대화형 서버는 사용자의 발화 음성이 불완전한 발화임을 안내하는 알림 정보 및 기저장된 이전 발화 음성 정보에 포함된 개체 정보 중 빈도 수가 가장 높은 개체 정보가 사용자의 발화 음성에 추가되도록 유도하기 위한 안내 정보를 포함하는 가이드 정보를 생성할 수 있다. 따라서, 이 같은 가이드 정보가 생성되면, 대화형 서버는 생성된 가이드 정보를 디스플레이 장치로 전송한다. 이에 따라, 디스플레이 장치는 대화형 서버로부터 수신한 가이드 정보에 포함된 알림 정보 및 안내 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 안내 메시지를 출력할 수 있다.
한편, 본 발명의 추가적인 양상에 따라, 디스플레이 장치는 이전 발화 음성 정보에 포함된 개체 정보의 빈도 수에 기초하여 생성된 개체 정보 리스트를 대화형 서버로부터 수신하여 저장할 수 있다. 이 경우, 대화형 서버는 사용자의 발화 음성이 불완전한 발화임을 안내하는 알림 정보를 포함하는 가이드 정보만을 생성하여 디스플레이 장치로 전송할 수 있다. 이 같은 가이드 정보가 수신되면, 디스플레이 장치는 기저장된 개체 정보를 리스트를 참조하여 빈도 수가 가장 높은 개체 정보를 획득한다. 이후, 디스플레이 장치는 대화형 서버로부터 수신된 가이드 정보에 포함된 알림 정보와 기획득한 개체 정보에 대한 단어의 글자 수에 기초하여 안내 메시지를 출력할 수 있다.
그러나, 본 발명은 이에 한정되지 않으며, 디스플레이 장치는 대화형 서버로부터 가이드 정보가 수신되면, 수신된 가이드 정보에 기초하여 생성된 안내 메시지를 출력하는 동시에 기저장된 개체 정보 리스트에 기초하여 생성된 연관 단어 리스트를 화면상에 출력할 수 있다.
그러나, 본 발명은 이에 한정되지 않으며, 디스플레이 장치는 대화형 서버로부터 수신된 가이드 정보 및 개체 정보 리스트를 모두 수신할 수 있다. 이 경우, 디스플레이 장치는 대화형 서버로부터 수신된 가이드 정보에 기초하여 생성된 안내 메시지 및 대화형 서버로부터 수신된 개체 정보 리스트에 기초하여 생성된 연관 단어 리스트를 화면상에 출력할 수 있다.
이하에서는, 사용자의 발화 음성에 대응되는 응답 정보를 디스플레이 장치로 제공하는 대화형 서버의 제어 방법에 대해서 상세히 설명하도록 한다.
도 8은 본 발명의 일 실시예에 따른 대화형 서버의 제어 방법에 대한 흐름도이다.
도 8에 도시된 바와 같이, 대화형 서버는 디스플레이 장치로부터 사용자의 발화 음성을 수신한다(S810). 디스플레이 장치로부터 사용자의 발화 음성이 수신되면, 대화형 서버는 수신된 발화 음성을 텍스트 정보로 변환한다. 그러나, 본 발명은 이에 한정되지 않으며, 대화형 서버는 디스플레이 장치로부터 텍스트 정보로 변환된 사용자의 발화 음성을 수신할 수 있다. 이 경우, 디스플레이 장치는 도 2에서 설명한 제1 서버로 사용자의 발화 음성을 전송하고, 제1 서버로부터 텍스트 정보로 변환된 사용자의 발화 음성이 수신되면, 이를 대화형 서버로 전송할 수 있다. 이 경우, 대화형 서버는 수신된 발화 음서에 대해서 별도의 텍스트 정보를 변환하는 동작을 생략할 수 있다.
이 같이 사용자의 발화 음성이 텍스트 정보로 변환되거나, 텍스트 정보로 변환된 사용자의 발화 음성이 수신되면, 대화형 서버는 텍스트 정보로 변환된 사용자의 발화 음성으로부터 발화 요소를 추출한다(S820). 이후, 대화형 서버는 추출된 발화 요소로부터 실행 대상을 나타내는 개체 정보가 포함되어 있는지 여부를 판단한다(S830). 판단 결과, 추출된 발화 요소에 실행 대상을 나타내는 발화 요소가 포함되어 있으면, 대화형 서버는 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 응답 정보를 생성하여 디스플레이 장치로 전송한다(S840).
구체적으로, 대화형 서버는 텍스트 형태의 발화 음성으로부터 화행에 대한 발화 요소, 주행에 대한 발화 요소 및 개체 정보를 나타내는 발화 요소 중 적어도 하나의 발화 요소를 추출할 수 있다. 이 같이 사용자의 발화 음성으로부터 발화 요소가 추출되면, 대화형 서버는 추출된 발화 요소 중 실행 대상을 나타내는 개체 정보에 대한 발화 요소가 포함되어 있는지를 판단한다. 개체 정보에 대한 발화 요소가 포함되어 있으면, 대화형 서버는 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 서비스를 제공할 도메인을 결정한다. 이후, 대화형 서버는 기결정된 서비스 도메인 내에서 사용자의 발화 음성으로부터 추출된 발화 요소에 기초하여 응답 정보를 생성하고, 이를 디스플레이 장치로 전송할 수 있다.
한편, 판단 결과, 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 포함되어 있지 않으면, 대화형 서버는 기저장된 이전 발화 음성 정보에 기초하여 사용자의 추가 발화를 유도하기 위한 가이드 정보를 생성하여 디스플레이 장치로 전송한다(S850). 즉, 대화형 서버는 사용자의 발화 음성으로부터 추출된 발화 요소 중 개체 정보에 대한 발화 요소가 포함되지 않은 것으로 판단되면, 해당 발화 음성이 불완전 발화인 것으로 판단한다. 따라서, 대화형 서버는 사용자의 추가 발화 를 유도하기 위한 가이드 정보를 생성할 수 있다. 이때, 대화형 서버는 기저장된 이전 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보에 기초하여 가이드 정보를 생성하고, 생성된 가이드를 정보를 디스플레이 장치로 전송할 수 있다(S860). 여기서, 가이드 정보는 사용자의 발화 음성이 불완전 발화임을 안내하기 위한 알림 정보 및 기저장된 이전 발화 음성 정보에 포함된 개체 정보 중 빈도 수가 높은 개체 정보가 사용자의 발화 음성에 추가되도록 유도하기 위한 안내 정보를 포함할 수 있다. 예를 들어, 이전 발화 음성 정보에 포함된 개체 정보 중 빈도 수가 가장 높은 개체 정보에 대한 단어가 "드라마"이면, 가이드 정보는 "드라마"라는 단어에 대한 글자 수를 안내하는 안내 정보를 포함할 수 있다.
따라서, 대화형 서버는 이 같은 알림 정보 및 안내 정보를 포함하는 가이드 정보를 생성하여 디스플레이 장치로 전송할 수 있다. 가이드 정보를 디스플레이 장치로 전송한 후, 대화형 서버는 기저장된 이전 발화 음성 정보에 포함된 개체 정보를 분석하여 빈도 수가 높은 개체 정보 순으로 개체 정보 리스트를 생성하여 디스플레이 장치로 전송할 수 있다. 이때, 대화형 서버는 개체 정보 리스트를 각 도메인 별로 생성하며, 각 도메인 별로 생성된 개체 정보 리스트를 디스플레이 장치로 전송할 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
10 : 제1 서버 20 : 제2 서버
100 : 디스플레이 장치 110, 610 : 통신부
120 : 음성 수집부 130, 640 : 제어부
140 : 출력부 141 : 디스플레이부
143 : 오디오 출력부 150, 650 : 저장부
200, 600 : 대화형 서버 620 : 추출부
630 : 판단부
100 : 디스플레이 장치 110, 610 : 통신부
120 : 음성 수집부 130, 640 : 제어부
140 : 출력부 141 : 디스플레이부
143 : 오디오 출력부 150, 650 : 저장부
200, 600 : 대화형 서버 620 : 추출부
630 : 판단부
Claims (14)
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 음성 및 영상 중 적어도 하나를 출력하는 출력부;
사용자 발화 음성을 수집하는 음성 수집부;
상기 발화 음성을 대화형 서버로 전송하고, 상기 발화 음성에 기초하여 생성된 응답 정보를 수신하는 통신부;
상기 대화형 서버로부터 응답 정보가 수신되면, 상기 수신된 응답 정보에 기초하여 상기 발화 음성에 대응되는 응답 메시지를 출력하고,
상기 대화형 서버로부터 가이드 정보가 수신되면, 상기 수신된 가이드 정보에 기초하여 상기 사용자의 추가 발화를 유도하기 위한 안내 메시지를 출력하도록 상기 출력부를 제어하는 제어부를 포함하며,
상기 가이드 정보는,
상기 발화 음성으로부터 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 불포함되어 상기 응답 정보를 생성할 수 없는 경우에 수신되는 정보이고,
상기 제어부는,
상기 수집된 발화 음성에 디스플레이 장치에 대한 제어 정보가 포함되어 있지 않으면, 상기 수집된 발화 음성이 상기 대화형 서버로 전송하도록 상기 통신부를 제어하는 디스플레이 장치. - 제 6 항에 있어서,
이전 발화 음성 정보에 포함된 개체 정보의 빈도 수에 기초하여 생성된 개체 정보 리스트를 저장하는 저장부;를 더 포함하며,
상기 제어부는,
상기 가이드 정보 및 상기 개체 정보 리스트에 기초하여 빈도 수가 높은 개체 정보가 연상되도록 하는 안내 메시지를 생성하는 것을 특징으로 하는 디스플레이 장치. - 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 디스플레이 장치의 제어 방법에 있어서,
사용자의 발화 음성을 수집하는 단계;
상기 발화 음성을 대화형 서버로 전송하는 단계; 및
상기 대화형 서버로부터 상기 발화 음성에 기초하여 생성된 응답 정보가 수신되면, 상기 수신된 응답 정보에 기초하여 상기 발화 음성에 대응되는 응답 메시지를 출력하고,
상기 대화형 서버로부터 가이드 정보가 수신되면, 상기 수신된 가이드 정보에 기초하여 상기 사용자의 추가 발화를 유도하기 위한 안내 메시지를 출력하는 단계;를 포함하며,
상기 가이드 정보는,
상기 발화 음성으로부터 추출된 발화 요소에 실행 대상을 나타내는 개체 정보가 불포함되어 상기 응답 정보를 생성할 수 없는 경우에 수신되는 정보이고,
상기 전송하는 단계는,
상기 수집된 발화 음성에 상기 디스플레이 장치에 대한 제어 정보가 포함되어 있지 않으면, 상기 수집된 발화 음성을 상기 대화형 서버로 전송하는 제어 방법. - 제 13 항에 있어서,
상기 출력하는 단계는,
상기 가이드 정보 및 이전 발화 음성 정보에 포함된 객체 정보의 빈도 수에 기초하여 생성되어 기저장된 개체 정보 리스트에 기초하여 빈도 수가 높은 개체 정보가 연상되도록 하는 안내 메시지를 생성하는 것을 특징으로 하는 제어 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130025819A KR102084739B1 (ko) | 2013-03-11 | 2013-03-11 | 대화형 서버, 디스플레이 장치 및 제어 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130025819A KR102084739B1 (ko) | 2013-03-11 | 2013-03-11 | 대화형 서버, 디스플레이 장치 및 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140111538A KR20140111538A (ko) | 2014-09-19 |
KR102084739B1 true KR102084739B1 (ko) | 2020-04-14 |
Family
ID=51756980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130025819A KR102084739B1 (ko) | 2013-03-11 | 2013-03-11 | 대화형 서버, 디스플레이 장치 및 제어 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102084739B1 (ko) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160056548A (ko) | 2014-11-12 | 2016-05-20 | 삼성전자주식회사 | 질의 응답을 위한 디스플레이 장치 및 방법 |
KR102298767B1 (ko) * | 2014-11-17 | 2021-09-06 | 삼성전자주식회사 | 음성 인식 시스템, 서버, 디스플레이 장치 및 그 제어 방법 |
KR101709961B1 (ko) * | 2015-02-09 | 2017-02-27 | 김남주 | 언어 노출 정도 모니터링 장치 및 방법 |
WO2017039153A1 (ko) * | 2015-09-02 | 2017-03-09 | 삼성전자 주식회사 | 서버 장치, 사용자 단말 장치, 그 제어 방법 및 전자 시스템 |
US10521723B2 (en) | 2016-12-14 | 2019-12-31 | Samsung Electronics Co., Ltd. | Electronic apparatus, method of providing guide and non-transitory computer readable recording medium |
KR102448719B1 (ko) * | 2017-09-19 | 2022-09-29 | 현대자동차주식회사 | 대화 시스템과 이를 포함하는 차량 및 모바일 기기와 대화 처리 방법 |
KR102080931B1 (ko) * | 2017-11-14 | 2020-02-24 | (주) 엔에이치엔다이퀘스트 | 음성 대화 제어 방법 및 장치 |
KR101970899B1 (ko) * | 2017-11-27 | 2019-04-24 | 주식회사 머니브레인 | 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 |
KR101959292B1 (ko) * | 2017-12-08 | 2019-03-18 | 주식회사 머니브레인 | 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 |
KR102503936B1 (ko) | 2017-12-29 | 2023-02-28 | 삼성전자주식회사 | 사용자 발화를 처리하는 디스플레이 장치 및 그 디스플레이 장치의 제어 방법 |
KR101974129B1 (ko) * | 2018-01-30 | 2019-08-23 | 동서대학교 산학협력단 | 실시간 이벤트 처리 모듈 기반의 음성 인식 챗봇 ifttt 서비스 시스템 및 이를 이용한 챗봇 ifttt 서비스 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
JP2004021028A (ja) * | 2002-06-18 | 2004-01-22 | Toyota Central Res & Dev Lab Inc | 音声対話装置及び音声対話プログラム |
JP2007033478A (ja) * | 2005-07-22 | 2007-02-08 | Hitachi Ltd | マルチモーダル対話システム及びマルチモーダルアプリケーション生成ウィザード |
-
2013
- 2013-03-11 KR KR1020130025819A patent/KR102084739B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
JP2004021028A (ja) * | 2002-06-18 | 2004-01-22 | Toyota Central Res & Dev Lab Inc | 音声対話装置及び音声対話プログラム |
JP2007033478A (ja) * | 2005-07-22 | 2007-02-08 | Hitachi Ltd | マルチモーダル対話システム及びマルチモーダルアプリケーション生成ウィザード |
Also Published As
Publication number | Publication date |
---|---|
KR20140111538A (ko) | 2014-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102084739B1 (ko) | 대화형 서버, 디스플레이 장치 및 제어 방법 | |
US11854570B2 (en) | Electronic device providing response to voice input, and method and computer readable medium thereof | |
US11869500B2 (en) | Apparatus, system, and method for generating voice recognition guide by transmitting voice signal data to a voice recognition server which contains voice recognition guide information to send back to the voice recognition apparatus | |
JP6802305B2 (ja) | 対話型サーバ、ディスプレイ装置及びその制御方法 | |
US9886952B2 (en) | Interactive system, display apparatus, and controlling method thereof | |
US9412368B2 (en) | Display apparatus, interactive system, and response information providing method | |
KR102056461B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
EP2675153A1 (en) | Display apparatus, interactive server, and method for providing response information | |
EP2919472A1 (en) | Display apparatus, method for controlling display apparatus, and interactive system | |
US20140123185A1 (en) | Broadcast receiving apparatus, server and control methods thereof | |
KR20140074229A (ko) | 음성 인식 장치 및 그 제어 방법 | |
US20130041666A1 (en) | Voice recognition apparatus, voice recognition server, voice recognition system and voice recognition method | |
KR20140008870A (ko) | 컨텐츠 정보 제공 방법 및 이를 적용한 방송 수신 장치 | |
KR20150100322A (ko) | 서버 및 이의 가이드 문장 생성 방법 | |
KR101660269B1 (ko) | 대화형 서버, 그 제어 방법 및 대화형 시스템 | |
KR20190140890A (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
KR102049833B1 (ko) | 대화형 서버, 디스플레이 장치 및 그 제어 방법 | |
KR20140137263A (ko) | 대화형 서버, 디스플레이 장치 및 제어 방법 | |
KR20140115844A (ko) | 대화형 서버, 디스플레이 장치 및 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |