KR100807307B1 - 대화형 음성 인터페이스 시스템 및 그 응답 방법 - Google Patents

대화형 음성 인터페이스 시스템 및 그 응답 방법 Download PDF

Info

Publication number
KR100807307B1
KR100807307B1 KR1020060064484A KR20060064484A KR100807307B1 KR 100807307 B1 KR100807307 B1 KR 100807307B1 KR 1020060064484 A KR1020060064484 A KR 1020060064484A KR 20060064484 A KR20060064484 A KR 20060064484A KR 100807307 B1 KR100807307 B1 KR 100807307B1
Authority
KR
South Korea
Prior art keywords
sentence
unit
door frame
voice
information
Prior art date
Application number
KR1020060064484A
Other languages
English (en)
Other versions
KR20080005745A (ko
Inventor
김상훈
오승신
윤승
박경현
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060064484A priority Critical patent/KR100807307B1/ko
Priority to US11/651,261 priority patent/US20080010070A1/en
Publication of KR20080005745A publication Critical patent/KR20080005745A/ko
Application granted granted Critical
Publication of KR100807307B1 publication Critical patent/KR100807307B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 대화형 음성 인터페이스 시스템 및 그 응답 방법에 관한 것으로서, 특히 본 발명의 시스템은, 입력된 사용자 음성을 인식하는 음성 인식부와, 복수개의 문장 정보 컨텐츠에서 매칭되는 정보를 검색하는 지식 검색부와, 인식된 음성의 문자열 신호에 대응하는 정보를 지식 검색부에 전달하고 검색된 정보로 대화 모델을 설정하는 대화 모델부와, 설정된 대화 모델에 기인하여 문틀 후보를 생성하고, 사용자 발성 문장에 조응 및 시스템 상황에 따른 문장의 어미 양태를 결정하여 출력 문장을 생성하는 시스템 응답부와, 출력 문장을 음성으로 변환하여 출력하는 음성 합성부를 포함한다. 그러므로, 본 발명은 사용자 의도에 조응하며 시스템 상황에 적절한 시스템 양태를 표현하기 위한 출력 문장을 생성함으로써, 사람간의 대화처럼 자연스러운 대화형 음성 인터페이스를 구현할 수 있다.
대화형 음성 인터페이스, 어미 양태, 억양 양태

Description

대화형 음성 인터페이스 시스템 및 그 응답 방법{SPOKEN DIALOG SYSTEM FOR HUMAN COMPUTER INTERFACE AND RESPONSE METHOD THEREIN}
도 1은 종래 기술에 의한 대화형 음성 인터페이스 시스템을 간략하게 나타낸 구성도,
도 2는 본 발명에 따른 대화형 음성 인터페이스 시스템을 간략하게 나타낸 구성도,
도 3은 본 발명에 따른 대화형 음성 인터페이스 시스템의 시스템 응답부 구성을 보다 상세하게 나타낸 구성도,
도 4는 본 발명에 따른 대화형 음성 인터페이스 시스템의 응답 방법을 순차적으로 나타낸 흐름도.
<도면의 주요부분에 대한 부호의 설명>
100 : 음성 인식부 102 : 대화 모델부
104 : 지식 검색부 106 : 정보 컨텐츠 데이터베이스
108 : 시스템 응답부 110 : 음성 합성부
본 발명은 대화형 음성 인터페이스 시스템 및 그 응답 방법에 관한 것으로서, 특히 HCI(Human Computer Interface)의 음성 인터페이스를 갖는 대화형 음성 인터페이스 시스템에서 사용자의 의도 및 양태에 따른 출력 문장을 생성하여 사용자와 시스템간의 자연스러운 대화를 구현할 수 있는 대화형 음성 인터페이스 시스템 및 그 응답 방법에 관한 것이다.
일반적으로, HCI는 비교적 새로운 분야로서 무엇보다 쓰기 쉬운 컴퓨터 시스템을 디자인하는데 초점을 맞추고 있다. HCI의 기본적인 개념들은 개발자 중심이 아닌 사용자 중심의 컴퓨터 시스템을 개발하는 과정에서 구체화되었는데, 컴퓨터 작동 시스템이 인간과 상호 작용할 수 있게 컴퓨터 작동시스템을 디자인-평가-완성하는 과정을 주로 다룬다.
한편, 일반적인 HCI 방식의 대화형 음성 인터페이스 시스템은 지능형 로봇, 텔레매틱스, 디지털 홈 등의 시스템에 적용되어 날씨 검색, 일정 관리, 뉴스 검색, TV 프로그램 가이드, 전자 메일 관리 등의 기능을 수행한다.
이러한 대화형 음성 인터페이스 시스템은, 사용자 의도와 이에 응답하는 시스템 의도가 쌍으로 이루어진 대량의 대화 예문을 통해하는 대화형 정보검색 서비스에서 출력 문장을 생성하거나, 문틀(template) 데이터베이스를 미리 구축해놓고 검색 결과인 정보 컨텐츠를 문틀에 채워 출력 문장을 생성하거나, 시스템 문법을 이용한 구문/형태소/텍스트 생성 등 자연어 처리를 통해 문어체 스타일의 출력 문장을 생성하는 방법 등이 있다.
도 1은 종래 기술에 의한 대화형 음성 인터페이스 시스템을 간략하게 나타낸 구성도이다.
도 1에 도시된 바와 같이, 종래 기술에 의한 HCI 방식의 대화형 음성 인터페이스 시스템의 일 예는, 음성 인식부(10), 대화 모델부(12), 지식 검색부(14), 정보 컨텐츠 데이터베이스(DB)(16), 음성 합성부(18) 등으로 구성된다.
음성 인식부(10)는 사용자의 음성을 검출하고, 입력된 음성을 소정의 레벨로 증폭한 후에, 음성 신호의 특정 파라미터를 추출하여 소정의 처리 과정을 통해 임의의 음성 인식 결과에 따른 문자열 신호를 대화 모델부(12)에 전달한다.
대화 모델부(12)는 음성 인식부(10)에서 인식된 문자열 신호에 대응하는 정보를 지식 검색부(14)를 통해 정보 컨텐츠 데이터베이스(DB)(16)에서 검색한 후에 검색된 정보를 이용하여 사용자에게 응답할 출력 문장을 생성한다.
지식 검색부(14)는 대화 모델부(12)에서 제공된 음성 인식부(10)의 문자열 신호에 대해 정보 컨텐츠 데이터베이스(DB)(16)에 저장된 정보 중에서 문장 패턴이 매칭되는 정보를 검색한다.
정보 컨텐츠 데이터베이스(DB)(16)는 사용자 응답 문장에 사용될 문장 정보 컨텐츠, 예를 들어 날씨 검색, 일정 관리, 뉴스 검색, TV 프로그램 가이드, 전자 메일 관리 등을 저장한다.
음성 합성부(18)는 대화 모델부(12)에서 생성된 출력 문장을 음성으로 변환하여 출력한다.
이와 같이 구성된 종래 기술에 의한 대화형 음성인터페이스 시스템은, 정보전달이 주목적이기 때문에 시스템 정보가 명료하게 사용자에게 출력 문장의 음성으 로 전달된다.
하지만, 종래 시스템은 단순히 패턴 매칭을 이용함으로써 입력된 사용자 의도와 생성된 출력 문장 사이의 불일치가 나타나기도 한다. 즉, 실제 대화 상황에서 사용자가 원하는 정보뿐만 아니라 사용자의 의도에 조응하는 출력 문장과 시스템 상황에 따른 양태 정보까지 사용자에게 전달되어야만 마치 사람간 대화가 이루어지듯 사용자와 시스템간 자연스러운 대화가 가능해진다. 그러나, 종래 기술에 의한 대화형 음성 인터페이스 시스템은 사용자의 세밀한 의도에 정확하게 조응하지 못하거나, 시스템 상황에 따른 시스템 양태(발화 내용에 대한 화자의 태도)를 시스템 응답에 반영하지 못하여 자연스러운 대화가 이루어지지 못하는 문제점이 있었다.
본 발명의 목적은, 상기와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 사용자 의도에 조응하며 시스템 상황에 적절한 시스템 양태를 표현하기 위한 출력 문장을 생성함으로써, 사람간의 대화처럼 자연스러운 대화형 음성 인터페이스를 구현할 수 있는 대화형 음성 인터페이스 시스템 및 그 응답 방법을 제공하는데 있다.
상기 목적을 달성하기 위하여 본 발명은, 입력된 사용자 음성에 대해 임의의 음성 정보를 출력하는 대화형 음성 인터페이스 시스템에 있어서, 입력된 사용자 음성을 인식하는 음성 인식부와, 복수개의 문장 정보 컨텐츠에서 매칭되는 정보를 검색하는 지식 검색부와, 인식된 음성의 문자열 신호에 대응하는 정보를 지식 검색부 에 전달하고 검색된 정보로 대화 모델을 설정하는 대화 모델부와, 설정된 대화 모델에 기인하여 문틀 후보를 생성하고, 사용자 발성 문장에 조응 및 시스템 상황에 따른 문장의 어미 양태를 결정하여 출력 문장을 생성하는 시스템 응답부와, 출력 문장을 음성으로 변환하여 출력하는 음성 합성부를 포함한다.
상기 목적을 달성하기 위하여 본 발명의 방법은, 입력된 사용자 음성에 대해 임의의 음성 정보를 출력하는 대화형 음성 인터페이스 시스템의 응답 방법에 있어서, 입력된 사용자 음성을 인식하는 단계와, 인식된 음성의 문자열 신호에 대응하는 정보를 토대로 복수개의 문장 정보 컨텐츠에서 매칭되는 정보를 검색하고 검색된 정보로 대화 모델을 설정하는 단계와, 설정된 대화 모델에 기인하여 문틀 후보를 생성하고, 사용자 발성 문장에 조응 및 시스템 상황에 따른 문장의 어미 양태를 결정하여 출력 문장을 생성하는 단계와, 출력 문장을 음성으로 변환하여 출력하는 단계를 포함한다.
이하, 본 발명의 가장 바람직한 실시예를 첨부한 도면을 참조하여 본 발명의 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 더욱 상세히 설명하기로 한다.
도 2는 본 발명에 따른 대화형 음성 인터페이스 시스템을 간략하게 나타낸 구성도이다.
도 2에 도시된 바와 같이, 본 발명에 따른 대화형 음성 인터페이스 시스템의 일 예는, 음성 인식부(100), 대화 모델부(102), 지식 검색부(104), 정보 컨텐츠 데 이터베이스(DB)(106), 시스템 응답부(108), 음성 합성부(110) 등으로 구성된다.
음성 인식부(100)는 사용자의 음성을 검출하고, 입력된 음성을 소정의 레벨로 증폭한 후에, 음성 신호의 특정 파라미터를 추출하여 소정의 처리 과정을 통해 임의의 음성 인식 결과에 따른 문자열 신호를 대화 모델부(102)에 전달한다.
대화 모델부(102)는 음성 인식부(100)에서 인식된 문자열 신호에 대응하는 정보를 지식 검색부(104)를 통해 정보 컨텐츠 데이터베이스(DB)(106)에서 검색한 후에 검색된 정보를 이용하여 대화 모델을 설정한다.
지식 검색부(104)는 대화 모델부(102)에서 제공된 음성 인식부(100)의 문자열 신호에 대해 정보 컨텐츠 데이터베이스(DB)(106)에 저장된 정보 중에서 문장 패턴이 매칭되는 정보를 검색한다.
정보 컨텐츠 데이터베이스(DB)(106)는 사용자 응답 문장에 사용될 문장 정보 컨텐츠, 예를 들어 날씨 검색, 일정 관리, 뉴스 검색, TV 프로그램 가이드, 전자 메일 관리 등을 저장한다.
시스템 응답부(108)는, 대화 모델부(102)에서 생성된 대화 모델에 기인하여 문틀 후보 문장을 생성하고, 후보 문장 중에서 사용자 발성 문장에 조응(照應)하는 문장을 선정하고, 시스템 상황에 따른 문장의 어미 양태(樣態)를 결정하고, 시스템 억양 양태를 할당하여 출력 문장을 생성하여 이를 음성 합성부(110)에 전달한다.
음성 합성부(110)는 시스템 응답부(108)에서 생성된 출력 문장을 음성으로 변환하여 출력한다.
이와 같이 구성된 본 발명에 따른 대화형 음성인터페이스 시스템은, 음성 인 식부(100)를 통해 사용자의 음성을 검출하고, 입력된 음성을 소정의 레벨로 증폭한 후에, 음성 신호의 특정 파라미터를 추출하여 소정의 처리 과정을 통해 임의의 음성 인식 결과에 따른 문자열 신호를 대화 모델부(102)에 전달한다. 대화 모델부(102)에서는, 음성 인식부(100)에서 인식된 문자열 신호에 대응하는 정보를 지식 검색부(104)를 통해 정보 컨텐츠 데이터베이스(DB)(106)에서 검색한 후에 검색된 정보를 이용하여 사용자에게 응답할 문장 정보를 생성한다. 시스템 응답부(108)에서는, 대화 모델부(102)에서 생성된 후보 문장에 사용자 발성 문장에 조응(照應)하는 문장을 선정하고, 시스템 상황에 따른 문장의 어미 양태(樣態)를 결정하고, 시스템 억양 양태를 할당하여 출력 문장을 생성하여 이를 음성 합성부(110)에 전달한 후에, 음성 합성부(110)를 통해 음성으로 변환하여 출력한다.
그러므로, 본 발명에 따른 대화형 음성 인터페이스 시스템은, 시스템 응답부(108)를 별도로 구비하여 사용자 발성 문장에 조응하며 시스템 상황에 따라 어미 양태 및 억양 양태를 할당하여 출력 문장을 생성함으로써, 사용자와 음성 인터페이스간에 자연적인 대화 정보를 주고 받을 수 있도록 한다.
도 3은 본 발명에 따른 대화형 음성 인터페이스 시스템의 시스템 응답부 구성을 보다 상세하게 나타낸 구성도이다.
도 3에 도시된 바와 같이, 본 발명에 따른 대화형 음성 인터페이스 시스템의 시스템 응답부(108)는, 문틀 후보 생성부(1080), 문틀 데이터베이스(DB)(1081), 문틀 선정부(1083), 조응 규칙 데이터베이스(DB)(1084), 어미 양태 결정부(1085), 어미 양태 규칙 데이터베이스(DB)(1086), 억양 양태 결정부(1087), 억양 양태 규칙 데이터베이스(DB)(1089) 등을 포함한다.
문틀 후보 생성부(1080)는, 대화 모델부(102)에서 생성된 대화 모델 정보에 의해 문틀 데이터베이스(DB)(1081)로부터 문틀 후보 문장을 생성하여 문틀 선정부(1083)에 전달한다.
문틀 데이터베이스(DB)(1081)는, 문틀 후보 생성부(1080)에 제공하기 위한 복수개의 문틀 후보 문장을 저장한다.
문틀 선정부(1083)는, 문틀 후보 생성부(108)에서 생성된 문틀 후보 문장 중 사용자 발성 문장의 조응 규칙에 조응(照應)하는 문장을 선정하여 어미 양태 결정부(1085)에 전달한다.
조응 규칙 데이터베이스(DB)(1084)는, 문틀 선정부(1083)에 제공하기 위한 복수개의 문장 조응 규칙을 저장한다.
어미 양태 결정부(1085)는, 문틀 선정부(1083)에서 선정된 문장에 시스템 상황에 따른 문장의 어미 양태(樣態)를 결정하여 이를 억양 양태 결정부(1087)에 전달한다.
어미 양태 규칙 데이터베이스(DB)(1086)는, 어미 양태 결정부(1085)에 제공하기 위한 복수개의 어미 양태 규칙을 저장한다.
억양 양태 결정부(1087)는, 어미 양태 결정부(1085)에서 결정된 문장에 시스템의 억양 양태를 할당하여 이를 출력 문장으로서 음성 합성부(110)에 전달한다.
억양 양태 규칙 데이터베이스(DB)(1089)는, 억양 양태 결정부(1087)에 제공하기 위한 복수개의 억양 양태 규칙을 저장한다.
그러므로, 본 발명에 따른 대화형 음성 인터페이스 시스템의 시스템 응답부(108)는, 문틀 후보 생성부(1080)를 통해 사용자에게 출력할 복수개의 문틀 후보 문장을 생성하고, 문틀 선정부(1083)를 통해 사용자 발성 문장의 조응 규칙에 따라 후보 문장 중에서 임의의 문틀 문장을 선정한다. 그리고, 어미 양태 결정부(1085) 및 억양 양태 결정부(1087)를 통해 시스템 상황에 따라 문틀 선정부(1083)에서 선정된 문장에 어미 양태 및 억양 양태를 할당하여 출력 문장을 생성함으로써, 사용자와 음성 인터페이스간에 자연적인 대화 정보를 주고받을 수 있도록 한다.
도 4는 본 발명에 따른 대화형 음성 인터페이스 시스템의 응답 방법을 순차적으로 나타낸 흐름도이다.
도 2 내지 도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 대화형 음성 인터페이스 시스템의 응답 방법은 다음과 같이 순차적으로 진행된다.
우선, 본 발명에 따른 대화형 음성 인터페이스 시스템의 음성 인식부(100)는 사용자의 음성을 검출하고, 입력된 음성을 소정의 레벨로 증폭한 후에, 음성 신호의 특정 파라미터를 추출하여 소정의 처리 과정을 통해 임의의 음성 인식 결과에 따른 문자열 신호를 대화 모델부(102)에 전달한다.
대화 모델부(102)는, 음성 인식부(100)에서 인식된 문자열 신호에 대응하는 정보를 지식 검색부(104)를 통해 정보 컨텐츠 데이터베이스(DB)(106)에서 검색한 후에 검색된 정보를 이용하여 대화 모델을 설정한다. 예를 들어, 대화 모델 설정 정보는 서비스 영역 정보(날씨, 일정, 뉴스, TV 프로그램 가이드, 전자 메일 등), 화행/시스템액션 정보, 개념열 정보(사람, 장소, 시간, 횟수, 날자, 장르, 프로그 램 등), 정보 검색 결과 등이 된다.(S100)
본 발명에 따른 대화형 음성 인터페이스 시스템의 시스템 응답부(108)는, 문틀 후보 생성부(1080)를 통해 대화 모델부(102)에서 생성된 대화 모델 정보에 의해 문틀 데이터베이스(DB)(1081)로부터 복수개의 문틀 후보 문장을 생성(추출)한다.(S102)
시스템 응답부(108)는, 조응 규칙 데이터베이스(DB)(1084)를 통해 사용자 발성 문장으로부터 문장 조응 특징을 추출한다.(S104) 예를 들어, 조응 규칙 데이터베이스(DB)(1084)에는 단어 난이도 테이블, 의미 강도 표현 부사 테이블, 감정 감탄사, 감정 형용사, 감정 명사 테이블 등의 조응 특징을 갖는 데이터가 저장되어 있다.
시스템 응답부(108)는, 문틀 선정부(1083)를 통해 문틀 후보 생성부(108)에서 생성된 문틀 후보 문장 중 상기 추출된 사용자 발성 문장의 조응 규칙(특징)에 조응(照應)하는 문장을 적용할 것인지 판단한다.(S106)
S106 판단 결과, 조응 규칙을 적용할 경우 시스템 응답부(108)는, 문틀 선정부(1083)를 통해 문틀 후보 생성부(108)에서 생성된 문틀 후보 문장 중 상기 추출된 사용자 발성 문장의 조응 규칙(특징)에 조응(照應)하는 문장을 선정한다.(S108) 만약 S106 판단 결과, 조응 규칙을 적용하지 않을 경우 시스템 응답부(108)는, 다음 과정을 수행한다.
예를 들어, 표 1은 사용자 발성 문장에 조응하는 적용 규칙(예컨대 6가지)을 적용하여 복수개 후보의 문틀 중 최적 문틀을 선정하는 예를 나타낸 것이다.
적용 규칙 적용 예시
1 발성 입력문과 가장 유사한 문형의 문틀 적용 User> 오늘 날씨가 어때? System> 오늘 날씨는 맑습니다
2 사용자의 발화에 나타난 단어 난이도와 유사하거나 보다 쉬운 수준의(유사한 것을 고르는 것과 상치되는 방법이 아닌가.) 단어를 사용한 문틀 적용 User> 몸이 안좋은데 어떻게 하지? System> 운동을 하지 마시고 깊이 주무세요. User> 체력이 허약한데 어떻게 해? System> 운동을 삼가하시고, 숙면을 취하세요.
3 사용자의 입력문 강도에 따라 출력문 문틀 적용 User> 수고했다 System> 감사합니다 User> 너 오늘 너무너무 수고했다 System> 별 말씀을요. 이용해 주셔서 제가 오히려 감사합니다
4 사용자의 발성문장에 적절한 '네' '아, 네' '아니오' 등의 응답어 삽입하여 문틀 적용 User> 내일 골프를 치려고 하는데 날씨가 어때? System> 아 네, 내일은 비가 옵니다. User> 내일은 약속이 없나? System> 아니오, 오후에 약속이 있습니다.
5 의미적 강도에 따른 적절한 레벨의 출력문 문틀 적용 User> 방이 뜨뜻하네 System> 온도가 괜찮으세요? User> 방이 더워! System> 온도를 낮춰드릴까요?
6 감정감탄사, 감정형용사, 감정명사 등이 단독 또는 다른 문장과 함께 나타났을 경우 이에 대해 적절한 문틀 적용 User> 아차! System> 무슨 일 있으세요? User>: 아이고! System> 안 좋은 일 있으세요?
그리고 시스템 응답부(108)는, 시스템 상황에 따른 표현 규칙을 적용할 것인지 판단한다.(S110)
S110 판단 결과, 시스템 상황에 따른 표현 규칙을 적용할 경우 시스템 응답부(108)는, 시스템 상황에 따른 표현 문틀의 문장을 선정한다.(S112) 만약 S110 판단 결과, 시스템 상황에 따른 표현 규칙을 적용하지 않을 경우 시스템 응답부(108)는, 기본 문틀을 생성하고 이를 출력 문장으로서 음성 합성부(110)에 전달하여 출력한다.(S124∼S122)
예를 들어, 표 2는 시스템 상황에 따른 표현의 적용 규칙(예컨대 사용자 확인 요구, 확인 답변 요청, 답이 없는 경우 등)을 적용하여 시스템 상황에 따른 표현 문틀의 문장을 선정하는 예를 나타낸 것이다.
적용 규칙 적용 예시
1 시스템이 사용자의 확인(confirmation)을 요구하는 경우 User> 내일 날씨가 어때? System> 대전 날씨요?
2 사용자가 확인답변 요청한 경우 User> 그 프로 녹화했어? System> 네. 야구 녹화했습니다.
3 원래 수행 불가능한 질문과 수행 가능하나 답이 없는 경우, 그리고 현 시점에서 답이 없는 경우 User> 다음주 프로그램 알려줘? System> 현재 다음주 프로그램이 없습니다.
그 다음 시스템 응답부(108)는, 시스템 상황에 따른 어미 양태 변형 규칙을 적용할 것인지 판단한다.(S114)
S114 판단 결과, 시스템 응답부(108)는, 시스템 상황에 따른 어미 양태 변형 규칙을 적용할 경우 어미 양태 결정부(1085)를 통해 문틀 선정부(1083)에서 선정된 문장에 시스템 상황에 따른 문장의 어미 양태(樣態)를 할당한다.(S116) 만약 S116 판단 결과, 시스템 상황에 따른 어미 양태 변형 규칙을 적용하지 않을 경우 시스템 응답부(108)는, 다음 과정을 수행한다.
예를 들어, 표 3은 시스템 상황에 따른 어미 양태 변형 규칙을 적용하여 문장의 어미 형태를 사용자에게 자연스럽게 변경하는 예를 나타낸 것이다. 시스템 상황 정보는 다음과 같이 보고식, 추론적, 단정적, 예외적 상황으로 분류하고, 각 상황에 따라 어미 양태 적용 규칙에 의해 어미 양태(예를 들어, ~ㄴ다는데요/~ㄴ대요, ~ㄹ것 같은데요/~ㄹ것 같아요/ ~나 봐요, ~습니다 ~아/어요/ ~거든요, ~는데요)를 각각 변형한다.
적용 규칙 시스템 상황 어미 양태
1 화자가 등록한 자료가 아닌 다른 자료로부터 인용하여 출력하는 경우 보고식(Reportive) 상황 ~ㄴ다는데요 ~ㄴ대요
2 추론결과를 응답하는 경우 추론적(Inferential) 상황 ~ㄹ 것 같은데요 ~ㄹ 것 같아요 ~나 봐요
3 인식오류가 발생하여 불확실한 상황을 전달할 경우
4 반복발성 또는 되물어보는 경우 단정적(Assertive) 상황 ~습니다 ~아/어요 ~거든요
5 확실한 답을 말하는 경우
6 시스템의 상황을 설명하는 경우
7 답을 못 찾은 경우. 예외(Exceptional) 상황 ~는데요
8 사용자의 발언내용을 부정해야 하는 경우
그 다음 시스템 응답부(108)는, 시스템 상황에 따른 억양 양태 변형 규칙을 적용할 것인지 판단한다.(S118)
S118 판단 결과, 시스템 응답부(108)는, 시스템 상황에 따른 억양 양태 변형 규칙을 적용할 경우 억양 양태 결정부(1087)를 통해 어미 양태 결정부(1085)에서 결정된 문장에 시스템의 억양 양태를 할당한다.(S120) 만약 S118 판단 결과, 시스템 상황에 따른 억양 양태 변형 규칙을 적용하지 않을 경우 시스템 응답부(108)는, 다음 과정을 수행한다.
예를 들어, 표 4는 시스템 상황에 따른 억양 양태 변형 규칙을 적용하여 문장의 어미 형태를 사용자의 자연스런 발화를 유도하도록 억양 패턴을 변경하는 예를 나타낸 것이다. 여기서, 억양 양태는 상호확인, 단정, 강조/설득, 다짐/당부 등의 4가지로 분류하였고, 최종 시스템 응답을 합성 음성으로 생성할 때 억양 양태에 따라 억양패턴을 결정함으로써 실현된다.
본 발명에서 억양 패턴은 K-ToBI(Korean Tone Break Indices)에서 정한 억양 패턴 기호인 H(High tone), M(High tone과 Low tone의 중간정도인 Middle tone), L(Low tone)을 따른다.
적용 규칙 억양 양태 억양 패턴
1 대화에서 이미 언급이 된 구(old) 정보에 대한 문장생성(질문)을 할 경우 상호 확인(확인요청) HL (High-Low) tone
2 진술을 할 경우 단정 ML(Middle-Low) tone
3 사용자의 말을 부정할 경우 강조, 설득 LML (Low-Middle-Low) tone
4 권유를 할 경우 다짐, 당부 LM(Low-Middle) tone
그리고나서, 음성 합성부(110)는, 시스템 응답부(108)에서 생성된 문장을 출력 문장으로 하여 이를 음성으로 변환한 후에 이를 출력한다.
그러므로, 본 발명에 따른 대화형 음성 인터페이스 시스템의 응답 방법은, 사용자 발성 문장에 조응하며 시스템 상황에 따라 표현 규칙, 어미 양태 및 억양 양태를 할당하여 출력 문장을 생성함으로써, 사용자와 음성 인터페이스간에 자연적인 대화 정보를 주고받을 수 있도록 음성 정보를 출력한다.
한편, 본 발명은 상술한 실시예에 국한되는 것이 아니라 후술되는 청구범위에 기재된 본 발명의 기술적 사상과 범주 내에서 당업자에 의해 여러 가지 변형이 가능하다.
이상 설명한 바와 같이, 본 발명은, 지능형로봇, 텔레매틱스 등의 대화형 음 성 인터페이스 시스템에서 시스템 응답 기능을 사용자 발화에 조응하며, 시스템 상황에 따라 적절한 시스템 양태(어미 양태, 억양 양태)를 할당하여 출력 문장을 음성으로 출력함으로써 사람간의 대화에서와 같이 대화형 음성인터페이스 시스템의 자연성이 획기적으로 개선될 수 있는 효과가 있다.
따라서, 본 발명은 대화형 음성 인터페이스 시스템의 사용자 편의성을 높여 서비스 시스템의 부가 가치를 높일 수 있다.

Claims (12)

  1. 삭제
  2. 입력된 사용자 음성에 대해 임의의 음성 정보를 출력하는 대화형 음성 인터페이스 시스템에 있어서,
    상기 입력된 사용자 음성을 인식하는 음성 인식부와,
    복수개의 문장 정보 컨텐츠에서 매칭되는 정보를 검색하는 지식 검색부와,
    상기 인식된 음성의 문자열 신호에 대응하는 정보를 상기 지식 검색부에 전달하고 상기 검색된 정보로 대화 모델을 설정하는 대화 모델부와,
    상기 설정된 대화 모델에 기인하여 문틀 후보를 생성하고, 사용자 발성 문장에 조응 및 시스템 상황에 따른 문장의 어미 양태를 결정하여 출력 문장을 생성하는 시스템 응답부와,
    상기 출력 문장을 음성으로 변환하여 출력하는 음성 합성부
    를 포함하며,
    상기 시스템 응답부는, 상기 시스템 상황을 보고식, 추론적, 단정적, 예외적 상황으로 분류하고, 각 상황에 따라 어미 양태 적용 규칙에 의해 어미 양태를 변형하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템.
  3. 제 2항에 있어서,
    상기 시스템 응답부는, 상기 시스템 상황에 따른 문장의 억양 양태를 결정하여 출력 문장을 생성하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템.
  4. 제 3항에 있어서,
    상기 시스템 응답부는, 상기 시스템 상황을 상호확인, 단정, 강조/설득, 다짐/당부로 분류하고, 최종 시스템 응답을 음성으로 생성할 때 문장의 어미 형태를 분류된 문장의 억양 양태에 따라 억양 패턴을 결정하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템.
  5. 입력된 사용자 음성에 대해 임의의 음성 정보를 출력하는 대화형 음성 인터페이스 시스템에 있어서,
    상기 입력된 사용자 음성을 인식하는 음성 인식부와,
    복수개의 문장 정보 컨텐츠에서 매칭되는 정보를 검색하는 지식 검색부와,
    상기 인식된 음성의 문자열 신호에 대응하는 정보를 상기 지식 검색부에 전달하고 상기 검색된 정보로 대화 모델을 설정하는 대화 모델부와,
    상기 설정된 대화 모델에 기인하여 문틀 후보를 생성하고, 사용자 발성 문장에 조응 및 시스템 상황에 따른 문장의 어미 양태를 결정하여 출력 문장을 생성하는 시스템 응답부와,
    상기 출력 문장을 음성으로 변환하여 출력하는 음성 합성부
    를 포함하며,
    상기 시스템 응답부는,
    상기 대화 모델부의 정보에 의해 문틀 후보 문장을 생성하는 문틀 후보 생성부와,
    상기 문틀 후보 문장 중 사용자 발성 문장의 조응 규칙에 조응(照應)하는 문장을 선정하는 문틀 선정부와,
    상기 선정된 문장에 시스템 상황에 따른 문장의 어미 양태(樣態)를 결정하여 상기 음성 합성부에 전달하는 어미 양태 결정부와,
    상기 문틀 문장, 상기 조응 규칙, 상기 어미 양태 규칙 정보를 각각 저장한 데이터베이스
    를 더 포함하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템.
  6. 제 5항에 있어서,
    상기 문틀 선정부는, 발성 입력문과 유사한 문틀, 사용자의 발화에 나타난 단어 난이도와의 유사성, 사용자의 입력문 강도에 따른 문틀, 사용자의 발성문장에 적절한 응답어를 삽입한 문틀, 의미적 강도에 따른 문틀, 감정감탄사, 감정형용사, 감정명사 등의 문틀 중에서 해당 조응 규칙에 따른 문장을 선정하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템.
  7. 제 5항에 있어서,
    상기 시스템은, 상기 조응 규칙에 조응하는 문장을 선정한 후에, 상기 선정된 문장에 시스템 상황에 따른 표현 규칙을 적용하여 상기 어미 양태 결정부에 전달하는 부분을 더 포함하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템.
  8. 제 7항에 있어서,
    상기 표현 규칙은, 사용자 확인 요구, 확인 답변 요청, 답이 없는 경우 중에서 상기 시스템 상황에 따른 표현 문틀의 문장을 선정하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템.
  9. 제 5항에 있어서,
    상기 시스템 응답부는, 상기 시스템 상황에 따른 문장의 억양 양태를 결정하 여 출력 문장을 생성하는 억양 양태 결정부와, 상기 억양 양태를 각각 저장한 데이터베이스를 더 포함하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템.
  10. 삭제
  11. 입력된 사용자 음성에 대해 임의의 음성 정보를 출력하는 대화형 음성 인터페이스 시스템의 응답 방법에 있어서,
    상기 입력된 사용자 음성을 인식하는 단계와,
    상기 인식된 음성의 문자열 신호에 대응하는 정보를 토대로 복수개의 문장 정보 컨텐츠에서 매칭되는 정보를 검색하고 상기 검색된 정보로 대화 모델을 설정하는 단계와,
    상기 설정된 대화 모델에 기인하여 문틀 후보를 생성하고, 사용자 발성 문장에 조응 및 시스템 상황에 따른 문장의 어미 양태를 결정하여 출력 문장을 생성하는 단계와,
    상기 출력 문장을 음성으로 변환하여 출력하는 단계와,
    상기 시스템 상황에 따른 문장의 표현 규칙을 적용하여 문장을 생성하는 단계를 포함하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템의 응답 방법.
  12. 제 11항에 있어서,
    상기 방법은,
    상기 시스템 상황에 따른 문장의 억양 양태를 결정하여 출력 문장을 생성하는 단계를 더 포함하는 것을 특징으로 하는 대화형 음성 인터페이스 시스템의 응답 방법.
KR1020060064484A 2006-07-10 2006-07-10 대화형 음성 인터페이스 시스템 및 그 응답 방법 KR100807307B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060064484A KR100807307B1 (ko) 2006-07-10 2006-07-10 대화형 음성 인터페이스 시스템 및 그 응답 방법
US11/651,261 US20080010070A1 (en) 2006-07-10 2007-01-09 Spoken dialog system for human-computer interaction and response method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060064484A KR100807307B1 (ko) 2006-07-10 2006-07-10 대화형 음성 인터페이스 시스템 및 그 응답 방법

Publications (2)

Publication Number Publication Date
KR20080005745A KR20080005745A (ko) 2008-01-15
KR100807307B1 true KR100807307B1 (ko) 2008-02-28

Family

ID=38920088

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060064484A KR100807307B1 (ko) 2006-07-10 2006-07-10 대화형 음성 인터페이스 시스템 및 그 응답 방법

Country Status (2)

Country Link
US (1) US20080010070A1 (ko)
KR (1) KR100807307B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101134467B1 (ko) * 2009-07-27 2012-04-13 한국전자통신연구원 의미 표현 처리 장치 및 그 방법
US9837082B2 (en) 2014-02-18 2017-12-05 Samsung Electronics Co., Ltd. Interactive server and method for controlling the server
WO2023177145A1 (ko) * 2022-03-16 2023-09-21 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR102621954B1 (ko) * 2022-11-07 2024-01-09 한국전자기술연구원 관련 지식 유무에 따라 대화모델을 운용하는 대화 방법 및 시스템

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090210411A1 (en) * 2008-02-15 2009-08-20 Oki Electric Industry Co., Ltd. Information Retrieving System
KR101538015B1 (ko) * 2008-10-20 2015-07-22 에스케이플래닛 주식회사 의도 탐지 장치, 의도 탐지 방법, 정보 제공 시스템, 정보 제공 서비스 서버, 정보 제공 방법 및 저장 매체
KR101248323B1 (ko) * 2011-02-11 2013-03-27 한국과학기술원 유비쿼터스 지능형 육아 서비스 및 맞춤형 교육 서비스 방법, 장치 및 기록 매체
KR101388569B1 (ko) * 2011-08-10 2014-04-23 한국전자통신연구원 연속어 음성인식 시스템에서 언어모델의 고유 명사 추가 장치 및 방법
KR101465316B1 (ko) * 2013-02-26 2014-11-26 주식회사 엘지유플러스 소리-시각 변환 장치 및 그 제어방법
AR090268A1 (es) * 2013-03-06 2014-10-29 Jose Martin Raidan Diego Sistema de monitoreo continuo de movimientos en general
KR102175539B1 (ko) * 2013-10-18 2020-11-06 에스케이텔레콤 주식회사 사용자 발화 스타일에 따른 대화형 서비스 장치 및 방법
KR101590908B1 (ko) 2013-12-24 2016-02-03 서강대학교산학협력단 채팅 데이터 학습 및 서비스 방법 및 그에 따른 시스템
US9369425B2 (en) * 2014-10-03 2016-06-14 Speaktoit, Inc. Email and instant messaging agent for dialog system
JP2017068359A (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話制御方法
CN105374248B (zh) * 2015-11-30 2018-12-04 广东小天才科技有限公司 一种纠正读音的方法、装置和系统
KR102447513B1 (ko) 2016-01-22 2022-09-27 한국전자통신연구원 점증적 대화지식 자가학습 기반 대화장치 및 그 방법
CN106055105A (zh) * 2016-06-02 2016-10-26 上海慧模智能科技有限公司 机器人和人机交互系统
CN106663001A (zh) * 2016-06-28 2017-05-10 深圳狗尾草智能科技有限公司 基于单意图的技能包并行执行管理方法、系统及机器人
US10272349B2 (en) * 2016-09-07 2019-04-30 Isaac Davenport Dialog simulation
WO2019032996A1 (en) * 2017-08-10 2019-02-14 Facet Labs, Llc ORAL COMMUNICATION DEVICE AND COMPUTER ARCHITECTURE FOR PROCESSING DATA AND DELIVERING USER FEEDBACK OUTPUT, AND ASSOCIATED METHODS
US10453456B2 (en) * 2017-10-03 2019-10-22 Google Llc Tailoring an interactive dialog application based on creator provided content
WO2020101263A1 (en) 2018-11-14 2020-05-22 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
WO2020153717A1 (en) * 2019-01-22 2020-07-30 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
KR102254300B1 (ko) * 2019-04-19 2021-05-21 한국과학기술원 토론 상황 시 발화된 주장에 대한 근거 문장 제공 엔진
CN110059161A (zh) * 2019-04-23 2019-07-26 深圳市大众通信技术有限公司 一种基于文本分类技术的电话语音机器人系统
US20230351117A1 (en) * 2020-06-25 2023-11-02 Korea Advanced Institute Of Science And Technology Conversation intention real-time analysis method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000020962A2 (en) * 1998-10-02 2000-04-13 International Business Machines Corporation Conversational computing via conversational virtual machine
JP2002149180A (ja) 2000-11-16 2002-05-24 Matsushita Electric Ind Co Ltd 音声合成装置および音声合成方法
KR20030078388A (ko) * 2002-03-29 2003-10-08 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법
KR20040052330A (ko) * 2002-12-16 2004-06-23 한국전자통신연구원 저지연 대화를 위한 대화형 컨텐츠의 송수신 시스템 및 그방법
KR20040106960A (ko) * 2003-06-10 2004-12-20 (주)얄리 자연어 기반 감정인식, 감정표현 시스템 및 그 방법
KR20050006936A (ko) * 2003-07-10 2005-01-17 한국전자통신연구원 한국어 대화체 음성합성시스템의 특정 형태에 대한 선택적운율 구현 방법
KR20050111182A (ko) * 2004-05-21 2005-11-24 삼성전자주식회사 대화체 운율구조 생성방법 및 장치와 이를 적용한음성합성시스템
WO2005122130A2 (en) * 2004-06-03 2005-12-22 Leapfrog Enterprises, Inc. User created interactive interface
KR20060067717A (ko) * 2004-12-15 2006-06-20 한국전자통신연구원 화행 정보를 이용한 대화체 음성합성 시스템 및 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0543329B1 (en) * 1991-11-18 2002-02-06 Kabushiki Kaisha Toshiba Speech dialogue system for facilitating human-computer interaction
US5918222A (en) * 1995-03-17 1999-06-29 Kabushiki Kaisha Toshiba Information disclosing apparatus and multi-modal information input/output system
US5995924A (en) * 1997-05-05 1999-11-30 U.S. West, Inc. Computer-based method and apparatus for classifying statement types based on intonation analysis
US6266642B1 (en) * 1999-01-29 2001-07-24 Sony Corporation Method and portable apparatus for performing spoken language translation
US6885990B1 (en) * 1999-05-31 2005-04-26 Nippon Telegraph And Telephone Company Speech recognition based on interactive information retrieval scheme using dialogue control to reduce user stress
US7725307B2 (en) * 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
JP2002023783A (ja) * 2000-07-13 2002-01-25 Fujitsu Ltd 対話処理システム
US6994592B1 (en) * 2004-08-27 2006-02-07 Hop-On Wireless, Inc. Universal charging apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000020962A2 (en) * 1998-10-02 2000-04-13 International Business Machines Corporation Conversational computing via conversational virtual machine
JP2002149180A (ja) 2000-11-16 2002-05-24 Matsushita Electric Ind Co Ltd 音声合成装置および音声合成方法
KR20030078388A (ko) * 2002-03-29 2003-10-08 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법
KR20040052330A (ko) * 2002-12-16 2004-06-23 한국전자통신연구원 저지연 대화를 위한 대화형 컨텐츠의 송수신 시스템 및 그방법
KR20040106960A (ko) * 2003-06-10 2004-12-20 (주)얄리 자연어 기반 감정인식, 감정표현 시스템 및 그 방법
KR20050006936A (ko) * 2003-07-10 2005-01-17 한국전자통신연구원 한국어 대화체 음성합성시스템의 특정 형태에 대한 선택적운율 구현 방법
KR20050111182A (ko) * 2004-05-21 2005-11-24 삼성전자주식회사 대화체 운율구조 생성방법 및 장치와 이를 적용한음성합성시스템
WO2005122130A2 (en) * 2004-06-03 2005-12-22 Leapfrog Enterprises, Inc. User created interactive interface
KR20060067717A (ko) * 2004-12-15 2006-06-20 한국전자통신연구원 화행 정보를 이용한 대화체 음성합성 시스템 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
10-2004-0052330

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101134467B1 (ko) * 2009-07-27 2012-04-13 한국전자통신연구원 의미 표현 처리 장치 및 그 방법
US9837082B2 (en) 2014-02-18 2017-12-05 Samsung Electronics Co., Ltd. Interactive server and method for controlling the server
WO2023177145A1 (ko) * 2022-03-16 2023-09-21 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR102621954B1 (ko) * 2022-11-07 2024-01-09 한국전자기술연구원 관련 지식 유무에 따라 대화모델을 운용하는 대화 방법 및 시스템
WO2024101975A1 (ko) * 2022-11-07 2024-05-16 한국전자기술연구원 관련 지식 유무에 따라 대화모델을 운용하는 대화 방법 및 시스템

Also Published As

Publication number Publication date
KR20080005745A (ko) 2008-01-15
US20080010070A1 (en) 2008-01-10

Similar Documents

Publication Publication Date Title
KR100807307B1 (ko) 대화형 음성 인터페이스 시스템 및 그 응답 방법
CN108536802B (zh) 基于儿童情绪的交互方法及装置
US8818926B2 (en) Method for personalizing chat bots
US9263039B2 (en) Systems and methods for responding to natural language speech utterance
JP5166661B2 (ja) 計画に基づくダイアログを実行する方法および装置
Wu et al. Emotion recognition from text using semantic labels and separable mixture models
US8935163B2 (en) Automatic conversation system and conversation scenario editing device
US7555426B2 (en) Method and apparatus for dynamic grammars and focused semantic parsing
CN110807332A (zh) 语义理解模型的训练方法、语义处理方法、装置及存储介质
JP2019528512A (ja) 人工知能に基づくヒューマンマシンインタラクション方法及び装置
KR102030803B1 (ko) 챗봇의 대화처리장치 및 그 방법
JP2004513444A (ja) 個人のインタラクションをシミュレートし、関連するデータによって外部データベースを拡充するユーザインタフェース/エンタテインメントデバイス
JP2004513445A (ja) 個人のインタラクションをシミュレートし、ユーザの情緒状態及び/又は性格に反応するユーザインタフェース/エンタテインメントデバイス
JP2004527809A (ja) 個人のインタラクションをシミュレートする環境反応型ユーザインタフェース/エンタテインメントデバイス
JP2004527808A (ja) 個人のインタラクションをシミュレートする自己更新式ユーザインタフェース/エンタテインメントデバイス
JP2006201870A (ja) 対話処理装置
CN108538294B (zh) 一种语音交互方法及装置
WO2008128423A1 (fr) Système de dialogue intelligent et son procédé de réalisation
JP2009193448A (ja) 対話システム、方法及びプログラム
EP1685556B1 (en) Audio dialogue system and voice browsing method
KR101677859B1 (ko) 지식 베이스를 이용하는 시스템 응답 생성 방법 및 이를 수행하는 장치
CN110807333A (zh) 一种语义理解模型的语义处理方法、装置及存储介质
CN111128175B (zh) 口语对话管理方法及系统
JP2012037790A (ja) 音声対話装置
CN111968646A (zh) 一种语音识别方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
FPAY Annual fee payment

Payment date: 20110131

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20111208

Year of fee payment: 20