KR20090000442A - 범용 대화서비스 장치 및 그 방법 - Google Patents

범용 대화서비스 장치 및 그 방법 Download PDF

Info

Publication number
KR20090000442A
KR20090000442A KR1020070064510A KR20070064510A KR20090000442A KR 20090000442 A KR20090000442 A KR 20090000442A KR 1020070064510 A KR1020070064510 A KR 1020070064510A KR 20070064510 A KR20070064510 A KR 20070064510A KR 20090000442 A KR20090000442 A KR 20090000442A
Authority
KR
South Korea
Prior art keywords
intention
current
area
user
conversation
Prior art date
Application number
KR1020070064510A
Other languages
English (en)
Other versions
KR101322486B1 (ko
Inventor
장두성
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020070064510A priority Critical patent/KR101322486B1/ko
Publication of KR20090000442A publication Critical patent/KR20090000442A/ko
Application granted granted Critical
Publication of KR101322486B1 publication Critical patent/KR101322486B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/64Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야
본 발명은 범용 대화서비스 장치 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있는 영역(즉, 사용자의 다양한 자연어 질의)에서 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론하고, 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변을 만들어 대화 품질을 높일 수 있는, 범용 대화서비스 장치 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있음.
3. 발명의 해결방법의 요지
본 발명은, 대화서비스 장치에 있어서, 입력 질의어를 영역별로 분류하기 위한 영역분류수단; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단; 현재 시스템 상태 정보를 참조하여, 영역별로 분류된 현재 사용자 의도에 대한 현재 시스템 의도를 추론하기 위한 응답추론수단; 이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 상기 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단; 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 '목적 영역에 대한 시스템 응답 형틀'을 생성하기 위한 응답 형틀 생성수단; 및 상기 '목적 영역에 대한 시스템 응답 형틀' 및/또는 '일반 영역에 대한 시스템 응답 형틀'로부터 시스템 응답을 생성하기 위한 시스템 응답 생성수단을 포함한다.
4. 발명의 중요한 용도
본 발명은 대화서비스 등에 이용됨.
대화서비스, 목적 영역, 일반 영역, 응답 형틀, 응답 추론

Description

범용 대화서비스 장치 및 그 방법{General dialogue service apparatus and method}
도 1 은 본 발명에 따른 대화서비스 장치가 적용되는 음성인식 시스템의 일실시예 구성도,
도 2 는 본 발명에 따른 범용 대화서비스 장치의 일실시예 구성도,
도 3 은 본 발명에 따른 범용 대화서비스 방법을 보여주는 일실시예 설명도이다.
* 도면의 주요 부분에 대한 부호 설명
11 : 사용자 단말기 12 : 음성 인식부
13 : 음성 합성부 14 : 디스플레이부
20 : 대화서비스 장치 21 : 영역 분류부
22 : 의미 해석부 23 : 시스템 상태 제어부
24 : 상태 기반 응답 추론부 25 : 상태 기반 추론 정책 DB
26 : 예제 기반 응답 추론부 27 : 예제 대화 DB
28 : 응답 형틀 생성부 29 : 자연어 생성부
본 발명은 대화의 영역에 따라 정보상태 및 예제 기반 추론 모델을 같이 이용한 대화서비스 장치 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것으로, 보다 상세하게는 목적 영역의 대화와 일반 영역의 대화가 혼재된 사용자의 다양한 자연어 질의에 대해 지능적으로 시스템 답변이나 재질문을 함으로써 대화 품질을 높일 수 있는 범용 대화서비스 장치 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
특히, 본 발명은 대화서비스 시스템[사용자 질의에 대해 응답하는 '네트워크(예로서, 유무선 인터넷(WEB, WAP/ME), 인트라넷, 랜(LAN), 무선랜(Wireless LAN), 전화망(PSTN), 동기/비동기 이동통신망, 휴대 인터넷(WiBro), 지상파 방송망, DMB(Digital Multimedia Broadcasting) 방송망 등)를 통한 클라이언트-서버 인터페이스 구조', '사용자-로봇 인터페이스 구조' 등]에서 입력되는 사용자 질의에 대해 호텔/극장/열차/항공권 예매나 홈네트워크 기기제어 등과 같이 시스템이 설정한 특정 목적 영역과, 채팅 등과 같이 일반 대화가 혼용되어 사용될 때, 보다 유용하게 활용될 수 있다.
음성 인터페이스는 컴퓨터로 하여금 사람의 말을 알아듣게 하고, 원하는 정보를 말로 주고 받도록 가능하게 해주는 사용자 중심의 휴먼-컴퓨터 인터페이스 기 술이다. 현재, 음성인식 기술이 활발하게 적용되고 분야는 전화 기반 고객 서비스 부문으로, 컴퓨터가 고객과 직접 대화하며 필요한 정보를 주는 방식으로 활용되고 있다.
특히, 지능형 로봇, 텔레매틱스, 디지털 홈, 차세대 PC 등 유비쿼터스 환경에서 사용자 인터페이스로 음성 인터페이스가 자리매김하고 있다.
현재, 음성 인터페이스는 사용자-시스템 간의 '대화'하는 방식을 끊임없이 변화시키고 있다.
하지만, 현재의 대화서비스(예로서, 전화 기반 고객응대 서비스, 로봇의 음성인식 서비스 등)는 미리 정해진 범위의 대화 이외에는 불가능하기 때문에 응용폭이 제한된다는 단점이 있다.
사용자가 대화서비스 장치(일 예, 네트워크 기반의 서버, 지능형 로봇)와의 자연스러운 의사 소통을 위해서는, 사용자의 음성 질의를 대화서비스 장치가 듣고 이해하여 사용자가 원하는 대답을 음성 또는 디스플레이 화면을 통해 제공할 수 있어야 한다. 이를 위해서는 음성 질의 문장을 인식할 수 있는 음성인식 기능, 대화 처리를 통해 사용자의 질의에 대한 적절한 응답을 생성하는 기능, 음성 합성을 통해 음성을 결과로 출력하는 기능, 검색된 정보에 대한 디스플레이 기능 등이 필요하다.
따라서, 현재까지 대화서비스 기술에 대한 연구는 대화서비스 장치의 음성인식 성능을 향상시키고자 하는 연구에 초점이 맞춰져 있다. 그러므로, 음성인식 성능을 향상시키기 위해서는, 대화서비스 장치가 사용자의 질의에 대해 키워드를 인 식하고 키워드에 대한 적절한 응답을 제공하면, 음성인식 성능이 높지 않더라도 대화를 진행하는 사용자가 불편하지 않게 되므로, 음성인식의 성능 향상에 대한 노력뿐만 아니라, 대화의 자연스러움을 위한 대화 처리에 대한 연구가 병행될 필요가 있다.
하지만, 현재까지는 사용자의 음성 질의에 대한 대화서비스 장치의 인식 성능이 높지 않기 때문에 사용자-대화서비스 장치 간의 자연스러운 대화(지능형 대화)의 진행이 어렵고, 이로 인해 대화서비스 장치의 품질이 떨어져 사용자에게 질 높은 지능형 대화서비스를 제공할 수 없는 문제점이 있었다.
통상, 대화서비스 장치에서 이루어지는 사용자와 시스템 간의 대화는, 홈네트워크 기기 제어 목적이나 열차 예약 목적과 같이 대화서비스 제공자가 제공하는 특정 목적 영역에 관한 대화와, 채팅과 같은 일반적인 영역의 대화로 구분할 수 있다.
대화서비스 시 목적 영역에서 수행되는 대화는, 사용자와 시스템(대화서비스 장치)이 여러 번에 걸쳐 질의와 응답을 주고 받으며, 특정한 목적을 표현하는 정보의 집합을 구성해 나간다. 예를 들어 설명하면, 열차 예약을 목적으로 하는 서비스 영역에서 이루어지는 대화는 '열차 예약'이라는 공동의 목적을 위해 '출발역', '도착역', '일자', '시간', '열차종류', '예약편수' 등의 정보 집합을 대화를 통해 구성해 나간다. 이때, 대화는 이들 정보 집합을 만들기 위해서 사용자의 발화에서 부족한 정보를 시스템(대화서비스 장치)이 사용자에게 요청하기도 하고, 사용자가 시스템(대화서비스 장치)에게 자신이 필요한 정보를 문의하기도 하는 내용으로 이루 어진다.
이러한 목적 영역에서 시스템(대화서비스 장치)이 응답을 생성하기 위해서는, 직전에 사용자가 발화한 질의의 의도(의미) 이외에 현재의 시스템의 상태, 즉 시스템이 가지고 있는 정보의 현황에 기반한 응답 추론이 이루어져야 한다. 이러한 정보의 현황을 응답 추론에 반영하기 위하여 수작업으로 정의한 상태들의 전이를 유한 상태 오토마타(FSA : Finite State Automata)로 표현하여, 이를 이용한 방법이 사용되어 왔다.
다른 방법으로는, 각 상태에서 최종 목적 상태까지 도달하기 위한 계획(Plan)을 미리 준비하고 현재 상태에 맞는 적절한 계획을 선택하는 방법도 사용되었으며, 최근에는 시스템이 가지고 있는 정보의 상태 분류와 이들 간의 전이 모델을 통계적 훈련에 의해 모델링하는 마르코프 의사결정과정(MDP : Markov Decision Process), 부분관찰 마르코프 의사결정과정(POMDP : Partially Observable Markov Decision Process) 등이 도입되고 있다.
그러나, 앞서 언급된 응답 추론 방법들은 한정된 목적 영역의 사용자 질의에서 최적의 효율을 낼 수 있도록 작성 혹은 학습할 수 있다는 장점이 있는 반면, 예정된 영역이 아닌 일반 영역의 사용자 발화에서는 지능적인 시스템 발화를 만들어 낼 수 없다는 한계가 있다.
한편, 채팅 등과 같은 일반 영역에서의 사용자 발화는 그 발화의 목적이 매우 다양하여 모든 가능한 상태를 미리 정의하는 것이 사실상 불가능하다. 이러한 채팅영역에 대한 시스템 응답을 생성하기 위해서는, 미리 구축된 예제 DB에서 사용 자의 질의에 가장 유사한 대화를 찾아 해당하는 시스템의 응답 예제를 시스템의 응답 발화로 삼는 방법을 주로 사용한다. 이 방법은 일정 수준 이상의 예제 DB가 구축되면, 여러 형태의 사용자 질의에 적절한 응답을 생성할 수 있다는 장점이 있다. 반면에, 사용자에게 보충 질문을 하는 것과 같은 목적 의도를 가진 시스템 응답을 생성하지 못하므로 목적 영역의 대화 관리 방법으로는 부족하다는 한계가 있다.
특히, 대화서비스가 처리할 수 있는 영역을 특정한 영역(예로서, 목적 영역 또는 일반 영역)으로만 한정하는 것은 대화서비스를 사용하는 사용자의 발화 자유도와 서비스 완성도에 부정적인 영향을 준다. 즉, 홈네트워크나 텔레매틱스와 같은 특정 목적 영역을 주로 사용하는 대화서비스라고 하더라도, 사용자는 이 서비스를 사용하면서 서비스의 목적 영역에서 벗어나는 예를 들면 "오늘 어때?" 등과 같은 발화를 할 수도 있으며, 그때마다 시스템(대화서비스 장치)이 "죄송합니다. 다시 말해 주십시오." 혹은 "적합하지 않은 발화입니다."라고 한다면 지능적인 대화시스템이라고 할 수 없을 것이다. 이러한 경우에, "한번 즐겨봅시다."와 같이 적절한 시스템 응답을 준다면, 보다 지능적인 대화라 할 수 있다.
이처럼 예약이나 기기제어 등과 같은 목적 영역의 대화와 채팅 등과 같은 일반 영역의 대화가 혼재되어 있는 영역에서는, 기존의 계획(Plan) 기반 방법이나 FSN, MDP 등을 이용한 응답 추론 방법은 추론의 대상이 되는 영역이 너무나 방대하여 추론 규칙이나 대화의 상태 및 전이도를 작성하거나 학습하는 것이 거의 불가능하다. 또한, 예제 기반 대화 추론 방법으로는 대화 전반에 걸쳐 습득된 정보를 이용하여 목적 영역의 대화를 진행하기에 부족함이 있다.
따라서, 모든 형태의 사용자 질의(목적 영역의 대화와 일반 영역의 대화가 혼용되어 사용되는 질의어)에 대해 지능적으로 시스템 답변을 만들어 높은 대화 품질을 가지는 범용의 대화서비스 방안이 절실히 요구된다.
본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있는 영역(즉, 사용자의 다양한 자연어 질의)에서 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론하고, 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변을 만들어 대화 품질을 높일 수 있는, 범용 대화서비스 장치 및 그 방법과, 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명은, 대화서비스 장치에 있어서, 입력 질의어를 영역별로 분류하기 위한 영역분류수단; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단; 현재 시스템 상태 정보를 참조하여, 영역별로 분류된 현재 사용자 의도에 대한 현재 시스템 의도를 추론하기 위한 응답추론수단; 이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 상기 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단; 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 '목적 영역에 대한 시스템 응답 형틀'을 생성하기 위한 응답 형틀 생성수단; 및 상기 '목적 영역에 대한 시스템 응답 형틀' 및/또는 '일반 영역에 대한 시스템 응답 형틀'로부터 시스템 응답을 생성하기 위한 시스템 응답 생성수단을 포함하여 이루어진 것을 특징으로 한다.
한편, 본 발명은, 대화서비스 장치에 있어서, 입력 질의어를 영역별로 분류하기 위한 영역분류수단; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단; 목적 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보)와 상태 기반 추론 정책을 기반으로 목적 영역에 대한 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론수단; 예제 대화 DB를 참조하여, 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성하기 위한 응답 형틀 생성수단; 일반 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 상기 예제 대화 DB를 기반으로 일반 영역에 대한 현재 시스템 의도 및 시스템 응답 형틀을 추출하기 위한 예제 기반 응답 추론수단; 이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 상기 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단; 및 목적 영역 및/또는 일반 영역에 대한 상기 시스템 응답 형틀로부터 자연어로 된 시스템 응답을 생성하기 위한 자연어 생성수단을 포함하여 이루어진 것을 특징으로 한다.
다른 한편, 본 발명은, 대화서비스 방법에 있어서, 입력 질의어를 영역별로 분류하는 단계; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하는 단계; 이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하는 단계; 상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역의 현재 사용자 의도에 대한 현재 시스템 의도를 추론하는 단계; 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성하는 단계; 상기 현재 시스템 상태 정보와 예제 대화 DB를 기반으로 일반 영역의 현재 사용자 의도에 대한 일반 영역의 현재 시스템 의도 및 시스템 응답 형틀을 추출하는 단계; 및 목적 영역 및/또는 일반 영역에 대한 상기 시스템 응답 형틀로부터 시스템 응답을 생성하는 단계를 포함하여 이루어진 것을 특징으로 한다.
또한, 본 발명은, 목적/일반 영역에 대한 상기 시스템 응답 형틀이 상기 예제 대화 DB에 없는 경우, 예외처리용 응답 형틀을 참조하여 시스템 응답 형틀을 생성하는 단계를 더 포함하여 이루어진 것을 특징으로 한다.
또 다른 한편, 본 발명은, 프로세서를 구비한 범용 대화서비스 장치에, 입력 질의어를 영역별로 분류하는 기능; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하는 기능; 이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하는 기능; 상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역의 현재 사용자 의도에 대한 현재 시스템 의도를 추론하는 기능; 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성하는 기능; 상기 현재 시스템 상태 정보와 예제 대화 DB를 기반으로 일반 영역의 현재 사용자 의도에 대한 일반 영역의 현재 시스템 의도 및 시스템 응답 형틀을 추출하는 기능; 및 목적 영역 및/또는 일반 영역에 대한 상기 시스템 응답 형틀로부터 시스템 응답을 생성하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
도 1 은 본 발명에 따른 대화서비스 장치가 적용되는 음성인식 시스템의 일실시예 구성도이다.
대화시스템의 입력으로는 음성인식, 키보드 입력 등을 통해 입력된 언어적인 정보 뿐만 아니라, 터치인식, 화상인식, 동작인식 등의 결과로 기호화된 비언어적인 정보를 포함한 언어적/비언어적 멀티모달 입력을 받는 것이 가능하다.
사용자로부터 질의(문자 또는 음성 질의어 등)가 입력되면(사용자가 네트워크(예로서, 유무선 인터넷(WEB, WAP/ME), 인트라넷, 랜(LAN), 무선랜(Wireless LAN), 전화망(PSTN), 동기/비동기 이동통신망, 휴대 인터넷(WiBro), 지상파 방송망, DMB(Digital Multimedia Broadcasting) 방송망 등)를 통해 질의어가 입력되거나, 직접 질의어가 입력됨 등), 입력이 음성일 경우(이때, 직접 입력되는 내용이 문자이면 음성인식 기능을 수행하지는 않음), 음성인식 시스템의 입력 처리부(12)는 음성인식 기능을 수행하여 음성 인식 결과 문장을 대화서비스 장치(20)로 출력한다. 그러면, 대화서비스 장치(20)는 음성 인식부(12)로부터 사용자 질의(사용자의 다양한 자연어 질의 문장, 즉 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있음)를 입력받아 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론하고, 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변(응답 문장)을 생성한 후 음성 합성부(13)로 출력한다(음성 형식으로 출력). 그리고, 디스플레이부(14)는 응답 결과(시스템 답변)를 디스플레이할 필요가 있는 경우, 대화서비스 장치(20)로부터 사용자 질의에 대한 응답 문장을 입력받아 사용자에게 디스플레이(문자 형식으로 출력)한다.
여기서, 입력 처리부(12)는 음성인식을 위해 음성 데이터베이스를 구비하고, 대화서비스 장치(20)는 입력에 적절한 응답 메시지(대화 예제)를 저장하고 있는 예제 대화 데이터베이스를 구비하고 있다. 이때, 음성 데이터베이스에는 사용자의 음성발화 데이터에 대한 문자(열)의 특징값과 해당 특징값에 대응하는 문자(열)이 저장 및 관리된다. 또한, 예제 대화 데이터베이스에는 대화의 예제가 저장 및 관리된 다.
상기에서, 음성인식 시스템과 사용자 간에는 유무선 인터넷(WEB, WAP/ME), 인트라넷, 랜(LAN), 무선랜(Wireless LAN), 전화망(PSTN), 동기/비동기 이동통신망, 휴대 인터넷(WiBro), 지상파 방송망, DMB(Digital Multimedia Broadcasting) 방송망 등을 통해 통신회선을 연결하여 상호 간에 대화서비스와 관련된 통신이 이루어지도록 연결 설정된다.
따라서, 네트워크를 통해 연결된 사용자 단말기(11)로는 통신중재장치, 모니터, 키보드(혹은 키패드), 마우스, 음성을 입력할 수 있는 장치 등이 포함되어진 개인용컴퓨터(PC), 노트북 뿐만 아니라, 일반 유무선 전화기, 셀룰러폰 혹은 PCS폰 등의 이동통신 단말기, IMT-2000, UMTS 등과 같은 차세대 이동통신 단말기, 개인휴대단말기(PDA), DMB폰 등 통신망 기반의 대화서비스(질의/응답)가 가능한 단말기면 족하다.
호텔/극장/열차/항공권 예매나 홈네트워크 기기제어, 채팅 등과 같이 시스템이 설정한 특정 목적 영역과 일반 대화 영역이 혼재되어 있는 환경에서 대화서비스를 원하는 사용자는 단말기(11)로 네트워크[예로서, 유무선 인터넷(WEB, WAP/ME), 인트라넷, 랜(LAN), 무선랜(Wireless LAN), 전화망(PSTN), 동기/비동기 이동통신망, 휴대 인터넷(WiBro), 지상파 방송망, DMB(Digital Multimedia Broadcasting) 방송망 등]를 통해 질의어(문자 또는 음성발화 등)를 입력하거나, 직접 질의어(문자 또는 음성발화 등)를 입력하여 본 발명에 따른 범용 대화서비스를 수행할 수 있다. 이때, 사용자 단말기(11)에는 음성 입력 및 출력을 위한 사운드카드, 마이크 그리고 스피커 등이 구비될 수 있고, 문자 입력 및 출력을 위한 키보드, 디스플레이부 등이 구비될 수 있다. 즉, 사용자가 단말기(11)의 입력장치(예를 들면, 키보드, 마이크 등)를 통해 문자 혹은 음성발화를 입력하게 되면, 음성인식 서비스 시스템은 음성인식 기능을 포함한 입력 처리부(12)와, 의미 분석 및 적절한 응답 메시지를 출력할 수 있는 대화서비스 장치(20), 그리고 해당 응답 메시지를 음성 및/또는 문자 형식으로 출력해주는 출력 처리부[음성 합성부(13), 디스플레이부(14)]를 통해, 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있는 영역에서 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론하고 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변을 만들어 높은 대화 품질을 갖도록 한다.
여기서, 입력 처리부(12)는 네트워크를 통해 또는 직접 입력 전달된 사용자의 입력(문자 또는 음성발화 등) 데이터를 1차로 처리한다. 이때, 입력 데이터가 문자 데이터인 경우에는 따옴포 등의 불필요한 요소를 제거하는 과정을 거치고, 입력 데이터가 음성발화 데이터인 경우에는 음성인식 기능을 통해 해당 문자열로 변환하는 과정을 거친다. 이때, 음성인식 기능시, 음성발화 데이터에서 특징을 추출하고 분석하여, 음성의 특징값과 해당 특징값에 대응되는 문자열을 저장ㆍ관리하고 있는 음성 데이터베이스에서 가장 근접한 결과를 추출하게 된다. 이렇게 입력 처리부(12)에서 변환된 사용자 입력 데이터(인식에 불필요한 요소를 제거한 문자 데이터, 문자화된 음성발화 데이터)는 문자열로 대화서비스 장치(20)로 전달된다.
또한, 대화서비스 장치(20)는 사용자가 문자 혹은 음성발화를 입력했을 때 해당 문장에 대해 의미 분석을 하고 그 정보를 검색키로 하여 사용자의 질의에 맞 는 시스템 응답을 문자열로 생성하여 출력 처리부(13,14)로 전달한다.
또한, 출력 처리부(13,14)에서는 대화서비스 장치(20)에서 생성된 문자열의 시스템 응답(시스템 응답 메시지)을 음성 합성부(13)를 통해 음성 데이터로 변환하여 출력하고, 문자 데이터를 디스플레이부(14)를 통해 디스플레이한다.
만약, 사용자가 사용자 단말기(11)를 통해 질의어를 입력한 경우, 사용자 단말기(11)에서는 전달된 음성 데이터를 스피커를 통해 출력하고, 문자 데이터를 화면상에 출력하게 된다. 이 경우, 출력 처리부(13,14)는 문자열의 시스템 발화(시스템 응답)를 그대로(문자 데이터) 사용자 단말기(11)로 전송하거나, 문자열의 시스템 발화를 음성으로 변환하여 음성 데이터를 사용자 단말기(11)로 전송하거나, 문자열의 시스템 발화를 음성으로 변환하여 음성 데이터를 문자 데이터와 함께 사용자 단말기(11)로 전송한 것이다.
이후, 사용자는 시스템 응답(시스템 발화) 메시지를 보고 다음 입력을 진행하게 되고, 음성인식 시스템은 상기의 과정을 반복적으로 수행하여 대화서비스를 지능형으로 제공하게 된다.
그럼, 본 발명에 따른 대화서비스 장치(20)에 대해 보다 상세하게 살펴보기로 한다.
대화서비스 장치(20)는 사용자의 자연어 질의(문자 또는 음성발화 등)에 대해 답변이나 재질문을 함으로써 대화를 진행하는데, 이때 대화서비스 장치(20)는 입력되는 사용자의 질의가 호텔예약이나 홈네트워크 기기제어 등과 같이 시스템이 설정한 특정한 목적 영역에 한정되지 않고, 채팅과 같은 일반 대화와 혼용되어 사 용될 때, 입력되는 사용자 질의(사용자의 다양한 자연어 질의 문장, 즉 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있음)에 대해 목적 영역 대화와 일반 영역 대화로 분류하고, 사용자 질의의 영역에 따라 적합한 응답 추론부(상태 기반 응답 추론부(24) or 예제 기반 응답 추론부(26))를 사용하고, 시스템 상태 제어부(23)를 이용하여 시스템 상태 정보를 영역이 혼용된 대화의 기간 내에 통합 사용/유지할 수 있도록 하여 생성되는 시스템 응답의 품질을 높일 수 있다[범용 대화관리 기능].
먼저, 도 1을 참조하여, 본 발명에 따른 범용 대화서비스 장치(20)의 구성을 살펴보면, 입력 질의어(문자 데이터 또는 음성발화 데이터 중 어느 하나임)를 영역(목적 영역, 일반 영역)별로 분류하기 위한 영역 분류부(21)와, 분류된 영역(목적 영역 또는 일반 영역)의 특화된 의미(목적 영역 의미 해석, 일반 영역 의미 해석)를 해석하여 현재 사용자 의도를 분석하기 위한 의미 해석부(22)와, 현재 시스템 상태 정보(직전의 발화에서 시스템이 취한 의도(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도(이전 사용자 의도)로 구성됨)를 참조하여, 영역별로 분류된 현재 사용자 의도에 대한 현재 시스템 의도를 추론하기 위한 응답 추론부(상태 기반 응답 추론부(24), 예제 기반 응답 추론부(26))와, 이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어부(23)와, 현재 사용자 의도와 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀(일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀임)을 생성하기 위한 응답 형틀 생성부(28)와, 목적 영 역에 대한 시스템 응답 형틀 및/또는 일반 영역에 대한 시스템 응답 형틀로부터 시스템 응답을 생성하기 위한 자연어 생성부(29)를 포함한다.
이하에서는, 대화 1단계에서 사용자의 의도를 '사용자 의도A'로 정의하고, '사용자 의도A'에 대한 시스템 의도를 '시스템 의도B'로 정의한다. 또한, 대화 2단계에서 사용자의 의도를 '사용자 의도C'로 정의하고, '사용자 의도C'에 대한 시스템 의도를 '시스템 의도D'로 정의한다. 또한, 대화 3단계에서 사용자의 의도를 '사용자 의도E'로 정의하고, '사용자 의도E'에 대한 시스템 의도를 '시스템 의도F'로 정의한다.
따라서, 상기 '현재 시스템 상태 정보'는, 초기 시스템 상태 정보와, 이를 바탕으로 사용자 의도A에 대한 시스템 의도B의 대화 1단계의 상태값(코딩값)과, 제1 시스템 상태 정보 "(사용자 의도A, 시스템 의도B)"를 바탕으로 사용자 의도C에 대한 시스템 의도D의 대화 2단계의 상태값(코딩값), 제2 시스템 상태 정보 "(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)"를 바탕으로 사용자 의도E에 대한 시스템 의도F의 대화 3단계 상태값(코딩값)으로 이루어진다.
즉, '시스템 의도B'는 사용자 의도A와 초기 시스템 상태 정보를 바탕으로 생성되고, '시스템 의도D'는 사용자 의도C와 제1 이전 시스템 상태 정보(초기 시스템 상태 정보를 바탕으로 한 사용자 의도A에 대한 시스템 의도B의 상태값(코딩값))를 바탕으로 생성되며, '시스템 의도F'는 사용자 의도E와 제2 이전 시스템 상태 정보(제1 이전 시스템 상태 정보를 바탕으로 한 사용자 의도C에 대한 시스템 의도D의 상태값)를 바탕으로 생성된다.
상기 이전/현재 시스템 상태 정보는 시스템 상태 제어부(23)에 의해 관리되며, 시스템 상태 제어부(23)에서는 현재 시스템 상태 정보를 영역이 혼용된 대화의 기간 내에 통합 사용 및 유지ㆍ관리할 수 있다.
상기에서, 응답 추론부(24)는, 목적 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템 상태 정보와 상태 기반 추론 정책(상태 기반 추론 정책 DB(25))을 기반으로 목적 영역에 대한 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론부(24)와, 일반 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템 상태 정보와 예제 대화 DB(27)를 기반으로 일반 영역에 대한 현재 시스템 의도 및 시스템 응답 형틀을 추출하기 위한 예제 기반 응답 추론부(26)를 포함한다. 이때, 예제 기반 응답 추론부(26)에서는 일반 영역에 대한 시스템 응답 형틀이 예제 대화 DB(27)에 없는 경우, 예외처리용 응답 형틀을 참조하여 시스템 응답 형틀을 생성하게 된다.
또한, 응답 형틀 생성부(28)는, 예제 대화 DB(27)를 참조하여, 목적 영역에 대한 현재 사용자 의도와 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성한다. 이때, 응답 형틀 생성부(28)에서는 목적 영역에 대한 시스템 응답 형틀이 예제 대화 DB(27)에 없는 경우, 예외처리용 응답 형틀을 참조하여 시스템 응답 형틀을 생성하게 된다.
따라서, 자연어 생성부(29)에서는 목적 영역 및 일반 영역에 대한 시스템 응답 형틀로부터 자연어로 된 시스템 응답을 생성할 수 있다.
이상의 내용을 정리해보면, 본 발명에 따른 범용 대화서비스 장치(20)는, 입 력 질의어(문자 데이터 또는 음성발화 데이터 중 어느 하나임)를 영역(목적 영역, 일반 영역)별로 분류하기 위한 영역 분류부(21)와, 분류된 영역(목적 영역 또는 일반 영역)의 특화된 의미(목적 영역 의미 해석, 일반 영역 의미 해석)를 해석하여 현재 사용자 의도를 분석하기 위한 의미 해석부(22)와, 목적 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템이 가지고 있는 상태 정보(직전의 발화에서 시스템이 취한 의도(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도(이전 사용자 의도)로 구성되는 현재 시스템 상태 정보)와 상태 기반 추론 정책(상태 기반 추론 정책 DB(25))을 기반으로 목적 영역에 대한 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론부(24)와, 예제 대화 DB(27)를 참조하여, 목적 영역에 대한 현재 사용자 의도와 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀(일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀임)을 생성하기 위한 응답 형틀 생성부(28)와, 일반 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템 상태 정보와 예제 대화 DB(27)를 기반으로 일반 영역에 대한 현재 시스템 의도 및 시스템 응답 형틀(일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀임)을 추출하기 위한 예제 기반 응답 추론부(26)와, 이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어부(23)와, 목적 영역 및/또는 일반 영역에 대한 시스템 응답 형틀로부터 자연어로 된 시스템 응답을 생성하기 위한 자연어 생성부(29)를 포함한다.
본 발명에 따른 범용 대화서비스 장치(20)는 대화의 영역(목적 영역, 일반 영역)에 따라 시스템 상태 정보 및 예제 기반 응답 추론 모델을 같이 이용한다. 이때, 영역 분류부(21)를 통해 목적 영역과 일반 영역으로 사용자의 질의(문자 또는 음성발화 데이터 등)를 분류하여 처리한다. 그리고, 목적 영역과 일반 영역으로 분류된 사용자 질의의 영역에 따라 응답 추론부(상태 기반 응답 추론부(25), 예제 기반 응답 추론부(26))를 적용한다.
이때, 시스템 상태 제어부(23)에서는 시스템 상태 정보를 영역이 혼용된 대화의 기간 내에 통합 사용/유지할 수 있다. 이의 구체적인 구현 방법으로, 현재의 시스템 상태 정보는 시스템 상태 제어부(23)에 의해 관리되며, 직전의 발화에서 시스템이 취한 의도들(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도들(이전 사용자 의도)로 상태 정보가 이루어지며, 상태 기반 응답 추론부(24)와 예제 기반 응답 추론부(26)에서는 응답 추론의 입력으로 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보)를 사용한다. 이때, 목적 영역으로 분류된 사용자 질의의 영역에 대해서는 상태 기반 응답 추론부(23)를 적용하고, 일반 영역으로 분류된 사용자 질의의 영역에 대해서는 예제 기반 응답 추론부(26)를 적용한다.
여기서, 상태 기반 응답 추론부(23)에서는 분석된 사용자 발화의 의미(현재 사용자 의도)와 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보), 상태 기반 추론 정책을 입력으로 현재의 시스템 의도, 즉 시스템이 어떠한 발화나 행동을 할 것인가를 결정한다. 이때, 현재 시스템 상태 정보는 시스템 상태 제어부(23)에 의해 관리되며(다음 시스템 상태 정보로서 활용될 수 있음), 생성된 현재 시스템 의도는 응답 형틀 생성부(28)에 의해 예제 대화 DB(27)와 예외처리용 응답 형틀(도면에 도시되지 않음)을 참조하여 자연어 생성에 사용될 응답 형틀로 변형되어, 자연어 생성부(29)에서 일부 어휘의 교체와 어미/조사의 재배열 등을 통하여 사용자에게 전달된 시스템 발화(시스템 응답)으로 변환된다.
한편, 예제 기반 응답 추론부(26)에서는 분석된 사용자 발화의 의미(현재 사용자 의도)와 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보)를 참조하여 예제 대화 DB(27)에서 탐색하고, 해당 예문의 시스템 답변(시스템 응답)을 시스템 응답 형틀로 삼고, 이는 다시 자연어 생성부(29)에서 일부 어휘의 교체와 어미/조사의 재배열 등을 통하여 사용자에게 전달될 시스템 발화(시스템 응답)으로 변환된다.
상기와 같은 구성을 갖는 본 발명에 따른 범용 대화서비스 장치(20)의 동작을 도 3을 참조하여 살펴보면 다음과 같다.
사용자 질의는 열차예약과 같이 서비스가 제공하고자 하는 목적 영역 질의와, 채팅과 같은 그 밖의 일반 영역 질의로 분류할 수 있다.
따라서, 대화서비스 장치(20)에 이러한 영역이 혼용되어 발화되는 사용자 질의(문자 또는 음성발화 데이터 등)가 들어오면(301), 가장 먼저 영역 분류부(21)에서 목적 영역 질의와 일반 영역 질의로 질의의 영역을 판별한다(302). 이때, 영역을 판별하는 방법론으로는, 대화의 영역이 부착되어 수집된 대량의 사용자 질의 집합에서 훈련된 분류(Classification) 기법을 사용한다.
일 예로, 영역 분류부(21)에서는 음성언어 주제 판별 방식을 사용할 수 있다.
참고적으로, 음성언어 주제 판별 방식을 살펴보면, 사용자 음성을 인식하여 문장을 출력하고, 인식된 문장에서 속성을 추출한다. 이때, 속성 추출은 인식된 발화 문장에서 어휘 정보(주요 단어와 그 품사)를 추출하고, 각 주요 단어의 상/하위 관계 등을 고려하여 개념 정보('상/하위 단어')를 추출하거나, 주요 단어들 간에 어휘/구문 관계를 고려하여 문맥 정보를 추출하거나, 발화 문장이 적어도 2개의 문장으로 이루어진 경우 발화 문장 간에 수사 관계를 고려하여 '문장간 수사 관계'를 추출한다. 다만, 단어의 어휘 정보와 개념 정보, 단어들 간의 문맥 정보, 문장들 간의 수사 관계는 각각 독립적인 분류 속성으로 이의 일부 혹은 전체를 분류 속성으로 사용 가능하다. 이후, 사용자 질의에서 추출된 속성과 미리 훈련된 주제별 속성 집합을 비교하여 인식된 문장의 속성에 가장 가까운 속성 집합의 주제 코드를 찾고, 그 유사도를 계산한다. 만약, 계산된 유사도가 미리 설정된 임계치보다 높거나 같은 경우 찾아진 주제 코드를 입력 음성의 주제 코드로 최종 확정하여 출력하고, 임계치보다 낮은 경우 주제 판별이 실패한 것으로 판단하여 주제 판별 실패 코드를 출력한다.
예를 들면, 사용자로부터의 음성으로부터 얻을 수 있는 문장이 "객실 예약을 하고 싶은데요."일 때, 이 문장으로부터 얻을 수 있는 주요 단어들은 '객실', '예약', '하다'이다. 이들 단어로부터 추출 가능한 상위어는 '객실'의 상위어인 '호텔', '예약'의 상위어인 '고객대응'이다. 이때, 추출된 구문 관계는 '예약'과 '하다'의 목적격 관계인 '예약-을-하다'이다. 이러한 과정을 거쳐, 이 문장의 속성은 {'객실', "예약', '하다', '호텔', '고객대응', '예약-을-하다'}로 표현된다.
또 다른 예로, 사용자의 음성이 "어제 예약을 했는데요. 그런데, 오늘 일이 생겨서요."일 때, '(예약-을-하다) - 반전 - (일-이-생기다)'와 같은 문장간 수사 관계를 추출할 수 있다. 이 음성의 속성은 이 문장간 수사 관계를 포함하여 {'어제', '예약', '하다', '오늘', '일', '생기다', '날짜', '고객대응', '예약-을-하다', '일-이-생기다', '(예약-을-하다) - 반전 - (일-이-생기다)'}로 표현된다.
이와 같은 음성언어 주제 판별 방식을 통해 영역 분류부(21)는 사용자의 발화 음성을 인식하여, 인식된 발화 문장에서 주요 어휘를 추출한 후 각 주요 단어의 상/하위 관계 등을 고려하여 개념 정보를 추출하거나, 인식된 발화 문장에서 주요 단어를 추출하고 주요 단어들 간에 어휘/구문 관계를 고려하여 문맥 정보를 추출하거나, 발화 문장이 적어도 2개의 문장으로 이루어진 경우 인식된 발화 문장들에서 주요 단어를 추출하고 발화 문장 간에 수사 관계를 고려하여 '문장 간 수사 관계'를 추출함으로써, 추출된 속성들로 표현된 문장을 주제별로 분류할 수 있다.
이후, 영역 분류부(21)에서 영역(목적 영역 또는 일반 영역)이 분류된 사용자 질의는 영역에 특화된 의미 해석부(22)를 통하여 해당 영역에서 필요한 의미를 분석한다(303,304). 즉, 목적 영역으로 분류된 사용자 질의의 영역에 대해서는 목적 영역 의미 해석을 통하여 사용자의 의도(현재 사용자 의도)를 파악하고(303), 일반 영역으로 분류된 사용자 질의의 영역에 대해서는 일반 영역 의미 해석을 통하여 사용자의 의도(현재 사용자 의도)를 파악한다(304).
예를 들어, "대전에 가는 열차를 예약해 주세요."라는 사용자 발화에 대해서, [열차 예약]이라는 목적 영역으로 분류되었으면(302), 이 목적 영역을 해석하 는 의미 해석부(21)에 의해 {사용자의도="열차예약", 도착역="대전", 문형="요청"} 등과 같이 분석된다(303).
이후, 분석된 사용자 발화의 의미(현재 사용자 의도)를 입력으로 상태 기반 응답 추론부(24)는 시스템의 의도, 즉 "확인(출발역=서울)"과 같이 시스템이 어떠한 발화나 행동을 할 것인가를 결정한다(306).
이때, 상태 기반 응답 추론부(24)는 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보)(309)와 상태 기반 추론 정책(상태 기반 추론 정책 DB(25))을 기반으로 시스템 의도를 추론한다(308). 여기서, 상태 기반 추론 정책이란, 시스템의 각 상태에서 취할 수 있는 시스템의 의도를 수작업 혹은 통계적으로 나열한 정책 규칙이다. 그리고, 현재의 시스템 상태 정보(309)는 시스템 상태 제어부(23)에 의해 관리되며, 직전의 발화에서 시스템이 취한 의도, 그동안 대화에서 누적된 사용자의 의도들로 정보 상태가 이루어진다.
상기에서, 현재 시스템 상태 정보(309)는 다음과 같이 생성된다.
최초 대화 1단계에서 사용자 의도A[예로서, "열차를 예약해 주세요"라는 사용자 발화에 대해 {사용자의도="열차예약", 문형="요청"}](305)에 대해 시스템 의도B[예로서, "확인(출발역=서울)"](308)가 생성되었다고 가정하고, 대화 2단계에서 사용자 의도C[예로서, "서울에서 출발합니다"라는 사용자 발화에 대해 {사용자의도="출발역(서울)", 문형="응답"}](305)에 대해 시스템 의도D[예로서, "확인(도착역=대전)"](308)가 생성되었다고 가정하며, 대화 3단계에서 사용자 의도E[예로서, "대전에 도착합니다"라는 사용자 발화에 대해 {사용자의도="도착역(대전)", 문형="응 답"}](305)에 대해 시스템 의도F[예로서, "예약완료되었습니다"](308)가 생성되었다고 가정하자.
이 경우, 사용자 의도A(305)에 대해서는 초기 시스템 상태 정보(309)를 바탕으로 이전 시스템 의도B(308)가 생성된다. 그러나, 사용자 의도C(305)에 대해서는 이전까지 누적된 제1 시스템 상태 정보[(사용자 의도A, 시스템 의도B)](309)를 바탕으로 시스템 의도D(308)가 생성될 것이다. 그리고, 사용자 의도E(305)에 대해서는 이전까지 누적된 제2 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)](309)를 바탕으로 시스템 의도F(308)가 생성될 것이다.
이처럼, '시스템 의도B'(308)는 초기 시스템 상태 정보(309)를 바탕으로 한 사용자 의도A(305)에 대한 시스템 의도이고, '시스템 의도D'(308)는 제1 이전 시스템 상태 정보(초기 시스템 상태 정보를 바탕으로 한 사용자 의도A에 대한 시스템 의도B의 상태값(코딩값))(309)를 바탕으로 한 사용자 의도C(305)에 대한 시스템 의도이며, '시스템 의도F'(308)는 제2 이전 시스템 상태 정보(제1 이전 시스템 상태 정보를 바탕으로 한 사용자 의도C에 대한 시스템 의도D의 상태값)(309)를 바탕으로 한 사용자 의도E(305)에 대한 시스템 의도가 될 것이다.
따라서, 시스템 상태 제어부(23)는 이전 사용자 의도(예로서, 사용자 의도C) 및 이전 시스템 의도(예로서, 사용자 의도C에 대한 시스템 의도D)와 그 이전까지 누적된 시스템 상태 정보(예로서, 사용자 의도A에 대한 시스템 의도B)로부터 현재 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)]를 생성한다(309). 그러면, 상태 기반 응답 추론부(24)에서는 현재 시스템 상태 정 보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)](309)와 목적 영역에 대한 현재 사용자 의도(예로서, 사용자 의도E)(305), 상태 기반 추론 정책(상태 기반 추론 정책 DB(25))을 바탕으로 목적 영역에 대한 현재 시스템 의도(예로서, 시스템 의도F)(308)를 추론할 수 있게 된다. 이때, 현재 시스템 의도F(308)는 대화 단계가 지속되는 경우(예로서, 대화 4단계) 다음 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D), (사용자 의도E, 시스템 의도F)]에 반영된다.
이와 같이 생성된 시스템의 의도(308)는 응답 형틀 생성부(28)에서 자연어 생성에 사용될 시스템 응답 형틀로 변형된다(310). 이때, 예제 대화 DB(27)를 참조하여 시스템 응답 형틀을 생성하는데, 만약 목적 영역에 대한 시스템 응답 형틀이 예제 대화 DB(27)에 없는 경우, 예외처리용 응답 형틀을 참조한다.
여기서, 응답 형틀이란 일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀을 의미하며, 시스템 의도에 대해 "$(출발역=서울)에서 출발하십니까?"와 같은 시스템 응답 형틀을 생성한다(310).
이후, 자연어 생성부(29)에서는 시스템 응답 형틀(311)로부터 일부 어휘의 교체와 어미/조사의 재배열 등을 통하여 실제 사용자에게 전달될 시스템 발화(시스템 응답)를 생성한다(312,313).
한편, "서울에서 출발하십니까?"와 같은 시스템 발화(시스템 응답)에 대하여 사용자는 "예 맞습니다." 혹은 "서울에서부터 2장 예매해 주세요." 등과 같이 시스템이 원하는 [열차 예약] 목적 영역의 발화를 할 수도 있지만, "오늘 어때?"와 같 이 다소 서비스 목적과 동떨어진 발화(일반 영역 대화)를 할 수 있다(301). 이러한 경우, 영역 분류부(21)에 의해 일반 영역의 발화로 분류되어(302) 일반 영역을 해석하는 의미 해석부(22)에 의해 그 의미가 분석된다(304). 이 경우, 해석된 사용자 의도는 {사용자의도="인사", 문형="HOW"}와 같다.
이후, 예제 기반 응답 추론부(26)는 사용자 발화(사용자 의도)와 가장 가까운 의미를 가진 예문을 해석된 사용자 의도(현재 사용자 의도)와 현재의 시스템 상태 정보(현재 시스템 상태 정보)(309)를 참고하여 예제 대화 DB(27)에서 탐색하여 해당 예문의 시스템 답변(시스템 응답)을 시스템 응답 형틀로 삼는다(311).
여기서, 예제 대화 DB(27)를 검색할 때, 사용자 발화의 의미(사용자 의도)뿐만이 아니라, "사용자의 요청에 대한 확인을 요청"하고 있는 시스템의 현재 상태 정보(현재 시스템 상태 정보)(309)를 참고하여 이러한 상황과 가장 가까운 발화의 답변 "모르니까 물어보지"를 검색한다. 이때, 예제 대화 DB(27)에는 시스템의 응답 형틀의 형태로 시스템 발화(시스템 응답)가 저장되어 있으므로 예제 기반 응답 추론부(26)의 추론 결과는 시스템 응답 형틀이다(311). 이는(311) 다시 자연어 생성부(29)에서 일부 어휘의 교체와 어미/조사의 재배열 등을 통하여 실제 사용자에게 전달될 시스템의 발화(시스템 응답)로 생성된다(312,313). 여기서, 예제 기반 응답 추론시(307), 만약 일반 영역에 대한 시스템 응답 형틀이 예제 대화 DB(27)에 없는 경우, 예외처리용 응답 형틀을 참조한다.
이때, 현재 시스템 상태 정보(309)는 상기 목적 영역에 대한 응답 추론 방식과 같이 일반 영역의 사용자 의도A(305)에 대해서는 초기 시스템 상태 정보(309)를 바탕으로 이전 시스템 의도B(308)가 생성된다. 그리고, 일반 영역의 사용자 의도C(305)에 대해서는 이전까지 누적된 제1 시스템 상태 정보[(사용자 의도A, 시스템 의도B)](309)를 바탕으로 시스템 의도D(308)가 생성될 것이다. 또한, 일반 영역의 사용자 의도E(305)에 대해서는 이전까지 누적된 제2 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)](309)를 바탕으로 시스템 의도F(308)가 생성될 것이다.
따라서, 시스템 상태 제어부(23)는 이전 사용자 의도(예로서, 사용자 의도C) 및 이전 시스템 의도(예로서, 사용자 의도C에 대한 시스템 의도D)와 그 이전까지 누적된 시스템 상태 정보(예로서, 사용자 의도A에 대한 시스템 의도B)로부터 현재 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)]를 생성한다(309). 그러면, 예제 기반 응답 추론부(26)에서는 현재 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)](309)와 일반 영역에 대한 현재 사용자 의도(예로서, 사용자 의도E)(305), 예제 대화 DB(27)를 바탕으로 일반 영역에 대한 현재 시스템 의도(예로서, 시스템 의도F)(308)를 추론할 수 있게 된다. 이때, 현재 시스템 의도F(308)는 대화 단계가 지속되는 경우(예로서, 대화 4단계) 다음 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D), (사용자 의도E, 시스템 의도F)]에 반영된다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상 의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
상기와 같은 본 발명은, 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있는 영역에서 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론할 수 있고, 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변을 만들어 높은 대화 품질을 가지는 범용의 대화서비스를 제공할 수 있는 효과가 있다.

Claims (22)

  1. 대화서비스 장치에 있어서,
    입력 질의어를 영역별로 분류하기 위한 영역분류수단;
    상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단;
    현재 시스템 상태 정보를 참조하여, 영역별로 분류된 현재 사용자 의도에 대한 현재 시스템 의도를 추론하기 위한 응답추론수단;
    이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 상기 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단;
    상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 '목적 영역에 대한 시스템 응답 형틀'을 생성하기 위한 응답 형틀 생성수단; 및
    상기 '목적 영역에 대한 시스템 응답 형틀' 및/또는 '일반 영역에 대한 시스템 응답 형틀'로부터 시스템 응답을 생성하기 위한 시스템 응답 생성수단
    을 포함하는 범용 대화서비스 장치.
  2. 제 1 항에 있어서,
    상기 현재 시스템 상태 정보는,
    직전의 발화에서 시스템이 취한 의도(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도(이전 사용자 의도)로 구성되는 것을 특징으로 하는 범용 대화서비스 장치.
  3. 제 2 항에 있어서,
    상기 현재 시스템 상태 정보는,
    초기 시스템 상태 정보와, 이를 바탕으로 이전 사용자 의도A에 대한 이전 시스템 의도B의 대화 1단계의 상태값(코딩값)과, 제1 시스템 상태 정보 '(사용자 의도A, 시스템 의도B)'를 바탕으로 이전 사용자 의도C에 대한 이전 시스템 의도D의 대화 2단계의 상태값(코딩값)과, 제2 시스템 상태 정보 '(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)'를 바탕으로 현재 사용자 의도E에 대한 현재 시스템 의도F의 대화 3단계 상태값(코딩값)으로 이루어지는 것을 특징으로 하는 범용 대화서비스 장치.
  4. 제 1 항에 있어서,
    상기 목적/일반 영역에 대한 시스템 응답 형틀은,
    일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀인 것을 특징으로 하는 범용 대화서비스 장치.
  5. 제 1 항에 있어서,
    상기 질의어는,
    언어적인 정보 및 비언어적인 정보를 포함하는 멀티모달 입력 중 하나인 것을 특징으로 하는 범용 대화서비스 장치.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 시스템 상태 제어수단은,
    상기 이전/현재 시스템 상태 정보를 영역이 혼용된 대화의 기간 내에 통합 사용 및 유지ㆍ관리할 수 있는 것을 특징으로 하는 범용 대화서비스 장치.
  7. 제 6 항에 있어서,
    상기 응답추론수단은,
    목적 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역에 대한 상기 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론수단; 및
    일반 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 예제 대화 DB를 기반으로 일반 영역에 대한 상기 현재 시스템 의도 및 상기 '일반 영역에 대한 시스템 응답 형틀'을 추출하기 위한 예제 기반 응답 추론수단
    을 포함하는 범용 대화서비스 장치.
  8. 제 7 항에 있어서,
    상기 응답 형틀 생성수단은,
    상기 예제 대화 DB를 참조하여, 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 상기 '목적 영역에 대한 시스템 응답 형틀'을 생성하는 것을 특징으로 하는 범용 대화서비스 장치.
  9. 제 8 항에 있어서,
    상기 '목적/일반 영역에 대한 시스템 응답 형틀'이 상기 예제 대화 DB에 없는 경우, 예외처리용 응답 형틀을 참조하는 것을 특징으로 하는 범용 대화서비스 장치.
  10. 제 6 항에 있어서,
    상기 시스템 응답 생성수단은,
    상기 '목적/일반 영역에 대한 시스템 응답 형틀'로부터 자연어로 된 시스템 응답을 생성하는 것을 특징으로 하는 범용 대화서비스 장치.
  11. 제 7 항에 있어서,
    상기 상태 기반 추론 정책은,
    시스템의 각 상태에서 취할 수 있는 시스템의 의도(시스템이 어떠한 발화나 행동을 할 것인가를 나타내는 정보)를 수작업 혹은 통계적으로 나열한 정책인 것을 특징으로 하는 범용 대화서비스 장치.
  12. 대화서비스 장치에 있어서,
    입력 질의어를 영역별로 분류하기 위한 영역분류수단;
    상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단;
    목적 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보)와 상태 기반 추론 정책을 기반으로 목적 영역에 대한 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론수단;
    예제 대화 DB를 참조하여, 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성하기 위한 응답 형틀 생성수단;
    일반 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 상기 예제 대화 DB를 기반으로 일반 영역에 대한 현재 시스템 의도 및 시스템 응답 형틀을 추출하기 위한 예제 기반 응답 추론수단;
    이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 상기 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단; 및
    목적 영역 및/또는 일반 영역에 대한 상기 시스템 응답 형틀로부터 자연어로 된 시스템 응답을 생성하기 위한 자연어 생성수단
    을 포함하는 범용 대화서비스 장치.
  13. 대화서비스 방법에 있어서,
    입력 질의어를 영역별로 분류하는 단계;
    상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하는 단계;
    이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하는 단계;
    상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역의 현재 사용자 의도에 대한 현재 시스템 의도를 추론하는 단계;
    목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목 적 영역에 대한 시스템 응답 형틀을 생성하는 단계;
    상기 현재 시스템 상태 정보와 예제 대화 DB를 기반으로 일반 영역의 현재 사용자 의도에 대한 일반 영역의 현재 시스템 의도 및 시스템 응답 형틀을 추출하는 단계; 및
    목적 영역 및/또는 일반 영역에 대한 상기 시스템 응답 형틀로부터 시스템 응답을 생성하는 단계
    를 포함하는 범용 대화서비스 방법.
  14. 제 13 항에 있어서,
    목적/일반 영역에 대한 상기 시스템 응답 형틀이 상기 예제 대화 DB에 없는 경우, 예외처리용 응답 형틀을 참조하여 시스템 응답 형틀을 생성하는 단계
    를 더 포함하는 범용 대화서비스 방법.
  15. 제 13 항 또는 제 14 항에 있어서,
    상기 현재 시스템 상태 정보는,
    직전의 발화에서 시스템이 취한 의도(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도(이전 사용자 의도)로 구성되는 것을 특징으로 하는 범용 대화서비스 방법.
  16. 제 15 항에 있어서,
    상기 현재 시스템 상태 정보는,
    초기 시스템 상태 정보와, 이를 바탕으로 이전 사용자 의도A에 대한 이전 시스템 의도B의 대화 1단계의 상태값(코딩값)과, 제1 시스템 상태 정보 '(사용자 의도A, 시스템 의도B)'를 바탕으로 이전 사용자 의도C에 대한 이전 시스템 의도D의 대화 2단계의 상태값(코딩값)과, 제2 시스템 상태 정보 '(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)'를 바탕으로 현재 사용자 의도E에 대한 현재 시스템 의도F의 대화 3단계 상태값(코딩값)으로 이루어지는 것을 특징으로 하는 범용 대화서비스 방법.
  17. 제 15 항에 있어서,
    상기 목적/일반 영역에 대한 시스템 응답 형틀은,
    일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀인 것을 특징으로 하는 범용 대화서비스 방법.
  18. 제 17 항에 있어서,
    상기 질의어는,
    언어적인 정보 및 비언어적인 정보를 포함하는 멀티모달 입력 중 하나인 것을 특징으로 하는 범용 대화서비스 방법.
  19. 제 17 항에 있어서,
    상기 목적 영역에 대한 시스템 응답 형틀을 생성하는 과정에서는,
    상기 예제 대화 DB를 참조하여, 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 상기 '목적 영역에 대한 시스템 응답 형틀'을 생성하는 것을 특징으로 하는 범용 대화서비스 방법.
  20. 제 17 항에 있어서,
    상기 시스템 응답을 생성하는 과정에서는,
    상기 '목적/일반 영역에 대한 시스템 응답 형틀'로부터 자연어로 된 시스템 응답을 생성하는 것을 특징으로 하는 범용 대화서비스 장치.
  21. 제 17 항에 있어서,
    상기 상태 기반 추론 정책은,
    시스템의 각 상태에서 취할 수 있는 시스템의 의도(시스템이 어떠한 발화나 행동을 할 것인가를 나타내는 정보)를 수작업 혹은 통계적으로 나열한 정책인 것을 특징으로 하는 범용 대화서비스 방법.
  22. 프로세서를 구비한 범용 대화서비스 장치에,
    입력 질의어를 영역별로 분류하는 기능;
    상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하는 기능;
    이전 사용자/시스템 의도와 그 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하는 기능;
    상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역의 현재 사용자 의도에 대한 현재 시스템 의도를 추론하는 기능;
    목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성하는 기능;
    상기 현재 시스템 상태 정보와 예제 대화 DB를 기반으로 일반 영역의 현재 사용자 의도에 대한 일반 영역의 현재 시스템 의도 및 시스템 응답 형틀을 추출하는 기능; 및
    목적 영역 및/또는 일반 영역에 대한 상기 시스템 응답 형틀로부터 시스템 응답을 생성하는 기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020070064510A 2007-06-28 2007-06-28 범용 대화서비스 장치 및 그 방법 KR101322486B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070064510A KR101322486B1 (ko) 2007-06-28 2007-06-28 범용 대화서비스 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070064510A KR101322486B1 (ko) 2007-06-28 2007-06-28 범용 대화서비스 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20090000442A true KR20090000442A (ko) 2009-01-07
KR101322486B1 KR101322486B1 (ko) 2013-10-25

Family

ID=40483631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070064510A KR101322486B1 (ko) 2007-06-28 2007-06-28 범용 대화서비스 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR101322486B1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011087909A3 (en) * 2010-01-15 2011-12-01 Compass Labs, Inc. User communication analysis systems and methods
US8370130B2 (en) 2009-09-01 2013-02-05 Electronics And Telecommunications Research Institute Speech understanding system using an example-based semantic representation pattern
KR20180090729A (ko) * 2016-12-30 2018-08-13 구글 엘엘씨 음성 활성 데이터 패킷의 데이터 구조 풀링
US10490184B2 (en) 2016-11-10 2019-11-26 Samsung Electronics Co., Ltd. Voice recognition apparatus and method
KR20190141031A (ko) * 2016-12-30 2019-12-20 구글 엘엘씨 패킷화된 오디오 신호의 변조
US10771408B2 (en) 2017-11-27 2020-09-08 Electronics And Telecommunications Research Institute Chatbot system and service method thereof
US10891968B2 (en) 2013-01-07 2021-01-12 Samsung Electronics Co., Ltd. Interactive server, control method thereof, and interactive system
US11017428B2 (en) 2008-02-21 2021-05-25 Google Llc System and method of data transmission rate adjustment
US11295738B2 (en) 2016-12-30 2022-04-05 Google, Llc Modulation of packetized audio signals

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102315350B1 (ko) 2015-08-27 2021-10-20 삼성전자주식회사 질의 처리 자동화 장치 및 방법
KR101929800B1 (ko) 2017-02-24 2018-12-18 주식회사 원더풀플랫폼 주제별 챗봇 제공 방법 및 이를 이용한 주제별 챗봇 제공 시스템
KR101999657B1 (ko) 2017-09-22 2019-07-16 주식회사 원더풀플랫폼 챗봇을 이용한 사용자 케어 시스템
KR20230050885A (ko) 2021-10-08 2023-04-17 주식회사 케이티 대화 서비스를 제공하는 단말, 방법 및 컴퓨터 프로그램

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446627B1 (ko) * 2002-03-29 2004-09-04 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017428B2 (en) 2008-02-21 2021-05-25 Google Llc System and method of data transmission rate adjustment
US8370130B2 (en) 2009-09-01 2013-02-05 Electronics And Telecommunications Research Institute Speech understanding system using an example-based semantic representation pattern
WO2011087909A3 (en) * 2010-01-15 2011-12-01 Compass Labs, Inc. User communication analysis systems and methods
US10891968B2 (en) 2013-01-07 2021-01-12 Samsung Electronics Co., Ltd. Interactive server, control method thereof, and interactive system
US11854570B2 (en) 2013-01-07 2023-12-26 Samsung Electronics Co., Ltd. Electronic device providing response to voice input, and method and computer readable medium thereof
US10490184B2 (en) 2016-11-10 2019-11-26 Samsung Electronics Co., Ltd. Voice recognition apparatus and method
US11482216B2 (en) 2016-12-30 2022-10-25 Google Llc Modulation of packetized audio signals
US10719515B2 (en) 2016-12-30 2020-07-21 Google Llc Data structure pooling of voice activated data packets
KR20190141031A (ko) * 2016-12-30 2019-12-20 구글 엘엘씨 패킷화된 오디오 신호의 변조
US10423621B2 (en) 2016-12-30 2019-09-24 Google Llc Data structure pooling of voice activated data packets
US11295738B2 (en) 2016-12-30 2022-04-05 Google, Llc Modulation of packetized audio signals
KR20190099353A (ko) * 2016-12-30 2019-08-26 구글 엘엘씨 음성 활성 데이터 패킷의 데이터 구조 풀링
US11625402B2 (en) 2016-12-30 2023-04-11 Google Llc Data structure pooling of voice activated data packets
KR20180090729A (ko) * 2016-12-30 2018-08-13 구글 엘엘씨 음성 활성 데이터 패킷의 데이터 구조 풀링
US11948572B2 (en) 2016-12-30 2024-04-02 Google Llc Modulation of packetized audio signals
US10771408B2 (en) 2017-11-27 2020-09-08 Electronics And Telecommunications Research Institute Chatbot system and service method thereof

Also Published As

Publication number Publication date
KR101322486B1 (ko) 2013-10-25

Similar Documents

Publication Publication Date Title
KR101322486B1 (ko) 범용 대화서비스 장치 및 그 방법
US10319381B2 (en) Iteratively updating parameters for dialog states
US6484136B1 (en) Language model adaptation via network of similar users
Zue et al. Conversational interfaces: Advances and challenges
Klaylat et al. Emotion recognition in Arabic speech
JP3454897B2 (ja) 音声対話システム
Tutuarima et al. An analysis of speech act used in London Has Fallen movie
US20190221208A1 (en) Method, user interface, and device for audio-based emoji input
US20070124142A1 (en) Voice enabled knowledge system
WO2008128423A1 (fr) Système de dialogue intelligent et son procédé de réalisation
JP2001005488A (ja) 音声対話システム
CN114116994A (zh) 一种迎宾机器人对话方法
Kaushik et al. Automatic sentiment detection in naturalistic audio
JP2001357053A (ja) 対話装置
Delgado et al. Spoken, multilingual and multimodal dialogue systems: development and assessment
CN112669842A (zh) 人机对话控制方法、装置、计算机设备及存储介质
JP4383328B2 (ja) 意味的速記のためのシステム及び方法
KR101959292B1 (ko) 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
CN111128175B (zh) 口语对话管理方法及系统
CN115292461A (zh) 基于语音识别的人机交互学习方法及系统
Koumpis et al. Content-based access to spoken audio
US7085720B1 (en) Method for task classification using morphemes
Yoon et al. Fear emotion classification in speech by acoustic and behavioral cues
CN116450799B (zh) 一种应用于交通管理服务的智能对话方法及设备
Roy et al. Wearable audio computing: A survey of interaction techniques

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161005

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190903

Year of fee payment: 7