KR100276687B1 - Interactive Learning Aid and Its Conversation Analysis Method U - Google Patents

Interactive Learning Aid and Its Conversation Analysis Method U Download PDF

Info

Publication number
KR100276687B1
KR100276687B1 KR1019980048384A KR19980048384A KR100276687B1 KR 100276687 B1 KR100276687 B1 KR 100276687B1 KR 1019980048384 A KR1019980048384 A KR 1019980048384A KR 19980048384 A KR19980048384 A KR 19980048384A KR 100276687 B1 KR100276687 B1 KR 100276687B1
Authority
KR
South Korea
Prior art keywords
speech
analysis
data
storage device
user
Prior art date
Application number
KR1019980048384A
Other languages
Korean (ko)
Other versions
KR20000032056A (en
Inventor
차건회
박재득
Original Assignee
정선종
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정선종, 한국전자통신연구원 filed Critical 정선종
Priority to KR1019980048384A priority Critical patent/KR100276687B1/en
Publication of KR20000032056A publication Critical patent/KR20000032056A/en
Application granted granted Critical
Publication of KR100276687B1 publication Critical patent/KR100276687B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2452Query translation
    • G06F16/24522Translation of natural language queries to structured queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling

Abstract

본 발명은 대화식 학습 보조 장치 및 그의 대화분석 방법에 관한 것이다.The present invention relates to an interactive learning aid and a method of analyzing the same.

본 발명은 형태소 및 구문 분석과, 의미 및 담화분석에 필요한 데이터를 제공하기 위한 사전저장 장치와, 대화분석에 필요한 데이터를 제공하기 위한 지식베이스 저장 장치와, 마이크를 통해 입력된 음성을 동일한 내용의 텍스트로 변환하기 위한 음성/텍스트 변환 장치와, 상기 음성/텍스트 변환 장치로부터 출력되는 데이터를 상기 사전저장 장치의 데이터와 비교하여 순차적으로 형태소 분석, 구문 분석 및 의미 분석을 하기 위한 형태소 해석기, 구문 분석기 및 의미 해석기와, 상기 의미 해석기로부터 출력되는 데이터를 상기 사전저장 장치의 데이터를 참조하여 생략 및 대용어 해결을 하기 위한 담화 분석기와, 상기 담화 분석기로부터 출력되는 데이터를 상기 지식베이스 저장 장치의 데이터와 비교하여 용언의 하위범주화 정보로 변환하고, 이것으로부터 화행, 영역내 키워드, 영역내 적합성 판단, 데이터베이스 질의어 생성 및 검색 등을 수행하기 위한 대화 관리기와, 상기 대화 관리기로부터 출력되는 데이터를 상기 음성/텍스트 변환 장치의 데이터와 비교하여 화행, 데이터베이스 검색 결과 및 영역내 적합도로부터 사용자에게 제공할 문장을 생성하기 위한 응답 생성기를 포함하여 이루어지며, 인간이 사용하는 언어만을 통하여 자신의 학습에 도움을 얻는 장치를 획득할 수 있는 장치 및 대화분석 방법을 제공한다.The present invention provides a pre-storage device for providing data for morphological and syntax analysis, meaning and discourse analysis, a knowledge base storage device for providing data for dialogue analysis, and a voice input through a microphone. A speech / text converter for converting text into text, and a morpheme parser and syntax analyzer for sequentially morphological analysis, syntax analysis, and semantic analysis by comparing the data output from the speech / text conversion device with data of the pre-storage device. And a speech analyzer to omit and substitute the data output from the semantic parser with reference to the data of the pre-storage device, and to resolve the terminology, and the data output from the speech analyzer to the data of the knowledge base storage device. Compare and convert them into subcategories of verbs, A conversation manager for performing dialogue acts, keyword in region, suitability in region, database query generation and search, and speech acts and database search results by comparing the data output from the conversation manager with the data of the speech / text converter. And a response generator for generating a sentence to be provided to the user from the region's goodness-of-fit, and provides a device and a conversation analysis method capable of acquiring a device for helping his / her learning through only a language used by a human. .

Description

대화식 학습 보조 장치 및 그의 대화분석 방법Interactive Learning Aid and Its Conversation Analysis Method

본 발명은 컴퓨터의 사용자가 컴퓨터의 상세한 지식이나 기술없이도 인간이 사용하는 언어만을 통하여 자신의 학습에 도움을 얻는 장치를 획득할 수 있는 대화식 학습 보조 장치 및 그의 대화분석 방법에 관한 것이다.The present invention relates to an interactive learning assist device and a method for analyzing the dialogue thereof, which enable a user of a computer to obtain a device for helping his / her learning through only a language used by a human being without detailed knowledge or skills of the computer.

여기서, 학습에 도움을 얻는 장치라 함은 학습자가 자신의 과제를 수행하는데 있어서 지식이 결핍되어 있을 경우에 컴퓨터에 부착된 마이크를 통해서 결핍된 지식에 관한 사항에 대해 인간의 음성을 발하여 컴퓨터에게 전달하면, 컴퓨터가 그 발화된 음성언어를 형태소분석, 구문분석, 의미분석 및 담화분석과 대화분석을 통하여 사용자 요구사항이나 해당지식에 적합한 데이터베이스내의 자료를 추출하고 그 지식을 다시 인간의 음성언어로 생성해내는 장치를 의미한다.Here, a device that helps learning is to transmit a human voice to the computer by using a microphone attached to the computer when the learner lacks knowledge in performing his or her task. Then, the computer extracts the data in the database suitable for the user's requirements or the corresponding knowledge through morphological analysis, syntactic analysis, semantic analysis, discourse analysis, and dialogue analysis of the spoken speech language and generates the knowledge in human voice language again. Means a device to pull out.

1980년대부터, 자연언어를 이용해서 컴퓨터를 활용하고자 하는 연구가 계속되어 왔다. 일예로, PLANES(1978), LADDER(1978), PHLOIA1(1980), TOA(1980), COOP (1982), TEAM(1987), IRUS(1986), TELJ(1986), LOKI(1988), JANUS(1989) 등의 자연언어 데이터베이스 인터페이스 시스템들이 개발되었으며, INTELECT, Q&A, Natural, Language 등의 상용시스템들도 개발된 바 있다. 기존의 연구들은 근본적으로 사용자가 하나의 질의를 던지고 시스템이 그 질의에 대한 수행결과를 보여주는 것으로서, 사용자가 이전의 질의나 수행결과 등을 이용할 수 없었다. 따라서 사용자는 하나의 질의를 만들기 위해 긴 문장을 입력해야 하기 때문에 더 불편하게 느끼고 자연언어 처리부의 복잡도도 늘어나게 되었다.Since the 1980s, research into using computers using natural language has been continued. For example, PLANES (1978), LADDER (1978), PHLOIA1 (1980), TOA (1980), COOP (1982), TEAM (1987), IRUS (1986), TELJ (1986), LOKI (1988), JANUS ( Natural language database interface systems have been developed, and commercial systems such as INTELECT, Q & A, Natural, and Language have been developed. Existing studies are basically that the user throws a query and the system shows the result of the query. The user cannot use the previous query or the result. Therefore, the user feels more uncomfortable because the user has to enter a long sentence to make a query, and the complexity of the natural language processor increases.

국내에서의 자연언어 처리는 형태소 분석이나 구문분석 단계에 치중해 연구되어져 왔으며, 의미처리에 관한 연구는 기계 번역 등의 응용시스템에 종속적으로 연구되어져 왔다. 이러한 연구에서는 의미자질을 사용한다던가, 타당한 의미를 검사한다던가 하는 방식으로 의미를 사용하지만, 문장의 전체적인 의미를 나타내는 형식구조를 가지고 있지는 못하다. 최근에 들어서야 의미구조로 개념 그래프(conceptual graph)를 사용하는 연구가 진행되고 있지만, 이 방법의 경우 파싱과 의미분석이 독립적으로 일어나므로 체계화하기 어렵고, 파싱과정에서 의미정보를 이용해 분석경로(parse paths)를 줄일 수 있는 장점을 충분히 활용하지 못하게 된다. 구문분석과 의미분석을 결합시키는 구문중심의 의미파싱 기법은 의미구조를 생성하는 순서와 방법이 구문정보에 의해 제어되는 방법으로, 파싱과 의미분석을 결합시켜 수행함으로써 파싱 과정에서 의미정보를 사용하여 가능한 분석경로(parse paths)를 줄일 수 있다는 점과, 처리 속도가 빠르다는 장점이 있다.Natural language processing in Korea has been studied with emphasis on morphological analysis and syntax analysis, and research on semantic processing has been studied depending on application systems such as machine translation. In these studies, meaning is used in such a way as to use semantic features or to examine valid meanings, but it does not have a formal structure that represents the overall meaning of a sentence. Recently, researches using conceptual graphs as a semantic structure have been conducted.However, in this method, parsing and semantic analysis are performed independently, so it is difficult to organize them. Parse paths using semantic information during the parsing process You won't be able to take full advantage of this. The syntax-based semantic parsing technique that combines syntactic analysis and semantic analysis is a method in which the order and method of generating the semantic structure are controlled by the syntactic information. There are advantages in reducing possible parse paths and faster processing.

따라서, 본 발명은 사용자의 질문에 대한 일방적인 시스템의 응답 혹은 일방적인 시스템의 질문에 대한 사용자의 응답만으로 구현된 기존의 자연언어 인터페이스 시스템에서 해결하지 못하는 생략/대용어 현상, 대화초점 파악 및 유지, 서브대화, 근접답변 제시와 같이 대화체에 빈번하게 발생하는 현상을 해결하기 위해 구현된 대화시스템을 학습 도구에 적용함으로써 기존의 컴퓨터와 인터넷에 대한 지식이 부족한 일반 사용자들이 손쉽게 인터넷상의 정보와 자료를 얻을 수 없었던 문제를 해결할 수 있는 대화식 학습 보조 장치 및 그의 대화분석 방법을 제공하는데 그 목적이 있다.Therefore, the present invention can identify and maintain the omission / substitute phenomena, conversation focus that cannot be solved in the existing natural language interface system implemented only by the response of the user's response to the user's question or the user's response to the question of the one-side system. By applying the dialogue system to the learning tool, which is implemented to solve the phenomena that occur frequently in the dialogues such as sub-dialogs and the presentation of proximity answers, general users who lack the knowledge of the computer and the internet can easily access the information and data on the Internet. An object of the present invention is to provide an interactive learning aid device and a method of analyzing the same, which can solve a problem that cannot be obtained.

상기한 목적을 달성하기 위한 본 발명에 따른 대화식 학습 보조 장치는 형태소 및 구문 분석과, 의미 및 담화분석에 필요한 데이터를 제공하기 위한 사전저장 장치와, 대화분석에 필요한 데이터를 제공하기 위한 지식베이스 저장 장치와, 마이크를 통해 입력된 음성을 동일한 내용의 텍스트로 변환하기 위한 음성/텍스트 변환 장치와, 상기 음성/텍스트 변환 장치로부터 출력되는 데이터를 상기 사전저장 장치의 데이터와 비교하여 순차적으로 형태소 분석, 구문 분석 및 의미 분석을 하기 위한 형태소 해석기, 구문 분석기 및 의미 해석기와, 상기 의미 해석기로부터 출력되는 데이터를 상기 사전저장 장치의 데이터를 참조하여 생략 및 대용어 해결을 하기 위한 담화 분석기와, 상기 담화 분석기로부터 출력되는 데이터를 상기 지식베이스 저장 장치의 데이터와 비교하여 용언의 하위범주화 정보로 변환하고, 이것으로부터 화행, 영역내 키워드, 영역내 적합성 판단, 데이터베이스 질의어 생성 및 검색 등을 수행하기 위한 대화 관리기와, 상기 대화 관리기로부터 출력되는 데이터를 상기 음성/텍스트 변환 장치의 데이터와 비교하여 화행, 데이터베이스 검색 결과 및 영역내 적합도로부터 사용자에게 제공할 문장을 생성하기 위한 응답 생성기를 포함하여 이루어지는 것을 특징으로 한다.Interactive learning aids according to the present invention for achieving the above object is a morphological and syntax analysis, a pre-storage device for providing data necessary for meaning and discourse analysis, and a knowledge base storage for providing data required for dialogue analysis A morphological analysis sequentially by comparing a device, a voice / text conversion device for converting a voice input through a microphone into text having the same content, and data output from the voice / text conversion device with data of the pre-storage device; A morpheme parser, a parser and a semantic parser for parsing and semantic analysis, a discourse analyzer for eliminating and substitutes the data output from the semantic interpreter with reference to the data of the pre-storage device, and the discourse analyzer The data output from the knowledge base storage device A conversation manager for converting into subcategory information of the verb compared with the data, and performing speech acts, intra-domain keywords, intra-regional suitability determination, database query word generation and retrieval, and the data output from the conversation manager. And a response generator for generating a sentence to be provided to the user from speech acts, database search results, and in-area goodness in comparison with the data of the / text conversion apparatus.

상기한 목적을 달성하기 위한 본 발명에 따른 대화식 학습 보조 장치의 대화분석 방법은 사용자의 발화문장으로부터 사용자의 요구사항을 점진적으로 파악해나가는 대화분석 방법에 있어서, 의미해석의 결과로 받은 큐엘에프(QLF)의 잉여적인 정보를 삭제 또는 통합하여 용언의 하위범주화 구조로 변환시키는 제 1 단계와, 상기 제 1 단계로부터 오퍼레이터와 본용언의 영역내 의미에 따라 화행을 추출해내는 제 2 단계와, 상기 제 2 단계로부터 화행과 용언 하위범주화 요소들의 영역내 의미 일치도에 따라 사용자 발화의 영역내 적합성을 판단하는 제 3 단계와, 상기 제 3 단계로부터 용언의 하위범주화 정보들로부터 데이터베이스내 질의어를 생성해내는 제 4 단계와; 상기 제 4 단계로부터 생성된 질의어를 통해 데이터베이스를 검색하여 그 결과를 사용자의 관심영역에 의해 계속 보존하거나, 기존의 데이터베이스 검색 결과들로부터 특정 속성을 찾아내는 제 5 단계와, 상기 제 3 및 제 5 단계로부터 데이터베이스 검색 결과와 화행 및 영역내 발화 적합도에 따라 각각 예외처리, 확인발화, 응답발화를 생성해내는 제 6 단계와, 상기 제 6 단계로부터 지식추론에 의해 부가발화를 생성해내는 제 7 단계와, 상기 제 7 단계로부터 생성된 최종 결과를 별도의 저장 장치에 저장한 후, 화면/인쇄의 표시 장치와 마이크의 발화 장치를 통해 결과를 출력하는 제 8 단계를 포함하여 이루어지는 것을 특징으로 한다.Conversation analysis method of the interactive learning aid device according to the present invention for achieving the above object in the dialogue analysis method to grasp the user's requirements from the user's speech sentence, QLF received as a result of semantic analysis (QLF) A first step of deleting or integrating the redundant information into a subcategory structure of the verb, a second step of extracting a speech act from the first step according to the meaning of the operator and the main verb, and the second step A third step of determining suitability in the area of the user's speech according to the semantic consistency of the dialogue acts and verb subcategories, and a fourth step of generating a query in the database from the subcategories of the verb from the third step. Wow; A fifth step of searching a database through a query generated from the fourth step and continuing to preserve the result by the user's ROI, or finding a specific attribute from existing database search results; and the third and fifth steps. A sixth step of generating exception processing, acknowledgment, and response utterance according to the database search result and the speech act and the suitability of utterance in the region, and the seventh step of generating additional utterance by knowledge inference from the sixth step; And an eighth step of storing the final result generated in the seventh step in a separate storage device and outputting the result through the display device of the screen / print and the ignition device of the microphone.

도 1은 본 발명에 따른 대화식 학습 보조 장치의 구성도.1 is a block diagram of an interactive learning aid device according to the present invention.

도 2는 본 발명이 적용되는 대화 분석기에서의 응답 생성 방법 순서도.2 is a flowchart illustrating a method of generating a response in a conversation analyzer to which the present invention is applied.

도 3(a) 및 도 3(b)는 의미해석, 담화분석, 대화분석 결과 및 생성 문장의 예시도.3 (a) and 3 (b) are exemplary diagrams of semantic interpretation, discourse analysis, dialogue analysis results, and generated sentences.

〈도면의 주요 부분에 대한 부호 설명〉<Description of Signs of Major Parts of Drawings>

1 : 마이크 2 : 음성/텍스트 변환 장치1: microphone 2: voice / text converter

3 : 형태소 해석기 4 : 구문 분석기3: stemmer parser 4: parser

5 : 의미 해석기 6 : 담화 분석기5: semantic analyzer 6: discourse analyzer

7 : 대화 관리기 8 : 응답 생성기7: conversation manager 8: response generator

9 : 출력 장치 10 : 사전저장 장치9: output device 10: prestorage device

12 : 지식베이스 저장 장치12: knowledge base storage

이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 대화식 학습 보조 장치의 구성도이고, 도 2는 본 발명이 적용되는 대화 분석기에서의 응답 생성 방법 순서도를 도시한 것이며, 도 3(a) 및 도 3(b)는 본 발명이 적용되는 대화 분석기에 의한 의미해석, 담화분석, 대화분석 결과 및 생성 문장의 예시도를 나타낸다.1 is a block diagram of an interactive learning aid device according to the present invention, FIG. 2 is a flowchart illustrating a method of generating a response in a conversation analyzer to which the present invention is applied, and FIGS. 3 (a) and 3 (b) are present views. An example diagram of semantic analysis, discourse analysis, dialogue analysis results, and generated sentences by a dialogue analyzer to which the invention is applied is shown.

도 1을 참조하여 설명하면, 본 시스템은 음성 입력 장치인 마이크(1)를 통해 입력된 음성을 동일한 내용의 텍스트로 변환하기 위한 음성/텍스트 변환 장치(2)와, 상기 음성/텍스트 변환 장치(2)로부터 출력되는 데이터를 사전저장 장치(10)의 데이터와 비교하여 순차적으로 형태소 분석, 구문 분석 및 의미 분석을 하기 위한 형태소 해석기(3), 구문 분석기(4) 및 의미 해석기(5)와, 상기 의미 해석기(5)로부터 출력되는 데이터를 상기 사전저장 장치(10)의 데이터를 참조하여 생략 및 대용어 해결을 하기 위한 담화 분석기(6)와, 상기 담화 분석기(6)로부터 출력되는 데이터를 지식베이스 저장 장치(11)의 데이터와 비교하여 용언의 하위범주화 정보로 변환하고, 이것으로부터 화행, 영역내 키워드, 영역내 적합성 판단, 데이터베이스 질의어 생성 및 검색 등을 수행하기 위한 대화 관리기(7)와, 상기 대화 관리기(7)로부터 출력되는 데이터를 상기 음성/텍스트 변환 장치(2)의 데이터와 비교하여 화행, 데이터베이스 검색 결과 및 영역내 적합도로부터 사용자에게 제공할 문장을 생성하고 출력 장치(9)로 출력하기 위한 응답 생성기(8)와, 형태소 및 구문 분석과, 의미 및 담화분석에 필요한 데이터를 제공하기 위한 사전저장 장치(10)와, 대화분석에 필요한 데이터를 제공하기 위한 지식베이스 저장 장치(11)로 이루어진다. 예를 들어 학습자가 다음과 같은 의도를 가지고 본 장치를 이용한다고 가정해보자.Referring to FIG. 1, the system includes a voice / text converter 2 for converting a voice input through a microphone 1, which is a voice input device, into text having the same content, and the voice / text converter ( A morpheme interpreter (3), a parser (4) and a semantic interpreter (5) for morphological analysis, parsing and semantic analysis sequentially by comparing the data output from 2) with the data of the pre-storage device 10; Knowledge of the discourse analyzer 6 for omitting and substituting the data output from the semantic analyzer 5 with reference to the data of the pre-storage device 10 and the data output from the discourse analyzer 6 is known. Compared to the data of the base storage device 11, the information is converted into subcategory information of the verb, and from this, speech acts, keywords in a region, determination of suitability in a region, database query generation and search, etc. are performed. The conversation manager 7 for comparing the data output from the conversation manager 7 with the data of the speech / text conversion device 2 to obtain a sentence to be provided to the user from a speech act, a database search result, and a goodness of fit within a region. Response generator 8 for generating and outputting to output device 9, prestorage device 10 for providing morphological and syntax analysis, data for meaning and discourse analysis, and providing data for conversation analysis It consists of a knowledge base storage device (11). For example, suppose the learner uses the device with the following intention.

학습자의 의도: 인터넷상에서 인상파 화가에 대한 자료를 얻고 싶다.Learner's Intention: I want to get information about Impressionist painters on the Internet.

이제, 상기와 같은 의도를 가지고 사용자가 본장치를 이용할 때 다음과 같은 대화 시나리오를 가정하자.Now, assume the following dialogue scenario when the user uses the apparatus with the above intention.

〈시나리오〉<scenario>

사용자(1): 인상파 화가에 대한 자료를 찾고 싶습니다.User (1): I would like to find information about Impressionist painters.

시스템(1): 모든 인상파 화가에 대한 자료를 원하십니까?System (1): Do you want resources for all impressionist painters?

사용자(2): 아니요. 각 화가들의 작품에 대해 말해주세요.User (2): No Tell me about each artist's work.

시스템(2): 일단 생각나는 이름을 말해주십시오.System (2): Please tell me your name.

사용자(3): 세잔.User (3): Cezanne.

시스템(3): 세잔의 작품에는 목욕하는 남자, 작품 A, 작품 B 등이 있습니다.System (3): Cezanne's works include Bathing Man, Work A, Work B, and so on.

사용자(4): 첫 번째 작품은 지금 어디에 소장되어 있지요?User (4): Where is the first piece now?

시스템(4): 뉴욕의 메트로폴리탄 박물관입니다. 그림을 보여드릴까요?System (4): The Metropolitan Museum of New York. May I show you a picture?

사용자(5): 네 보여주세요.User (5): Yes please show me.

사용자(6): 다른 사람들의 작품들도 보여주시겠습니까?User (6): Can you show other people's work?

예로든 상기 시나리오에서 사용자(4)와 같은 발화가 입력으로 들어왔을 때를 가정하여 각 단계별로 설명하겠다.As an example, in the above scenario, it is assumed that when a utterance such as the user 4 comes in as an input, each step will be described.

사용자의 음성 입력 문장에 대해 응답하기 위해서, 시스템은 그 사용자의 발화내용을 이해해야 한다. 그러기 위해서는 먼저 음성을 텍스트로 바꾸는 과정이 필요하다. 도 1의 음성입력 장치인 마이크(1)를 통해 입력된 음성은 음성/텍스트 변환 장치(2)를 통해 동일한 내용의 텍스트로 바뀌게 된다.In order to respond to a user's spoken text, the system must understand the user's speech. To do that, you first need to convert the voice into text. The voice input through the microphone 1, which is the voice input device of FIG. 1, is converted into text having the same content through the voice / text converter 2.

이렇게 변환된 텍스트는 형태소 해석기(3), 구문 분석기(4), 의미 해석기(5)를 거쳐 도 3에 도시된 바와 같은 분석 결과를 생성한다. 도 3(a)에서와 같이 생성된 의미해석 결과는 담화 분석기(6)를 거치면서 대용어나 생략현상이 해결되어야 한다. 예로 든 사용자의 입력 문장인 "첫 번째 작품은 지금 어디에 소장되어 있지요?"의 의미해석결과에서, '첫 번째 작품'에 해당하는 도 3(a)의 A 부분은 그것이 이전문장에서 지칭된 '목욕하는 남자'의 의미표현인 [named_string, bathing_man]으로 변환된다.The converted text generates an analysis result as shown in FIG. 3 through a morpheme interpreter 3, a parser 4, and a semantic interpreter 5. As shown in (a) of FIG. 3, the resulting semantic interpretation results in a substitute term or abbreviation while passing through the discourse analyzer 6. In the interpretation of the meaning of the example user's input sentence, "Where is the first piece of art stored now?", Part A of FIG. 3 (a), which corresponds to the "first piece", is the "bath" referred to in this specialty. Is converted to [named_string, bathing_man].

대화관리기(7)에서는 이렇게 담화분석기(6)에서의 결과와, U(1)부터 U(N-1)까지의 대화분석 결과로부터 응답을 생성하게 된다. 이것은 도 2에서와 같이, 우선 담화분석 결과 변환된 QLF(Quasi-Logical Form)도 여전히 잉여적인 정보를 많이 내포하고 있다. 따라서, 이후의 분석에 편리하도록 정규화되어야 하는데, 정규화되는 과정에서 불필요한 정보는 없애거나 중복된 정보가 단일화되어야 한다(101). 이러한 과정을 수행하는 정규화의 규칙은 다음과 같다.The conversation manager 7 generates a response from the results of the discourse analyzer 6 and the conversation analysis results from U (1) to U (N-1). As shown in FIG. 2, first, the QLF (Quasi-Logical Form) converted from the discourse analysis still contains a lot of redundant information. Therefore, it should be normalized to be convenient for subsequent analysis. In the process of normalization, unnecessary information should be eliminated or duplicated information should be unified (101). The rule of normalization to perform this process is as follows.

1. 명사에 해당하는 term 구조에서 특징값들이 디폴트일때는 생략한다. 이것은 관사나 수의 쓰임이 그다지 중요하지 않은 한국어의 특성에 기인한다.Omit when feature values are the default in the term structure corresponding to the noun. This is due to the characteristics of Korean, where the use of articles or numbers is not important.

2. 동사구에 쓰이는 이벤트 변수는 삭제한다.2. Delete event variables used in verb phrases.

3. [and, A, B]의 형태는 재귀적으로 다음과 같은 유형에 따라 처리된다.3. The form of [and, A, B] is recursively processed according to the following types.

가. A - 동사구, B - 명사구end. A-verb phrase, B-noun phrase

A는 B의 관형구로 쓰이며, 이때 A는 B의 속성을 나타낸다. 따라서, B의 한 오브젝트가 생성되고 해당 오브젝트내의 속성이름에 B가 속성값으로 할당된다.A is used as a tubular sphere of B, where A represents the property of B. Thus, an object of B is created and B is assigned as the attribute value to the attribute name in the object.

나. A - 명사구, B - 명사구I. A-noun phrase, B-noun phrase

복합명사에 해당되며, 다음의 8가지 의미구조에 따라 오브젝트와 속성값들이 결정되게 된다.It is a compound noun, and object and attribute values are determined according to the following eight semantics.

1) 지명 + 기관1) place name + institution

2) 사람이름 + 직책(직위)2) person's name + job title

3) 재료 + 물건3) material + stuff

4) 기관 + 직책4) Institution + Position

5) 범주 + 범주내 개체5) Category + Objects in Category

6) 용도 + 도구6) Uses + Tools

7) 객체 + 부분7) object + part

8) 속성 + 개체8) Property + Object

정규화 수행후의 QLF의 형태는 도 3(b)의 대화분석 결과에 나타난 바와 같이, 한 문장의 본동사에 해당하는 프리디킷의 이름과 그 구조가 그대로 유지되면서 내부적으로 통합되고 간결화된 형태로 나타나게 된다.As shown in the result of the dialogue analysis of FIG. 3 (b), the QLF form after normalization is represented as an internally integrated and simplified form while maintaining the name and structure of the predicket corresponding to the main verb of a sentence.

대화분석에서 화행은 중요한 역할을 수행한다. 실제 표면발화는 질문의 형태이지만 사용자의 의도가 어떤 특정 정보를 제공하기 위한 것이거나, 단순한 명제이지만 청자에게 무언가를 요구하는 발화일 수도 있다. 또한, 용언의 쓰임새도 응용영역에 따라서 달라질 수 있기 때문에 화행을 분석할 때는 Mood, Modal 오퍼레이터와 함께 용언의 쓰임새도 고려해야 한다. 화행은 다음과 같은 형태의 규칙에 따라 결정된다.Speech acts play an important role in dialogue analysis. The actual surface utterance is in the form of a question, but the user's intention is to provide some specific information, or it may be a mere proposition but one that demands something from the listener. In addition, since the usage of the word can also vary according to the application area, the usage of the word should be considered along with the Mood and Modal operators when analyzing speech acts. Speech acts are determined according to the following rules:

(Mood Operator, Modal Operator, Predicate) -> Speech_Act(Mood Operator, Modal Operator, Predicate)-> Speech_Act

도 2에 도시된 바와 같이, 화행을 추출한 후에 사용자의 발화가 해당영역에 적합한지를 판단해야 한다(102, 103, 104 및 105). 이것은 대화분석 도중 추출된 영역의존 키워드에 의해 결정되는데, 영역내에 존재하는 단어와 일치한다. 문법/의미적으로 정문(正文)일 때는 'expected', 문법/의미적으로 정문이지만 영역내 단어집합에 포함되지 않을 때는 'possible', 문법/의미적으로 비문(非文)일 때는 'abnormal'로 결정한다. 'possible'인 경우는 개연성이 충분한 발화이기 때문에 예외 처리부를 통해 응답을 생성하고, 'abnormal'일 경우는 확인 발화를 생성함으로써 사용자가 다시 한번 발화를 하도록 요구한다. 'expected'일 경우엔 정상적으로 처리가 진행된다.As shown in FIG. 2, after extracting a speech act, it is necessary to determine whether the user's speech is suitable for the corresponding region (102, 103, 104, and 105). This is determined by the domain-dependent keywords extracted during the dialogue analysis, which matches the words existing in the domain. `` Expected '' for grammar / meaning, `` prenormal ''; `` possible '' for grammar / meaning, but not included in the word set in the domain; 'abnormal' for grammar / meaning. Decide on In case of 'possible', the response is generated through the exception processing unit because the probability is sufficiently sufficient, and in case of 'abnormal', the user is required to speak again by generating a confirmation speech. If 'expected', processing proceeds normally.

정규화된 QLF는 데이터베이스 질의어로 변환된다(106). 이때는 생성된 오브젝트내의 각 속성값들이 데이터베이스 질의어 형태로 변환되게 되는데, 이때 정성적이거나 언어에 특유하게 나타나는 모호적인 속성값들이 구체적이고 정량화된 값으로 사상된다. 일 예로, 도 3에서와 같이 '지금'에 해당하는 [now,X20]는 구체적인 시간표현으로 바뀌어지게 된다.The normalized QLF is converted into a database query language (106). In this case, each attribute value in the created object is converted into a database query form, in which ambiguous attribute values that appear qualitatively or language-specific are mapped into concrete and quantified values. For example, [now, X20] corresponding to 'now', as shown in FIG. 3, is changed to a specific time expression.

응답발화의 생성은 사용자 화행, 시스템 화행, 데이터베이스 검색 결과에 의해 하기 [표 1]과 같은 규칙으로 결정된다(107 및 108). 먼저 사용자 화행에 의한 시스템의 화행은 다음의 규칙에 의해 결정된다.The generation of response speech is determined by the rules as shown in Table 1 below by the user speech act, the system speech act, and the database search result (107 and 108). First, the speech act of the system by the user speech act is determined by the following rules.

1. 시스템 화행 결정 규칙1. Rules for determining system acts

ask_yesno : answer_yesnoask_yesno: answer_yesno

ask_what : give_informationask_what: give_information

request_information : give_informationrequest_information: give_information

2. 응답 발화 생성 규칙2. Rules for generating response utterances

시스템 화행System speech 데이터베이스 검색결과Database search results 응답 발화 유형Response ignition type give_informationgive_information N=0N = 0 사용자의 조건 + 데이터베이스 검색 결과 + 대안생성User's Condition + Database Search Result + Create Alternative N>δN> δ 사용자의 조건 + 데이터베이스 검색 결과 + 추가정보User's Condition + Database Search Results + Additional Information N<δN <δ 사용자의 조건 + 데이터베이스 검색 결과 + 질문User's Condition + Database Search Results + Question answer_yesnoanswer_yesno -- yes + N(units) + `모두' + 사용자의 조건yes + N (units) + `all '+ user's condition no + N(units) + '모두` + 사용자의 조건의 부정no + N (units) + 'all' + negation of user's condition no + N(units)는 사용자의 조건 + M(units) + 사용자의 조건의 부정no + N (units) is the negation of the user's condition + M (units) + the user's condition ask_whatask_what -- 질문Question

(N: 사용자 요구조건을 만족하는 데이터베이스내 개체 수, δ: 임의의 작은 수, 여기서는 3)(N: number of objects in the database that meets user requirements, δ: any small number, here 3)

응답발화가 생성된 후에는 지식추론과 부가발화의 과정을 거친다(109 및 110). 도 3에 나타낸 예제 문장으로부터 데이터베이스 검색을 통해 응답을 생성한 후, 그것에 바탕을 두고 추론을 하게 된다. 추론은 다음과 같은 규칙에 의해 수행된다.After the response speech is generated, knowledge inference and additional speech are processed (109 and 110). After generating a response through a database search from the example sentence shown in FIG. 3, the reasoning is made based on the response. Inference is performed by the following rules.

isa(obj,N1148) and num_of(filled slot) > 2 -> UB(Want(see(obj)))isa (obj, N1148) and num_of (filled slot)> 2-> UB (Want (see (obj)))

상기의 추론 규칙의 의미는 '현재 사용자가 언급하고 있는 개체가 인간의 미술행위에 의한 인공물이고, 속성이 2개 이상 언급되어 졌을 경우에는 사용자가 그 개체를 보기 원한다고 믿는다' 라는 것이다.The reasoning of the above reasoning rule is that 'the current user is referring to an artifact of human art, and if more than two attributes are mentioned, the user believes that the user wants to see the object'.

추론에 의해 생성된 새로운 지식에 기반하여 시스템은 부가발화를 생성하게 된다. 상기의 경우를 예로 들면 다음과 같은 부가발화 생성규칙이 된다.Based on the new knowledge generated by inference, the system generates additional utterances. For example, the additional firing generation rule is as follows.

UB(Want(pred(obj))) -> [ques,modal_want,pred(obj)]UB (Want (pred (obj)))-> [ques, modal_want, pred (obj)]

이러한 규칙을 통해서 최종적으로 시스템은 응답발화 및 부가발화를 생성하여 이전에 기술한 시나리오 예제의 시스템(4)와 같은 발화를 하게 된다.Through this rule, the system finally generates the response utterance and the additional utterance so that the utterance is the same as the system 4 of the scenario example described previously.

이상에서 설명한 본 발명은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited.

상술한 바와 같이, 본 발명에 의하면 21세기 초고속 정보통신망이 보편화 되었을 경우, 모든 학생들이 각 가정에서 자신의 과제를 수행하는데 있어 사람의 일상언어를 사용하는 대화를 통해 컴퓨터의 도움을 받을 수 있을것으로 기대된다.As described above, according to the present invention, when the 21st century high-speed information communication network is generalized, all students will be able to receive the help of computers through conversations using people's everyday language in performing their tasks in each home. It is expected.

Claims (2)

형태소 및 구문 분석과, 의미 및 담화분석에 필요한 데이터를 제공하기 위한 사전저장 장치와,Pre-storage to provide data for morphological and parsing, semantic and discourse analysis, 대화분석에 필요한 데이터를 제공하기 위한 지식베이스 저장 장치와,A knowledge base storage device for providing data for conversation analysis; 마이크를 통해 입력된 음성을 동일한 내용의 텍스트로 변환하기 위한 음성/텍스트 변환 장치와,A speech / text converter for converting speech input through a microphone into text having the same content; 상기 음성/텍스트 변환 장치로부터 출력되는 데이터를 상기 사전저장 장치의 데이터와 비교하여 순차적으로 형태소 분석, 구문 분석 및 의미 분석을 하기 위한 형태소 해석기, 구문 분석기 및 의미 해석기와,A morpheme parser, a parser, and a semantic parser for sequentially morphological analysis, parsing and semantic analysis of data output from the speech / text conversion device with data of the pre-storage device; 상기 의미 해석기로부터 출력되는 데이터를 상기 사전저장 장치의 데이터를 참조하여 생략 및 대용어 해결을 하기 위한 담화 분석기와,A discourse analyzer for omitting and substituting the data output from the semantic interpreter with reference to the data of the pre-storage device; 상기 담화 분석기로부터 출력되는 데이터를 상기 지식베이스 저장 장치의 데이터와 비교하여 용언의 하위범주화 정보로 변환하고, 이것으로부터 화행, 영역내 키워드, 영역내 적합성 판단, 데이터베이스 질의어 생성 및 검색 등을 수행하기 위한 대화 관리기와,The data output from the discourse analyzer is compared with the data of the knowledge base storage device and converted into subcategory information of the verb, and from there, a dialogue act, a keyword in a region, a suitability determination in a region, and a database query word generation and retrieval are performed. With the conversation manager, 상기 대화 관리기로부터 출력되는 데이터를 상기 음성/텍스트 변환 장치의 데이터와 비교하여 화행, 데이터베이스 검색 결과 및 영역내 적합도로부터 사용자에게 제공할 문장을 생성하기 위한 응답 생성기를 포함하여 이루어지는 것을 특징으로 하는 대화식 학습 보조 장치.And a response generator for generating a sentence to be provided to the user from speech acts, database search results, and in-field fitness by comparing the data output from the conversation manager with the data of the speech / text converter. Auxiliary devices. 사용자의 발화문장으로부터 사용자의 요구사항을 점진적으로 파악해나가는 대화분석 방법에 있어서,In the dialogue analysis method that gradually grasps the user's requirements from the user's speech sentence, 의미해석의 결과로 받은 큐엘에프(QLF)의 잉여적인 정보를 삭제 또는 통합하여 영언의 하위범주화 구조로 변환시키는 제 1 단계와,A first step of deleting or integrating excess information of QLF received as a result of semantic interpretation into subcategories of English language, 상기 제 1 단계로부터 오퍼레이터와 본용언의 영역내 의미에 따라 화행을 추출해내는 제 2 단계와,A second step of extracting speech acts according to the meanings within the scope of the operator and the general language from the first step; 상기 제 2 단계로부터 화행과 용언 하위범주화 요소들의 영역내 의미 일치도에 따라 사용자 발화의 영역내 적합성을 판단하는 제 3 단계와,A third step of judging suitability in the area of user speech according to the degree of meaning correspondence in the area of speech act and verb subcategory elements from the second step; 상기 제 3 단계로부터 용언의 하위범주화 정보들로부터 데이터베이스내 질의어를 생성해내는 제 4 단계와;A fourth step of generating a query in a database from the subcategory information of the verb from the third step; 상기 제 4 단계로부터 생성된 질의어를 통해 데이터베이스를 검색하여 그 결과를 사용자의 관심영역에 의해 계속 보존하거나, 기존의 데이터베이스 검색 결과들로부터 특정 속성을 찾아내는 제 5 단계와,A fifth step of searching the database through the query generated from the fourth step and continuing to store the result by the user's ROI, or finding a specific attribute from the existing database search results; 상기 제 3 및 제 5 단계로부터 데이터베이스 검색 결과와 화행 및 영역내 발화 적합도에 따라 각각 예외처리, 확인발화, 응답발화를 생성해내는 제 6 단계와,A sixth step of generating exception processing, confirmation speech, and response speech from the third and fifth steps according to the database search result and the speech act and the appropriateness of speech in the region, respectively; 상기 제 6 단계로부터 지식추론에 의해 부가발화를 생성해내는 제 7 단계와,A seventh step of generating an additional utterance by knowledge inference from the sixth step, 상기 제 7 단계로부터 생성된 최종 결과를 별도의 저장 장치에 저장한 후, 화면/인쇄의 표시 장치와 마이크의 발화 장치를 통해 결과를 출력하는 제 8 단계를 포함하여 이루어지는 것을 특징으로 하는 대화식 학습 보조 장치의 대화분석 방법.And an eighth step of storing the final result generated in the seventh step in a separate storage device and outputting the result through the display device of the screen / print and the ignition device of the microphone. Method of dialogue analysis of device.
KR1019980048384A 1998-11-12 1998-11-12 Interactive Learning Aid and Its Conversation Analysis Method U KR100276687B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980048384A KR100276687B1 (en) 1998-11-12 1998-11-12 Interactive Learning Aid and Its Conversation Analysis Method U

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980048384A KR100276687B1 (en) 1998-11-12 1998-11-12 Interactive Learning Aid and Its Conversation Analysis Method U

Publications (2)

Publication Number Publication Date
KR20000032056A KR20000032056A (en) 2000-06-05
KR100276687B1 true KR100276687B1 (en) 2001-01-15

Family

ID=19557988

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980048384A KR100276687B1 (en) 1998-11-12 1998-11-12 Interactive Learning Aid and Its Conversation Analysis Method U

Country Status (1)

Country Link
KR (1) KR100276687B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
KR20010067934A (en) * 2001-04-09 2001-07-13 신광섭 Language study system
KR100643159B1 (en) * 2004-08-11 2006-11-10 에스케이 텔레콤주식회사 User context abstraction system using Natural Language Processing and method thereof
KR101581816B1 (en) 2014-10-14 2016-01-05 서강대학교산학협력단 Voice recognition method using machine learning

Also Published As

Publication number Publication date
KR20000032056A (en) 2000-06-05

Similar Documents

Publication Publication Date Title
US7587389B2 (en) Question answering system, data search method, and computer program
US7302383B2 (en) Apparatus and methods for developing conversational applications
US5146406A (en) Computer method for identifying predicate-argument structures in natural language text
US6023697A (en) Systems and methods for providing user assistance in retrieving data from a relational database
Rich Natural-language interfaces
US6269356B1 (en) Computer system program for creating new ideas and solving problems
Mich et al. Ambiguity measures in requirement engineering
US20080114747A1 (en) Speech interface for search engines
Dahl Translating spanish into logic through logic
Stratica et al. Using semantic templates for a natural language interface to the CINDI virtual library
JP2609173B2 (en) Example-driven machine translation method
González et al. A Semantic Approach to Question Answering Systems.
US8914289B2 (en) Analyzing and processing a verbal expression containing multiple goals
Wasow Gradient data and gradient grammars
KR100276687B1 (en) Interactive Learning Aid and Its Conversation Analysis Method U
JP2014013549A (en) Natural language analysis system, and natural language analysis method
JP2997469B2 (en) Natural language understanding method and information retrieval device
Bais et al. Arabic language interface for XML databases
KR19990047859A (en) Natural Language Conversation System for Book Libraries Database Search
Bose Natural Language Processing: Current state and future directions
Rush A Computer Assisted Language Analysis System.
Guerrieri et al. A tourist advisor based on a question answering system
JP3358100B2 (en) Japanese question message analysis method and device
Blejer et al. On representing governed prepositions and handling “incorrect” and novel prepositions
Zárate et al. A portable natural language interface for diverse databases using ontologies

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20070919

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee