KR100377475B1 - Device for Extracting Korean Speech Act using Mood Information - Google Patents

Device for Extracting Korean Speech Act using Mood Information Download PDF

Info

Publication number
KR100377475B1
KR100377475B1 KR10-1999-0029947A KR19990029947A KR100377475B1 KR 100377475 B1 KR100377475 B1 KR 100377475B1 KR 19990029947 A KR19990029947 A KR 19990029947A KR 100377475 B1 KR100377475 B1 KR 100377475B1
Authority
KR
South Korea
Prior art keywords
act
information
extracting
korean
ending
Prior art date
Application number
KR10-1999-0029947A
Other languages
Korean (ko)
Other versions
KR20010010841A (en
Inventor
김영길
김태완
최승권
여상화
정한민
심철민
박상규
박세영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR10-1999-0029947A priority Critical patent/KR100377475B1/en
Publication of KR20010010841A publication Critical patent/KR20010010841A/en
Application granted granted Critical
Publication of KR100377475B1 publication Critical patent/KR100377475B1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Abstract

본 발명은 한국어 문장분석 결과 나타나는 동사의 서법 정보, 구문 및 의미 코드 정보, 대화 이력 메모리상의 이전 발화문의 분석정보를 이용하여 입력문의 화행정보를 자동 추출하여 지능적 대화 시스템 등에서의 대화이해를 위한 정보 추출을 수행한다. 본 발명은 한국어 구문 및 의미 코드를 입력으로 생략문, 대용문, 도치문의 여부를 판별하여 결핍 정보를 복원해주는 문맥복원장치, 한국어 구문 및 의미 코드를 이용아혀 술어 논리식 형태의 명제를 추출하는 한국어 문장 명제 추출장치, 동사어미 전자 사전을 참조하여 동사의 종결어미에 나타나는 서법 정보를 추출하고, 서법 정보와 대화 이력 메모리상에 정의되어 있는 이전 발화문의 구문, 의미, 화행 코드를 이용하여 화수력을 추출하는 화수력 추출장치, 화수력과 화행 관계로 구성된 화행 추출표를 참조하고 명제와 화수력을 이용하여 화행을 추출하는 화행 추출장치로 구성된 서법 정보를 이용한 한국어 화행 추출장치이다.The present invention extracts information for dialogue understanding in an intelligent conversation system by automatically extracting speech act information of an input sentence using verbal information of a verb, syntax and semantic code information, and analysis information of a previous spoken sentence in a conversation history memory. Do this. The present invention uses the Korean syntax and semantic codes as inputs to determine whether or not to omit, substitute, or inverted sentence context restoration device to restore the deficiency information, using the Korean syntax and semantic code to extract the predicate logical form propositions Extraction of calligraphy information appearing at the ending ending of verbs by referring to the proposition extractor and the verb ending electronic dictionary, and extracting firepower by using the syntax, meaning, and act code of the previous spoken sentence defined in the calligraphy information and conversation history memory It is a Korean language act extraction apparatus using calligraphy information consisting of a procession extractor which extracts a act of acts using a proposition and an act of hydropower.

Description

서법 정보를 이용한 한국어 화행 추출장치{Device for Extracting Korean Speech Act using Mood Information}Device for Extracting Korean Speech Act using Mood Information}

본 발명은 한국어 문장 분석 결과 나타나는 동사의 서법 정보를 이용하여 입력문의 화행 정보를 자동 추출하는 한국어 화행 추출장치에 관한 것이다.The present invention relates to a Korean speech act extraction apparatus for automatically extracting speech act information of an input sentence using calligraphy information of a verb appearing as a result of Korean sentence analysis.

현재 활발히 시스템 개발이 진행중인 자연언어 처리 응용 시스템으로 대표적인 것은 대화체 음성언어 번역 시스템, 데이터베이스 검색을 위한 대화시스템, CAI 시스템 등을 들 수 있다. 대화체 음성언어 번역 시스템을 위해서는 입력 발화문에 포함된 화자의 의도가 반영된 번역이 필요하며 대화 시스템에서는 입력 발화문에서 사용자의 의도를 나타내는 화행을 추출할 수 있어야 지능적으로 대화를 관리 및 진행할 수 있다.Representative examples of natural language processing application systems that are currently being actively developed include dialog voice language translation system, dialog system for database search, and CAI system. For the dialogue voice language translation system, a translation incorporating the intention of the speaker included in the input speech is required. In the dialogue system, the dialogue can be intelligently managed and processed only when the speech act representing the user's intention can be extracted from the input speech.

이러한 화행분석을 위한 방법들이 국내외적으로 많이 연구되고 있는 실정이다. Austin, Searle 등은 주로 동사의 유형에 따른 화수 행위의 불류를 시도하였다. 그리고 Allen은 입력 발화문에 존재하는 화자의 발화의도를 나타낼 수 있는 어휘 정보를 이용하여 화행을 분석하였으며 간접화행 분석 방식을 제시한 바도 있다. Carberry는 계획 인식을 기반으로 하는 대화시스템의 사용자 입력 발화문에 관한 의도 분석을 위하여 17가지 종류의 대화 목표(discourse goal)를 설정하였지만 입력 발화문의 해석 정보를 이용한 대화목표 추출을 위한 구체적인 방법을 제시하고 있지 않다.Many methods for speech act analysis have been studied at home and abroad. Austin, Searle, and others attempted a discordant act of verbal acts based on the type of verb. Allen also analyzed speech acts using vocabulary information that could indicate the intention of the speaker in the input speech, and suggested an indirect speech analysis method. Carberry has set 17 kinds of discourse goals for intention analysis of user input speech in conversation system based on plan recognition, but presents specific method for extracting dialogue goal using interpretation information of input speech. I'm not doing it.

일본의 ATR에서는 9가지의 화행 정보를 설정하고 실제 대화문들을 수동적으로 태깅하여 통계적인 데이터를 추출하였다. 그리고 이 통계정보를 음성인식에 있어서 다음 발화문의 예측을 위한 데이터로 사용하여 음성인식 오류 정정에 있어서의 효율성을 증명한 바 있다. 그러나 화행 태깅을 위하여 간단한 표층적 어휘 정보를 이용한 규칙기반의 추출 방법이 적용되었으며 거의 전문가의 주관적인 수작업에 의존하였다. 따라서 대량의 데이터에 대한 작업이 불가능하고 태깅된 데이터 또한 객관성을 지니지 못하는 단점이 있었다.In the Japanese ATR, nine kinds of speech act information were set and statistical data was extracted by manually tagging actual dialogues. The statistical information was used as data for the prediction of the next speech sentence in speech recognition, demonstrating the efficiency in speech recognition error correction. However, a rule-based extraction method using simple surface lexical information was applied for tagging speech acts, and almost depended on the subjective manual work of experts. Therefore, it is impossible to work with a large amount of data, and tagged data also has a disadvantage that it does not have objectivity.

국내에서는 주로 언어학적인 측면에서 상황 의미론에 의한 화행분석 등이 진행되고 있으며 화수행위 분류, 간접 화행분석 등에 관한 연구가 수행되고 있다. 그리고 자연언어 인터페이스를 이용한 음성언어 대화시스템 등에서 키워드를 이용한 사용자의 발화의도 분석 등이 시도된 바 있지만 이는 적용대상에 한정적이고 주관적인 데이터 작업을 필요로 하여 그 확장성에 문제가 있다.In Korea, speech act analysis based on contextual semantics is being conducted mainly in linguistics, and research on classification of acts of acts and analysis of indirect speech acts is conducted. In addition, an attempt has been made to analyze a user's speech intention using a keyword in a speech language conversation system using a natural language interface, but this requires a subjective and subjective data work that is limited to its application and has a problem in its expandability.

호텔 예약을 위한 대화시스템에서는 화자의 전달내용 분석을 위해서 입력 발화문의 해석결과 얻어지는 구문 및 의미표현식을 이용하였으며, 화행분석을 위해서 이전 발화문의 화수력과 입력 발화문의 구문정보를 이용한 바 있다. 그러나 입력 발화문의 서술부의 구문 정보로서 의문형과 평서형의 정보만을 이용함으로써 다양한 종류의 화행분석에 있어 어려움이 있었다.In the dialogue system for hotel reservation, the syntax and semantic expressions obtained from the interpretation of the input speech text were used to analyze the delivery contents of the speaker. The speech power of the previous speech text and the syntax information of the input speech text were used for the speech act analysis. However, there was difficulty in analyzing various kinds of speech acts by using only question-type and plain-type information as syntax information in the description part of input speech.

따라서, 자연언어에 의한 대화체 응용 시스템은 사용자의 입력 발화문에 대한 구문적 및 의미적 해석방식을 통한 사용자의 전달 내용 분석이외에도 사용자가정보를 요구하는지, 정보를 제공하는지 등에 관한 화행론적인 발화의도를 인식할 수 있어야 한다. 따라서 발화문에 대한 전통적인 구문적, 의미적 분석방법만으로는 입력 발화문에 담긴 화자의 화행론적 정보를 해석할 수 없으며 본 발명에 의한 화행분석장치로 화자의 발화의도를 분석할 수 있다.Therefore, the dialogue application system using the natural language is a method of speech acting on whether the user requires or provides the information in addition to analyzing the user's delivery contents through the syntactic and semantic interpretation of the user's input speech. You should be able to recognize the degree. Therefore, only the traditional syntactic and semantic analysis methods for the speech can not interpret the speech act theory information contained in the input speech sentence, and the speech act analysis apparatus according to the present invention can analyze the speech intention of the speaker.

이와 같은 본 발명은 한국어 문장 분석 결과 나타나는 동사의 서법 정보, 구문 및 의미 코드 정보, 대화 이력 메모리상의 이전 발화문의 분석정보를 이용하여 입력문의 화행 정보를 자동 추출하여 지능적 대화 시스템 등에서의 대화 이해를 위한 정보 추출을 수행하는데 그 목적이 있다.The present invention uses the calligraphy information, syntax and semantic code information of the verb that appears as a result of Korean sentence analysis, and the dialogue act information of the input sentence by using the analysis information of the previous spoken text in the conversation history memory. The purpose is to perform information extraction.

도 1은 본 발명에 따른 하드웨어 구성도,1 is a hardware block diagram according to the present invention,

도 2는 본 발명이 적용되는 한국어 화행 추출 장치에서의 문맥 복원장치의 순서도,2 is a flowchart of a context restoration apparatus in the Korean speech act extraction apparatus to which the present invention is applied;

도 3은 한국어 화행 추출장치에서 정의되는 화수력에 관한 분류도.3 is a classification diagram relating to firepower defined in the Korean dialogue act extraction apparatus.

〈도면의 주요 부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>

1 : 문맥현상 판별장치 2 : 문맥 복원장치1: device for determining context phenomenon 2: device for restoring context

3 : 한국어 문장 명제 추출장치 4 : 서법 정보 추출장치3: Korean sentence proposition extraction device 4: Calligraphy information extraction device

5 : 화수력 추출장치 6 : 화행 추출장치5: hydropower extraction device 6: fire act extraction device

7 : 동사 어미 전자사전 8 : 의문사표 전자사전7: verb mother electronic dictionary 8: question mark electronic dictionary

9 : 화행 추출표 10 : 대화 이력 메모리9: speech act extraction table 10: conversation history memory

11 : 술어 정보 검사장치 12 : 필수격 정보 검사 장치11: predicate information inspection device 12: essential information inspection device

13 : 필수격 정보 추출장치 14 : 결합가 지식 베이스13: essential information extraction device 14: joiner knowledge base

15 : 도치문 복원장치 16 : 대용어 복원장치15: inverted door restoration device 16: substitute word restoration device

이하, 본 발명을 첨부된 도면에 의거하여 상세히 설명하면 다음과 같습니다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 서법 정보를 이용한 한국어 화행 추출 장치의 구성도이다.1 is a block diagram of an apparatus for extracting Korean dialogue acts using calligraphy information according to the present invention.

도 1에 도시된 바와 같이, 한국어 문장 분석장치에 의해 분석된 입력 문장의 구문 및 의미 코드에 술어 성분과 대용어의 존재여부와 술어의 위치를 파악하여 생략문, 대용문, 도치문의 여부를 판별하는 문맥현상 판별장치(1)를 거쳐 입력 발화문에 대한 결핍 정보의 복원을 결정한다. 문맥현상 판별장치에 의하여 문맥현상 처리의 수행이 결정되면 먼저 생략문에 관한 처리를 위하여 술어 정보 검사장치(11)를 거쳐 술어 성분이 생략된 경우 술어 정보 추출장치(12)에 의하여 대화 이력 메모리(10)상에 저장되어 있는 이전 발화문의 술어 성분을 참조하여 술어성분을 복원한다. 술어 성분 복원처리가 끝나면 해당 술어 성분의 필수격 성분을 필수격 정보추출장치(13)에서 결합가 지식 베이스(14)를 참조하여 복원한다. 그리고 술어 성분의 위치가 문미에 위치하지 않는 경우 해당되는 서술구조를 문미로 위치시키는 작용을 하는 도치문 복원장치(15)와 대용 성분을 결합가 지식 베이스와 대화 이력 메모리상의 정보를 참조하여 대용 성분에 해당하는 정보를 대치시키는 대용어 복원장치(16)를 거치게 되면 이후 화행정보를 추출하기 위한 참조 정보 준비 과정이 끝나게 된다.As shown in FIG. 1, the presence or absence of a predicate component, a substitute word, and a position of the predicate are determined by checking the syntax and semantic code of the input sentence analyzed by the Korean sentence analyzing apparatus to determine whether the sentence is omitted, the substitute sentence, or the inverted sentence. The restoration of the deficient information for the input speech is determined through the contextual phenomenon determining apparatus 1. When it is determined that the context developing process is performed by the context developing apparatus, the predicate information extracting apparatus 12 uses the conversation history memory (1) when the predicate component is omitted through the predicate information checking apparatus 11 for processing the omitted statement. 10) The predicate component is restored by referring to the predicate component of the previous utterance statement stored in the image. After the predicate component restoring process is completed, the essential case component of the predicate component is restored in the essential case information extracting device 13 with reference to the joiner knowledge base 14. If the predicate component is not located at the end, the inverted sentence restoring device 15, which acts to position the corresponding narrative structure as the end, and the surrogate component are referred to the surrogate component by referring to the information on the knowledge base and the conversation history memory. After passing through the terminology restoring apparatus 16 to replace the corresponding information, the reference information preparation process for extracting speech act information is finished.

상기와 같은 과정으로 결핍된 정보가 복원이 되면 복원된 구문 및 의미 코드를 이용하여 한국어 문장 명제 추출장치(3)에서 술어 논리식 형태의 입력 발화문에 관한 명제룰 추출한다. 이 때, 명제는 구문 코드의 각 항목의 성분 어휘와 의미 코드 정보를 술어 논리식의 항목으로 한다. 그리고 술어 성분의 종력 어미상에 나타나는 구문 코드의 서법 정보를 동사 어미 전자사전에 기구축되어 있는 어미 대 서법 관계표를 이용하여 서법정보 추출장치(4)에서 서법정보를 추출하고 이 서법정보와 이전의 화행을 참조할 수 있는 대화 이력 메모리, 의문형 화행을 판별할 수 있는 의문사표 전자 사전을 이용하여 화행의 한 구성성분인 화수력을 추출한다. 그리고 최종적으로 화행 추출장치(6)에서 한국어 문장 명제 추출장치(3)에서 추출한 명제 정보와 화수력 추출장치에서 분석한 화수력 정보를 화수력 대 화행 관계표(9)를 이용하여 최종적인 화행코드를 생성한다.When the information lacked by the above process is restored, the propositional rule regarding the input speech sentence in the predicate logical form is extracted by the Korean sentence proposition extracting apparatus 3 using the restored syntax and semantic code. At this time, the proposition makes the component vocabulary and semantic code information of each item of the syntax code as an item of the predicate logical expression. The calligraphy information extractor 4 extracts calligraphy information from the calligraphy information extractor 4 using the ending-to-call relationship table pre-built in the verb ending electronic dictionary. Conversation history memory, which can refer to dialogue acts, and question-marking electronic dictionaries that can identify questionable acts, extracts hydrothermal power, which is a component of conversation acts. Finally, the acting information extracted from the Korean sentence proposition extracting apparatus 3 by the act of act extraction apparatus 6 and the form of hydropower analyzed by the apparatus of hydropower extraction apparatus are finally used by using the table of relations of acting power vs. act of dialogue. Create

본 발명에서는 실제 대화문을 분석하여 도 3에서와 같이 화수력을 그 표층적인 어휘정보들을 기준으로 크게 표현, 요구, 제공, 기타 4가지로 분류하였다. 표현은 대화문에 나타나는 관용적인 표현으로 정의하며 대화개시, 대화종결 및 대화일상 표현으로 분류하였다. 그리고 요구는 화자(Speaker)가 청자(Hearer)에게 정보나 행위의 제공을 부탁하는 발화의도를 나타내며 3가지의 정보요구와 1가지의 행위요구로 구성한다.In the present invention, the actual dialogue is analyzed, and as shown in FIG. 3, the hydroelectric power is classified into four types of expression, request, provision, and the like based on the superficial lexical information. The expression is defined as the idiomatic expression that appears in the dialogue, and is classified into the dialogue initiation, conversation termination, and everyday conversation. And the request indicates the intention of the speaker to ask the listener to provide information or action. It consists of three information requests and one action request.

정보요구중에서 진위정보요구와 의문정보요구는 의문사의 존재여부로 구분하며 확인정보요구는 이전 발화문에 나타난 구문을 다시 언급하여 그 확인을 요구하는 발화의도로 정의한다. 제공은 화자가 청자에게 정보나 행위를 제공하거나 행위 제공을 약속하는 화자의 발화의도를 나타내며 5가지의 제공형태로 구분한다. 그리고 놀라움의 표시나 발화중단으로 인한 단편적 발화문 등을 기타로 분류하였다. 이러한 화수력 분류는 각 응용 시스템의 적용분야에 따라 더욱 세분화될 수 있다.Among the information requests, the authenticity information request and the interrogation information request are divided into the presence or absence of the interrogator, and the confirmation information request is defined as the intention to call for confirmation by referring back to the phrase shown in the previous speech. The presentation indicates the speaker's intention to utter the speaker's information or action or promises to provide the action. It is divided into five types of provision. Others were classified as fragments of speech because of signs of surprise or halting speech. This hydroelectric classification can be further subdivided according to the application of each application system.

본 발명에서는 대화 말뭉치들의 각 발화문들을 수동적으로 분석하여 도 3에서 정의한 화수력들과 한국어 종결어미들과의 상호관계를 조사하였다. 분석결과, 화수력이 서법에 따른 종결어미에 많은 영향을 받는 것은 사실이었지만 발화문에 나타나는 어휘들의 종류와 이전 화수력과의 관계에 따른 각 화수력들의 그 출현 특성들을 보이고 있다.In the present invention, each spoken sentence of the conversation corpus was analyzed manually to investigate the correlation between the firepower and the Korean ending endings defined in FIG. As a result, it is true that hydropower is influenced by the ending ending according to calligraphy, but it shows characteristics of each hydropower depending on the type of vocabulary appearing in the utterance and the relationship with previous hydropower.

실제 대화문의 분석을 통하여 나타난 종결어미 중심적인 화수력들인 진위정보요구, 정보제공, 행위요구 및 약속제공의 발화문상에 나타나는 종결어미의 종류를 보이고 있다. 실제 대화문에 나타나는 종결어미들중에 후어 말 어미 "요"와 함께 나타나는 경우도 빈번함을 알 수 있다. 진위정보요구에 나타나는 서법 유형은 의문형 종결어미와 의문형 서술격 조사이며 정보제공에서는 평서형 및 감탄형 종결어미와 서술격 조사가 나타난다. 본 발명에서는 서술격 조사 "이다"가 비록 종결어미는 아니지만 용언처럼 활용을 하면서 종결어미와 그 기능이 동일하고 서법의 유형도 나타나므로 종결어미의 서법유형에 포함시킨다. 그리고 행위요구에서는 명령형, 청유형 및 허락형이 나타나며 약속제공은 약속형 어미가 나타난다. 의문정보요구는 진위정보요구에서 나타나는 어미와 같은 종류이지만 발화문의 구성성분중 의문사가 포함되어 있다는 면에서 그 차이가 있다. 따라서 의문사를 크게 의문체언, 의문관형사, 의문부사어 및 의문용언으로 분류하여 의문사표 전자 사전(8)을 미리 구성함으로써 화수력 추출에 있어 진위정보요구와 의문정보요구의 구분은 가능하다.It shows the kind of ending ending that appears in the speech of authenticity information request, information provision, action request and promise provision, which are the final ending powers, which are found in the analysis of actual dialogues. It is also frequently found that the ending endings appear in the dialogue with the ending ending "Yo". The type of calligraphy that appears in the request for authenticity information is the questionable ending ending and the questionable narrative survey, and the informational presentation shows the plain ending and the admiration ending ending and the narrative survey. In the present invention, the narrative investigation "Ida" is not a ending ending, but it is used as a terminology, so that the ending ending and its function are the same, and the type of calligraphy appears. In the demand for action, the command type, the invitation type, and the permission type appear, and the promise offer is the promised mother. The interrogative information request is the same kind of mother that appears in the authenticity information request, but differs in that the interrogative sentences contain interrogative sentences. Therefore, the questionnaire is classified into question statement, question sentence sentence, question adverb, and question word, so that the electronic dictionary (8) of question mark can be distinguished.

화 수 력Firepower 출 현 특 성Appearance Characteristics 화 수 력Firepower 출 현 특 성Appearance Characteristics 대화개시표현Initiation of conversation 어휘 중심적Lexical 정 보 제 공Provide information 종결어미 서법Ending 대화종결표현End of conversation 어휘 중심적Lexical 응 답 제 공Answer 종결어미서법+문맥Ending endings + context 대화일상표현Conversation 어휘 중심적Lexical 행 위 제 안A suggestion 종결어미서법+어휘Ending endings + vocabulary 진위정보요구Authenticity Information Request 종결어미 서법Ending 약 속 제 공Promise Ball 종결어미 서법Ending 의문정보요구Interrogation Information Request 종결어미 서법+어휘Ending endings + vocabulary 확 인 제 공Provide confirmation 문맥 + 어휘Context + Vocabulary 확인정보요구Request Information 문맥 + 어휘Context + Vocabulary 기 타Other 어휘중심적Lexical 행위 요구Act request 종결어미 서법Ending

화수력 추출장치(5)에서는 종결어미가 존재하는 경우는 입력 발화문의 종결어미 서법을 분석하여 각 서법의 특성에 맞는 처리를 수행한다. 이때 서법은 7가지로 구분되어 처리되며 서법에 따른 화수력 분석은 표 1의 화수력과 종결어미 서법과의 관계를 기준으로 한다.In the hydroelectric power extracting apparatus 5, when the ending ending is present, the ending ending writing method of the input speech sentence is analyzed and the processing is performed according to the characteristics of each writing method. At this time, the calligraphy is divided into seven types, and the hydropower analysis according to the calligraphy is based on the relationship between the hydropower in Table 1 and the ending ending calligraphy.

서법정보를 이용한 화수력 추출방법은 우선 입력 발화문이 관용적인 대화 표현인가를 검사한다. 그리고 동사어미 사전을 참조하여 종결어미에 나타나는 서법의 유형을 판별하고 각 서법에 해당하는 처리부로 분기한다. 서법의 유형이 평서법 또는 감탄법인 경우, 보조용언의 판별은 보조적 연결어미 "고"와 희망을 나타내는 보조 형용사 "싶다" 등을 판단한다. 이때 대화 이력 메모리(10)상의 이전 화수력 정보가 정보요구이고 사용자의 첫번째 발화문인 경우 현 화수력을 이전의 정보요구에 대한 응답제공으로 판단한다. 이와 같은 서법정보 이용은 화수력 추출 후보의 수를 효과적으로 제한함으로써 보다 정확한 화수력 추출이 가능하다.The method of extracting firepower using calligraphy information first checks whether an input speech is an idiomatic conversational expression. The type of calligraphy appearing in the ending ending is determined by referring to the verb ending dictionary and branches to the processing unit corresponding to each calligraphy. If the type of calligraphy is written or admired, the determination of auxiliary verbs determines the auxiliary link "high" and the auxiliary adjective "want" to express hope. In this case, when the previous fire power information on the conversation history memory 10 is an information request and the first spoken text of the user, the current fire power is determined as providing a response to the previous information request. The use of such calligraphy information enables more accurate hydropower extraction by effectively limiting the number of hydropower extraction candidates.

일반적으로 화행은 화자의 발화의도를 나타내는 화수력과 발화내용을 나타내는 명제로 구성되며 본 발명의 화행 추출부(6)에서는 표 2의 화행 추출표(9)를 이용하여 최종적으로 화행 코드를 생성한다.In general, a dialogue act is composed of a conversation power indicating the speaker's utterance intention and a proposition indicating the contents of the utterance. In the dialogue act extraction unit 6 of the present invention, a dialogue act code is finally generated using the dialogue act extraction table 9 of Table 2. do.

화수력대분류Thermal power classification 화수력 소분류Hydropower subclass 화 행Mad row 표 현expression 대 화 표 현Dialogue expression ConvinceByInform(S, H, P)ConvinceByInform (S, H, P) 요 구demand 의문정보요구Interrogation Information Request MotivatebyRequest(S,H,ConvincebyInformwh(H,S,?xP))MotivatebyRequest (S, H, ConvincebyInformwh (H, S,? XP)) 진위정보요구Authenticity Information Request MotivatebyRequest(S,H,ConvincebyInformIf(H,S,P)MotivatebyRequest (S, H, ConvincebyInformIf (H, S, P) 확인정보요구Request Information MotivatebyRequest(S,H,ConvincebyInformIf(H,S,P)MotivatebyRequest (S, H, ConvincebyInformIf (H, S, P) 행위 요구Act request MotivatebyRequest(S,H,Act(H,P))MotivatebyRequest (S, H, Act (H, P)) 제 공offer 정보제공Provide information ConvinceByInform(S,H,P)ConvinceByInform (S, H, P) 응답제공Provide response ConvinceByInform(S,H,P)ConvinceByInform (S, H, P) 행위제안Suggestion ConvinceByInform(S,H,Act(S,P))ConvinceByInform (S, H, Act (S, P)) 약속제공Promise ConvinceByInform(S,H,P)ConvinceByInform (S, H, P) 확인제공Provide confirmation ConvinceByInformIf(S,H,P)ConvinceByInformIf (S, H, P) 기 타Other 기 타Other ConvinceByInform(S,H,?xP)ConvinceByInform (S, H,? XP)

위 표 2에서, 'S'는 화자(Speaker)를, 'H'는 청자(Hearer)를, 'P'를 제공(Proposition)을 의미한다.In Table 2 above, 'S' means Speaker, 'H' means Hearer, and 'P' means Proposition.

이상과 같은 본 발명은 현재 활발히 시스템 개발이 진행중인 데이터베이스 검색을 위한 대화 시스템, CAI 시스템, 대화체 음성언어 번역 시스템 등의 핵심기술인 한국어 문장 이해 장치 및 그 방법으로 사용될 수 있으며 통계정보를 이용한대화 정보 태깅 시스템에서 통계 정보 구축을 위한 자동 화행추출장치로 사용되어 질 수 있다.The present invention as described above can be used as a Korean sentence comprehension device and its method, which is a core technology such as a dialogue system, a CAI system, a dialogue voice language translation system, etc. It can be used as an automatic dialogue extractor for building statistical information.

Claims (5)

한국어 구문 및 의미 코드를 입력으로 생략문, 대용문, 도치문의 여부를 판별하고 결핍 정보를 복원해주는 문맥 복원수단;Context retrieval means for determining whether to abbreviate sentence, substitute sentence, inverted sentence by inputting Korean syntax and semantic code and to restore the deficiency information; 한국어 구문 및 의미 코드를 이용하여 술어 논리식 형태의 명제를 추출하는 한국어 문장 명제 추출수단;Korean sentence proposition extracting means for extracting a proposition in predicate logical form using Korean syntax and semantic code; 동사어미 전자 사전을 참조하여 동사의 종결어미에 나타나는 서법정보를 추출하고, 서법 정보와 대화 이력 메모리상에 정의되어 있는 이전 발화문의 구문, 의미, 화행코드를 이용하여 화수력을 추출하는 수단;Means for extracting calligraphy information appearing at the ending ending of a verb by referring to an electronic dictionary of verbs and extracting firepower using phrases, meanings, and act act codes of previous spoken sentences defined on the calligraphy information and conversation history memory; 화수력과 화행 관계로 구성된 화행 추출표를 이용하여 명제와 화수력을 이용하여 화행을 추출하는 화행 추출수단으로 구성된 것을 특징으로 하는 서법 정보를 이용한 한국어 화행 추출장치.Korean language act extraction apparatus using calligraphy information, characterized in that consisting of a speech act extraction means for extracting the act of acts using propositions and the power of hydropower using the act of act extraction table composed of the relationship between act of hydropower and act of act. 제 1 항에 있어서,The method of claim 1, 상기 문맥 복원 수단은,The context restoration means, 생략문, 대용문, 도치문의 여부를 판별하는 문맥현상 판별장치(1)와 술어 정보 검사장치(11), 대화 이력 메모리(10)를 이용하는 술어 정보 추출 장치(12), 결합가 지식 베이스(14)를 참조하여 필수격 성분을 복원하는 필수격 정보 추출장치(13), 도치문 복원장치(15), 대용어 복원장치(16)로 구성된 것을 특징으로하는 서법 정보를 이용한 한국어 화행 추출장치.Predicate information extraction device (1), predicate information extraction device (11), predicate information extracting device (12) using conversation history memory (10), and joiner knowledge base (14) for determining whether or not an abbreviation statement, substitute statement, or inverted statement is present. Korean speech act extraction apparatus using calligraphy information, characterized in that consisting of the essential information extracting device (13), tochimun restoring device (15), the substitute term restoring device (16) for restoring the essential case components. 제 1 항에 있어서,The method of claim 1, 상기 한국어 문장 명제 추출수단은,The Korean sentence proposition extracting means, 한국어 구문 및 의미 코드를 이용하여 술어 논리식 형태의 명제를 추출하는 한국어 문장 명제 추출장치(3)로 구성된 것을 특징으로 하는 서법 정보를 이용한 한국어 화행 추출장치.Korean speech act extraction apparatus using calligraphy information comprising a Korean sentence proposition extracting apparatus (3) for extracting a proposition in the form of predicate logic using a Korean syntax and semantic code. 제 1 항에 있어서,The method of claim 1, 상기 화수력을 추출하는 수단은,Means for extracting the thermal power, 동사어미 전자 사전(7)을 참조하여 동사의 종결어미에 나타나는 서법 정보를 추출하는 서법정보 추출장치(4), 서법 정보, 의문사표 전자 사전(8)과 대화 이력 메모리(10)상에 정의되어 있는 이전 발화문의 구문, 의미, 화행 코드를 이용하여 화수력을 추출하는 화수력 추출장치(5)로 구성된 것을 특징으로 하는 서법 정보를 이용한 한국어 화행 추출장치.Calligraphy information extraction device (4) for extracting calligraphy information appearing at the ending ending of the verb with reference to the verb ending electronic dictionary (7), calligraphy information, the question mark electronic dictionary (8) and the conversation history memory (10) Korean speech act extraction apparatus using calligraphy information, characterized in that consisting of a hydropower extraction unit (5) for extracting the hydropower using the syntax, meaning, speech act code of the previous speech. 제 1 항에 있어서,The method of claim 1, 상기 화행 추출수단은,The speech act extraction means, 화수력과 화행 관계로 구성된 화행 추출표(9)를 이용하여 명제와 화수력을 이용하여 화행을 추출하는 화행 추출장치(6)로 구성된 것을 특징으로 하는 서법 정보를 이용한 한국어 화행 추출장치.Korean language act extraction apparatus using calligraphy information, characterized by consisting of a speech act extraction unit (6) for extracting the act of acts using propositions and the power of hydropower using a dialogue act extraction table (9) composed of the relationship between the hydropower and the act of acts.
KR10-1999-0029947A 1999-07-23 1999-07-23 Device for Extracting Korean Speech Act using Mood Information KR100377475B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-1999-0029947A KR100377475B1 (en) 1999-07-23 1999-07-23 Device for Extracting Korean Speech Act using Mood Information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-1999-0029947A KR100377475B1 (en) 1999-07-23 1999-07-23 Device for Extracting Korean Speech Act using Mood Information

Publications (2)

Publication Number Publication Date
KR20010010841A KR20010010841A (en) 2001-02-15
KR100377475B1 true KR100377475B1 (en) 2003-03-26

Family

ID=19603949

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1999-0029947A KR100377475B1 (en) 1999-07-23 1999-07-23 Device for Extracting Korean Speech Act using Mood Information

Country Status (1)

Country Link
KR (1) KR100377475B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05224687A (en) * 1992-02-18 1993-09-03 Nippon Telegr & Teleph Corp <Ntt> Japanese pronounced word converting and editing process system
JPH05307646A (en) * 1992-04-30 1993-11-19 Matsushita Electric Ind Co Ltd Device and method for recognizing character
JPH07219952A (en) * 1994-02-01 1995-08-18 N T T Data Tsushin Kk Japanese sentence processor
KR100278310B1 (en) * 1998-11-11 2001-01-15 이계철 Continuous Speech Recognition System Using Probability Dependent Method as Backward Language Model and Its Method
KR100304654B1 (en) * 1993-11-30 2001-11-22 윤종용 Method and apparatus for analyzing korean document

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05224687A (en) * 1992-02-18 1993-09-03 Nippon Telegr & Teleph Corp <Ntt> Japanese pronounced word converting and editing process system
JPH05307646A (en) * 1992-04-30 1993-11-19 Matsushita Electric Ind Co Ltd Device and method for recognizing character
KR100304654B1 (en) * 1993-11-30 2001-11-22 윤종용 Method and apparatus for analyzing korean document
JPH07219952A (en) * 1994-02-01 1995-08-18 N T T Data Tsushin Kk Japanese sentence processor
KR100278310B1 (en) * 1998-11-11 2001-01-15 이계철 Continuous Speech Recognition System Using Probability Dependent Method as Backward Language Model and Its Method

Also Published As

Publication number Publication date
KR20010010841A (en) 2001-02-15

Similar Documents

Publication Publication Date Title
Syrdal et al. Automatic ToBI prediction and alignment to speed manual labeling of prosody
US6374224B1 (en) Method and apparatus for style control in natural language generation
EP1217533A2 (en) Method and computer system for part-of-speech tagging of incomplete sentences
Budzynska et al. Towards argument mining from dialogue
Fernández et al. Classifying non-sentential utterances in dialogue: A machine learning approach
Stede et al. Discourse particles and discourse functions
WO2009014465A2 (en) System and method for multilingual translation of communicative speech
CN110717045A (en) Letter element automatic extraction method based on letter overview
KR20170090127A (en) Apparatus for comprehending speech
Bogdanova-Beglarian et al. Pragmatic markers in Russian spoken speech: an experience of systematization and annotation for the improvement of NLP tasks
Dyriv et al. The user's psychological state identification based on Big Data analysis for person's electronic diary
Fu et al. Determining the Origin and Structure of Person Names.
Deshors A multifactorial approach to linguistic structure in L2 spoken and written registers
Alarcón et al. Hulat-ALexS CWI Task-CWI for Language and Learning Disabilities Applied to University Educational Texts.
Behzadi Natural language processing and machine learning: A review
Keezhatta Understanding EFL Linguistic Models through Relationship between Natural Language Processing and Artificial Intelligence Applications.
KR100377475B1 (en) Device for Extracting Korean Speech Act using Mood Information
Sreeram et al. A Novel Approach for Effective Recognition of the Code-Switched Data on Monolingual Language Model.
Jitta et al. “nee intention enti?” towards dialog act recognition in code-mixed conversations
Wilson Toward automatic processing of English metalanguage
Fashwan et al. A rule based method for adding case ending diacritics for modern standard Arabic texts
Tukur et al. Parts-of-speech tagging of Hausa-based texts using hidden Markov model
Schabus et al. Data-driven identification of dialogue acts in chat messages
Choi et al. An integrated dialogue analysis model for determining speech acts and discourse structures
Parvez Named entity recognition from bengali newspaper data

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20090303

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee