KR100908445B1 - Apparatus and method for generating response sentences - Google Patents
Apparatus and method for generating response sentences Download PDFInfo
- Publication number
- KR100908445B1 KR100908445B1 KR1020070066452A KR20070066452A KR100908445B1 KR 100908445 B1 KR100908445 B1 KR 100908445B1 KR 1020070066452 A KR1020070066452 A KR 1020070066452A KR 20070066452 A KR20070066452 A KR 20070066452A KR 100908445 B1 KR100908445 B1 KR 100908445B1
- Authority
- KR
- South Korea
- Prior art keywords
- sentence
- extracted
- string
- term
- analysis
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000000605 extraction Methods 0.000 claims abstract description 52
- 239000000284 extract Substances 0.000 claims abstract description 12
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
본 발명은 응답 문장 생성 장치 및 방법에 관한 것으로, 음성 인식된 문장에 대한 정확한 키 워드를 추출하여 응답 문장을 생성하는 장치 및 방법을 제공하는 데 있다. 이를 위하여, 본 발명에 따른 응답 문장 생성 방법은, 음성 인식된 문장을 형태소 분석하는 단계; 상기 문장으로부터 1차 개념열 추출을 수행하는 단계; 상기 추출된 1차 개념열을 기반으로 상기 문장에 대한 1차 의미 분석을 수행하는 단계; 상기 1차 개념열 추출 단계에서 추출되지 않은 개념열을 더 추출하기 위하여, 상기 1차 의미 분석 결과를 기반으로 상기 문장으로부터 상기 1차 개념열을 포함하는 2차 개념열 추출을 수행하는 단계; 상기 추출된 2차 개념열을 기반으로 상기 문장에 대하여 2차 의미 분석을 수행함으로써 상기 음성 인식된 문장에 대한 의미 분석 결과를 생성하는 단계; 및 상기 생성된 의미 분석 결과를 기반으로 상기 음성 인식된 문장에 대한 응답 문장을 생성하는 단계를 포함한다. 즉 음성 인식된 문장에 대하여 2차 개념열/대용어 추출 및 2차 의미 분석을 수행함으로써 음성 인식된 문장에 대하여 정확한 의미 분석을 할 수 있는 이점이 있다. The present invention relates to an apparatus and method for generating a response sentence, and to provide an apparatus and method for generating a response sentence by extracting an exact keyword for a speech recognized sentence. To this end, the method for generating a response sentence according to the present invention comprises: morphologically analyzing a speech recognized sentence; Performing first-order concept string extraction from the sentence; Performing first order semantic analysis on the sentence based on the extracted first order sequence; Performing a second concept string extraction including the first concept string from the sentence based on a result of the first semantic analysis to further extract a concept string not extracted in the first concept string extracting step; Generating a semantic analysis result for the speech-recognized sentence by performing second-order semantic analysis on the sentence based on the extracted second-order concept string; And generating a response sentence for the speech recognized sentence based on the generated semantic analysis result. That is, it is possible to perform accurate semantic analysis on the speech-recognized sentence by performing the second-order concept string / substitute term extraction and second-order semantic analysis on the speech-recognized sentence.
응답 문장, 의미 분석 Response sentence, semantic analysis
Description
본 발명은 응답 문장 생성 장치 및 방법에 관한 것으로, 특히 음성 인식된 질의의 개념열 및 대용어를 정확히 추출하여 응답 문장을 생성하기 위한 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for generating a response sentence, and more particularly, to an apparatus and method for generating a response sentence by accurately extracting a concept string and a substitute term of a speech recognized query.
본 발명은 정보통신부의 신성장동력산업용 대용량 대화형 분산처리 음성인터페이스 기술 개발 사업의 일환으로 수행한 연구로부터 도출된 것이다[과제 관리 번호 : 2006-S-036-01, 과제명 : 신성장동력산업용 대용량 대어휘 분산처리 음성인터페이스 기술 개발].The present invention is derived from the research conducted as part of the development project of the large-capacity interactive distributed processing voice interface technology for the new growth engine industry of the Ministry of Information and Communication. [Task Management No .: 2006-S-036-01, Task name: Large-capacity unit for the new growth engine industry Development of Vocabulary Distributed Processing Speech Interface Technology].
종래 음성 인식 방법에는 음성 인식된 질의에 대한 키 워드 추출 및 자연어 처리 기법을 이용하는 방법이 있다. 이러한 종래의 음성 인식 방법은 온톨로지 형태 또는 다른 다양한 형태의 정보가 저장되어 있는 데이터 베이스를 참조하여, 음성 인식된 문장에서 키 워드에 해당하는 단어를 찾아내고 이를 이용하여 음성 인식 을 수행한다. In the conventional speech recognition method, there is a method using a keyword extraction and natural language processing technique for a speech recognized query. The conventional speech recognition method finds a word corresponding to a key word in a speech recognized sentence and performs speech recognition by referring to a database in which ontology or other various types of information are stored.
한편, 위와 같이 음성 인식된 질의에 대한 응답 문장을 생성하기 위하여는 음성 인식된 질의의 정확한 의미를 분석하여야 하는데, 이는 얼마만큼 정확한 키 워드를 추출하였느냐가 중요한 요소가 된다. On the other hand, in order to generate a response sentence for the speech-recognized query as described above, it is necessary to analyze the exact meaning of the speech-recognized query, which is how important the exact keyword is extracted.
그런데, 종래 음성 인식 방법에 있어서는, 음성 인식된 문장에서 정확한 키 워드가 추출되지 못하는 단점이 있다. 따라서, 음성 인식된 문장에 대한 의미 파악이 올바르지 않게 될 수 있고, 또한 음성 인식된 문장에 대한 응답 문장이 사용자가 원하지 않는 내용으로 이루어질 수 있는 단점이 있다. However, in the conventional speech recognition method, there is a disadvantage in that the correct keyword is not extracted from the speech recognized sentence. Therefore, there is a disadvantage that grasping the meaning of the speech-recognized sentence may be incorrect, and that the response sentence to the speech-recognized sentence may be made of contents that the user does not want.
따라서, 본 발명의 목적은, 음성 인식된 문장에 대한 정확한 개념열 및 대용어를 추출하여 응답 문장을 생성하는 장치 및 방법을 제공하는 데 있다. Accordingly, an object of the present invention is to provide an apparatus and method for generating a response sentence by extracting an exact concept string and a substitute term for a speech recognized sentence.
이를 위하여 본 발명에 따른 응답 문장 생성 방법은, 음성 인식된 문장을 형태소 분석하는 단계; 상기 문장으로부터 1차 개념열 추출을 수행하는 단계; 상기 추출된 1차 개념열을 기반으로 상기 문장에 대한 1차 의미 분석을 수행하는 단계; 상기 1차 개념열 추출 단계에서 추출되지 않은 개념열을 더 추출하기 위하여, 상기 1차 의미 분석 결과를 기반으로 상기 문장으로부터 상기 1차 개념열을 포함하는 2차 개념열 추출을 수행하는 단계; 상기 추출된 2차 개념열을 기반으로 상기 문장에 대하여 2차 의미 분석을 수행함으로써 상기 음성 인식된 문장에 대한 의미 분석 결과를 생성하는 단계; 및 상기 생성된 의미 분석 결과를 기반으로 상기 음성 인식된 문장에 대한 응답 문장을 생성하는 단계를 포함한다. To this end, the method for generating a response sentence according to the present invention includes: morphologically analyzing a speech recognized sentence; Performing first-order concept string extraction from the sentence; Performing first order semantic analysis on the sentence based on the extracted first order sequence; Performing a second concept string extraction including the first concept string from the sentence based on a result of the first semantic analysis to further extract a concept string not extracted in the first concept string extracting step; Generating a semantic analysis result for the speech-recognized sentence by performing second-order semantic analysis on the sentence based on the extracted second-order concept string; And generating a response sentence for the speech recognized sentence based on the generated semantic analysis result.
또한, 이를 위하여 본 발명에 따른 응답 문장 생성 장치는, 음성 인식된 문장을 형태소 분석하는 형태소 분석부; 상기 형태소 분석부에서 형태소 분석된 문장에 대하여 1차 개념열 추출을 수행한 후, 상기 추출된 1차 개념열을 기반으로 상기 문장에 대한 1차 의미 분석을 수행하는 1차 대화 분석부; 상기 1차 개념열 추출 단계에서 추출되지 않은 개념열을 더 추출하기 위하여, 상기 1차 대화 분석부에서 분 석된 결과인 1차 의미 분석 결과를 기반으로 상기 문장으로부터 상기 1차 개념열을 포함하는 2차 개념열 추출을 수행한 후, 상기 추출된 2차 개념열을 기반으로 상기 문장에 대하여 2차 의미 분석을 수행함으로써 상기 음성 인식된 문장에 대한 의미 분석 결과를 생성하는 2차 대화 분석부; 및 상기 2차 대화 분석부에서 생성된 의미 분석 결과를 기반으로 상기 음성 인식된 문장에 대한 응답 문장을 생성하는 응답 문장 생성부를 포함한다. In addition, the response sentence generating apparatus according to the present invention for this purpose, the morpheme analysis unit for morphological analysis of the speech recognition sentence; A first conversation analysis unit performing first-order concept string extraction on the sentence morphologically analyzed by the morpheme analysis unit and then performing first-order semantic analysis on the sentence based on the extracted first concept string; In order to further extract the concept string not extracted in the first conceptual string extracting step, 2 including the first conceptual string from the sentence based on the first semantic analysis result, which is a result analyzed by the first conversation analyzer. A second conversation analyzer configured to generate a semantic analysis result of the speech recognized sentence by performing a second meaning analysis on the sentence based on the extracted second concept string; And a response sentence generator configured to generate a response sentence for the speech recognized sentence based on the semantic analysis result generated by the secondary dialogue analyzer.
상술한 바와 같이 본 발명은, 음성 인식된 문장에 대하여 2차 개념열/대용어 추출 및 2차 의미 분석을 수행함으로써 음성 인식된 문장에 대하여 정확한 의미 분석을 할 수 있는 이점이 있다. As described above, the present invention has an advantage that accurate semantic analysis can be performed on a speech recognized sentence by performing a second concept string / substitute term extraction and a second meaning analysis on the speech recognized sentence.
또한, 음성 인식된 문장에 대한 정확한 의미 분석을 수행함으로써, 상기 음성 인식된 문장에 대한 응답 문장을 좀 더 자연스럽게 구성할 수 있는 이점이 있다. In addition, by performing an accurate semantic analysis on the speech recognized sentence, there is an advantage that a response sentence to the speech recognized sentence can be more naturally constructed.
도 1은 본 발명의 일실시 예에 따른 응답 문장 생성 장치의 블록 구성도이다. 이하, 도 1을 참조하여 본 발명의 일실시 예에 따른 응답 문장 생성 장치의 구성 및 동작에 대하여 상세히 설명한다. 1 is a block diagram of an apparatus for generating a response sentence according to an embodiment of the present invention. Hereinafter, the configuration and operation of a response sentence generation device according to an embodiment of the present invention will be described in detail with reference to FIG. 1.
본 발명의 일실시 예에 따른 응답 문장 생성 장치는 음성 인식부(100), 형태 소 분석부(110), 1차 대화 분석부(120), 2차 대화 분석부(130), 응답 문장 생성부(140) 및 문맥 정보 관리부(150)를 포함한다. Response sentence generation apparatus according to an embodiment of the present invention is a
음성 인식부(100)는 사용자로부터 입력된 음성을 음성 인식한 후, 음성 인식된 결과를 형태소 분석부(110)로 출력한다. The
형태소 분석부(110)는 음성 인식부(100)로부터 출력된 음성 인식된 문장을 형태소 분석한 후, 형태소 분석된 결과를 1차 대화 분석부(120)로 출력한다. The
1차 대화 분석부(120)는 형태소 분석된 문장으로부터 1차 개념열을 추출하고, 추출된 개념열을 기반으로 음성 인식된 문장에 대한 1차 의미 분석을 수행한다. 개념열이란 문장의 의미를 파악하는 데 있어서, 그 문장 내에서 중요한 의미를 가지는 단어들의 집합을 의미한다. The first
이 때, 1차 대화 분석부(120)는 상기 추출된 1차 개념열을 기반으로 1차 대용어를 추출하고, 상기 추출된 1차 대용어를 기반으로 1차 의미 분석을 수행할 수 있다. 대용어란, 개념열을 대신해서 사용할 수 있는 대명사 등의 단어를 의미한다. 또한, 1차 개념열 및 1차 대용어를 추출함에 있어서, 사용자의 이전 질의에 대한 시스템의 의미 분석 결과를 참조할 수 있다. In this case, the
또한, 1차 대화 분석부(120)는 1차 의미 분석 결과를 문맥 정보 관리부(150)에 저장한다. 이렇게 저장된 1차 의미 분석 결과는 2차 의미 분석 과정에서 이용될 수도 있고, 사용자의 다음 발화 문장에 대한 1차 및 2차 의미 분석 과정에서 개념열 및 대용어를 추출하는 데 이용될 수 있다. In addition, the
예를 들어, 음성 인식된 문장이 'HOT 가 부른 노래가 뭐가 있지' 이고, 상기 문장에 대하여 1차 개념열 추출을 한 결과가 '노래'이고, 1차 대용어 추출을 한 결과가 '뭐'라고 가정하자. 이 때, 위 문장에 대한 1차 의미 분석 결과는 'Search_song_title ( singer = ? )' 가 되고, 1차 대화 분석부(120)는 위와 같은 결과를 문맥 정보 관리부(150)에 저장한다. 이렇게 저장된 정보는 자질로써 추가되어 2차 대화 분석부(130)에서 좀더 정확한 의미 분석을 하는데 이용되며, 또한 사용자의 다음 발화 문장에 대한 1차 및 2차 의미 분석 과정에서 개념열 및 대용어를 추출하는 데 이용된다. For example, the speech recognized sentence is 'what song was sung by HOT', the first concept string extraction result is 'sing' and the first substitution word extraction result is 'what' Suppose At this time, the first meaning analysis result for the above sentence is 'Search_song_title (singer =?)', And the first
2차 대화 분석부(130)는 1차 대화 분석부(120)에서 의미 분석된 문장으로부터 2차 개념열 추출을 한다. 이 때, 2차 대화 분석부(130)는 문맥 정보 관리부(150)에 저장된 1차 의미 분석 결과를 자질로서 추가하여 2차 개념열을 추출하고, 추출된 2차 개념열을 기반으로 음성 인식된 문장에 대한 2차 의미 분석을 수행한다. The
이 때, 2차 대화 분석부(130)는 상기 추출된 2차 개념열을 기반으로 2차 대용어를 추출하고, 상기 추출된 2차 대용어를 기반으로 2차 의미 분석을 수행할 수 있다. 또한, 2차 개념열 및 2차 대용어를 추출함에 있어서, 사용자의 이전 질의에 대한 시스템의 의미 분석 결과를 참조할 수 있다. At this time, the secondary
또한, 2차 대화 분석부(130)는 2차 의미 분석 결과를 문맥 정보 관리부(150)에 저장한다. 이렇게 저장된 2차 의미 분석 결과는 사용자의 다음 발화 문장에 대한 1차 및 2차 의미 분석 과정에서 개념열 및 대용어를 추출하는 데 이용될 수 있다. In addition, the secondary
예를 들어, 위와 같은 문장의 1차 개념열 추출 결과 '노래'라는 개념열이 추출되었을 때, 이를 이용하여 'HOT'를 가수 그룹으로 인식하고 2차 개념열로써 추출할 수 있다. 이 때, 1차 개념열 추출 시 'HOT'가 인식되지 못한 것은 'HOT'를 '뜨거운'이라는 형용사로 인식하였기 때문이다. For example, when a concept string called 'sing' is extracted as a result of the first concept string extraction of the sentence as described above, 'HOT' may be recognized as a singer group and extracted as a second concept string. At this time, 'HOT' was not recognized when extracting the first conceptual sequence because 'HOT' was recognized as an 'adjective'.
이처럼 2차 추출된 개념열 '노래, HOT' 및 2차 대용어 '뭐'를 이용하여 2차 대화 분석부(130)는 2차 의미 분석을 수행한다. 이 때, 2차 의미 분석 결과는 'Search_song_title (singer = HOT)'가 된다. As described above, the second
응답 문장 생성부(140)는 2차 의미 분석 결과를 기반으로 응답 문장을 생성한다. 예를 들어, 위의 예와 같이 2차 의미 분석 결과가 'Search_song_title (singer = HOT)'인 경우, 'Say_song_title (singer = HOT)'를 응답 문장으로 생성할 수 있다. The
문맥 정보 관리부(150)는 음성 인식된 문장에 대하여 1차 또는 2차 의미 분석한 결과인 문맥 정보를 저장한다. 상기 저장된 문맥 정보는 다음 단계의 개념열 및 대용어 추출이나 의미 분석에 사용되며, 사용자의 다음 발화에 대한 개념열 및 대용어 추출이나 의미 분석에 사용된다. The
도 2는 본 발명의 일실시 예에 따른 응답 문장 생성 과정을 나타내는 흐름도이다. 이하, 도 2를 참조하여 본 발명의 일실시 예에 따른 응답 문장 생성 과정에 대하여 상세히 설명한다. 2 is a flowchart illustrating a process of generating a response sentence according to an embodiment of the present invention. Hereinafter, a process of generating a response sentence according to an embodiment of the present invention will be described in detail with reference to FIG. 2.
단계(200)에서 음성 인식부(100)는 입력된 음성을 음성 인식하고, 음성 인식 된 결과를 형태소 분석부(110)로 출력한다. In
단계(210)에서 형태소 분석부(110)는 음성 인식부(100)에서 음성 인식된 문장에 대하여 형태소 분석을 수행한 후, 형태소 분석 결과를 1차 대화 분석부(120)로 출력한다. In
단계(220)에서 1차 대화 분석부(120)는 상기 형태소 분석된 문장에서 1차 개념열 및 1 차 대용어 추출을 수행한 후, 단계(230)로 진행한다. 상기 1차 개념열 추출 및 1차 대용어 추출은 사용자의 이전 질의에 대한 1차 의미 분석 결과 및 2차 의미 분석 결과를 참조하여 이루어질 수 있다. 또한, 상기 1차 대용어 추출은 상기 추출된 1차 개념열을 기반으로 이루어질 수 있다. In
단계(230)에서 1차 대화 분석부(130)는 1차 개념열 추출 및 1차 대용어 추출 결과를 기반으로 상기 형태소 분석된 문장에 대하여 1차 의미 분석을 수행한다. In
단계(240)에서 2차 대화 분석부(130)는 문맥 정보 관리부(150)에 저장된 1차 의미 분석 결과를 자질로써 추가하여 2차 개념열 추출 및 2차 대용어 추출을 수행한 후, 단계(250)로 진행한다. 상기 2차 개념열 추출 및 2차 대용어 추출은 사용자의 이전 질의에 대한 1차 의미 분석 결과 및 2차 의미 분석 결과를 참조하여 이루어질 수 있다. 또한, 상기 2차 대용어 추출은 상기 추출된 2차 개념열을 기반으로 이루어질 수 있다. In
단계(250)에서 2차 대화 분석부(130)는 2차 개념열 추출 및 2차 대용어 추출 결과를 기반으로 2차 의미 분석을 수행한다.In
단계(260)에서 응답 문장 생성부(140)는 상기 2차 의미 분석 결과를 기반으 로 응답 문장을 생성하고, 종료한다. In
상기와 같은 응답 문장 생성 과정을 <표 1>을 참조하여 설명한다. <표 1>은 1차 대화 분석부와 2차 대화 분석부에서 이루어지는 개념열 추출, 대용어 추출 및 의미 분석 과정을 보여주기 위한 예이다. A process of generating a response sentence as described above will be described with reference to <Table 1>. <Table 1> is an example to show the process of concept string extraction, term extraction, and semantic analysis performed in the first conversation analysis unit and the second conversation analysis unit.
<표 1>과 같이, 음성 인식된 문장이 'HOT 가 부른 노래가 뭐가 있지'인 경우에, 1차 대화 분석부(120)에서 1차 개념열로 추출된 단어가 '노래'이고, 1차 대용어로 추출된 단어가'뭐'인 경우에, 1차 의미 분석 결과는 'Search_song_title (singer = ? )'가 된다. As shown in Table 1, when the speech recognized sentence is 'what song is HOT sung', the word extracted as the first concept string from the
이 예에서, 1차 대화 분석부(120)는 'HOT'를 가수 그룹으로 인식하지 못하고, '뜨거운'이라는 뜻의 형용사로 인식하여 1차 개념열로 추출하지 않은 것이다. In this example, the first
이 때, 1차 의미 분석 결과'Search_song_title (singer = ? )'는 문맥 정보 관리부(150)에 저장되고, 2차 대화 분석(130)부는 상기 문맥 정보 관리부(150)에 저장된 1차 의미 분석 결과를 이용하여, 2차 개념열 추출 및 2차 대용어 추출을 하고, 상기 추출된 2차 개념열 및 2차 대용어를 기반으로 2차 의미 분석을 수행하게 된다. At this time, the primary semantic analysis result 'Search_song_title (singer =?)' Is stored in the contextual
위의 예에서 1차 의미 분석 결과'Search_song_title (singer = ? )'는 'singer = ?' 가 부른 노래를 찾는 것이므로, 2차 대화 분석부(130)는 2차 개념열 추출 시에 'HOT'를 가수 그룹으로 인식하게 되고, 'HOT'를 2차 개념열로 추출하게 된다. In the above example, the first semantic analysis result 'Search_song_title (singer =?)' Means 'singer =?' Since the second
2차 대화 분석부(130)는 2차 개념열 추출 결과'HOT, 노래' 및 2차 대용어 추출 결과'뭐'를 이용하여 2차 의미 분석을 수행하는데, 이 때 2차 의미 분석 결과는 'Search_song_title (singer = HOT)'가 된다. The secondary
응답 문장 생성부(140)는 위와 같은 2차 의미 분석 결과를 이용하여 응답 문장을 생성하게 된다. 이 때, 생성되는 응답 문장의 형식은 'Say_song_title ( singer = HOT)'가 된다. The
상술한 본 발명의 설명에서는 구체적인 일실시 예에 관하여 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 따라서, 본 발명의 범위는 설명된 일실시 예에 의하여 정하여 질 것이 아니고, 특허 청구 범위와 특허 청구 범위의 균등한 것에 의하여 정해져야 한다. In the above description of the present invention, a specific embodiment has been described, but various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be determined by the equivalents of the claims and the claims.
도 1은 본 발명의 일실시 예에 따른 응답 문장 생성 장치의 블록 구성도,1 is a block diagram of an apparatus for generating a response sentence according to an embodiment of the present invention;
도 2는 본 발명의 일실시 예에 따른 응답 문장 생성 과정을 나타내는 흐름도.2 is a flowchart illustrating a process of generating a response sentence according to an embodiment of the present invention.
Claims (10)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20060084645 | 2006-09-04 | ||
KR1020060084645 | 2006-09-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080021486A KR20080021486A (en) | 2008-03-07 |
KR100908445B1 true KR100908445B1 (en) | 2009-07-21 |
Family
ID=39395970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070066452A KR100908445B1 (en) | 2006-09-04 | 2007-07-03 | Apparatus and method for generating response sentences |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100908445B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100920267B1 (en) * | 2007-09-17 | 2009-10-05 | 한국전자통신연구원 | System for voice communication analysis and method thereof |
KR100918644B1 (en) * | 2009-06-17 | 2009-09-25 | 김정중 | Conversation system and sentence generation method thereof |
KR102175539B1 (en) * | 2013-10-18 | 2020-11-06 | 에스케이텔레콤 주식회사 | Conversational service apparatus and method based on user utterance |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030078388A (en) * | 2002-03-29 | 2003-10-08 | 삼성전자주식회사 | Apparatus for providing information using voice dialogue interface and method thereof |
JP2004233852A (en) | 2003-01-31 | 2004-08-19 | Fujitsu Ltd | System and method for supporting preparation of speech response application |
KR20060070605A (en) * | 2004-12-21 | 2006-06-26 | 한국전자통신연구원 | Using domain dialogue model and language model in intelligent robot speech recognition service device and method |
-
2007
- 2007-07-03 KR KR1020070066452A patent/KR100908445B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030078388A (en) * | 2002-03-29 | 2003-10-08 | 삼성전자주식회사 | Apparatus for providing information using voice dialogue interface and method thereof |
JP2004233852A (en) | 2003-01-31 | 2004-08-19 | Fujitsu Ltd | System and method for supporting preparation of speech response application |
KR20060070605A (en) * | 2004-12-21 | 2006-06-26 | 한국전자통신연구원 | Using domain dialogue model and language model in intelligent robot speech recognition service device and method |
Non-Patent Citations (1)
Title |
---|
Chiori Hori et al. "Deriving disambiguous queries in a spoken interactive ODQA system", ICASSP 2003, Vol.1, pp.624-627, April 2003* |
Also Published As
Publication number | Publication date |
---|---|
KR20080021486A (en) | 2008-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Arisoy et al. | Turkish broadcast news transcription and retrieval | |
US6223150B1 (en) | Method and apparatus for parsing in a spoken language translation system | |
US6282507B1 (en) | Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection | |
US6278968B1 (en) | Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system | |
US6243669B1 (en) | Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation | |
US6442524B1 (en) | Analyzing inflectional morphology in a spoken language translation system | |
US6356865B1 (en) | Method and apparatus for performing spoken language translation | |
US6266642B1 (en) | Method and portable apparatus for performing spoken language translation | |
US6374224B1 (en) | Method and apparatus for style control in natural language generation | |
US8566076B2 (en) | System and method for applying bridging models for robust and efficient speech to speech translation | |
US20170199867A1 (en) | Dialogue control system and dialogue control method | |
EP1623412B1 (en) | Method for statistical language modeling in speech recognition | |
US11295730B1 (en) | Using phonetic variants in a local context to improve natural language understanding | |
Sak et al. | Morpholexical and discriminative language models for Turkish automatic speech recognition | |
KR102267561B1 (en) | Apparatus and method for comprehending speech | |
CN111613214A (en) | Language model error correction method for improving voice recognition capability | |
KR100908445B1 (en) | Apparatus and method for generating response sentences | |
Nikulásdóttir et al. | An Icelandic pronunciation dictionary for TTS | |
Ananthakrishnan et al. | Automatic diacritization of Arabic transcripts for automatic speech recognition | |
KR101134455B1 (en) | Speech recognition apparatus and its method | |
Sinha et al. | Enhancing the Performance of Part of Speech tagging of Nepali language through Hybrid approach | |
JP2004348552A (en) | Voice document search device, method, and program | |
Le et al. | Automatic quality estimation for speech translation using joint ASR and MT features | |
JP2003162524A (en) | Language processor | |
KR20100120977A (en) | Method and apparatus for searching voice data from audio and video data under the circumstances including unregistered words |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130715 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140710 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |