JP2007265131A - Dialog information extraction device, dialog information extraction method, and program - Google Patents

Dialog information extraction device, dialog information extraction method, and program Download PDF

Info

Publication number
JP2007265131A
JP2007265131A JP2006090654A JP2006090654A JP2007265131A JP 2007265131 A JP2007265131 A JP 2007265131A JP 2006090654 A JP2006090654 A JP 2006090654A JP 2006090654 A JP2006090654 A JP 2006090654A JP 2007265131 A JP2007265131 A JP 2007265131A
Authority
JP
Japan
Prior art keywords
sentence
dialog
text
dialogue
text data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006090654A
Other languages
Japanese (ja)
Inventor
Hiroyuki Onuma
宏行 大沼
Masaki Matsudaira
正樹 松平
Masamutsu Fuchigami
正睦 渕上
Kohaku Morita
幸伯 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2006090654A priority Critical patent/JP2007265131A/en
Publication of JP2007265131A publication Critical patent/JP2007265131A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a dialog information extraction device capable of extracting only important information which does not overlap listening text data written by a primary operator and reducing burdens on a secondary operator. <P>SOLUTION: The dialog information extraction device 100 is provided with: a dialog voice input part 114 for inputting dialog sound data which record dialogs between a plurality of persons; a sound text conversion part 116 for applying sound recognition processing to the dialog sound data to convert them into dialog text data; a dialog sentence extraction part 118 for performing a morpheme analysis to the dialog text data to extract a group of dialog sentences to be an important group of sentences among the dialog text data; a listening text input part 122 for inputting the listening text data whose contents of the dialog have been transcribed by a listener; and a differential sentence output part 124 for outputting a group of differential sentences which do not correspond to sentences of the listening text data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は,対話情報を抽出する対話情報抽出装置,対話情報抽出方法およびプログラムに関する。   The present invention relates to a dialog information extraction apparatus, a dialog information extraction method, and a program for extracting dialog information.

近年,取扱説明書等の書面以外に,購入した商品等についての問い合わせを,ユーザから電話で直接受け付け,個々に対応するサービスが増えつつある。このような問い合わせにおいて,ユーザが所望する情報は多岐に渡っており,オペレータは,その個々の問い合わせに丁寧に対応する。このような問い合わせを受け付ける窓口は,通常1つであり,対応するオペレータをここでは一次オペレータと呼ぶ。   In recent years, in addition to written documentation such as instruction manuals, inquiries regarding purchased products are directly received from users by telephone, and services corresponding to each individual are increasing. In such an inquiry, there is a wide variety of information desired by the user, and the operator carefully responds to each inquiry. There is usually one window for accepting such inquiries, and the corresponding operator is referred to herein as the primary operator.

一次オペレータは,回答可能な事項については,ユーザとの対話の中で回答する。しかし,一次オペレータが即答できない場合,その問い合わせは二次オペレータに伝達され,二次オペレータによって後日ユーザに回答される。   The primary operator responds in a dialog with the user about items that can be answered. However, if the primary operator cannot answer immediately, the inquiry is transmitted to the secondary operator and answered to the user at a later date by the secondary operator.

このような回答を準備する際,二次オペレータは,一次オペレータがテキストで対話の内容を記したコール記憶(以下,聴取テキストデータと言う。)を参照し,ユーザの問い合わせ事項を把握する。しかしながら,かかる聴取テキストデータのみでは,ユーザからの重要な情報が抜け落ちることもあり,問い合わせのポイントがずれて伝わったり,二次オペレータが,一次オペレータと同じ内容をユーザに聞いたりして処理が効率的に行われない問題が生じている。このため,二次オペレータは,ユーザと一次オペレータによってなされた対話を音声として記憶した対話音声データを全て聞き直したり,ユーザに直接連絡を取り,質問内容を確認するといった対応をとっている。   When preparing such an answer, the secondary operator refers to the call memory (hereinafter referred to as listening text data) in which the primary operator describes the contents of the dialogue in text, and grasps the user's inquiry item. However, with such listening text data alone, important information from the user may be lost, and the point of inquiry is shifted and the secondary operator asks the user the same content as the primary operator, and the processing is efficient. There is a problem that is not done automatically. For this reason, the secondary operator takes measures such as re-listening all the dialogue voice data storing the dialogue between the user and the primary operator as voice, or contacting the user directly to confirm the contents of the question.

しかし,二次オペレータが,録音された対話音声データを毎回聞き直すのは効率が悪い。かといって,単に,対話音声データに音声認識処理を施して対話テキストデータに変換した結果を二次オペレータに伝達したとしても,テキストも音声同様にデータが多すぎるため,処理が煩雑になってしまう。   However, it is inefficient for the secondary operator to listen to the recorded dialogue voice data every time. However, even if the speech recognition process is performed on the dialog voice data and the result converted to the dialog text data is transmitted to the secondary operator, the text is too much data like the voice, so the processing becomes complicated. End up.

さらに,一次オペレータは二次オペレータが必要とする情報が分からないため,重要な情報が聴取テキストデータから抜け落ちる可能性がある。また,一次オペレータは,電話対応している間,簡単なメモしか残せず,後からそのメモに基づいて正式な聴取テキストデータを作るので,情報が欠落しやすいという問題もある。   Furthermore, since the primary operator does not know the information required by the secondary operator, there is a possibility that important information may be lost from the listening text data. In addition, the primary operator can only leave a simple memo while responding to a telephone call, and since it creates formal listening text data based on the memo later, there is a problem that information tends to be lost.

そこで,音声情報から重要な情報が欠落しないように,対話音声データをテキストに変換し,予め準備された特定のキーワード(重要なキーワード)を含む文字列を抽出する技術が検討されている(例えば,特許文献1)。
特開2000−067064号公報
Therefore, a technique for converting dialogue voice data into text and extracting a character string including a specific keyword (important keyword) prepared in advance so that important information is not lost from the voice information has been studied (for example, , Patent Document 1).
JP 2000-067064 A

しかし,上記キーワードによって重要情報を抽出する技術では,ユーザが質問する事項を予め予想し,重要なキーワードを付与する必要がある。また,キーワードとして予想できなかった重要事項は,やはり二次オペレータが対話音声データを再度聞き直して把握しなくてはならない。   However, in the technology for extracting important information using the above keywords, it is necessary to predict matters to be asked by the user in advance and assign important keywords. Also, important matters that could not be predicted as keywords must be grasped by the secondary operator again listening to the dialog voice data.

一方,単に対話音声データに音声認識処理を施して対話テキストデータに変換した結果を二次オペレータに伝達しても,テキストも音声同様にデータが多すぎるため,処理が煩雑になってしまうという問題も発生している。このような状態では,一次オペレータが二次オペレータに解りやすいように記載した聴取テキストデータが無駄になってしまう。   On the other hand, even if the speech recognition process is simply performed on the dialog voice data and the result converted to the dialog text data is transmitted to the secondary operator, the text is too much data like the voice and the processing becomes complicated. Has also occurred. In such a state, the listening text data described so that the primary operator can easily understand the secondary operator is wasted.

本発明は,従来の対話情報の抽出技術が有する上記問題点に鑑みてなされたものであり,本発明の目的は,一次オペレータが作成する聴取テキストデータと重複しない重要な情報のみを抽出し,二次オペレータの負担を軽減することが可能な,新規かつ改良された対話情報抽出装置,対話情報抽出方法およびプログラムを提供することである。   The present invention has been made in view of the above-mentioned problems of conventional dialog information extraction technology, and the object of the present invention is to extract only important information that does not overlap with listening text data created by a primary operator, To provide a new and improved dialogue information extraction apparatus, dialogue information extraction method and program capable of reducing the burden on the secondary operator.

本発明は,上記課題を解決するために,一次オペレータが記した聴取テキストデータから抜け落ちた文章のみを対話テキストデータから抽出し,二次オペレータが,ユーザが所望する問い合わせを漏れなく把握することができ,二次オペレータの作業負担を軽減することが可能な,ユーザの利便性に資する対話情報抽出装置,対話情報抽出方法およびプログラムを提供する。   In order to solve the above-described problem, the present invention can extract only sentences that are missing from the listening text data written by the primary operator from the dialogue text data, and the secondary operator can grasp the inquiry desired by the user without omission. A dialog information extraction device, a dialog information extraction method, and a program that can reduce the work burden of a secondary operator and contribute to user convenience.

上記課題を解決するために,本発明のある観点によれば,対話音声データを入力する対話音声入力部と;上記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換部と;上記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出部と;上記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力部と;上記対話文章群から,上記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力部と;を備えることを特徴とする,対話情報抽出装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, a dialog voice input unit that inputs dialog voice data; a voice text conversion unit that performs voice recognition processing on the dialog voice data and converts it into dialog text data A dialog text extracting unit that extracts a dialog text group that is an important text group in the dialog text data; a listening text input unit that inputs listening text data in which the listener has written the content of the dialog; And a differential text output unit that outputs a differential text group that does not correspond to the text of the listening text data from the dialog text group.

対話文章抽出部は,対話テキストデータから重要な文章(対話文章群)を抽出し,差分文章出力部は,聴取テキストデータに既に記載されている文章(文字列)以外の文章を対話文章群から出力する。従って,残った文章である差分文章群は,対話テキストデータにはあるが,聴取テキストデータにはない文章群となる。かかる構成により,一次オペレータが作成した聴取テキストデータから抜け落ちた文章のみを対話テキストデータから抽出することができるので,二次オペレータは,ユーザが所望する問い合わせを漏れなく把握することが可能となる。   The dialogue sentence extraction unit extracts important sentences (dialogue sentence groups) from the dialogue text data, and the difference sentence output part extracts sentences other than sentences (character strings) already described in the listening text data from the dialogue sentence groups. Output. Therefore, the difference sentence group which is a remaining sentence becomes a sentence group which exists in the dialogue text data but does not exist in the listening text data. With such a configuration, since only sentences that have been dropped from the listening text data created by the primary operator can be extracted from the dialog text data, the secondary operator can grasp the query desired by the user without omission.

本発明において,単語とその単語の属性とを対応付けた属性辞書を記憶する属性辞書記憶部をさらに備え,上記対話文章抽出部は,上記属性辞書による属性に基づいて重要と判断される単語を含む1または2以上の文章を抽出するようにしてもよい。また,差分文章出力部も属性辞書を参照して重要な単語を判断するとしてもよく,これにより差分文書を出すとき重要単語を強調することが可能となり,利便性が高くなる。   In the present invention, an attribute dictionary storage unit that stores an attribute dictionary in which a word is associated with an attribute of the word is further provided, and the dialog sentence extraction unit selects a word that is determined to be important based on the attribute of the attribute dictionary. You may make it extract the 1 or 2 or more sentence containing. Also, the difference text output unit may determine an important word by referring to the attribute dictionary, which makes it possible to emphasize the important word when a difference document is output, which increases convenience.

上記差分文章出力部は,聴取テキストデータと対話テキストデータとの重複した部分を対話テキストデータから除いて出力する。この場合,対話テキストデータ全てを残すとするとテキストの量が多すぎて,二次オペレータの処理が煩雑になるので,重要な単語を含む文章のみを出力対象とすることにより,二次オペレータが必要とする重要な文章が絞られ,正確かつ迅速な対応をとることができ,二次オペレータの負担をより軽減することが可能となる。   The differential sentence output unit removes the overlapping part of the listening text data and the dialog text data from the dialog text data and outputs the result. In this case, if all of the dialogue text data is left, the amount of text is too large, and the processing of the secondary operator becomes complicated. Therefore, the secondary operator is required to output only sentences containing important words. It is possible to narrow down the important sentences and to take an accurate and quick response, thereby further reducing the burden on the secondary operator.

上記辞書記憶部は,複数の属性辞書を有し,上記対話文章抽出部は,上記差分文章出力部の出力結果の用途に応じて選択された属性辞書を用いるとしてもよい。なお,ここでいう「出力結果の用途に応じて選択された属性辞書」とは,この出力結果の利用者(二次オペレータ等)の専門性等を考慮して,その目的達成のために選択された属性辞書のことをいう。   The dictionary storage unit may include a plurality of attribute dictionaries, and the dialog text extraction unit may use an attribute dictionary selected according to the use of the output result of the difference text output unit. The "attribute dictionary selected according to the use of the output result" here is selected to achieve the purpose in consideration of the expertise of the user (secondary operator, etc.) of the output result. Refers to the attribute dictionary.

上記他の利用者に対して個々に属性辞書を設定することで,その利用者毎に重要な単語を定義することができ,対話文章抽出部は,利用者毎の専門性に応じて適切な文章を抽出することが可能となる。   By setting attribute dictionaries individually for the other users above, it is possible to define important words for each user, and the dialogue text extractor is appropriate for each user's expertise. Sentences can be extracted.

上記対話文章抽出部は,少なくとも質問,回答,希望を示すいずれかの文章を抽出するとしてもよい。また,上述したような重要な単語を含む文章と合わせて,当該質問,回答,希望を示す文章を抽出することもできる。   The dialog text extraction unit may extract at least any text indicating a question, an answer, or a wish. In addition, it is possible to extract a sentence indicating the question, the answer, and the hope together with the sentence including the important word as described above.

対話テキストデータの各文章が,ユーザや一次オペレータの質問および回答であったり,ユーザの希望である場合,その文章は重要であり,二次オペレータはその情報を正確に把握しなくてはならない。対話文章抽出部の形態素解析において,文章がこのような質問,回答,希望にあたる場合,その文章も抽出して,二次オペレータに伝達する。   When each sentence of the dialog text data is a question or answer of a user or a primary operator or is a user's request, the sentence is important, and the secondary operator must grasp the information accurately. In the morphological analysis of the dialog text extraction unit, when the text corresponds to such a question, answer, or hope, the text is also extracted and transmitted to the secondary operator.

上記差分文章出力部は,上記対話文章群から,文章中の重要な単語が上記聴取テキストデータに全てある文章以外の文章を出力するとしてもよい。   The difference sentence output unit may output a sentence other than a sentence in which all important words in the sentence are included in the listening text data from the dialogue sentence group.

差分文章出力部は,聴取テキストデータに既に記載されている文章を判断する。しかし,対話テキストデータにおける文章内の重要な単語が全て聴取テキストデータに記載されているとは限らない。従って,差分文章出力部は,対話テキストデータ中の重要な単語が全て聴取テキストデータに含まれている文章を重複文章とし,この重複文書以外の文章は,差分文章群として抽出する。   The differential sentence output unit determines a sentence already described in the listening text data. However, not all important words in sentences in dialogue text data are described in the listening text data. Therefore, the difference sentence output unit extracts sentences in which all important words in the dialog text data are included in the listening text data as duplicate sentences, and extracts sentences other than the duplicate documents as difference sentence groups.

上記差分文章出力部は,上記聴取テキストデータから係り受け関係を抽出し,上記対話文章群から同係り受け関係を有する文章以外の文章を出力するとしてもよい。   The difference sentence output unit may extract the dependency relationship from the listening text data and output a sentence other than the sentence having the dependency relationship from the dialogue sentence group.

聴取テキストデータにおいて,任意の単語対(表記の同じ単語のこと。同義語でも同じ)が係り受け関係と見なされる場合,それと同等の係り受け関係にある単語を含む文章は,既に聴取テキストデータに含まれると考えることができる。従って,かかる関係にある文章は,残す必要がないので,差分文章群には含まれない。   In listening text data, if an arbitrary word pair (same word in the notation, the same as a synonym) is considered to be a dependency relationship, a sentence containing a word with an equivalent dependency relationship is already included in the listening text data. Can be considered included. Therefore, sentences having such a relationship do not need to be left and are not included in the difference sentence group.

上記対話テキストデータの文章中の単語を上記聴取テキストデータに適応させるための同義語辞書を記憶する同義語辞書記憶部をさらに備えるとしてもよい。   A synonym dictionary storage unit for storing a synonym dictionary for adapting words in the text of the dialog text data to the listening text data may be further provided.

一次オペレータは,対話中の単語を解りやすい単語に置き換えて聴取テキストデータを生成する場合がある。このとき,聴取テキストデータと対話テキストデータとは同じ係り受け関係の単語対を含むにも拘わらず,その単語は一致していないという状況が生じる。差分文章出力部は,かかる同義語辞書を参照することにより,上記単語を同義語に置き換えて,係り受け関係を一致させることができる。   The primary operator may generate listening text data by replacing a word being spoken with an easy-to-understand word. At this time, although the listening text data and the dialogue text data include a pair of words having the same dependency relation, the words do not match. By referring to the synonym dictionary, the differential sentence output unit can replace the word with a synonym and match the dependency relationship.

上記差分文章出力部は,上記対話文章群から,上記聴取テキストデータの文章に対応している文章と質問対回答の関係にある文章を除くこととしてもよい。   The differential sentence output unit may exclude a sentence corresponding to a sentence corresponding to the sentence of the listening text data and a sentence having a question-answer relationship from the dialogue sentence group.

対話文章群中の,上記聴取テキストデータの文章に対応している文章において,質問のみもしくは回答のみが記されている場合,それに対応する回答や質問も内在的に聴取テキストデータに含まれていると考えることができる。従って,かかる関係にある文章は,残す必要がなく,差分文章出力部によって除かれる。   In a sentence corresponding to the above-mentioned sentence of the listening text data in the dialogue sentence group, when only a question or only an answer is written, the corresponding answer or question is also included in the listening text data inherently. Can be considered. Therefore, it is not necessary to leave sentences having such a relationship, and they are removed by the difference sentence output unit.

上記差分文章出力部は,上記差分文章群を音声に変換して結合した差分音声データを出力してもよいし,上記差分文章群を結合した差分テキストデータを出力してもよい。   The differential text output unit may output differential voice data obtained by converting the differential text groups into speech and combining them, or may output differential text data combining the differential text groups.

かかる構成により,二次オペレータは,音声データもしくはテキストデータでユーザの問い合わせを把握できる。特に,音声データでは,ユーザの声質も同時に把握することができ,ユーザにより適切に対応することが可能となる。   With this configuration, the secondary operator can grasp the user's inquiry using voice data or text data. In particular, with voice data, the voice quality of the user can be grasped at the same time, and the user can respond appropriately.

上記対話の内容を録音し,対話音声データを生成する対話音声生成部をさらに備えるとしてもよい。   It may be further provided with a dialog voice generation unit that records the contents of the dialog and generates dialog voice data.

かかる構成により,当該対話情報抽出装置は対話の内容を直接録音することができ,一次オペレータは対話音声データを取り扱わなくて済むので処理を簡略化できる。   With this configuration, the dialog information extracting apparatus can directly record the contents of the dialog, and the primary operator does not have to handle the dialog voice data, so the processing can be simplified.

上記対話情報抽出装置は,複数の構成要素の集合体で表されるが,各構成要素や機能モジュールが単体の装置に属する場合に限られず,各構成要素が別体の装置として,または別体の装置に組み込まれて構成されるとしてもよい。   The above dialog information extraction device is represented by an assembly of a plurality of components, but is not limited to the case where each component or functional module belongs to a single device, and each component is a separate device or a separate device. It may be configured to be incorporated in the apparatus.

また,コンピュータを,上記対話情報抽出装置として,機能させるプログラムやそれを記憶した記憶媒体が提供される。   In addition, there are provided a program for causing a computer to function as the dialog information extraction device and a storage medium storing the program.

上記課題を解決するために,本発明の別の観点によれば,対話音声データを入力する対話音声入力ステップと;上記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換ステップと;上記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出ステップと;上記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力ステップと;上記対話文章群から,上記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力ステップと;を含むことを特徴とする,対話情報抽出方法が提供される。   In order to solve the above problems, according to another aspect of the present invention, a dialog voice input step for inputting dialog voice data; a voice text conversion for converting the dialog voice data into dialog text data by performing a voice recognition process; A dialog text extraction step for extracting a dialog text group that is an important text group in the dialog text data; and a listening text input step for inputting listening text data in which a listener has made the text of the dialog text; And a differential text output step for outputting a differential text group that does not correspond to the text of the listening text data from the dialog text group.

上述した対話情報抽出装置における従属項に対応する構成要素やその説明は,当該対話情報抽出方法,プログラム,記憶媒体にも適用可能である。   The components corresponding to the dependent claims in the dialog information extraction apparatus and the description thereof can be applied to the dialog information extraction method, program, and storage medium.

以上説明したように本発明によれば,一次オペレータが作成した聴取テキストデータと重複しない重要な情報のみを抽出し,二次オペレータは,聴取テキストデータとこの重要な情報を参照することで正確かつ迅速な対応が可能となり,また,このように処理が効率化されることで,一次および二次オペレータの総合的な負担が軽減される上,ユーザの利便性にも資するものである。   As described above, according to the present invention, only important information that does not overlap with the listening text data created by the primary operator is extracted, and the secondary operator can accurately and accurately refer to the listening text data and this important information. In addition to being able to respond quickly, the efficiency of the processing in this way reduces the overall burden on the primary and secondary operators and also contributes to user convenience.

以下に添付図面を参照しながら,本発明の好適な実施の形態について詳細に説明する。なお,本明細書及び図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することによりその説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals and description thereof is omitted.

(第1の実施形態:対話情報抽出装置100)
第1の実施形態による対話情報抽出装置100は,聴取テキストデータと,対話テキストデータとの対応関係から聴取テキストデータに記載させていない事柄を抽出し,その部分のみを抜き出している。その抜き出した情報を二次オペレータに伝達する。
(First embodiment: Dialog information extracting apparatus 100)
The dialogue information extraction apparatus 100 according to the first embodiment extracts matters that are not described in the listening text data from the correspondence between the listening text data and the dialogue text data, and extracts only that portion. The extracted information is transmitted to the secondary operator.

図1は,第1の実施形態における対話情報抽出装置100の概略的な構成を示した機能ブロック図である。かかる対話情報抽出装置100は,中央制御部110と,対話音声生成部112と,対話音声入力部114と,音声テキスト変換部116と,対話文章抽出部118と,辞書記憶部120と,聴取テキスト入力部122と,差分文章出力部124と,属性辞書選択部180とを含んで構成されている。また,対話情報抽出装置100自体は,サーバ,コンピュータ,PDA(Personal Digital Assistant),携帯電話,ゲーム機器等の電子機器によって構成されるとしてもよい。   FIG. 1 is a functional block diagram showing a schematic configuration of a dialogue information extraction apparatus 100 according to the first embodiment. The dialogue information extraction apparatus 100 includes a central control unit 110, a dialogue voice generation unit 112, a dialogue voice input unit 114, a voice text conversion unit 116, a dialogue sentence extraction unit 118, a dictionary storage unit 120, and a listening text. The input unit 122, the difference text output unit 124, and the attribute dictionary selection unit 180 are configured. The interactive information extraction apparatus 100 itself may be configured by an electronic device such as a server, a computer, a PDA (Personal Digital Assistant), a mobile phone, and a game device.

上記中央制御部110は,中央処理装置(CPU)を含む半導体集積回路により,対話情報抽出装置100全体を管理および制御する。   The central control unit 110 manages and controls the entire dialogue information extraction apparatus 100 by a semiconductor integrated circuit including a central processing unit (CPU).

上記対話音声生成部112は,ユーザと,そのユーザから問い合わせを受けた一次オペレータとによってなされた対話の内容(音声)を録音し,対話音声データ150を生成する。本実施形態の対話情報抽出装置100は,対話の内容を直接取得することができる。   The dialog voice generation unit 112 records the contents (voice) of the dialog made by the user and the primary operator who has received an inquiry from the user, and generates dialog voice data 150. The dialogue information extraction apparatus 100 according to the present embodiment can directly acquire the content of the dialogue.

上記対話音声入力部114は,対話音声生成部112において,もしくは,別体の録音機器140によって録音された対話音声データ150を入力する。対話音声データ150が対話音声生成部112で生成される場合,かかる対話音声データ150は,対話音声入力部114によって自動的に音声テキスト変換部116に伝達される。   The dialog voice input unit 114 inputs the dialog voice data 150 recorded by the dialog voice generation unit 112 or by a separate recording device 140. When the dialog voice data 150 is generated by the dialog voice generation unit 112, the dialog voice data 150 is automatically transmitted to the voice text conversion unit 116 by the dialog voice input unit 114.

上記音声テキスト変換部116は,対話音声入力部114に入力された対話音声データ150に音声認識処理を施してテキストに変換し,対話テキストデータ152を生成する。   The voice text conversion unit 116 performs voice recognition processing on the dialog voice data 150 input to the dialog voice input unit 114 to convert it into text, and generates dialog text data 152.

上記対話文章抽出部118は,対話テキストデータ152に対して形態素解析を行い,対話テキストデータ152中の重要な文章群である対話文章群を抽出する。   The dialog text extraction unit 118 performs morphological analysis on the dialog text data 152 and extracts a dialog text group which is an important text group in the dialog text data 152.

上記辞書記憶部120は,単語と,その単語の属性とを対応付けた,1または2以上の属性辞書160を記憶する。ここで,辞書記憶部120は,RAM,EPROM,不揮発性RAM,フラッシュメモリ,カードメモリ,USBメモリ,HDD(Hard Disk Drive)等の記憶媒体から構成されてもよい。 The dictionary storage unit 120 stores one or more attribute dictionaries 160 that associate a word with an attribute of the word. Here, the dictionary storage unit 120 may be configured by a storage medium such as a RAM, an E 2 PROM, a nonvolatile RAM, a flash memory, a card memory, a USB memory, and an HDD (Hard Disk Drive).

対話文章抽出部118は,辞書記憶部120中の属性辞書160による属性に基づいて重要と判断される単語を含む1または2以上の文章(文字列)を抽出し,対話文章群としている。   The dialogue sentence extraction unit 118 extracts one or more sentences (character strings) including words that are determined to be important based on the attribute of the attribute dictionary 160 in the dictionary storage unit 120 and forms a dialogue sentence group.

後述する差分文章出力部124は,聴取テキストデータ170と対話テキストデータ152との重複した部分を対話テキストデータ152から除いて出力する。しかし,対話テキストデータ152全てを残すとするとテキストの量が多すぎて,二次オペレータに負担がかかる。このように重要な単語を含む文章のみを出力対象とすることにより,二次オペレータが必要とする重要な文章が絞られ,二次オペレータの負担がより軽減される。結果的に,二次オペレータがユーザに対して正確かつ迅速な対応をとることができるようになるため,全体的な効率が向上する。   The differential sentence output unit 124 described later removes the overlapping part of the listening text data 170 and the dialog text data 152 from the dialog text data 152 and outputs the result. However, if all of the dialogue text data 152 is left, the amount of text is too large, and a load is imposed on the secondary operator. Thus, by setting only sentences including important words as output targets, important sentences required by the secondary operator are narrowed down, and the burden on the secondary operator is further reduced. As a result, since the secondary operator can take an accurate and prompt response to the user, the overall efficiency is improved.

また,辞書記憶部120は,第2の実施形態で説明する同義語辞書190も含むとしてもよい。ここでは,辞書記憶部120が属性辞書160および同義語辞書120を合わせて記憶しており,本実施形態において,辞書記憶部120は,属性辞書記憶部および同義語辞書記憶部の双方の機能を有している。なお,本発明においては,それぞれ別体の記憶部に記憶することもでき,その場合,属性辞書160を記憶する記憶部を属性辞書記憶部,同義語辞書190を記憶する記憶部を同義語辞書記憶部とそれぞれすることができる。   The dictionary storage unit 120 may also include a synonym dictionary 190 described in the second embodiment. Here, the dictionary storage unit 120 stores the attribute dictionary 160 and the synonym dictionary 120 together. In the present embodiment, the dictionary storage unit 120 has the functions of both the attribute dictionary storage unit and the synonym dictionary storage unit. Have. In the present invention, each storage unit can be stored in a separate storage unit. In this case, the storage unit storing the attribute dictionary 160 is the attribute dictionary storage unit, and the storage unit storing the synonym dictionary 190 is the synonym dictionary. Each can be a storage unit.

ここで,対話文章抽出部118は,少なくとも質問,回答,希望のいずれかを示す文章のみを抽出するとしてもよい。また,属性辞書160を用いて重要な単語を含む文章と合わせて,当該質問,回答,希望を示す文章を抽出するとしてもよい。   Here, the dialogue sentence extraction unit 118 may extract only a sentence indicating at least one of a question, an answer, and a wish. In addition, it is possible to extract a sentence indicating the question, answer, and hope together with a sentence including an important word using the attribute dictionary 160.

対話テキストデータ152の各文章が,ユーザや一次オペレータの質問および回答や,ユーザの希望である場合,その文章は重要であり,二次オペレータはその情報を把握しなくてはならない。対話文章抽出部118の形態素解析において,文章がこのような質問,回答,希望にあたる場合,その文章も抽出して,二次オペレータに伝達する。   When each sentence of the dialog text data 152 is a question and answer of a user or a primary operator or a user's wish, the sentence is important, and the secondary operator must grasp the information. In the morphological analysis of the dialogue sentence extraction unit 118, when the sentence corresponds to such a question, answer, or hope, the sentence is also extracted and transmitted to the secondary operator.

上記聴取テキスト入力部122は,ユーザとの対話の内容を,聴取者である一次オペレータが文章化した,もしくはそのユーザと一次オペレータとの対話を聴取している第3者が文章化した,聴取テキストデータ170を入力する。   The listening text input unit 122 is a listening text in which the content of the dialogue with the user is written by the primary operator who is the listener, or written by a third party listening to the dialogue between the user and the primary operator. The text data 170 is input.

上記差分文章出力部124は,聴取テキストデータ170に対して形態素解析を行い,対話文章抽出部118において抽出された対話文章群から,聴取テキストデータ170の文章に対応していない差分文章群を出力する。即ち,聴取テキストデータ170と対話文章群とが重複しているとみなすことができる文章を対話テキストデータ152から除いた場合の残りの文章を抽出する。   The differential text output unit 124 performs morphological analysis on the listening text data 170 and outputs a differential text group that does not correspond to the text of the listening text data 170 from the dialog text group extracted by the dialog text extraction unit 118. To do. That is, the remaining sentences are extracted when sentences that can be regarded as overlapping of the listening text data 170 and the conversation text group are excluded from the dialog text data 152.

差分文章出力部124は,対話文章群から,文章中の重要な単語が聴取テキストデータ170に全てある1または2以上の文章を除く。差分文章出力部124は,聴取テキストデータ170に既に記載されている文章を対話テキストデータ152から抽出するが,対話テキストデータ152における文章内の重要な単語が全て聴取テキストデータ170に記載されているとは限らない。従って,差分文章出力部124は,対話テキストデータ152中の重要な単語が全て聴取テキストデータ170に含まれている文章を重複文章とし,重要な単語が全て含まれていない文章は,差分文章群として抽出する。   The difference sentence output unit 124 removes one or more sentences in which all important words in the sentence are included in the listening text data 170 from the conversation sentence group. The differential sentence output unit 124 extracts sentences already described in the listening text data 170 from the dialogue text data 152, and all important words in the sentences in the dialogue text data 152 are described in the listening text data 170. Not necessarily. Therefore, the difference sentence output unit 124 sets a sentence in which all important words in the dialogue text data 152 are included in the listening text data 170 as a duplicate sentence, and a sentence that does not contain all important words is a difference sentence group. Extract as

上記残った差分文章群は,対話テキストデータ152にはあるが,聴取テキストデータ170にはなく,かつ重要な文章となる。かかる構成により,一次オペレータが作成した聴取テキストデータ170において抜け落ちた文章のみを対話テキストデータ152から抽出することができ,二次オペレータは,ユーザが所望する問い合わせを漏れなく把握することが可能となる。   The remaining difference sentence group is present in the dialog text data 152 but not in the listening text data 170 and is an important sentence. With this configuration, it is possible to extract only the missing text in the listening text data 170 created by the primary operator from the dialogue text data 152, and the secondary operator can grasp the inquiry desired by the user without omission. .

上記残った差分文章群は,音声に変換して結合した差分音声データ162として差分文章出力部124から出力されてもよいし,単に結合した差分テキストデータ164として出力されてもよい。こうして,二次オペレータは,音声データもしくはテキストデータでユーザの問い合わせを把握できる。特に,音声データでは,ユーザの声質も同時に把握することができ,ユーザにより適切に対応することが可能となる。   The remaining difference sentence group may be output from the difference sentence output unit 124 as difference voice data 162 converted into speech and combined, or may be output as simply combined difference text data 164. In this way, the secondary operator can grasp the user's inquiry from the voice data or text data. In particular, with voice data, the voice quality of the user can be grasped at the same time, and the user can respond appropriately.

また,差分文章出力部124は,対話文章群から,聴取テキストデータ170の文章に対応している文章と質問対回答の関係にある文章も除くとしてもよい。聴取テキストデータ170において,質問のみもしくは回答のみが記されている場合,それに対応する回答や質問も内在的に含まれていると考えることができる。従って,かかる関係にある文章は,残す必要がなく,差分文章出力部124によって除かれる。   Further, the difference sentence output unit 124 may exclude a sentence corresponding to the sentence of the listening text data 170 and a sentence having a question-answer relationship from the dialogue sentence group. In the listening text data 170, when only a question or only an answer is described, it can be considered that the corresponding answer or question is also included inherently. Accordingly, it is not necessary to leave sentences having such a relationship, and the difference sentence output unit 124 removes them.

上述した構成により,対話情報抽出装置100は,一次オペレータが記載した聴取テキストデータ170と重複しない重要な情報のみを抽出し,二次オペレータは,聴取テキストデータ170とこの重要な情報を参照することで処理の効率を上げ,総合的な負担を軽減することが可能となる。   With the above-described configuration, the dialog information extracting apparatus 100 extracts only important information that does not overlap with the listening text data 170 described by the primary operator, and the secondary operator refers to the listening text data 170 and this important information. This makes it possible to increase the processing efficiency and reduce the overall burden.

また,このように出力された差分音声データ162や差分テキストデータ164は,二次オペレータが利用するだけでなく,一次オペレータへの記載漏れの指摘や,一次オペレータの記載評価に利用することもできる。   Also, the differential voice data 162 and differential text data 164 output in this way can be used not only by the secondary operator but also for pointing out omissions to the primary operator and for evaluating the description of the primary operator. .

(プログラム,記憶媒体)
また,コンピュータを,対話情報抽出装置100として動作させるプログラムや,そのプログラムを記憶した記憶媒体も提供される。
(Program, storage medium)
Also provided are a program that causes the computer to operate as the dialogue information extraction apparatus 100, and a storage medium that stores the program.

(対話情報抽出方法)
続いて,上述した対話情報抽出装置100を利用して対話情報を抽出する対話情報抽出方法について詳細に説明する。
(Dialogue information extraction method)
Next, a dialog information extraction method for extracting dialog information using the above-described dialog information extraction apparatus 100 will be described in detail.

図2は,第1の実施形態における対話情報抽出方法の処理の流れを示したフローチャートであり,以下,図1の構成と合わせて処理の流れについて説明する。   FIG. 2 is a flowchart showing a process flow of the dialog information extraction method according to the first embodiment. Hereinafter, the process flow will be described together with the configuration of FIG.

先ず,対話情報抽出装置100の対話音声生成部112は,ユーザと一次オペレータとの対話の内容(音声)を録音し,対話音声データ150を生成する(S200)。その生成された対話音声データ150は,音声テキスト変換部116によって,音声認識処理が施され,対話テキストデータ152に変換される(S202)。   First, the dialog voice generation unit 112 of the dialog information extraction apparatus 100 records the dialog contents (voice) between the user and the primary operator, and generates dialog voice data 150 (S200). The generated dialog voice data 150 is subjected to voice recognition processing by the voice text conversion unit 116 and converted into dialog text data 152 (S202).

図3は,対話テキストデータ152の一例を示した説明図である。かかる対話テキストデータ152においては,文章毎に連続した識別子が付与され,また,発話者,ここでは,ユーザと一次オペレータも区別され,そのユーザと一次オペレータの対話の内容がテキスト化されている。また,その対話がなされた発話時間も合わせて記述されている。   FIG. 3 is an explanatory diagram showing an example of the dialog text data 152. In the dialogue text data 152, a continuous identifier is assigned to each sentence, and the speaker, here, the user and the primary operator are also distinguished, and the content of the dialogue between the user and the primary operator is converted into text. In addition, the utterance time during which the dialogue was made is also described.

対話文章抽出部118は,テキストに変換された対話テキストデータ152に対して形態素解析を行い,対話テキストデータ152中の重要な文章群である対話文章群を抽出する(S204)。かかる対話文章群の抽出は,大きく2つの処理から行われる。1つは,属性辞書160による属性に基づいて重要と判断される単語を含む文章を抽出する処理であり,もう1つは,質問,回答,希望を示す文章を抽出する処理である。以下,図4,5を参照して,かかる2つの処理を説明する。   The dialog text extraction unit 118 performs morphological analysis on the dialog text data 152 converted into text, and extracts dialog text groups that are important text groups in the dialog text data 152 (S204). The extraction of the dialogue text group is largely performed by two processes. One is a process of extracting a sentence including a word that is determined to be important based on the attribute by the attribute dictionary 160, and the other is a process of extracting a sentence indicating a question, an answer, and a wish. Hereinafter, the two processes will be described with reference to FIGS.

図4は,属性辞書160の一例を示した説明図である。かかる属性辞書160では,図面上側に単語が羅列してあり,図面下側にその単語の属性が対応付けられている。ここで,属性「現象・状況」は,トラブルや問い合わせが起こっている状況を表す単語を示し,属性「商品名」は,各商品の製品名等を示し,属性「部品・アクセサリ名」は,製品の部品名やアクセサリ名を示し,属性「日時・頻度」は,その事象が生じた日時や頻度を示し,属性「入手方法」は,商品の入手方法に関する単語を示す。また,属性「知識の状態」は,ユーザの知識の状況,例えば,内容を理解できているかどうかを表す単語を示す。図4における属性「知識の状態」の「わかる+ない」は,「わからない」や「わかっていない」等の否定的な表現の動詞と助動詞の組み合わせを表している。   FIG. 4 is an explanatory diagram showing an example of the attribute dictionary 160. In the attribute dictionary 160, words are listed on the upper side of the drawing, and the attributes of the words are associated with the lower side of the drawing. Here, the attribute “phenomenon / situation” indicates a word indicating a situation where a trouble or an inquiry occurs, the attribute “product name” indicates the product name of each product, and the attribute “part / accessory name” The part name and accessory name of the product are shown. The attribute “date / time / frequency” indicates the date / time and frequency of occurrence of the event. Further, the attribute “knowledge state” indicates a word indicating whether the user understands the situation of the knowledge, for example, the content. In the attribute “knowledge state” in FIG. 4, “I understand + no” represents a combination of a negative verb such as “I don't know” or “I don't know” and an auxiliary verb.

ここでは,単語から属性が対応付けられ,例えば,単語「MP200」の属性は「商品名」ということになる。かかる属性辞書160の属性に基づいて対話テキストデータの単語の属性を分析する。   Here, attributes are associated with words, for example, the attribute of the word “MP200” is “product name”. Based on the attribute of the attribute dictionary 160, the attribute of the word of the dialog text data is analyzed.

図5は,図3に示した対話テキストデータ152の各単語の属性を,図4に示した属性辞書160に基づいて分析した説明図である。ここで,対話文章抽出部118は,対話テキストデータ152を形態素解析して文章を単語レベルに分解し,属性辞書160から各単語を検索して,ヒットした単語にその属性を関連づける。かかる単語の下線は,形態素の区切りを示す。例えば,識別子3ユーザ発話の「MP200」には「商品名」が,「用紙」には「部品・アクセサリ名」が,「つまって」には「現象・状況」が関連づけられる。このようにして,対話テキストデータ152の文章中の単語に属性が付与される。   FIG. 5 is an explanatory diagram in which the attribute of each word in the dialog text data 152 shown in FIG. 3 is analyzed based on the attribute dictionary 160 shown in FIG. Here, the dialog text extraction unit 118 analyzes the dialog text data 152 to decompose the text into word levels, searches each word from the attribute dictionary 160, and associates the attribute with the hit word. The underline of such a word indicates a morpheme break. For example, “product name” is associated with “MP200” of identifier 3 user utterance, “part / accessory name” is associated with “paper”, and “phenomenon / situation” is associated with “jammed”. In this way, attributes are assigned to the words in the text of the dialog text data 152.

対話文章抽出部118は,関連づけられた属性に応じて重要な文章を把握する。本実施形態では,属性「現象・状況」,「商品名」,「部品・アクセサリ名」,「日時・頻度」,「入手方法」,「知識の状態」のうち,技術的な応答と判断できる属性「現象・状況」,「商品名」,「部品・アクセサリ名」,「日時・頻度」,「知識の状態」を重要な単語とし,その単語を含む文章を重要な文章としている。従って,識別子3,4,7,8,9が重要な文章に該当することとなる。ここでは,属性が「現象・状況」,「商品名」,「部品・アクセサリ名」,「日時・頻度」,「知識の状態」の単語を重要な単語としているが,かかる場合に限られず,目的に応じて様々な組合せを適用することができる。   The dialogue sentence extraction unit 118 grasps important sentences according to the associated attributes. In this embodiment, it can be determined that the response is a technical response among the attributes “phenomenon / situation”, “product name”, “part / accessory name”, “date / frequency”, “acquisition method”, and “knowledge state”. The attributes “phenomenon / situation”, “product name”, “part / accessory name”, “date / frequency”, “knowledge state” are important words, and sentences including the words are important sentences. Therefore, identifiers 3, 4, 7, 8, and 9 correspond to important sentences. Here, the attributes “phenomenon / situation”, “product name”, “part / accessory name”, “date / frequency”, and “knowledge state” are important words. Various combinations can be applied depending on the purpose.

ここで,属性が「知識の状態」に当たる単語も重要な単語としたのは,ユーザが「わからない」と発言した内容は,聴取テキストデータから抜け落ちる可能性は高いものの,二次オペレータにとって重要な情報となる場合があるからである。   Here, the word whose attribute corresponds to “knowledge state” is also regarded as an important word. The content that the user says “I don't know” is important information for the secondary operator, although it is highly likely that it will fall out of the listening text data. It is because it may become.

続いて,対話文章抽出部118は,対話テキストデータ152中の文章が重要な発話種類に当たるかどうかを解析する。ここで,発話種類とは,例えば,質問,回答,希望,その他を言い,重要な発話種類とは,その中の質問,回答,希望とを示す。まず,対話文章抽出部118は,文章の文末表現および疑問詞に着目する。例えば,図5の識別子8,12は,終助詞が「か」で終わっており,識別子6は,「いつ」の疑問詞を含んでいる。従って,識別子6,8,12は,発話種類「質問」となる。そして,その「質問」の文章の直後の文章を発話種類「回答」と判断する。図5においては,識別子7,9,13が「回答」となる。   Subsequently, the dialogue sentence extraction unit 118 analyzes whether or not the sentence in the dialogue text data 152 corresponds to an important utterance type. Here, the utterance type refers to, for example, questions, answers, hopes, and the like, and the important utterance types indicate questions, answers, and hopes therein. First, the dialogue sentence extraction unit 118 pays attention to the sentence end expression and question words. For example, the identifiers 8 and 12 in FIG. 5 have the final particle ending with “ka”, and the identifier 6 includes the “when” question word. Accordingly, the identifiers 6, 8, and 12 are the utterance type “question”. Then, the sentence immediately after the “question” sentence is determined to be the utterance type “answer”. In FIG. 5, the identifiers 7, 9, and 13 are “answers”.

また,識別子4,10は,文章中に希望を表す助動詞「たい」を含んでいるので,発話種類「希望」であると判断する。こうして図5の右側に記したような発話種類(質問,回答,希望,その他)が関連づけられる。   Since the identifiers 4 and 10 include the auxiliary verb “tai” indicating hope in the sentence, it is determined that the speech type is “hope”. In this way, utterance types (question, answer, hope, etc.) as shown on the right side of FIG. 5 are associated.

対話文章抽出部118は,上述した重要な単語を含む文章以外に,重要な発話種類,本実施形態では,「質問」,「回答」,「希望」を含む文章も重要な文章として抽出する。従って,ここでは識別子4,6,7,8,9,10,12,13が重要な文章に該当することとなる。ただし,識別子12や13に示すような「氏名」や「住所」といった単語は,ストップワードとし,それらの単語を含む質問や回答は,重要な文章としない。これは,ユーザの氏名や住所は二次オペレータにとって重要な情報ではなく,一次オペレータの電話対応時に,特定されていると考えられるからである。従って,識別子12,13は重要な文章から除かれる。   In addition to the sentence including the important word described above, the dialog sentence extracting unit 118 extracts the sentence including the important utterance type, in this embodiment, “question”, “answer”, and “hope” as the important sentence. Accordingly, the identifiers 4, 6, 7, 8, 9, 10, 12, and 13 correspond to important sentences here. However, words such as “name” and “address” as shown in identifiers 12 and 13 are stop words, and questions and answers including those words are not important sentences. This is because the user's name and address are not important information for the secondary operator, but are considered to be specified when the primary operator handles the telephone. Accordingly, the identifiers 12 and 13 are excluded from important sentences.

こうして実行された2つの処理を合わせると,識別子3,4,6,7,8,9,10が抽出されることが分かる。   When the two processes executed in this way are combined, it can be seen that identifiers 3, 4, 6, 7, 8, 9, and 10 are extracted.

次の段階として,図2における対話音声録音ステップ(S200)と並列し,もしくは,事後的に,一次オペレータは,ユーザとの対話の内容を文章化して聴取テキストデータ170を生成する。そして,対話終了後に,かかる聴取テキストデータ170を当該対話情報抽出装置100に入力する(S206)。   As the next stage, in parallel with the dialog voice recording step (S200) in FIG. 2, or after the fact, the primary operator generates the listening text data 170 by converting the contents of the dialog with the user into sentences. Then, after the dialogue is finished, the listening text data 170 is inputted to the dialogue information extracting device 100 (S206).

図6は,聴取テキストデータ170の一例を示した説明図である。ここで,一次オペレータは,ユーザからの要件を「お客様の要件」として端的にまとめている。このとき,ユーザの要件を表すテキスト情報以外に,対応した一次オペレータの氏名や対応した日時等の情報を合わせて聴取テキストデータ170に記載するとしてもよい。   FIG. 6 is an explanatory diagram showing an example of the listening text data 170. Here, the primary operator summarizes the requirements from users as “customer requirements”. At this time, in addition to the text information indicating the user's requirements, information such as the name of the corresponding primary operator and the corresponding date and time may be described in the listening text data 170.

最後に,差分文章出力部124は,入力された聴取テキストデータ170を形態素解析し,対話文章群の各文章中の重要な単語が,聴取テキストデータ170の文章に全てある文章以外の文章を出力する(S208)。こうして,聴取テキストデータ170には未記載であり,かつ,重要な文章が対話テキストデータ152から抽出される。以下,このような差分文章群の抽出動作を詳述する。   Finally, the difference sentence output unit 124 performs morphological analysis on the input listening text data 170 and outputs sentences other than sentences in which important words in each sentence of the dialogue sentence group are all in the sentences of the listening text data 170. (S208). Thus, important sentences that are not described in the listening text data 170 and that are important are extracted from the dialogue text data 152. Hereinafter, the operation of extracting such a differential sentence group will be described in detail.

図7は,図6に示した聴取テキストデータ170の各単語の属性を,図4に示した属性辞書160に基づいて分析した説明図である。ここで,差分文章出力部124は,対話文章群の各文章中の重要な単語が,聴取テキストデータ170の文章に全てあるかどうか判断する。以下,対話文章群として抽出された図5における識別子3,4,6,7,8,9,10の文章を具体的に検討する。   FIG. 7 is an explanatory diagram in which the attribute of each word of the listening text data 170 shown in FIG. 6 is analyzed based on the attribute dictionary 160 shown in FIG. Here, the difference sentence output unit 124 determines whether all the important words in each sentence of the conversation sentence group are present in the sentence of the listening text data 170. Hereinafter, the sentences of identifiers 3, 4, 6, 7, 8, 9, and 10 extracted as a dialogue sentence group in FIG.

まず,識別子3の文章における重要な単語「MP200」,「用紙」,「つまって」は,聴取テキストデータ170にも全て存在し,その属性も対応している。従って,識別子3の文章は,聴取テキストデータ170に既に記載されていると判断できる。同様に識別子7の文章は,単語「先月」が聴取テキストデータ170にあるので,かかる文章も既に記載されていると判断できる。   First, the important words “MP200”, “paper”, and “jamming” in the sentence of identifier 3 are all present in the listening text data 170, and their attributes also correspond. Therefore, it can be determined that the sentence with the identifier 3 is already described in the listening text data 170. Similarly, since the sentence with identifier 7 has the word “last month” in the listening text data 170, it can be determined that such sentence has already been described.

これに対して,識別子4,6,8,9,10の文章は,それぞれに含まれた重要な単語が聴取テキストデータ170に全て含まれていないので,聴取テキストデータ170に未記載な文章となり,差分文章群となる。従って,差分文章群は,識別子4,6,8,9,10の文章ということになる。   On the other hand, the sentences with identifiers 4, 6, 8, 9, and 10 are not included in the listening text data 170 because the important words included in each of the sentences are not included in the listening text data 170. , Difference sentence group. Therefore, the difference sentence group is a sentence with identifiers 4, 6, 8, 9, and 10.

ここで,差分文章出力部124は,対話文章群(識別子3,4,6,7,8,9,10の文章)から,聴取テキストデータ170の文章に対応している文章と質問対回答の関係にある文章も除くとしてもよい。   Here, the difference sentence output unit 124 selects a sentence corresponding to the sentence of the listening text data 170 from the dialogue sentence group (identifiers 3, 4, 6, 7, 8, 9, 10) and a question-to-answer answer. Related sentences may be excluded.

本実施形態においては,対話文章群中の,上記聴取テキストデータの文章に対応している文章(識別子3,7の文章)のうち,識別子7の文章は,識別子6の質問に対する回答であることが分かる。このように,質問のみもしくは回答のみが記されている場合,それに対応する回答や質問も内在的に聴取テキストデータ170に含まれていると考えることができるので,質問に該当する識別子6の文章も差分文章出力部124によって除かれるとしてもよい。   In this embodiment, among the sentences corresponding to the sentence of the listening text data (sentences of identifiers 3 and 7) in the dialogue sentence group, the sentence of identifier 7 is an answer to the question of identifier 6 I understand. In this way, when only a question or only an answer is written, it can be considered that the corresponding answer or question is also included in the listening text data 170, so the sentence of the identifier 6 corresponding to the question May be removed by the difference text output unit 124.

ここでは,聴取テキストデータ170に記載された文章の発話種類が「回答」に当たる場合,「質問」も記載されていると見なしているが,逆に,未記載の文章(差分文章)が「回答」に当たる場合,その「質問」も差分文章とすることができる。また,同様にして,未記載な文章(差分文章)が「質問」であり,かつ,その「質問」に対する「回答」が対話文章群として抽出されていない場合,その「回答」も差分文章として強制的に抽出するとしてもよい。   Here, when the utterance type of the sentence described in the listening text data 170 corresponds to “answer”, it is considered that “question” is also described, but conversely, an undescribed sentence (difference sentence) is “answer” "Question" can be a difference sentence. Similarly, when an undescribed sentence (difference sentence) is a “question” and an “answer” for the “question” is not extracted as a dialogue sentence group, the “answer” is also regarded as a difference sentence. It may be forcibly extracted.

本実施形態による対話情報抽出方法の結果,差分文章群は,識別子4,8,9,10の文章ということになる。差分文章出力部124は,この差分文章群を音声に変換して結合した差分音声データ162を出力してもよいし,上記差分文章群を結合した差分テキストデータ164を出力してもよく,また,両データを一度に出力するとしてもよい。   As a result of the dialogue information extraction method according to the present embodiment, the difference sentence group is a sentence having identifiers 4, 8, 9, and 10. The difference sentence output unit 124 may output the difference voice data 162 obtained by converting the difference sentence group into speech and combining it, or may output the difference text data 164 combined with the difference sentence group. , Both data may be output at once.

上述した対話文章抽出部118や差分文章出力部124における対話文章群の抽出や差分文章群の抽出は,識別子の小さい順に1文章ずつ繰り返し実行されるとしてもよい。   The dialog text group extraction and the differential text group extraction in the dialog text extraction unit 118 and the difference text output unit 124 described above may be repeatedly performed one by one in the order of the identifiers.

図8は,上記1文章ずつ処理する対話情報抽出方法を詳細に説明したフローチャートである。ここでは,先ず,識別子番号を初期値の1に設定し(S300),対話テキストデータ152からその識別子番号1の文章を抽出する(S302)。   FIG. 8 is a flowchart illustrating in detail the dialogue information extraction method for processing each sentence. Here, first, the identifier number is set to the initial value 1 (S300), and the sentence with the identifier number 1 is extracted from the dialogue text data 152 (S302).

そして,対話文章抽出部118は,抽出された文章が,属性辞書160に基づく重要な単語もしくは重要な発話種類を含むかどうか判断される(S304)。ここで,重要な単語もしくは重要な発話種類を含む場合,さらにその文章がストップワード(「氏名」や「住所」といった単語)を含むかどうか判断され(S310),含まない場合に,その文章を重要な文章(対話文章群)として抽出する(S312)。   Then, the dialogue sentence extraction unit 118 determines whether or not the extracted sentence includes an important word or an important utterance type based on the attribute dictionary 160 (S304). Here, if an important word or an important utterance type is included, whether or not the sentence further includes a stop word (a word such as “name” or “address”) is determined (S310). It is extracted as an important sentence (dialogue sentence group) (S312).

次に,差分文章出力部124は,上記抽出された対話文章群が聴取テキストデータ170に含まれているかどうか判断し(S320),含まれていなければ,聴取テキストデータ170の文章に対応している文章と質問対回答の関係にあるかどうかが判断され(S322),質問対回答の関係になければ,差分文章群として抽出される(S324)。また,上記の判断(S304,S310,S320,S322)に漏れた場合,その文章は差分文章群とはならない。   Next, the difference sentence output unit 124 determines whether or not the extracted dialogue sentence group is included in the listening text data 170 (S320). If not included, the difference sentence output unit 124 corresponds to the sentence of the listening text data 170. It is determined whether there is a question-answer relationship (S322). If there is no question-answer relationship, it is extracted as a difference sentence group (S324). In addition, if the above judgment (S304, S310, S320, S322) is omitted, the sentence does not become a difference sentence group.

当該識別子番号の文章の処理が終了すると,対話テキストデータ152にまだ文章が残っているかどうか判断され(S330),残っていれば,識別子番号をインクリメントして(S332),文章抽出ステップ(S302)からの処理を繰り返す。対話テキストデータ152中の文章が全て処理されると上記抽出された差分文章群を出力して(S334),対話情報抽出方法を終了する。   When the processing of the sentence with the identifier number is completed, it is determined whether or not the sentence still remains in the dialog text data 152 (S330). If it remains, the identifier number is incremented (S332), and the sentence extraction step (S302). Repeat the process from. When all the sentences in the dialog text data 152 are processed, the extracted difference sentence group is output (S334), and the dialog information extraction method is terminated.

また,上述した辞書記憶部120は,複数の属性辞書160を有し,対話文章抽出部118は,差分文章出力部124の出力結果を利用する他の利用者(二次オペレータ)に応じて選択された属性辞書160を用いることができる。   Further, the dictionary storage unit 120 described above has a plurality of attribute dictionaries 160, and the dialog text extraction unit 118 selects according to another user (secondary operator) who uses the output result of the differential text output unit 124. The attribute dictionary 160 can be used.

図9は,辞書記憶部120が有する属性辞書160の他の例を示した説明図である。ここでは,図4と比較すると,4つの属性のみから属性辞書160が形成されている。かかる図9の属性辞書160は,営業の分野に適した単語,例えば,競合他社である「××社」等が含まれている。   FIG. 9 is an explanatory diagram showing another example of the attribute dictionary 160 included in the dictionary storage unit 120. Here, as compared with FIG. 4, the attribute dictionary 160 is formed from only four attributes. The attribute dictionary 160 in FIG. 9 includes words suitable for the field of sales, for example, “XX company” which is a competitor.

ここでは,二次オペレータもしくは一次オペレータが,当該対話情報抽出装置100から出力される差分文章群を受け取る二次オペレータのIDを選択し,図1に示した属性辞書選択部180は,かかるIDを判断して属性辞書160と結びつける。例えば,図9の例では,二次オペレータのIDである「2」が選択され,そのID「2」と関連づけられた属性辞書160が選択されている。   Here, the secondary operator or the primary operator selects the ID of the secondary operator that receives the differential text group output from the dialogue information extraction apparatus 100, and the attribute dictionary selection unit 180 shown in FIG. Judgment is made and associated with the attribute dictionary 160. For example, in the example of FIG. 9, “2” that is the ID of the secondary operator is selected, and the attribute dictionary 160 associated with the ID “2” is selected.

このように,二次オペレータに対して個々に属性辞書160を設定することで,その利用者毎に重要な単語を定義することができ,対話文章抽出部118は,利用者毎の専門性に応じて適切な文章を抽出することが可能となる。属性辞書160の区別として,上記では,技術と営業とを挙げているがそれに限られず,技術分野,対象製品,地域,年齢,問い合わせのカテゴリー等様々な区別の仕方が考えられる。   Thus, by setting the attribute dictionary 160 individually for the secondary operator, it is possible to define important words for each user, and the dialogue sentence extraction unit 118 can improve the expertise for each user. Accordingly, it is possible to extract an appropriate sentence. In the above, the attribute dictionary 160 is distinguished from technology and sales, but is not limited thereto, and various distinction methods such as a technical field, a target product, a region, an age, an inquiry category, and the like can be considered.

上述した第1の実施形態によれば,聴取テキストデータ170と対話テキストデータ152とから,一次オペレータが記した聴取テキストデータから抜け落ちた文章であり,かつ重要な文章を抽出することができ,二次オペレータは,ユーザが所望する問い合わせを漏れなく効率的に把握することが可能となる。   According to the first embodiment described above, it is possible to extract sentences that are missing from the listening text data written by the primary operator and important sentences from the listening text data 170 and the dialogue text data 152. The next operator can efficiently grasp the inquiry desired by the user without omission.

(第2の実施形態:対話情報抽出装置)
第1の実施形態においては,差分文章出力部124が,対話文章群と聴取テキストデータ170とを比較して同じ単語および属性を有する文章を判断していた。しかし,一次オペレータは,二次オペレータが理解しやすいように,ユーザの問い合わせ内容を,言葉を変えて表現することもある。第2の実施形態では,構文解析処理も含めた文章の解析により,対話文章群と聴取テキストデータ170との重複文章をより厳密に判断することが可能となる。
(Second Embodiment: Dialog Information Extraction Device)
In the first embodiment, the difference sentence output unit 124 compares the conversation sentence group and the listening text data 170 to determine sentences having the same word and attribute. However, the primary operator sometimes expresses the user's inquiry contents in different words so that the secondary operator can easily understand. In the second embodiment, it is possible to more accurately determine a duplicate sentence between the dialogue sentence group and the listening text data 170 by analyzing the sentence including the syntax analysis process.

かかる第2の実施形態における対話情報抽出装置も第1の実施形態の対話情報抽出装置100と同等の構成を有する。従って,第1の実施形態同様,図1の対話情報抽出装置100を用いて第2の実施形態を説明する。また,第1の実施形態における構成要素として既に述べた各構成要素は,実質的に機能が同一なので重複説明を省略し,ここでは,機能が相異する差分文章抽出部124,辞書記憶部120とを主に説明する。   The dialogue information extraction apparatus according to the second embodiment has the same configuration as that of the dialogue information extraction apparatus 100 according to the first embodiment. Accordingly, as in the first embodiment, the second embodiment will be described using the dialogue information extraction apparatus 100 of FIG. The constituent elements already described as the constituent elements in the first embodiment have substantially the same functions, and therefore redundant description is omitted. Here, the difference sentence extraction unit 124 and the dictionary storage unit 120 having different functions are omitted. Is mainly explained.

差分文章出力部124は,対話文章群から,文章中の重要な単語が聴取テキストデータ170に全てある1または2以上の文章を除く代わりに,もしくは,それに加えて,聴取テキストデータ170から係り受け関係を抽出し,対話文章群から同係り受け関係を有する文章以外の文章を出力することができる。   The differential sentence output unit 124 is dependent on the listening text data 170 instead of, or in addition to, one or more sentences in which the important words in the sentence are all in the listening text data 170 from the dialogue text group. It is possible to extract a relationship and output a sentence other than the sentence having the dependency relationship from the dialogue sentence group.

聴取テキストデータ170は,一次オペレータが入力するデータなので,通常,主語と述語が存在し,比較的整ったテキストとなっている。従って,かかる聴取テキストデータ170は,構文解析技術で解析することが可能である。差分文章出力部124は,聴取テキストデータ170および対話文章群に対して,構文解析処理を実施し,その結果を活用して差分文章群を出力する。   Since the listening text data 170 is data input by the primary operator, it usually has a subject and a predicate and is a relatively well-organized text. Therefore, the listening text data 170 can be analyzed by a syntax analysis technique. The difference sentence output unit 124 performs a syntax analysis process on the listening text data 170 and the conversation sentence group, and outputs the difference sentence group using the result.

図10は,図7に示した聴取テキストデータ170の係り受けを抽出した説明図である。かかる図10の説明図では,係り元「MP200」,「用紙」,「先月」に対して,係り先「使う」,「つまる」,「購入」が係り受けとして対応している。   FIG. 10 is an explanatory diagram in which the dependency of the listening text data 170 shown in FIG. 7 is extracted. In the explanatory diagram of FIG. 10, the relations “use”, “clog”, and “purchase” correspond to the dependency sources “MP200”, “paper”, and “last month” as dependency.

差分文章出力部124は,このように抽出された係り受け関係を受けて,まず,対話文章群から同係り受け関係を有する文章があるかどうかを判断する。文章内に対応する係り受け関係がない場合,前後所定の数の文章まで含めて係り受け関係を検索する。かかる係り受け関係の検索範囲は,前後1つの文章としてもよいし,さらに任意の数の文章も含めることができる。   The difference sentence output unit 124 receives the dependency relationship extracted in this way, and first determines whether there is a sentence having the dependency relationship from the dialogue sentence group. If there is no corresponding dependency relationship in the sentence, the dependency relationship is searched including a predetermined number of sentences before and after. The dependency-related search range may be one sentence before and after, and may include any number of sentences.

例えば,図10による係り受け関数を第1の実施形態で対話文章抽出部118が抽出した対話文章群(図5における識別子3,4,6,7,8,9,10の文章)に対応させてみると,「MP200」と「使う」の係り受けが識別子3の文章に,「用紙」と「つまる」の係り受けも識別子3の文章にあることが分かる。   For example, the dependency function shown in FIG. 10 is made to correspond to the dialog text group (sentences of identifiers 3, 4, 6, 7, 8, 9, 10 in FIG. 5) extracted by the dialog text extraction unit 118 in the first embodiment. As can be seen, the dependency of “MP200” and “use” is in the sentence of identifier 3, and the dependency of “paper” and “clog” is also in the sentence of identifier 3.

また,辞書記憶部120は,属性辞書160と共に,対話テキストデータ152の文章中の単語を係り受け関係に適応させるための同義語辞書190を記憶するとしてもよい。   The dictionary storage unit 120 may store a synonym dictionary 190 for adapting words in the text of the dialog text data 152 to the dependency relationship together with the attribute dictionary 160.

一次オペレータは,対話中の単語を解りやすい単語に置き換えて聴取テキストデータ170を生成する場合がある。このとき,聴取テキストデータ170と対話テキストデータ152とは同じ係り受け関係の単語対を含むにも拘わらず,その単語は一致していないという状況が生じる。差分文章出力部124は,かかる同義語辞書190を参照することにより,上記単語を同義語に置き換えて,係り受け関係を一致させることができる。   The primary operator may generate the listening text data 170 by replacing the word being spoken with an easy-to-understand word. At this time, although the listening text data 170 and the dialogue text data 152 include a pair of words having the same dependency relationship, a situation occurs in which the words do not match. The differential sentence output unit 124 can refer to the synonym dictionary 190 to replace the word with a synonym and match the dependency relationship.

図11は,同義語辞書190を説明するための説明図である。かかる同義語辞書190には,同義語IDと共に,同義語として扱われる単語が掲載されている。ここでは,理解を容易にするため同義語として2つの単語群を挙げて説明しているが,当然同義語は,かかる単語群に限られず,様々な単語群を挙げることができる。かかる同義語辞書190を参照すると,上記「購入」と「買い上げ」とが同義語であることが分かる。従って,上記「先月」と「購入」の係り受け関係と,「先月」と「買い上げ」の係り受け関係は等しいこととなる。   FIG. 11 is an explanatory diagram for explaining the synonym dictionary 190. In the synonym dictionary 190, words that are treated as synonyms are listed together with synonym IDs. Here, in order to facilitate understanding, two word groups are described as synonyms, but naturally, synonyms are not limited to such word groups, and various word groups can be cited. Referring to the synonym dictionary 190, it can be understood that “purchase” and “purchase” are synonyms. Therefore, the dependency relationship between “last month” and “purchase” and the dependency relationship between “last month” and “purchase” are equal.

詳細に,上記同義語は,例えば,同じ単語を漢字,片仮名,仮名,ローマ字表記で表されたものであったり,長音の有無の違いであったりもする。即ち,「コンピューター」と「コンピュータ」,「ウォッチ」と「時計」も同義語にあたる。   Specifically, the above synonyms may be, for example, the same word expressed in kanji, katakana, kana, romaji, or the presence or absence of a long sound. That is, “computer” and “computer”, “watch” and “clock” are also synonymous.

上記同義語辞書190を利用することにより,差分文章出力部124は,対話文章群から,「先月」と「購入」同じ係り受けとして,「買い上げ」の単語を有する識別子6の文章と,「先月」の単語を有する識別子7の文章とを重複文章として抽出できる。従って,対話文章群と聴取テキストデータ170との重複文章は,識別番号3,6,7となり,差分文章群は,対話文章群との差分である識別子4,8,9,10の文章となる。この結果は,第1の実施形態の結果と同じである。   By using the synonym dictionary 190, the difference sentence output unit 124, from the conversation sentence group, the sentence of the identifier 6 having the word “purchase” and the same dependency as “last month” and “purchase”, and “last month” And the sentence of the identifier 7 having the word “can be extracted as a duplicate sentence. Accordingly, the overlapping sentences between the dialogue sentence group and the listening text data 170 are identification numbers 3, 6, and 7, and the difference sentence group is a sentence having identifiers 4, 8, 9, and 10, which are differences from the dialogue sentence group. . This result is the same as the result of the first embodiment.

このように,聴取テキストデータ170において,任意の単語対が係り受け関係と見なされる場合,それと同等の係り受け関係にある単語を含む文章もしくは文章対は,既に聴取テキストデータに含まれると考えることができる。従って,かかる関係にある上記識別番号3,6,7の文章は,残す必要がないということになる。   Thus, in the listening text data 170, when an arbitrary word pair is regarded as a dependency relationship, it is considered that a sentence or a sentence pair including a word having an equivalent dependency relationship is already included in the listening text data. Can do. Therefore, it is not necessary to leave the sentences with the identification numbers 3, 6, and 7 having such a relationship.

また,第2の実施形態を適用した対話情報抽出方法は,第1の実施形態における図2や図8のフローチャートに沿って処理され,差分文章群出力ステップ(S208)や聴取テキストデータ包含判断ステップ(S320)において,上記係り受け関係を適用することとなる。   The dialogue information extraction method to which the second embodiment is applied is processed according to the flowcharts of FIGS. 2 and 8 in the first embodiment, and includes a difference sentence group output step (S208) and a listening text data inclusion determination step. In (S320), the dependency relationship is applied.

このように,第2の実施形態では,構文解析処理を用いることで,聴取テキストデータと対話テキストデータとをより厳密に結びつけることができ,高精度に差分文章群を抽出することが可能となる。   As described above, in the second embodiment, by using the parsing process, the listening text data and the dialogue text data can be linked more strictly, and a differential sentence group can be extracted with high accuracy. .

上述した第1および第2の実施形態における対話情報抽出装置もしくは方法により,二次オペレータは,一次オペレータの対話の内容を全て聞かなくとも必要な情報を,漏れなく(正確)かつ容易(迅速)に取得することができ,二次オペレータの負担が軽減されるとともに,効率化,低コスト化を図ることが可能となる。また,一次オペレータが,対話終了後に改めて聴取テキストデータを作成する必要がなくなるので,一次オペレータの負担軽減にも寄与する。   By the dialogue information extraction apparatus or method in the first and second embodiments described above, the secondary operator can obtain necessary information without omission (accurate) and easy (rapid) without having to listen to all the contents of the dialogue of the primary operator. Therefore, the burden on the secondary operator can be reduced, and the efficiency and cost can be reduced. In addition, since it is not necessary for the primary operator to create listening text data again after the dialogue is completed, it contributes to reducing the burden on the primary operator.

さらには,ユーザに対して効率的に対応することで,ユーザと対話する機会が増え,取得できる情報が増えるので,マーケティングや不具合対策においても効果を奏する。   Furthermore, by responding efficiently to the user, opportunities to interact with the user increase and the amount of information that can be acquired increases, which is also effective in marketing and countermeasures against defects.

以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明は係る例に限定されないことは言うまでもない。当業者であれば,特許請求の範囲に記載された範疇内において,各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば,上述した実施形態においては,当該対話情報抽出装置の利用対象者を,コンタクトセンタにおける,ユーザ,一次オペレータ,二次オペレータとしているが,かかる場合に限られず,対話音声データと聴取テキストデータを用いることが可能な様々な状況に適用することが可能である。   For example, in the above-described embodiment, the use target person of the dialog information extraction apparatus is a user, a primary operator, and a secondary operator in a contact center. However, the present invention is not limited to this, and dialog voice data and listening text data are used. It can be applied to various situations that can be used.

例えば,医療現場における,患者と看護士との応対を医師に伝える場合,会社組織における親会社から子会社への伝達事項,e−教育における学校から先生もしくは生徒への伝達事項,または,公共的な役所における受付から各担当者への伝達事項にも適用可能である。   For example, when communicating with a doctor about the interaction between a patient and a nurse in a medical setting, a message from a parent company to a subsidiary in a company organization, a message from a school to a teacher or student in e-education, or a public office It can also be applied to matters to be communicated from reception to each person in charge.

また,上記の実施形態における対話文章抽出部や差分文章出力部では,形態素解析処理により単語を抽出しているが,正規表現によるパターンを利用することもできる。   In the dialog text extraction unit and difference text output unit in the above embodiment, words are extracted by morphological analysis processing, but patterns using regular expressions can also be used.

また,対話文章抽出部や差分文章出力部による重要な単語を,属性辞書に基づいて判断しているが,かかる場合に限られず,例えば,その単語の発話時の音量や,音声情報からの感情認識の結果に基づいて判断してもよく,上記属性辞書と組み合わせて利用するとしてもよい。   In addition, important words by the dialog sentence extraction unit and the difference sentence output unit are determined based on the attribute dictionary, but this is not the only case. For example, the volume at the time of utterance of the word and the emotion from the voice information It may be determined based on the recognition result, or may be used in combination with the attribute dictionary.

また,上述した実施形態においては,対話文章抽出部が,一旦重要な文章(対話文章群)を抽出し,その後,差分文章出力部が,対話文章群と聴取テキストデータとを比較しているが,かかる場合に限られず,最初に対話テキストデータ全てと聴取テキストデータとを比較して,差分の文章から重要な文章を抽出して差分文章群とする構成も当然に本発明の技術的範囲に属するものと了解される。   In the embodiment described above, the dialogue sentence extraction unit once extracts an important sentence (dialog sentence group), and then the difference sentence output unit compares the dialogue sentence group and the listening text data. However, the present invention is not limited to this, and a configuration in which all dialogue text data and listening text data are first compared and important sentences are extracted from the difference sentences to form a difference sentence group is naturally within the technical scope of the present invention. It is understood that it belongs.

また,当該対話情報抽出装置の辞書記憶部を別体のサーバに設けて,通信網を介して属性辞書や同義語辞書が参照されるとしてもよい。上記通信網は,例えば,インターネット,イントラネット,LAN(Local Area Network)等の双方向通信網を言う。   Moreover, the dictionary storage part of the said dialog information extraction apparatus is provided in a separate server, and an attribute dictionary or a synonym dictionary may be referred to via a communication network. The communication network refers to, for example, a bidirectional communication network such as the Internet, an intranet, and a LAN (Local Area Network).

また,対象となる対話情報は,日本語に限られず,本発明は,アルファベットやハングル等様々な言語に対応することができる。   In addition, the target conversation information is not limited to Japanese, and the present invention can deal with various languages such as alphabet and Korean.

なお,本明細書の対話情報抽出方法における各ステップは,必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく,並列的あるいは個別に実行される処理(例えば,並列処理あるいはオブジェクトによる処理)も含むとしてもよい。   Note that the steps in the dialog information extraction method of the present specification do not necessarily have to be processed in time series in the order described in the flowchart, but are executed in parallel or individually (for example, parallel processing or object processing). May be included.

第1の実施形態における対話情報抽出装置の概略的な構成を示した機能ブロック図である。It is the functional block diagram which showed the schematic structure of the dialogue information extraction apparatus in 1st Embodiment. 第1の実施形態における対話情報抽出方法の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of the dialogue information extraction method in 1st Embodiment. 対話テキストデータの一例を示した説明図である。It is explanatory drawing which showed an example of dialog text data. 属性辞書の一例を示した説明図である。It is explanatory drawing which showed an example of the attribute dictionary. 対話テキストデータの各単語の属性を属性辞書に基づいて分析した説明図である。It is explanatory drawing which analyzed the attribute of each word of dialog text data based on the attribute dictionary. 聴取テキストデータの一例を示した説明図である。It is explanatory drawing which showed an example of listening text data. 聴取テキストデータの各単語の属性を属性辞書に基づいて分析した説明図である。It is explanatory drawing which analyzed the attribute of each word of listening text data based on the attribute dictionary. 上記1文章ずつ処理する対話情報抽出方法を詳細に説明したフローチャートである。It is the flowchart explaining in detail the dialog information extraction method which processes said sentence one by one. 辞書記憶部が有する属性辞書の他の例を示した説明図である。It is explanatory drawing which showed the other example of the attribute dictionary which a dictionary memory | storage part has. 聴取テキストデータの係り受けを抽出した説明図である。It is explanatory drawing which extracted the dependency of listening text data. 同義語辞書を説明するための説明図である。It is explanatory drawing for demonstrating a synonym dictionary.

符号の説明Explanation of symbols

100 対話情報抽出装置
112 対話音声生成部
114 対話音声入力部
116 音声テキスト変換部
118 対話文章抽出部
120 辞書記憶部
122 聴取テキスト入力部
124 差分文章出力部
150 対話音声データ
152 対話テキストデータ
160 属性辞書
162 差分音声データ
164 差分テキストデータ
170 聴取テキストデータ
180 属性辞書選択部
190 同義語辞書
DESCRIPTION OF SYMBOLS 100 Dialogue information extraction apparatus 112 Dialogue voice generation part 114 Dialogue voice input part 116 Speech text conversion part 118 Dialogue sentence extraction part 120 Dictionary storage part 122 Listen text input part 124 Difference sentence output part 150 Dialogue voice data 152 Dialogue text data 160 Attribute dictionary 162 Difference voice data 164 Difference text data 170 Listening text data 180 Attribute dictionary selection unit 190 Synonym dictionary

Claims (13)

対話音声データを入力する対話音声入力部と;
前記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換部と;
前記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出部と;
前記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力部と;
前記対話文章群から,前記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力部と;
を備えることを特徴とする,対話情報抽出装置。
A dialog voice input unit for inputting dialog voice data;
A speech text conversion unit that performs speech recognition processing on the dialog speech data and converts the dialog speech data into dialog text data;
A dialog text extraction unit that extracts a dialog text group that is an important text group in the dialog text data;
A listening text input unit for inputting listening text data in which the listener has written the contents of the dialogue;
A differential sentence output unit that outputs a differential sentence group not corresponding to the sentence of the listening text data from the dialogue sentence group;
An apparatus for extracting dialogue information, comprising:
単語とその単語の属性とを対応付けた属性辞書を記憶する属性辞書記憶部をさらに備え,
前記対話文章抽出部は,前記属性辞書による属性に基づいて重要と判断される単語を含む1または2以上の文章を抽出することを特徴とする,請求項1に記載の対話情報抽出装置。
An attribute dictionary storage unit for storing an attribute dictionary in which a word is associated with an attribute of the word;
2. The dialogue information extracting apparatus according to claim 1, wherein the dialogue sentence extracting unit extracts one or more sentences including words judged to be important based on attributes of the attribute dictionary.
前記辞書記憶部は,複数の属性辞書を有し,
前記対話文章抽出部は,前記差分文章出力部の出力結果の用途に応じて選択された属性辞書を用いることを特徴とする,請求項2に記載の対話情報抽出装置。
The dictionary storage unit has a plurality of attribute dictionaries,
The dialog information extracting apparatus according to claim 2, wherein the dialog text extracting unit uses an attribute dictionary selected in accordance with a use of an output result of the difference text output unit.
前記対話文章抽出部は,少なくとも質問,回答,希望を示すいずれかの文章を抽出することを特徴とする,請求項1〜3のいずれかに記載の対話情報抽出装置。   The dialogue information extracting apparatus according to claim 1, wherein the dialogue sentence extracting unit extracts at least any sentence indicating a question, an answer, and a wish. 前記差分文章出力部は,前記対話文章群から,文章中の重要な単語が前記聴取テキストデータに全てある文章以外の文章を出力することを特徴とする,請求項1〜4のいずれかに記載の対話情報抽出装置。   The difference text output unit outputs a sentence other than a sentence in which all important words in the sentence are included in the listening text data from the dialogue sentence group. Interactive information extraction device. 前記差分文章出力部は,前記聴取テキストデータから係り受け関係を抽出し,前記対話文章群から同係り受け関係を有する文章以外の文章を出力することを特徴とする,請求項1〜5のいずれかに記載の対話情報抽出装置。   6. The differential sentence output unit extracts a dependency relationship from the listening text data and outputs a sentence other than a sentence having the dependency relationship from the dialogue sentence group. The interactive information extraction device described in Crab. 前記対話テキストデータの文章中の単語を前記聴取テキストデータに適応させるための同義語辞書を記憶する同義語辞書記憶部をさらに備えることを特徴とする,請求項1〜6のいずれかに記載の対話情報抽出装置。   The synonym dictionary memory | storage part which memorize | stores the synonym dictionary for adapting the word in the sentence of the said dialog text data to the said listening text data is further provided, It is characterized by the above-mentioned. Dialog information extraction device. 前記差分文章出力部は,前記対話文章群から,前記聴取テキストデータの文章に対応している文章と質問対回答の関係にある文章を除くことを特徴とする,請求項1〜7のいずれかに記載の対話情報抽出装置。   The difference text output unit excludes a sentence corresponding to a sentence corresponding to the sentence of the listening text data and a sentence in a question-answer relationship from the dialogue sentence group. The dialog information extraction device described in 1. 前記差分文章出力部は,前記差分文章群を音声に変換して結合した差分音声データを出力することを特徴とする,請求項1〜8のいずれかに記載の対話情報抽出装置。   9. The dialogue information extracting apparatus according to claim 1, wherein the differential text output unit outputs differential voice data obtained by converting the differential text group into voice and combining the voices. 前記差分文章出力部は,前記差分文章群を結合した差分テキストデータを出力することを特徴とする,請求項1〜8のいずれかに記載の対話情報抽出装置。   The dialogue information extraction device according to claim 1, wherein the differential text output unit outputs differential text data obtained by combining the differential text groups. 前記対話の内容を録音し,対話音声データを生成する対話音声生成部をさらに備えることを特徴とする,請求項1〜10のいずれかに記載の対話情報抽出装置。   The dialogue information extracting apparatus according to claim 1, further comprising a dialogue voice generation unit that records the dialogue contents and generates dialogue voice data. コンピュータを,
対話音声データを入力する対話音声入力部と;
前記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換部と;
前記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出部と;
前記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力部と;
前記対話文章群から,前記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力部と;
として機能させることを特徴とする,プログラム。
Computer
A dialog voice input unit for inputting dialog voice data;
A speech text conversion unit that performs speech recognition processing on the dialog speech data and converts the dialog speech data into dialog text data;
A dialog text extraction unit that extracts a dialog text group that is an important text group in the dialog text data;
A listening text input unit for inputting listening text data in which the listener has written the contents of the dialogue;
A differential sentence output unit that outputs a differential sentence group not corresponding to the sentence of the listening text data from the dialogue sentence group;
A program characterized by functioning as
対話音声データを入力する対話音声入力ステップと;
前記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換ステップと;
前記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出ステップと;
前記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力ステップと;
前記対話文章群から,前記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力ステップと;
を含むことを特徴とする,対話情報抽出方法。
A dialog voice input step for inputting dialog voice data;
A voice text conversion step of performing voice recognition processing on the dialog voice data and converting the dialog voice data into dialog text data;
A dialogue sentence extracting step of extracting a dialogue sentence group which is an important sentence group in the dialogue text data;
A listening text input step for inputting listening text data in which the listener has written the contents of the dialogue;
A differential sentence output step of outputting a differential sentence group not corresponding to the sentence of the listening text data from the dialogue sentence group;
Dialog information extraction method characterized by including
JP2006090654A 2006-03-29 2006-03-29 Dialog information extraction device, dialog information extraction method, and program Withdrawn JP2007265131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006090654A JP2007265131A (en) 2006-03-29 2006-03-29 Dialog information extraction device, dialog information extraction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006090654A JP2007265131A (en) 2006-03-29 2006-03-29 Dialog information extraction device, dialog information extraction method, and program

Publications (1)

Publication Number Publication Date
JP2007265131A true JP2007265131A (en) 2007-10-11

Family

ID=38638039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006090654A Withdrawn JP2007265131A (en) 2006-03-29 2006-03-29 Dialog information extraction device, dialog information extraction method, and program

Country Status (1)

Country Link
JP (1) JP2007265131A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101200959B1 (en) 2010-04-27 2012-11-13 주식회사 애드웹커뮤니케이션 Apparatus of verifying speech recording and method thereof
JP2014130613A (en) * 2014-02-06 2014-07-10 Nomura Research Institute Ltd Discourse summary generation system and discourse summary generation program
WO2022215905A1 (en) * 2021-04-07 2022-10-13 네이버 주식회사 Method and system for providing voice record generated on basis of information after voice recording

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101200959B1 (en) 2010-04-27 2012-11-13 주식회사 애드웹커뮤니케이션 Apparatus of verifying speech recording and method thereof
JP2014130613A (en) * 2014-02-06 2014-07-10 Nomura Research Institute Ltd Discourse summary generation system and discourse summary generation program
WO2022215905A1 (en) * 2021-04-07 2022-10-13 네이버 주식회사 Method and system for providing voice record generated on basis of information after voice recording

Similar Documents

Publication Publication Date Title
JP4728905B2 (en) Spoken dialogue apparatus and spoken dialogue program
US8145482B2 (en) Enhancing analysis of test key phrases from acoustic sources with key phrase training models
EP1901283A2 (en) Automatic generation of statistical laguage models for interactive voice response applacation
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
US20080059147A1 (en) Methods and apparatus for context adaptation of speech-to-speech translation systems
JP5620349B2 (en) Dialogue device, dialogue method and dialogue program
JP2019003319A (en) Interactive business support system and interactive business support program
US11907665B2 (en) Method and system for processing user inputs using natural language processing
US20230163988A1 (en) Computer-implemented system and method for providing an artificial intelligence powered digital meeting assistant
JP2009042968A (en) Information selection system, information selection method, and program for information selection
JP5073024B2 (en) Spoken dialogue device
Pallotta et al. Interaction mining: the new frontier of customer interaction analytics
US7383171B2 (en) Semantic stenography using short note input data
KR100684160B1 (en) Apparatus and method for transaction analysis using named entity
US8914289B2 (en) Analyzing and processing a verbal expression containing multiple goals
EP2261818A1 (en) A method for inter-lingual electronic communication
JP2007265131A (en) Dialog information extraction device, dialog information extraction method, and program
JP7126865B2 (en) Interactive business support system
Pallotta et al. Interaction Mining: the new Frontier of Call Center Analytics.
JP5722375B2 (en) End-of-sentence expression conversion apparatus, method, and program
KR19990047859A (en) Natural Language Conversation System for Book Libraries Database Search
JP2003162524A (en) Language processor
JP4622861B2 (en) Voice input system, voice input method, and voice input program
JP2021125164A (en) Information processing apparatus, chat bot assisting program, and chat bot assisting method
US11971915B2 (en) Language processor, language processing method and language processing program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090602