JP2007265131A - Dialog information extraction device, dialog information extraction method, and program - Google Patents
Dialog information extraction device, dialog information extraction method, and program Download PDFInfo
- Publication number
- JP2007265131A JP2007265131A JP2006090654A JP2006090654A JP2007265131A JP 2007265131 A JP2007265131 A JP 2007265131A JP 2006090654 A JP2006090654 A JP 2006090654A JP 2006090654 A JP2006090654 A JP 2006090654A JP 2007265131 A JP2007265131 A JP 2007265131A
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- dialog
- text
- dialogue
- text data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
Description
本発明は,対話情報を抽出する対話情報抽出装置,対話情報抽出方法およびプログラムに関する。 The present invention relates to a dialog information extraction apparatus, a dialog information extraction method, and a program for extracting dialog information.
近年,取扱説明書等の書面以外に,購入した商品等についての問い合わせを,ユーザから電話で直接受け付け,個々に対応するサービスが増えつつある。このような問い合わせにおいて,ユーザが所望する情報は多岐に渡っており,オペレータは,その個々の問い合わせに丁寧に対応する。このような問い合わせを受け付ける窓口は,通常1つであり,対応するオペレータをここでは一次オペレータと呼ぶ。 In recent years, in addition to written documentation such as instruction manuals, inquiries regarding purchased products are directly received from users by telephone, and services corresponding to each individual are increasing. In such an inquiry, there is a wide variety of information desired by the user, and the operator carefully responds to each inquiry. There is usually one window for accepting such inquiries, and the corresponding operator is referred to herein as the primary operator.
一次オペレータは,回答可能な事項については,ユーザとの対話の中で回答する。しかし,一次オペレータが即答できない場合,その問い合わせは二次オペレータに伝達され,二次オペレータによって後日ユーザに回答される。 The primary operator responds in a dialog with the user about items that can be answered. However, if the primary operator cannot answer immediately, the inquiry is transmitted to the secondary operator and answered to the user at a later date by the secondary operator.
このような回答を準備する際,二次オペレータは,一次オペレータがテキストで対話の内容を記したコール記憶(以下,聴取テキストデータと言う。)を参照し,ユーザの問い合わせ事項を把握する。しかしながら,かかる聴取テキストデータのみでは,ユーザからの重要な情報が抜け落ちることもあり,問い合わせのポイントがずれて伝わったり,二次オペレータが,一次オペレータと同じ内容をユーザに聞いたりして処理が効率的に行われない問題が生じている。このため,二次オペレータは,ユーザと一次オペレータによってなされた対話を音声として記憶した対話音声データを全て聞き直したり,ユーザに直接連絡を取り,質問内容を確認するといった対応をとっている。 When preparing such an answer, the secondary operator refers to the call memory (hereinafter referred to as listening text data) in which the primary operator describes the contents of the dialogue in text, and grasps the user's inquiry item. However, with such listening text data alone, important information from the user may be lost, and the point of inquiry is shifted and the secondary operator asks the user the same content as the primary operator, and the processing is efficient. There is a problem that is not done automatically. For this reason, the secondary operator takes measures such as re-listening all the dialogue voice data storing the dialogue between the user and the primary operator as voice, or contacting the user directly to confirm the contents of the question.
しかし,二次オペレータが,録音された対話音声データを毎回聞き直すのは効率が悪い。かといって,単に,対話音声データに音声認識処理を施して対話テキストデータに変換した結果を二次オペレータに伝達したとしても,テキストも音声同様にデータが多すぎるため,処理が煩雑になってしまう。 However, it is inefficient for the secondary operator to listen to the recorded dialogue voice data every time. However, even if the speech recognition process is performed on the dialog voice data and the result converted to the dialog text data is transmitted to the secondary operator, the text is too much data like the voice, so the processing becomes complicated. End up.
さらに,一次オペレータは二次オペレータが必要とする情報が分からないため,重要な情報が聴取テキストデータから抜け落ちる可能性がある。また,一次オペレータは,電話対応している間,簡単なメモしか残せず,後からそのメモに基づいて正式な聴取テキストデータを作るので,情報が欠落しやすいという問題もある。 Furthermore, since the primary operator does not know the information required by the secondary operator, there is a possibility that important information may be lost from the listening text data. In addition, the primary operator can only leave a simple memo while responding to a telephone call, and since it creates formal listening text data based on the memo later, there is a problem that information tends to be lost.
そこで,音声情報から重要な情報が欠落しないように,対話音声データをテキストに変換し,予め準備された特定のキーワード(重要なキーワード)を含む文字列を抽出する技術が検討されている(例えば,特許文献1)。
しかし,上記キーワードによって重要情報を抽出する技術では,ユーザが質問する事項を予め予想し,重要なキーワードを付与する必要がある。また,キーワードとして予想できなかった重要事項は,やはり二次オペレータが対話音声データを再度聞き直して把握しなくてはならない。 However, in the technology for extracting important information using the above keywords, it is necessary to predict matters to be asked by the user in advance and assign important keywords. Also, important matters that could not be predicted as keywords must be grasped by the secondary operator again listening to the dialog voice data.
一方,単に対話音声データに音声認識処理を施して対話テキストデータに変換した結果を二次オペレータに伝達しても,テキストも音声同様にデータが多すぎるため,処理が煩雑になってしまうという問題も発生している。このような状態では,一次オペレータが二次オペレータに解りやすいように記載した聴取テキストデータが無駄になってしまう。 On the other hand, even if the speech recognition process is simply performed on the dialog voice data and the result converted to the dialog text data is transmitted to the secondary operator, the text is too much data like the voice and the processing becomes complicated. Has also occurred. In such a state, the listening text data described so that the primary operator can easily understand the secondary operator is wasted.
本発明は,従来の対話情報の抽出技術が有する上記問題点に鑑みてなされたものであり,本発明の目的は,一次オペレータが作成する聴取テキストデータと重複しない重要な情報のみを抽出し,二次オペレータの負担を軽減することが可能な,新規かつ改良された対話情報抽出装置,対話情報抽出方法およびプログラムを提供することである。 The present invention has been made in view of the above-mentioned problems of conventional dialog information extraction technology, and the object of the present invention is to extract only important information that does not overlap with listening text data created by a primary operator, To provide a new and improved dialogue information extraction apparatus, dialogue information extraction method and program capable of reducing the burden on the secondary operator.
本発明は,上記課題を解決するために,一次オペレータが記した聴取テキストデータから抜け落ちた文章のみを対話テキストデータから抽出し,二次オペレータが,ユーザが所望する問い合わせを漏れなく把握することができ,二次オペレータの作業負担を軽減することが可能な,ユーザの利便性に資する対話情報抽出装置,対話情報抽出方法およびプログラムを提供する。 In order to solve the above-described problem, the present invention can extract only sentences that are missing from the listening text data written by the primary operator from the dialogue text data, and the secondary operator can grasp the inquiry desired by the user without omission. A dialog information extraction device, a dialog information extraction method, and a program that can reduce the work burden of a secondary operator and contribute to user convenience.
上記課題を解決するために,本発明のある観点によれば,対話音声データを入力する対話音声入力部と;上記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換部と;上記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出部と;上記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力部と;上記対話文章群から,上記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力部と;を備えることを特徴とする,対話情報抽出装置が提供される。 In order to solve the above problems, according to an aspect of the present invention, a dialog voice input unit that inputs dialog voice data; a voice text conversion unit that performs voice recognition processing on the dialog voice data and converts it into dialog text data A dialog text extracting unit that extracts a dialog text group that is an important text group in the dialog text data; a listening text input unit that inputs listening text data in which the listener has written the content of the dialog; And a differential text output unit that outputs a differential text group that does not correspond to the text of the listening text data from the dialog text group.
対話文章抽出部は,対話テキストデータから重要な文章(対話文章群)を抽出し,差分文章出力部は,聴取テキストデータに既に記載されている文章(文字列)以外の文章を対話文章群から出力する。従って,残った文章である差分文章群は,対話テキストデータにはあるが,聴取テキストデータにはない文章群となる。かかる構成により,一次オペレータが作成した聴取テキストデータから抜け落ちた文章のみを対話テキストデータから抽出することができるので,二次オペレータは,ユーザが所望する問い合わせを漏れなく把握することが可能となる。 The dialogue sentence extraction unit extracts important sentences (dialogue sentence groups) from the dialogue text data, and the difference sentence output part extracts sentences other than sentences (character strings) already described in the listening text data from the dialogue sentence groups. Output. Therefore, the difference sentence group which is a remaining sentence becomes a sentence group which exists in the dialogue text data but does not exist in the listening text data. With such a configuration, since only sentences that have been dropped from the listening text data created by the primary operator can be extracted from the dialog text data, the secondary operator can grasp the query desired by the user without omission.
本発明において,単語とその単語の属性とを対応付けた属性辞書を記憶する属性辞書記憶部をさらに備え,上記対話文章抽出部は,上記属性辞書による属性に基づいて重要と判断される単語を含む1または2以上の文章を抽出するようにしてもよい。また,差分文章出力部も属性辞書を参照して重要な単語を判断するとしてもよく,これにより差分文書を出すとき重要単語を強調することが可能となり,利便性が高くなる。 In the present invention, an attribute dictionary storage unit that stores an attribute dictionary in which a word is associated with an attribute of the word is further provided, and the dialog sentence extraction unit selects a word that is determined to be important based on the attribute of the attribute dictionary. You may make it extract the 1 or 2 or more sentence containing. Also, the difference text output unit may determine an important word by referring to the attribute dictionary, which makes it possible to emphasize the important word when a difference document is output, which increases convenience.
上記差分文章出力部は,聴取テキストデータと対話テキストデータとの重複した部分を対話テキストデータから除いて出力する。この場合,対話テキストデータ全てを残すとするとテキストの量が多すぎて,二次オペレータの処理が煩雑になるので,重要な単語を含む文章のみを出力対象とすることにより,二次オペレータが必要とする重要な文章が絞られ,正確かつ迅速な対応をとることができ,二次オペレータの負担をより軽減することが可能となる。 The differential sentence output unit removes the overlapping part of the listening text data and the dialog text data from the dialog text data and outputs the result. In this case, if all of the dialogue text data is left, the amount of text is too large, and the processing of the secondary operator becomes complicated. Therefore, the secondary operator is required to output only sentences containing important words. It is possible to narrow down the important sentences and to take an accurate and quick response, thereby further reducing the burden on the secondary operator.
上記辞書記憶部は,複数の属性辞書を有し,上記対話文章抽出部は,上記差分文章出力部の出力結果の用途に応じて選択された属性辞書を用いるとしてもよい。なお,ここでいう「出力結果の用途に応じて選択された属性辞書」とは,この出力結果の利用者(二次オペレータ等)の専門性等を考慮して,その目的達成のために選択された属性辞書のことをいう。 The dictionary storage unit may include a plurality of attribute dictionaries, and the dialog text extraction unit may use an attribute dictionary selected according to the use of the output result of the difference text output unit. The "attribute dictionary selected according to the use of the output result" here is selected to achieve the purpose in consideration of the expertise of the user (secondary operator, etc.) of the output result. Refers to the attribute dictionary.
上記他の利用者に対して個々に属性辞書を設定することで,その利用者毎に重要な単語を定義することができ,対話文章抽出部は,利用者毎の専門性に応じて適切な文章を抽出することが可能となる。 By setting attribute dictionaries individually for the other users above, it is possible to define important words for each user, and the dialogue text extractor is appropriate for each user's expertise. Sentences can be extracted.
上記対話文章抽出部は,少なくとも質問,回答,希望を示すいずれかの文章を抽出するとしてもよい。また,上述したような重要な単語を含む文章と合わせて,当該質問,回答,希望を示す文章を抽出することもできる。 The dialog text extraction unit may extract at least any text indicating a question, an answer, or a wish. In addition, it is possible to extract a sentence indicating the question, the answer, and the hope together with the sentence including the important word as described above.
対話テキストデータの各文章が,ユーザや一次オペレータの質問および回答であったり,ユーザの希望である場合,その文章は重要であり,二次オペレータはその情報を正確に把握しなくてはならない。対話文章抽出部の形態素解析において,文章がこのような質問,回答,希望にあたる場合,その文章も抽出して,二次オペレータに伝達する。 When each sentence of the dialog text data is a question or answer of a user or a primary operator or is a user's request, the sentence is important, and the secondary operator must grasp the information accurately. In the morphological analysis of the dialog text extraction unit, when the text corresponds to such a question, answer, or hope, the text is also extracted and transmitted to the secondary operator.
上記差分文章出力部は,上記対話文章群から,文章中の重要な単語が上記聴取テキストデータに全てある文章以外の文章を出力するとしてもよい。 The difference sentence output unit may output a sentence other than a sentence in which all important words in the sentence are included in the listening text data from the dialogue sentence group.
差分文章出力部は,聴取テキストデータに既に記載されている文章を判断する。しかし,対話テキストデータにおける文章内の重要な単語が全て聴取テキストデータに記載されているとは限らない。従って,差分文章出力部は,対話テキストデータ中の重要な単語が全て聴取テキストデータに含まれている文章を重複文章とし,この重複文書以外の文章は,差分文章群として抽出する。 The differential sentence output unit determines a sentence already described in the listening text data. However, not all important words in sentences in dialogue text data are described in the listening text data. Therefore, the difference sentence output unit extracts sentences in which all important words in the dialog text data are included in the listening text data as duplicate sentences, and extracts sentences other than the duplicate documents as difference sentence groups.
上記差分文章出力部は,上記聴取テキストデータから係り受け関係を抽出し,上記対話文章群から同係り受け関係を有する文章以外の文章を出力するとしてもよい。 The difference sentence output unit may extract the dependency relationship from the listening text data and output a sentence other than the sentence having the dependency relationship from the dialogue sentence group.
聴取テキストデータにおいて,任意の単語対(表記の同じ単語のこと。同義語でも同じ)が係り受け関係と見なされる場合,それと同等の係り受け関係にある単語を含む文章は,既に聴取テキストデータに含まれると考えることができる。従って,かかる関係にある文章は,残す必要がないので,差分文章群には含まれない。 In listening text data, if an arbitrary word pair (same word in the notation, the same as a synonym) is considered to be a dependency relationship, a sentence containing a word with an equivalent dependency relationship is already included in the listening text data. Can be considered included. Therefore, sentences having such a relationship do not need to be left and are not included in the difference sentence group.
上記対話テキストデータの文章中の単語を上記聴取テキストデータに適応させるための同義語辞書を記憶する同義語辞書記憶部をさらに備えるとしてもよい。 A synonym dictionary storage unit for storing a synonym dictionary for adapting words in the text of the dialog text data to the listening text data may be further provided.
一次オペレータは,対話中の単語を解りやすい単語に置き換えて聴取テキストデータを生成する場合がある。このとき,聴取テキストデータと対話テキストデータとは同じ係り受け関係の単語対を含むにも拘わらず,その単語は一致していないという状況が生じる。差分文章出力部は,かかる同義語辞書を参照することにより,上記単語を同義語に置き換えて,係り受け関係を一致させることができる。 The primary operator may generate listening text data by replacing a word being spoken with an easy-to-understand word. At this time, although the listening text data and the dialogue text data include a pair of words having the same dependency relation, the words do not match. By referring to the synonym dictionary, the differential sentence output unit can replace the word with a synonym and match the dependency relationship.
上記差分文章出力部は,上記対話文章群から,上記聴取テキストデータの文章に対応している文章と質問対回答の関係にある文章を除くこととしてもよい。 The differential sentence output unit may exclude a sentence corresponding to a sentence corresponding to the sentence of the listening text data and a sentence having a question-answer relationship from the dialogue sentence group.
対話文章群中の,上記聴取テキストデータの文章に対応している文章において,質問のみもしくは回答のみが記されている場合,それに対応する回答や質問も内在的に聴取テキストデータに含まれていると考えることができる。従って,かかる関係にある文章は,残す必要がなく,差分文章出力部によって除かれる。 In a sentence corresponding to the above-mentioned sentence of the listening text data in the dialogue sentence group, when only a question or only an answer is written, the corresponding answer or question is also included in the listening text data inherently. Can be considered. Therefore, it is not necessary to leave sentences having such a relationship, and they are removed by the difference sentence output unit.
上記差分文章出力部は,上記差分文章群を音声に変換して結合した差分音声データを出力してもよいし,上記差分文章群を結合した差分テキストデータを出力してもよい。 The differential text output unit may output differential voice data obtained by converting the differential text groups into speech and combining them, or may output differential text data combining the differential text groups.
かかる構成により,二次オペレータは,音声データもしくはテキストデータでユーザの問い合わせを把握できる。特に,音声データでは,ユーザの声質も同時に把握することができ,ユーザにより適切に対応することが可能となる。 With this configuration, the secondary operator can grasp the user's inquiry using voice data or text data. In particular, with voice data, the voice quality of the user can be grasped at the same time, and the user can respond appropriately.
上記対話の内容を録音し,対話音声データを生成する対話音声生成部をさらに備えるとしてもよい。 It may be further provided with a dialog voice generation unit that records the contents of the dialog and generates dialog voice data.
かかる構成により,当該対話情報抽出装置は対話の内容を直接録音することができ,一次オペレータは対話音声データを取り扱わなくて済むので処理を簡略化できる。 With this configuration, the dialog information extracting apparatus can directly record the contents of the dialog, and the primary operator does not have to handle the dialog voice data, so the processing can be simplified.
上記対話情報抽出装置は,複数の構成要素の集合体で表されるが,各構成要素や機能モジュールが単体の装置に属する場合に限られず,各構成要素が別体の装置として,または別体の装置に組み込まれて構成されるとしてもよい。 The above dialog information extraction device is represented by an assembly of a plurality of components, but is not limited to the case where each component or functional module belongs to a single device, and each component is a separate device or a separate device. It may be configured to be incorporated in the apparatus.
また,コンピュータを,上記対話情報抽出装置として,機能させるプログラムやそれを記憶した記憶媒体が提供される。 In addition, there are provided a program for causing a computer to function as the dialog information extraction device and a storage medium storing the program.
上記課題を解決するために,本発明の別の観点によれば,対話音声データを入力する対話音声入力ステップと;上記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換ステップと;上記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出ステップと;上記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力ステップと;上記対話文章群から,上記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力ステップと;を含むことを特徴とする,対話情報抽出方法が提供される。 In order to solve the above problems, according to another aspect of the present invention, a dialog voice input step for inputting dialog voice data; a voice text conversion for converting the dialog voice data into dialog text data by performing a voice recognition process; A dialog text extraction step for extracting a dialog text group that is an important text group in the dialog text data; and a listening text input step for inputting listening text data in which a listener has made the text of the dialog text; And a differential text output step for outputting a differential text group that does not correspond to the text of the listening text data from the dialog text group.
上述した対話情報抽出装置における従属項に対応する構成要素やその説明は,当該対話情報抽出方法,プログラム,記憶媒体にも適用可能である。 The components corresponding to the dependent claims in the dialog information extraction apparatus and the description thereof can be applied to the dialog information extraction method, program, and storage medium.
以上説明したように本発明によれば,一次オペレータが作成した聴取テキストデータと重複しない重要な情報のみを抽出し,二次オペレータは,聴取テキストデータとこの重要な情報を参照することで正確かつ迅速な対応が可能となり,また,このように処理が効率化されることで,一次および二次オペレータの総合的な負担が軽減される上,ユーザの利便性にも資するものである。 As described above, according to the present invention, only important information that does not overlap with the listening text data created by the primary operator is extracted, and the secondary operator can accurately and accurately refer to the listening text data and this important information. In addition to being able to respond quickly, the efficiency of the processing in this way reduces the overall burden on the primary and secondary operators and also contributes to user convenience.
以下に添付図面を参照しながら,本発明の好適な実施の形態について詳細に説明する。なお,本明細書及び図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することによりその説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals and description thereof is omitted.
(第1の実施形態:対話情報抽出装置100)
第1の実施形態による対話情報抽出装置100は,聴取テキストデータと,対話テキストデータとの対応関係から聴取テキストデータに記載させていない事柄を抽出し,その部分のみを抜き出している。その抜き出した情報を二次オペレータに伝達する。
(First embodiment: Dialog information extracting apparatus 100)
The dialogue
図1は,第1の実施形態における対話情報抽出装置100の概略的な構成を示した機能ブロック図である。かかる対話情報抽出装置100は,中央制御部110と,対話音声生成部112と,対話音声入力部114と,音声テキスト変換部116と,対話文章抽出部118と,辞書記憶部120と,聴取テキスト入力部122と,差分文章出力部124と,属性辞書選択部180とを含んで構成されている。また,対話情報抽出装置100自体は,サーバ,コンピュータ,PDA(Personal Digital Assistant),携帯電話,ゲーム機器等の電子機器によって構成されるとしてもよい。
FIG. 1 is a functional block diagram showing a schematic configuration of a dialogue
上記中央制御部110は,中央処理装置(CPU)を含む半導体集積回路により,対話情報抽出装置100全体を管理および制御する。
The
上記対話音声生成部112は,ユーザと,そのユーザから問い合わせを受けた一次オペレータとによってなされた対話の内容(音声)を録音し,対話音声データ150を生成する。本実施形態の対話情報抽出装置100は,対話の内容を直接取得することができる。
The dialog voice generation unit 112 records the contents (voice) of the dialog made by the user and the primary operator who has received an inquiry from the user, and generates
上記対話音声入力部114は,対話音声生成部112において,もしくは,別体の録音機器140によって録音された対話音声データ150を入力する。対話音声データ150が対話音声生成部112で生成される場合,かかる対話音声データ150は,対話音声入力部114によって自動的に音声テキスト変換部116に伝達される。
The dialog voice input unit 114 inputs the
上記音声テキスト変換部116は,対話音声入力部114に入力された対話音声データ150に音声認識処理を施してテキストに変換し,対話テキストデータ152を生成する。
The voice text conversion unit 116 performs voice recognition processing on the
上記対話文章抽出部118は,対話テキストデータ152に対して形態素解析を行い,対話テキストデータ152中の重要な文章群である対話文章群を抽出する。
The dialog text extraction unit 118 performs morphological analysis on the
上記辞書記憶部120は,単語と,その単語の属性とを対応付けた,1または2以上の属性辞書160を記憶する。ここで,辞書記憶部120は,RAM,E2PROM,不揮発性RAM,フラッシュメモリ,カードメモリ,USBメモリ,HDD(Hard Disk Drive)等の記憶媒体から構成されてもよい。
The
対話文章抽出部118は,辞書記憶部120中の属性辞書160による属性に基づいて重要と判断される単語を含む1または2以上の文章(文字列)を抽出し,対話文章群としている。
The dialogue sentence extraction unit 118 extracts one or more sentences (character strings) including words that are determined to be important based on the attribute of the
後述する差分文章出力部124は,聴取テキストデータ170と対話テキストデータ152との重複した部分を対話テキストデータ152から除いて出力する。しかし,対話テキストデータ152全てを残すとするとテキストの量が多すぎて,二次オペレータに負担がかかる。このように重要な単語を含む文章のみを出力対象とすることにより,二次オペレータが必要とする重要な文章が絞られ,二次オペレータの負担がより軽減される。結果的に,二次オペレータがユーザに対して正確かつ迅速な対応をとることができるようになるため,全体的な効率が向上する。
The differential sentence output unit 124 described later removes the overlapping part of the listening
また,辞書記憶部120は,第2の実施形態で説明する同義語辞書190も含むとしてもよい。ここでは,辞書記憶部120が属性辞書160および同義語辞書120を合わせて記憶しており,本実施形態において,辞書記憶部120は,属性辞書記憶部および同義語辞書記憶部の双方の機能を有している。なお,本発明においては,それぞれ別体の記憶部に記憶することもでき,その場合,属性辞書160を記憶する記憶部を属性辞書記憶部,同義語辞書190を記憶する記憶部を同義語辞書記憶部とそれぞれすることができる。
The
ここで,対話文章抽出部118は,少なくとも質問,回答,希望のいずれかを示す文章のみを抽出するとしてもよい。また,属性辞書160を用いて重要な単語を含む文章と合わせて,当該質問,回答,希望を示す文章を抽出するとしてもよい。
Here, the dialogue sentence extraction unit 118 may extract only a sentence indicating at least one of a question, an answer, and a wish. In addition, it is possible to extract a sentence indicating the question, answer, and hope together with a sentence including an important word using the
対話テキストデータ152の各文章が,ユーザや一次オペレータの質問および回答や,ユーザの希望である場合,その文章は重要であり,二次オペレータはその情報を把握しなくてはならない。対話文章抽出部118の形態素解析において,文章がこのような質問,回答,希望にあたる場合,その文章も抽出して,二次オペレータに伝達する。
When each sentence of the
上記聴取テキスト入力部122は,ユーザとの対話の内容を,聴取者である一次オペレータが文章化した,もしくはそのユーザと一次オペレータとの対話を聴取している第3者が文章化した,聴取テキストデータ170を入力する。
The listening
上記差分文章出力部124は,聴取テキストデータ170に対して形態素解析を行い,対話文章抽出部118において抽出された対話文章群から,聴取テキストデータ170の文章に対応していない差分文章群を出力する。即ち,聴取テキストデータ170と対話文章群とが重複しているとみなすことができる文章を対話テキストデータ152から除いた場合の残りの文章を抽出する。
The differential text output unit 124 performs morphological analysis on the listening
差分文章出力部124は,対話文章群から,文章中の重要な単語が聴取テキストデータ170に全てある1または2以上の文章を除く。差分文章出力部124は,聴取テキストデータ170に既に記載されている文章を対話テキストデータ152から抽出するが,対話テキストデータ152における文章内の重要な単語が全て聴取テキストデータ170に記載されているとは限らない。従って,差分文章出力部124は,対話テキストデータ152中の重要な単語が全て聴取テキストデータ170に含まれている文章を重複文章とし,重要な単語が全て含まれていない文章は,差分文章群として抽出する。
The difference sentence output unit 124 removes one or more sentences in which all important words in the sentence are included in the listening
上記残った差分文章群は,対話テキストデータ152にはあるが,聴取テキストデータ170にはなく,かつ重要な文章となる。かかる構成により,一次オペレータが作成した聴取テキストデータ170において抜け落ちた文章のみを対話テキストデータ152から抽出することができ,二次オペレータは,ユーザが所望する問い合わせを漏れなく把握することが可能となる。
The remaining difference sentence group is present in the
上記残った差分文章群は,音声に変換して結合した差分音声データ162として差分文章出力部124から出力されてもよいし,単に結合した差分テキストデータ164として出力されてもよい。こうして,二次オペレータは,音声データもしくはテキストデータでユーザの問い合わせを把握できる。特に,音声データでは,ユーザの声質も同時に把握することができ,ユーザにより適切に対応することが可能となる。
The remaining difference sentence group may be output from the difference sentence output unit 124 as
また,差分文章出力部124は,対話文章群から,聴取テキストデータ170の文章に対応している文章と質問対回答の関係にある文章も除くとしてもよい。聴取テキストデータ170において,質問のみもしくは回答のみが記されている場合,それに対応する回答や質問も内在的に含まれていると考えることができる。従って,かかる関係にある文章は,残す必要がなく,差分文章出力部124によって除かれる。
Further, the difference sentence output unit 124 may exclude a sentence corresponding to the sentence of the listening
上述した構成により,対話情報抽出装置100は,一次オペレータが記載した聴取テキストデータ170と重複しない重要な情報のみを抽出し,二次オペレータは,聴取テキストデータ170とこの重要な情報を参照することで処理の効率を上げ,総合的な負担を軽減することが可能となる。
With the above-described configuration, the dialog
また,このように出力された差分音声データ162や差分テキストデータ164は,二次オペレータが利用するだけでなく,一次オペレータへの記載漏れの指摘や,一次オペレータの記載評価に利用することもできる。
Also, the
(プログラム,記憶媒体)
また,コンピュータを,対話情報抽出装置100として動作させるプログラムや,そのプログラムを記憶した記憶媒体も提供される。
(Program, storage medium)
Also provided are a program that causes the computer to operate as the dialogue
(対話情報抽出方法)
続いて,上述した対話情報抽出装置100を利用して対話情報を抽出する対話情報抽出方法について詳細に説明する。
(Dialogue information extraction method)
Next, a dialog information extraction method for extracting dialog information using the above-described dialog
図2は,第1の実施形態における対話情報抽出方法の処理の流れを示したフローチャートであり,以下,図1の構成と合わせて処理の流れについて説明する。 FIG. 2 is a flowchart showing a process flow of the dialog information extraction method according to the first embodiment. Hereinafter, the process flow will be described together with the configuration of FIG.
先ず,対話情報抽出装置100の対話音声生成部112は,ユーザと一次オペレータとの対話の内容(音声)を録音し,対話音声データ150を生成する(S200)。その生成された対話音声データ150は,音声テキスト変換部116によって,音声認識処理が施され,対話テキストデータ152に変換される(S202)。
First, the dialog voice generation unit 112 of the dialog
図3は,対話テキストデータ152の一例を示した説明図である。かかる対話テキストデータ152においては,文章毎に連続した識別子が付与され,また,発話者,ここでは,ユーザと一次オペレータも区別され,そのユーザと一次オペレータの対話の内容がテキスト化されている。また,その対話がなされた発話時間も合わせて記述されている。
FIG. 3 is an explanatory diagram showing an example of the
対話文章抽出部118は,テキストに変換された対話テキストデータ152に対して形態素解析を行い,対話テキストデータ152中の重要な文章群である対話文章群を抽出する(S204)。かかる対話文章群の抽出は,大きく2つの処理から行われる。1つは,属性辞書160による属性に基づいて重要と判断される単語を含む文章を抽出する処理であり,もう1つは,質問,回答,希望を示す文章を抽出する処理である。以下,図4,5を参照して,かかる2つの処理を説明する。
The dialog text extraction unit 118 performs morphological analysis on the
図4は,属性辞書160の一例を示した説明図である。かかる属性辞書160では,図面上側に単語が羅列してあり,図面下側にその単語の属性が対応付けられている。ここで,属性「現象・状況」は,トラブルや問い合わせが起こっている状況を表す単語を示し,属性「商品名」は,各商品の製品名等を示し,属性「部品・アクセサリ名」は,製品の部品名やアクセサリ名を示し,属性「日時・頻度」は,その事象が生じた日時や頻度を示し,属性「入手方法」は,商品の入手方法に関する単語を示す。また,属性「知識の状態」は,ユーザの知識の状況,例えば,内容を理解できているかどうかを表す単語を示す。図4における属性「知識の状態」の「わかる+ない」は,「わからない」や「わかっていない」等の否定的な表現の動詞と助動詞の組み合わせを表している。
FIG. 4 is an explanatory diagram showing an example of the
ここでは,単語から属性が対応付けられ,例えば,単語「MP200」の属性は「商品名」ということになる。かかる属性辞書160の属性に基づいて対話テキストデータの単語の属性を分析する。
Here, attributes are associated with words, for example, the attribute of the word “MP200” is “product name”. Based on the attribute of the
図5は,図3に示した対話テキストデータ152の各単語の属性を,図4に示した属性辞書160に基づいて分析した説明図である。ここで,対話文章抽出部118は,対話テキストデータ152を形態素解析して文章を単語レベルに分解し,属性辞書160から各単語を検索して,ヒットした単語にその属性を関連づける。かかる単語の下線は,形態素の区切りを示す。例えば,識別子3ユーザ発話の「MP200」には「商品名」が,「用紙」には「部品・アクセサリ名」が,「つまって」には「現象・状況」が関連づけられる。このようにして,対話テキストデータ152の文章中の単語に属性が付与される。
FIG. 5 is an explanatory diagram in which the attribute of each word in the
対話文章抽出部118は,関連づけられた属性に応じて重要な文章を把握する。本実施形態では,属性「現象・状況」,「商品名」,「部品・アクセサリ名」,「日時・頻度」,「入手方法」,「知識の状態」のうち,技術的な応答と判断できる属性「現象・状況」,「商品名」,「部品・アクセサリ名」,「日時・頻度」,「知識の状態」を重要な単語とし,その単語を含む文章を重要な文章としている。従って,識別子3,4,7,8,9が重要な文章に該当することとなる。ここでは,属性が「現象・状況」,「商品名」,「部品・アクセサリ名」,「日時・頻度」,「知識の状態」の単語を重要な単語としているが,かかる場合に限られず,目的に応じて様々な組合せを適用することができる。
The dialogue sentence extraction unit 118 grasps important sentences according to the associated attributes. In this embodiment, it can be determined that the response is a technical response among the attributes “phenomenon / situation”, “product name”, “part / accessory name”, “date / frequency”, “acquisition method”, and “knowledge state”. The attributes “phenomenon / situation”, “product name”, “part / accessory name”, “date / frequency”, “knowledge state” are important words, and sentences including the words are important sentences. Therefore,
ここで,属性が「知識の状態」に当たる単語も重要な単語としたのは,ユーザが「わからない」と発言した内容は,聴取テキストデータから抜け落ちる可能性は高いものの,二次オペレータにとって重要な情報となる場合があるからである。 Here, the word whose attribute corresponds to “knowledge state” is also regarded as an important word. The content that the user says “I don't know” is important information for the secondary operator, although it is highly likely that it will fall out of the listening text data. It is because it may become.
続いて,対話文章抽出部118は,対話テキストデータ152中の文章が重要な発話種類に当たるかどうかを解析する。ここで,発話種類とは,例えば,質問,回答,希望,その他を言い,重要な発話種類とは,その中の質問,回答,希望とを示す。まず,対話文章抽出部118は,文章の文末表現および疑問詞に着目する。例えば,図5の識別子8,12は,終助詞が「か」で終わっており,識別子6は,「いつ」の疑問詞を含んでいる。従って,識別子6,8,12は,発話種類「質問」となる。そして,その「質問」の文章の直後の文章を発話種類「回答」と判断する。図5においては,識別子7,9,13が「回答」となる。
Subsequently, the dialogue sentence extraction unit 118 analyzes whether or not the sentence in the
また,識別子4,10は,文章中に希望を表す助動詞「たい」を含んでいるので,発話種類「希望」であると判断する。こうして図5の右側に記したような発話種類(質問,回答,希望,その他)が関連づけられる。
Since the
対話文章抽出部118は,上述した重要な単語を含む文章以外に,重要な発話種類,本実施形態では,「質問」,「回答」,「希望」を含む文章も重要な文章として抽出する。従って,ここでは識別子4,6,7,8,9,10,12,13が重要な文章に該当することとなる。ただし,識別子12や13に示すような「氏名」や「住所」といった単語は,ストップワードとし,それらの単語を含む質問や回答は,重要な文章としない。これは,ユーザの氏名や住所は二次オペレータにとって重要な情報ではなく,一次オペレータの電話対応時に,特定されていると考えられるからである。従って,識別子12,13は重要な文章から除かれる。
In addition to the sentence including the important word described above, the dialog sentence extracting unit 118 extracts the sentence including the important utterance type, in this embodiment, “question”, “answer”, and “hope” as the important sentence. Accordingly, the
こうして実行された2つの処理を合わせると,識別子3,4,6,7,8,9,10が抽出されることが分かる。
When the two processes executed in this way are combined, it can be seen that
次の段階として,図2における対話音声録音ステップ(S200)と並列し,もしくは,事後的に,一次オペレータは,ユーザとの対話の内容を文章化して聴取テキストデータ170を生成する。そして,対話終了後に,かかる聴取テキストデータ170を当該対話情報抽出装置100に入力する(S206)。
As the next stage, in parallel with the dialog voice recording step (S200) in FIG. 2, or after the fact, the primary operator generates the listening
図6は,聴取テキストデータ170の一例を示した説明図である。ここで,一次オペレータは,ユーザからの要件を「お客様の要件」として端的にまとめている。このとき,ユーザの要件を表すテキスト情報以外に,対応した一次オペレータの氏名や対応した日時等の情報を合わせて聴取テキストデータ170に記載するとしてもよい。
FIG. 6 is an explanatory diagram showing an example of the listening
最後に,差分文章出力部124は,入力された聴取テキストデータ170を形態素解析し,対話文章群の各文章中の重要な単語が,聴取テキストデータ170の文章に全てある文章以外の文章を出力する(S208)。こうして,聴取テキストデータ170には未記載であり,かつ,重要な文章が対話テキストデータ152から抽出される。以下,このような差分文章群の抽出動作を詳述する。
Finally, the difference sentence output unit 124 performs morphological analysis on the input listening
図7は,図6に示した聴取テキストデータ170の各単語の属性を,図4に示した属性辞書160に基づいて分析した説明図である。ここで,差分文章出力部124は,対話文章群の各文章中の重要な単語が,聴取テキストデータ170の文章に全てあるかどうか判断する。以下,対話文章群として抽出された図5における識別子3,4,6,7,8,9,10の文章を具体的に検討する。
FIG. 7 is an explanatory diagram in which the attribute of each word of the listening
まず,識別子3の文章における重要な単語「MP200」,「用紙」,「つまって」は,聴取テキストデータ170にも全て存在し,その属性も対応している。従って,識別子3の文章は,聴取テキストデータ170に既に記載されていると判断できる。同様に識別子7の文章は,単語「先月」が聴取テキストデータ170にあるので,かかる文章も既に記載されていると判断できる。
First, the important words “MP200”, “paper”, and “jamming” in the sentence of
これに対して,識別子4,6,8,9,10の文章は,それぞれに含まれた重要な単語が聴取テキストデータ170に全て含まれていないので,聴取テキストデータ170に未記載な文章となり,差分文章群となる。従って,差分文章群は,識別子4,6,8,9,10の文章ということになる。
On the other hand, the sentences with
ここで,差分文章出力部124は,対話文章群(識別子3,4,6,7,8,9,10の文章)から,聴取テキストデータ170の文章に対応している文章と質問対回答の関係にある文章も除くとしてもよい。
Here, the difference sentence output unit 124 selects a sentence corresponding to the sentence of the listening
本実施形態においては,対話文章群中の,上記聴取テキストデータの文章に対応している文章(識別子3,7の文章)のうち,識別子7の文章は,識別子6の質問に対する回答であることが分かる。このように,質問のみもしくは回答のみが記されている場合,それに対応する回答や質問も内在的に聴取テキストデータ170に含まれていると考えることができるので,質問に該当する識別子6の文章も差分文章出力部124によって除かれるとしてもよい。
In this embodiment, among the sentences corresponding to the sentence of the listening text data (sentences of
ここでは,聴取テキストデータ170に記載された文章の発話種類が「回答」に当たる場合,「質問」も記載されていると見なしているが,逆に,未記載の文章(差分文章)が「回答」に当たる場合,その「質問」も差分文章とすることができる。また,同様にして,未記載な文章(差分文章)が「質問」であり,かつ,その「質問」に対する「回答」が対話文章群として抽出されていない場合,その「回答」も差分文章として強制的に抽出するとしてもよい。
Here, when the utterance type of the sentence described in the listening
本実施形態による対話情報抽出方法の結果,差分文章群は,識別子4,8,9,10の文章ということになる。差分文章出力部124は,この差分文章群を音声に変換して結合した差分音声データ162を出力してもよいし,上記差分文章群を結合した差分テキストデータ164を出力してもよく,また,両データを一度に出力するとしてもよい。
As a result of the dialogue information extraction method according to the present embodiment, the difference sentence group is a
上述した対話文章抽出部118や差分文章出力部124における対話文章群の抽出や差分文章群の抽出は,識別子の小さい順に1文章ずつ繰り返し実行されるとしてもよい。 The dialog text group extraction and the differential text group extraction in the dialog text extraction unit 118 and the difference text output unit 124 described above may be repeatedly performed one by one in the order of the identifiers.
図8は,上記1文章ずつ処理する対話情報抽出方法を詳細に説明したフローチャートである。ここでは,先ず,識別子番号を初期値の1に設定し(S300),対話テキストデータ152からその識別子番号1の文章を抽出する(S302)。
FIG. 8 is a flowchart illustrating in detail the dialogue information extraction method for processing each sentence. Here, first, the identifier number is set to the initial value 1 (S300), and the sentence with the
そして,対話文章抽出部118は,抽出された文章が,属性辞書160に基づく重要な単語もしくは重要な発話種類を含むかどうか判断される(S304)。ここで,重要な単語もしくは重要な発話種類を含む場合,さらにその文章がストップワード(「氏名」や「住所」といった単語)を含むかどうか判断され(S310),含まない場合に,その文章を重要な文章(対話文章群)として抽出する(S312)。 Then, the dialogue sentence extraction unit 118 determines whether or not the extracted sentence includes an important word or an important utterance type based on the attribute dictionary 160 (S304). Here, if an important word or an important utterance type is included, whether or not the sentence further includes a stop word (a word such as “name” or “address”) is determined (S310). It is extracted as an important sentence (dialogue sentence group) (S312).
次に,差分文章出力部124は,上記抽出された対話文章群が聴取テキストデータ170に含まれているかどうか判断し(S320),含まれていなければ,聴取テキストデータ170の文章に対応している文章と質問対回答の関係にあるかどうかが判断され(S322),質問対回答の関係になければ,差分文章群として抽出される(S324)。また,上記の判断(S304,S310,S320,S322)に漏れた場合,その文章は差分文章群とはならない。
Next, the difference sentence output unit 124 determines whether or not the extracted dialogue sentence group is included in the listening text data 170 (S320). If not included, the difference sentence output unit 124 corresponds to the sentence of the listening
当該識別子番号の文章の処理が終了すると,対話テキストデータ152にまだ文章が残っているかどうか判断され(S330),残っていれば,識別子番号をインクリメントして(S332),文章抽出ステップ(S302)からの処理を繰り返す。対話テキストデータ152中の文章が全て処理されると上記抽出された差分文章群を出力して(S334),対話情報抽出方法を終了する。
When the processing of the sentence with the identifier number is completed, it is determined whether or not the sentence still remains in the dialog text data 152 (S330). If it remains, the identifier number is incremented (S332), and the sentence extraction step (S302). Repeat the process from. When all the sentences in the
また,上述した辞書記憶部120は,複数の属性辞書160を有し,対話文章抽出部118は,差分文章出力部124の出力結果を利用する他の利用者(二次オペレータ)に応じて選択された属性辞書160を用いることができる。
Further, the
図9は,辞書記憶部120が有する属性辞書160の他の例を示した説明図である。ここでは,図4と比較すると,4つの属性のみから属性辞書160が形成されている。かかる図9の属性辞書160は,営業の分野に適した単語,例えば,競合他社である「××社」等が含まれている。
FIG. 9 is an explanatory diagram showing another example of the
ここでは,二次オペレータもしくは一次オペレータが,当該対話情報抽出装置100から出力される差分文章群を受け取る二次オペレータのIDを選択し,図1に示した属性辞書選択部180は,かかるIDを判断して属性辞書160と結びつける。例えば,図9の例では,二次オペレータのIDである「2」が選択され,そのID「2」と関連づけられた属性辞書160が選択されている。
Here, the secondary operator or the primary operator selects the ID of the secondary operator that receives the differential text group output from the dialogue
このように,二次オペレータに対して個々に属性辞書160を設定することで,その利用者毎に重要な単語を定義することができ,対話文章抽出部118は,利用者毎の専門性に応じて適切な文章を抽出することが可能となる。属性辞書160の区別として,上記では,技術と営業とを挙げているがそれに限られず,技術分野,対象製品,地域,年齢,問い合わせのカテゴリー等様々な区別の仕方が考えられる。
Thus, by setting the
上述した第1の実施形態によれば,聴取テキストデータ170と対話テキストデータ152とから,一次オペレータが記した聴取テキストデータから抜け落ちた文章であり,かつ重要な文章を抽出することができ,二次オペレータは,ユーザが所望する問い合わせを漏れなく効率的に把握することが可能となる。
According to the first embodiment described above, it is possible to extract sentences that are missing from the listening text data written by the primary operator and important sentences from the listening
(第2の実施形態:対話情報抽出装置)
第1の実施形態においては,差分文章出力部124が,対話文章群と聴取テキストデータ170とを比較して同じ単語および属性を有する文章を判断していた。しかし,一次オペレータは,二次オペレータが理解しやすいように,ユーザの問い合わせ内容を,言葉を変えて表現することもある。第2の実施形態では,構文解析処理も含めた文章の解析により,対話文章群と聴取テキストデータ170との重複文章をより厳密に判断することが可能となる。
(Second Embodiment: Dialog Information Extraction Device)
In the first embodiment, the difference sentence output unit 124 compares the conversation sentence group and the listening
かかる第2の実施形態における対話情報抽出装置も第1の実施形態の対話情報抽出装置100と同等の構成を有する。従って,第1の実施形態同様,図1の対話情報抽出装置100を用いて第2の実施形態を説明する。また,第1の実施形態における構成要素として既に述べた各構成要素は,実質的に機能が同一なので重複説明を省略し,ここでは,機能が相異する差分文章抽出部124,辞書記憶部120とを主に説明する。
The dialogue information extraction apparatus according to the second embodiment has the same configuration as that of the dialogue
差分文章出力部124は,対話文章群から,文章中の重要な単語が聴取テキストデータ170に全てある1または2以上の文章を除く代わりに,もしくは,それに加えて,聴取テキストデータ170から係り受け関係を抽出し,対話文章群から同係り受け関係を有する文章以外の文章を出力することができる。
The differential sentence output unit 124 is dependent on the listening
聴取テキストデータ170は,一次オペレータが入力するデータなので,通常,主語と述語が存在し,比較的整ったテキストとなっている。従って,かかる聴取テキストデータ170は,構文解析技術で解析することが可能である。差分文章出力部124は,聴取テキストデータ170および対話文章群に対して,構文解析処理を実施し,その結果を活用して差分文章群を出力する。
Since the listening
図10は,図7に示した聴取テキストデータ170の係り受けを抽出した説明図である。かかる図10の説明図では,係り元「MP200」,「用紙」,「先月」に対して,係り先「使う」,「つまる」,「購入」が係り受けとして対応している。
FIG. 10 is an explanatory diagram in which the dependency of the listening
差分文章出力部124は,このように抽出された係り受け関係を受けて,まず,対話文章群から同係り受け関係を有する文章があるかどうかを判断する。文章内に対応する係り受け関係がない場合,前後所定の数の文章まで含めて係り受け関係を検索する。かかる係り受け関係の検索範囲は,前後1つの文章としてもよいし,さらに任意の数の文章も含めることができる。 The difference sentence output unit 124 receives the dependency relationship extracted in this way, and first determines whether there is a sentence having the dependency relationship from the dialogue sentence group. If there is no corresponding dependency relationship in the sentence, the dependency relationship is searched including a predetermined number of sentences before and after. The dependency-related search range may be one sentence before and after, and may include any number of sentences.
例えば,図10による係り受け関数を第1の実施形態で対話文章抽出部118が抽出した対話文章群(図5における識別子3,4,6,7,8,9,10の文章)に対応させてみると,「MP200」と「使う」の係り受けが識別子3の文章に,「用紙」と「つまる」の係り受けも識別子3の文章にあることが分かる。
For example, the dependency function shown in FIG. 10 is made to correspond to the dialog text group (sentences of
また,辞書記憶部120は,属性辞書160と共に,対話テキストデータ152の文章中の単語を係り受け関係に適応させるための同義語辞書190を記憶するとしてもよい。
The
一次オペレータは,対話中の単語を解りやすい単語に置き換えて聴取テキストデータ170を生成する場合がある。このとき,聴取テキストデータ170と対話テキストデータ152とは同じ係り受け関係の単語対を含むにも拘わらず,その単語は一致していないという状況が生じる。差分文章出力部124は,かかる同義語辞書190を参照することにより,上記単語を同義語に置き換えて,係り受け関係を一致させることができる。
The primary operator may generate the listening
図11は,同義語辞書190を説明するための説明図である。かかる同義語辞書190には,同義語IDと共に,同義語として扱われる単語が掲載されている。ここでは,理解を容易にするため同義語として2つの単語群を挙げて説明しているが,当然同義語は,かかる単語群に限られず,様々な単語群を挙げることができる。かかる同義語辞書190を参照すると,上記「購入」と「買い上げ」とが同義語であることが分かる。従って,上記「先月」と「購入」の係り受け関係と,「先月」と「買い上げ」の係り受け関係は等しいこととなる。
FIG. 11 is an explanatory diagram for explaining the
詳細に,上記同義語は,例えば,同じ単語を漢字,片仮名,仮名,ローマ字表記で表されたものであったり,長音の有無の違いであったりもする。即ち,「コンピューター」と「コンピュータ」,「ウォッチ」と「時計」も同義語にあたる。 Specifically, the above synonyms may be, for example, the same word expressed in kanji, katakana, kana, romaji, or the presence or absence of a long sound. That is, “computer” and “computer”, “watch” and “clock” are also synonymous.
上記同義語辞書190を利用することにより,差分文章出力部124は,対話文章群から,「先月」と「購入」同じ係り受けとして,「買い上げ」の単語を有する識別子6の文章と,「先月」の単語を有する識別子7の文章とを重複文章として抽出できる。従って,対話文章群と聴取テキストデータ170との重複文章は,識別番号3,6,7となり,差分文章群は,対話文章群との差分である識別子4,8,9,10の文章となる。この結果は,第1の実施形態の結果と同じである。
By using the
このように,聴取テキストデータ170において,任意の単語対が係り受け関係と見なされる場合,それと同等の係り受け関係にある単語を含む文章もしくは文章対は,既に聴取テキストデータに含まれると考えることができる。従って,かかる関係にある上記識別番号3,6,7の文章は,残す必要がないということになる。
Thus, in the listening
また,第2の実施形態を適用した対話情報抽出方法は,第1の実施形態における図2や図8のフローチャートに沿って処理され,差分文章群出力ステップ(S208)や聴取テキストデータ包含判断ステップ(S320)において,上記係り受け関係を適用することとなる。 The dialogue information extraction method to which the second embodiment is applied is processed according to the flowcharts of FIGS. 2 and 8 in the first embodiment, and includes a difference sentence group output step (S208) and a listening text data inclusion determination step. In (S320), the dependency relationship is applied.
このように,第2の実施形態では,構文解析処理を用いることで,聴取テキストデータと対話テキストデータとをより厳密に結びつけることができ,高精度に差分文章群を抽出することが可能となる。 As described above, in the second embodiment, by using the parsing process, the listening text data and the dialogue text data can be linked more strictly, and a differential sentence group can be extracted with high accuracy. .
上述した第1および第2の実施形態における対話情報抽出装置もしくは方法により,二次オペレータは,一次オペレータの対話の内容を全て聞かなくとも必要な情報を,漏れなく(正確)かつ容易(迅速)に取得することができ,二次オペレータの負担が軽減されるとともに,効率化,低コスト化を図ることが可能となる。また,一次オペレータが,対話終了後に改めて聴取テキストデータを作成する必要がなくなるので,一次オペレータの負担軽減にも寄与する。 By the dialogue information extraction apparatus or method in the first and second embodiments described above, the secondary operator can obtain necessary information without omission (accurate) and easy (rapid) without having to listen to all the contents of the dialogue of the primary operator. Therefore, the burden on the secondary operator can be reduced, and the efficiency and cost can be reduced. In addition, since it is not necessary for the primary operator to create listening text data again after the dialogue is completed, it contributes to reducing the burden on the primary operator.
さらには,ユーザに対して効率的に対応することで,ユーザと対話する機会が増え,取得できる情報が増えるので,マーケティングや不具合対策においても効果を奏する。 Furthermore, by responding efficiently to the user, opportunities to interact with the user increase and the amount of information that can be acquired increases, which is also effective in marketing and countermeasures against defects.
以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明は係る例に限定されないことは言うまでもない。当業者であれば,特許請求の範囲に記載された範疇内において,各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.
例えば,上述した実施形態においては,当該対話情報抽出装置の利用対象者を,コンタクトセンタにおける,ユーザ,一次オペレータ,二次オペレータとしているが,かかる場合に限られず,対話音声データと聴取テキストデータを用いることが可能な様々な状況に適用することが可能である。 For example, in the above-described embodiment, the use target person of the dialog information extraction apparatus is a user, a primary operator, and a secondary operator in a contact center. However, the present invention is not limited to this, and dialog voice data and listening text data are used. It can be applied to various situations that can be used.
例えば,医療現場における,患者と看護士との応対を医師に伝える場合,会社組織における親会社から子会社への伝達事項,e−教育における学校から先生もしくは生徒への伝達事項,または,公共的な役所における受付から各担当者への伝達事項にも適用可能である。 For example, when communicating with a doctor about the interaction between a patient and a nurse in a medical setting, a message from a parent company to a subsidiary in a company organization, a message from a school to a teacher or student in e-education, or a public office It can also be applied to matters to be communicated from reception to each person in charge.
また,上記の実施形態における対話文章抽出部や差分文章出力部では,形態素解析処理により単語を抽出しているが,正規表現によるパターンを利用することもできる。 In the dialog text extraction unit and difference text output unit in the above embodiment, words are extracted by morphological analysis processing, but patterns using regular expressions can also be used.
また,対話文章抽出部や差分文章出力部による重要な単語を,属性辞書に基づいて判断しているが,かかる場合に限られず,例えば,その単語の発話時の音量や,音声情報からの感情認識の結果に基づいて判断してもよく,上記属性辞書と組み合わせて利用するとしてもよい。 In addition, important words by the dialog sentence extraction unit and the difference sentence output unit are determined based on the attribute dictionary, but this is not the only case. For example, the volume at the time of utterance of the word and the emotion from the voice information It may be determined based on the recognition result, or may be used in combination with the attribute dictionary.
また,上述した実施形態においては,対話文章抽出部が,一旦重要な文章(対話文章群)を抽出し,その後,差分文章出力部が,対話文章群と聴取テキストデータとを比較しているが,かかる場合に限られず,最初に対話テキストデータ全てと聴取テキストデータとを比較して,差分の文章から重要な文章を抽出して差分文章群とする構成も当然に本発明の技術的範囲に属するものと了解される。 In the embodiment described above, the dialogue sentence extraction unit once extracts an important sentence (dialog sentence group), and then the difference sentence output unit compares the dialogue sentence group and the listening text data. However, the present invention is not limited to this, and a configuration in which all dialogue text data and listening text data are first compared and important sentences are extracted from the difference sentences to form a difference sentence group is naturally within the technical scope of the present invention. It is understood that it belongs.
また,当該対話情報抽出装置の辞書記憶部を別体のサーバに設けて,通信網を介して属性辞書や同義語辞書が参照されるとしてもよい。上記通信網は,例えば,インターネット,イントラネット,LAN(Local Area Network)等の双方向通信網を言う。 Moreover, the dictionary storage part of the said dialog information extraction apparatus is provided in a separate server, and an attribute dictionary or a synonym dictionary may be referred to via a communication network. The communication network refers to, for example, a bidirectional communication network such as the Internet, an intranet, and a LAN (Local Area Network).
また,対象となる対話情報は,日本語に限られず,本発明は,アルファベットやハングル等様々な言語に対応することができる。 In addition, the target conversation information is not limited to Japanese, and the present invention can deal with various languages such as alphabet and Korean.
なお,本明細書の対話情報抽出方法における各ステップは,必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく,並列的あるいは個別に実行される処理(例えば,並列処理あるいはオブジェクトによる処理)も含むとしてもよい。 Note that the steps in the dialog information extraction method of the present specification do not necessarily have to be processed in time series in the order described in the flowchart, but are executed in parallel or individually (for example, parallel processing or object processing). May be included.
100 対話情報抽出装置
112 対話音声生成部
114 対話音声入力部
116 音声テキスト変換部
118 対話文章抽出部
120 辞書記憶部
122 聴取テキスト入力部
124 差分文章出力部
150 対話音声データ
152 対話テキストデータ
160 属性辞書
162 差分音声データ
164 差分テキストデータ
170 聴取テキストデータ
180 属性辞書選択部
190 同義語辞書
DESCRIPTION OF
Claims (13)
前記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換部と;
前記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出部と;
前記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力部と;
前記対話文章群から,前記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力部と;
を備えることを特徴とする,対話情報抽出装置。 A dialog voice input unit for inputting dialog voice data;
A speech text conversion unit that performs speech recognition processing on the dialog speech data and converts the dialog speech data into dialog text data;
A dialog text extraction unit that extracts a dialog text group that is an important text group in the dialog text data;
A listening text input unit for inputting listening text data in which the listener has written the contents of the dialogue;
A differential sentence output unit that outputs a differential sentence group not corresponding to the sentence of the listening text data from the dialogue sentence group;
An apparatus for extracting dialogue information, comprising:
前記対話文章抽出部は,前記属性辞書による属性に基づいて重要と判断される単語を含む1または2以上の文章を抽出することを特徴とする,請求項1に記載の対話情報抽出装置。 An attribute dictionary storage unit for storing an attribute dictionary in which a word is associated with an attribute of the word;
2. The dialogue information extracting apparatus according to claim 1, wherein the dialogue sentence extracting unit extracts one or more sentences including words judged to be important based on attributes of the attribute dictionary.
前記対話文章抽出部は,前記差分文章出力部の出力結果の用途に応じて選択された属性辞書を用いることを特徴とする,請求項2に記載の対話情報抽出装置。 The dictionary storage unit has a plurality of attribute dictionaries,
The dialog information extracting apparatus according to claim 2, wherein the dialog text extracting unit uses an attribute dictionary selected in accordance with a use of an output result of the difference text output unit.
対話音声データを入力する対話音声入力部と;
前記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換部と;
前記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出部と;
前記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力部と;
前記対話文章群から,前記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力部と;
として機能させることを特徴とする,プログラム。 Computer
A dialog voice input unit for inputting dialog voice data;
A speech text conversion unit that performs speech recognition processing on the dialog speech data and converts the dialog speech data into dialog text data;
A dialog text extraction unit that extracts a dialog text group that is an important text group in the dialog text data;
A listening text input unit for inputting listening text data in which the listener has written the contents of the dialogue;
A differential sentence output unit that outputs a differential sentence group not corresponding to the sentence of the listening text data from the dialogue sentence group;
A program characterized by functioning as
前記対話音声データに音声認識処理を施して対話テキストデータに変換する音声テキスト変換ステップと;
前記対話テキストデータ中の重要な文章群である対話文章群を抽出する対話文章抽出ステップと;
前記対話の内容を聴取者が文章化した聴取テキストデータを入力する聴取テキスト入力ステップと;
前記対話文章群から,前記聴取テキストデータの文章に対応していない差分文章群を出力する差分文章出力ステップと;
を含むことを特徴とする,対話情報抽出方法。
A dialog voice input step for inputting dialog voice data;
A voice text conversion step of performing voice recognition processing on the dialog voice data and converting the dialog voice data into dialog text data;
A dialogue sentence extracting step of extracting a dialogue sentence group which is an important sentence group in the dialogue text data;
A listening text input step for inputting listening text data in which the listener has written the contents of the dialogue;
A differential sentence output step of outputting a differential sentence group not corresponding to the sentence of the listening text data from the dialogue sentence group;
Dialog information extraction method characterized by including
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006090654A JP2007265131A (en) | 2006-03-29 | 2006-03-29 | Dialog information extraction device, dialog information extraction method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006090654A JP2007265131A (en) | 2006-03-29 | 2006-03-29 | Dialog information extraction device, dialog information extraction method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007265131A true JP2007265131A (en) | 2007-10-11 |
Family
ID=38638039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006090654A Withdrawn JP2007265131A (en) | 2006-03-29 | 2006-03-29 | Dialog information extraction device, dialog information extraction method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007265131A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101200959B1 (en) | 2010-04-27 | 2012-11-13 | 주식회사 애드웹커뮤니케이션 | Apparatus of verifying speech recording and method thereof |
JP2014130613A (en) * | 2014-02-06 | 2014-07-10 | Nomura Research Institute Ltd | Discourse summary generation system and discourse summary generation program |
WO2022215905A1 (en) * | 2021-04-07 | 2022-10-13 | 네이버 주식회사 | Method and system for providing voice record generated on basis of information after voice recording |
-
2006
- 2006-03-29 JP JP2006090654A patent/JP2007265131A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101200959B1 (en) | 2010-04-27 | 2012-11-13 | 주식회사 애드웹커뮤니케이션 | Apparatus of verifying speech recording and method thereof |
JP2014130613A (en) * | 2014-02-06 | 2014-07-10 | Nomura Research Institute Ltd | Discourse summary generation system and discourse summary generation program |
WO2022215905A1 (en) * | 2021-04-07 | 2022-10-13 | 네이버 주식회사 | Method and system for providing voice record generated on basis of information after voice recording |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4728905B2 (en) | Spoken dialogue apparatus and spoken dialogue program | |
US8145482B2 (en) | Enhancing analysis of test key phrases from acoustic sources with key phrase training models | |
EP1901283A2 (en) | Automatic generation of statistical laguage models for interactive voice response applacation | |
US9484034B2 (en) | Voice conversation support apparatus, voice conversation support method, and computer readable medium | |
US20080059147A1 (en) | Methods and apparatus for context adaptation of speech-to-speech translation systems | |
JP5620349B2 (en) | Dialogue device, dialogue method and dialogue program | |
JP2019003319A (en) | Interactive business support system and interactive business support program | |
US11907665B2 (en) | Method and system for processing user inputs using natural language processing | |
US20230163988A1 (en) | Computer-implemented system and method for providing an artificial intelligence powered digital meeting assistant | |
JP2009042968A (en) | Information selection system, information selection method, and program for information selection | |
JP5073024B2 (en) | Spoken dialogue device | |
Pallotta et al. | Interaction mining: the new frontier of customer interaction analytics | |
US7383171B2 (en) | Semantic stenography using short note input data | |
KR100684160B1 (en) | Apparatus and method for transaction analysis using named entity | |
US8914289B2 (en) | Analyzing and processing a verbal expression containing multiple goals | |
EP2261818A1 (en) | A method for inter-lingual electronic communication | |
JP2007265131A (en) | Dialog information extraction device, dialog information extraction method, and program | |
JP7126865B2 (en) | Interactive business support system | |
Pallotta et al. | Interaction Mining: the new Frontier of Call Center Analytics. | |
JP5722375B2 (en) | End-of-sentence expression conversion apparatus, method, and program | |
KR19990047859A (en) | Natural Language Conversation System for Book Libraries Database Search | |
JP2003162524A (en) | Language processor | |
JP4622861B2 (en) | Voice input system, voice input method, and voice input program | |
JP2021125164A (en) | Information processing apparatus, chat bot assisting program, and chat bot assisting method | |
US11971915B2 (en) | Language processor, language processing method and language processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090602 |