JP2004310692A - Failure resolution support device - Google Patents

Failure resolution support device Download PDF

Info

Publication number
JP2004310692A
JP2004310692A JP2003106882A JP2003106882A JP2004310692A JP 2004310692 A JP2004310692 A JP 2004310692A JP 2003106882 A JP2003106882 A JP 2003106882A JP 2003106882 A JP2003106882 A JP 2003106882A JP 2004310692 A JP2004310692 A JP 2004310692A
Authority
JP
Japan
Prior art keywords
sentence
symptom
cause
voice
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003106882A
Other languages
Japanese (ja)
Inventor
Yuzo Maruta
裕三 丸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003106882A priority Critical patent/JP2004310692A/en
Publication of JP2004310692A publication Critical patent/JP2004310692A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To cope with colloqial expression of inputted voice to suppress generation of erroneous operation. <P>SOLUTION: A symptom sentence storage means 15 stores a symptom sentence described with failure information to a question assumed when cause of a failure is present, and a colloqial expression development means 16 converts the stored symptom sentence into a colloqial sentence. A voice recognition means 20 voice-recognizes the failure information by voice on the basis of a stochastic language model produced from the colloqial sentence converted by the colloquial expression development means 16. A cause candidate narrow-down means 21 extracts the corresponding symptom sentence obtained from a recognition result from the symptom sentence storage means 15, and narrows down a cause candidate on the basis of the extracted symptom sentence. A question selection means 22 selects a question for narrowing down the remaining cause candidate. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は障害情報を入力して障害の原因を推定する障害解決支援装置に関するものである。
【0002】
【従来の技術】
従来の障害解決支援装置は、例えば、特許文献1に示すように、異常症状入力手段、異常診断情報入力手段、推論手段、出力手段及び機能・構成要素対応情報記憶手段を備え、機能・構成要素対応情報記憶手段に、異常診断対象機器の各機能と、その機能の達成に関与する構成要素とを対応付けて記憶し、推論手段が、異常診断情報と機能・構成要素対応情報とに基づいて、異常診断の推論を行っている。
【0003】
また、特許文献2に示された障害解決支援装置は、提示した情報に対するユーザからの音声入力に応じて、所定のデータベースより必要な情報を検索するもので、データベースとして過去の事例を複数の事例集合に分類して格納する手段と、複数の事例集合各々の特徴をもとに、音声入力に従ってデータベース内の情報を絞り込む絞込み手段と、絞り込みの結果をもとに、ユーザに対して第2の音声入力を促す手段と、複数の事例集合より、第2の音声入力に一致する事例を特定する手段と、特定された事例に基づいて、ユーザに所定の情報を提示する提示手段とを備えている。
【0004】
【特許文献1】
特開平3−88036号公報(第2頁、右下欄、課題を解決するための手段)
【特許文献2】
特開平11−306195号公報(段落0022)
【0005】
従来の障害解決支援装置は以上のように構成されているので、上記特許文献1に示す障害解決支援装置に音声認識装置を組み合わせた場合や、上記特許文献2に示す障害解決支援装置では、入力された音声の口語表現に対応することができず、誤動作が発生するという課題があった。
【0006】
また、入力された音声の品質が悪い場合や音声認識の性能が不十分な場合に、音声認識の誤りに起因する誤動作が発生するという課題があった。
【0007】
この発明は上記のような課題を解決するためになされたもので、入力された音声の口語表現に対応することができ、誤動作の発生を抑えることができる障害解決支援装置を得ることを目的とする。
【0008】
また、入力された音声の品質が悪い場合や音声認識の性能が不十分な場合に、音声認識の誤りに起因する誤動作の発生を抑えることができる障害解決支援装置を得ることを目的とする。
【0009】
【課題を解決するための手段】
この発明に係る障害解決支援装置は、障害の原因が存在する場合に想定される質問に対する障害情報を記述した症状文を記憶する症状文記憶手段と、記憶された症状文を口語調文章に変換する口語表現展開手段と、入力された音声による障害情報を口語表現展開手段により変換された口語調文章から作成された確率的言語モデルに基づき音声認識する音声認識手段と、認識結果から対応する症状文を症状文記憶手段より抽出し、抽出した症状文に基づき原因候補を絞り込む原因候補絞込手段と、残存する原因候補を絞り込むための質問を選択して提示する質問選択手段とを備えたものである。
【0010】
【発明の実施の形態】
以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による障害解決支援装置の構成を示すブロック図である。この障害解決支援装置は、キーボード等により障害情報を入力する代わりに、ユーザの音声により障害情報を入力するものである。
【0011】
この障害解決支援装置は、図1に示すように、データ入力手段11、マトリクス作成手段12、マトリクス記憶手段13、症状文作成手段14、症状文記憶手段15、口語表現展開手段16、コーパス17、確率的言語モデル作成手段18、確率的言語モデル記憶手段19、音声認識手段20、原因候補絞込手段21、質問選択手段22及び表示手段23により構成されている。
【0012】
図2は図1に示す口語表現展開手段16の内部構成を示すブロック図である。この口語表現展開手段16は、図2に示すように、形態素解析手段31、形態素情報記憶手段32、口語置換手段33及び口語情報記憶手段34により構成されている。
【0013】
次に動作について説明する。
図3はこの発明の実施の形態1による障害解決支援装置における事前データの作成処理の流れを示すフローチャートである。
ステップST11において、障害診断の専門家であるデータ作成者により作成された原因―質問―回答データが、データ入力手段11を介して入力される。この原因―質問―回答データは、障害の原因と、その原因が存在する場合に想定される質問と回答を列挙したものである。
【0014】
図4は原因―質問―回答データの例を示す図である。例えば、「ヒューズが切れている」という原因が存在する場合の質問として、「コンセントは正常か」と「電源ランプが点灯しているか」という質問が想定され、ここで、「コンセントは正常か」という質問に対して回答が「正常」で、「電源ランプが点灯しているか」という質問に対して回答が「消灯」であれば、「ヒューズが切れている」という原因が存在すると考えることができる。
【0015】
これらの質問は各原因に対してできるだけ共通化されるのが良い。また、ある原因について、全ての質問とそれに対する回答を考える必要はなく、記述がなくても良い。
【0016】
図3のステップST12において、マトリクス作成手段12は、入力された原因―質問―回答データに基づき、原因―質問―回答マトリクスを作成してマトリクス記憶手段13に記憶する。
【0017】
図5はマトリクス作成手段12が作成する原因―質問―回答マトリクスの例を示す図である。この原因―質問―回答マトリクスには、図5に示すように、原因と質問が行列形式に並べられ、行列の値として、入力された原因―質問―回答データに基づき、各原因が存在する場合に想定される質問に対する回答が記入される。
【0018】
図5に示すように、質問には番号を付与して、例えば第1の質問は行列の第1列になるように配置する。また、原因にも番号を付与して、例えば第1の原因は第1行になるように配置する。行列の値である回答を数値化し、例えば「正常」を「1」と定義し、「異常」を「2」と定義する。なお、図4では、各原因が存在する場合に想定される各質問に対する回答は1つであるが、存在する全原因を集めると、図5に示すように、想定される各質問に対する回答は複数になる。
【0019】
図5において、マトリクス作成手段12は、例えば、「ヒューズが切れている」という原因1(行)と「電源ランプが点灯しているか」という質問2(列)の値(図5の斜線部分)として「消灯」という値「2」を記入する。回答番号が同じでも質問番号が異なっていると意味が異なる場合がある。また、入力された図4に示す原因―質問―回答データに、ある原因に対して質問と回答が用意されていない場合には、マトリクス作成手段12は、図5に示す行列の値として、用意されていない旨を数値化した値、例えば「0」を記入する。
【0020】
図3のステップST13において、症状文作成手段14は各質問とそれに対する回答から障害情報を記述した症状文を作成し、作成した症状文と、その症状文を作成したときの質問番号及び回答番号の元データとを症状文記憶手段15に記憶する。このとき、症状文作成手段14は、図5の行列の列に記載された質問と回答から、1つの質問に対して考えられる回答の全てについての症状文を作成して症状文記憶手段15に記憶する。
【0021】
図6は作成された症状文と元データの例を示す図である。例えば、症状文作成手段14は、質問2の「電源ランプは点灯しているか」とその回答1「点灯」から症状文「電源ランプは点灯」を作成し、質問2の「電源ランプは点灯しているか」とその回答2「消灯」から症状文「電源ランプは消灯」を作成して、それぞれ症状文記憶手段15に記憶する。
【0022】
図3のステップST14において、図2に示す口語表現展開手段16内の形態素解析手段31は、症状文記憶手段15に記憶されている症状文を読み出して、形態素情報記憶手段32に記憶されている形態素情報に基づき、読み出した症状文を形態素単位に分割する。例えば、形態素解析手段31は症状文「コンセントは正常」を「コンセント/は/正常」と形態素単位に分割する。形態素解析の具体的な方法については、例えば「音声言語処理(北 研二他著、森北出版株式会社、1996年)」の91ページから98ページに記載されている。
【0023】
ステップST15において、図2に示す口語表現展開手段16内の口語置換手段33は、口語情報記憶手段34に記憶されている口語表現を参照し、各形態素において口語表現のものがあれば、その形態素をその口語表現に代替させた口語調文章を作成する。例えば、形態素「正常」に対して、口語情報記憶手段34に「正常」と類似語の「大丈夫」や「おかしくない」といった口語表現が記憶されている場合には、口語置換手段33は、「コンセントは大丈夫」や「コンセントはおかしくない」といった口語表現に代替させた口語調文章を作成する。
【0024】
ステップST16において、口語置換手段33は、口語情報記憶手段34を参照して、「です」、「ね」等の文末の形態素を追加したり、「えーと」等の間投詞を文頭等の形態素に追加して口語表現の口語調文章を作成する。例えば、口語置換手段33は、「コンセントは大丈夫です」や「えーとコンセントはおかしくない」といった口語表現の口語調文章を作成する。
【0025】
ステップST17において、口語表現展開手段16は作成した口語表現の口語調文章を文例としてコーパス17に追加する。このとき、口語表現展開手段16は、作成した口語表現の口語調文章が、どの症状文を元に作成したかという情報を記憶しておく。
【0026】
ステップST18において、確率的言語モデル作成手段18は、コーパス17に記憶された口語調文章に基づき確率的言語モデルを作成して、確率的言語モデル記憶手段19に記憶する。コーパスに基づく確率的言語モデル作成、及びそれを利用した音声認識については、例えば「確率的言語モデル(北 研二著、東京大学出版会、1999年)」の23ページから29ページ、「認識誤り傾向の確率モデルを用いた2段階探索法による大語彙音声認識(阿部 芳春他著、電子情報通信学会誌D−II Vol.J83−D−II No.12、pp.2545〜pp.2553)」に記載されている。
【0027】
図7はこの発明の実施の形態1による障害解決支援装置における障害解決処理の流れを示すフローチャートである。この障害解決支援装置を使用するユーザとしては、障害情報を持っている顧客、又はこの顧客からの電話を受けたオペレータ等が考えられる。
【0028】
ステップST21において、音声認識手段20はユーザの音声により障害情報を入力する。ステップST22において、音声認識手段20は、予め用意されている認識用の音響辞書(図示せず)と確率的言語モデル記憶手段19に記憶されている確率的言語モデルを用いて、入力した障害情報を認識して音声認識結果を出力する。
【0029】
ステップST23において、原因候補絞込手段21は、音声認識手段20による音声認識結果とコーパス17に存在する口語表現の口語調文章を比較して、一致又は類似するコーパス17内の口語表現の口語調文章を検出する。ステップST24において、原因候補絞込手段21は、検出した口語表現の口語調文章に対応する症状文を症状文記憶手段15から検出する。
【0030】
ステップST25において、原因候補絞込手段21は、検出した症状文の元データとなる質問番号と回答番号を症状文記憶手段15から取得する。例えば「コンセントは正常です」という音声認識結果は、「コンセントは正常」という症状文と対応づけられ、これは図6に示すように質問番号1と回答番号1から作成されている。同様に、「電源ランプがついていません」という認識結果は、類似している「電源ランプは消灯」という症状文と対応づけられ、これは質問番号2と回答番号2から作成されている。「電源ランプがついていません」と「電源ランプが消灯」が類似しているという判断は、同義語データ(図示せず)を参照し、「ついていません」と「消灯」が同義語であるという情報を用いて行われる。
【0031】
ステップST26において、原因候補絞込手段21は、検出された質問番号と回答番号を用い、マトリクス記憶手段13に記憶されている原因―質問―回答マトリクスを参照して、入力された障害情報と一致しない原因候補を排除する。例えば、質問番号1−回答番号1が検出された場合には、第1列(質問番号1)に1と0(0は未回答)の値を持つ原因以外を原因候補から排除する。すなわち、図5の例では、原因2の質問1に対する回答は2なので、原因2を原因候補から排除する。また、質問番号2−回答番号2が検出された場合には、第2列(質問番号2)に2と0の値を持つ原因以外を原因候補から排除する。
【0032】
ステップST27において、質問選択手段22は、マトリクス記憶手段13に記憶されている図5に示す原因―質問―回答マトリクスを検索し、残存する原因候補を最も効率良く絞り込む質問を選択して、すなわち、回答の種類が多く、その回答の種類に対して残存する原因候補が最も等分に配分されるような質問を選択して、表示手段23により検出した質問の内容を表示することでユーザに提示する。
【0033】
例えば、図5の例では、最初の障害情報により原因2が原因候補から排除されている場合には、残存する原因候補は、原因1,3,4,5となる。この原因1,3,4,5の中で、質問2に対する回答は2と0の2種類で、質問3に対する回答は0と1の2種類で、質問4に対する回答は0と1と2の3種類で、質問5に対する回答は0と2と3の3種類で、質問6に対する回答は0と2と1の3種類で、質問7に対する回答は0と2と1の3種類である。すなわち、回答の種類が多いのは質問4,5,6,7である。
【0034】
また、各回答に分配される原因2を除く原因候補数は、質問4に対して回答0が2個、回答1が1個、回答2が1個で、質問5に対して回答0が2個、回答2が1個、回答3が1個で、質問6に対して回答0が2個、回答2が1個、回答1が1個で、質問7に対して回答0が2個、回答2が1個、回答1が1個である。すなわち、質問4,5,6,7は、回答の種類が多く、各回答に分配される原因候補数は同じ程度に効率良く絞り込む質問であり、これらの中からどれかの質問が選択される。
【0035】
ステップST28において、音声認識手段20はユーザの音声による障害情報を音声認識し、ステップST29において、原因候補絞込手段21は、上記ステップST23〜ST25と同様にして、対応する回答番号を選択する。
【0036】
選択された回答番号は、提示された質問番号と組になっているので、ステップST30において、原因候補絞込手段21は、上記ステップST26と同様にして、原因―質問―回答マトリクスから回答と一致しない原因を原因候補から排除する。
【0037】
ステップST31において、原因候補絞込手段21は、残存している原因候補が1つに確定されたか否かを判断し、1つに確定された場合には、ステップST32において、確定された原因とその原因に対する対処方法を表示手段23に表示してユーザに提示する。ここで、原因に対する対処方法は、図示していない記憶手段に記憶させておくものとする。
【0038】
上記ステップST31で、残存している原因候補が1つに確定されない場合には、ステップST33において、原因候補絞込手段21は、残存している原因候補に対して、各質問を行った場合に、回答の種類が複数になるか否かを判断することにより、原因候補を絞り込む質問があるかを判断する。原因候補を絞り込む質問がある場合には、上記ステップST27に戻り上記の処理を繰り返す。
【0039】
上記ステップST33で、残存している原因候補に対して、どの質問を行っても単一の回答にしかいかない場合には、原因候補絞込手段21は、原因候補を絞り込む質問はないと判断し、ステップST34において、残存している原因候補と各原因候補に対する対処方法を表示手段23に表示してユーザに提示する。
【0040】
この実施の形態1では、原因候補絞込手段21が、音声認識結果と類似するコーパス17内の口語調文章を検出し、その口語調文章に対応する症状文を症状文記憶手段15から検出しているが、原因候補絞込手段21が、コーパス17内の口語調文章を検出せずに、音声認識結果から障害に関するキーワードを抽出し、そのキーワードを含むような症状文を症状文記憶手段15から検出しても良い。
【0041】
また、この実施の形態1では、原因候補絞込手段21が、コーパス17内の口語調文章を検出せずに、音声認識結果から定型的な「です」、「ます」等の口語表現を除去した後に、対応する症状文を症状文記憶手段15から検出しても良い。
【0042】
以上のように、この実施の形態1によれば、口語表現展開手段16が症状文より口語表現の口語調文章を作成し、音声認識手段20が入力された音声による障害情報を口語調文章から作成された確率的言語モデルに基づき音声認識し、原因候補絞込手段21が認識結果から対応する症状文を抽出し、抽出した症状文に基づき原因候補を絞り込み、質問選択手段22が残存する原因候補を絞り込むための質問を選択して提示することにより、ユーザの音声の口語表現に対応することができ、誤動作の発生を抑えることができるという効果が得られる。
【0043】
実施の形態2.
図8はこの発明の実施の形態2による障害解決支援装置の構成を示すブロック図である。この障害解決支援装置は、顧客とオペレータが電話等を用いてやりとりする場合に、状況に応じて音声認識の対象を切り替えたり、音声入力からキーボード等の他入力に切り替えたりする処理を行うものである。
【0044】
この障害解決支援装置は、図8に示すように、データ入力手段11、マトリクス作成手段12、マトリクス記憶手段13、症状文作成手段14、症状文記憶手段15、音声切替手段24、音声認識手段20、代替入力手段25、入力切替手段26、原因候補絞込手段21、質問選択手段22及び表示手段23により構成されている。ここで、音声切替手段24は顧客の音声とオペレータの音声とを切り替え、入力切替手段26は、音声認識手段20による音声認識結果の入力と、キーボード等の代替入力手段25の入力を切り替える。
【0045】
次に動作について説明する。
図9はこの発明の実施の形態2による障害解決支援装置における入力切替処理の流れを示すフローチャートである。
ステップST41において、図示しない制御手段が入力切替手段26を音声側に設定し、ステップST42において、制御手段が音声切替手段24を顧客側に設定する。ステップST43において、音声認識手段20は、電話等を通して顧客から障害情報に関する音声が入力された場合に顧客の音声を認識する。
【0046】
ステップST44において、制御手段は、例えば、音声認識結果の尤度と所定の闘値を比較することにより、その音声認識結果の信頼度を計算する。ステップST45において、音声認識結果の尤度が所定の閾値より大きければ、ステップST46において、顧客の音声の認識結果が十分信用できるとして、制御手段は、音声切替手段24及び入力切替手段26ともそのままとし、顧客の音声の認識結果を入力として使用し原因候補絞込手段21に入力する。
【0047】
以後の処理は、実施の形態1の図7のステップST24に移行し、原因候補絞込手段21は、音声の認識結果に対応する症状文を症状文記憶手段15から検出し、ステップST25以降の処理を実施する。
【0048】
上記ステップST45で、音声認識結果の尤度が所定の閾値より小さい場合には、制御手段は音声切替手段24をオペレータ側に設定し、顧客の音声ではなくオペレータの音声を認識するようにする。
【0049】
一般的には、顧客の音声は電話回線等を通してくるので不明瞭で音質は劣化するが、オペレータの音声はマイク等を通して直接入力することが可能であるため高品質であることが期待できる。また、オペレータには、トレーニングすることにより、音声認識しやすいように明瞭に発声させることが可能である。オペレータ側に切り替えた後は、オペレータの音声を認識するようになるので、オペレータの発話内容としては、顧客の発話をできるだけ復唱するようにする。例えば、顧客から「プリンタの文字がかすれている」という発声があれば、オペレータは「プリンタの文字がかすれているということですね」等と復唱する。
【0050】
ステップST48において、音声認識手段20はオペレータの音声を認識し、音声認識結果の尤度と所定の閾値を比較する。ステップST49において、音声認識結果の尤度が所定の閾値より大きければ、ステップST46に移行し、オペレータの音声の認識結果が十分信用できるとして、制御手段は、音声切替手段24及び入力切替手段26をそのままとし、顧客の音声を復唱したオペレータの音声の認識結果を入力として使用し原因候補絞込手段21に入力する。以後の処理は、実施の形態1の図7のステップST24に移行する。
【0051】
ステップST49で、音声の認識結果の尤度が所定の閾値より小さければ、制御手段は、オペレータの音声も信頼するに足りないと判断し、ステップST50において、入力切替手段26をキーボード等の代替入力手段25側に設定する。ステップST51において、代替入力手段25からの障害情報を入力として使用し原因候補絞込手段21に入力される。以後の処理は、実施の形態1の図7のステップST24に移行する。
【0052】
この実施の形態2では、実施の形態1の図1に示す口語表現展開手段16、コーパス17、確率的言語モデル作成手段18、確率的言語モデル記憶指弾19を備えて、実施の形態1と同様に、ユーザの音声の口語表現に対応するようにしても良い。
【0053】
すなわち、音声認識手段20が入力された音声による障害情報を口語表現展開手段16により変換された口語調文章から作成された確率的言語モデルに基づき音声認識すると共に、原因候補絞込手段21が、音声認識結果と類似するコーパス17内の口語調文章を検出し、その口語調文章に対応する症状文を症状文記憶手段15から検出しても良く、また、原因候補絞込手段21が、コーパス17内の口語調文章を検出せずに、音声認識結果から障害に関するキーワードを抽出して、そのキーワードを含むような症状文を症状文記憶手段15から検出しても良く、さらに、原因候補絞込手段21が、コーパス17内の口語調文章を検出せずに、音声認識結果から定型的な「です」、「ます」等の口語表現を除去した後に、対応する症状文を症状文記憶手段15から検出しても良い。
【0054】
また、この実施の形態2では、ステップST46で、顧客又はオペレータの音声の認識結果を入力として使用しているが、顧客及びオペレータの音声の認識結果を入力として使用し、両方の認識結果が一致したときに、認識結果を原因候補絞込手段21に入力しても良い。
【0055】
以上のように、この実施の形態2によれば、顧客の音声が認識可能であれば、顧客の音声により障害情報を入力し、顧客の音声が不明瞭でオペレータの音声が認識可能であれば、顧客の音声を復唱したオペレータの音声により障害情報を入力し、顧客及びオペレータの音声が不明瞭な場合には、キーボード等の代替入力手段により障害情報を入力することにより、入力された音声の品質が悪い場合でも、音声認識の誤りに起因する誤動作の発生を抑えることができると共に、全体として、障害情報の入力負荷を軽減することができるという効果が得られる。
【0056】
実施の形態3.
図10はこの発明の実施の形態3による障害解決支援装置の構成を示すブロック図である。この障害解決支援装置は、認識結果に認識誤りが含まれていても、誤動作の発生を抑えることができるようにしたものである。
【0057】
この障害解決支援装置は、図10に示すように、データ入力手段11、マトリクス作成手段12、マトリクス記憶手段13、症状文作成手段14、症状文記憶手段15、音声認識手段20、原因候補絞込手段21、質問選択手段22、表示手段23及び重要キーワード設定手段27により構成されている。ここで、重要キーワード設定手段27は、質問選択手段22が選択した質問に対する各回答である障害情報を特徴付ける重要キーワードを設定する。
【0058】
次に動作について説明する。
図11はこの発明の実施の形態3による障害解決支援装置における障害解決処理の流れを示すフローチャートである。図11のステップST61,ST62は実施の形態1の図7のステップST21,ST22の処理と同様であり、ステップST63〜ST66はステップST24〜ST27の処理と同様である。
【0059】
ステップST67において、重要キーワード設定手段27は、選択された質問に対する各回答である障害情報を特徴付け、弁別に寄与する重要キーワードを各障害情報に設定する。例えば、質問が「LEDの状態はどうですか?」という質問に対して、障害情報として(1)「赤色で点灯」、(2)「赤色で点滅」、(3)「消灯」という選択肢があった場合、これらを弁別する最も重要な単語は「点灯」、「点滅」、「消灯」であるので、(1)に対応して「点灯」、(2)に対応して「点滅」、(3)に対応して「消灯」という単語を重要キーワードとして設定する。重要キーワードの選択については、例えば各障害情報に共通しない単語を重要キーワードとすれば良い。あるいは熟練者が予めデータとして作成しておいても良い。また、重要キーワードについては、各障害情報について1つに限らず、複数設定するようにしても良い。
【0060】
ステップST68において、音声認識手段20はユーザの音声による障害情報を認識し音声認識結果を出力する。ステップST69において、原因候補絞込手段21は、音声認識結果を形態素解析して、重要キーワード設定手段27により設定された重要キーワードを検索する。
【0061】
ステップST70において、原因候補絞込手段21は、設定された重要キーワードが音声認識結果に含まれるかを調べ、重要キーワードが存在する場合、その重要キーワードに対応する障害情報を選択する。例えば、ユーザが「赤色で点灯」と発声したのに、音声認識手段20の性能が良くないために、「アーク点灯」という認識結果になった場合、重要キーワード「点灯」が存在するので、原因候補絞込手段21は障害情報(1)「赤色で点灯」を選択する。重要キーワードが複数の場合、各重要キーワードにスコアをつけて最も高い合計スコアを与えるような障害情報を選択する。また、原因候補絞込手段21は、選択した障害情報に対応する症状文を症状文記憶手段15から抽出し、抽出した症状文から回答番号を選択する。
【0062】
ステップST71〜ST75までの処理は、実施の形態1の図7のステップST30〜ST34までの処理と同様である。
【0063】
この実施の形態3では、実施の形態1の図1に示す口語表現展開手段16、コーパス17、確率的言語モデル作成手段18、確率的言語モデル記憶手段19を備えて、実施の形態1と同様に、ユーザの音声の口語表現に対応するようにしても良い。
【0064】
すなわち、音声認識手段20が入力された音声による障害情報を口語表現展開手段16により変換された口語調文章から作成された確率的言語モデルに基づき音声認識すると共に、原因候補絞込手段21が、選択した障害情報と類似するコーパス17内の口語調文章を検出し、その口語調文章に対応する症状文を症状文記憶手段15から検出しても良く、また、原因候補絞込手段21が、コーパス17内の口語調文章を検出せずに、選択した障害情報から障害に関するキーワードを抽出して、そのキーワードを含むような症状文を症状文記憶手段15から検出しても良く、さらに、原因候補絞込手段21が、コーパス17内の口語調文章を検出せずに、選択した障害情報から定型的な「です」、「ます」等の口語表現を除去した後に、対応する症状文を症状文記憶手段15から検出しても良い。
【0065】
また、この実施の形態3では、原因―質問―回答マトリクスを使用して原因を絞り込んでいるが、木構造の質問―回答データにより原因を絞り込んで特定する場合でも、同様な処理によって信頼性を向上することが可能となる。
【0066】
以上のように、この実施の形態3によれば、音声認識の性能が不十分な場合でも、各障害情報を弁別できるような重要キーワードを認識できれば正しく処理することができ、信頼性を向上することができるという効果が得られる。
【0067】
以上述べた実施の形態1〜実施の形態3については、各手段はハードウエア・ソフトウエアのいずれでも構成できることはいうまでもない。また、ソフトウエアによって構成する場合には、記録媒体に記録されたプログラムであっても、通信媒体を介してダウンロードされるプログラムであっても良い。
【0068】
【発明の効果】
以上のように、この発明によれば、障害の原因が存在する場合に想定される質問に対する障害情報を記述した症状文を記憶する症状文記憶手段と、記憶された症状文を口語調文章に変換する口語表現展開手段と、入力された音声による障害情報を口語表現展開手段により変換された口語調文章から作成された確率的言語モデルに基づき音声認識する音声認識手段と、認識結果から対応する症状文を症状文記憶手段より抽出し、抽出した症状文に基づき原因候補を絞り込む原因候補絞込手段と、残存する原因候補を絞り込むための質問を選択して提示する質問選択手段とを備えたことにより、ユーザの音声の口語表現に対応することができ、誤動作の発生を抑えることができるという効果がある。
【図面の簡単な説明】
【図1】この発明の実施の形態1による障害解決支援装置の構成を示すブロック図である。
【図2】この発明の実施の形態1による障害解決支援装置の口語表現展開手段の内部構成を示すブロック図である。
【図3】この発明の実施の形態1による障害解決支援装置における事前データの作成処理の流れを示すフローチャートである。
【図4】この発明の実施の形態1による障害解決支援装置に入力される原因―質問―回答データの例を示す図である。
【図5】この発明の実施の形態1による障害解決支援装置が作成する原因―質問―回答マトリクスの例を示す図である。
【図6】この発明の実施の形態1による障害解決支援装置が作成する症状文と元データの例を示す図である。
【図7】この発明の実施の形態1による障害解決支援装置における障害解決処理の流れを示すフローチャートである。
【図8】この発明の実施の形態2による障害解決支援装置の構成を示すブロック図である。
【図9】この発明の実施の形態2による障害解決支援装置における入力切替処理の流れを示すフローチャートである。
【図10】この発明の実施の形態3による障害解決支援装置の構成を示すブロック図である。
【図11】この発明の実施の形態3による障害解決支援装置における障害解決処理の流れを示すフローチャートである。
【符号の説明】
11 データ入力手段、12 マトリクス作成手段、13 マトリクス記憶手段、14 症状文作成手段、15 症状文記憶手段、16 口語表現展開手段、17 コーパス、18 確率的言語モデル作成手段、19 確率的言語モデル記憶手段、20 音声認識手段、21 原因候補絞込手段、22 質問選択手段、23 表示手段、24 音声切替手段、25 代替入力手段、26 入力切替手段、27 重要キーワード設定手段、31 形態素解析手段、32 形態素情報記憶手段、33 口語置換手段、34 口語情報記憶手段。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a failure resolution support device that inputs failure information and estimates the cause of a failure.
[0002]
[Prior art]
For example, as described in Patent Document 1, a conventional trouble solving support device includes an abnormal symptom input unit, an abnormality diagnosis information input unit, an inference unit, an output unit, and a function / component correspondence information storage unit. In the correspondence information storage means, each function of the abnormality diagnosis target device and the components involved in achieving the function are stored in association with each other, and the inference means stores the information based on the abnormality diagnosis information and the function / component correspondence information. Inferring abnormal diagnosis.
[0003]
Further, the trouble solving support device disclosed in Patent Literature 2 searches for necessary information from a predetermined database in response to a voice input from a user for the presented information. Means for classifying and storing into sets, narrowing means for narrowing information in the database according to voice input based on characteristics of each of the plurality of case sets, and a second method for the user based on the result of the narrowing. Means for prompting voice input, means for specifying a case matching the second voice input from a plurality of case sets, and presentation means for presenting predetermined information to the user based on the specified case. I have.
[0004]
[Patent Document 1]
JP-A-3-88036 (page 2, lower right column, means for solving the problem)
[Patent Document 2]
JP-A-11-306195 (paragraph 0022)
[0005]
Since the conventional trouble solving support device is configured as described above, in the case where a speech recognition device is combined with the trouble solving support device disclosed in Patent Document 1 or in the trouble solving support device described in Patent Document 2, There is a problem that it is not possible to cope with the spoken expression of the speech that has been generated, and a malfunction occurs.
[0006]
Further, when the quality of the input voice is poor or the performance of the voice recognition is insufficient, there is a problem that a malfunction due to a voice recognition error occurs.
[0007]
The present invention has been made in order to solve the above-described problems, and an object of the present invention is to provide a trouble solving support device that can cope with colloquial expression of input speech and can suppress occurrence of malfunction. I do.
[0008]
It is another object of the present invention to provide a failure resolution support device that can suppress the occurrence of a malfunction due to an error in speech recognition when the quality of input speech is poor or the performance of speech recognition is insufficient.
[0009]
[Means for Solving the Problems]
The problem solving support device according to the present invention includes a symptom sentence storage unit that stores a symptom sentence describing fault information for a question assumed when a cause of a fault exists, and converts the stored symptom sentence into a colloquial sentence. Spoken expression developing means, speech recognition means for recognizing speech based on a probabilistic language model created from colloquial sentence converted from input speech disability information by the spoken expression developing means, and corresponding symptoms from the recognition result A method comprising: extracting a sentence from a symptom sentence storage means; narrowing down a cause candidate based on the extracted symptom sentence; and a question selecting means for selecting and presenting a question for narrowing down the remaining cause candidates. It is.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of a trouble solving support device according to Embodiment 1 of the present invention. This trouble solving support device inputs trouble information by a user's voice instead of inputting trouble information using a keyboard or the like.
[0011]
As shown in FIG. 1, this trouble solving support device includes a data input unit 11, a matrix creation unit 12, a matrix storage unit 13, a symptom sentence creation unit 14, a symptom sentence storage unit 15, a colloquial expression development unit 16, a corpus 17, The probabilistic language model creating unit 18, the probabilistic language model storage unit 19, the voice recognition unit 20, the cause candidate narrowing down unit 21, the question selecting unit 22, and the display unit 23.
[0012]
FIG. 2 is a block diagram showing an internal configuration of the colloquial expression expanding means 16 shown in FIG. As shown in FIG. 2, the colloquial expression expanding means 16 includes a morphological analysis means 31, a morphological information storage means 32, a colloquial substitution means 33 and a colloquial information storage means.
[0013]
Next, the operation will be described.
FIG. 3 is a flowchart showing a flow of a process of creating advance data in the failure solving support device according to the first embodiment of the present invention.
In step ST11, cause-question-answer data created by a data creator who is a specialist in failure diagnosis is input via the data input unit 11. The cause-question-answer data lists the cause of the failure and the question and answer expected when the cause exists.
[0014]
FIG. 4 is a diagram showing an example of cause-question-answer data. For example, as a question when there is a cause such as "blown fuse", a question "is the outlet normal?" And "is the power lamp lit?" If the answer to the question is "Normal" and the answer to the question "Is the power lamp on?" And the answer is "Off", it is possible that there is a cause of "Blown fuse". it can.
[0015]
These questions should be as common as possible for each cause. Further, it is not necessary to consider all questions and their answers for a certain cause, and there is no need to describe them.
[0016]
In step ST12 of FIG. 3, the matrix creating unit 12 creates a cause-question-answer matrix based on the input cause-question-answer data and stores the matrix in the matrix storage unit 13.
[0017]
FIG. 5 is a diagram showing an example of a cause-question-answer matrix created by the matrix creating means 12. In the cause-question-answer matrix, as shown in FIG. 5, causes and questions are arranged in a matrix format, and as the value of the matrix, each cause exists based on the input cause-question-answer data. The answer to the question assumed is entered.
[0018]
As shown in FIG. 5, the questions are numbered, for example, the first question is arranged so as to be in the first column of the matrix. Also, numbers are assigned to the causes, for example, the first cause is arranged so as to be on the first row. The answer which is the value of the matrix is digitized, and for example, “normal” is defined as “1”, and “abnormal” is defined as “2”. In FIG. 4, the answer to each question assumed when each cause exists is one, but when all the existing causes are collected, the answer to each assumed question is as shown in FIG. Be more than one.
[0019]
In FIG. 5, for example, the matrix creation unit 12 determines the value of the cause 1 (row) of “blown fuse” and the value of question 2 (column) of “whether the power lamp is turned on” (hatched portion in FIG. 5). The value "2" of "light off" is entered. Even if the answer number is the same, the meaning may differ if the question number is different. If the input of the cause-question-response data shown in FIG. 4 does not include a question and an answer for a certain cause, the matrix creating means 12 prepares the answer as a matrix value shown in FIG. A value quantifying that it is not performed, for example, “0” is entered.
[0020]
In step ST13 of FIG. 3, the symptom sentence creating means 14 creates a symptom sentence describing failure information from each question and the answer thereto, and creates the created symptom sentence and the question number and answer number when the symptom sentence was created. Is stored in the symptom sentence storage means 15. At this time, the symptom sentence creating means 14 creates symptom sentences for all possible answers to one question from the questions and answers described in the columns of the matrix in FIG. Remember.
[0021]
FIG. 6 is a diagram showing an example of the created symptom statement and original data. For example, the symptom sentence creating means 14 creates a symptom sentence “power lamp is lit” from question 2 “Is the power lamp on?” And answer 1 “light on”, and question 2 “the power lamp is on. "Is turned off" and the answer 2 "turn off" to create a symptom sentence "power lamp is off" and store it in symptom sentence storage means 15, respectively.
[0022]
In step ST14 of FIG. 3, the morphological analysis means 31 in the colloquial expression expanding means 16 shown in FIG. 2 reads out the symptom sentence stored in the symptom sentence storage means 15 and stores it in the morphological information storage means 32. The read symptom sentence is divided into morpheme units based on the morpheme information. For example, the morphological analysis unit 31 divides the symptom sentence “outlet is normal” into “outlet / wa / normal” in morpheme units. The specific method of morphological analysis is described in, for example, pages 91 to 98 of "Spoken Language Processing (Kenji Kita et al., Morikita Publishing Co., Ltd., 1996)".
[0023]
In step ST15, the colloquial expression replacing means 33 in the colloquial expression expanding means 16 shown in FIG. 2 refers to the colloquial expressions stored in the colloquial information storage means 34, and if there is a colloquial expression in each morpheme, the morpheme Is made into a colloquial sentence in which is replaced by the colloquial expression. For example, if a spoken word expression such as “OK” or “Is not strange” similar to “Normal” is stored in the spoken language information storage means 34 for the morpheme “Normal”, the spoken word replacing means 33 Create a colloquial sentence that is replaced with a spoken expression such as "outlet is OK" or "outlet is not strange".
[0024]
In step ST16, the colloquial substitution means 33 refers to the colloquial information storage means 34 and adds a morpheme at the end of the sentence such as "is" or "ne" or adds an interjection such as "erto" to a morpheme such as the beginning of a sentence. To create colloquial sentences in colloquial expressions. For example, the colloquial substitution means 33 creates a colloquial sentence in a colloquial expression such as "outlet is okay" or "um is not strange".
[0025]
In step ST17, the colloquial expression developing means 16 adds the colloquial sentence of the colloquial expression thus created to the corpus 17 as a sentence example. At this time, the colloquial expression developing means 16 stores information on which symptom sentence the colloquial sentence of the colloquial expression has been created.
[0026]
In step ST18, the probabilistic language model creating means 18 creates a probabilistic language model based on the colloquial sentences stored in the corpus 17, and stores it in the probabilistic language model storage means 19. Regarding the creation of a probabilistic language model based on a corpus and speech recognition using the same, for example, see “Probabilistic Language Model (Kenji Kita, University of Tokyo Press, 1999)” from page 23 to page 29, “Recognition error tendency”. Large Vocabulary Speech Recognition by Two-Stage Search Method Using Probability Model of Abe (Yoshiharu Abe et al., IEICE D-II Vol. J83-D-II No. 12, pp. 2545-pp. 2553) Has been described.
[0027]
FIG. 7 is a flowchart showing a flow of a fault solving process in the fault solving support device according to the first embodiment of the present invention. The user who uses this trouble solving support device may be a customer who has trouble information, an operator who has received a call from this customer, or the like.
[0028]
In step ST21, the voice recognition means 20 inputs the failure information by the voice of the user. In step ST22, the speech recognition unit 20 uses the prepared acoustic dictionary for recognition (not shown) and the probabilistic language model stored in the probabilistic language model storage unit 19 to input the input failure information. And outputs a speech recognition result.
[0029]
In step ST23, the cause candidate narrowing-down unit 21 compares the speech recognition result of the speech recognition unit 20 with the colloquial expression of the colloquial expression present in the corpus 17, and determines whether the colloquial expression of the colloquial expression in the corpus 17 matches or is similar. Detect sentences. In step ST <b> 24, the cause candidate narrowing down unit 21 detects a symptom sentence corresponding to the detected spoken language sentence from the symptom sentence storage unit 15.
[0030]
In step ST25, the cause candidate narrowing means 21 acquires the question number and the answer number as the original data of the detected symptom sentence from the symptom sentence storage means 15. For example, the speech recognition result "outlet is normal" is associated with a symptom sentence "outlet is normal", which is created from question number 1 and answer number 1 as shown in FIG. Similarly, the recognition result of “the power lamp is not turned on” is associated with a similar symptom sentence of “the power lamp is off”, which is created from question number 2 and answer number 2. The judgment that "the power lamp is not on" and "the power lamp is off" are similar by referring to the synonym data (not shown), and "not on" and "off" are synonyms. Is performed using the information.
[0031]
In step ST26, the cause candidate narrowing-down unit 21 uses the detected question number and answer number, refers to the cause-question-answer matrix stored in the matrix storage unit 13, and matches the input failure information. Eliminate candidate causes that do not. For example, when question number 1-answer number 1 is detected, causes other than those having values of 1 and 0 (0 is unanswered) in the first column (question number 1) are excluded from cause candidates. That is, in the example of FIG. 5, since the answer to the question 1 of the cause 2 is 2, the cause 2 is excluded from the cause candidates. When question number 2 to answer number 2 are detected, causes other than causes having values of 2 and 0 in the second column (question number 2) are excluded from cause candidates.
[0032]
In step ST27, the question selecting unit 22 searches the cause-question-answer matrix shown in FIG. 5 stored in the matrix storage unit 13 and selects the question that narrows the remaining cause candidates most efficiently. The question is selected such that there are many types of answers, and the remaining cause candidates for the type of answer are distributed equally, and the content of the question detected by the display means 23 is displayed to the user. I do.
[0033]
For example, in the example of FIG. 5, when the cause 2 is excluded from the cause candidates by the first failure information, the remaining cause candidates are the causes 1, 3, 4, and 5. Of the causes 1, 3, 4, and 5, the answer to Question 2 is 2 and 0, the answer to Question 3 is 0 and 1, and the answer to Question 4 is 0, 1 and 2. There are three types, the answer to Question 5 is 0, 2, and 3, the answer to Question 6 is 0, 2, and 1, and the answer to Question 7 is 0, 2, and 1. That is, questions 4, 5, 6, and 7 have many types of answers.
[0034]
Also, the number of cause candidates excluding cause 2 distributed to each answer is as follows: 2 answers 0 to question 4, 1 answer 1 and 1 answer, and 2 answers 0 to question 5 for question 4. 1 answer, 2 answers, 1 answer, 2 answers 0 for question 6, 1 answer, 1 answer, 2 answers 0 for question 7, There is one answer 2 and one answer 1. That is, the questions 4, 5, 6, and 7 have many types of answers, and the number of cause candidates distributed to each answer is a question that is narrowed down to the same degree of efficiency, and one of these questions is selected. .
[0035]
In step ST28, the voice recognition unit 20 performs voice recognition of the failure information by the user's voice, and in step ST29, the cause candidate narrowing down unit 21 selects a corresponding answer number in the same manner as in steps ST23 to ST25.
[0036]
Since the selected answer number is paired with the presented question number, in step ST30, the cause candidate narrowing means 21 matches the answer from the cause-question-answer matrix in the same manner as in step ST26. Eliminate causes that do not occur from the possible causes.
[0037]
In step ST31, the cause candidate narrowing-down means 21 determines whether or not the remaining cause candidates have been determined to be one. The coping method for the cause is displayed on the display means 23 and presented to the user. Here, the coping method for the cause is stored in a storage unit (not shown).
[0038]
In step ST31, when the remaining cause candidates are not determined to be one, in step ST33, the cause candidate narrowing means 21 determines whether or not each question is asked for the remaining cause candidates. By determining whether there are a plurality of types of answers, it is determined whether there is a question for narrowing down the cause candidates. If there is a question that narrows down the cause candidate, the process returns to step ST27 and repeats the above processing.
[0039]
In the above step ST33, if any question is asked for the remaining cause candidates and only a single answer is obtained, the cause candidate narrowing means 21 determines that there is no question for narrowing the cause candidates. In step ST34, the remaining cause candidates and the coping method for each cause candidate are displayed on the display means 23 and presented to the user.
[0040]
In the first embodiment, the cause candidate narrowing-down unit 21 detects a spoken language sentence in the corpus 17 similar to the speech recognition result, and detects a symptom sentence corresponding to the spoken language from the symptom sentence storage unit 15. However, the cause candidate narrowing-down unit 21 extracts a keyword related to the failure from the speech recognition result without detecting the spoken text in the corpus 17 and stores a symptom sentence including the keyword in the symptom sentence storage unit 15. May be detected.
[0041]
In the first embodiment, the cause candidate narrowing-down unit 21 removes typical spoken expressions such as “is” and “mas” from the speech recognition result without detecting the spoken language sentences in the corpus 17. After that, the corresponding symptom statement may be detected from the symptom statement storage unit 15.
[0042]
As described above, according to the first embodiment, the colloquial expression developing means 16 creates a colloquial sentence of a colloquial expression from a symptom sentence, and the speech recognition means 20 converts the input speech-based failure information from the colloquial sentence. Speech recognition is performed based on the created probabilistic language model, cause candidate narrowing means 21 extracts a corresponding symptom sentence from the recognition result, narrows the cause candidate based on the extracted symptom sentence, and causes question selecting means 22 to remain. By selecting and presenting the question for narrowing down the candidates, it is possible to cope with the spoken expression of the voice of the user, and it is possible to obtain an effect that occurrence of a malfunction can be suppressed.
[0043]
Embodiment 2 FIG.
FIG. 8 is a block diagram showing a configuration of a trouble solving support device according to a second embodiment of the present invention. This trouble-shooting support device performs a process of switching the target of voice recognition depending on the situation or switching from voice input to another input such as a keyboard when a customer and an operator exchange using a telephone or the like. is there.
[0044]
As shown in FIG. 8, the trouble solving support device includes a data input unit 11, a matrix creation unit 12, a matrix storage unit 13, a symptom sentence creation unit 14, a symptom sentence storage unit 15, a voice switching unit 24, and a speech recognition unit 20. , An alternative input unit 25, an input switching unit 26, a cause candidate narrowing down unit 21, a question selecting unit 22, and a display unit 23. Here, the voice switching unit 24 switches between the voice of the customer and the voice of the operator, and the input switching unit 26 switches between the input of the voice recognition result by the voice recognition unit 20 and the input of the alternative input unit 25 such as a keyboard.
[0045]
Next, the operation will be described.
FIG. 9 is a flowchart showing a flow of an input switching process in the failure solving support device according to the second embodiment of the present invention.
In step ST41, the control unit (not shown) sets the input switching unit 26 to the audio side, and in step ST42, the control unit sets the audio switching unit 24 to the customer side. In step ST43, the voice recognition means 20 recognizes the voice of the customer when the voice related to the fault information is input from the customer through a telephone or the like.
[0046]
In step ST44, the control unit calculates the reliability of the speech recognition result, for example, by comparing the likelihood of the speech recognition result with a predetermined threshold value. In step ST45, if the likelihood of the speech recognition result is larger than the predetermined threshold, in step ST46, it is determined that the recognition result of the customer's speech is sufficiently reliable, and the control unit keeps both the speech switching unit 24 and the input switching unit 26 as they are. Then, the recognition result of the customer's voice is used as an input and input to the cause candidate narrowing means 21.
[0047]
Subsequent processing shifts to step ST24 in FIG. 7 of the first embodiment, and the cause candidate narrowing-down unit 21 detects a symptom sentence corresponding to the speech recognition result from the symptom sentence storage unit 15, and proceeds to step ST25 and subsequent steps. Perform processing.
[0048]
If the likelihood of the voice recognition result is smaller than the predetermined threshold value in step ST45, the control unit sets the voice switching unit 24 on the operator side so that the voice of the operator is recognized instead of the voice of the customer.
[0049]
Generally, the voice of the customer comes through a telephone line or the like and is unclear and the sound quality is deteriorated. However, since the voice of the operator can be directly input through a microphone or the like, high quality can be expected. Further, by training the operator, it is possible to make the operator speak clearly so that the voice can be easily recognized. After switching to the operator side, the voice of the operator is recognized, so that the utterance content of the operator is to repeat the utterance of the customer as much as possible. For example, if a customer utters "printer characters are blurred," the operator repeats "the printer characters are blurred."
[0050]
In step ST48, the voice recognition means 20 recognizes the voice of the operator, and compares the likelihood of the voice recognition result with a predetermined threshold. In step ST49, if the likelihood of the voice recognition result is larger than the predetermined threshold, the process proceeds to step ST46, and the control unit determines that the recognition result of the voice of the operator is sufficiently reliable, and sets the voice switching unit 24 and the input switching unit 26. The recognition result of the voice of the operator who repeats the voice of the customer is used as an input and input to the cause candidate narrowing means 21. Subsequent processing moves to step ST24 in FIG. 7 of the first embodiment.
[0051]
In step ST49, if the likelihood of the voice recognition result is smaller than the predetermined threshold, the control means determines that the voice of the operator is not reliable, and in step ST50, switches the input switching means 26 to an alternative input such as a keyboard. Set on the means 25 side. In step ST51, the fault information from the alternative input means 25 is used as an input and is input to the cause candidate narrowing means 21. Subsequent processing moves to step ST24 in FIG. 7 of the first embodiment.
[0052]
In the second embodiment, a colloquial expression developing unit 16, a corpus 17, a stochastic language model creating unit 18, and a stochastic language model storage finger 19 shown in FIG. Alternatively, it may correspond to the spoken expression of the user's voice.
[0053]
That is, the speech recognition unit 20 recognizes the speech based on the probabilistic language model created from the colloquial sentence converted by the spoken expression development unit 16, and the cause candidate narrowing unit 21 A colloquial sentence in the corpus 17 similar to the speech recognition result may be detected, and a symptom sentence corresponding to the colloquial sentence may be detected from the symptom sentence storage means 15. Instead of detecting the spoken text in 17, a keyword related to the disorder may be extracted from the speech recognition result, and a symptom sentence including the keyword may be detected from the symptom sentence storage unit 15. After the speech means 21 removes typical spoken expressions such as “is” and “mas” from the speech recognition result without detecting the spoken language sentences in the corpus 17, the corresponding symptom sentences are displayed. May be detected from the sentence storage means 15.
[0054]
Further, in the second embodiment, the recognition result of the voice of the customer or the operator is used as an input in step ST46. However, the recognition result of the voice of the customer or the operator is used as the input, and both the recognition results match. Then, the recognition result may be input to the cause candidate narrowing-down unit 21.
[0055]
As described above, according to the second embodiment, if the voice of the customer is recognizable, the failure information is input by the voice of the customer, and if the voice of the customer is unclear and the voice of the operator is recognizable. If the voice of the operator who repeats the voice of the customer inputs the obstacle information, and if the voice of the customer and the operator is unclear, the obstacle information is input by an alternative input means such as a keyboard, so that the input voice is input. Even if the quality is poor, it is possible to suppress the occurrence of a malfunction due to a speech recognition error and to reduce the load of inputting fault information as a whole.
[0056]
Embodiment 3 FIG.
FIG. 10 is a block diagram showing a configuration of a trouble solving support device according to Embodiment 3 of the present invention. This trouble solving support device can suppress the occurrence of malfunction even if the recognition result includes a recognition error.
[0057]
As shown in FIG. 10, this trouble solving support apparatus includes a data input unit 11, a matrix creation unit 12, a matrix storage unit 13, a symptom sentence creation unit 14, a symptom sentence storage unit 15, a voice recognition unit 20, a narrowing down of a cause candidate. It comprises means 21, question selecting means 22, display means 23 and important keyword setting means 27. Here, the important keyword setting unit 27 sets an important keyword that characterizes failure information that is each answer to the question selected by the question selection unit 22.
[0058]
Next, the operation will be described.
FIG. 11 is a flowchart showing a flow of a fault solving process in the fault solving support device according to the third embodiment of the present invention. Steps ST61 and ST62 in FIG. 11 are the same as the processing in steps ST21 and ST22 in FIG. 7 of the first embodiment, and steps ST63 to ST66 are the same as the processing in steps ST24 to ST27.
[0059]
In step ST67, the important keyword setting means 27 characterizes the failure information that is each answer to the selected question and sets an important keyword that contributes to discrimination in each failure information. For example, in response to the question "What is the state of the LED?", The fault information has options of (1) "lit in red", (2) "flashing in red", and (3) "off". In this case, since the most important words for discriminating these are “lit”, “blinking”, and “extinguished”, “lit” corresponding to (1), “blinking” corresponding to (2), (3) ), The word “unlit” is set as an important keyword. Regarding the selection of an important keyword, for example, a word that is not common to each piece of failure information may be set as an important keyword. Alternatively, a skilled person may create the data in advance. The number of important keywords is not limited to one for each piece of failure information, and a plurality of important keywords may be set.
[0060]
In step ST68, the voice recognition means 20 recognizes the failure information by the voice of the user and outputs a voice recognition result. In step ST69, the cause candidate narrowing means 21 performs a morphological analysis on the speech recognition result, and searches for an important keyword set by the important keyword setting means 27.
[0061]
In step ST70, the cause candidate narrowing means 21 checks whether or not the set important keyword is included in the speech recognition result, and if there is an important keyword, selects failure information corresponding to the important keyword. For example, when the user utters “lit in red”, but the recognition result is “arc lighting” due to poor performance of the voice recognition means 20, the important keyword “lighting” is present. The candidate narrowing means 21 selects the failure information (1) “lights up in red”. When there are a plurality of important keywords, a fault is assigned to each important keyword so as to give the highest total score. Further, the cause candidate narrowing-down unit 21 extracts a symptom sentence corresponding to the selected failure information from the symptom sentence storage unit 15, and selects an answer number from the extracted symptom sentence.
[0062]
The processing of steps ST71 to ST75 is the same as the processing of steps ST30 to ST34 in FIG. 7 of the first embodiment.
[0063]
In the third embodiment, a colloquial expression developing unit 16, a corpus 17, a stochastic language model creating unit 18, and a stochastic language model storage unit 19 shown in FIG. 1 of the first embodiment are provided. Alternatively, it may correspond to the spoken expression of the user's voice.
[0064]
That is, the speech recognition unit 20 recognizes the speech based on the probabilistic language model created from the colloquial sentence converted by the spoken expression development unit 16, and the cause candidate narrowing unit 21 A colloquial sentence in the corpus 17 similar to the selected failure information may be detected, and a symptom sentence corresponding to the colloquial sentence may be detected from the symptom sentence storage means 15. Instead of detecting the spoken text in the corpus 17, a keyword related to the failure may be extracted from the selected failure information, and a symptom sentence including the keyword may be detected from the symptom sentence storage unit 15. The candidate narrowing-down unit 21 removes standard spoken expressions such as “is” and “mas” from the selected failure information without detecting spoken sentences in the corpus 17, and then responds. May be detected symptoms statement from symptoms sentence storage means 15.
[0065]
Further, in the third embodiment, the cause is narrowed down using the cause-question-answer matrix. However, even when the cause is narrowed down and specified by the tree-structured question-answer data, the reliability is improved by the same processing. It is possible to improve.
[0066]
As described above, according to the third embodiment, even when the performance of speech recognition is insufficient, it is possible to correctly process an important keyword that can discriminate each piece of failure information, and improve reliability. The effect that it can be obtained is obtained.
[0067]
In the first to third embodiments described above, it is needless to say that each means can be configured by any of hardware and software. When configured by software, the program may be a program recorded on a recording medium or a program downloaded via a communication medium.
[0068]
【The invention's effect】
As described above, according to the present invention, a symptom sentence storage unit that stores a symptom sentence that describes failure information for a question assumed when a cause of a failure exists, and the stored symptom sentence is converted into a spoken sentence. A speech recognition unit that converts the spoken language expression to be converted, a speech recognition unit that performs speech recognition on the basis of a probabilistic language model created from the spoken language sentence converted by the spoken expression development unit and converts the obstacle information by the input speech, and The system comprises: a cause candidate extracting unit that extracts a symptom sentence from the symptom sentence storage unit and narrows down the cause candidate based on the extracted symptom sentence; and a question selecting unit that selects and presents a question for narrowing down the remaining cause candidates. Thereby, it is possible to cope with the spoken expression of the user's voice, and it is possible to suppress the occurrence of a malfunction.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a failure solution support device according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing an internal configuration of a colloquial expression developing unit of the trouble solving support device according to the first embodiment of the present invention.
FIG. 3 is a flowchart showing a flow of a process of creating advance data in the failure solving support device according to the first embodiment of the present invention.
FIG. 4 is a diagram showing an example of cause-question-answer data input to the failure resolution support device according to the first embodiment of the present invention.
FIG. 5 is a diagram showing an example of a cause-question-answer matrix created by the fault solution support device according to the first embodiment of the present invention.
FIG. 6 is a diagram showing an example of a symptom sentence and original data created by the trouble solving support device according to the first embodiment of the present invention.
FIG. 7 is a flowchart showing a flow of a fault solving process in the fault solving support device according to the first embodiment of the present invention.
FIG. 8 is a block diagram showing a configuration of a failure solution support device according to a second embodiment of the present invention.
FIG. 9 is a flowchart showing a flow of an input switching process in the failure solving support device according to the second embodiment of the present invention.
FIG. 10 is a block diagram showing a configuration of a trouble solving support device according to a third embodiment of the present invention.
FIG. 11 is a flowchart showing a flow of a fault solving process in the fault solving support device according to the third embodiment of the present invention.
[Explanation of symbols]
11 data input means, 12 matrix creation means, 13 matrix storage means, 14 symptom sentence creation means, 15 symptom sentence storage means, 16 colloquial expression development means, 17 corpus, 18 stochastic language model creation means, 19 stochastic language model storage Means, 20 voice recognition means, 21 cause candidate narrowing means, 22 question selection means, 23 display means, 24 voice switching means, 25 alternative input means, 26 input switching means, 27 important keyword setting means, 31 morphological analysis means, 32 Morphological information storage means, 33 colloquial substitution means, 34 colloquial information storage means.

Claims (12)

障害情報を入力して障害の原因を推定する障害解決支援装置において、
障害の原因が存在する場合に想定される質問に対する障害情報を記述した症状文を記憶する症状文記憶手段と、
上記症状文記憶手段に記憶された症状文を口語調文章に変換する口語表現展開手段と、
入力された音声による障害情報を上記口語表現展開手段により変換された口語調文章から作成された確率的言語モデルに基づき音声認識する音声認識手段と、
上記音声認識手段による認識結果から対応する症状文を上記症状文記憶手段より抽出し、抽出した症状文に基づき原因候補を絞り込む原因候補絞込手段と、
上記原因候補絞込手段により絞り込まれた結果、残存する原因候補を絞り込むための質問を選択して提示する質問選択手段とを備えたことを特徴とする障害解決支援装置。
In a fault resolution support device that inputs fault information and estimates the cause of the fault,
Symptom statement storage means for storing a symptom statement describing failure information for a question assumed when a cause of the failure exists,
Colloquial expression expansion means for converting the symptom sentence stored in the symptom sentence storage means into a colloquial sentence,
Speech recognition means for recognizing speech based on a probabilistic language model created from the spoken language sentence converted from the obstacle information by the input speech by the spoken expression development means,
Cause candidate narrowing means for extracting a corresponding symptom sentence from the symptom sentence storage means from the recognition result by the voice recognition means and narrowing down a cause candidate based on the extracted symptom sentence,
A problem solving support device comprising: a question selecting unit that selects and presents a question for narrowing down the remaining cause candidates as a result of the narrowing down by the cause candidate narrowing down unit.
原因候補絞込手段は、音声認識手段による認識結果に類似する口語調文章を検出し、検出した口語調文章に対応する症状文を症状文記憶手段より抽出することを特徴とする請求項1記載の障害解決支援装置。2. The cause candidate narrowing means detects a spoken language sentence similar to the recognition result by the voice recognition means, and extracts a symptom sentence corresponding to the detected spoken language sentence from the symptom sentence storage means. Trouble solving support device. 原因候補絞込手段は、音声認識手段による認識結果から障害に関するキーワードを含む症状文を症状文記憶手段より抽出することを特徴とする請求項1記載の障害解決支援装置。2. The trouble solving support device according to claim 1, wherein the cause candidate narrowing means extracts a symptom sentence including a keyword relating to the obstacle from the result of recognition by the voice recognition means from the symptom sentence storage means. 原因候補絞込手段は、音声認識手段による認識結果から口語調の表現を除去して対応する症状文を症状文記憶手段より抽出することを特徴とする請求項1記載の障害解決支援装置。2. The trouble solving support apparatus according to claim 1, wherein the cause candidate narrowing-down unit removes the spoken expression from the recognition result by the voice recognition unit and extracts a corresponding symptom sentence from the symptom sentence storage unit. 障害情報を入力して障害の原因を推定する障害解決支援装置において、
障害情報を保有する顧客からの音声と、顧客からの連絡により障害情報を復唱するオペレータからの音声を切り替える音声切替手段と、
上記音声切替手段により切り替えられた音声による障害情報を音声認識する音声認識手段と、
音声以外の手段により障害情報を入力する代替入力手段と、
上記音声認識手段の認識結果と、上記代替入力手段からの障害情報を切り替える入力切替手段と、
障害の原因が存在する場合に想定される質問に対する障害情報を記述した症状文を記憶する症状文記憶手段と、
上記入力切替手段により切り替えられた認識結果又は障害情報から対応する症状文を上記症状文記憶手段より抽出し、抽出した症状文に基づき原因候補を絞り込む原因候補絞込手段と、
上記原因候補絞込手段により絞り込まれた結果、残存する原因候補を絞り込むための質問を選択して提示する質問選択手段とを備えたことを特徴とする障害解決支援装置。
In a fault resolution support device that inputs fault information and estimates the cause of the fault,
Voice switching means for switching between a voice from a customer holding the failure information and a voice from an operator who repeats the failure information by contact from the customer;
Voice recognition means for voice recognition of the fault information by voice switched by the voice switching means,
An alternative input means for inputting fault information by means other than voice;
A recognition result of the voice recognition means, and input switching means for switching failure information from the alternative input means,
Symptom statement storage means for storing a symptom statement describing failure information for a question assumed when a cause of the failure exists,
Extracting the corresponding symptom sentence from the symptom sentence storage means from the recognition result or the failure information switched by the input switching means, and narrowing down the cause candidate based on the extracted symptom sentence,
A problem solving support device comprising: a question selecting unit that selects and presents a question for narrowing down the remaining cause candidates as a result of the narrowing down by the cause candidate narrowing down unit.
症状文記憶手段に記憶された症状文を口語調文章に変換する口語表現展開手段を備え、
音声認識手段は入力された音声による障害情報を上記口語表現展開手段により変換された口語調文章から作成された確率的言語モデルに基づき音声認識し、
原因候補絞込手段は、上記音声認識手段による認識結果に類似する口語調文章を検出し、検出した口語調文章に対応する症状文を症状文記憶手段より抽出することを特徴とする請求項5記載の障害解決支援装置。
A colloquial expression developing means for converting the symptom sentence stored in the symptom sentence storage means into a colloquial sentence,
The speech recognition means performs speech recognition based on the probabilistic language model created from the spoken language sentence converted by the spoken expression development means, and outputs the obstacle information by the input speech,
6. The method according to claim 5, wherein the cause candidate narrowing-down unit detects a colloquial sentence similar to the recognition result by the voice recognition unit, and extracts a symptom sentence corresponding to the detected colloquial sentence from the symptom sentence storage unit. The trouble solving support device according to the above.
症状文記憶手段に記憶された症状文を口語調文章に変換する口語表現展開手段を備え、
音声認識手段は入力された音声による障害情報を上記口語表現展開手段により変換された口語調文章から作成された確率的言語モデルに基づき音声認識し、
原因候補絞込手段は、上記音声認識手段による認識結果から障害に関するキーワードを含む症状文を症状文記憶手段より抽出することを特徴とする請求項5記載の障害解決支援装置。
A colloquial expression developing means for converting the symptom sentence stored in the symptom sentence storage means into a colloquial sentence,
The speech recognition means performs speech recognition based on the probabilistic language model created from the spoken language sentence converted by the spoken expression development means, and outputs the obstacle information by the input speech,
6. The trouble solving support apparatus according to claim 5, wherein the cause candidate narrowing means extracts a symptom sentence including a keyword relating to the obstacle from the result of recognition by the voice recognition means from the symptom sentence storage means.
症状文記憶手段に記憶された症状文を口語調文章に変換する口語表現展開手段を備え、
音声認識手段は入力された音声による障害情報を上記口語表現展開手段により変換された口語調文章から作成された確率的言語モデルに基づき音声認識し、
原因候補絞込手段は、上記音声認識手段による認識結果から口語調の表現を除去して対応する症状文を症状文記憶手段より抽出することを特徴とする請求項5記載の障害解決支援装置。
A colloquial expression developing means for converting the symptom sentence stored in the symptom sentence storage means into a colloquial sentence,
The speech recognition means performs speech recognition based on the probabilistic language model created from the spoken language sentence converted by the spoken expression development means, and outputs the obstacle information by the input speech,
6. The trouble solving support apparatus according to claim 5, wherein the cause candidate narrowing-down unit removes the spoken expression from the recognition result by the voice recognition unit and extracts a corresponding symptom sentence from the symptom sentence storage unit.
障害情報を入力して障害の原因を推定する障害解決支援装置において、
障害の原因が存在する場合に想定される質問に対する障害情報を記述した症状文を記憶する症状文記憶手段と、
入力された音声による障害情報を音声認識する音声認識手段と、
上記音声認識手段による認識結果から対応する症状文を上記症状文記憶手段より抽出し、抽出した症状文に基づき原因候補を絞り込む原因候補絞込手段と、
上記原因候補絞込手段により絞り込まれた結果、残存する原因候補を絞り込むための質問を選択して提示する質問選択手段と、
上記質問選択手段により選択された質問に対して想定される各障害情報を特徴付ける重要キーワードを設定する重要キーワード設定手段とを備え、
上記原因候補絞込手段が、上記音声認識手段による認識結果から、上記重要キーワード設定手段により設定された重要キーワードを検索して障害情報を選択し、対応する症状文を抽出することを特徴とする障害解決支援装置。
In a fault resolution support device that inputs fault information and estimates the cause of the fault,
Symptom statement storage means for storing a symptom statement describing failure information for a question assumed when a cause of the failure exists,
Voice recognition means for voice-recognizing the failure information by the input voice;
Cause candidate narrowing means for extracting a corresponding symptom sentence from the symptom sentence storage means from the recognition result by the voice recognition means and narrowing down a cause candidate based on the extracted symptom sentence,
Question selection means for selecting and presenting a question for narrowing down the remaining cause candidates as a result of being narrowed down by the cause candidate narrowing down means,
Important keyword setting means for setting an important keyword that characterizes each failure information assumed for the question selected by the question selecting means,
The cause candidate narrowing means searches the important keyword set by the important keyword setting means from the recognition result by the voice recognition means, selects fault information, and extracts a corresponding symptom sentence. Failure resolution support device.
症状文記憶手段に記憶された症状文を口語調文章に変換する口語表現展開手段を備え、
音声認識手段は入力された音声による障害情報を上記口語表現展開手段により変換された口語調文章から作成された確率的言語モデルに基づき音声認識し、
原因候補絞込手段は、選択した障害情報に類似する口語調文章を検出し、検出した口語調文章に対応する症状文を症状文記憶手段より抽出することを特徴とする請求項9記載の障害解決支援装置。
A colloquial expression developing means for converting the symptom sentence stored in the symptom sentence storage means into a colloquial sentence,
The speech recognition means performs speech recognition based on the probabilistic language model created from the spoken language sentence converted by the spoken expression development means, and outputs the obstacle information by the input speech,
10. The failure candidate according to claim 9, wherein the cause candidate narrowing-down unit detects a spoken language sentence similar to the selected failure information, and extracts a symptom sentence corresponding to the detected spoken language sentence from the symptom sentence storage unit. Solution support device.
症状文記憶手段に記憶された症状文を口語調文章に変換する口語表現展開手段を備え、
音声認識手段は入力された音声による障害情報を上記口語表現展開手段により変換された口語調文章から作成された確率的言語モデルに基づき音声認識し、
原因候補絞込手段は、選択した障害情報から障害に関するキーワードを含む症状文を症状文記憶手段より抽出することを特徴とする請求項9記載の障害解決支援装置。
A colloquial expression developing means for converting the symptom sentence stored in the symptom sentence storage means into a colloquial sentence,
The speech recognition means performs speech recognition based on the probabilistic language model created from the spoken language sentence converted by the spoken expression development means, and outputs the obstacle information by the input speech,
10. The trouble solving support device according to claim 9, wherein the cause candidate narrowing means extracts a symptom sentence including a keyword relating to the fault from the selected fault information from the symptom sentence storage means.
症状文記憶手段に記憶された症状文を口語調文章に変換する口語表現展開手段を備え、
音声認識手段は入力された音声による障害情報を上記口語表現展開手段により変換された口語調文章から作成された確率的言語モデルに基づき音声認識し、
原因候補絞込手段は、選択した障害情報から口語調の表現を除去して対応する症状文を症状文記憶手段より抽出することを特徴とする請求項9記載の障害解決支援装置。
A colloquial expression developing means for converting the symptom sentence stored in the symptom sentence storage means into a colloquial sentence,
The speech recognition means performs speech recognition based on the probabilistic language model created from the spoken language sentence converted by the spoken expression development means, and outputs the obstacle information by the input speech,
10. The trouble solving support device according to claim 9, wherein the cause candidate narrowing down means removes the spoken expression from the selected trouble information and extracts a corresponding symptom sentence from the symptom sentence storage means.
JP2003106882A 2003-04-10 2003-04-10 Failure resolution support device Pending JP2004310692A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003106882A JP2004310692A (en) 2003-04-10 2003-04-10 Failure resolution support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003106882A JP2004310692A (en) 2003-04-10 2003-04-10 Failure resolution support device

Publications (1)

Publication Number Publication Date
JP2004310692A true JP2004310692A (en) 2004-11-04

Family

ID=33468933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003106882A Pending JP2004310692A (en) 2003-04-10 2003-04-10 Failure resolution support device

Country Status (1)

Country Link
JP (1) JP2004310692A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272123A (en) * 2006-03-31 2007-10-18 Toyota Central Res & Dev Lab Inc Voice operation system
JP2008293275A (en) * 2007-05-24 2008-12-04 Toshiba Corp Priority question output unit and program
JP2009505139A (en) * 2005-08-09 2009-02-05 モバイル・ヴォイス・コントロール・エルエルシー Voice-controlled wireless communication device / system
JP2010287224A (en) * 2009-06-12 2010-12-24 Internatl Business Mach Corp <Ibm> Method and program for controlling operation of query tree
WO2012039122A1 (en) * 2010-09-22 2012-03-29 日本電気株式会社 Customer service analysis system, customer service analysis method and customer service analysis program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009505139A (en) * 2005-08-09 2009-02-05 モバイル・ヴォイス・コントロール・エルエルシー Voice-controlled wireless communication device / system
JP2007272123A (en) * 2006-03-31 2007-10-18 Toyota Central Res & Dev Lab Inc Voice operation system
JP2008293275A (en) * 2007-05-24 2008-12-04 Toshiba Corp Priority question output unit and program
JP2010287224A (en) * 2009-06-12 2010-12-24 Internatl Business Mach Corp <Ibm> Method and program for controlling operation of query tree
WO2012039122A1 (en) * 2010-09-22 2012-03-29 日本電気株式会社 Customer service analysis system, customer service analysis method and customer service analysis program

Similar Documents

Publication Publication Date Title
JP5330450B2 (en) Topic-specific models for text formatting and speech recognition
JP3429184B2 (en) Text structure analyzer, abstracter, and program recording medium
JP4849663B2 (en) Conversation control device
JP4791984B2 (en) Apparatus, method and program for processing input voice
US7937262B2 (en) Method, apparatus, and computer program product for machine translation
CN103730115B (en) A kind of method and apparatus detecting keyword in voice
JP5141687B2 (en) Collation rule learning system for speech recognition, collation rule learning program for speech recognition, and collation rule learning method for speech recognition
JP5703491B2 (en) Language model / speech recognition dictionary creation device and information processing device using language model / speech recognition dictionary created thereby
JP5561123B2 (en) Voice search device and voice search method
JP2000200273A (en) Speaking intention recognizing device
KR20070053015A (en) Apparatus and method for constructing language model
KR20060070605A (en) Using domain dialogue model and language model in intelligent robot speech recognition service device and method
JP2004310692A (en) Failure resolution support device
JP5099367B2 (en) Request content identification system, request content identification method and program in natural language
Ruland et al. Making the most of multiplicity: a multi-parser multi-strategy architecture for the robust processing of spoken language.
JP5004863B2 (en) Voice search apparatus and voice search method
JP3993319B2 (en) Interpreting device and recording medium storing program for exerting functions of interpreting device
JP2000056795A (en) Speech recognition device
Shen et al. A CART based hierarchical stochastic model for prosodic phrasing in Chinese
JP2007086404A (en) Speech synthesizer
JPH09134191A (en) Voice recognition device
JP2966002B2 (en) Voice recognition device
JP4643183B2 (en) Translation apparatus and translation program
JP3009654B1 (en) Machine translation processor
WO2023243273A1 (en) Utterance data generation device, interaction device, and method for creating generation model