JPWO2016067418A1 - 対話制御装置および対話制御方法 - Google Patents
対話制御装置および対話制御方法 Download PDFInfo
- Publication number
- JPWO2016067418A1 JPWO2016067418A1 JP2016556127A JP2016556127A JPWO2016067418A1 JP WO2016067418 A1 JPWO2016067418 A1 JP WO2016067418A1 JP 2016556127 A JP2016556127 A JP 2016556127A JP 2016556127 A JP2016556127 A JP 2016556127A JP WO2016067418 A1 JPWO2016067418 A1 JP WO2016067418A1
- Authority
- JP
- Japan
- Prior art keywords
- intention
- word
- user
- intention estimation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 59
- 230000004044 response Effects 0.000 claims abstract description 117
- 238000000605 extraction Methods 0.000 claims abstract description 75
- 230000000877 morphologic effect Effects 0.000 claims abstract description 24
- 239000000284 extract Substances 0.000 claims abstract description 21
- 238000004519 manufacturing process Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 43
- 230000008859 change Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000013500 data storage Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 239000002245 particle Substances 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 2
- OCJYIGYOJCODJL-UHFFFAOYSA-N Meclizine Chemical compound CC1=CC=CC(CN2CCN(CC2)C(C=2C=CC=CC=2)C=2C=CC(Cl)=CC=2)=C1 OCJYIGYOJCODJL-UHFFFAOYSA-N 0.000 description 1
- 235000005135 Micromeria juliana Nutrition 0.000 description 1
- 241000246354 Satureja Species 0.000 description 1
- 235000007315 Satureja hortensis Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
使用者が自然言語により入力したテキストを解析する形態素解析部105と、単語と、当該単語から推定される使用者の意図とを対応付けて記憶した意図推定モデルを参照し、形態素解析部105のテキスト解析結果から使用者の意図を推定する意図推定処理部107と、意図推定処理部107において使用者の意図を一意に特定できない場合に、テキスト解析結果から意図推定モデルに記憶されていない単語を未知語として抽出する未知語抽出部108と、未知語抽出部108が抽出した未知語を含む応答文を生成する応答文生成部110とを備える。
Description
この発明は、例えば使用者による音声入力やキーボード入力などにより入力されたテキストを認識し、認識した結果に基づき使用者の意図を推定し、使用者の意図する操作を実行するための対話を行う対話制御装置および対話制御方法に関するものである。
近年、機器の操作を行うために、例えば人間が喋った音声を入力とし、入力された音声の認識結果を用いて、操作を実行する音声認識装置が用いられている。当該音声認識装置において、従来はあらかじめシステムが想定した音声認識結果と操作を対応付けておき、音声認識結果が想定したものと一致する場合に、操作を実行するものであった。そのため使用者は操作を実行するためにシステムが待ち受けている言い回しを憶えておく必要があった。
使用者が目的を達成するための言い回しを憶えていなくても、自由な発話で音声認識装置を使用可能とする技術として、使用者の発話の意図を推定し、対話によって装置が誘導して目的の達成に導く方法が開示されている。この方法の場合、使用者の多様な言い回しに対応するためには、音声認識辞書の学習に多様な文例を使用するとともに、発話の意図を推定する意図推定技術で用いられる意図推定辞書も多様な文例を用いて学習することが必要である。
しかしながら、音声認識辞書で用いる言語モデルは自動的に収集できるため、文例を増やすことは比較的容易であるが、意図推定辞書は学習データの作成時に、正解を人手で付与する必要があり、音声認識辞書に比べ作成に手間がかかるという問題があった。さらに、使用者は新語や俗語を用いることもあり、語彙数は時間とともに増加するが、そのような多様な語彙に意図推定辞書を対応させるとコストがかかるという問題があった。
上記の問題に対し、例えば特許文献1には、一つの文例に対し受理可能な語彙を増やすための同義語辞書を用いた音声入力対応装置が開示されている。同義語辞書を使うことにより、正しい音声認識結果が得られれば、正しい音声認識結果の中で同義語辞書に含まれる語を代表語に置換することができ、意図推定辞書を、代表語を用いた文例だけで学習した場合にも多様な語彙に対応することができる。
しかしながら、上述した特許文献1の技術では、同義語辞書の更新には人手によるチェックを必要とし、全ての語彙をカバーすることは容易ではなく、使用者が同義語辞書にない語を使用した場合に、使用者の意図を正しく推定することができない場合が発生するという課題があった。さらに、使用者の意図を正しく推定できない場合、システムの応答が使用者の意図したものと異なるが、当該意図したものと異なる原因を使用者にフィードバクしないため、使用者は原因が分からず、同義語辞書にない語を使い続け、対話に失敗する、対話が冗長になるという課題があった。
この発明は、上記のような課題を解決するためになされたもので、対話制御装置が認識できない語彙を使用者が使用した場合に、当該語彙が使用できないことを使用者にフィードバックし、使用者にどのように入力し直すべきかを認識させる応答を行うことを目的とする。
この発明に係る対話制御装置は、使用者が自然言語により入力したテキストを解析するテキスト解析部と、単語と、当該単語から推定される使用者の意図とを対応付けて記憶した意図推定モデルを参照し、テキスト解析部のテキスト解析結果から使用者の意図を推定する意図推定処理部と、意図推定処理部において使用者の意図を一意に特定できない場合に、テキスト解析結果から意図推定モデルに記憶されていない単語を未知語として抽出する未知語抽出部と、未知語抽出部が抽出した未知語を含む応答文を生成する応答文生成部とを備えるものである。
この発明によれば、使用者はどの語彙を入力し直すべきか容易に認識することができ、対話制御装置との対話を円滑に進めることができる。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る対話制御装置100の構成を示すブロック図である。
実施の形態1の対話制御装置100は、音声入力部101、音声認識辞書記憶部102、音声認識部103、形態素解析辞書記憶部104、形態素解析部(テキスト解析部)105、意図推定モデル記憶部106、意図推定処理部107、未知語抽出部108、対話シナリオデータ記憶部109、応答文生成部110、音声合成部111および音声出力部112を備えている。
以下では、対話制御装置100をカーナビゲーションシステムに適用した場合を例に説明するが、適用対象はナビゲーションシステムに限定されるものではなく、適宜変更可能である。また、使用者が音声入力により対話制御装置100と対話する場合を例に説明を行が、対話制御装置100との対話方法は音声入力に限定されるものではない。
実施の形態1.
図1は、実施の形態1に係る対話制御装置100の構成を示すブロック図である。
実施の形態1の対話制御装置100は、音声入力部101、音声認識辞書記憶部102、音声認識部103、形態素解析辞書記憶部104、形態素解析部(テキスト解析部)105、意図推定モデル記憶部106、意図推定処理部107、未知語抽出部108、対話シナリオデータ記憶部109、応答文生成部110、音声合成部111および音声出力部112を備えている。
以下では、対話制御装置100をカーナビゲーションシステムに適用した場合を例に説明するが、適用対象はナビゲーションシステムに限定されるものではなく、適宜変更可能である。また、使用者が音声入力により対話制御装置100と対話する場合を例に説明を行が、対話制御装置100との対話方法は音声入力に限定されるものではない。
音声入力部101は、対話制御装置100への音声入力を受け付ける。音声認識辞書記憶部102は、音声認識を行うための音声認識辞書を格納する領域である。音声認識部103は、音声入力部101に入力された音声データに対して、音声認識辞書記憶部102に格納された音声認識辞書を参照して音声認識を行い、テキストに変換する。形態素解析辞書記憶部104は、形態素解析を行うための形態素解析辞書を格納する領域である。形態素解析部105は、音声認識により得られたテキストを形態素に分割する。意図推定モデル記憶部106は、形態素に基づいて使用者の意図(以下、意図と称する)を推定するための意図推定モデルを格納する領域である。意図推定処理部107は、形態素解析部105が解析した形態素解析結果を入力とし、意図推定モデルを参照して意図を推定する。推定結果は、推定した意図と当該意図の尤もらしさを表すスコアの組を示したリストとして出力される。
ここで、意図推定処理部107の詳細について説明する。
意図推定処理部107が推定する意図とは、例えば「<主意図>[{<スロット名>=<スロット値>},…]」のような形で表現される。例としては、「目的地設定[{施設=<施設名>}]」、「ルート変更[{条件=一般道優先}]」のように表現できる。「目的地設定[{施設=<施設名>}]」は<施設名>に具体的な施設の名前が入る。例えば<施設名>=スカイツリーならば、スカイツリーを目的地に設定したいという意図を示し、「ルート変更[{条件=一般道優先}]」ならばルート探索条件を一般道優先にしたいという意図を示す。
また、スロット値が「NULL」の場合は、スロット値が不明な意図を示す。例えば、「ルート変更[{条件=NULL}]」という意図は、ルート探索条件を設定したいが条件は不明という意図を示す。
意図推定処理部107が推定する意図とは、例えば「<主意図>[{<スロット名>=<スロット値>},…]」のような形で表現される。例としては、「目的地設定[{施設=<施設名>}]」、「ルート変更[{条件=一般道優先}]」のように表現できる。「目的地設定[{施設=<施設名>}]」は<施設名>に具体的な施設の名前が入る。例えば<施設名>=スカイツリーならば、スカイツリーを目的地に設定したいという意図を示し、「ルート変更[{条件=一般道優先}]」ならばルート探索条件を一般道優先にしたいという意図を示す。
また、スロット値が「NULL」の場合は、スロット値が不明な意図を示す。例えば、「ルート変更[{条件=NULL}]」という意図は、ルート探索条件を設定したいが条件は不明という意図を示す。
意図推定処理部107における意図推定方式としては、例えば最大エントロピー法などが適用可能である。具体的には、「ルートを一般道優先に変更して」という発話に対して、形態素解析結果から「ルート、一般道、優先、変更」という自立語単語(以下、素性と称する)を抽出したものと、正解意図「ルート変更[{条件=一般道優先}]」の組を与えておき、大量に収集した素性と意図との組から統計的手法によって入力された素性のリストに対して、どの意図がどれだけ尤もらしいかを推定する方法が利用できる。以下では最大エントロピー法を利用した意図推定を行うものとして説明する。
未知語抽出部108は、形態素解析部105が抽出した素性のうち、意図推定モデル記憶部106の意図推定モデルに記憶されていない素性を抽出する。以下では、意図推定モデルに含まれない素性を未知語と呼ぶ。対話シナリオデータ記憶部109は、意図推定処理部107が推定した意図に対応して次に何を実行すべきかを記述した対話シナリオデータを格納する領域である。応答文生成部110は、意図推定処理部107で推定した意図と、未知語抽出部108で未知語が抽出された場合には当該未知語とを入力として、対話シナリオデータ記憶部109に格納された対話シナリオデータを用いて応答文を生成する。音声合成部111は、応答文生成部110が生成した応答文を入力として、合成音声を生成する。音声出力部112は、音声合成部111が生成した合成音声を出力する。
次に、実施の形態1に係る対話制御装置100の動作について説明する。
図2は、実施の形態1に係る対話制御装置100と使用者との対話の一例を示す図である。
まず、行頭の「U:」は使用者の発話を表し、「S:」は対話制御装置100からの応答を表している。応答201、応答203、応答205は対話制御装置100からの出力、発話202、発話204は使用者の発話であり、順番に対話が進んでいることを示している。
図2は、実施の形態1に係る対話制御装置100と使用者との対話の一例を示す図である。
まず、行頭の「U:」は使用者の発話を表し、「S:」は対話制御装置100からの応答を表している。応答201、応答203、応答205は対話制御装置100からの出力、発話202、発話204は使用者の発話であり、順番に対話が進んでいることを示している。
図2の対話例に基づいて、図3から図8を参照しながら対話制御装置100の応答文生成の処理動作について説明する。
図3は、実施の形態1に係る対話制御装置100の動作を示すフローチャートである。 図4は、実施の形態1に係る対話制御装置100の形態素解析部105の形態素解析結果である素性リストの一例を示す図である。図4の例では、素性401から素性404で構成されている。
図5は、実施の形態1に係る対話制御装置100の意図推定処理部107の意図推定結果の一例を示す図である。意図推定結果501は意図推定スコアの順位が1位の意図推定結果を意図推定スコアと共に示し、意図推定結果502は意図推定スコアの順位が2位の意図推定結果を意図推定スコアと共に示している。
図3は、実施の形態1に係る対話制御装置100の動作を示すフローチャートである。 図4は、実施の形態1に係る対話制御装置100の形態素解析部105の形態素解析結果である素性リストの一例を示す図である。図4の例では、素性401から素性404で構成されている。
図5は、実施の形態1に係る対話制御装置100の意図推定処理部107の意図推定結果の一例を示す図である。意図推定結果501は意図推定スコアの順位が1位の意図推定結果を意図推定スコアと共に示し、意図推定結果502は意図推定スコアの順位が2位の意図推定結果を意図推定スコアと共に示している。
図6は、実施の形態1に係る対話制御装置100の未知語抽出部108の動作を示すフローチャートである。
図7は、実施の形態1に係る対話制御装置100の未知語抽出部108が抽出する未知語候補リストの一例を示す図である。図7の例では、未知語候補701および未知語候補702で構成されている。
図8は、実施の形態1に係る対話制御装置100の対話シナリオデータ記憶部109が格納する対話シナリオデータの一例を示す図である。図8(a)の意図用対話シナリオデータは、意図推定結果に対して対話制御装置100が行う応答が記述されていると共に、対話制御装置100が制御する機器(不図示)に対して実行するコマンドが記述されている。また、図8(b)の未知語用対話シナリオデータは、未知語に対して対話制御装置100が行う応答が記述されている。
図7は、実施の形態1に係る対話制御装置100の未知語抽出部108が抽出する未知語候補リストの一例を示す図である。図7の例では、未知語候補701および未知語候補702で構成されている。
図8は、実施の形態1に係る対話制御装置100の対話シナリオデータ記憶部109が格納する対話シナリオデータの一例を示す図である。図8(a)の意図用対話シナリオデータは、意図推定結果に対して対話制御装置100が行う応答が記述されていると共に、対話制御装置100が制御する機器(不図示)に対して実行するコマンドが記述されている。また、図8(b)の未知語用対話シナリオデータは、未知語に対して対話制御装置100が行う応答が記述されている。
まず、図3のフローチャートに沿って説明を行う。使用者が対話制御装置100に設けられた発話開始ボタン(不図示)などを押すと、対話制御装置100が対話開始を促す応答およびビープ音を出力する。図2の例において、使用者が発話開始ボタンを押すと、対話制御装置100は応答201「ピッと鳴ったらお話ください」を音声出力し、ビープ音を出力する。これらの出力の後、音声認識部103が認識可能状態となり、図3のフローチャートのステップST301の処理に移行する。なお、音声出力後のビープ音は適宜変更可能である。
音声入力部101が音声の入力を受け付ける(ステップST301)。図2の例において、使用者が検索条件を一般道優先としてルートを検索したいと考え、発話202「さくっと、ルートを下道に設定して」と発話した場合、音声入力部101はステップST301として当該発話の音声入力を受け付ける。音声認識部103は音声認識辞書記憶部102に格納された音声認識辞書を参照して、ステップST301で受け付けた音声入力の音声認識を行ってテキストに変換する(ステップST302)。
形態素解析部105は、形態素解析辞書記憶部104に格納された形態素解析辞書を参照して、ステップST302でテキストに変換された音声認識結果の形態素解析を行う(ステップST303)。図2の例において、発話202の音声認識結果「さくっと、ルートを下道に設定して」に対して、形態素改正部105はステップST303として「さくっと/副詞、ルート/名詞、を/助詞、下道/名詞、に/助詞、設定/名詞(サ変接続)、し/動詞、て/助詞」のように形態素解析を行う。
次に、意図推定処理部107は、ステップST303で得られた形態素解析結果から意図推定処理に用いる素性を抽出し(ステップST304)、意図推定モデル記憶部106に格納された意図推定モデルを用いてステップST304で抽出した素性から意図を推定する意図推定処理を実行する(ステップST305)。
図2の例において、形態素解析結果「さくっと/副詞、ルート/名詞、を/助詞、下道/名詞、に/助詞、設定/名詞(サ変接続)、し/動詞、て/助詞」に対して、意図推定処理部107はステップST304として素性を抽出して、例えば図4に示す素性リストとしてまとめる。図4の素性リストは、素性401「さくっと/副詞」、素性402「ルート/名詞」、素性403「下道/名詞」および素性404「設定/名詞(サ変接続)」で構成されている。
図2の例において、形態素解析結果「さくっと/副詞、ルート/名詞、を/助詞、下道/名詞、に/助詞、設定/名詞(サ変接続)、し/動詞、て/助詞」に対して、意図推定処理部107はステップST304として素性を抽出して、例えば図4に示す素性リストとしてまとめる。図4の素性リストは、素性401「さくっと/副詞」、素性402「ルート/名詞」、素性403「下道/名詞」および素性404「設定/名詞(サ変接続)」で構成されている。
図4で示した素性リストに対して、意図推定処理部107はステップST305として意図推定処理を行い、例えば意図推定モデルに「さくっと/副詞」および「下道/名詞」という素性が存在しないとすると、意図推定処理は「ルート/名詞」および「設定/名詞(サ変接続)」という素性に基づいて実行され、図5に示す意図推定結果リストが得られる。意図推定結果リストは、順位、意図推定結果および意図推定スコアで構成され、順位「1」で示した意図推定結果「ルート変更[{条件=NULL}]」は意図推定スコア0.583であることを示している。また、順位「2」で示した意図推定結果「ルート変更[{条件=一般道優先}]」は意図推定スコア0.177であることを示している。なお、図5では図示を省略したが、順位「1」、順位「2」以降の意図推定結果および意図推定スコアも設定される。
意図推定処理部107は、ステップST305で得られた意図推定結果リストに基づいて、使用者の意図を一意に特定できたか否か判定を行う(ステップST306)。ステップST306の判定処理は、例えば次の二つの条件(a),(b)をともに満たす場合に、使用者の意図を一意に特定できたと判定する。
条件(a):順位1位の意図推定結果の意図推定スコアが0.5以上
条件(b):順位1位の意図推定結果のスロット値がNULLでない
条件(a)および条件(b)をともに満たす、すなわち使用者の意図を一意に特定できた場合(ステップST306;YES)、ステップST308の処理に進む。この場合、意図推定処理部107は、意図推定結果リストを応答文生成部110に出力する。
条件(a):順位1位の意図推定結果の意図推定スコアが0.5以上
条件(b):順位1位の意図推定結果のスロット値がNULLでない
条件(a)および条件(b)をともに満たす、すなわち使用者の意図を一意に特定できた場合(ステップST306;YES)、ステップST308の処理に進む。この場合、意図推定処理部107は、意図推定結果リストを応答文生成部110に出力する。
一方、条件(a)および条件(b)の少なくとも一方を満たさない、すなわち使用者の意図を一意に特定できない場合(ステップST306;NO)、ステップST307の処理に進む。この場合、意図推定処理部107は、意図推定結果リストおよび素性リストを未知語抽出部108に出力する。
図5で示した意図推定結果の場合、順位「1」の意図推定スコアが「0.583」で条件(a)を満たすが、スロット値がNULLであり条件(b)を満たさない。そのため、意図推定処理部107はステップST306の判定処理において、使用者の意図を一意に特定できないと判定し、ステップST307の処理に進む。
図5で示した意図推定結果の場合、順位「1」の意図推定スコアが「0.583」で条件(a)を満たすが、スロット値がNULLであり条件(b)を満たさない。そのため、意図推定処理部107はステップST306の判定処理において、使用者の意図を一意に特定できないと判定し、ステップST307の処理に進む。
ステップST307の処理では、未知語抽出部108が意図推定処理部107から入力された素性リストに基づいて未知語を抽出する処理を行う。ステップST307の未知語抽出処理について、図6のフローチャートを参照しながら詳細に説明を行う。
未知語抽出部108は、入力された素性リストから、意図推定モデル記憶部106に格納された意図推定モデルに記載のない素性を未知語候補として抽出し、未知語候補リストに追加する(ステップST601)。
図4で示した素性リストの場合、素性401「さくっと/副詞」、および素性403「下道/名詞」が未知語候補として抽出され、図7で示した未知語候補リストに追加される。
未知語抽出部108は、入力された素性リストから、意図推定モデル記憶部106に格納された意図推定モデルに記載のない素性を未知語候補として抽出し、未知語候補リストに追加する(ステップST601)。
図4で示した素性リストの場合、素性401「さくっと/副詞」、および素性403「下道/名詞」が未知語候補として抽出され、図7で示した未知語候補リストに追加される。
次に、未知語抽出部108は、ステップST601において1つ以上の未知語候補が抽出されたか否か判定を行う(ステップST602)。未知語候補が抽出されていない場合(ステップST602;NO)、未知語抽出処理を終了してステップST308の処理に進む。この場合、未知語抽出部108は意図推定結果リストを応答文生成部110に出力する。
一方、未知語候補が1つ以上抽出された場合(ステップST602;YES)、未知語抽出部108は、未知語候補リストに記載された未知語候補のうち、品詞が動詞、名詞、形容詞以外のものを未知語候補から削除して未知語リストとし(ステップST603)、ステップST308の処理に進む。この場合、未知語抽出部108は、意図推定結果リストおよび未知語リストを応答文生成部110に出力する。
図7で示した未知語候補リストの場合、未知語候補の数が2であるためステップST602でYESと判定されてステップST603の処理進み、当該ステップST603において品詞が副詞である未知語候補701「さくっと/副詞」が削除され、未知語リストには未知語候補702「下道/名詞」のみが記載される。
図7で示した未知語候補リストの場合、未知語候補の数が2であるためステップST602でYESと判定されてステップST603の処理進み、当該ステップST603において品詞が副詞である未知語候補701「さくっと/副詞」が削除され、未知語リストには未知語候補702「下道/名詞」のみが記載される。
図3のフローチャートに戻り、動作の説明を続ける。
応答文生成部110は、未知語抽出部108により未知語リストが入力されたか否か判定を行う(ステップST308)。未知語リストが入力されていない場合(ステップST308;NO)、応答文生成部110は、対話シナリオデータ記憶部109に格納された対話シナリオデータを用いて、意図推定結果に対応した応答テンプレートを読み出し、応答文を生成する(ステップST309)。また、対話シナリオデータにコマンドが設定されている場合には、ステップST309において対応するコマンドを実行する。
応答文生成部110は、未知語抽出部108により未知語リストが入力されたか否か判定を行う(ステップST308)。未知語リストが入力されていない場合(ステップST308;NO)、応答文生成部110は、対話シナリオデータ記憶部109に格納された対話シナリオデータを用いて、意図推定結果に対応した応答テンプレートを読み出し、応答文を生成する(ステップST309)。また、対話シナリオデータにコマンドが設定されている場合には、ステップST309において対応するコマンドを実行する。
未知語リストが入力されている場合(ステップST308;YES)、応答文生成部110は、対話シナリオデータ記憶部109に格納された対話シナリオデータを用いて、意図推定結果に対応した応答テンプレートを読み出し、未知語リストが示す未知語に対応した応答テンプレートを読み出し、応答文を生成する(ステップST310)。応答文の作成では未知語リストに対応する応答文を意図推定結果に対応する応答文の前に挿入する。また、対話シナリオデータにコマンドが設定されている場合には、ステップST310において対応するコマンドを実行する。
上述した例では、ステップST603において未知語「下道/名詞」が記載された未知語リストが生成されたことから、応答文生成部110は、ステップST308において未知語リストが入力されたと判定し、ステップST310として意図推定結果および未知語に対応した応答文を生成する。具体的には、図5で示した意図推定結果リストの例において、順位1の意図推定結果「ルート変更[{条件=NULL}]」に対応した応答テンプレートとして、図8(a)の意図用対話シナリオデータのテンプレート801が読み出され、応答文『ルートを検索します。検索条件をお話ください。』が生成される。次に、応答文生成部110は、図8(b)で示した未知語用対話シナリオデータのテンプレート802の<未知語>を実際の未知語リストの値に置換して応答文を生成する。上述した例では入力された未知語が「下道」であることから、生成される応答文は『「下道」は知らない単語です』となる。最後に、未知語リストに対応する応答文を、意図推定結果に対応する応答文の前に挿入して『「下道」は知らない単語です。ルートを検索します。検索条件をお話しください。』が生成される。
音声合成部111はステップST309またはステップST310で生成された応答文から音声データを生成し、音声出力部112へ出力する(ステップST311)。音声出力部112は、ステップST311で入力された音声データを音声として出力する(ステップST312)。以上で一つの使用者の発話に対する応答文を生成する処理は終了する。その後フローチャートはステップST301の処理に戻り、使用者の音声入力が行われるのを待機する。
上述した例では、図2に示した応答203である『「下道」は知らない単語です。ルートを検索します。検索条件をお話しください。』が音声出力される。
上述した例では、図2に示した応答203である『「下道」は知らない単語です。ルートを検索します。検索条件をお話しください。』が音声出力される。
使用者は、応答203が音声出力されることにより、「下道」と異なる表現で発話すれば良いと気が付くことができる。例えば、使用者は図2の発話204「さくっとルートを一般道に設定して」のように言い直すことができ、対話制御装置100との対話を進めることができる。
使用者が上述した発話204を行うと、対話制御装置100は当該発話204に対して再度図3および図6のフローチャートで示した音声認識処理を実行する。その結果、ステップST304で得られる素性リストは、抽出された4つの素性「さくっと/副詞」、「ルート/名詞」、「一般道/名詞」および「設定/名詞(サ変接続)」で構成される。この素性リストにおいて、未知語は「さくっと」のみである。次に、ステップST305では順位「1」の意図推定結果「{条件=一般道優先}]」が意図推定スコア0.822で得られる。
次に、ステップST306の判定処理において、順位「1」の意図推定結果の意図推定スコアが「0.822」で条件(a)を満たし、且つスロット値がNULLでなく条件(b)を満たすことから、使用者の意図を一意に特定できたと判定し、ステップST308の処理に進む。ステップST308では、未知語リストは入力されていないと判定され、ステップST309において「ルート変更[{条件=一般道優先}]」に対応した応答テンプレートとして、図8(a)の意図用対話シナリオデータのテンプレート803が読み出され、応答文『一般道優先でルートを検索します。』が生成され、一般道優先でルートを検索するコマンドである「Set(ルートタイプ、一般道優先)」が実行される。次に、ステップST311において応答文から音声データを生成し、ステップST312において音声データを音声出力する。このように、対話制御装置100との円滑な対話により、使用者の当初の意図「検索条件を一般道優先としてルートを検索したい」に沿ったコマンドを実行することができる。
以上のように、この実施の形態1によれば、音声認識結果を形態素に分割する形態素解析部105と、形態素解析結果から使用者の意図を推定する意図推定処理部107と、意図推定処理部107において使用者の意図を一意に特定できない場合に、意図推定モデルにない素性を未知語として抽出する未知語抽出部108と、未知語が抽出された場合に、当該未知語を含む応答文を生成する応答文生成部110とを備えるように構成したので、未知語であると抽出された単語を含む応答文を生成することができ、対話制御装置100が意図を推定することができなかった単語を使用者に提示することができる。これにより、使用者が表現を改めるべき単語を理解することができ、対話を円滑に進めることができる。
実施の形態2.
この実施の形態2では、形態素解析結果をさらに構文解析し、構文解析の結果を用いて未知語抽出を行う構成について示す。
図9は、実施の形態2に係る対話制御装置100aの構成を示すブロック図である。
実施の形態2では、未知語抽出部108aがさらに構文解析部113を備え、意図推定モデル記憶部106aが意図推定モデルに加えて頻出語リストを格納する。なお、以下では、実施の形態1に係る対話制御装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
この実施の形態2では、形態素解析結果をさらに構文解析し、構文解析の結果を用いて未知語抽出を行う構成について示す。
図9は、実施の形態2に係る対話制御装置100aの構成を示すブロック図である。
実施の形態2では、未知語抽出部108aがさらに構文解析部113を備え、意図推定モデル記憶部106aが意図推定モデルに加えて頻出語リストを格納する。なお、以下では、実施の形態1に係る対話制御装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
構文解析部113は、形態素解析部105で解析した形態素解析結果に対してさらに構文解析を行う。未知語抽出部108aは、構文解析部113の構文解析結果が示す係り受け情報を用いて未知語抽出を行う。意図推定モデル記憶部106aは、実施の形態1で示した意図推定モデルに加えて、頻出語リストを格納する記憶領域である。頻出語リストは、例えば図10に示すようにある意図推定結果に対して高い頻度で出現する頻出語をリストとして記憶したものであり、意図推定結果1001「ルート変更[{条件=NULL}]」に対して頻出語リスト1002「変更、選択、ルート、コース、道順」が対応付けられている。
次に、実施の形態2に係る対話制御装置100aの動作について説明する。
図11は、実施の形態2に係る対話制御装置100aとの対話の一例を示す図である。
実施の形態1の図2と同様に、行頭の「U:」は使用者の発話を表し、「S:」は対話制御装置100aからの応答を表している。応答1101、応答1103、応答1105は対話制御装置100aからの応答、発話1102、発話1104は使用者の発話であり、順番に対話が進んでいることを示している。
図11は、実施の形態2に係る対話制御装置100aとの対話の一例を示す図である。
実施の形態1の図2と同様に、行頭の「U:」は使用者の発話を表し、「S:」は対話制御装置100aからの応答を表している。応答1101、応答1103、応答1105は対話制御装置100aからの応答、発話1102、発話1104は使用者の発話であり、順番に対話が進んでいることを示している。
図11で示した使用者の発話に対応した対話制御装置100aの応答文生成の処理動作について図10、図12から図14を参照しながら説明を行う。
図12は実施の形態2に係る対話制御装置100aの動作を示すフローチャートである。図13は実施の形態2に係る対話制御装置100aの未知語抽出部108aの動作を示すフローチャートである。図12および図13においては、実施の形態1に係る対話制御装置100と同一のステップには図3および図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
図14は、実施の形態2に係る対話制御装置100aの構文解析部113による構文解析結果の一例を示す図である。図14の例では、文節1401、文節1402、文節1403が文節1404を修飾していることを示している。
図12は実施の形態2に係る対話制御装置100aの動作を示すフローチャートである。図13は実施の形態2に係る対話制御装置100aの未知語抽出部108aの動作を示すフローチャートである。図12および図13においては、実施の形態1に係る対話制御装置100と同一のステップには図3および図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
図14は、実施の形態2に係る対話制御装置100aの構文解析部113による構文解析結果の一例を示す図である。図14の例では、文節1401、文節1402、文節1403が文節1404を修飾していることを示している。
まず、図12のフローチャートに示す通り実施の形態2の対話制御装置100aの基本動作は実施の形態1の対話制御装置100と同じであり、ステップST1201において未知語抽出部108aが構文解析部113の解析結果である係り受け情報を用いて未知語抽出を行う点のみが異なる。未知語抽出部108aによる未知語抽出処理の詳細は図13のフローチャートに基づいて行われる。
まず、図11で示した対話制御装置100aと使用者との対話の一例に基づいて、図12のフローチャートに沿って対話制御装置100aの基本動作を説明する。
使用者が発話開始ボタンを押すと、対話制御装置100aは応答1101「ピッと鳴ったらお話ください」を音声出力し、ビープ音を出力する。これらの出力の後、音声認識部103が認識可能状態となり、図12のフローチャートのステップST301の処理に移行する。なお、音声出力後のビープ音は適宜変更可能である。
使用者が発話開始ボタンを押すと、対話制御装置100aは応答1101「ピッと鳴ったらお話ください」を音声出力し、ビープ音を出力する。これらの出力の後、音声認識部103が認識可能状態となり、図12のフローチャートのステップST301の処理に移行する。なお、音声出力後のビープ音は適宜変更可能である。
使用者が検索条件を一般道としてルート検索したいと考え、発話1102「金欠なので、ルートは、下道を選択して」と発話した場合、音声入力部101はステップST301として音声入力を受け付ける。音声認識部103はステップST302として、受け付けた音声入力の音声認識を行ってテキストに変換する。形態素解析部105はステップST303として、音声認識結果「金欠なので、ルートは、下道を選択して」に対して、「金欠/名詞、な/助動詞、ので/助詞、ルート/名詞、は/助詞、下道/名詞、を/助詞、選択/名詞(サ変接続)、し/動詞、て/助詞」のように形態素解析を行う。意図推定処理部107はステップST304として、ステップST303で得られた形態素解析結果から意図推定処理に用いる素性「金欠/名詞」、「ルート/名詞」、「下道/名詞」、「選択/名詞(サ変接続)」を抽出し、当該4つの素性で構成される素性リストを生成する。
さらに、意図推定処理部107はステップST305として、ステップST304で生成された素性リストに対して意図推定処理を行う。ここで例えば、意図推定モデル記憶部6に記憶された意図推定モデルに「金欠/名詞」、「下道/名詞」という素性が存在しないとすると、意図推定処理は「ルート/名詞」、「選択/名詞(サ変接続)」という素性に基づいて実行され、実施の形態1と同様に図5に示す意図推定結果リストが得られる。順位「1」で示した意図推定結果「ルート変更[{条件=NULL}]」が意図推定スコア0.583で得られ、順位「2」で示した意図推定結果「ルート変更[{条件=一般道優先}]」が意図推定スコア0.177で得られる。
意図推定結果リストが得られるとステップST306の処理に移行する。上述のように実施の形態1と同一の図5の意図推定結果リストが得られたため、ステップST306の判定結果は実施の形態1と同一で「No」となり、使用者の意図を一意に特定できないと判定し、ステップST1201の処理に進む。この場合、意図推定処理部107は、意図推定結果リストおよび素性リストを未知語抽出部108aに出力する。
ステップST1201の処理では、未知語抽出部108aが意図推定処理部107から入力された素性リストに基づいて、構文解析部113の係り受け情報を利用して未知語を抽出する処理を行う。ステップST1201の係り受け利用未知語抽出処理について、図13のフローチャートを参照しながら詳細に説明を行う。
未知語抽出部108aは、入力された素性リストから、意図推定モデル記憶部106に格納された意図推定モデルに記載のない素性を未知語候補として抽出し、未知語候補リストに追加する(ステップST601)。ステップST304で生成した素性リストの例では、「金欠/名詞」、「ルート/名詞」、「下道/名詞」、「選択/名詞(サ変接続)」の4つの素性のうち、「金欠/名詞」および「下道/名詞」が未知語候補として抽出され、未知語候補リストに追加される。
未知語抽出部108aは、入力された素性リストから、意図推定モデル記憶部106に格納された意図推定モデルに記載のない素性を未知語候補として抽出し、未知語候補リストに追加する(ステップST601)。ステップST304で生成した素性リストの例では、「金欠/名詞」、「ルート/名詞」、「下道/名詞」、「選択/名詞(サ変接続)」の4つの素性のうち、「金欠/名詞」および「下道/名詞」が未知語候補として抽出され、未知語候補リストに追加される。
次に、未知語抽出部108aは、ステップST601において1つ以上の未知語候補が抽出されたか否か判定を行う(ステップST602)。未知語候補が抽出されていない場合(ステップST602;NO)、未知語抽出処理を終了してステップST308の処理に進む。
一方、未知語候補が1つ以上抽出された場合(ステップST602;YES)、構文解析部113は、形態素解析結果を文節単位に分割し、分割した文節に対して係り受け関係を解析し、構文解析結果を得る(ステップST1301)。
上述した形態素解析結果「金欠/名詞、な/助動詞、ので/助詞、ルート/名詞、は/助詞、下道/名詞、を/助詞、選択/名詞(サ変接続)、し/動詞、て/助詞」について、ステップST1301ではまず「金欠/な/ので:動詞句、ルート/は:名詞句、下道/を:名詞句、選択/し/て/動詞句」と文節単位に分割する。さらに、分割した各文節の係り受け関係を解析し、図14に示す構文解析結果を得る。
上述した形態素解析結果「金欠/名詞、な/助動詞、ので/助詞、ルート/名詞、は/助詞、下道/名詞、を/助詞、選択/名詞(サ変接続)、し/動詞、て/助詞」について、ステップST1301ではまず「金欠/な/ので:動詞句、ルート/は:名詞句、下道/を:名詞句、選択/し/て/動詞句」と文節単位に分割する。さらに、分割した各文節の係り受け関係を解析し、図14に示す構文解析結果を得る。
図14に示した構文解析結果の例では、文節1401は文節1404に係り、文節1402は文節1404に係り、文節1403は文節1404に係る。ここで、修飾のタイプは第1の修飾タイプおよび第2の修飾タイプの2つに分けられている。第1の修飾タイプは、名詞、副詞が動詞、形容詞を修飾するような修飾であり、図14の例の「ルート/は:名詞句」および「下道/を:名詞句」が「選択/し/て/動詞句」を修飾する修飾タイプ1405が相当する。一方、第2の修飾タイプは、動詞、形容詞、助動詞が動詞、形容詞、助動詞を修飾するような修飾であり、「金欠/な/ので:動詞句」が「選択/し/て/動詞句」を修飾する修飾タイプ1406が相当する。
ST1301の構文解析処理が終了すると、未知語抽出部108aは意図推定結果から頻出単語を抽出する(ステップST1302)。ステップST1302において、例えば図10で示す意図推定結果1001「ルート変更[{条件=NULL}]」が得られている場合、頻出語リスト1002「変更、選択、ルート、コース、道順」が選択される。
次に、未知語抽出部108aは、ステップST1301で得られた構文解析結果を参照し、ステップST601で抽出された未知語候補のうち、ステップST1302で抽出された頻出語単語と第1の修飾タイプで係り受けする単語を含む文節を抽出し、抽出した文節に含まれる単語を未知語リストに加える(ステップST1303)。
選択された頻出語リスト1002に記載された頻出語を含む文節は、図14に示すように文節1402「ルートは」と、文節1404「選択して」の2つであり、このうち文節1404に係り受けする未知語候補「金欠」および「下道」のうち第1の修飾タイプで係り受けするのは未知語候補「下道」を含む文節1403「下道を」のみとなる。これにより未知語リストには「下道を」のみが記載される。
未知語抽出部108aは、意図推定結果と、未知語リストがある場合には当該未知語リストとを応答文生成部110に出力する。
選択された頻出語リスト1002に記載された頻出語を含む文節は、図14に示すように文節1402「ルートは」と、文節1404「選択して」の2つであり、このうち文節1404に係り受けする未知語候補「金欠」および「下道」のうち第1の修飾タイプで係り受けするのは未知語候補「下道」を含む文節1403「下道を」のみとなる。これにより未知語リストには「下道を」のみが記載される。
未知語抽出部108aは、意図推定結果と、未知語リストがある場合には当該未知語リストとを応答文生成部110に出力する。
図12のフローチャートに戻り、動作の説明を続ける。
応答文生成部110は、未知語抽出部108aにより未知語リストが入力されたか否か判定を行い(ステップST308)、以降実施の形態1で示したステップST309からステップST312と同一の処理を行う。図10および図14で示した例では、図11に示した応答1103である『「下道」は知らない単語です。別の言い方をしてみてください。』が音声出力される。その後フローチャートはステップST301の処理に戻り、使用者の音声入力が行われるのを待機する。
応答文生成部110は、未知語抽出部108aにより未知語リストが入力されたか否か判定を行い(ステップST308)、以降実施の形態1で示したステップST309からステップST312と同一の処理を行う。図10および図14で示した例では、図11に示した応答1103である『「下道」は知らない単語です。別の言い方をしてみてください。』が音声出力される。その後フローチャートはステップST301の処理に戻り、使用者の音声入力が行われるのを待機する。
使用者は応答1103の出力により「下道」を異なる言い方に変更すればよいことに気づくことができ、例えば図11の発話1104で示した「金欠なのでルートは一般の道にして」のように言い直すことができる。これにより、発話1104に対する意図推定結果として「ルート変更[{条件=一般道優先}]」が得られ、システムが応答1105「ルートを一般道優先に変更します。」を音声出力する。このように、対話制御装置100aとの円滑な対話により、使用者の当初の意図「一般道をルートとして検索したい」に沿ったコマンドを実行することができる。
以上のように、この実施の形態2によれば、形態素解析部105の形態素解析結果に対して構文解析を行う構文解析部113と、得られた文節の係り受け関係に基づいて未知語を抽出する未知語抽出部108aを備えるように構成したので、使用者の発話を構文解析した結果から特定の自立語に限定して未知語を抽出して対話制御装置100aの応答文に含めることができ、対話制御装置100aが理解できなかった単語のうち重要な単語を使用者に提示することができる。これにより、使用者は言い直すべき単語を理解することができ、対話を円滑に進めることができる。
実施の形態3.
この実施の形態3では、形態素解析結果を用いて、上述した実施の形態1および実施の形態2の未知語抽出処理とは逆である既知語抽出を行う構成について示す。
図15は、実施の形態3に係る対話制御装置100bの構成を示すブロック図である。
実施の形態3では、図1で示した実施の形態1の対話制御装置100の未知語抽出部108に替えて既知語抽出部114を設けて構成している。なお、以下では、実施の形態1に係る対話制御装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
この実施の形態3では、形態素解析結果を用いて、上述した実施の形態1および実施の形態2の未知語抽出処理とは逆である既知語抽出を行う構成について示す。
図15は、実施の形態3に係る対話制御装置100bの構成を示すブロック図である。
実施の形態3では、図1で示した実施の形態1の対話制御装置100の未知語抽出部108に替えて既知語抽出部114を設けて構成している。なお、以下では、実施の形態1に係る対話制御装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
既知語抽出部114は、形態素解析部105が抽出した素性のうち、意図推定モデル記憶部106の意図推定モデルに記憶されていない素性を未知語候補として抽出し、抽出した未知語候補以外の素性を既知語として抽出する。
次に、実施の形態3に係る対話制御装置100bの動作について説明する。
図16は、実施の形態3に係る対話制御装置100bと使用者の対話の一例を示す図である。
実施の形態1の図2と同様に、行頭の「U:」は使用者の発話を表し、「S:」は対話制御装置100bからの発話および応答を表している。応答1601、応答1603、応答1605は対話制御装置100bからの応答、発話1602、発話1604は使用者の発話であり、順番に対話が進んでいることを示している。
図16は、実施の形態3に係る対話制御装置100bと使用者の対話の一例を示す図である。
実施の形態1の図2と同様に、行頭の「U:」は使用者の発話を表し、「S:」は対話制御装置100bからの発話および応答を表している。応答1601、応答1603、応答1605は対話制御装置100bからの応答、発話1602、発話1604は使用者の発話であり、順番に対話が進んでいることを示している。
図16の対話例に基づいて、対話制御装置100bの応答文生成の処理動作について図17から図20を参照しながら説明を行う。
図17は、実施の形態3に係る対話制御装置100bの動作を示すフローチャートである。
図18は、実施の形態3に係る対話制御装置100bの意図推定処理部107の意図推定結果の一例を示す図である。意図推定結果1801は意図推定スコアの順位が1位の意図推定結果を意図推定スコアと共に示し、意図推定結果1802は意図推定スコアの順位が2位の意図推定結果を意図推定スコアと共に示している。
図19は、実施の形態3に係る対話制御装置100bの既知語抽出処理部114の動作を示すフローチャートである。図17および図19においては、実施の形態1に係る対話制御装置と同一のステップには図3および図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
図17は、実施の形態3に係る対話制御装置100bの動作を示すフローチャートである。
図18は、実施の形態3に係る対話制御装置100bの意図推定処理部107の意図推定結果の一例を示す図である。意図推定結果1801は意図推定スコアの順位が1位の意図推定結果を意図推定スコアと共に示し、意図推定結果1802は意図推定スコアの順位が2位の意図推定結果を意図推定スコアと共に示している。
図19は、実施の形態3に係る対話制御装置100bの既知語抽出処理部114の動作を示すフローチャートである。図17および図19においては、実施の形態1に係る対話制御装置と同一のステップには図3および図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
図20は、実施の形態3に係る対話制御装置100bの対話シナリオデータ記憶部109が格納する対話シナリオデータの一例を示す図である。図20(a)の意図用対話シナリオデータは、意図推定結果に対して対話制御装置100bが行う応答が記述されていると共に、対話制御装置100bが制御する機器(不図示)に対して実行するコマンドが記述されている。また、図20(b)の既知語用対話シナリオデータは、既知語に対して対話制御装置100bが行う応答が記述されている。
図17のフローチャートに示す通り実施の形態3の対話制御装置100bの基本動作は実施の形態1の対話制御装置100と同じであり、ステップST1701において既知語抽出部114が既知語抽出を行う点のみが異なる。既知語抽出部114による既知語抽出処理の詳細は図19のフローチャートに基づいて行われる。
まず、図16で示した対話制御装置100bとの対話の一例に基づいて、図17のフローチャートに沿って対話制御装置100bの基本動作を説明する。
使用者が発話開始ボタンを押すと、対話制御装置100bは応答1601「ピッと鳴ったらお話ください」を音声出力し、ビープ音を出力する。これらの出力の後、音声認識部103が認識可能状態となり、図17のフローチャートのステップST301の処理に移行する。なお、音声出力後のビープ音は適宜変更可能である。
使用者が発話開始ボタンを押すと、対話制御装置100bは応答1601「ピッと鳴ったらお話ください」を音声出力し、ビープ音を出力する。これらの出力の後、音声認識部103が認識可能状態となり、図17のフローチャートのステップST301の処理に移行する。なお、音声出力後のビープ音は適宜変更可能である。
ここで、使用者が発話1602「○○スタジアムをマイフェイバリット」と発話した場合、音声入力部101はステップST301として音声入力を受け付ける。音声認識部103はステップST302として、受け付けた音声入力の音声認識を行ってテキストに変換する。形態素解析部105はステップST303として、音声認識結果「○○スタジアムをマイフェイバリット」に対して、「○○スタジアム/名詞(施設名)、を/助詞、マイフェイバリット/名詞」のように形態素解析を行う。意図推定処理部107はステップST304として、ステップST303で得られた形態素解析結果から意図推定処理に用いる素性「#施設名(=○○スタジアム)」、「マイフェイバリット」を抽出し、当該2つの素性で構成される素性リストを生成する。ここで、#施設名は施設の名称を表す特殊なシンボルである。
さらに意図推定処理部107はステップST305として、ステップST304で生成された素性リストに対して意図推定処理を行う。ここで例えば、意図推定モデル記憶部6に記憶された意図推定モデルに「マイフェイバリット」という素性が存在しないとすると、意図推定処理は「#施設名」という素性に基づいて実行され、図18に示す意図推定結果リストが得られる。順位「1」で示した意図推定結果1801「目的地設定[{施設=<施設名>}]」が意図推定スコア0.462で得られ、順位「2」で示した意図推定結果1802「登録地追加[{施設=<施設名>}]」が意図推定スコア0.243で得られる。なお、図18では図示を省略したが、順位「1」、順位「2」以降の意図推定結果および意図推定スコアも設定される。
意図推定結果リストが得られるとステップST306の処理に移行する。意図推定処理部107は、ステップST305で得られた意図推定結果リストに基づいて、使用者の意図を一意に特定できたか否か判定を行う(ステップST306)。ステップST306の判定処理は、例えば上述した実施の形態1で示した二つの条件(a),(b)に基づいて行われる。条件(a)および条件(b)をともに満たす、すなわち使用者の意図を一意に特定できた場合(ステップST306;YES)、ステップST308の処理に進む。この場合、意図推定処理部107は、意図推定結果リストを応答文生成部110に出力する。
一方、条件(a)および条件(b)の少なくとも一方を満たさない、すなわち使用者の意図を一意に特定できない場合(ステップST306;NO)、ステップST307の処理に進む。この場合、意図推定処理部107は、意図推定結果リストおよび素性リストを既知語抽出部114に出力する。
図18で示した順位「1」の意図推定結果の場合、意図推定スコアが「0.462」で条件(a)を満たさない。そのため、使用者の意図を一意に特定できないと判定し、ステップST1701の処理に進む。
図18で示した順位「1」の意図推定結果の場合、意図推定スコアが「0.462」で条件(a)を満たさない。そのため、使用者の意図を一意に特定できないと判定し、ステップST1701の処理に進む。
ステップST1701の処理では、既知語抽出部114が意図推定処理部107から入力された素性リストに基づいて既知語を抽出する処理を行う。ステップST1701の既知語抽出処理について、図19のフローチャートを参照しながら詳細に説明を行う。
既知語抽出部114は、入力された素性リストから、意図推定モデル記憶部106に格納された意図推定モデルに記載のない素性を未知語候補として抽出し、未知語候補リストに追加する(ステップST601)。
ステップST304で生成された素性リストの例では、素性「マイフェイバリット」が未知語候補として抽出され、未知語候補リストに追加される。
既知語抽出部114は、入力された素性リストから、意図推定モデル記憶部106に格納された意図推定モデルに記載のない素性を未知語候補として抽出し、未知語候補リストに追加する(ステップST601)。
ステップST304で生成された素性リストの例では、素性「マイフェイバリット」が未知語候補として抽出され、未知語候補リストに追加される。
次に、既知語抽出部114は、ステップST601において1つ以上の未知語候補が抽出されたか否か判定を行う(ステップST602)。未知語候補が抽出されていない場合(ステップST602;NO)、未知語抽出処理を終了してステップST308の処理に進む。
一方、未知語候補が1つ以上抽出された場合(ステップST602;YES)、既知語抽出部114は、未知語候補リストに記載された未知語候補以外の素性を既知語候補リストとしてまとめる(ステップST1901)。ステップST304で生成された素性リストの例では「#施設名」が既知語候補リストとなる。次に、ステップST1801でまとめられた既知語候補リストのうち、品詞が動詞、名詞、形容詞以外のものを既知語候補から削除し、既知語リストとする(ステップST1902)。
ステップST304で生成された素性リストの例では「#施設名」が既知語候補リストとなり、最終的に既知語リストには「○○スタジアム」のみが記載される。既知語抽出部114は、意図推定結果と、既知語リストがある場合には当該既知語リストとを応答文生成部110に出力する。
ステップST304で生成された素性リストの例では「#施設名」が既知語候補リストとなり、最終的に既知語リストには「○○スタジアム」のみが記載される。既知語抽出部114は、意図推定結果と、既知語リストがある場合には当該既知語リストとを応答文生成部110に出力する。
図17のフローチャートに戻り、動作の説明を続ける。
応答文生成部110は、既知語抽出部114により既知語リストが入力されたか否か判定を行う(ステップST1702)。既知語リストが入力されていない場合(ステップST1702;NO)、応答文生成部110は、対話シナリオデータ記憶部109に格納された対話シナリオデータを用いて、意図推定結果に対応した応答テンプレートを読み出し、応答文を生成する(ステップST1703)。また、対話シナリオデータにコマンドが設定されている場合には、ステップST1703において対応するコマンドを実行する。
応答文生成部110は、既知語抽出部114により既知語リストが入力されたか否か判定を行う(ステップST1702)。既知語リストが入力されていない場合(ステップST1702;NO)、応答文生成部110は、対話シナリオデータ記憶部109に格納された対話シナリオデータを用いて、意図推定結果に対応した応答テンプレートを読み出し、応答文を生成する(ステップST1703)。また、対話シナリオデータにコマンドが設定されている場合には、ステップST1703において対応するコマンドを実行する。
既知語リストが入力されている場合(ステップST1702;YES)、応答文生成部110は、対話シナリオデータ記憶部109に格納された対話シナリオデータを用いて、意図推定結果に対応した応答テンプレートを読み出し、既知語リストが示す既知語に対応した応答テンプレートを読み出し、応答文を生成する(ステップST1704)。応答文の作成では既知語リストに対応する応答文を意図推定結果に対応する応答文の前に挿入する。また、対話シナリオデータにコマンドが設定されている場合には、ステップST1704において対応するコマンドを実行する。
図18で示した意図推定結果リストの例において、順位1の意図推定結果「目的地設定[{施設=<施設名>}]」と順位2の意図推定結果「登録地追加[{施設=<施設名>}]」の2つが曖昧であることを示しているため、対応する応答テンプレート2001が読み出され、応答文『○○スタジアムを目的地にしますか、登録地にしますか?』が生成される。
次に、応答文生成部110は、既知語リストが入力されている場合に、図20(b)で示した既知語用対話シナリオデータのテンプレート2002の<既知語>を実際の既知語リストの値に置換して応答文を生成する。例えば、入力された既知語が「○○スタジアム」の場合、生成される応答文は『○○スタジアム以外は知らない単語です』となる、最後に、既知語リストに対応する応答文を、意図推定結果に対応する応答文の前に挿入して『○○スタジアム以外は知らない単語です。○○スタジアムを目的地にしますか、登録地にしますか?』が生成される。
音声合成部111はステップST1703またはステップST1704で生成された応答文から音声データを生成し、音声出力部112へ出力する(ステップST311)。音声出力部112は、ステップST311で入力された音声データを音声として出力する(ステップST312)。以上で一つの使用者の発話に対する応答文を生成する処理は終了する。図18、図20で示した例では、図16に示した応答1603である『○○スタジアム以外は知らない単語です。○○スタジアムを目的地にしますか、登録地にしますか?』が音声出力される。その後フローチャートはステップST301の処理に戻り、使用者の音声入力が行われるのを待機する。
使用者は、応答1603が音声出力されることにより、「○○スタジアム」以外は理解してもらえなかったことが分かり、「マイフェイバリット」が理解されず、異なる表現で発話すれば良いと気が付くことができる。例えば、使用者は、図16の発話1604「登録地に追加して」のように言い直すことができ、対話制御装置100bに対して使用可能な言葉を用いて対話を行うことができる。
対話制御装置100bは、発話1604に対して再度図17および図19のフローチャートで示した音声認識処理を実行する。その結果、ステップST305において意図推定結果「登録地追加[{条件=<施設名>]」が得られる。
さらにステップST1703において、「登録地追加[{条件=<施設名>]」に対応した応答テンプレートとして、図20(a)の意図用対話シナリオデータのテンプレート2003が読み出され、応答文『○○スタジアムを登録地に追加します』が生成され、施設名称を登録地に追加するコマンドである「Add(登録地、<施設名>)」が実行される。次に、ステップST311において応答文から音声データを生成し、ステップST312において音声データを音声出力する。このように、対話制御装置100bとの円滑な対話により、使用者の意図に沿ったコマンドを実行することができる。
さらにステップST1703において、「登録地追加[{条件=<施設名>]」に対応した応答テンプレートとして、図20(a)の意図用対話シナリオデータのテンプレート2003が読み出され、応答文『○○スタジアムを登録地に追加します』が生成され、施設名称を登録地に追加するコマンドである「Add(登録地、<施設名>)」が実行される。次に、ステップST311において応答文から音声データを生成し、ステップST312において音声データを音声出力する。このように、対話制御装置100bとの円滑な対話により、使用者の意図に沿ったコマンドを実行することができる。
以上のように、この実施の形態3によれば、音声認識結果を形態素に分割する形態素解析部105と、形態素解析結果から使用者の意図を推定する意図推定処理部107と、使用者の意図が一意に特定できない場合に形態素解析結果から未知語以外の素性を既知語として抽出する既知語抽出部114と、既知語が抽出された場合に、当該既知語を含む応答文、すなわち未知語となった単語以外を含む応答文を生成する応答文生成部110とを備えるように構成したので、対話制御装置100bが意図を推定することができた単語を提示することができ、使用者が表現を改める単語を理解することができ、対話を円滑に進めることができる。
上述した実施の形態1−3では、日本語を音声認識する場合を例に説明を行ったが、意図推定処理部107の意図推定に関する素性抽出方法を言語ごとに変更することにより、英語、ドイツ語、および中国語など様々な言語に対して当該対話制御装置100,100a,100bを適用することができる。
また、上述した実施の形態1−3で示した対話制御装置100,100a,100bを、単語が特定のシンボル(スペースなど)で区切られる言語に適用する場合であって、言語的な構造を解析することが難しい場合には、形態素解析部105に替えて入力の自然言語テキストに対して例えばパターンマッチの方法により、<施設名>、<住所>などの抽出処理を行う構成を設け、抽出した<施設名>、<住所>などに対して意図推定処理部107が意図推定処理を実行するように構成してもよい。
また、上述した実施の形態1−3では、入力として音声入力が行われる音声認識により得られたテキストに対して形態素解析処理を行う場合を例に説明を行ったが、入力として音声認識を用いず、例えばキーボードなどの入力手段を用いたテキスト入力に対して形態素解析処理を実行するように構成してもよい。これにより、音声入力以外の入力テキストに対しても同様の効果を得ることができる。
また、上述した実施の形態1−3では、音声認識結果のテキストに対して形態素解析部105が形態素解析処理を行って意図推定を行う構成を示したが、音声認識エンジン結果自体が形態素解析結果を含む場合は、その情報を直接用いて意図推定を実施可能に構成することができる。
また、上述した実施の形態1−3では、意図推定の方法として、最大エントロピー法による学習モデルを想定した例を用いて説明を行ったが、意図推定の方法を限定するものではない。
この発明に係る対話制御装置は、使用者が発話した語彙に対してどの語彙が使用できないかを、使用者にフィードバックすることが可能なため、音声認識システムなどが導入されたカーナビゲーション・携帯電話・携帯端末・情報機器などとの対話の円滑性の向上のために供するのに適している。
100,100a,100b 対話制御装置、101 音声入力部、102 音声認識辞書記憶部、103 音声認識部、104 形態素解析辞書記憶部、105 形態素解析部、106,106a 意図推定モデル記憶部、107 意図推定処理部、108,108a 未知語抽出部、109 対話シナリオデータ記憶部、110 応答文生成部、111 音声合成部、112 音声出力部、113 構文解析部、114 既知語抽出部。
Claims (10)
- 使用者が自然言語により入力したテキストを解析するテキスト解析部と、
単語と、当該単語から推定される前記使用者の意図とを対応付けて記憶した意図推定モデルを参照し、前記テキスト解析部のテキスト解析結果から前記使用者の意図を推定する意図推定処理部と、
前記意図推定処理部において前記使用者の意図を一意に特定できない場合に、前記テキスト解析結果から前記意図推定モデルに記憶されていない単語を未知語として抽出する未知語抽出部と、
前記未知語抽出部が抽出した前記未知語を含む応答文を生成する応答文生成部とを備えた対話制御装置。 - 前記テキスト解析部は、前記入力されたテキストを形態素解析により単語に分割し、
前記未知語抽出部は、前記テキスト解析部が分割した単語のうち、前記意図推定モデルに記憶されていない自立語を前記未知語として抽出することを特徴とする請求項1記載の対話制御装置。 - 前記応答文生成部は、前記未知語抽出部が抽出した未知語により前記使用者の意図が一意に特定できなかったことを示す前記応答文を生成することを特徴とする請求項1記載の対話制御装置。
- 前記未知語抽出部は、前記自立語のうち特定の品詞のみを前記未知語として抽出することを特徴とする請求項2記載の対話制御装置。
- 前記未知語抽出部は、前記テキスト解析部の形態素解析結果を文節単位に分割し、前記分割した複数の文節間の係り受け関係を解析する構文解析を行い、当該構文解析結果を参照して前記自立語のうち、前記意図推定処理部が推定した前記使用者の意図に対して頻出すると定義付けられた単語と係り受け関係を有する自立語を、前記未知語として抽出することを特徴とする請求項2記載の対話制御装置。
- 使用者が自然言語により入力したテキストを解析するテキスト解析部と、
単語と、当該単語から推定される前記使用者の意図とを対応付けて記憶した意図推定モデルを参照し、前記テキスト解析部のテキスト解析結果から前記使用者の意図を推定する意図推定処理部と、
前記意図推定処理部において前記使用者の意図を一意に特定できない場合に、前記テキスト解析結果から前記意図推定モデルに記憶されていない単語を未知語として抽出し、1以上の未知語が抽出された場合に、前記テキスト解析結果のうち前記未知語以外の単語を既知語として抽出する既知語抽出部と、
前記既知語抽出部が抽出した前記既知語を含む応答文を生成する応答文生成部とを備えた対話制御装置。 - 前記テキスト解析部は、前記入力されたテキストを形態素解析により単語に分割し、
前記既知語抽出部は、前記テキスト解析部が分割した単語のうち、前記未知語以外の自立語を前記既知語として抽出することを特徴とする請求項6記載の対話制御装置。 - 前記応答文生成部は、前記既知語抽出部が抽出した既知語以外の単語により前記使用者の意図が一意に特定できなかったことを示す前記応答文を生成することを特徴とする請求項6記載の対話制御装置。
- 前記既知語抽出部は、前記自立語のうち特定の品詞のみを前記既知語として抽出することを特徴とする請求項7記載の対話制御装置。
- 使用者が自然言語により入力したテキストを解析するテキスト解析ステップと、
単語と、当該単語から推定される前記使用者の意図とを対応付けて記憶した意図推定モデルを参照し、前記テキストの解析結果から前記使用者の意図を推定する意図推定ステップと、
前記使用者の意図を一意に特定できない場合に、前記テキストの解析結果から前記意図推定モデルに記憶されていない単語を未知語として抽出する未知語抽出ステップと、
前記抽出した未知語を含む応答文を生成する応答文生成ステップとを備えた対話制御方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/078947 WO2016067418A1 (ja) | 2014-10-30 | 2014-10-30 | 対話制御装置および対話制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2016067418A1 true JPWO2016067418A1 (ja) | 2017-04-27 |
Family
ID=55856802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016556127A Pending JPWO2016067418A1 (ja) | 2014-10-30 | 2014-10-30 | 対話制御装置および対話制御方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20170199867A1 (ja) |
JP (1) | JPWO2016067418A1 (ja) |
CN (1) | CN107077843A (ja) |
DE (1) | DE112014007123T5 (ja) |
WO (1) | WO2016067418A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016151698A1 (ja) * | 2015-03-20 | 2016-09-29 | 株式会社 東芝 | 対話装置、方法及びプログラム |
JP2017058804A (ja) * | 2015-09-15 | 2017-03-23 | 株式会社東芝 | 検出装置、方法およびプログラム |
CN110168544A (zh) * | 2016-12-27 | 2019-08-23 | 夏普株式会社 | 应答装置、应答装置的控制方法、及控制程序 |
US10726056B2 (en) * | 2017-04-10 | 2020-07-28 | Sap Se | Speech-based database access |
US10924605B2 (en) * | 2017-06-09 | 2021-02-16 | Onvocal, Inc. | System and method for asynchronous multi-mode messaging |
JP6857581B2 (ja) * | 2017-09-13 | 2021-04-14 | 株式会社日立製作所 | 成長型対話装置 |
JP6791825B2 (ja) * | 2017-09-26 | 2020-11-25 | 株式会社日立製作所 | 情報処理装置、対話処理方法及び対話システム |
JP2019082860A (ja) * | 2017-10-30 | 2019-05-30 | 富士通株式会社 | 生成プログラム、生成方法及び生成装置 |
EP3564948A4 (en) * | 2017-11-02 | 2019-11-13 | Sony Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD |
US20210241755A1 (en) * | 2017-11-24 | 2021-08-05 | Ntt Docomo, Inc. | Information-processing device and information-processing method |
CN111373391B (zh) * | 2017-11-29 | 2023-10-20 | 三菱电机株式会社 | 语言处理装置、语言处理系统和语言处理方法 |
WO2019142427A1 (ja) * | 2018-01-16 | 2019-07-25 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP6999230B2 (ja) * | 2018-02-19 | 2022-01-18 | アルパイン株式会社 | 情報処理システム及びコンピュータプログラム |
JP7084761B2 (ja) * | 2018-04-10 | 2022-06-15 | 日本放送協会 | 文生成装置、文生成方法及び文生成プログラム |
CN112585674A (zh) * | 2018-08-31 | 2021-03-30 | 三菱电机株式会社 | 信息处理装置、信息处理方法和程序 |
JP7132090B2 (ja) * | 2018-11-07 | 2022-09-06 | 株式会社東芝 | 対話システム、対話装置、対話方法、及びプログラム |
US10740371B1 (en) * | 2018-12-14 | 2020-08-11 | Clinc, Inc. | Systems and methods for intelligently configuring and deploying a machine learning-based dialogue system |
CN110111788B (zh) * | 2019-05-06 | 2022-02-08 | 阿波罗智联(北京)科技有限公司 | 语音交互的方法和装置、终端、计算机可读介质 |
CN110377716B (zh) * | 2019-07-23 | 2022-07-12 | 百度在线网络技术(北京)有限公司 | 对话的交互方法、装置及计算机可读存储介质 |
KR20210036169A (ko) * | 2019-09-25 | 2021-04-02 | 현대자동차주식회사 | 대화 시스템, 대화 처리 방법, 번역 장치 및 번역 방법 |
CN111341309A (zh) | 2020-02-18 | 2020-06-26 | 百度在线网络技术(北京)有限公司 | 一种语音交互方法、装置、设备和计算机存储介质 |
JP6954549B1 (ja) * | 2021-06-15 | 2021-10-27 | ソプラ株式会社 | エンティティとインテントとコーパスの自動生成装置及びプログラム |
CN114818644B (zh) * | 2022-06-27 | 2022-10-04 | 北京云迹科技股份有限公司 | 文本模板生成方法、装置、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006079462A (ja) * | 2004-09-10 | 2006-03-23 | Nippon Telegr & Teleph Corp <Ntt> | 情報検索における対話型情報提供方法及び対話型情報提供装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3397372B2 (ja) * | 1993-06-16 | 2003-04-14 | キヤノン株式会社 | 音声認識方法及び装置 |
US6810392B1 (en) * | 1998-07-31 | 2004-10-26 | Northrop Grumman Corporation | Method and apparatus for estimating computer software development effort |
FR2820872B1 (fr) * | 2001-02-13 | 2003-05-16 | Thomson Multimedia Sa | Procede, module, dispositif et serveur de reconnaissance vocale |
JP2006195637A (ja) * | 2005-01-12 | 2006-07-27 | Toyota Motor Corp | 車両用音声対話システム |
JP2010224194A (ja) * | 2009-03-23 | 2010-10-07 | Sony Corp | 音声認識装置及び音声認識方法、言語モデル生成装置及び言語モデル生成方法、並びにコンピューター・プログラム |
US9171541B2 (en) * | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
US8606581B1 (en) * | 2010-12-14 | 2013-12-10 | Nuance Communications, Inc. | Multi-pass speech recognition |
JP5674689B2 (ja) * | 2012-02-15 | 2015-02-25 | 日本電信電話株式会社 | 知識量推定情報生成装置、知識量推定装置、方法、及びプログラム |
US20130332450A1 (en) * | 2012-06-11 | 2013-12-12 | International Business Machines Corporation | System and Method for Automatically Detecting and Interactively Displaying Information About Entities, Activities, and Events from Multiple-Modality Natural Language Sources |
JP6251958B2 (ja) * | 2013-01-28 | 2017-12-27 | 富士通株式会社 | 発話解析装置、音声対話制御装置、方法、及びプログラム |
-
2014
- 2014-10-30 CN CN201480082506.XA patent/CN107077843A/zh active Pending
- 2014-10-30 WO PCT/JP2014/078947 patent/WO2016067418A1/ja active Application Filing
- 2014-10-30 US US15/314,834 patent/US20170199867A1/en not_active Abandoned
- 2014-10-30 DE DE112014007123.4T patent/DE112014007123T5/de not_active Withdrawn
- 2014-10-30 JP JP2016556127A patent/JPWO2016067418A1/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006079462A (ja) * | 2004-09-10 | 2006-03-23 | Nippon Telegr & Teleph Corp <Ntt> | 情報検索における対話型情報提供方法及び対話型情報提供装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107077843A (zh) | 2017-08-18 |
WO2016067418A1 (ja) | 2016-05-06 |
US20170199867A1 (en) | 2017-07-13 |
DE112014007123T5 (de) | 2017-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016067418A1 (ja) | 対話制御装置および対話制御方法 | |
US10489393B1 (en) | Quasi-semantic question answering | |
US9286886B2 (en) | Methods and apparatus for predicting prosody in speech synthesis | |
US9449599B2 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
US8126714B2 (en) | Voice search device | |
US7873508B2 (en) | Apparatus, method, and computer program product for supporting communication through translation between languages | |
JP4791984B2 (ja) | 入力された音声を処理する装置、方法およびプログラム | |
KR102191425B1 (ko) | 인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법 | |
US20180137109A1 (en) | Methodology for automatic multilingual speech recognition | |
KR102375115B1 (ko) | 엔드-투-엔드 모델들에서 교차-언어 음성 인식을 위한 음소-기반 컨텍스트화 | |
JPWO2007097176A1 (ja) | 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム | |
US7197457B2 (en) | Method for statistical language modeling in speech recognition | |
KR102372069B1 (ko) | 언어학습을 위한 양국어 자유 대화 시스템 및 방법 | |
US11295730B1 (en) | Using phonetic variants in a local context to improve natural language understanding | |
JP5073024B2 (ja) | 音声対話装置 | |
US20150178274A1 (en) | Speech translation apparatus and speech translation method | |
JP2008243080A (ja) | 音声を翻訳する装置、方法およびプログラム | |
EP3005152B1 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
JP2006227425A (ja) | 音声再生装置及び発話支援装置 | |
US20150073796A1 (en) | Apparatus and method of generating language model for speech recognition | |
JP2009271117A (ja) | 音声検索装置および音声検索方法 | |
JP4733436B2 (ja) | 単語・意味表現組データベースの作成方法、音声理解方法、単語・意味表現組データベース作成装置、音声理解装置、プログラムおよび記憶媒体 | |
JP2001100788A (ja) | 音声処理装置および音声処理方法、並びに記録媒体 | |
CN113515952B (zh) | 一种用于蒙古语对话模型联合建模方法、系统及设备 | |
JP2001117583A (ja) | 音声認識装置および音声認識方法、並びに記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170822 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171031 |