JP2010191194A - 音声認識装置 - Google Patents

音声認識装置 Download PDF

Info

Publication number
JP2010191194A
JP2010191194A JP2009035368A JP2009035368A JP2010191194A JP 2010191194 A JP2010191194 A JP 2010191194A JP 2009035368 A JP2009035368 A JP 2009035368A JP 2009035368 A JP2009035368 A JP 2009035368A JP 2010191194 A JP2010191194 A JP 2010191194A
Authority
JP
Japan
Prior art keywords
information
user
slot
utterance
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009035368A
Other languages
English (en)
Other versions
JP5341548B2 (ja
Inventor
Hiroaki Sekiyama
博昭 関山
Toshiyuki Nanba
利行 難波
Yoshihiro Oe
義博 大栄
Naoki Miura
直樹 三浦
Kunio Yokoi
邦雄 横井
Osamu Iwata
收 岩田
Masahiro Kamiya
昌宏 神谷
Iko Terasawa
位好 寺澤
Kinichi Wada
錦一 和田
Doichiro Tsuchiya
道一郎 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Aisin AW Co Ltd
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Ten Ltd
Aisin AW Co Ltd
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Aisin AW Co Ltd, Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Denso Ten Ltd
Priority to JP2009035368A priority Critical patent/JP5341548B2/ja
Publication of JP2010191194A publication Critical patent/JP2010191194A/ja
Application granted granted Critical
Publication of JP5341548B2 publication Critical patent/JP5341548B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

【課題】操作性をより向上することが可能な音声認識装置を提供する。
【解決手段】本発明の一実施形態に係る音声認識装置20は、ユーザの発話を認識する音声認識装置であって、ユーザの発話を単語ごとに分解する形態素解析手段33と、所望の情報を管理する情報管理手段であって、単語のうちの当該所望の情報を表す単語を取り込む情報管理手段34と、所望の情報を表す単語が不足している場合に、不足している情報を表す単語をユーザに発話させるように音声ガイダンスを行う対話制御手段35とを備える。
【選択図】図1

Description

本発明は、音声認識装置に関するものである。
車載用のナビゲーション装置等において、操作スイッチによる操作に代えて音声による操作を行うものが知られている。特許文献1には、この種のナビゲーション装置が記載されている。このナビゲーション装置は、ユーザの発話を認識する音声認識装置を備えており、自然な言い回しで連続する一般的な指示を予め複数パターン格納することにより、複数の単語により構成されるフレーズを解釈し、地点の指定や機能指示の指定を1回の発声で認識できるようにする。これにより、自然な言い回しによる地点のナビゲーション機能などによる処理の指示や、機能実行までの操作時間の短縮を実現して、操作性の向上を図る。
特開2001−147134号広報
しかしながら、特許文献1に記載の音声認識装置では、予め格納した一般的な指示パターンと異なる発話が行われると、フレーズ解釈に必要な複数の単語を認識できない可能性がある。そのために、この音声認識装置では、音声認識装置に対するユーザの習熟度を要し、操作性が煩雑であった。
そこで、本発明は、操作性をより向上することが可能な音声認識装置を提供することを目的としている。
本発明の音声認識装置は、ユーザの発話を認識する音声認識装置であって、ユーザの発話を単語ごとに分解する形態素解析手段と、所望の情報を管理する情報管理手段であって、単語のうちの当該所望の情報を表す単語を取り込む情報管理手段と、所望の情報を表す単語が不足している場合に、不足している情報を表す単語をユーザに発話させるように音声ガイダンスを行う対話制御手段とを備える。
この音声認識装置によれば、情報管理手段における所望の情報が不足している場合に、対話制御手段が、不足している情報をユーザに発話させるように音声ガイダンスを行うので、ユーザの習熟度が低い場合であっても、対話誘導によって自律的に所望の情報を全て得ることが可能である。したがって、ユーザは操作方法や、入力キーワードの種類及び組合せなどの入力ルールを意識することなく用いることができ、操作性をより向上することができる。
上記した所望の情報は優先度を有し、上記した情報管理手段は、所望の情報を組み合わせた複数の情報組合せパターンを有し、上記した対話制御手段は、複数の情報組合せパターンのうちの何れかの情報組合せパターンを選択する際に不足している情報の優先度に応じて選択を行い、選択された情報組合せパターンにおいて不足している情報を表す単語をユーザに発話させるように音声ガイダンスを行うことが好ましい。
これによれば、複数の情報組合せパターンを有して多様な検索パターンや発話パターンに対応可能なナビゲーション装置において、例えば、検索の決定力を優先度とし、優先度が低い不足情報を有する情報組合せパターンを選択すれば、この不足情報を全て埋める到達難易度を低減することができる。
ところで、ユーザも分かっていれば検索の決定力が高い情報を入力するはずであるので、決定力が高い情報をユーザに求めて、ユーザに煩わしさを与えることを抑制することができる。
本発明によれば、音声認識装置の操作性をより向上することができる。
本発明の実施形態に係る音声認識装置を備えるナビゲーション装置の電気的な構成を示す図である。 本実施形態の音声認識装置による音声認識処理を示すフローチャートである。 図2に示す第1パターン解析処理を示すフローチャートである。 図2に示す第2パターン解析処理を示すフローチャートである。 フレームパターンの一例を示す図である。 対話シナリオの一例を示す図である。
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。
図1は、本実施形態に係るナビゲーション装置の電気的な構成を示す図である。このナビゲーション装置1は、ナビゲーション本体10と、本発明の実施形態に係る音声認識装置20とを備える。
ナビゲーション本体10は、一般的なナビゲーション装置であり、例えば、操作スイッチやタッチパネルなどの操作部11と、地図データや施設データなどを格納するDB部12と、液晶ディスプレイなどの表示部13と、ECU(Electronic Control Unit)14とを備える。
ナビゲーション本体10は、操作部11によるユーザ操作に応じて、出発地点から目的地点までの適切な経路をDB部12における地図データや施設データから検索し、表示部13に表示することによって、ユーザに経路案内を提供する。ナビゲーション本体10におけるこれらの動作は、ECU14によって統括制御される。ECU14は、演算を行うCPU(Central Processing Unit)、CPUに各処理を実行させるためのプログラム等を記憶するROM(Read Only Memory)、演算結果などの各種データを記憶するRAM(Random Access Memory)などから構成されている。
なお、ナビゲーション本体10は、本実施形態に限定されることなく、例えば、車両情報を取得するための各種センサやGPS機能などを備える態様であってもよい。
このナビゲーション本体10は、操作部11に加えて音声認識装置20によって認識されたユーザからの発話指示に応じて、上記した経路案内処理を行うことができる。また、ナビゲーション本体10は、表示部13に加えて音声認識装置20による音声案内によって、上記した経路案内をユーザに提供することができる。
次に、本発明の実施形態に係る音声認識装置20について説明する。音声認識装置20は、マイク21と、スピーカ22と、ECU(Electronic Control Unit)30とを備える。
マイク21は、ユーザの発話による音声信号を電気信号に変換し、ECU30へ送信する。一方、スピーカ22は、ECU30からの電気信号を音声信号に変換して出力する。
ECU30は、演算を行うCPU(Central Processing Unit)、CPUに各処理を実行させるためのプログラム等を記憶するROM(Read Only Memory)、演算結果などの各種データを記憶するRAM(Random Access Memory)などから構成されている。このような構成により、ECU30には、音声認識部31と、音声合成部32と、形態素解析部33と、スロット管理部(情報管理部)34と、対話制御部35とが構築される。
音声認識部31は、マイク21から入力される信号、すなわちユーザの発話を認識し、対話制御部35を介して形態素解析部33へ送信する。
音声合成部32は、対話制御部35から受ける音声ガイダンスデータを電気的に合成し、スピーカ22へ送信する。これによって、音声ガイダンスが行われる。
形態素解析部33は、ユーザの発話を解析する。具体的には、形態素解析部33は、ユーザの発話による入力文を形態素、すなわち意味を有する最小の言語単位に分解し、分解した単語ごとに品詞を判別する(形態素解析)。また、形態素解析部33は、判別した品詞に基づいて、不要な単語を排除し、後述する条件判別に必要な単語のみを抽出する。例えば、形態素解析部33は、主に自律語を抽出し、付属語を排除する(品詞フィルタ)。形態素解析部33は、抽出した単語を、対話制御部35を介してスロット管理部34へ送信する。
スロット管理部34は、フレーム処理におけるスロットの状態を管理する。具体的には、スロット管理部34は、以下の3つのフレームパターンA〜Cを内部定義しており、これらのフレームパターンA〜Cは、経路検索のための条件キーワード(所望の情報)を表すスロットを有する。
フレームパターンAは、例えば、場所を表すキーワードのスロットと目的を表すキーワードのスロットとを必須スロットとして有する。このフレームパターンAは、場所を表すキーワードと目的を表すキーワードとを組み合わせて、該当する施設を検索するためのものである。具体的には、場所としては、住所や駅名などが適用可能であり、目的としては、コンビニエンスストアなどの施設の種類を表すジャンルや、コンビニエンスストアのチェーン店名などが適用可能である。
また、フレームパターンAは、その他の追加条件キーワードのためのスロットを有していてもよい。これによって、追加条件をオプションとして、更に絞り込み検索が可能となる。この場合、この追加条件は、施設データに対応させる必要がある。例えば、追加条件としては、料金、営業日、混み具合などが適用可能である。
このフレームパターンAにおける必須スロット全てに対応する発話としては、例えば、「銀座の天麩羅屋。2,000円くらいまで。」である。ここで、「銀座」なる単語が場所を表すキーワードであり、「天麩羅屋」なる単語が目的を表すキーワードである。また、この発話例では、「2,000円くらいまで」が追加条件の料金である。
フレームパターンBは、例えば、施設を表す条件キーワードのスロットを必須スロットとして有する。このフレームパターンBは、施設名によって直接検索するためのものである。また、フレームパターンBは、上記したジャンルやチェーン店名などの目的を表す追加条件キーワードのためのスロットを有していてもよい。
この場合、施設名が明確ならばその施設に行きたいが、ジャンルやチェーン店名が付加されると必ずしも施設そのものに行きたいとは限らないと考えられ、検索処理では、その施設を含む周辺の検索が行われることとなる。
このフレームパターンBにおける必須スロットに対応する発話としては、例えば、「サンシャイン」である。このように、施設名を明確に発話する場合、ユーザはその施設そのものに行きたいものと判断される。一方、例えば、「サンシャイン辺りで、喫茶店ないかな」という発話では、「喫茶店」なるジャンルやチェーン店名が付加されているので、検索処理では、その施設を含む周辺の検索が行われることとなる。
フレームパターンCは、例えば、番組情報を表すスロットと店舗情報を表すスロットとを必須スロットとして有する。このフレームパターンCは、テレビ番組などで取り上げられた店を検索するためのものである。具体的には、番組情報としては、放送日及び番組名や、放送日及び時間帯及び放送局などが適用可能であり、店舗情報としては、上記したジャンルやチェーン店名などが適用可能である。
このフレームパターンCのスロットの設定は、番組の特定は「番組名+放送日」又は「局+放送日時」が分かれば可能であるとの仮定に基づいている。なお、番組の特定や番組から店舗検索を実現するためには、番組配信Webサービスなどを利用すればよい。
このフレームパターンCにおける必須スロット全てに対応する発話としては、例えば、「昨日、王様のブランチでやってたイタリアンレストラン」である。ここで、「昨日」(放送日)及び「王様のブランチ」(番組名)が番組情報を表すキーワードであり、「イタリアンレストラン」なる単語が店舗情報を表すキーワードである。
また、スロット管理部34は、これらのフレームパターンA〜Cにそれぞれ対応付けされた対話シナリオを有している。対話シナリオには、空きスロットなどのスロットの状態及びユーザの発話から、次に埋めるべきスロットを決定するためのシステム動作や、この空きスロットの条件キーワードをユーザに発話させるためのガイダンス内容などのシステム動作が定義されている。
対話制御部35は、形態素解析部33から受ける単語がスロット管理部34における条件キーワードのうちの何れに対応するかを判別する(条件マッピング)。また、対話制御部35は、単語が対応付けされない条件キーワードが最も少ない条件パターンが、スロット管理部34におけるフレームパターンA〜Cの何れに対応するか認識する(条件パターン認識)。
条件パターン認識の結果、同等程度のフレームパターンが複数存在する場合、基本的にはどれを選んでもよい。なぜなら、この音声認識装置20によれば、何れのフレームパターンであっても、対話処理によって単語が対応付けされない不足スロットを自律的に埋めることができるからである。しかしながら、到達難易度を考慮してフレームパターンに優先度を設け、優先度に従って条件パターンが認識されてもよい。
例えば、フレームパターンにおけるスロットの条件キーワードに検索条件としての決定力(例えば、検索結果の絞り込み度合い。決定力が高いということは条件として精度が高いということになる。)を設け、不足スロットの決定力が低いものを優先する。これは、分かっているなら始めから指定するはずであり、指定していないのは分からないからと推測されることによる。
また、対話制御部35は、認識されたフレームパターンにおいて必須スロットにキーワードが不足している場合に、不足キーワードをユーザに発話させるように音声ガイダンスを行う。具体的には、対話制御部35は、スロット管理部34における対話シナリオに従って、次に埋めるべきスロットを決定し、そのスロットを埋めるための音声ガイダンスを行う。
次に、音声認識装置20の動作を説明する。図2は、本実施形態の音声認識装置による音声認識処理を示すフローチャートであり、図3及び図4は、それぞれ、図2に示す第1パターン解析処理、第2パターン解析処理を示すフローチャートである。
まず、ユーザによって発話が行われると、マイク21及び音声認識部31によってユーザの発話が認識され、形態素解析部33、スロット管理部34及び対話制御部35によってユーザの発話の第1パターン解析処理が行われる(S01)。
この第1パターン解析処理では、図3に示すように、形態素解析部33によって、ユーザ発話が形態素解析され、最小の言語単位に分解される。その後、形態素解析部33によって、分解された単語ごとに品詞が判別され、各単語に品詞が割り当てられる(S11)。次に、形態素解析部33によって、割り当てられた品詞に基づいて、主に自律語が抽出され、付属語が排除される(S12)。
次に、対話制御部35によって、抽出された単語がスロット管理部34における条件キーワード、すなわち、住所、駅名、ジャンル、チェーン店名、施設名、放送日時、局、番組名などのうちの何に対応するかの判別が行われ(S13)、単語が対応付けされない条件キーワードが最も少ない条件パターンが、スロット管理部34におけるフレームパターンA〜Cの何れに対応するか認識される(S14)。
次に、対話制御部35によって、認識されたフレームパターンに対応する対話シナリオが読み込まれて対話制御が起動されると共に(S02)、初回発話内容として、条件キーワードに対応付けされた単語が、認識されたフレームパターンにおけるスロットに格納される(S03)。
その後、対話制御部35によって、認識されたフレームパターンにおける必須スロットにキーワードが揃ったか否かの判断が行われる(S04)。必須スロットにキーワードが揃っていない場合、対話制御部35によって、対話シナリオに従って、次に埋めるべきスロットが決定され、そのスロットを埋めるための音声ガイダンス内容が決定される。すると、対話制御部35、音声合成部32及びスピーカ22によって、この音声ガイダンス内容に従って対話処理が行われる。(S05)。
その後、ユーザの応答発話が行われると、マイク21及び音声認識部31によってユーザの発話が認識され、形態素解析部33、スロット管理部34及び対話制御部35によってユーザの発話の第2パターン解析が行われる(S06)。この第2パターン解析処理では、図4に示すように、第1パターン解析処理における形態素解析処理S11、品詞フィルタ処理S12及び条件マッピング処理S13とそれぞれ同一の形態素解析処理S61、品詞フィルタ処理S62及び条件マッピング処理S63が順次に行われる。
その後、ステップS03に戻り、スロット入力が行われる。このように、第1パターン解析処理によって選択されたフレームパターンにおける必須スロットが全て埋まるまで、対話シナリオに従って、ステップS03〜S06の処理が繰り返される。
一方、ステップS04において必須スロットが全て揃ったと判断された場合には、対話処理が終了し、フレームパターン情報がナビゲーション本体10へ送信される。すると、ナビゲーション本体10によって、DB部12における施設データに基づいて施設検索が行われ、この検索結果が表示部13に表示される。
例えば、「新宿辺りで何か食べたい」からフレームパターンAが認識された場合、図5に示すように、フレームパターンAにおける場所を表すスロットに駅名として「新宿」なる単語が格納される。ここで、場所を表すスロットは、住所及び駅名のうちの何れか一方で成立するので、このスロットは入力完了となる。従って、不足している必須スロットは目的を表すスロットとなり、この不足スロットを埋めるための対話シナリオを起動することとなる。
すると、図6に示すように、目的スロットに条件が入ったか否かの判断により、条件が不足している場合には、「(場所)で何を探しますか?」なる音声ガイダンスを行い、目的「ジャンル又はチェーン店名」の認識待ち受け状態となる。その後、ユーザによって発話が行われ、第2パターン解析が行われた後に、目的スロットに条件が入ったか否かの判断に戻る。そして、目的スロットに条件が入った場合には、「他に条件があればお話ください」なる音声ガイダンスを行い、認識待ち受け状態となる。その後、ユーザによって追加条件の発話が行われた場合には、第2パターン解析が行われた後に、再び目的スロットに条件が入ったか否かの判断に戻る。一方、ユーザによって「検索」なる発話が行われると、対話処理を終了し、検索処理が開始される。
このように、本実施形態の音声認識装置20によれば、スロット管理部34におけるフレームパターンのスロットに条件キーワードが不足している場合に、対話制御部35が、不足している条件キーワードをユーザに発話させるように音声ガイダンスを行うので、ユーザの習熟度が低い場合であっても、対話誘導によって自律的に所望の情報を全て得ることが可能である。したがって、ユーザは操作方法や、入力キーワードの種類及び組合せなどの入力ルールを意識することなく用いることができ、操作性をより向上することができる。
また、本実施形態の音声認識装置20によれば、複数のフレームパターンを有して多様な検索パターンや発話パターンに対応可能なナビゲーション装置において、例えば、検索の決定力を優先度とし、優先度が低い不足スロットを有するフレームパターンを選択すれば、不足スロットを全て埋める到達難易度を低減することができる。
ところで、ユーザも分かっていれば検索の決定力が高いキーワードを入力するはずであるので、決定力が高い情報をユーザに求めて、ユーザに煩わしさを与えることを抑制することができる。
なお、本発明は上記した本実施形態に限定されることなく種々の変形が可能である。例えば、上記した条件マッピングだけでは条件パターン認識が難しい場合、条件に当てはまらない語と条件パターンの間にメタデータによる関連付けを持たせた上で解析の材料としてもよい。具体的には、フレームパターンCに対応する発話「昨日TVでやってた店」における「TV」に対して「TV番組」なるメタデータにより条件パターンと関連付けを行ってもよい。
また、対話シナリオにおいて、例えば、発話パターンに目的だけ入っている状態であれば、場所には「近く」を自動補完した上でユーザに認識を求めるようなシナリオを構築してもよい。このようにして、スロット入力を進め、条件が揃った時点で検索処理を行ってもよい。
1…ナビゲーション装置、10…ナビゲーション本体、11…操作部、12…DB部、13…表示部、20…音声認識装置、21…マイク、22…スピーカ、31…音声認識部、32…音声合成部、33…形態素解析部(形態素解析手段)、34…スロット管理部(情報管理手段)、35…対話制御部(対話制御手段)。

Claims (2)

  1. ユーザの発話を認識する音声認識装置であって、
    前記ユーザの発話を単語ごとに分解する形態素解析手段と、
    所望の情報を管理する情報管理手段であって、前記単語のうちの当該所望の情報を表す単語を取り込む情報管理手段と、
    前記所望の情報を表す単語が不足している場合に、不足している情報を表す単語を前記ユーザに発話させるように音声ガイダンスを行う対話制御手段と、
    を備える、音声認識装置。
  2. 前記所望の情報は優先度を有し、
    前記情報管理手段は、前記所望の情報を組み合わせた複数の情報組合せパターンを有し、
    前記対話制御手段は、前記複数の情報組合せパターンのうちの何れかの情報組合せパターンを選択する際に不足している情報の優先度に応じて選択を行い、選択された情報組合せパターンにおいて不足している情報を表す単語を前記ユーザに発話させるように音声ガイダンスを行う、
    請求項1又は2に記載の音声認識装置。
JP2009035368A 2009-02-18 2009-02-18 音声認識装置 Active JP5341548B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009035368A JP5341548B2 (ja) 2009-02-18 2009-02-18 音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009035368A JP5341548B2 (ja) 2009-02-18 2009-02-18 音声認識装置

Publications (2)

Publication Number Publication Date
JP2010191194A true JP2010191194A (ja) 2010-09-02
JP5341548B2 JP5341548B2 (ja) 2013-11-13

Family

ID=42817293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009035368A Active JP5341548B2 (ja) 2009-02-18 2009-02-18 音声認識装置

Country Status (1)

Country Link
JP (1) JP5341548B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101207435B1 (ko) 2012-07-09 2012-12-04 다이알로이드(주) 대화형 음성인식 서버, 대화형 음성인식 클라이언트 및 대화형 음성인식 방법
JP2015069102A (ja) * 2013-09-30 2015-04-13 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
JP2015069103A (ja) * 2013-09-30 2015-04-13 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
JP2019091007A (ja) * 2017-11-16 2019-06-13 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声対話方法、装置、端末、サーバ及び可読記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002023783A (ja) * 2000-07-13 2002-01-25 Fujitsu Ltd 対話処理システム
JP2002278589A (ja) * 2001-03-22 2002-09-27 Nippon Telegr & Teleph Corp <Ntt> 音声対話装置、音声対話処理方法、音声対話処理プログラムおよびその記録媒体
JP2003108190A (ja) * 2001-09-27 2003-04-11 Nippon Telegr & Teleph Corp <Ntt> 音声対話方法および、この方法を実施する装置、プログラム、このプログラムを記録した記録媒体
JP2008064885A (ja) * 2006-09-05 2008-03-21 Honda Motor Co Ltd 音声認識装置、音声認識方法、及び音声認識プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002023783A (ja) * 2000-07-13 2002-01-25 Fujitsu Ltd 対話処理システム
JP2002278589A (ja) * 2001-03-22 2002-09-27 Nippon Telegr & Teleph Corp <Ntt> 音声対話装置、音声対話処理方法、音声対話処理プログラムおよびその記録媒体
JP2003108190A (ja) * 2001-09-27 2003-04-11 Nippon Telegr & Teleph Corp <Ntt> 音声対話方法および、この方法を実施する装置、プログラム、このプログラムを記録した記録媒体
JP2008064885A (ja) * 2006-09-05 2008-03-21 Honda Motor Co Ltd 音声認識装置、音声認識方法、及び音声認識プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
安田 宜仁: "タスク適応型高効率対話制御法", 情報処理学会研究報告 VOL.2001 NO.11 IPSJ SIG NOTES, vol. p.73−78, JPN6013000181, 3 February 2001 (2001-02-03), JP, ISSN: 0002426893 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101207435B1 (ko) 2012-07-09 2012-12-04 다이알로이드(주) 대화형 음성인식 서버, 대화형 음성인식 클라이언트 및 대화형 음성인식 방법
JP2015069102A (ja) * 2013-09-30 2015-04-13 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
JP2015069103A (ja) * 2013-09-30 2015-04-13 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
JP2019091007A (ja) * 2017-11-16 2019-06-13 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声対話方法、装置、端末、サーバ及び可読記憶媒体

Also Published As

Publication number Publication date
JP5341548B2 (ja) 2013-11-13

Similar Documents

Publication Publication Date Title
US10490186B2 (en) Parameter collection and automatic dialog generation in dialog systems
CN107112013B (zh) 用于创建可定制对话系统引擎的平台
KR101857648B1 (ko) 지능형 디지털 어시스턴트에 의한 사용자 트레이닝
US20160259767A1 (en) Annotations in software applications for invoking dialog system functions
AU2016213815A1 (en) Systems and methods for integrating third party services with a digital assistant
JP6122642B2 (ja) 機能実行システム及び発話例出力方法
JP6073881B2 (ja) 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
KR102429407B1 (ko) 사용자 구성의 맞춤형 인터렉티브 대화 애플리케이션
JP6391887B2 (ja) 応答生成装置、対話制御システムおよび応答生成方法
US20150032441A1 (en) Initializing a Workspace for Building a Natural Language Understanding System
JPH06208389A (ja) 情報処理方法及び装置
JP5341548B2 (ja) 音声認識装置
JP2008234427A (ja) ユーザ間の対話を支援する装置、方法およびプログラム
CN110286776A (zh) 字符组合信息的输入方法、装置、电子设备和存储介质
JP2007193166A (ja) 対話装置、対話方法及びプログラム
JP2017059014A (ja) 解析装置およびデータ検索装置,ならびにこれらの制御方法
US20210406463A1 (en) Intent detection from multilingual audio signal
CN112115157A (zh) 响应装置、响应方法及存储介质
KR20180107909A (ko) 알림에 대한 음성 조작 방법 및 시스템
WO2016136208A1 (ja) 音声対話装置、音声対話システム、および、音声対話装置の制御方法
WO2023047623A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2004021028A (ja) 音声対話装置及び音声対話プログラム
JP2006330486A (ja) 音声合成装置、この音声合成装置を備えるナビゲーション装置、音声合成プログラム及びこのプログラムを記憶した情報記憶媒体
JP6572969B2 (ja) 音声認識装置、音声認識システム、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130306

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130808

R151 Written notification of patent or utility model registration

Ref document number: 5341548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250