JP2008233678A - 音声対話装置、音声対話方法、及び音声対話用プログラム - Google Patents
音声対話装置、音声対話方法、及び音声対話用プログラム Download PDFInfo
- Publication number
- JP2008233678A JP2008233678A JP2007075351A JP2007075351A JP2008233678A JP 2008233678 A JP2008233678 A JP 2008233678A JP 2007075351 A JP2007075351 A JP 2007075351A JP 2007075351 A JP2007075351 A JP 2007075351A JP 2008233678 A JP2008233678 A JP 2008233678A
- Authority
- JP
- Japan
- Prior art keywords
- user
- dialogue
- voice
- interaction
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 155
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000004044 response Effects 0.000 claims abstract description 62
- 230000008569 process Effects 0.000 claims description 53
- 238000001514 detection method Methods 0.000 claims description 41
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000002452 interceptive effect Effects 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 22
- 239000013598 vector Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- LKAPTZKZHMOIRE-KVTDHHQDSA-N (2s,3s,4s,5r)-3,4-dihydroxy-5-(hydroxymethyl)oxolane-2-carbaldehyde Chemical compound OC[C@H]1O[C@H](C=O)[C@@H](O)[C@@H]1O LKAPTZKZHMOIRE-KVTDHHQDSA-N 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- LKAPTZKZHMOIRE-UHFFFAOYSA-N chitose Natural products OCC1OC(C=O)C(O)C1O LKAPTZKZHMOIRE-UHFFFAOYSA-N 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Navigation (AREA)
Abstract
【課題】使用者の状況に柔軟に対応して、適切な時間で使用者の要望に合致した対話を行うことができる音声対話装置、音声対話方法、及び音声対話用プログラムを提供する。
【解決手段】音声対話装置は、使用者からの音声入力に対応して、該使用者との対話制御を行う。音声対話装置は、使用者が置かれている状況に応じて該使用者との対話可能時間を算出する対話可能時間算出手段32と、少なくとも対話可能時間検出手段32により算出された対話可能時間に応じて対話制御を行う対話制御手段31とを備える。
【選択図】図1
【解決手段】音声対話装置は、使用者からの音声入力に対応して、該使用者との対話制御を行う。音声対話装置は、使用者が置かれている状況に応じて該使用者との対話可能時間を算出する対話可能時間算出手段32と、少なくとも対話可能時間検出手段32により算出された対話可能時間に応じて対話制御を行う対話制御手段31とを備える。
【選択図】図1
Description
本発明は、使用者からの音声入力に対応して、該使用者との対話制御を行う装置及び方法に関する。さらに、当該装置の処理をコンピュータに実行させるためのプログラムに関する。
近年、使用者により入力される音声を認識して、機器の操作や使用者への情報の提供等を行う音声対話装置が用いられている。このような音声対話装置では、使用者により入力される音声(発話)を認識し、認識した結果に基づいて使用者に応答(音声ガイドを出力)して使用者の次の発話を促すことで、使用者との対話が行われる。そして、使用者との対話を認識した結果から、機器の操作や使用者への情報の提供等が行われる。この音声対話装置は、例えば車両に装備されて、車両に搭載されたオーディオ、ナビゲーションシステム、エアコンディショナ等の機器が使用者により操作される。
このような音声対話装置において、入力される音声として、機器の操作等を指示する単語以外の不要語や言い換えや一時休止を含む、使用者の自然な発話を受け付ける音声対話装置が知られている。このとき、使用者の自然な発話では、一時休止だけでなく、使用者が発話途中に発話を中止してしまう場合もある。このため、発話途中でも、使用者が発話を完了したことを検知して適切に応答する音声対話装置が提案されている(例えば、特許文献1を参照)。
この特許文献1の音声認識装置では、入力音声について、発話の音響的特徴を規定するための音韻モデルや無音声モデル、音響的特徴から発話に含まれる単語を規定するための単語辞書、及び発話に含まれる単語の語順を規定するための発話文法を用いて、入力音声を単語列として認識してその意味を出力する。このとき、前記音声認識装置では、発話文法において、発話が途中で休止する可能性がある部分に、それぞれ継続時間を設定する。前記音声認識装置では、音声認識中に、設定された継続時間以上、発話の休止が継続したことにより発話完了を検出し、その時点までの発話についての認識結果を出力する。そして、前記音声認識装置では、この出力された発話の認識結果に基づいて、音声合成を使用して応答を生成する。
特開平6−202689号公報
ところで、対話の際に、使用者の要望は状況に応じて多様なものとなり得る。例えば、使用者が車両の運転者である場合、走行環境(走行している道路、車両、及び運転者の状態等)に応じて要望が変化する。具体的には、高速走行中のように対話を行う時間的な余裕が少ない場合には、短時間で簡潔な対話を行うことが望まれ、さらには、運転に集中するために対話が中断されることが考えられる。また、例えば、装置との対話に不慣れな使用者の場合、詳細な音声ガイドをゆっくり出力することが望まれる。一方、装置との対話に慣れた使用者の場合、冗長な対話とならないよう、簡潔で短い音声ガイドを早く出力することが望まれる。従って、このような多様な要望に柔軟に対応して対話を行う必要がある。
しかしながら、特許文献1の装置は、使用者の状況に関わらず、一律に使用者との対話を行なうものである。すなわち、使用者が短時間で簡潔な対話を行いたいか、或いは時間的に余裕があるかといった、使用者の状況が考慮されないため、使用者の要望に合致した効率の良い対話とならない可能性がある。そして、特許文献1の装置は、使用者から発話や対話が途中で中止された場合に、その時点までの発話に基づいて応答を出力する。このため、対話が不十分となり、適切な認識結果が得られなかったり、適切に機器の操作や使用者への情報の提供等が行われない可能性がある。従って、特許文献1のような装置では、使用者の状況に柔軟に対応した対話を行うことは困難である。
本発明は、上記事情に鑑み、使用者の状況に柔軟に対応して、適切な時間で使用者の要望に合致した対話を行うことができる音声対話装置、音声対話方法、及び該音声対話装置の処理をコンピュータに実行させる音声対話用プログラムを提供することを目的とする。
かかる目的を達成するために、本発明の音声対話装置は、使用者からの音声入力に対応して、該使用者との対話制御を行う音声対話装置であって、前記使用者が置かれている状況に応じて該使用者との対話可能時間を算出する対話可能時間算出手段と、少なくとも前記対話可能時間検出手段により算出された対話可能時間に応じて対話制御を行う対話制御手段とを備えることを特徴とする(第1発明)。
この第1発明の音声対話装置では、使用者からの音声入力の認識結果に基づいて、対話制御手段により、使用者への出力が決定され、この出力に応じて使用者からの次の音声入力がなされることで、使用者との対話が行われる。そして、この対話を通じて機器の操作や使用者への情報の提供等が行われる。
このとき、使用者が置かれている状況に応じて、対話をするための時間的な余裕は様々である。そこで、対話可能時間算出手段は、使用者が置かれている状況に応じて、使用者との対話可能時間を算出する。ここで、対話可能時間は、使用者の時間的な余裕に対応した、使用者が装置との対話に費やすことが可能と想定される時間である。そして、対話制御手段は、この対話可能時間に応じて対話制御を行う。これにより、例えば、対話全体が対話可能時間内に収まるように、出力に含まれる情報やその量を調整したり、出力する応答文の言い回しや速度を決定することが可能となる。従って、本発明によれば、使用者の状況に柔軟に対応して、適切な時間で使用者の要望に合致した対話を行うことができる。
また、第1発明の音声対話装置において、前記音声対話装置が車両に搭載され、前記使用者が前記車両の搭乗者である場合に、前記車両の走行環境を検出する走行環境検出手段を備え、前記対話可能時間算出手段は、前記使用者が置かれている状況として、前記走行環境検出手段により検出された走行環境を用い、該走行環境に基づいて前記対話可能時間を算出することが好ましい(第2発明)。
すなわち、使用者が車両の運転者等の搭乗者である場合、車両の走行環境に応じて、対話を行うための使用者の時間的な余裕は相違するものとなる。よって、走行環境検出手段により検出された走行環境に基づいて対話可能時間を算出し、この対話可能時間に応じて対話制御を行うことで、適切な時間で使用者の要望に合致した対話を行うことができる。
また、第2発明の音声対話装置において、前記走行環境は、前記車両が走行する道路に関する情報、該車両の走行状態に関する情報、及び該車両に搭載された機器の操作状態に関する情報の少なくともいずれかを含むことが好ましい(第3発明)。ここで、前記車両が走行する道路に関する情報は、例えば、該道路の種別、幅員、及び制限速度等である。また、前記車両の走行状態に関する情報は、例えば、該車両の走行速度、走行時間帯、車間距離、信号待ち時間、及び該車両と前記道路上の特定地点との距離等である。なお、特定地点とは、例えば、交差点や踏切等の、運転する際に注意を要するような地点である。また、前記車両に搭載された機器の操作状態に関する情報は、例えば、使用者による機器の操作頻度や、現在操作されている機器の数や種別等である。
これらの車両の走行環境に相当する情報は、車両の運転者等の時間的な余裕に関連するものである。すなわち、例えば、車両が高速で走行している場合や、車両が交差点に接近している場合には、運転者等の時間的な余裕は少なくなると考えられる。従って、これらの情報に基づいて対話可能時間を算出することで、使用者が置かれている状況を反映して対話可能時間を適切に算出することができる。
また、第1〜第3発明の音声対話装置において、前記音声対話装置との対話に関する前記使用者の特性を検出する使用者特性検出手段を備え、前記対話制御手段は、前記使用者特性検出手段によって検出された使用者の特性に応じて対話制御を行うことが好ましい(第4発明)。
この場合、対話に関する使用者の嗜好や習熟度等の使用者の特性に応じて、使用者の対話に対する要望が変化することから、使用者特性検出手段により使用者の特性を検出し、この使用者の特性に応じて、対話制御手段は対話制御を行う。これにより、対話可能時間に加えて、使用者の特性を反映して、出力に含まれる情報やその量を調整したり、出力する応答文の言い回しや速度を決定したりすることが可能となる。従って、使用者の要望により合致した対話を行うことができる。
また、第4発明の音声対話装置において、前記使用者特性検出手段は、前記使用者が前記対話を行った履歴に基づいて、前記使用者の特性を検出することが好ましい(第5発明)。
この場合、使用者が対話を行った履歴から、使用者特性検出手段により、例えば、使用者が所定の機器の操作に関する対話を行う頻度や、その対話に費やした時間や、その対話における入力音声の認識の度合等が検出される。よって、これらの検出結果に基づいて、対話に関する使用者の嗜好や習熟度等の使用者の特性が適切に把握される。
また、第4又は第5発明の音声対話装置において、前記使用者特性検出手段は、前記使用者の特性として、該使用者の前記音声対話装置との対話の習熟度を検出することが好ましい(第6発明)。この場合、例えば、装置との対話に不慣れな使用者で、習熟度が低い場合、詳細な音声ガイドをゆっくり発話することが望まれると想定される。一方、装置との対話に慣れた使用者で、習熟度が高い場合、冗長な対話とならないよう、簡潔で短い音声ガイドを早く発話することが望まれると想定される。従って、使用者の特性として対話の習熟度を検出し、この検出結果に応じて、対話制御手段は対話制御を行うことにより、対話可能時間に加えて、使用者の習熟度を反映して、出力に含まれる情報やその量を調整したり、出力する応答文の言い回しや速度を決定したりすることが可能となる。従って、使用者の要望により合致した対話を行うことができる。
また、第1〜第6発明の音声対話装置において、前記対話制御手段による対話制御における前記使用者に出力する情報の重要度を判断する情報重要度判断手段を備え、前記対話制御手段は、前記情報重要度判断手段による判断結果に応じて対話制御を行うことが好ましい(第7発明)。すなわち、情報の重要度とは、使用者における、その情報の必要性、緊急性の度合である。例えば、車両が交差点に接近している場合に、交通情報のうちその交差点の情報は運転者にとって重要度が高くなると想定される。また、例えば、事故等の情報は、天候や自然渋滞等の情報に比べて、運転者にとって重要度が高いと想定される。このとき、情報重要度判断手段により、使用者に出力する情報の重要度が判断されるので、対話制御を行う際に、例えば、重要度の高い情報から優先的に出力されるように、情報及びその量を決定することが可能となる。従って、使用者の要望により合致した対話を行うことができる。
次に、本発明の音声対話方法は、使用者からの音声入力に対応して、該使用者との対話制御を行う音声対話方法であって、前記使用者が置かれている状況に応じて該使用者との対話可能時間を算出する対話可能時間算出ステップと、少なくとも前記対話可能時間算出ステップにより算出された対話可能時間に応じて対話制御を行う対話制御ステップとを備えたことを特徴とする(第8発明)。
この第8発明の音声対話方法によれば、第1発明の音声対話装置に関して説明したように、対話可能時間算出ステップで、使用者が置かれている状況に応じて、使用者との対話可能時間が算出され、対話制御ステップで、この対話可能時間に応じて対話制御を行うので、例えば、対話全体が対話可能時間内に収まるように、出力に含まれる情報やその量を調整したり、出力する応答文の言い回しや速度を決定することが可能となる。よって、本発明によれば、使用者の状況に柔軟に対応して、適切な時間で使用者の要望に合致した対話を行うことができる。
次に、本発明の音声対話用プログラムは、使用者からの音声入力に対応して、該使用者との対話制御を行う処理をコンピュータに実行させる音声対話用プログラムであって、前記使用者が置かれている状況に応じて該使用者との対話可能時間を算出する対話可能時間算出処理と、少なくとも前記対話可能時間検出処理により算出された対話可能時間に応じて、出力を決定して対話制御を行う対話制御処理とを前記コンピュータに実行させる機能を有することを特徴とする(第9発明)。
この第9発明の音声対話用プログラムによれば、第1発明に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。
本発明の一実施形態を図1〜図11を参照して説明する。図1は、本実施形態による音声対話装置の機能ブロック図であり、図2は、図1の音声対話装置の言語モデル、構文モデルの構成を示す説明図であり、図3は、図1の音声対話装置の全体的な作動(音声対話処理)を示すフローチャートであり、図4は、図3の音声対話処理における言語モデルを用いた音声認識処理を示す説明図であり、図5は、図3の音声対話処理における構文モデルを用いた構文解析処理を示す説明図である。また、図6は、図3の音声対話処理におけるシナリオを決定する処理に用いるフォームを示す説明図であり、図7は、図3の音声対話処理における対話可能時間を算出する処理を示すフローチャートであり、図8は、図3の音声対話処理におけるシナリオを決定する処理を示す説明図である。また、図9〜図11は、図3の音声対話処理における対話例を示す図である。
図1に示すように、本発明の実施形態である音声対話装置は音声対話ユニット1から成り、車両10に搭載されている。この音声対話ユニット1には、車両10の運転者から発話が入力されるマイク2が接続されると共に、車両10の走行環境を検出する走行環境検出部3が接続されている。また、音声対話ユニット1には、運転者への応答を出力するスピーカ4と、運転者への表示を行うディスプレイ5とが接続されている。さらに、音声対話ユニット1には、運転者が音声等で操作可能な複数の機器6a〜6cが接続されている。
マイク2は、車両10の運転者の音声が入力されるものであり、車内の所定位置に設置されている。マイク2は、例えば、トークスイッチにより音声の入力開始が指令されると、入力される音声を運転者の発話として取得する。トークスイッチは、車両10の運転者により操作されるON・OFFスイッチであり、押下してON操作されることによって音声の入力開始が指令される。
走行環境検出部3は、車両10の走行環境を検出するセンサ等である。車両10の走行環境は、例えば、車両10の速度や加減速等の走行状態、車両10の走行している道路の種別等の道路状態、車両10に装備された機器(ワイパー、ウィンカー、ナビゲーションシステム、オーディオ等)の動作状態等である。具体的には、例えば、車両10の走行状態を検出するセンサとして、車両10の走行速度(車速)を検出する車速センサ、車両10のヨーレートを検出するヨーレートセンサ、車両10のブレーキ操作(ブレーキペダルが操作されているか否か)を検出するブレーキセンサ、前走車等を検知するレーダ等が挙げられる。さらに、車両10の走行環境として、車両10の車内温度等の車内の状態や、車両10の運転者の状態(運転者の手掌部の発汗、運転負荷等)を検出してもよい。
スピーカ4は、車両10の運転者への応答(音声ガイド)を出力するものである。なお、このスピーカ4としては、後述のオーディオ6aが有するスピーカを用いることができる。
ディスプレイ5は、例えば、車両10のフロントウィンドウに画像等の情報を表示するHUD(ヘッドアップディスプレイ)、車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、或いは後述のナビゲーションシステム6bに備えられたディスプレイ等である。なお、ナビゲーションシステム6bのディスプレイは、タッチスイッチが組み込まれたタッチパネルとなっている。
機器6a〜6cは、具体的には、車両10に装備されたオーディオ6a、ナビゲーションシステム6b、エアコンディショナ6cである。各機器6a〜6cには、制御可能な構成要素(デバイス,コンテンツ等)、機能、動作等が予め定められている。
例えば、オーディオ6aには、デバイスとして「CD」「MP3」「ラジオ」「スピーカ」等がある。また、オーディオ6aの機能として「音量」等がある。また、オーディオ6aの動作として「変更」「オン」「オフ」等がある。さらに、「CD」「MP3」の動作として、「再生」「停止」等がある。また、「ラジオ」の機能として「選局」等がある。また、「音量」の動作として「上げる」「下げる」等がある。
また、ナビゲーションシステム6bには、コンテンツとして「画面表示」「経路誘導」「POI検索」等がある。さらに、「画面表示」の動作として「変更」「拡大」「縮小」等がある。なお、「経路誘導」は音声ガイド等により目的地へ誘導する機能であり、「POI検索」は、例えばレストラン、ホテル等の目的地を検索する機能である。
また、エアコンディショナ6cには、その機能として「風量」「設定温度」等がある。また、エアコンディショナ6cの動作として「オン」「オフ」等がある。さらに、「風量」「設定温度」の動作として「変更」「上げる」「下げる」等がある。
これらの機器6a〜6cは、対象を制御するための情報(機器や機能の種別、動作の内容等)を指定することにより制御される。制御対象となる各機器6a〜6cのデバイス、コンテンツ、機能は複数のドメインに分類されている。「ドメイン」とは認識対象のカテゴリに応じた分類を意味し、具体的には、制御対象である機器やその機能を表す。ドメインは、例えば「オーディオ」のドメインが、その下位で「CD」「ラジオ」のドメインに分類されるといったように、階層的に指定することができる。
音声対話ユニット1は、詳細の図示は省略するが、入力アナログ信号をデジタル信号に変換するA/D変換回路と、音声のデータを記憶するメモリと、該メモリに記憶されたデータにアクセス(読み出し及び書き込み)するためのインタフェース回路を有して、該音声のデータに対して各種の演算処理を行うコンピュータ(CPU,メモリ,入出力回路等からなる演算処理回路、或いはこれらの機能を集約したマイクロコンピュータ)等により構成された電子ユニットである。なお、音声のデータを記憶するメモリとしては、当該コンピュータの内部メモリ又は外部の記憶媒体を用いることができる。
そして、音声対話ユニット1は、マイク2の出力(アナログ信号)がA/D変換回路を介してデジタル信号に変換されて入力される。そして、音声対話ユニット1は、入力されたデータに基づいて、運転者から入力された発話を認識する処理、この認識結果に基づいて、スピーカ4やディスプレイ5を介して運転者との対話や運転者への情報提示を行う処理、機器6a〜6cを制御する処理等を実行する。
これらの処理は、前記コンピュータのメモリに予め実装されたプログラムを当該コンピュータにより実行することにより実現される。このプログラムは、本発明の音声対話用プログラムを含んでいる。なお、当該プログラムはCD−ROM等の記録媒体を介してメモリに格納されてもよい。或いは、当該プログラムは外部のサーバからネットワークや人工衛星を介して配信または放送され、車両10に搭載された通信機器により受信された上でメモリに格納されてもよい。
より詳しくは、音声対話ユニット1は、上記プログラムにより実現される機能として、入力された音声を音響モデル15と言語モデル16とを用いて認識してテキストとして出力する音声認識部11と、認識されたテキストから構文モデル17を用いて発話の意味を理解する構文解析部12とを備えている。また、音声対話ユニット1は、発話の認識結果から特定される操作候補に基づいてシナリオデータベース18を用いてシナリオを決定し、運転者への応答や機器の制御等を行うシナリオ制御部13と、運転者に出力する音声による応答を音素モデル21を用いて合成する音声合成部14とを備えている。なお、「操作候補」は、発話の認識結果に基づいて特定される操作対象や操作内容の候補に相当する。
さらに詳細には、シナリオ制御部13は、その機能として、走行環境検出部3の検出結果に基づいて運転者との対話可能時間を算出する対話可能時間算出部32と、操作履歴格納部35に格納された操作履歴に基づいて運転者の特性を検出する使用者特性検出部33と、出力する応答文に含まれる情報の重要度を判断する情報重要度判断部34と、対話可能時間、運転者の特性、及び情報の重要度に基づいて対話制御を行う対話制御部31とを備えている。
なお、対話制御部31、対話可能時間算出部32、使用者特性検出部33、情報重要度判断部34は、それぞれ、本発明の対話制御手段、対話可能時間算出手段、使用者特性検出手段、情報重要度判断手段に相当する。
また、音響モデル15、言語モデル16、構文モデル17、シナリオデータベース18、音素モデル19は、それぞれ、データが記録されているCD−ROM、DVD、HDD等の記録媒体(データベース)である。
操作履歴格納部35には、操作対象や操作内容の履歴(操作履歴)が格納されている。具体的には、操作履歴格納部35には、データとして、運転者による機器6a〜6cの操作内容が、当該操作の日時と共に格納されている。さらに、これらのデータに基づいて、運転者による機器6a〜6cの使用頻度、使用回数等が把握される。
音声認識部11は、マイク2に入力された発話の音声を示す波形データを周波数分析して特徴ベクトルを抽出する。そして、音声認識部11は、抽出された特徴ベクトルに基づいて、入力された音声を認識して、単語列で表現されたテキストとして出力する「音声認識処理」を実行する。ここで、「テキスト」とは、単語の列で表現された、所定の意味を有する有意構文である。この音声認識処理は、次に説明するような確率統計的な手法を用いて、入力音声の音響的な特徴と言語的な特徴とを総合的に判断することにより実行される。
すなわち、音声認識部11は、まず、音響モデル15を用いて、抽出された特徴ベクトルに応じた発音データの尤度(以下、この尤度を適宜「音響スコア」という。)を評価し、当該音響スコアに基づいて発音データを決定する。また、音声認識部11は、言語モデル16を用いて、決定された発音データに応じた単語列で表現されたテキストの尤度(以下、この尤度を適宜「言語スコア」という。)を評価し、当該言語スコアに基づいてテキストを決定する。さらに、音声認識部11は、決定された全てのテキストについて、当該テキストの音響スコアと言語スコアとに基づいて音声認識の確信度(以下、この確信度を適宜「音声認識スコア」という。)を算出する。そして、音声認識部11は、この音声認識スコアが所定の条件を満たす単語列で表現されたテキストを、認識されたテキスト(Recognized Text)として出力する。
構文解析部12は、音声認識部11で認識されたテキストから、構文モデル17を用いて、入力された発話の意味を理解する「構文解析処理」を実行する。この構文解析処理は、次に説明するような確率統計的な手法を用いて、音声認識部11で認識されたテキストにおける単語間の関係(構文)を解析することにより実行される。
すなわち、構文解析部12は、認識されたテキストの尤度(以下、この尤度を適宜「構文解析スコア」という。)を評価し、当該構文解析スコアに基づいて、当該認識されたテキストの意味に対応するクラスに分類されたテキストを決定する。そして、構文解析部12は、構文解析スコアが所定の条件を満たすクラス分類されたテキスト(Categorized Text)を、入力された発話の認識結果に基づいて特定される操作候補群として、構文解析スコアと共に出力する。ここで、「クラス」とは、上述したドメインのような、操作対象や操作内容を表すカテゴリに応じた分類に相当する。例えば、認識されたテキストが「設定変更」「設定変更する」「設定を変える」「セッティング変更」である場合には、いずれも、クラス分類されたテキストは{Setup}となる。
シナリオ制御部13は、特定された操作候補と、走行環境検出部3から取得される車両10の状態とに基づいて、シナリオデータベース18に記録されたデータを用いて、運転者に対する応答出力や機器制御のシナリオを決定する。シナリオデータベース18には、応答出力や機器制御のための複数のシナリオが、操作候補や車両状態の条件と共に予め記録されている。そして、シナリオ制御部13は、決定されたシナリオに従って、音声や画像表示による応答を制御する処理や、機器を制御する処理を実行する。具体的には、シナリオ制御部13は、例えば、音声による応答では、出力する応答の内容(運転者の次の発話を促すための応答文や、運転者に情報を提供するための応答文や、操作の完了等を使用者に報知するための応答文)や、応答を出力する際の速度や音量を決定する。
このとき、シナリオ制御部13において、対話可能時間算出部32は、走行環境検出部3から取得される検出値に基づいて、対話可能時間を「大」「中」「小」の3段階に分類して設定する。また、使用者特性検出部33は、操作履歴格納部35に格納された操作履歴に基づいて、運転者の特性(本実施形態では、運転者の習熟度と操作経験)を「大」「中」「小」の3段階に分類して設定する。また、情報重要度判断手段34は、発話の認識結果から特定された操作に関連する情報の重要度を、「大」「中」「小」の3段階に分類して設定する。具体的には、情報重要度判断手段34は、各情報の重要度が予め登録されたデータベースから重要度を読み出し、この重要度を、発話の認識結果と、走行環境検出部3から取得された検出値と、使用者特性検出部3により検出された運転者の特性とに基づいて調整して、情報の重要度を判断する。
そして、対話制御部31は、情報の重要度に基づいて、重要度の高い情報から優先的に出力されるように、出力する応答文に含まれる情報を決定する。これと共に、対話制御部31は、対話可能時間と運転者の習熟度と情報の重要度とに基づいて、出力する応答文に含まれる情報量を決定する。
音声合成部14は、シナリオ制御部13で決定された応答文に応じて、音素モデル19を用いて音声を合成して、音声を示す波形データとして出力する。音声は、例えばTTS(Text to Speech)等の処理を用いて合成される。具体的には、音声合成部14は、シナリオ制御部13で決定された応答文のテキストを音声出力に適した表現に正規化し、この正規化したテキストの各単語を発音データに変換する。そして、音声合成部14は、音素モデル19を用いて発音データから特徴ベクトルを決定し、この特徴ベクトルにフィルタ処理を施して波形データに変換する。この波形データは、スピーカ4から音声として出力される。
音響モデル(Acoustic Model)15には、特徴ベクトルと発音データとの確率的な対応を示すデータが記録されている。詳細には、音響モデル15には、認識単位(音素、形態素、単語等)毎に用意された複数のHMM(Hidden Markov Model、隠れマルコフモデル)がデータとして記録されている。HMMは、音声を定常信号源(状態)の連結で表し、時系列をある状態から次の状態への遷移確率で表現する統計的信号源モデルである。HMMにより、時系列で変動する音声の音響的な特徴を簡易な確率モデルで表現することができる。HMMの遷移確率等のパラメータは、対応する学習用の音声データを与えて学習させることにより予め決定される。また、音素モデル19にも、発音データから特徴ベクトルを決定するための、音響モデル15と同様のHMMが記録されている。
言語モデル(Language Model)16には、認識対象である単語の出現確率や接続確率を示すデータが、この単語の発音データ及びテキストと共に記録されている。認識対象である単語とは、対象を制御するための発話で使用される可能性のある単語として予め定められるものである。単語の出現確率や接続確率等のデータは、大量の学習テキストコーパスを解析することにより統計的に作成される。また、単語の出現確率は、例えば、学習テキストコーパスにおけるその単語の出現頻度等に基づいて算出される。
この言語モデル16には、例えば、特定のN個の単語が連続して出現する確率により表現されるNグラム(N-gram)の言語モデルが用いられる。本実施形態では、言語モデル16には、入力された発話に含まれる単語数に応じたNグラムが用いられる。具体的には、言語モデル16では、Nの値が発音データに含まれる単語数以下のNグラムが用いられる。例えば発音データに含まれる単語数が2である場合、1単語の出現確率で表現されるユニグラム(Uni-gram,N=1)、及び2つの単語の列の生起確率(先行する1単語についての条件付き出現確率)で表現されるバイグラム(Bi-gram,N=2)が用いられる。
さらに、言語モデル16では、Nの値を所定の上限値に制限してNグラムを用いることもできる。所定の上限値としては、例えば、予め定められた所定値(例えばN=2)や、入力された発話に対する音声認識処理の処理時間が所定時間以内になるように逐次設定される値等を用いることができる。例えばN=2を上限値としてNグラムを用いる場合、発音データに含まれる単語数が2より大きいときにも、ユニグラム及びバイグラムのみが用いられる。これにより、音声認識処理の演算コストが過大になることを防止して、運転者の発話に対して適切な応答時間で応答を出力することができる。
構文モデル(Parser Model)17には、認識対象である単語の出現確率や接続確率を示すデータが、この単語のテキスト及びクラスと共に記録されている。この構文モデル17には、例えば、言語モデル16と同様にNグラムの言語モデルが用いられる。本実施形態では、具体的には、構文モデル17では、N=3を上限値として、Nの値が認識されたテキストに含まれる単語数以下のNグラムが用いられる。すなわち、構文モデル17では、ユニグラム、バイグラム、及び3つの単語の列の生起確率(先行する2単語についての条件付き出現確率)で表現されるトライグラム(Tri-gram,N=3)が用いられる。なお、上限値は3以外でもよく、任意に設定可能である。また、上限値に制限せずに、Nの値が認識されたテキストに含まれる単語数以下のNグラムを用いるものとしてもよい。
図2に示すように、言語モデル16と構文モデル17とは、それぞれ、ドメインの種類毎に分類されて作成されている。図2の例では、ドメインの種類は、{Audio,Climate,Passenger Climate,POI,Ambiguous,Navigation,Clock,Help}の8種類である。{Audio}は操作対象がオーディオ6aであること、{Climate}は操作対象がエアコンディショナ6cであること、{Passenger Climate}は操作対象が助手席のエアコンディショナ6cであること、{POI}は操作対象がナビゲーションシステム6bのPOI検索機能であること、{Navigation}は操作対象がナビゲーションシステム6bの経路誘導や地図操作等の機能であること、{Clock}は操作対象が時計機能であること、{Help}は操作対象が機器6a〜6cや音声認識装置の操作方法を知るためのヘルプ機能であること、{Ambiguous}は操作対象が不明であることを、それぞれ示している。
次に、本実施形態の音声対話装置の作動(音声対話処理)について説明する。図3に示すように、まず、STEP1で、車両10の運転者から、対象を制御するための発話がマイク2に入力される。具体的には、運転者がトークスイッチをON操作して発話の入力開始を指令し、マイク2に音声を入力する。
次に、STEP2で、音声対話ユニット1は、入力された音声を認識してテキストとして出力する音声認識処理を実行する。
まず、音声対話ユニット1は、マイク2に入力された音声をA/D変換して音声を示す波形データを取得する。次に、音声対話ユニット1は、音声を示す波形データを周波数分析して特徴ベクトルを抽出する。これにより、音声を示す波形データは、例えば短時間スペクトル分析の手法によってフィルタ処理を施され、特徴ベクトルの時系列に変換される。この特徴ベクトルは、各時刻における音声スペクトルの特微量を抽出したもので、一般に10次元〜100次元(例えば39次元)であり、線形予測分析メルケプストラム(Linear Predictive Coding Mel Cepstrum)係数等が用いられる。
次に、音声対話ユニット1は、抽出された特徴ベクトルに対し、音響モデル15に記録された複数のHMMのそれぞれについて、当該特徴ベクトルの尤度(音響スコア)を評価する。そして、音声対話ユニット1は、当該複数のHMMのうちの音響スコアの高いHMMに対応する発音データを決定する。これにより、例えば「千歳」という発話が入力された場合、その音声の波形データから、「ti-to-se」という発音データがその音響スコアと共に得られる。このとき、例えば「マークセット」という発話が入力された場合、「ma-a-ku-se-t-to」という発音データと共に、「ma-a-ku-ri-su-to」のような音響的に類似の度合が高い発音データがそれぞれ音響スコアと共に得られる。
次に、音声対話ユニット1は、決定された発音データから、言語モデル16全体のデータを用いて、単語列で表現されたテキストを当該テキストの言語スコアに基づいて決定する。このとき、複数の発音データが決定されている場合には、各発音データについて、それぞれテキストが決定される。
具体的には、まず、音声対話ユニット1は、決定された発音データと言語モデル16に記録された発音データとを比較して、類似の度合の高い単語を抽出する。次に、音声対話ユニット1は、抽出された単語の言語スコアを、発音データに含まれる単語数に応じたNグラムを用いて算出する。そして、音声対話ユニット1は、発音データにおける各単語について、算出した言語スコアが所定の条件(例えば所定値以上)を満たすテキストを決定する。例えば、図4に示すように、入力された発話が「Set the station ninety nine point three FM.」である場合に、この発話から決定された発音データに応じたテキストとして、「set the station ninety nine point three FM」が決定される。
このとき、ユ二グラムでは、「set」「the」…「FM」のそれぞれの出現確率a1〜a8が与えられる。また、バイグラムでは、「set the」「the station」…「three FM」のそれぞれの2単語の生起確率b1〜b7が与えられる。同様に、N=3〜8について、N単語の生起確率c1〜c6,d1〜d5,e1〜e4,f1〜f3,g1〜g2,h1が与えられる。そして、例えばテキスト「ninety」の言語スコアは、発音データに含まれる単語「ninety」と当該単語に先行する単語とを合わせた単語数4に応じて、N=1〜4のNグラムから得られるa4,b3,c2,d1に基づいて算出される。
このように、入力された発話を、単語毎の確率統計的な言語モデルを用いてテキストとして書き起こす手法(ディクテーション)を用いることで、予め決められた言い回しの発話に限定されない、運転者の自然な発話の認識が可能となる。
次に、音声対話ユニット1は、決定された全てのテキストについて、音響スコアと言語スコアとの重み付き和を、音声認識の確信度(音声認識スコア)として算出する。なお、重み係数としては、例えば実験的に予め定められた値が用いられる。
次に、音声対話ユニット1は、算出した音声認識スコアが所定の条件を満たす単語列で表現されるテキストを、認識されたテキストとして決定して出力する。所定の条件は、例えば、音声認識スコアが最も高いテキスト、音声認識スコアが上位から所定順位までのテキスト、或いは音声認識スコアが所定値以上のテキスト等のように予め定められている。
次に、STEP3で、音声対話ユニット1は、認識されたテキストから発話の意味を理解する構文解析処理を実行する。具体的には、音声対話ユニット1は、構文モデル17を用いて、認識されたテキストから、クラス分類されたテキストを決定する。
まず、音声対話ユニット1は、構文モデル17全体のデータを用いて、認識されたテキストに含まれる単語について、それぞれ、1単語における各ドメインの尤度を算出する。次に、音声対話ユニット1は、当該尤度に基づいて1単語におけるドメインをそれぞれ決定する。次に、音声対話ユニット1は、構文モデル17のうち決定された種類のドメインに分類された部分のデータを用いて、1単語における各クラスの組(クラス分類されたテキスト)の尤度(単語スコア)を算出する。そして、音声対話ユニット1は、当該単語スコアに基づいて、1単語におけるクラス分類されたテキストを決定する。
同様に、音声対話ユニット1は、認識されたテキストに含まれる2単語列について、それぞれ、2単語における各ドメインの尤度を算出し、当該尤度に基づいて2単語におけるドメインを決定する。さらに、音声対話ユニット1は、2単語における各クラスの組の尤度(2単語スコア)を算出し、当該2単語スコアに基づいて2単語におけるクラスの組(クラス分類されたテキスト)を決定する。また、同様に、音声対話ユニット1は、認識されたテキストに含まれる3単語列について、それぞれ、3単語における各ドメインの尤度を算出し、当該尤度に基づいて3単語におけるドメインを決定する。さらに、音声対話ユニット1は、3単語における各クラスの組の尤度(3単語スコア)を算出し、当該3単語スコアに基づいて3単語におけるクラスの組(クラス分類されたテキスト)を決定する。
次に、音声対話ユニット1は、1単語、2単語、3単語で決定された各クラスの組と当該クラスの組のスコア(1単語スコア、2単語スコア、3単語スコア)とに基づいて、認識されたテキスト全体における各クラスの組の尤度(構文解析スコア)を算出する。そして、音声対話ユニット1は、当該構文解析スコアに基づいて、認識されたテキスト全体におけるクラスの組(クラス分類されたテキスト)を決定する。
ここで、図5に示す例を用いて、構文モデル17を用いてクラス分類されたテキストを決定する処理について説明する。図5の例では、認識されたテキストが「AC on floor to defrost」である。
このとき、構文モデル17全体を用いて、ユニグラムで、「AC」「on」…「defrost」について、それぞれ、1単語における各ドメインの尤度が算出される。そして、当該尤度に基づいて1単語におけるドメインが決定される。例えば、第1位の(尤度の最も高い)ドメインは、「AC」については{Climate}、「on」については{Ambiguous}、「defrost」については{Climate}と決定される。
さらに、構文モデル17のうちの決定されたドメインの種類に分類された部分のデータを用いて、ユニグラムで、「AC」「on」…「defrost」について、1単語における各クラスの組に対する尤度がそれぞれ算出される。そして、当該尤度に基づいて1単語におけるクラスの組が決定される。例えば、「AC」について、第1位の(尤度の最も高い)クラスの組は、{Climate_ACOnOff_On}と決定され、このクラスの組に対する尤度(単語スコア)i1が得られる。同様に、「on」…「defrost」について、クラスの組が決定され、このクラスの組に対する尤度(単語スコア)i2〜i5が得られる。
同様に、バイグラムで、「AC on」「on floor」…「to defrost」について、それぞれ、2単語における各ドメインの尤度が算出され、当該尤度に基づいて2単語におけるドメインが決定される。そして、2単語におけるクラスの組とその尤度(2単語スコア)j1〜j4が決定される。また、同様に、トライグラムで、「AC on floor」「on floor to」「floor to defrost」について、それぞれ、3単語における各ドメインの尤度が算出され、当該尤度に基づいて3単語におけるドメインが決定される。そして、3単語におけるクラスの組とその尤度(3単語スコア)k1〜k3が決定される。
次に、1単語、2単語、3単語で決定された各クラスの組について、例えば、各クラスの組の単語スコアi1〜i5、2単語スコアj1〜j4、3単語スコアk1〜k3の和が、テキスト全体における各クラスの組に対する尤度(構文解析スコア)として算出される。例えば、{Climate_Fan-Vent_Floor}に対する構文解析スコアは、i3+j2+j3+k1+k2となる。また、例えば、{Climate_ACOnOff_On}に対する構文解析スコアは、i1+j1となる。また、例えば、{Climate_Defrost_Front}に対する構文解析スコアは、i5+j4となる。そして、算出された構文解析スコアに基づいて、テキスト全体についてのクラスの組(クラス分類されたテキスト)が決定される。これにより、認識されたテキストから、{Climate_Defrost_Front}{Climate_Fan-Vent_Floor}{Climate_ACOnOff_On}といったクラス分類されたテキストが決定される。
次に、音声対話ユニット1は、算出された構文解析スコアが所定の条件を満たすようなクラス分類されたテキスト(Categorized Text)を、入力された発話の認識結果に基づいて特定される操作候補として、その操作候補の確信度(構文解析スコア)と共に出力する。所定の条件は、例えば、構文解析スコアが最も高いテキスト、構文解析スコアが上位から所定順位までのテキスト、或いは構文解析スコアが所定値以上のテキスト等のように予め定められている。例えば、上述のように「AC on floor to defrost」という発話が入力された場合に、操作候補として、{Climate_Defrost_Front}が、その構文解析スコアと共に出力される。
次に、STEP4〜9で、音声対話ユニット1は、STEP3で特定された操作候補に基づいて、シナリオデータベース18を用いて、運転者に対する応答出力や機器制御のためのシナリオを決定する。
まず、STEP4で、音声対話ユニット1は、特定された操作候補から、実際に行う操作を特定し、対象を制御するための情報を取得する。図6に示すように、音声対話ユニット1には、対象を制御するための情報を格納する複数のフォームが備えられている。各フォームには、必要な情報のクラスに対応した所定数のスロットが設けられている。例えば、ナビゲーションシステム6bを制御するための情報を格納するフォームとして、「Plot a route」「Traffic info.」等が備えられ、エアコンディショナ6cを制御するための情報を格納するフォームとして「Climate control」等が備えられている。また、フォーム「Plot a route」には、4つのスロット「From」「To」「Request」「via」が設けられている。
音声対話ユニット1は、運転者との対話における各回の発話の認識結果から特定される操作候補に基づいて、該当するフォームのスロットに値を入力していく。これと共に、各フォームについての確信度(フォームに入力された値の信頼の度合)を算出してフォームに記録する。フォームの確信度は、例えば、各回の発話の認識結果から特定される操作候補の確信度と、各フォームのスロットの埋まり具合とに基づいて算出される。例えば、図7に示すように、「千歳空港まで最短ルートで案内して」という発話が運転者から入力された場合には、フォーム「Plot a route」の3つのスロット「From」「To」「Request」に値「ここ」「千歳空港」「最短」が入力される。また、フォーム「Plot a route」の「Score」に、算出されたフォームの確信度80が記録される。そして、音声対話ユニット1は、フォームの確信度に基づいて、実際の制御処理に用いるフォームを選択して操作を特定する。
次に、STEP5で、音声対話ユニット1は、走行環境検出部3により検出された車両10の走行環境に基づいて、対話可能時間を算出する処理を行う。対話可能時間を算出する処理は、図7のフローチャートに示すように実行される。
図7を参照して、まず、STEP21で、音声対話ユニット1は、走行環境検出部3により検出された検出値に基づいて、車両10が走行中であるか否かを判断する。STEP21の判断結果がYES(車両10が走行中である)の場合、STEP22に進み、音声対話ユニット1は、走行環境検出部3により検出された、車両10が走行している道路の種別、幅員、車両10の車速、車間距離の検出値等をそれぞれ取得する。次に、STEP23で、音声対話ユニット1は、STEP22で取得された情報が予め定めた所定条件を満たすか否かに基づいて、運転者に時間的な余裕があるか否かを判断する。STEP23の判断結果がNO(運転者に余裕がない)の場合は、STEP29に進み、音声対話ユニット1は、対話可能時間を「小」に設定する。
STEP23の判断結果がYES(運転者に余裕がある)の場合は、STEP24に進み、音声対話ユニット1は、走行環境検出部3により検出されたイベント情報を取得する。イベント情報は、車両10が走行している道路上の、交差点等の特定地点に関する情報である。次に、STEP25で、音声対話ユニット1は、車両10と特定地点との距離に基づいて、イベントが近いか(交差点等が近いか)否かを判断する。STEP25の判断結果がYES(交差点等に近い)の場合には、STEP29に進み、音声対話ユニット1は、対話可能時間を「小」に設定する。STEP25の判断結果がNO(交差点等が近くない)の場合には、STEP30に進み、音声対話ユニット1は、対話可能時間を「中」に設定する。
STEP21の判断結果がNO(車両10が走行していない)の場合には、STEP26に進み、音声対話ユニット1は、車両10が道路上にあるか否かを判断する。すなわち、車両10が信号待ちや渋滞等により一時停止している状態にあるか、駐車場等で停止している状態かが判断される。STEP26の判断結果がNOの場合(車両10が一時停止中でない)には、音声対話ユニット1は、対話可能時間を「大」に設定する。
STEP26の判断結果がYESの場合(車両10が一時停止中である)は、音声対話ユニット1は、走行環境検出部3により検出された走行環境に基づいて、停止予測時間を算出する。停止予測時間は、車両10が一時停止の状態から走行を開始するまでと予測される時間である。具体的には、音声対話ユニット1は、路車間信号により信号残り時間を取得したり、レーダや車車間通信により前走車の状態を取得して、停止予測時間を算出する。
次に、STEP28で、STEP27で算出された停止予測時間に基づいて、運転者に時間的な余裕があるか否かを判断する。STEP28の判断結果がNO(運転者に余裕がない)の場合には、STEP30に進み、音声対話ユニット1は、対話可能時間を「中」に設定する。STEP28の判断結果がYES(運転者に余裕がある)の場合には、STEP31に進み、音声対話ユニット1は、対話可能時間を「大」に設定する。
以上の処理により、車両10が走行中で且つ運転者に余裕がない場合、及び車両10が走行中で且つ運転者に余裕はあるが交差点等が近い場合には、運転者が運転に集中にするため、対話に費やすことが可能な時間は少ないと想定して、対話可能時間が「小」に設定される。また、車両10が走行中で且つ運転者に余裕があり交差点等に近くない場合、及び車両10が一時停止中で運転者に余裕がない場合には、対話可能時間が「中」に設定される。また、車両10が走行中でなく道路上でもない場合、及び車両10が一時停止中で運転者に余裕がある場合には、車両10が継続的に停止しているので、運転者が対話に費やすことが可能な時間は多いと想定して、対話可能時間が「大」に設定される。これにより、運転者の時間的な余裕を反映して、対話可能時間が適切に設定される。
図3に戻り、次に、STEP7で、音声対話ユニット1は、操作履歴格納部35に格納された操作履歴に基づいて、運転者の特性を検出する。具体的には、音声対話ユニット1は、運転者が音声対話装置と対話を行う頻度と、該対話を行った際の音声認識の成功の度合(例えば成功回数)との積に、予め定めた所定の係数を乗じた値を対話の習熟度を示す値とする。この値は、運転者が音声対話装置との対話に慣れている度合を示す指標である。そして、音声対話ユニット1は、この値を所定の閾値と比較して、運転者の対話に関する習熟度を「大」「中」「小」の3段階に分類する。また、音声対話ユニット1は、発話の認識結果から特定された操作についての操作回数を、該操作の操作経験を示す値として取得する。そして、音声対話ユニット1は、この値を所定の閾値と比較して、運転者の所定の操作に関する操作経験を「大」「中」「小」の3段階に分類する。
次に、STEP7で、音声対話ユニット1は、情報の重要度を判断する処理を行う。具体的には、音声対話ユニット1は、発話の認識結果から特定された操作に関連する、シナリオデータベース18に格納された応答文に含まれる情報の重要度を、「大」「中」「小」の3段階に分類して設定する。このとき、まず、音声対話ユニット1は、予め登録された各情報の重要度を用いる。例えば、交通情報のうち、事故等の情報は重要度が高く、天候や自然渋滞等の情報は重要度が低いと予め登録されている。
さらに、音声対話ユニット1は、この重要度を、発話の認識結果と、走行環境検出部3から取得された検出値と、使用者特性検出部3により検出された運転者の特性とに基づいて調整して、情報の重要度を判断する。例えば、運転者が発話により提供を要求している情報(要求情報)は、重要度が高くなるように調整される。また、例えば、車両10が交差点に近づいている場合には、交差点の情報の重要度が高くなるように調整される。また、例えば、習熟度が「大」で操作経験が「小」の運転者には、操作経験を増やせるように、機能の説明等の関連情報の重要度が高くなるように調整される。これにより、運転者の置かれている状況や特性を反映して情報の重要度が判断される。
次に、STEP8で、音声対話ユニット1は、シナリオデータベース18に格納されたデータを用いて、シナリオを決定する。そして、音声対話ユニット1は、発話の認識結果から機器の制御の内容が特定されている場合には、決定されたシナリオに基づいて機器を制御する。
シナリオデータベース18には、運転者へ出力する応答文等が、スロットの埋まり具合や含まれる情報毎に分類されて格納されている。例えば、選択されたフォーム内に空きスロット(値が入力されていないスロット)がある場合には、運転者へフォーム内の空きスロットの入力を促すような応答文を出力するシナリオが決定される。
また、例えば、選択されたフォーム内の全てのスロットが全て埋まっている(値が入力されている)場合には、内容を確認するような応答文(例えば各スロットの入力値を運転者に報知する応答文)を出力するシナリオが決定される。さらに、例えば、運転者が発話により情報の提供を要求している場合には、その情報を提供するような応答文を出力するシナリオが決定される。
このとき、音声対話ユニット1は、情報の重要度に基づいて、重要度の高い情報から優先的に出力されるように、出力する応答文に含まれる情報を決定する。これと共に、音声対話ユニット1は、対話可能時間と運転者の習熟度と情報の重要度とに基づいて、出力する応答文に含まれる情報量を決定する。
ここで、図8を参照して、情報量を決定する処理について説明する。図8(a)に示すように、音声対話ユニット1は、情報量を「A」「B」「C」の3段階に設定する。このとき、まず、図8(b)に示すように、対話可能時間と習熟度の組み合わせに応じて、情報量が設定される。すなわち、運転者の習熟度が「中」の場合は、対話可能時間「大」「中」「小」に応じて、情報量「A」「B」「C」がそれぞれ設定される。これに対して、運転者の習熟度が「大」の場合は、より多くの情報量となるように設定される。また、運転者の習熟度が「小」の場合は、より少ない情報量となるように設定される。
さらに、対話可能時間と習熟度との組み合わせに応じて設定された情報量「A」「B」「C」について、図8(c)に示すように、情報の重要度に応じて情報量が調整される。ここで、図8(c)の情報の重要度「大」「中」「小」は、発話の認識結果から特定された操作に関連する情報全体の重要度を示す。情報全体の重要度は、例えば、操作に関連する情報のうち重要度が高い情報の割合等である。図8(c)に示すように、この情報全体の重要度が「中」の場合は、対話可能時間と習熟度の組み合わせにより設定された情報量「A」「B」「C」がそのまま設定される。これに対して、情報全体の重要度が「大」の場合は、より多くの情報量となるように設定される。また、情報全体の重要度が「小」の場合は、より少ない情報量となるように設定される。これにより、適切な時間で使用者の要望に合致した対話が行われるように情報量が設定される。
図3に戻り、次に、STEP9で、音声対話ユニット1は、決定したシナリオに基づいて、運転者との対話が終了したか否かを判断する。STEP9の判断結果がNOの場合には、STEP10に進み、音声対話ユニット1は、決定された応答文の内容や応答文を出力する際の条件に応じて音声を合成する。そして、STEP11で、生成された応答文(運転者の次回の発話を促す応答文等)が、スピーカ4から出力される。
その後、STEP1に戻り、次の発話が運転者から入力される。以下、STEP9の判断結果がYESとなるまで、上述のSTEP1〜11と同様の処理が繰り返される。
最後に、STEP9の判断結果がYESの場合には音声対話処理を終了する。このとき、例えば、機器制御の完了等を使用者に報知するシナリオが決定されている場合には、音声対話ユニット1は、決定された応答文の内容や応答文を出力する際の条件に応じて音声を合成する。そして、生成された応答文(機器制御の完了等を使用者に報知する応答文等)がスピーカ4から出力される。
以上の処理によって、使用者の状況に柔軟に対応して、適切な時間で使用者の要望に合致した対話を行うことができる。
[対話例]
次に、上述した音声対話処理について、図9〜図11に示した対話例1〜3を用いて具体的に説明する。対話例1〜3は、いずれもユーザ(運転者)がシステム(音声対話装置)との対話によりナビゲーションシステム6bを操作して交通情報の提供を要求している場合である。
<対話例1>
まず、図9に示す対話例1について説明する。対話例1は、ユーザに時間的な余裕があり、ユーザの対話の習熟度が高く、操作経験が多い場合の例を示す。
[対話例]
次に、上述した音声対話処理について、図9〜図11に示した対話例1〜3を用いて具体的に説明する。対話例1〜3は、いずれもユーザ(運転者)がシステム(音声対話装置)との対話によりナビゲーションシステム6bを操作して交通情報の提供を要求している場合である。
<対話例1>
まず、図9に示す対話例1について説明する。対話例1は、ユーザに時間的な余裕があり、ユーザの対話の習熟度が高く、操作経験が多い場合の例を示す。
まず、図3のSTEP1で、ユーザから「この先は混んでるでしょうか」という1回目の発話が入力される。次に、STEP2で、音声認識処理により認識されたテキストが得られ、STEP3で、構文解析処理により認識されたテキストの意味に対応する操作候補が得られ、STEP4で、実際に行われる操作(交通情報の提供)が特定される。
次に、STEP5で、対話可能時間が「大」と算出され、STEP6で、ユーザの習熟度及び操作経験が「大」と検出される。そして、STEP7で、交通情報の提供に関連する情報が抽出されると共に、その各情報の優先度が判断される。なお、交通情報の全体的な重要度は「中」となる。
次に、STEP8で、出力に含まれる情報及びその量が決定される。このとき、対話可能時間が「大」で習熟度が「大」であり、全体的な情報の重要度が「中」であるので、情報量が最も多い「A」と決定される。従って、多くの情報量を出力することが可能なので、ユーザの発話が要求する情報に直接対応する応答文(図9(a))に加えて、関連情報として、渋滞の原因に関する応答文(図9(b))や、目的地の混雑に関する応答文(図9(c))を出力するシナリオが決定される。そして、STEP10で音声が合成され、STEP11でスピーカ4から出力される。
次に、STEP1に戻り、ユーザから「大丈夫なの?」という発話が入力され、STEP2〜4で発話の認識結果から操作が特定される。そして、1回目の発話と同様に、STEP5で、対話可能時間が「大」と算出され、STEP6で、ユーザの習熟度及び操作経験が「大」と検出される。そして、STEP7で、交通情報の提供に関連する情報が抽出されると共に、その各情報の優先度が判断される。
次に、STEP8で、1回目の発話と同様に、情報量が最も多い「A」と決定される。従って、多くの情報量を出力することが可能なので、ユーザの発話が要求する情報に直接対応する応答文(図9(d))に加えて、関連情報として、天候に関する応答文(図9(e))を出力するシナリオが決定される。そして、STEP9で対話終了と判定され、音声が合成されスピーカ4から出力されて、対話が終了される。
このように、ユーザに時間的な余裕があり、ユーザの対話の習熟度が高く、操作経験が多い場合には、要求情報が簡潔に出力されると共に、多くの関連情報が提供されるように対話制御が行われる。
<対話例2>
次に、図10に示す対話例2について説明する。対話例2は、ユーザに時間的な余裕があり、ユーザの習熟度が高く、操作経験が少ない場合の例を示す。
<対話例2>
次に、図10に示す対話例2について説明する。対話例2は、ユーザに時間的な余裕があり、ユーザの習熟度が高く、操作経験が少ない場合の例を示す。
まず、図3のSTEP1で、対話例1と同様に、ユーザから「この先は混んでるでしょうか」という1回目の発話が入力され、STEP2〜4で発話の認識結果から操作が特定される。
次に、STEP5で、対話可能時間が「大」と算出され、STEP6で、ユーザの習熟度が「大」と検出され、ユーザの操作経験が「小」と検出される。そして、STEP7で、交通情報の提供に関連する情報が抽出されると共に、その各情報の優先度が判断される。このとき、習熟度が「大」で操作経験が「小」の運転者には、操作経験を増やせるように、機能の説明等の関連情報の重要度が高くなるように調整される。
次に、STEP8で、出力に含まれる情報及びその量が決定される。このとき、対話可能時間が「大」で習熟度が「大」であり、全体的な情報の重要度が「中」であるので、情報量が最も多い「A」と決定される。従って、多くの情報量を出力することが可能なので、ユーザの発話が要求する情報に直接対応する応答文(図10(a))に加えて、関連情報として、重要度が比較的高く設定された、機能の紹介に関する応答文(図10(b))を出力するシナリオが決定される。そして、STEP10で音声が合成され、STEP11でスピーカ4から出力される。
次に、STEP1に戻り、ユーザから次の発話が入力され、以下同様にSTEP1〜11の処理が繰り返され、図10(c)〜(g)の応答文が出力され、対話が行われる。そして、最後に、STEP9で対話終了と判定され、図10(h)の応答文の音声が合成されスピーカ4から出力されて、対話が終了される。
このように、ユーザに時間的な余裕があり、ユーザの習熟度が高く、操作経験が少ない場合には、ユーザの操作経験を増やすよう、図10(b),(e)のように機能の紹介をしながら、対話のやり取りが多くなるように対話制御が行われる。
<対話例3>
次に、図11に示す対話例3について説明する。対話例3は、交差点が近いためユーザの時間的な余裕が少なく、ユーザの習熟度と操作経験が中程度である例を示す。
<対話例3>
次に、図11に示す対話例3について説明する。対話例3は、交差点が近いためユーザの時間的な余裕が少なく、ユーザの習熟度と操作経験が中程度である例を示す。
まず、図3のSTEP1で、対話例1と同様に、ユーザから「この先は混んでるでしょうか」という1回目の最初の発話が入力され、STEP2〜4で発話の認識結果から操作が特定される。
次に、STEP5で、対話可能時間が「小」と算出され、STEP6で、ユーザの習熟度と操作経験が「中」と検出される。そして、STEP7で、交通情報の提供に関連する情報が抽出されると共に、その各情報の優先度が判断される。このとき、交差点が近いので、交差点の情報の重要度が高くなるように調整される。
次に、STEP8で、出力に含まれる情報及びその量が決定される。このとき、対話可能時間が「小」で習熟度が「小」であり、全体的な情報の重要度が「中」であるので、情報量が最も少ない「C」と決定される。従って、少ない情報量した出力できないので、ユーザの発話が要求する情報に直接対応する応答文(図11(a))と、重要度が高く設定された交差点に関する応答文(図11(b))を出力するシナリオが決定される。そして、STEP9で対話終了と判定され、音声が合成されスピーカ4から出力されて、対話が終了される。
このように、ユーザに時間的な余裕が少ない場合には、重要度の高い情報が簡潔に提供されるように対話制御が行われる。
以上の対話例1〜3で示したように、同じ1回目の発話に対して、ユーザの状況に柔軟に対応して対話が制御され、効率の良い対話を介して情報の提供が行われる。
なお、本実施形態において、対話可能時間算出部32、使用者特性検出部33、情報重要度判断部34、対話制御部31は、対話可能時間、使用者の特性、情報の重要度、情報量をそれぞれ3段階に設定するものとしたが、2段階、或いは4段階以上でも任意に設定可能である。または、連続的に変化する値をそれぞれ設定するものとしてもよい。
また、本実施形態において、使用者特性検出部33は、運転者の特性として、対話に関する習熟度と、所定の操作の操作経験とを検出し、情報優先度判断部34及び対話制御部31は、これらの特性を用いて情報の優先度を判断し、出力する応答文に含まれる情報量を決定したが、運転者の特性として、運転者の対話や所定の操作に対する嗜好等を検出して用いるものとしてもよい。
また、本実施形態においては、入力された発話を、単語毎の確率統計的な言語モデルを用いてテキストとして書き起こす手法(ディクテーション)を用いて認識したが、他の実施形態として、認識対象である単語が予め登録された音声認識辞書を用いて、入力された発話を認識するものとしてもよい。
また、本実施形態においては、音声入力する使用者は、車両10の運転者としたが、運転者以外の乗員としてもよい。
また、本実施形態においては、音声対話装置は、車両10に搭載されるものとしたが、車両以外の移動体に搭載されるものとしてもよい。さらに、移動体に限らず、使用者が発話により対象を操作するシステムに適用可能である。この場合、使用者が置かれている状況としては、例えば、使用者の動作状態(歩行中等)や対話の時間帯等を用いることができる。
1…音声対話ユニット、2…マイク、3…走行環境検出部、4…スピーカ、5…ディスプレイ、6a〜6c…機器、10…車両、11…音声認識部、12…構文解析部、13…シナリオ制御部、14…音声合成部、15…音響モデル、16…言語モデル、17…構文モデル、18…シナリオデータベース、19…音素モデル、31…対話制御部、32…対話可能時間算出部、33…使用者特性検出部、34…情報重要度判断部、35…操作履歴格納部。
Claims (9)
- 使用者からの音声入力に対応して、該使用者との対話制御を行う音声対話装置であって、
前記使用者が置かれている状況に応じて該使用者との対話可能時間を算出する対話可能時間算出手段と、
少なくとも前記対話可能時間検出手段により算出された対話可能時間に応じて対話制御を行う対話制御手段と
を備えることを特徴とする音声対話装置。 - 請求項1記載の音声対話装置において、
前記音声対話装置は車両に搭載され、
前記使用者は前記車両の搭乗者であり、
前記車両の走行環境を検出する走行環境検出手段を備え、
前記対話可能時間算出手段は、前記使用者が置かれている状況として、前記走行環境検出手段により検出された走行環境を用い、該走行環境に基づいて前記対話可能時間を算出することを特徴とする音声対話装置。 - 請求項2記載の音声対話装置において、
前記走行環境は、前記車両が走行する道路に関する情報、該車両の走行状態に関する情報、及び該車両に搭載された機器の操作状態に関する情報の少なくともいずれかを含むことを特徴とする音声対話装置。 - 請求項1〜3のうちいずれか記載の音声対話装置において、
前記音声対話装置との対話に関する前記使用者の特性を検出する使用者特性検出手段を備え、
前記対話制御手段は、前記使用者特性検出手段によって検出された使用者の特性に応じて対話制御を行うことを特徴とする音声対話装置。 - 請求項4記載の音声対話装置において、
前記使用者特性検出手段は、前記使用者が前記対話を行った履歴に基づいて、前記使用者の特性を検出することを特徴とする音声対話装置。 - 請求項4又は5記載の音声対話装置において、
前記使用者特性検出手段は、前記使用者の特性として、該使用者の前記音声対話装置との対話の習熟度を検出することを特徴とする音声対話装置。 - 請求項1〜6のうちいずれか記載の音声対話装置において、
前記対話制御手段による対話制御における前記使用者に出力する情報の重要度を判断する情報重要度判断手段を備え、
前記対話制御手段は、前記情報重要度判断手段による判断結果に応じて対話制御を行うことを特徴とする音声対話装置。 - 使用者からの音声入力に対応して、該使用者との対話制御を行う音声対話方法であって、
前記使用者が置かれている状況に応じて該使用者との対話可能時間を算出する対話可能時間算出ステップと、
少なくとも前記対話可能時間算出ステップにより算出された対話可能時間に応じて対話制御を行う対話制御ステップと
を備えたことを特徴とする音声対話方法。 - 使用者からの音声入力に対応して、該使用者との対話制御を行う処理をコンピュータに実行させる音声対話用プログラムであって、
前記使用者の状況に応じて該使用者との対話可能時間を算出する対話可能時間算出処理と、
少なくとも前記対話可能時間検出処理により算出された対話可能時間に応じて、出力を決定して対話制御を行う対話制御処理と
を前記コンピュータに実行させる機能を有することを特徴とする音声対話用プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007075351A JP2008233678A (ja) | 2007-03-22 | 2007-03-22 | 音声対話装置、音声対話方法、及び音声対話用プログラム |
US12/053,755 US20080235017A1 (en) | 2007-03-22 | 2008-03-24 | Voice interaction device, voice interaction method, and voice interaction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007075351A JP2008233678A (ja) | 2007-03-22 | 2007-03-22 | 音声対話装置、音声対話方法、及び音声対話用プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008233678A true JP2008233678A (ja) | 2008-10-02 |
Family
ID=39775639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007075351A Pending JP2008233678A (ja) | 2007-03-22 | 2007-03-22 | 音声対話装置、音声対話方法、及び音声対話用プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20080235017A1 (ja) |
JP (1) | JP2008233678A (ja) |
Cited By (142)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120137435A (ko) * | 2010-01-18 | 2012-12-20 | 애플 인크. | 자동화 어시스턴트에 의한 선택 기준의 우선 순위화 |
CN102282610B (zh) * | 2009-01-20 | 2013-02-20 | 旭化成株式会社 | 声音对话装置、对话控制方法 |
JP2015068866A (ja) * | 2013-09-27 | 2015-04-13 | クラリオン株式会社 | 車両用装置、サーバ、及び、情報処理方法 |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
WO2019026617A1 (ja) * | 2017-08-01 | 2019-02-07 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
KR20190051600A (ko) * | 2017-11-07 | 2019-05-15 | 현대자동차주식회사 | 차량의 기능 추천 장치 및 방법 |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10332518B2 (en) | 2017-05-09 | 2019-06-25 | Apple Inc. | User interface for correcting recognition errors |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10403283B1 (en) | 2018-06-01 | 2019-09-03 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
JP2019526130A (ja) * | 2016-07-29 | 2019-09-12 | ニッサン ノース アメリカ,インク | 学習し適応するスマートチュートリアル |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
JP2019527387A (ja) * | 2016-06-24 | 2019-09-26 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 状況認知型のパーソナルアシスタント |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10607140B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10643611B2 (en) | 2008-10-02 | 2020-05-05 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10684703B2 (en) | 2018-06-01 | 2020-06-16 | Apple Inc. | Attention aware virtual assistant dismissal |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10699717B2 (en) | 2014-05-30 | 2020-06-30 | Apple Inc. | Intelligent assistant for home automation |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10789945B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Low-latency intelligent automated assistant |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11023513B2 (en) | 2007-12-20 | 2021-06-01 | Apple Inc. | Method and apparatus for searching using an active ontology |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US11069336B2 (en) | 2012-03-02 | 2021-07-20 | Apple Inc. | Systems and methods for name pronunciation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US11231904B2 (en) | 2015-03-06 | 2022-01-25 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
JP2022046551A (ja) * | 2018-08-06 | 2022-03-23 | 日産自動車株式会社 | 音声対話装置、音声対話システム、及び音声対話装置の制御方法 |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
US11314370B2 (en) | 2013-12-06 | 2022-04-26 | Apple Inc. | Method for extracting salient dialog usage from live data |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
WO2022208812A1 (ja) * | 2021-03-31 | 2022-10-06 | パイオニア株式会社 | 音声制御装置、音声制御システム、音声制御方法、音声制御プログラム及び記憶媒体 |
WO2022208783A1 (ja) * | 2021-03-31 | 2022-10-06 | 三菱電機株式会社 | 音声認識装置及び音声認識方法 |
US11495218B2 (en) | 2018-06-01 | 2022-11-08 | Apple Inc. | Virtual assistant operation in multi-device environments |
WO2023276347A1 (ja) * | 2021-06-29 | 2023-01-05 | 本田技研工業株式会社 | 音声案内装置、音声案内方法及びプログラム |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8181205B2 (en) | 2002-09-24 | 2012-05-15 | Russ Samuel H | PVR channel and PVR IPG information |
US9240188B2 (en) | 2004-09-16 | 2016-01-19 | Lena Foundation | System and method for expressive language, developmental disorder, and emotion assessment |
US10223934B2 (en) | 2004-09-16 | 2019-03-05 | Lena Foundation | Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback |
US8938390B2 (en) | 2007-01-23 | 2015-01-20 | Lena Foundation | System and method for expressive language and developmental disorder assessment |
US9355651B2 (en) | 2004-09-16 | 2016-05-31 | Lena Foundation | System and method for expressive language, developmental disorder, and emotion assessment |
US8078465B2 (en) * | 2007-01-23 | 2011-12-13 | Lena Foundation | System and method for detection and analysis of speech |
EP2126901B1 (en) | 2007-01-23 | 2015-07-01 | Infoture, Inc. | System for analysis of speech |
KR100998566B1 (ko) * | 2008-08-11 | 2010-12-07 | 엘지전자 주식회사 | 음성인식을 이용한 언어 번역 방법 및 장치 |
EP2211336B1 (en) * | 2009-01-23 | 2014-10-08 | Harman Becker Automotive Systems GmbH | Improved speech input using navigation information |
US9836276B2 (en) * | 2009-05-27 | 2017-12-05 | Hon Hai Precision Industry Co., Ltd. | Voice command processing method and electronic device utilizing the same |
US9146122B2 (en) * | 2010-09-24 | 2015-09-29 | Telenav Inc. | Navigation system with audio monitoring mechanism and method of operation thereof |
US9123339B1 (en) | 2010-11-23 | 2015-09-01 | Google Inc. | Speech recognition using repeated utterances |
WO2012169679A1 (ko) * | 2011-06-10 | 2012-12-13 | 엘지전자 주식회사 | 디스플레이 장치, 디스플레이 장치의 제어 방법 및 디스플레이 장치의 음성인식 시스템 |
US9367526B1 (en) * | 2011-07-26 | 2016-06-14 | Nuance Communications, Inc. | Word classing for language modeling |
US10957310B1 (en) | 2012-07-23 | 2021-03-23 | Soundhound, Inc. | Integrated programming framework for speech and text understanding with meaning parsing |
US9728184B2 (en) | 2013-06-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Restructuring deep neural network acoustic models |
US9589565B2 (en) * | 2013-06-21 | 2017-03-07 | Microsoft Technology Licensing, Llc | Environmentally aware dialog policies and response generation |
US9311298B2 (en) | 2013-06-21 | 2016-04-12 | Microsoft Technology Licensing, Llc | Building conversational understanding systems using a toolset |
US11295730B1 (en) | 2014-02-27 | 2022-04-05 | Soundhound, Inc. | Using phonetic variants in a local context to improve natural language understanding |
US9324321B2 (en) | 2014-03-07 | 2016-04-26 | Microsoft Technology Licensing, Llc | Low-footprint adaptation and personalization for a deep neural network |
US9529794B2 (en) | 2014-03-27 | 2016-12-27 | Microsoft Technology Licensing, Llc | Flexible schema for language model customization |
US9614724B2 (en) | 2014-04-21 | 2017-04-04 | Microsoft Technology Licensing, Llc | Session-based device configuration |
US9520127B2 (en) | 2014-04-29 | 2016-12-13 | Microsoft Technology Licensing, Llc | Shared hidden layer combination for speech recognition systems |
US9430667B2 (en) | 2014-05-12 | 2016-08-30 | Microsoft Technology Licensing, Llc | Managed wireless distribution network |
US9384335B2 (en) | 2014-05-12 | 2016-07-05 | Microsoft Technology Licensing, Llc | Content delivery prioritization in managed wireless distribution networks |
US10111099B2 (en) | 2014-05-12 | 2018-10-23 | Microsoft Technology Licensing, Llc | Distributing content in managed wireless distribution networks |
US9384334B2 (en) | 2014-05-12 | 2016-07-05 | Microsoft Technology Licensing, Llc | Content discovery in managed wireless distribution networks |
US9874914B2 (en) | 2014-05-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Power management contracts for accessory devices |
US10037202B2 (en) | 2014-06-03 | 2018-07-31 | Microsoft Technology Licensing, Llc | Techniques to isolating a portion of an online computing service |
US9367490B2 (en) | 2014-06-13 | 2016-06-14 | Microsoft Technology Licensing, Llc | Reversible connector for accessory devices |
CN104360897B (zh) * | 2014-10-29 | 2017-09-22 | 百度在线网络技术(北京)有限公司 | 对话处理方法和对话管理系统 |
EP3089159B1 (en) | 2015-04-28 | 2019-08-28 | Google LLC | Correcting voice recognition using selective re-speak |
KR102426171B1 (ko) * | 2017-10-13 | 2022-07-29 | 현대자동차주식회사 | 대화 시스템, 이를 포함하는 차량 및 대화 서비스 처리 방법 |
US10529357B2 (en) | 2017-12-07 | 2020-01-07 | Lena Foundation | Systems and methods for automatic determination of infant cry and discrimination of cry from fussiness |
CN109920429A (zh) * | 2017-12-13 | 2019-06-21 | 上海擎感智能科技有限公司 | 一种用于车载的语音识别数据处理方法及系统 |
WO2019146376A1 (ja) * | 2018-01-29 | 2019-08-01 | 株式会社Nttドコモ | 対話システム |
US10720156B2 (en) * | 2018-02-21 | 2020-07-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Co-pilot and conversational companion |
BR112021002265A2 (pt) * | 2018-08-06 | 2021-05-04 | Nissan Motor Co., Ltd. | dispositivo de diálogo por voz, sistema de diálogo por voz e método de controle do sistema de diálogo por voz |
JP7103089B2 (ja) * | 2018-09-06 | 2022-07-20 | トヨタ自動車株式会社 | 音声対話装置、音声対話方法および音声対話プログラム |
JP7002823B2 (ja) * | 2018-12-06 | 2022-01-20 | アルパイン株式会社 | 案内音声出力制御システムおよび案内音声出力制御方法 |
CN109725869B (zh) * | 2019-01-02 | 2022-10-21 | 百度在线网络技术(北京)有限公司 | 连续交互控制方法和装置 |
US11790895B2 (en) * | 2019-06-26 | 2023-10-17 | Samsung Electronics Co., Ltd. | System and method for natural language understanding |
WO2021112642A1 (en) * | 2019-12-04 | 2021-06-10 | Samsung Electronics Co., Ltd. | Voice user interface |
CN111081243A (zh) * | 2019-12-20 | 2020-04-28 | 大众问问(北京)信息科技有限公司 | 一种反馈方式调整方法、装置及设备 |
CN112017667B (zh) * | 2020-09-04 | 2024-03-15 | 华人运通(上海)云计算科技有限公司 | 语音交互方法、车辆和计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1020884A (ja) * | 1996-07-04 | 1998-01-23 | Nec Corp | 音声対話装置 |
JP2002099404A (ja) * | 2000-07-21 | 2002-04-05 | Matsushita Electric Ind Co Ltd | 対話制御方法及びその装置 |
JP2003108191A (ja) * | 2001-10-01 | 2003-04-11 | Toyota Central Res & Dev Lab Inc | 音声対話装置 |
JP2004233676A (ja) * | 2003-01-30 | 2004-08-19 | Honda Motor Co Ltd | 対話制御装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060106615A1 (en) * | 2004-11-17 | 2006-05-18 | Denso Corporation | Speech interaction apparatus and speech interaction method |
-
2007
- 2007-03-22 JP JP2007075351A patent/JP2008233678A/ja active Pending
-
2008
- 2008-03-24 US US12/053,755 patent/US20080235017A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1020884A (ja) * | 1996-07-04 | 1998-01-23 | Nec Corp | 音声対話装置 |
JP2002099404A (ja) * | 2000-07-21 | 2002-04-05 | Matsushita Electric Ind Co Ltd | 対話制御方法及びその装置 |
JP2003108191A (ja) * | 2001-10-01 | 2003-04-11 | Toyota Central Res & Dev Lab Inc | 音声対話装置 |
JP2004233676A (ja) * | 2003-01-30 | 2004-08-19 | Honda Motor Co Ltd | 対話制御装置 |
Cited By (207)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US11023513B2 (en) | 2007-12-20 | 2021-06-01 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US10381016B2 (en) | 2008-01-03 | 2019-08-13 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
US10108612B2 (en) | 2008-07-31 | 2018-10-23 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US10643611B2 (en) | 2008-10-02 | 2020-05-05 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US11348582B2 (en) | 2008-10-02 | 2022-05-31 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
CN102282610B (zh) * | 2009-01-20 | 2013-02-20 | 旭化成株式会社 | 声音对话装置、对话控制方法 |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10475446B2 (en) | 2009-06-05 | 2019-11-12 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
KR101654580B1 (ko) * | 2010-01-18 | 2016-09-06 | 애플 인크. | 자동화 어시스턴트에 의한 선택 기준의 우선 순위화 |
KR20120137435A (ko) * | 2010-01-18 | 2012-12-20 | 애플 인크. | 자동화 어시스턴트에 의한 선택 기준의 우선 순위화 |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10741185B2 (en) | 2010-01-18 | 2020-08-11 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US10984326B2 (en) | 2010-01-25 | 2021-04-20 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10607140B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10984327B2 (en) | 2010-01-25 | 2021-04-20 | New Valuexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US11410053B2 (en) | 2010-01-25 | 2022-08-09 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10607141B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US10692504B2 (en) | 2010-02-25 | 2020-06-23 | Apple Inc. | User profiling for voice input processing |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US10417405B2 (en) | 2011-03-21 | 2019-09-17 | Apple Inc. | Device access using voice authentication |
US11350253B2 (en) | 2011-06-03 | 2022-05-31 | Apple Inc. | Active transport based notifications |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US11120372B2 (en) | 2011-06-03 | 2021-09-14 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US11069336B2 (en) | 2012-03-02 | 2021-07-20 | Apple Inc. | Systems and methods for name pronunciation |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10657961B2 (en) | 2013-06-08 | 2020-05-19 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10769385B2 (en) | 2013-06-09 | 2020-09-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US11048473B2 (en) | 2013-06-09 | 2021-06-29 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
JP2015068866A (ja) * | 2013-09-27 | 2015-04-13 | クラリオン株式会社 | 車両用装置、サーバ、及び、情報処理方法 |
US11314370B2 (en) | 2013-12-06 | 2022-04-26 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US10699717B2 (en) | 2014-05-30 | 2020-06-30 | Apple Inc. | Intelligent assistant for home automation |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10417344B2 (en) | 2014-05-30 | 2019-09-17 | Apple Inc. | Exemplar-based natural language processing |
US10714095B2 (en) | 2014-05-30 | 2020-07-14 | Apple Inc. | Intelligent assistant for home automation |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10497365B2 (en) | 2014-05-30 | 2019-12-03 | Apple Inc. | Multi-command single utterance input method |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10657966B2 (en) | 2014-05-30 | 2020-05-19 | Apple Inc. | Better resolution when referencing to concepts |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10431204B2 (en) | 2014-09-11 | 2019-10-01 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10390213B2 (en) | 2014-09-30 | 2019-08-20 | Apple Inc. | Social reminders |
US10438595B2 (en) | 2014-09-30 | 2019-10-08 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10453443B2 (en) | 2014-09-30 | 2019-10-22 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US11556230B2 (en) | 2014-12-02 | 2023-01-17 | Apple Inc. | Data detection |
US11231904B2 (en) | 2015-03-06 | 2022-01-25 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10529332B2 (en) | 2015-03-08 | 2020-01-07 | Apple Inc. | Virtual assistant activation |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10311871B2 (en) | 2015-03-08 | 2019-06-04 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US11127397B2 (en) | 2015-05-27 | 2021-09-21 | Apple Inc. | Device voice control |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10354652B2 (en) | 2015-12-02 | 2019-07-16 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US11069347B2 (en) | 2016-06-08 | 2021-07-20 | Apple Inc. | Intelligent automated assistant for media exploration |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10580409B2 (en) | 2016-06-11 | 2020-03-03 | Apple Inc. | Application integration with a digital assistant |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US10942702B2 (en) | 2016-06-11 | 2021-03-09 | Apple Inc. | Intelligent device arbitration and control |
US11636305B2 (en) | 2016-06-24 | 2023-04-25 | Microsoft Technology Licensing, Llc | Situation aware personal assistant |
JP7195931B2 (ja) | 2016-06-24 | 2022-12-26 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 状況認知型のパーソナルアシスタント |
JP2019527387A (ja) * | 2016-06-24 | 2019-09-26 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 状況認知型のパーソナルアシスタント |
JP2019526130A (ja) * | 2016-07-29 | 2019-09-12 | ニッサン ノース アメリカ,インク | 学習し適応するスマートチュートリアル |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10332518B2 (en) | 2017-05-09 | 2019-06-25 | Apple Inc. | User interface for correcting recognition errors |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10847142B2 (en) | 2017-05-11 | 2020-11-24 | Apple Inc. | Maintaining privacy of personal information |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10789945B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Low-latency intelligent automated assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
JPWO2019026617A1 (ja) * | 2017-08-01 | 2020-09-10 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
US11430437B2 (en) | 2017-08-01 | 2022-08-30 | Sony Corporation | Information processor and information processing method |
JP7230804B2 (ja) | 2017-08-01 | 2023-03-01 | ソニーグループ株式会社 | 情報処理装置、及び情報処理方法 |
WO2019026617A1 (ja) * | 2017-08-01 | 2019-02-07 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
KR20190051600A (ko) * | 2017-11-07 | 2019-05-15 | 현대자동차주식회사 | 차량의 기능 추천 장치 및 방법 |
KR102348124B1 (ko) | 2017-11-07 | 2022-01-07 | 현대자동차주식회사 | 차량의 기능 추천 장치 및 방법 |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US10984798B2 (en) | 2018-06-01 | 2021-04-20 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10403283B1 (en) | 2018-06-01 | 2019-09-03 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11009970B2 (en) | 2018-06-01 | 2021-05-18 | Apple Inc. | Attention aware virtual assistant dismissal |
US11495218B2 (en) | 2018-06-01 | 2022-11-08 | Apple Inc. | Virtual assistant operation in multi-device environments |
US10684703B2 (en) | 2018-06-01 | 2020-06-16 | Apple Inc. | Attention aware virtual assistant dismissal |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US10504518B1 (en) | 2018-06-03 | 2019-12-10 | Apple Inc. | Accelerated task performance |
US10944859B2 (en) | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
JP2022046551A (ja) * | 2018-08-06 | 2022-03-23 | 日産自動車株式会社 | 音声対話装置、音声対話システム、及び音声対話装置の制御方法 |
WO2022208783A1 (ja) * | 2021-03-31 | 2022-10-06 | 三菱電機株式会社 | 音声認識装置及び音声認識方法 |
WO2022208812A1 (ja) * | 2021-03-31 | 2022-10-06 | パイオニア株式会社 | 音声制御装置、音声制御システム、音声制御方法、音声制御プログラム及び記憶媒体 |
WO2023276347A1 (ja) * | 2021-06-29 | 2023-01-05 | 本田技研工業株式会社 | 音声案内装置、音声案内方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20080235017A1 (en) | 2008-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4188989B2 (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
JP2008233678A (ja) | 音声対話装置、音声対話方法、及び音声対話用プログラム | |
JP4412504B2 (ja) | 音声認識装置、音声認識方法、及び音声認識用プログラム | |
JP4666648B2 (ja) | 音声応答システム、音声応答プログラム | |
JP2008064885A (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
US11170776B1 (en) | Speech-processing system | |
US11830485B2 (en) | Multiple speech processing system with synthesized speech styles | |
US11538478B2 (en) | Multiple virtual assistants | |
KR100679044B1 (ko) | 사용자 적응형 음성 인식 방법 및 장치 | |
US11579841B1 (en) | Task resumption in a natural understanding system | |
US11715472B2 (en) | Speech-processing system | |
JP2008089625A (ja) | 音声認識装置、音声認識方法及び音声認識プログラム | |
US20240071385A1 (en) | Speech-processing system | |
JP2008076811A (ja) | 音声認識装置、音声認識方法及び音声認識プログラム | |
US11783824B1 (en) | Cross-assistant command processing | |
US20230360633A1 (en) | Speech processing techniques | |
US11763809B1 (en) | Access to multiple virtual assistants | |
JP2008076812A (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
KR20200095636A (ko) | 대화 시스템이 구비된 차량 및 그 제어 방법 | |
US11922938B1 (en) | Access to multiple virtual assistants | |
US11961514B1 (en) | Streaming self-attention in a neural network | |
US20240105171A1 (en) | Data processing in a multi-assistant system | |
US20230315997A9 (en) | Dialogue system, a vehicle having the same, and a method of controlling a dialogue system | |
KR20230126571A (ko) | 자연어 처리 장치 및 자연어 처리 방법 | |
KR20210120286A (ko) | 대화 시스템, 그를 가지는 차량 및 대화 시스템의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100811 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100907 |