JP2020112732A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2020112732A
JP2020112732A JP2019004712A JP2019004712A JP2020112732A JP 2020112732 A JP2020112732 A JP 2020112732A JP 2019004712 A JP2019004712 A JP 2019004712A JP 2019004712 A JP2019004712 A JP 2019004712A JP 2020112732 A JP2020112732 A JP 2020112732A
Authority
JP
Japan
Prior art keywords
information
unit
vehicle
voice
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019004712A
Other languages
English (en)
Inventor
修 久木元
Osamu Kukimoto
修 久木元
龍也 桑本
Tatsuya Kuwamoto
龍也 桑本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019004712A priority Critical patent/JP2020112732A/ja
Publication of JP2020112732A publication Critical patent/JP2020112732A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】動的に状態が変化する移動体において、音声アシスタントを介し、移動体の状態に関連する各種情報の提供を受けること。【解決手段】実施形態に係る情報処理装置は、ユーザの発話指示に応じる音声アシスタントの機能を有し、移動体に搭載される情報処理装置であって、取得部と、変換部と、送信部とを備える。取得部は、移動体の状態に関する情報を取得する。変換部は、取得部によって取得された情報を音声データへ変換する。送信部は、変換部によって変換された音声データを音声アシスタントのサーバ装置へ送信する。【選択図】図2

Description

開示の実施形態は、情報処理装置および情報処理方法に関する。
従来、家庭等に設けられ、対話型の音声操作に対応した音声アシスタントの機能を有し、かかる音声アシスタントを介して、ユーザの発話指示に応じた各種情報の提供を行うスマートスピーカが知られている(たとえば、特許文献1参照)。
特開2018−182692号公報
しかしながら、上述した従来技術は、動的に状態が変化する車両において、音声アシスタントを介し、かかる車両の状態に関連する各種情報の提供を受けるうえで、さらなる改善の余地がある。
具体的には、家庭等で用いられるスマートスピーカにおいては、事前にテキスト入力された自宅住所等からスマートスピーカの状態の一つである位置が特定され、かかる静的な位置が、音声アシスタントを介した情報提供のための条件の一つとして反映されている。
今後、こうしたスマートスピーカのような、音声アシスタントを介した情報提供サービスが可能な情報処理装置は、車両にも搭載され、普及していくことが予想される。ただし、車両に搭載される場合、走行中は車両の状態が動的に変化するため、音声アシスタントに対し、かかる動的に変化する状態を車載システム側から入力する必要がある。
なお、かかる課題は、車両に限らず、ユーザが搭乗可能な移動体全般に共通する課題である。
実施形態の一態様は、上記に鑑みてなされたものであって、動的に状態が変化する移動体において、音声アシスタントを介し、移動体の状態に関連する各種情報の提供を受けることができる情報処理装置および情報処理方法を提供することを目的とする。
実施形態の一態様に係る情報処理装置は、ユーザの発話指示に応じる音声アシスタントの機能を有し、移動体に搭載される情報処理装置であって、取得部と、変換部と、送信部とを備える。前記取得部は、前記移動体の状態に関する情報を取得する。前記変換部は、前記取得部によって取得された情報を音声データへ変換する。前記送信部は、前記変換部によって変換された前記音声データを前記音声アシスタントのサーバ装置へ送信する。
実施形態の一態様によれば、動的に状態が変化する移動体において、音声アシスタントを介し、移動体の状態に関連する各種情報の提供を受けることができる。
図1Aは、比較例に係る情報処理方法の概要説明図である。 図1Bは、実施形態に係る情報処理方法の概要説明図である。 図2は、実施形態に係る情報処理システムの構成例を示すブロック図である。 図3Aは、実施形態に係る車載装置の配置例を示す図である。 図3Bは、実施形態に係る車載装置が実行する各処理の概要説明図である。 図4Aは、実施形態に係る取得部の処理説明図(その1)である。 図4Bは、実施形態に係る取得部の処理説明図(その2)である。 図4Cは、実施形態に係る取得部の処理説明図(その3)である。 図4Dは、実施形態に係る取得部の処理説明図(その4)である。 図4Eは、実施形態に係る取得部の処理説明図(その5)である。 図4Fは、実施形態に係る取得部の処理説明図(その6)である。 図4Gは、実施形態に係る取得部の処理説明図(その7)である。 図4Hは、実施形態に係る取得部の処理説明図(その8)である。 図5Aは、実施形態に係る付与部の処理説明図(その1)である。 図5Bは、実施形態に係る付与部の処理説明図(その2)である。 図5Cは、実施形態に係る付与部の処理説明図(その3)である。 図5Dは、実施形態に係る付与部の処理説明図(その4)である。 図6は、実施形態に係る車載装置が実行する処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する情報処理装置および情報処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
また、以下では、実施形態に係る情報処理装置が、車両Vに搭載され、カーナビゲーション機能等を有する車載装置10である場合を例に挙げて説明を行う。
まず、実施形態に係る情報処理方法の概要について、図1Aおよび図1Bを用いて説明する。図1Aは、比較例に係る情報処理方法の概要説明図である。また、図1Bは、実施形態に係る情報処理方法の概要説明図である。
図1Aに示すように、たとえば比較例に係る情報処理方法を適用した情報処理システム1’は、スマートスピーカSP’と、音声アシスタントサーバ100と、アプリサーバ200とを含む。
スマートスピーカSP’は、たとえばユーザの自宅H等に設けられ、対話型の音声操作に対応した音声アシスタントの機能を有する。音声アシスタントサーバ100は、たとえばスピーカメーカがクラウドサーバとして提供する音声アシスタントのサーバ装置であり、インターネットや携帯電話回線網等であるネットワークNを介してスマートスピーカSP’と相互通信可能に設けられる。
音声アシスタントサーバ100は、スマートスピーカSP’から入力され、自然言語処理されたユーザの発話指示を音声認識し、かかる音声認識結果への応答の最適解をディープラーニング等により常に機械学習する。そして、音声アシスタントサーバ100は、かかる機械学習結果に基づき、入力された発話指示に対する最適解をスマートスピーカSP’へ応答する。
アプリサーバ200は、たとえばクラウドサーバとして提供され、音声アシスタントサーバ100がスマートスピーカSP’への応答に際して必要となる種々のアプリケーション処理を実行するサーバ装置である。なお、ここでは、音声アシスタントサーバ100およびアプリサーバ200を1つずつ示したが、音声アシスタントの種々のプラットフォームに応じて、音声アシスタントサーバ100およびアプリサーバ200は複数設けられ、連携可能であってもよい。
このように構成された比較例に係る情報処理システム1’では、同図に「事前登録された静的な状態情報あり」として示すように、スマートスピーカSP’は、たとえば事前にテキスト入力された自宅Hの住所等の静的な状態情報を有している。
そして、スマートスピーカSP’は、「当該状態情報に基づくサービス提供要求」、すなわちユーザの発話指示へ当該状態情報を反映しつつ音声アシスタントサーバ100へ送信し、かかる要求に対する応答としての「サービス提供」を受けることとなる。
ところで、こうした音声アシスタントを介した情報提供サービスが可能なスマートスピーカSP’のような情報処理装置は、車両Vにも搭載され、今後普及していくことが予想される。
ここで、図1Bに示すように、車両Vに搭載された車載装置10は、入出力部SPを有するものとする。入出力部SPは、後述するマイク2および出力部4(図2参照)を有しており、車載装置10は、かかる入出力部SPを介して、ユーザの発話指示を受け付け、かかる発話指示に対する応答であるサービス提供を受けるものとする。
ただし、車両Vは、移動体である。したがって、走行中は、状態情報が動的に変化することとなる(図中の事象E1)。このため、図1Aに示した比較例に係るスマートスピーカSP’の静的な状態情報をサービス提供要求に反映させる技術は利用することができない。また、音声アシスタントは、対話型の音声操作に対応したバーチャルアシスタントであり、一般に音声入力以外の入力インタフェースを有していない。
そこで、実施形態に係る情報処理方法では、車両Vの状態に関する情報を取得し、取得した状態に関する情報を音声データへ変換するとともに、変換した音声データを音声アシスタントサーバ100へ送信することとした。
具体的には、図1Bに示すように、実施形態に係る情報処理方法では、情報処理システム1の車載装置10が、動的に変化する車両Vの状態に関する状態情報を取得する(ステップS1)。
そして、車載装置10は、取得した状態情報を音声データ化して、サービス提供要求に付与する(ステップS2)。すなわち、車載装置10は、取得した状態情報を音声データに変換し、変換した音声データを、ユーザの発話指示に付与して音声アシスタントサーバ100へ送信する。
これにより、音声アシスタントサーバ100は、音声データとしての状態情報が付与された発話指示を受け付け、これを音声認識し、かかる音声認識結果への応答としてのサービス提供を行うこととなる。
したがって、実施形態に係る情報処理方法によれば、動的に状態が変化する車両Vにおいて、音声アシスタントを介し、かかる車両Vの状態に関連する各種情報の提供を受けることができる。以下、実施形態に係る情報処理方法を適用した情報処理システム1の構成例について、より具体的に説明する。
図2は、実施形態に係る情報処理システム1の構成例を示すブロック図である。なお、図2では、実施形態の特徴を説明するために必要な構成要素のみを表しており、一般的な構成要素についての記載を省略している。
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
また、図2を用いた説明では、既に説明済みの構成要素については、説明を簡略するか、省略する場合がある。
図2に示すように、実施形態に係る情報処理システム1は、車載装置10と、音声アシスタントサーバ100とを含む。なお、ここでは、音声アシスタントサーバ100は、たとえばプラットフォームの異なる複数の音声アシスタントサーバ100−1,100−2,100−3,…を含むものとする。また、図1Bに示したアプリサーバ200については図示を省略している。
車載装置10は、通信部11と、記憶部12と、制御部13とを備える。通信部11は、たとえば、NIC(Network Interface Card)等によって実現される。通信部11は、ネットワークNと無線で接続され、ネットワークNを介して、音声アシスタントサーバ100やアプリサーバ200との間で情報の送受信を行う。
記憶部12は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、音声認識モデル12aと、ナビ情報12bと、オーディオ情報12cと、ユーザ情報12dとを記憶する。
音声認識モデル12aは、後述する音声認識部13aが実行する音声認識処理に用いられる言語モデルであって、たとえば隠れマルコフモデル等である。ナビ情報12bは、車載装置10が有するカーナビゲーション機能に関する情報であって、たとえばユーザにより設定された目的地や経由地、ルート情報、走行中の道路種別等を含む。
オーディオ情報12cは、車載装置10に保持されている楽曲データに関する情報であり、楽曲のアーティスト名や、再生履歴等を含む。ユーザ情報12dは、車両Vに搭乗中のユーザに関する情報であり、たとえばユーザの嗜好を示す情報や、過去の行動情報等を含む。
制御部13は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、車載装置10内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部13は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
制御部13は、音声認識部13aと、取得部13bと、変換部13cと、付与部13dと、送信部13eと、受信部13fと、提供部13gとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
音声認識部13aは、マイク2から入力される音声の音声認識処理を実行する。具体的には、音声認識部13aは、所定のウェイクワードを検知する。ウェイクワードは、音声アシスタント機能を呼び出すトリガとなる音声コマンドであり、音声認識部13aは、常時かかるウェイクワードを検知する待機状態となっている。
音声認識部13aは、かかるウェイクワードを検知すると、これに続くユーザの発話区間を発話指示として抽出する。また、音声認識部13aは、抽出した発話指示を音声認識モデル12aを用いて自然文による命令として解釈する。
また、音声認識部13aは、解釈した発話指示の内容に応じて、取得部13bに、車両Vの状態に関する情報を取得させる。かかる点の具体例については、図4A〜図4Hを用いた説明で後述する。また、音声認識部13aは、発話指示として抽出した発話区間の音声データを付与部13dへ渡す。
取得部13bは、車両Vの状態に関する情報を取得する。たとえば取得部13bは、車両Vに搭載された各種センサ3に含まれるGPS(Global Positioning System)センサから車両Vの現在地の位置情報を取得する。また、たとえば取得部13bは、ナビ情報12bから車両Vの目的地や経由地等の位置情報を取得する。
また、各種センサ3には、搭乗者を検出および識別するためのカメラや認証センサ、外気温を検出する気温センサ、燃料タンクの残量センサ、車両Vの制御状態を検出するためのECU(Electronic Control Unit)モニタ等が含まれている。取得部13bは、こうした各種センサ3の検出結果に基づいて、車両Vに関する各種の状態情報を取得する。
また、取得部13bは、取得した状態情報を変換部13cへ渡す。変換部13cは、取得部13bから渡された状態情報を音声データへ変換する。また、変換部13cは、変換した音声データを付与部13dへ渡す。
付与部13dは、変換部13cから渡された状態情報の音声データを、音声認識部13aから渡された発話指示へ付与する。また、付与部13dは、状態情報の音声データが付与された発話指示を送信部13eへ渡す。
送信部13eは、付与部13dによって状態情報の音声データが付与された発話指示を、通信部11を介して音声アシスタントサーバ100へ送信する。
なお、このとき、送信部13eは、送信する発話指示に応じて、音声アシスタントサーバ100−1,100−2,100−3,…を連携させる送信制御をあわせて行う。かかる連携では、たとえば送信部13eは、発話指示の受付順や優先順に応じた送信順序の調停等を行う。
受信部13fは、発話指示に対する音声アシスタントサーバ100からの応答を通信部11を介して受信する。また、受信部13fは、受信した応答を提供部13gへ渡す。提供部13gは、受信部13fから渡された応答を、出力部4からユーザに向け出力させる。
ここで、図2を用いて説明した内容について、図3A〜図5Dを参照しつつより具体的に説明する。図3Aは、実施形態に係る車載装置10の配置例を示す図である。また、図3Bは、実施形態に係る車載装置10が実行する各処理の概要説明図である。
また、図4A〜図4Hは、実施形態に係る取得部13bの処理説明図(その1)〜(その8)である。また、図5A〜図5Dは、実施形態に係る付与部13dの処理説明図(その1)〜(その4)である。
まず、図3Aに示すように、実施形態に係る車載装置10の本体部は、たとえば車両Vのダッシュボードの内部等に設けられる。また、マイク2および出力部4を含む実施形態に係る車載装置10の入出力部SPは、ユーザUの着座する運転席付近、たとえばダッシュボードの上部等に設けられる。
そして、図3Bに示すように、ユーザUが、前述のウェイクワードの発話を経て、「○○して」といった発話を行うと、音声認識部13aが、マイク2から入力されたかかる発話の発話区間を、「○○して」との発話指示として抽出する。そして、音声認識部13aは、かかる発話指示の音声データを付与部13dへ渡す。
一方で、取得部13bは、車両Vの状態情報を取得する。ここでは、同図に示すように、「神戸市兵庫区…」とのテキストデータとして車両Vの位置情報を、状態情報の一つとして取得したものとする。すると、変換部13cは、かかる「神戸市兵庫区…」のテキストデータを音声データへ変換し、付与部13dへ渡す。
そして、付与部13dは、変換部13cから渡された「神戸市兵庫区…」の音声データを、音声認識部13aから渡された「○○して」との音声データへ付与して、音声アシスタントサーバ100側へ渡すこととなる。
ところで、取得部13bは、車両Vの状態情報を、音声認識部13aが解釈した発話指示の内容に応じて取得することができる。図4Aに示すように、ユーザUが、「近くのコンビニ探して」といった発話指示を行ったものとする。
ここで、たとえば「近くのコンビニ探して」には、「近くの」といった車両Vの位置に関する要素が含まれている。かかる場合、取得部13bは、状態情報の一つとして、各種センサ3から車両Vの現在地の位置情報を取得し、発話指示にはかかる現在地の位置情報が付与される。これにより、音声アシスタントサーバ100は、かかる現在地の近くのコンビニを探索して、探索結果を応答として車載装置10へ返すこととなる。
一方で、図4Bに示すように、ユーザUが、「目的地周辺の駐車場探して」といった発話指示を行ったものとする。
ここで、かかる発話指示には、「目的地」という車両Vの位置に関する要素が含まれている。かかる場合、取得部13bは、状態情報の一つとして、ナビ情報12bから車両Vの目的地の位置情報を取得し、発話指示にはかかる目的地の位置情報が付与される。これにより、音声アシスタントサーバ100は、かかる目的地周辺の駐車場を探索して、探索結果を応答として車載装置10へ返すこととなる。
このように取得部13bが、ユーザUの発話指示に応じた車両Vの位置情報を取得することで、効率よく適正に、音声アシスタントのサービス提供を受けることが可能となる。
なお、音声アシスタントサーバ100は、たとえばプラットフォームの異なる音声アシスタントサーバ100−1,100−2,100−3,…において、それぞれ状態情報の認識方法が異なることが考えられる。図4Aおよび図4Bと同様に、状態情報の一つとして位置情報を例に挙げて説明する。こうした場合、図4Cに示すように、取得部13bは、たとえば同一地点を示す位置情報につき、音声アシスタントに応じて、音声変換前の位置情報の内容を変更することができる。
図4Cには、取得部13bが、たとえば音声アシスタントサーバ100−1に対しては、位置情報を「神戸市兵庫区…」の住所表記の内容とする例を示している。また、たとえば音声アシスタントサーバ100−2に対しては、位置情報を緯度および経度の内容とする例を示している。また、たとえば音声アシスタントサーバ100−3に対しては、位置情報を郵便番号を含む住所表記の内容とする例を示している。
これにより、音声アシスタントサーバ100の各種プラットフォーム、言い換えれば、音声アシスタントの種別に応じた適正な位置情報の受け渡しを行うことができる。すなわち、音声アシスタントの種別に応じた適正なサービス提供を受けることが可能となる。
なお、ここでは、音声アシスタントサーバ100のそれぞれに適した内容へ位置情報を変更することとしたが、取得部13bが取得した、同一地点を示す複数の位置情報の内容すべてを、発話指示に付与して送信部13eに送信させることとしてもよい。
かかる場合、音声アシスタントの種別に応じた位置情報を選択する必要がなくなるので、処理の効率化を図ることが可能となる。
また、図4Dに示すように、ユーザUが、「おすすめの音楽をかけて」といった発話指示を行ったものとする。かかる場合、取得部13bは、各種センサ3、ナビ情報12b、オーディオ情報12cおよびユーザ情報12dから、状態情報として、「1.経由地」、「2.走行中の道路種別」、「3.アーティスト名」、「4.再生履歴」、「5.搭乗中のユーザ情報」等の組み合わせを取得する。「2.走行中の道路種別」は、たとえば一般道や高速道といった種別であり、「0」や「1」といった記号で表してもよい。
なお、「1.経由地」、「2.走行中の道路種別」等は、これから向かう場所に適した楽曲を音声アシスタントサーバ100に提案させる場合に有効である。また、「3.アーティスト名」、「4.再生履歴」等は、履歴から好みの楽曲のプレイリストを音声アシスタントサーバ100に提案させる場合に有効である。
また、図4Eに示すように、ユーザUが、「おすすめのお店を教えて」といった発話指示を行ったものとする。かかる場合、取得部13bは、各種センサ3、ナビ情報12b、ユーザ情報12dおよびユーザUのスマートフォン50等から、状態情報として、「1.目的地&履歴」、「2.経由地&履歴」、「3.搭乗中のユーザ情報」、「4.外気温」、「5.燃料残量」、「6.利用中のクーポンアプリ」等の組み合わせを取得する。
なお、「4.外気温」等は、気候の寒暖に応じた食事を音声アシスタントサーバ100に提案させる場合に有効である。また、「5.燃料残量」等は、食事とともに給油もできる場所を音声アシスタントサーバ100に提案させる場合に有効である。また、「6.利用中のクーポンアプリ」等は、いつも使っているクーポンアプリのクーポンが使える店を音声アシスタントサーバ100に提案させる場合に有効である。
また、図4Fに示すように、ユーザUが、「お天気を教えて」といった発話指示を行ったものとする。かかる場合、取得部13bは、各種センサ3およびナビ情報12b等から、状態情報として、「1.現在地」、「2.目的地+到着予想時刻」、「3.目的地+到着予想時刻」、「4.外気温」等の組み合わせを取得する。
なお、「1.現在地」、「2.目的地+到着予想時刻」、「3.目的地+到着予想時刻」は、現在地、経由地および目的地の天気をまとめて音声アシスタントサーバ100に提示させる場合に有効である。「4.外気温」は、寒い時に音声アシスタントサーバ100に路面凍結情報等を提示させる場合に有効である。
また、図4Gに示すように、ユーザUが、「ニュースを教えて」といった発話指示を行ったものとする。かかる場合、取得部13bは、各種センサ3、ナビ情報12bおよびユーザ情報12d等から、状態情報として、「1.目的地&履歴」、「2.経由地&履歴」、「3.走行中の道路種別」、「4.搭乗中のユーザ情報」等の組み合わせを取得する。
なお、「1.目的地&履歴」、「2.経由地&履歴」および「3.走行中の道路種別」は、行き先に関する情報を音声アシスタントサーバ100に提示させる場合に有効である。「履歴」は、行き先を推定させる場合に用いることができる。「4.搭乗中のユーザ情報」は、ユーザUの好みのニュースを音声アシスタントサーバ100に提示させる場合に有効である。
また、図4Hに示すように、ユーザUが、「退屈なんだけど、何かない?」といった発話指示を行ったものとする。かかる場合、取得部13bは、各種センサ3、ナビ情報12bおよびユーザ情報12d等から、状態情報として、「1.経由地」、「2.走行中の道路種別」、「3.搭乗中のユーザ情報」、「4.搭乗者数」、「5.車両制御状態」等の組み合わせを取得する。
なお、「1.経由地」、「2.走行中の道路種別」および「5.車両制御状態」は、運転負荷を推定して音声アシスタントサーバ100にゲームを提案させる場合に有効である。たとえば、「5.車両制御状態」が、アダプティブクルーズコントロールがオンであることや、自動運転制御中であることを示す場合、音声アシスタントサーバ100は難易度の高いゲームを提案することが可能となる。また、「4.搭乗者数」は、参加できる人数に応じて音声アシスタントサーバ100にゲームを提案させる場合に有効である。
次に、付与部13dは、上述したように、変換部13cによって変換された状態情報の音声データを発話指示へ付与するが、図5Aに示すように、発話指示の前方(時間的に発話指示より前)に付与することができる。
また、図5Bに示すように、付与部13dは、状態情報の音声データを、発話指示の後方(時間的に発話指示より後)に付与してもよい。なお、発話指示の後方に付与する場合、ユーザUの発話が終了してから付与することとなるので、処理の高速化の観点からは、付与部13dは、状態情報の音声データを発話指示の前方に付与する方が好ましい。
また、図5Cに示すように、付与部13dは、状態情報の音声データを付与するに際して、発話指示との間に、無音区間Siを設けることが好ましい。これにより、音声アシスタントサーバ100が発話区間を抽出するに際して、状態情報と発話指示とを明確に区別でき、音声アシスタントサーバ100側において意図通りに音声認識がなされるように支援することができる。
なお、音声アシスタントサーバ100は、たとえばプラットフォームの異なる音声アシスタントサーバ100−1,100−2,100−3,…においては、発話区間の抽出を含む音声認識機能の仕様も異なることが考えられる。こうした場合、図5Dに示すように、付与部13dは、音声アシスタントに応じて、無音区間Siの長さを変更することができる。
図5Dには、付与部13dが、たとえば音声アシスタントサーバ100−1に対しては無音区間Si−1を設定し、音声アシスタントサーバ100−2に対しては無音区間Si−2を設定し、音声アシスタントサーバ100−3に対しては無音区間Si−3を設定する例を示している(Si−1≠Si−2≠Si−3)。
これにより、音声アシスタントサーバ100の各種プラットフォーム、言い換えれば、音声アシスタントの種別に応じた音声認識の適正化を図ることができる。すなわち、音声アシスタントの種別に応じた、精度のよい適正なサービス提供を受けることが可能となる。
なお、図5A〜図5Dでは、状態情報と発話指示との間に無音区間Siを設けることとしたが、状態情報が複数の要素からなるならば、各要素間にも無音区間Siを設けることが好ましい。ここで、状態情報の要素とは、たとえば図4D〜図4Hに「1.…」、「2.…」のように示した、状態情報の組み合わせの要素のことである。かかる要素間への無音区間Siの設定は、たとえば変換部13cが、取得部13bから渡された状態情報を音声データへ変換する際に行うようにしてもよい。
次に、実施形態に係る車載装置10が実行する処理手順について、図6を用いて説明する。図6は、実施形態に係る車載装置10が実行する処理手順を示すフローチャートである。なお、ここでは、ウェイクワードの検知を経た後、1つの発話指示が音声アシスタントサーバ100へ送信されるまでの処理手順を示している。
まず、音声認識部13aが、ユーザUの発話指示を音声認識する(ステップS101)。そして、取得部13bは、車両Vの状態情報を取得する(ステップS102)。
つづいて、変換部13cは、取得部13bによって取得された状態情報を音声データへ変換する(ステップS103)。そして、付与部13dが、変換後の状態情報を発話指示へ付与する(ステップS104)。
そして、送信部13eが、状態情報の付与された発話指示を音声アシスタントサーバ100へ送信し(ステップS105)、処理を終了する。
上述してきたように、実施形態に係る車載装置10(「情報処理装置」の一例に相当)は、ユーザUの発話指示に応じる音声アシスタントの機能を有し、車両V(「移動体」の一例に相当)に搭載される車載装置10であって、取得部13bと、変換部13cと、送信部13eとを備える。取得部13bは、車両Vの状態に関する情報を取得する。変換部13cは、取得部13bによって取得された情報を音声データへ変換する。送信部13eは、変換部13cによって変換された音声データを音声アシスタントサーバ100(「音声アシスタントのサーバ装置」の一例に相当)へ送信する。
したがって、実施形態に係る車載装置10によれば、動的に状態が変化する車両Vにおいて、音声アシスタントを介し、かかる車両Vの状態に関連する各種情報の提供を受けることができる。
また、実施形態に係る車載装置10は、付与部13dをさらに備える。付与部13dは、上記音声データを発話指示へ付与する。また、送信部13eは、付与部13dによって上記音声データが付与された発話指示を音声アシスタントサーバ100へ送信する。
したがって、実施形態に係る車載装置10によれば、音声入力以外の入力インタフェースを持たない音声アシスタントに対し、発話指示とともに車両Vの状態に関する情報を入力することができる。
また、付与部13dは、上記音声データを発話指示の前方に付与する。したがって、実施形態に係る車載装置10によれば、ユーザUの発話の終了を待たずに上記音声データを付与することができ、処理の高速化を図ることができる。
また、付与部13dは、上記音声データと発話指示との間に無音区間Siを設ける。したがって、実施形態に係る車載装置10によれば、音声アシスタントサーバ100が発話区間を抽出するに際して、状態情報と発話指示とを明確に区別でき、音声アシスタントサーバ100側において意図通りに音声認識がなされるのを支援することができる。
また、取得部13bは、車両Vに搭載された各種センサ3の検出結果、車両Vのナビゲーションに関する情報、車両Vに保持されている楽曲データに関する情報、および、車両Vに搭乗中のユーザUに関する情報の少なくともいずれかに基づいて、車両Vの状態に関する情報を取得する。したがって、実施形態に係る車載装置10によれば、車両Vの位置や走行状態だけでなく、楽曲や、ユーザUの嗜好、行動履歴等に関連した音声指示までもが可能となるので、ユーザUに対し、音声アシスタントを介した満足度の高いサービス提供を行うことが可能となる。
なお、上述した実施形態では、ユーザUが、車両Vの運転席に着座するドライバである場合を例に挙げたが、ユーザの一例であって、車両Vに搭乗するドライバ以外の搭乗者であってもよい。したがって、入出力部SPの配置位置もダッシュボードの上部等に限られるものではない。
また、上述した実施形態では、移動体は車両Vであることとしたが、発話指示を行うユーザUが搭乗可能な移動体であれば、無論、車両Vに限られるものではない。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 情報処理システム
10 車載装置
13a 音声認識部
13b 取得部
13c 変換部
13d 付与部
13e 送信部
13f 受信部
13g 提供部
100 音声アシスタントサーバ
H 自宅
N ネットワーク
SP 入出力部
Si 無音区間
U ユーザ
V 車両

Claims (7)

  1. ユーザの発話指示に応じる音声アシスタントの機能を有し、移動体に搭載される情報処理装置であって、
    前記移動体の状態に関する情報を取得する取得部と、
    前記取得部によって取得された情報を音声データへ変換する変換部と、
    前記変換部によって変換された前記音声データを前記音声アシスタントのサーバ装置へ送信する送信部と
    を備えることを特徴とする情報処理装置。
  2. 前記音声データを前記発話指示へ付与する付与部
    をさらに備え、
    前記送信部は、
    前記付与部によって前記音声データが付与された前記発話指示を前記サーバ装置へ送信する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記付与部は、
    前記音声データを前記発話指示の前方に付与する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記付与部は、
    前記音声データと前記発話指示との間に無音区間を設ける
    ことを特徴とする請求項2または3に記載の情報処理装置。
  5. 前記移動体は、車両である
    ことを特徴とする請求項1〜4のいずれか一つに記載の情報処理装置。
  6. 前記取得部は、
    前記車両に搭載された各種センサの検出結果、前記車両のナビゲーションに関する情報、前記車両に保持されている楽曲データに関する情報、および、前記車両に搭乗中のユーザに関する情報の少なくともいずれかに基づいて、前記車両の状態に関する情報を取得する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. ユーザの発話指示に応じる音声アシスタントの機能を有し、移動体に搭載される情報処理装置を用いた情報処理方法であって、
    前記移動体の状態に関する情報を取得する取得工程と、
    前記取得工程によって取得された情報を音声データへ変換する変換工程と、
    前記変換工程によって変換された前記音声データを前記音声アシスタントのサーバ装置へ送信する送信工程と
    を含むことを特徴とする情報処理方法。
JP2019004712A 2019-01-15 2019-01-15 情報処理装置および情報処理方法 Pending JP2020112732A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019004712A JP2020112732A (ja) 2019-01-15 2019-01-15 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019004712A JP2020112732A (ja) 2019-01-15 2019-01-15 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2020112732A true JP2020112732A (ja) 2020-07-27

Family

ID=71667448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019004712A Pending JP2020112732A (ja) 2019-01-15 2019-01-15 情報処理装置および情報処理方法

Country Status (1)

Country Link
JP (1) JP2020112732A (ja)

Similar Documents

Publication Publication Date Title
US10269348B2 (en) Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
JP5677647B2 (ja) ナビゲーション装置
US20120135714A1 (en) Information system for motor vehicle
JP6150077B2 (ja) 車両用音声対話装置
WO2015059764A1 (ja) ナビゲーション用サーバ、ナビゲーションシステムおよびナビゲーション方法
JP6846617B2 (ja) 情報提供方法、サーバ、情報端末装置、システム及び音声対話システム
KR20200000155A (ko) 대화 시스템 및 이를 이용한 차량
JP7139904B2 (ja) 情報処理装置及び情報処理プログラム
US20220128373A1 (en) Vehicle and control method thereof
US9163950B2 (en) Vehicle navigation device, a method for navigating and a non-transitory computer readable medium
JP7020098B2 (ja) 駐車場評価装置、駐車場情報提供方法およびプログラム
US11532303B2 (en) Agent apparatus, agent system, and server device
US7848876B2 (en) System and method for determining a vehicle traffic route
WO2017015882A1 (en) Navigation device and navigation method
KR20190011458A (ko) 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법
JP5729257B2 (ja) 情報提供装置、および情報提供方法
KR102350306B1 (ko) 차량 내 음성 제어 방법
JP2018155606A (ja) ナビゲーションシステム、ナビゲーション方法、および、プログラム
JP2020112732A (ja) 情報処理装置および情報処理方法
JP2022103675A (ja) 情報処理装置、情報処理方法、及びプログラム
US11328337B2 (en) Method and system for level of difficulty determination using a sensor
JP2020112728A (ja) 情報処理装置および情報処理方法
JP4661379B2 (ja) 車載音声認識装置
CN112534499B (zh) 声音对话装置、声音对话系统以及声音对话装置的控制方法
US20200225050A1 (en) Information providing apparatus, information providing method, and program