JP5986468B2 - 表示制御装置、表示システム及び表示制御方法 - Google Patents

表示制御装置、表示システム及び表示制御方法 Download PDF

Info

Publication number
JP5986468B2
JP5986468B2 JP2012210429A JP2012210429A JP5986468B2 JP 5986468 B2 JP5986468 B2 JP 5986468B2 JP 2012210429 A JP2012210429 A JP 2012210429A JP 2012210429 A JP2012210429 A JP 2012210429A JP 5986468 B2 JP5986468 B2 JP 5986468B2
Authority
JP
Japan
Prior art keywords
voice
display
display control
user
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012210429A
Other languages
English (en)
Other versions
JP2014065359A (ja
Inventor
将嘉 伊井野
将嘉 伊井野
智春 山本
智春 山本
敏弘 城戸
敏弘 城戸
修 久木元
修 久木元
裕治 吉江
裕治 吉江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2012210429A priority Critical patent/JP5986468B2/ja
Publication of JP2014065359A publication Critical patent/JP2014065359A/ja
Application granted granted Critical
Publication of JP5986468B2 publication Critical patent/JP5986468B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Description

本発明は、ユーザの音声の認識結果を用いる技術に関する。
従来より、車両に搭載されるナビゲーション装置などの車載表示システムにおいては、ユーザ(代表的にはドライバ)の音声の認識結果に応じた動作を実行する音声アシスト機能が採用されている(例えば、特許文献1参照。)。例えば、ユーザが「オーディオ消音」と発声した場合には、車載表示システムは、音声認識処理の認識結果に基いてオーディオを消音するコマンドが与えられたと判断し、出力する音の音量を0にする。
このような音声アシスト機能を用いることで、ユーザは、車両の運転中であっても、ボタン等の物理的な操作部を頻繁に操作することなく、車載表示システムに所望の動作を実行させることができる。
特開2008−152417号公報
ところで、上記のような音声アシスト機能を円滑に実行するためには、発声のタイミングや音声認識処理の認識結果など音声アシスト機能に係る各種の案内情報を、ユーザへ報知することが望ましい。このような案内情報は、車両の車室内に設けられた表示装置において表示される。
一般的な車両では、表示装置は、ユーザが比較的大きく視線を動かす必要がある位置(例えば、ダッシュボードの左右中央)に配置される。このため、音声アシスト機能を実行する際には、案内情報が報知されるごとにユーザは視線を動かすことが必要となるため、煩雑に感じる可能性があった。
また、車載表示システムが、音声アシスト機能の処理結果として施設の情報などの案内情報以外の情報をユーザに報知する場合は、案内情報以外の情報と案内情報とが同一の表示装置の画面に表示される。このため、表示装置が同時に表示する情報量が多くなり、ユーザは必要とする情報を速やかに把握することが難しくなる可能性があった。
本発明は、上記課題に鑑みてなされたものであり、ユーザが視線を大きく動かすことなく案内情報を容易に確認できる技術を提供することを目的とする。
上記課題を解決するため、請求項1の発明は、車両の外部に配置されるサーバとネットワークを介したデータの送受信を行い、前記車両に設けられた表示装置に情報を表示させる表示制御装置であって、前記サーバは、音声に基づく音声認識処理と、前記音声認識処理の認識結果に基づく検索対象の検索とを行い、前記表示制御装置は、前記車両のユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置と、前記距離が相対的に大きい第2表示装置とのそれぞれに情報を表示させる表示制御手段と、前記ユーザの音声を取得する音声取得手段と、前記ユーザの音声を対象とした前記音声認識処理の認識結果を前記サーバから取得する認識結果取得手段と、前記音声認識処理の認識結果に基づく前記検索対象の検索結果を前記サーバから取得する検索結果取得手段と、を備え、前記表示制御手段は、前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を前記第1表示装置に表示させ、前記検索結果のリストを前記第2表示装置に表示させ、前記表示制御手段は、前記検索結果取得手段が前記検索結果を取得する前に、前記認識結果取得手段が取得した前記音声認識処理の認識結果を前記案内情報として前記第1表示装置に表示させる
また、請求項2の発明は、請求項1に記載の表示制御装置において、前記第2表示装置の画面サイズは、前記第1表示装置よりも大きく、前記表示制御装置は、前記リストを前記第2表示装置に表示させた場合に、前記音声認識処理の認識結果を用いた前記リストに関する音声操作が可能であり、前記表示制御手段は、前記音声操作が可能なときに、該音声操作を説明する操作説明を前記案内情報として前記第1表示装置に表示させる
また、請求項3の発明は、請求項1または2に記載の表示制御装置において、前記第2表示装置に表示された前記リストに関するユーザの手動操作を受け付ける操作手段、を備え、前記表示制御手段は、前記リストを前記第2表示装置に表示させた場合に、前記手動操作を説明する操作説明を、前記案内情報として前記第1表示装置に表示させる。
また、請求項4の発明は、請求項3に記載の表示制御装置において、前記表示制御手段は、前記リストを前記第2表示装置に表示させた場合に、前記音声認識処理の認識結果を用いた前記リストに関する音声操作が可能なときに、該音声操作を説明する操作説明と前記手動操作を説明する操作説明との双方を同時に前記案内情報として前記第1表示装置に表示させる。
また、請求項5の発明は、請求項1ないし4のいずれかに記載の表示制御装置において、前記表示制御手段は、前記音声認識処理の認識結果を前記案内情報として前記第1表示装置に表示させた場合に、前記音声認識処理を再実行する指示をユーザから受け付ける
また、請求項6の発明は、請求項1ないし5のいずれかに記載の表示制御装置において、前記音声認識処理の認識結果を用いた処理の処理状況を取得する状況取得手段、をさらに備え、前記案内情報は、前記処理状況を含む。
また、請求項7の発明は、表示システムであって、請求項1ないし6のいずれかに記載の表示制御装置と、前記表示制御装置の制御に基いて情報を表示する前記第1表示装置と、前記表示制御装置の制御に基いて情報を表示する前記第2表示装置と、を備えている。
また、請求項8の発明は、車両の外部に配置されるサーバとネットワークを介したデータの送受信を行い、前記車両に設けられた表示装置に情報を表示させる表示制御方法であって、前記サーバは、音声に基づく音声認識処理と、前記音声認識処理の認識結果に基づく検索対象の検索とを行い、前記表示制御方法は、(a)前記車両のユーザの音声を取得する工程と、(b)前記ユーザの音声を対象とした前記音声認識処理の認識結果を前記サーバから取得する工程と、(c)前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を、前記ユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置に表示させる工程と、(d)前記音声認識処理の認識結果に基づく前記検索対象の検索結果を前記サーバから取得する工程と、)前記検索結果のリストを、前記距離が相対的に大きい第2表示装置に表示させる工程と、を備え、前記工程(c)は、前記工程(d)で前記検索結果を取得する前に、前記工程(b)で取得した前記音声認識処理の認識結果を前記案内情報として前記第1表示装置に表示させる
請求項1ないし8の発明によれば、ユーザへの案内情報がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなく、案内情報に従って音声認識処理の認識結果を用いた処理を実行させることができる。また、案内情報と検索結果のリストとが異なる表示装置に表示されるため、ユーザは必要とする情報を容易に確認できる。また、音声認識処理の認識結果がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなく音声認識処理の認識結果が正しいか否かを確認することができる。
また、特に請求項2の発明によれば、検索結果のリストを画面サイズが大きな第2表示装置に表示するため、一度に表示するリストの項目の数を増やすことができる。このため、ユーザはリストに含まれる項目を容易に把握できる。
また、特に請求項3の発明によれば、手動操作を説明する操作説明がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなくリストに関する手動操作の方法を把握できる。
また、特に請求項4の発明によれば、音声操作を説明する操作説明と手動操作を説明する操作説明との双方が同時に第1表示装置に表示されるため、ユーザは任意の操作手法を選択してリストに関する操作を行うことができる。
また、特に請求項6の発明によれば、処理状況がユーザの正面近傍にある第1表示装置に表示されるため、ユーザは視線を大きく動かすことなく処理状況を把握することができる。
図1は、音声処理システムの概要を示す図である。 図2は、音声アシスト処理の概要を示す図である。 図3は、サーバの構成を示す図である。 図4は、車載表示システムの概要を示す図である。 図5は、ステアリングホイールを拡大して示す図である。 図6は、車載表示システムの構成を示す図である。 図7は、音声アシスト処理の流れを示す図である。 図8は、音声アシスト処理の流れを示す図である。 図9は、2つのディスプレイの表示内容の例を示す図である。 図10は、2つのディスプレイの表示内容の例を示す図である。 図11は、2つのディスプレイの表示内容の例を示す図である。 図12は、2つのディスプレイの表示内容の例を示す図である。 図13は、2つのディスプレイの表示内容の例を示す図である。 図14は、2つのディスプレイの表示内容の例を示す図である。 図15は、2つのディスプレイの表示内容の例を示す図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.音声処理システムの概要>
図1は、本実施の形態に係る車載表示システム1を含む音声処理システム10の概要を示す図である。音声処理システム10は、車両9の外部に配置されるサーバ7と、車両9に搭載される車載表示システム1とを備えている。車載表示システム1は、目的地までのルートを案内するナビゲーション機能と、楽曲を再生するオーディオ機能とを備えている。サーバ7と車載表示システム1とは、インターネットなどのネットワーク8を介して相互にデータを送受信することが可能となっている。
音声処理システム10は、車両9のユーザ(代表的にはドライバ)の音声を対象とした音声認識処理を行い、その認識結果に応じた動作を実行する音声アシスト処理を行う。この音声アシスト処理により、車両9のユーザは、様々な音声を発声することで車載表示システム1に所望の動作を実行させることができる。音声処理システム10が対象とする音声の内容は「コマンド」「施設の条件」及び「楽曲の条件」のいずれかである。
図2は、音声処理システム10が実行する音声アシスト処理の概要を示す図である。図2に示すように、サーバ7は、ユーザの音声を対象とした音声認識処理を実行する音声認識部74と、ユーザの音声の意味を理解する意味理解処理を行う意味理解部75とを備えている。
音声アシスト処理では、まず、車載表示システム1がユーザの音声を取得し、その音声を示す音声データをサーバ7に送信する(矢印C1)。次に、サーバ7の音声認識部74が、受信した音声データを用いて音声認識処理を実行して、受信した音声データをユーザの音声を表す文字列(テキスト)に変換する。音声認識部74は、音声認識処理の認識結果である文字列を車載表示システム1に送信する(矢印C2)。これとともに、音声認識部74は、音声認識処理の認識結果である文字列を意味理解部75に出力する。
意味理解部75は、音声認識処理の認識結果の文字列に基いて意味理解処理を実行する。意味理解部75は、まず、ユーザの音声の意味が「コマンド」「施設の条件」及び「楽曲の条件」のいずれであるかを判定する。意味理解部75は、ユーザの音声の意味が「コマンド」と判定した場合は、判定した「コマンド」を車載表示システム1に送信する(矢印C3)。
また、意味理解部75は、ユーザの音声の意味が「施設の条件」と判定した場合は、判定した「施設の条件」に該当する施設をデータベースから検索し、その検索結果を車載表示システム1に送信する(矢印C3)。また、意味理解部75は、ユーザの音声の意味が「楽曲の条件」と判定した場合は、判定した「楽曲の条件」に該当する楽曲をデータベースから検索し、その検索結果を車載表示システム1に送信する(矢印C3)。
これにより、車載表示システム1は、意味理解部75による意味理解処理の処理結果として、「コマンド」、「施設の検索結果」または「楽曲の検索結果」をサーバ7から受信する。そして、車載表示システム1は、受信した処理結果に応じた動作を実行する。
車載表示システム1は、意味理解部75の処理結果として「コマンド」をサーバ7から受信した場合は、当該「コマンド」を実行する。例えば、ユーザが「オーディオを消して」と発声した場合は、車載表示システム1はオーディオの消音を指示する「コマンド」をサーバ7から受信する。そして、車載表示システム1は、この「コマンド」を実行し、車両9で出力される音の音量を0とする。また例えば、ユーザが「エアコンをつけて」と発声した場合は、車載表示システム1は、エアコン装置のオンを指示する「コマンド」をサーバ7から受信する。そして、車載表示システム1は、この「コマンド」を実行し、車両9のエアコン装置をオンとする。
また、車載表示システム1は、意味理解部75の処理結果として「施設の検索結果」をサーバ7から受信した場合は、当該「施設の検索結果」のリストを表示する。例えば、ユーザが「近くのコンビニに行きたい」と発声した場合は、車載表示システム1は車両9の周辺に存在するコンビニエンスストアの検索結果をサーバ7から受信する。そして、車載表示システム1は、この検索結果のリストを表示する。ユーザは、このように表示された検索結果のリストの項目の一つを選択することで、当該項目の施設をナビゲーション機能の目的地に設定することができる。
また、車載表示システム1は、意味理解部75の処理結果として「楽曲の検索結果」をサーバ7から受信した場合は、当該「楽曲の検索結果」のリストを表示する。例えば、ユーザが「アーティストAの曲を聞きたい」と発声した場合は、車載表示システム1はアーティストAに係る楽曲の検索結果をサーバ7から受信する。そして、車載表示システム1は、この検索結果のリストを表示する。ユーザは、このように表示された検索結果のリストの項目の一つを選択することで、当該項目の楽曲をオーディオ機能の再生対象にすることができる。
このように車載表示システム1は、サーバ7と協働することによって音声アシスト処理を実行し、車両9のユーザの音声に応じた様々な動作を実行することができる。音声アシスト処理は、ユーザの音声を対象とした音声認識処理の認識結果を用いた処理であるともいえる。以下、このような音声アシスト処理を実行する音声処理システム10のサーバ7及び車載表示システム1のそれぞれについて詳細に説明する。
<2.サーバの構成>
図3は、サーバ7の構成を示す図である。サーバ7は、制御部71と、データ通信部72と、記憶部73とを備えている。
データ通信部72は、ネットワーク8に接続されており、ネットワーク8に接続可能な他の通信装置とのデータ通信が可能である。これにより、データ通信部72は、車載表示システム1との間でネットワーク8を介してデータの送受信を行う。
制御部71は、CPU、RAM及びROMなどを備えたコンピュータである。記憶部73に記憶されたプログラム73eに従ってCPUが演算処理を行うことで、制御部71の各種の機能が実現される。サーバ7が備える音声認識部74及び意味理解部75は、このようにプログラム73eに従って演算処理を行うことで実現される機能部の一部である。
また、記憶部73は、例えば、ハードディスクなどの不揮発性の記憶装置であり、各種の情報を記憶する。記憶部73は、前述のプログラム73eの他に、音声認識辞書73a、意味判定辞書73b、施設データベース73c、及び、楽曲データベース73dを記憶している。
音声認識辞書73aは、音声認識部74がユーザの音声を認識する際に参照する辞書である。音声認識辞書73aは、音声の特徴量と文字との対応関係を示すデータを含んでいる。また、意味判定辞書73bは、意味理解部75がユーザの音声の意味を判定する際に参照する辞書である。音声認識辞書73aは、単語と意味(「コマンド」「施設の条件」または「楽曲の条件」)との対応関係を示すデータを含んでいる。
施設データベース73cは、ユーザの音声の意味が「施設の条件」である場合に、意味理解部75が検索対象とするデータベースである。施設データベース52は、ナビゲーション機能の目的地の候補となる多数の施設のデータを含んでいる。施設データベース73cに含まれるデータは、定期的に最新のものに更新される。
また、楽曲データベース73dは、ユーザの音声の意味が「楽曲の条件」である場合に、意味理解部75が検索対象とするデータベースである。楽曲データベース73dは、オーディオ機能で再生可能な多数の楽曲のデータを含んでいる。楽曲データベース73dに含まれるデータは、定期的に最新のものに更新される。
<3.車載表示システムの構成>
図4は、車載表示システム1の概要を示す図である。図4は、車両9の車室内の様子を示している。図4に示すように、車載表示システム1は、ユーザの指による操作(以下、「手動操作」という。)を受け付ける操作部33と、ユーザが発声した音声を入力するマイク34と、音を出力するスピーカ35とを備えている。操作部33及びマイク34は車両9のステアリングホイール93に配置され、スピーカ35は車両9のドア95に配置されている。
図5は、ステアリングホイール93を拡大して示す図である。図5に示すように、マイク34は、ユーザの音声を効率的に入力できるように、ステアリングホイール93の中央部の近傍に設けられている。
また、操作部33は、ステアリングスイッチとも呼ばれ、ユーザが手動操作するための物理的な複数のボタン33a〜33cを備えている。これらのボタン33a〜33cは、ユーザがステアリングホイール93を握ったまま手動操作できるように、ステアリングホイール93の左側と右側とに分散して配置されている。
ステアリングホイール93の左側には、ホイールボタン33aとキャンセルボタン33bとが設けられている。ホイールボタン33aは、上下方向に回転する操作と、押圧する操作とをユーザから受け付けることが可能である。また、ステアリングホイール93の右側には、音声認識ボタン33cが設けられている。ユーザは、この音声認識ボタン33cを押圧することで、音声処理システム10に音声アシスト処理を開始させることができる。
図4に戻り、車載表示システム1は、また、各種の情報を表示する表示装置として、メインディスプレイ31とサブディスプレイ32とを備えている。メインディスプレイ31は、サブディスプレイ32と比較して画面サイズが大きく、同時に多くの情報を表示することができる。また、メインディスプレイ31は、タッチパネル機能を備えており、ユーザの手動操作を受け付けることも可能となっている。
メインディスプレイ31は、車両9のダッシュボード92の左右中央に設けられている。一方、サブディスプレイ32は、ダッシュボード92において、ユーザ(ドライバ)が着座する運転席91の正面にあるメータパネル94の上部に設けられている。このためサブディスプレイ32は、運転席91のほぼ正面中央に配置される。
サブディスプレイ32は運転席91の正面中央までの距離が相対的に小さく、メインディスプレイ31は運転席91の正面中央までの距離が相対的に大きいともいえる。したがって、運転中においてユーザ(ドライバ)は、視線を大きく動かすことなく、サブディスプレイ32を確認することができる。これに対して、ユーザ(ドライバ)は、メインディスプレイ31を確認するためには、視線を比較的大きく動かす必要がある。
また、車載表示システム1は、これらの2つのディスプレイ31,32を制御する表示制御装置2を備えている。2つのディスプレイ31,32はそれぞれ、この表示制御装置2の制御に基いて情報を表示する。表示制御装置2は、例えば、車両9のセンターコンソール96に配置される。
図6は、表示制御装置2を含む車載表示システム1の構成を示す図である。表示制御装置2は、制御部21と、データ通信部22と、ナビゲーション部23と、オーディオ部24と、記憶部25と、信号送信部26とを備えている。
制御部21は、表示制御装置2の全体を統括的に制御するマイクロコンピュータであり、CPU、RAM及びROMなどを備えている。制御部21は、車載表示システム1が備えるメインディスプレイ31、サブディスプレイ32、操作部33、マイク34及びスピーカ35のそれぞれと電気的に接続されている。これにより、制御部21は、2つのディスプレイ31,32を制御して各種の情報を表示させることができる。また、制御部21は、スピーカ35を制御して各種の音を出力させることができる。さらに、制御部21は、操作部33が受け付けたユーザの手動操作の内容を示す操作信号や、マイク34が入力したユーザの音声を示す音声信号を受け取り、これらの信号に応答して処理を行うことができる。
データ通信部22は、WiMAX(登録商標)や3Gなどの無線通信を利用したネットワーク8への接続機能を有している。したがって、データ通信部22は、サーバ7との間でネットワーク8を介してデータの送受信を行うことが可能である。なお、データ通信部22が、ネットワーク8への接続機能を有するスマートフォン等の他の通信装置を中継器として利用して、サーバ7との間でデータの送受信を行ってもよい。
ナビゲーション部23は、目的地までのルートを案内するナビゲーション機能を実現する。ナビゲーション部23は、ユーザにより目的地が設定された場合は、GPSにより取得される車両9の位置から目的地までのルートを導出し、導出したルートをユーザへ案内する。また、ナビゲーション部23は、記憶部25に記憶された地図データ25aを用いて、車両9の周辺の地図画像を生成する。この車両9の周辺の地図画像は、制御部21の制御により、メインディスプレイ31に表示される。
オーディオ部24は、楽曲を再生するオーディオ機能を実現する。オーディオ部24は、ユーザにより再生対象となる楽曲が設定された場合は、その楽曲の音響データをデコードして音響信号を生成する。この音響信号は制御部21の制御によりスピーカ35に出力され、スピーカ35から音が出力される。
記憶部25は、例えば、フラッシュメモリなどの不揮発性の記憶装置であり、各種の情報を記憶する。記憶部25は、地図データ25aの他に、プログラム25bを記憶している。
信号送信部26は、車載表示システム1以外に車両9に設けられる装置に制御信号を送信する。信号送信部26は、例えば、制御部21の制御により、車両9に設けられるエアコン装置97に制御信号を送信する。制御部21は、このように信号送信部26を介してエアコン装置97に制御信号を送信することで、エアコン装置97のオン/オフ、あるいは、設定温度の変更など、エアコン装置97の動作を制御することができる。
また、制御部21は、記憶部25に記憶されたプログラム25bに従ってCPUが演算処理を行うことで実現される機能として、各種の機能を備えている。図中に示す表示制御部21a、サーバ連携部21b、状況取得部21c、ナビ制御部21d、オーディオ制御部21e及びコマンド実行部21fは、プログラム25bに従って演算処理を行うことで実現される制御部21の機能部の一部である。
表示制御部21aは、メインディスプレイ31及びサブディスプレイ32を制御し、これら2つのディスプレイ31,32のそれぞれに各種の情報を表示させる。表示制御部21aは、音声アシスト処理の実行中においては、音声アシスト処理に係るユーザへの各種の案内情報をサブディスプレイ32に表示させる。このユーザへの案内情報は、例えば、発声のタイミング、音声認識処理の認識結果などである。このようにユーザへの案内情報がユーザの正面近傍にあるサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく案内情報に従って音声アシスト処理を実行させることができる。
サーバ連携部21bは、データ通信部22を介してサーバ7と通信を行い、サーバ7と連携して音声アシスト処理に必要な処理を実行する。例えば、サーバ連携部21bは、ユーザの音声を取得して、ユーザの音声を示す音声データをサーバ7に送信する。また、サーバ連携部21bは、音声認識部74の認識結果、及び、意味理解部75の処理結果(「コマンド」または「検索結果」)をサーバ7から取得する。
状況取得部21cは、サーバ連携部21bの処理に基いて、音声アシスト処理の処理状況を取得する。具体的には、状況取得部21cは、音声認識部74による音声認識処理の実行中、あるいは、意味理解部75による意味理解処理の実行中などの処理状況を取得する。
また、ナビ制御部21dはナビゲーション部23の動作を制御し、オーディオ制御部21eはオーディオ部24の動作を制御する。また、コマンド実行部21fは、音声アシスト処理において「コマンド」をサーバ7から取得した場合に当該「コマンド」を実行する。これらの機能部21a〜21fの処理の詳細についてはさらに後述する。
<4.音声アシスト処理の流れ>
次に、音声処理システム10による音声アシスト処理の流れを説明する。図7及び図8は、この音声アシスト処理の流れを示す図である。図7においては、図中の左側は車載表示システム1の処理の流れを示しており、図中の右側はサーバ7の処理の流れを示している。また、図8は、車載表示システム1のみの処理の流れを示している。また、図9から図15はそれぞれ、メインディスプレイ31及びサブディスプレイ32それぞれの同一時点での表示内容の例を示している。
図9は、音声アシスト処理の開始前の2つのディスプレイ31,32の表示内容の例を示している。音声アシスト処理の開始前においては、表示制御部21aは、メインディスプレイ31に車両9の周辺の地図画像MPを表示させ、サブディスプレイ32にその時点の時刻等を表示させる。このような状態において、車両9のユーザが音声認識ボタン33c(図5参照。)を押圧すると、音声アシスト処理が開始される。
音声アシスト処理が開始されると、まず、表示制御部21aが、音声アシスト処理に係る案内情報として、ユーザが発声すべきタイミングをサブディスプレイ32に表示させる(図7のステップS11)。これにより、図10に示すように、「ピッとなったらお話ください」という案内情報G1がサブディスプレイ32に表示される。
次に、サーバ連携部21bが、スピーカ35を制御してビープ音をスピーカ35から出力させる。このビープ音の出力後、ユーザは任意の音声を発声し、マイク34がユーザの音声を入力する。サーバ連携部21bは、このマイク34から出力される音声信号を受け取り、ユーザの音声を取得する。
ビープ音の出力後、所定時間(例えば10秒間)ユーザが音声を発声せず、サーバ連携部21bがユーザの音声を取得できなかった場合は(ステップS12にてNo)、表示制御部21aが音声アシスト処理を終了する旨のメッセージをサブディスプレイ32に表示させ(ステップS13)、音声アシスト処理が終了する。
また、サーバ連携部21bがユーザの音声を取得できた場合は(ステップS12にてYes)、次に、サーバ連携部21bは、受信した音声信号のうちユーザの音声が含まれる区間を抽出する区間抽出処理を実行する(ステップS14)。サーバ連携部21bは、例えば、音声信号のうち所定の閾値を超えるレベルの信号が連続する区間を抽出する。サーバ連携部21bは、抽出した音声信号をMP3などの所定形式の音声データに変換する。
次に、サーバ連携部21bは、ユーザの音声を示す音声データを、データ通信部22を介してサーバ7へ送信する(ステップS15)(矢印C1)。サーバ7の音声認識部74は、このように車載表示システム1から送信された音声データをデータ通信部72を介して受信する(ステップS71)。
音声認識部74は、音声データを受信すると、音声データが示すユーザの音声を対象に音声認識処理を実行する(ステップS72)。音声認識部74は、音声認識辞書73aを参照し、ユーザの音声の特徴量に基づいてユーザの音声を文字に変換する。そして、音声認識部74は、音声認識処理の認識結果としてユーザの音声を表す文字列を生成する。
また、このようなサーバ7における音声認識処理の実行(ステップS72)に並行して、車載表示システム1の状況取得部21cは、音声データの送信完了に基づき、サーバ7において音声認識処理が実行中であるという処理状況を取得する。そして、表示制御部21aが、音声アシスト処理に係る案内情報として、この音声アシスト処理の処理状況をサブディスプレイ32に表示させる(ステップS16)。これにより、図11に示すように、処理状況を示す「音声認識中」という案内情報G2がサブディスプレイ32に表示される。
その後、サーバ7の音声認識部74が音声認識処理を完了すると、音声認識部74は、音声認識処理の認識結果の文字列を車載表示システム1にデータ通信部72を介して送信する(ステップS73)(矢印C2)。
また、音声認識部74は、音声認識処理の認識結果の文字列を意味理解部75に出力する。意味理解部75は、これに応答して、音声認識処理の認識結果の文字列を対象に意味理解処理を開始する(ステップS74)。
一方、車載表示システム1のサーバ連携部21bは、サーバ7から送信された音声認識処理の認識結果の文字列を、データ通信部22を介して受信して取得する(ステップS17)。車載表示システム1の状況取得部21cは、この認識結果の受信完了に基づき、サーバ7において意味理解処理が実行中であるという処理状況を取得する。
そして、表示制御部21aが、音声アシスト処理に係る案内情報として、音声認識処理の認識結果の文字列と、音声アシスト処理の処理状況とをサブディスプレイ32に表示させる(ステップS18)。これにより、図12に示すように、認識結果の文字列(図の例では「近くのコンビニに行きたい」)を示す案内情報G3と、処理状況を示す「意味理解中」という案内情報G4とがサブディスプレイ32に表示される。ユーザは、このようなサブディスプレイ32の表示内容を視認することで、音声認識処理においてユーザの音声が正しく認識されたか否かを確認することができる。
さらに、表示制御部21aは、図12に示すように、コマンドボタンである「やり直し」ボタンB1を含むダイアログDをサブディスプレイ32に表示させる。「やり直し」ボタンB1には、音声認識処理を再実行する指示が割り当てられている。ユーザは、ホイールボタン33aを押圧することで、「やり直し」ボタンB1の指示を確定できる。なお、キャンセルボタン33bを押圧することで、「やり直し」ボタンB1の指示を確定できてもよい。
「やり直し」ボタンB1の指示が確定された場合は(ステップS19にてYes)、処理はステップS11に戻ることになる。ユーザは、音声が誤って認識された場合は、「やり直し」ボタンB1の指示を確定することで、発声をやり直して音声認識処理を再び実行させることができる。
また、このように車載表示システム1において音声認識処理の認識結果等が表示されている状況(ステップS18)に並行して、サーバ7では、意味理解部75が意味理解処理を進行する(ステップS74)。
意味理解部75は、音声認識処理の認識結果の文字列から、助詞や接続詞などの不用語を消去することで単語を抽出する。そして、意味理解部75は、抽出した単語と、意味判定辞書73bとに基いて、ユーザの音声の意味が「コマンド」「施設の条件」及び「楽曲の条件」のいずれに該当するかを判定する。
そして、意味理解部75は、ユーザの音声の意味が「コマンド」と判定した場合は、意味認識処理の処理結果として、当該「コマンド」を車載表示システム1にデータ通信部72を介して送信する(ステップS75)(矢印C3)。「コマンド」は、例えば、「エアコンのオン」、「温度を下げる」等のエアコン装置97に関わるものや、「消音」、「音量を上げる」等のオーディオ機能に係るものなどがある。
また、意味理解部75は、ユーザの音声の意味が「施設の条件」と判定した場合は、判定した「施設の条件」を検索条件として用い、その検索条件を満足する施設を施設データベース73cから検索する。「施設の条件」は、例えば、「近く」等の場所や「コンビニ」等の施設種別などである。この検索において、車両9の位置が必要な場合は、車載表示システム1のナビゲーション部23から車両9の位置を取得すればよい。そして、意味理解部75は、意味認識処理の処理結果として、その検索結果を車載表示システム1にデータ通信部72を介して送信する(ステップS75)(矢印C3)。
また、意味理解部75は、ユーザの音声の意味が「楽曲の条件」と判定した場合は、判定した「楽曲の条件」を検索条件として用い、その検索条件を満足する楽曲を楽曲データベース73dから検索する。「楽曲の条件」は、例えば、アーティスト名、アルバム名などである。そして、意味理解部75は、意味認識処理の処理結果として、その検索結果を車載表示システム1にデータ通信部72を介して送信する(ステップS75)(矢印C3)。
車載表示システム1のサーバ連携部21bは、サーバ7から送信された意味認識処理の処理結果を、データ通信部22を介して受信して取得する(ステップS20)。次に、サーバ連携部21bは、サーバ7から取得した処理結果が、「コマンド」及び「検索結果」のいずれであるかを判定する(図8のステップS21)。
処理結果が「コマンド」である場合(ステップS21にてNo)は、表示制御部21aが、音声アシスト処理に係る案内情報として、当該「コマンド」の内容をサブディスプレイ32に表示させる(ステップS22)。これにより、図13に示すように「コマンド」の内容(図の例では「エアコンをオンにします」)を示す案内情報G5がサブディスプレイ32に表示される。
次に、コマンド実行部21fが、当該「コマンド」を実行する(ステップS23)。これにより、音声アシスト処理が終了する。例えば、当該「コマンド」がエアコン装置97に係るものである場合は、コマンド実行部21fは、信号送信部26を介してエアコン装置97に制御信号を送信する。また例えば、当該「コマンド」がオーディオ機能に係るものである場合は、コマンド実行部21fは、オーディオ制御部21eに「コマンド」を与え、オーディオ部24を制御させる。
また、処理結果が「検索結果」である場合(ステップS21にてYes)は、表示制御部21aは、図14に示すように、「やり直し」ボタンB1とともに、コマンドボタンである「検索結果表示」ボタンB2を含むダイアログDを、サブディスプレイ32に表示させる(ステップS24)。「検索結果表示」ボタンB2には、検索結果のリストを表示する指示が割り当てられている。
ユーザは、ホイールボタン33aを回転することで、「やり直し」ボタンB1及び「検索結果表示」ボタンB2のいずれかをカーソルBCで仮選択できる。そして、ユーザは、ホイールボタン33aを押圧することで、カーソルBCで仮選択したコマンドボタンの指示を確定できる。「やり直し」ボタンB1の指示が確定された場合は(ステップS25にてNo)、処理は図7のステップS11に戻るため、ユーザは、発声をやり直して音声認識処理を再び実行させることができる。なお、キャンセルボタン33bを押圧することで、カーソルBCの位置とは無関係に、「やり直し」ボタンB1の指示を確定できるようにしてもよい。
また、「検索結果表示」ボタンB2の指示が確定された場合は(ステップS25にてYes)、表示制御部21aは、図15に示すように、検索結果のリストLをメインディスプレイ31に表示させる(ステップS26)。
図15に示すように、メインディスプレイ31は、その画面が上下2つの領域に分割されて、上側の領域に地図画像MPを表示し、下側の領域に検索結果のリストLを表示する。図15の例では、メインディスプレイ31は、施設に係る検索結果を表示しており、検索結果のリストLの各項目は一つの施設に対応している。また、リストLに含まれる各項目の施設の位置は、地図画像MP上においてアイコンTPによって示されている。
このように検索結果のリストLが、画面サイズが比較的大きなメインディスプレイ31に表示されるため、一度に表示するリストLの項目の数を増やすことができる。このため、ユーザはリストLに含まれる項目を容易に把握することができる。
また、図15のようにメインディスプレイ31が検索結果のリストLを表示している状態においては、ユーザは、手動操作あるいは音声操作によって、検索結果のリストLに関する操作を行うことができる。
ユーザは、手動操作を行う場合は、ホイールボタン33aを回転することで、リストの項目のいずれかをカーソルLCで仮選択する。そして、ユーザは、ホイールボタン33aを押圧することで、カーソルLCで仮選択した項目の選択を確定する。
また、ユーザは、音声操作を行う場合は、音声認識ボタン33cを押圧した後、項目を選択するための音声、あるいは、項目を絞り込むための音声を発する。これにより、この音声を対象とした音声認識処理の認識結果を用いた再度の音声アシスト処理が実行される。その結果、リストLの項目の選択、あるいは、リストLの項目の絞り込みがなされる。
具体的には、ユーザが、順番を示す単語を含む音声を発声した場合は、表示されているリストL中の当該順番の項目を選択できる。例えば、ユーザが「2番目」と発声した場合は、リストL中の上から2番目に表示されている項目が選択されることになる。
また、ユーザが、項目の絞込条件となる単語を含む音声を発声した場合は、表示されているリストL中の項目が、当該絞込条件を満足する項目のみに絞り込まれて表示される。例えば、コンビニエンスストアに係る検索結果を表示している場合に、ユーザが「ATMのあるところ」と発声した場合は、元の「施設の条件」に「ATM」という絞込条件が加えられて再度の検索がなされる。そして、その検索結果のリストLが、メインディスプレイ31に表示されることになる。
このような手動操作及び音声操作をユーザに案内するため、表示制御部21aは、検索結果のリストをメインディスプレイ31に表示させた場合は、音声アシスト処理に係る案内情報として、手動操作を説明する操作説明と、音声操作を説明する操作説明との双方を同時にサブディスプレイ32に表示させる(ステップS27)。これにより、図15に示すように、手動操作に係る操作説明を示す案内情報G6と、音声操作に係る説明説明を示す案内情報G7とがサブディスプレイ32に表示される。
手動操作に係る操作説明を示す案内情報G6は、図形を用いたホイールボタン33aの操作手法を含んでいる。また、音声操作に係る操作説明を示す案内情報G7は、絞込条件の候補となる単語を含んでいる。このような絞込条件に利用可能な単語は、検索結果のリストLの各項目となるデータに予め関連付けておけばよい。
このように手動操作や音声操作を説明する操作説明がユーザの正面近傍にあるサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなくリストLに関する操作の方法を把握できる。また、音声操作を説明する操作説明と手動操作を説明する操作説明との双方が同時にサブディスプレイ32に表示されるため、ユーザは双方の操作手法を把握した上で、任意の操作手法を選択してリストLに関する操作を行うことができる。
メインディスプレイ31が検索結果のリストを表示している状態において、ユーザが音声認識ボタン33cを押圧した場合(ステップS28にてYes)は、処理は図7のステップS11に移行する。これにより、検索結果のリストLに関する音声操作のための音声アシスト処理が実行されることになる。
また、ユーザが、検索結果のリストLの項目の一つを選択した場合は(ステップS29にてYes)、選択された項目に応じた処理が実行される(ステップS30)。これにより、音声アシスト処理が終了する。
例えば、ユーザが、施設に係る検索結果のリストLの項目の一つを選択した場合は、ナビ制御部21dが、当該項目の施設をナビゲーション機能の目的地に設定する。以降、ナビゲーション部23は、この目的地までのルートを案内する。
また、ユーザが、楽曲に係る検索結果のリストLの項目の一つを選択した場合は、オーディオ制御部21eが、当該項目の楽曲をオーディオ機能の再生対象に設定する。以降、オーディオ部24は、この楽曲を再生する。なお、オーディオ部24は、再生対象に設定された楽曲の音響データを、表示制御装置2の内部の記憶部25から取得してもよく、ネットワーク8に接続された外部サーバ等からダウンロードして取得してもよい。
以上のように、本実施の形態の車載表示システム1は、運転席91の正面中央までの距離が相対的に小さいサブディスプレイ32と、運転席91の正面中央までの距離が相対的に大きいメインディスプレイ31とを備えている。表示制御装置2の表示制御部21aは、これら2つのディスプレイ31,32を制御し、2つのディスプレイ31,32のそれぞれに各種の情報を表示させる。また、表示制御装置2のサーバ連携部21bは、ユーザの音声を取得するとともに、そのユーザの音声を対象とした音声認識処理の認識結果に基づく検索対象の検索結果を取得する。そして、表示制御部21aは、音声認識処理の認識結果を用いた音声アシスト処理に係るユーザへの案内情報をサブディスプレイ32に表示させる一方で、検索結果のリストLをメインディスプレイ31に表示させる。
このように、音声アシスト処理に係るユーザへの案内情報が運転席91の正面近傍にあるサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく、案内情報に従って音声アシスト処理を実行させることができる。また、音声アシスト処理に係るユーザへの案内情報がサブディスプレイ32に表示される一方で、検索結果のリストLがメインディスプレイ31に表示される。このため、一つのディスプレイが同時に表示する情報量を少なくすることができることから、ユーザは必要とする情報を容易に確認することができる。
また、検索結果のリストLが画面サイズが比較的大きなメインディスプレイ31に表示されるため、一度に表示するリストの項目の数を増やすことができる。このため、ユーザはリストLに含まれる項目を容易に把握できる。
また、音声アシスト処理に係る案内情報として音声認識処理の認識結果がサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく音声認識処理の認識結果が正しいか否かを確認することができる。
また、音声アシスト処理に係る案内情報として音声アシスト処理の処理状況がサブディスプレイ32に表示されるため、ユーザは視線を大きく動かすことなく処理状況を把握することができる。
<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、車載表示システム1はサーバ7と協働することによって音声アシスト処理を実行するものであったが、車載表示システム1は単体で音声アシスト処理を実行可能となっていてもよい。この場合は、上記実施の形態でサーバ7が備えていた音声認識部74及び意味理解部75と同様の処理部を、車載表示システム1(例えば、表示制御装置2)が備えていればよい。また、車載表示システム1は、サーバ7との協働による音声アシスト処理と単体での音声アシスト処理とのいずれも実行可能とし、いずれを実行するかをサーバ7との通信状態等に応じて選択するようにしてもよい。
また、上記実施の形態では、サブディスプレイ32はメータパネル94の上部に配置されていたが、メータパネル94の横や、メータパネル94の内部などに配置されてもよい。すなわち、サブディスプレイ32は、メインディスプレイ31と比較してユーザの座席の正面中央までの距離が小さく、視線を大きく動かすことなく確認できる位置に配置すればよい。
また、上記実施の形態では、表示制御装置2は、車両9に搭載される車載装置であるものとして説明したが、携帯電話やスマートフォンなどの可搬性の通信装置であってもよい。
また、上記実施の形態では、車載表示システム1のユーザは、車両9のドライバであるものとして説明したが、ドライバ以外の同乗者であってもよい。
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。
1 車載表示システム
2 表示制御装置
9 車両
10 音声処理システム
31 メインディスプレイ
32 サブディスプレイ
33c 音声認識ボタン
91 運転席

Claims (8)

  1. 車両の外部に配置されるサーバとネットワークを介したデータの送受信を行い、前記車両に設けられた表示装置に情報を表示させる表示制御装置であって、
    前記サーバは、音声に基づく音声認識処理と、前記音声認識処理の認識結果に基づく検索対象の検索とを行い、
    前記表示制御装置は、
    前記車両のユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置と、前記距離が相対的に大きい第2表示装置とのそれぞれに情報を表示させる表示制御手段と、
    前記ユーザの音声を取得する音声取得手段と、
    前記ユーザの音声を対象とした前記音声認識処理の認識結果を前記サーバから取得する認識結果取得手段と、
    前記音声認識処理の認識結果に基づく前記検索対象の検索結果を前記サーバから取得する検索結果取得手段と、
    を備え、
    前記表示制御手段は、
    前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を前記第1表示装置に表示させ、
    前記検索結果のリストを前記第2表示装置に表示させ
    前記表示制御手段は、前記検索結果取得手段が前記検索結果を取得する前に、前記認識結果取得手段が取得した前記音声認識処理の認識結果を前記案内情報として前記第1表示装置に表示させることを特徴とする表示制御装置。
  2. 請求項1に記載の表示制御装置において、
    前記第2表示装置の画面サイズは、前記第1表示装置よりも大きく、
    前記表示制御装置は、前記リストを前記第2表示装置に表示させた場合に、前記音声認識処理の認識結果を用いた前記リストに関する音声操作が可能であり、
    前記表示制御手段は、前記音声操作が可能なときに、該音声操作を説明する操作説明を前記案内情報として前記第1表示装置に表示させることを特徴とする表示制御装置。
  3. 請求項1または2に記載の表示制御装置において、
    前記第2表示装置に表示された前記リストに関するユーザの手動操作を受け付ける操作手段、
    を備え、
    前記表示制御手段は、前記リストを前記第2表示装置に表示させた場合に、前記手動操作を説明する操作説明を、前記案内情報として前記第1表示装置に表示させることを特徴とする表示制御装置。
  4. 請求項3に記載の表示制御装置において、
    前記表示制御手段は、
    前記リストを前記第2表示装置に表示させた場合に、前記音声認識処理の認識結果を用いた前記リストに関する音声操作が可能なときに、該音声操作を説明する操作説明と前記手動操作を説明する操作説明との双方を同時に前記案内情報として前記第1表示装置に表示させることを特徴とする表示制御装置。
  5. 請求項1ないし4のいずれかに記載の表示制御装置において、
    前記表示制御手段は、前記音声認識処理の認識結果を前記案内情報として前記第1表示装置に表示させた場合に、前記音声認識処理を再実行する指示をユーザから受け付けることを特徴とする表示制御装置。
  6. 請求項1ないし5のいずれかに記載の表示制御装置において、
    前記音声認識処理の認識結果を用いた処理の処理状況を取得する状況取得手段、
    をさらに備え、
    前記案内情報は、前記処理状況を含むことを特徴とする表示制御装置。
  7. 請求項1ないし6のいずれかに記載の表示制御装置と、
    前記表示制御装置の制御に基いて情報を表示する前記第1表示装置と、
    前記表示制御装置の制御に基いて情報を表示する前記第2表示装置と、
    を備えることを特徴とする表示システム。
  8. 車両の外部に配置されるサーバとネットワークを介したデータの送受信を行い、前記車両に設けられた表示装置に情報を表示させる表示制御方法であって、
    前記サーバは、音声に基づく音声認識処理と、前記音声認識処理の認識結果に基づく検索対象の検索とを行い、
    前記表示制御方法は、
    (a)前記車両のユーザの音声を取得する工程と、
    (b)前記ユーザの音声を対象とした前記音声認識処理の認識結果を前記サーバから取得する工程と、
    (c)前記音声認識処理の認識結果を用いた処理に係る前記ユーザへの案内情報を、前記ユーザが着座する座席の正面中央までの距離が相対的に小さい第1表示装置に表示させる工程と、
    (d)前記音声認識処理の認識結果に基づく前記検索対象の検索結果を前記サーバから取得する工程と、
    )前記検索結果のリストを、前記距離が相対的に大きい第2表示装置に表示させる工程と、
    を備え
    前記工程(c)は、前記工程(d)で前記検索結果を取得する前に、前記工程(b)で取得した前記音声認識処理の認識結果を前記案内情報として前記第1表示装置に表示させることを特徴とする表示制御方法。
JP2012210429A 2012-09-25 2012-09-25 表示制御装置、表示システム及び表示制御方法 Expired - Fee Related JP5986468B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012210429A JP5986468B2 (ja) 2012-09-25 2012-09-25 表示制御装置、表示システム及び表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012210429A JP5986468B2 (ja) 2012-09-25 2012-09-25 表示制御装置、表示システム及び表示制御方法

Publications (2)

Publication Number Publication Date
JP2014065359A JP2014065359A (ja) 2014-04-17
JP5986468B2 true JP5986468B2 (ja) 2016-09-06

Family

ID=50742204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012210429A Expired - Fee Related JP5986468B2 (ja) 2012-09-25 2012-09-25 表示制御装置、表示システム及び表示制御方法

Country Status (1)

Country Link
JP (1) JP5986468B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10535343B2 (en) 2016-05-10 2020-01-14 Google Llc Implementations for voice assistant on devices
KR102177786B1 (ko) 2016-05-13 2020-11-12 구글 엘엘씨 미디어 출력 디바이스들 사이의 미디어 전달
JP7176011B2 (ja) * 2018-06-26 2022-11-21 グーグル エルエルシー デジタルアシスタントアプリケーションとナビゲーションアプリケーションとの間のインターフェーシング
JP7243567B2 (ja) * 2019-10-18 2023-03-22 トヨタ自動車株式会社 変更操作支援装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0329998A (ja) * 1989-06-27 1991-02-07 Mitsubishi Electric Corp 自動車用音声入力装置
JPH09114488A (ja) * 1995-10-16 1997-05-02 Sony Corp 音声認識装置,音声認識方法,ナビゲーション装置,ナビゲート方法及び自動車
JP2003148987A (ja) * 2001-11-09 2003-05-21 Mitsubishi Electric Corp ナビゲーション装置
JP2003291750A (ja) * 2002-04-01 2003-10-15 Nissan Motor Co Ltd 車載機器制御装置
JP4413564B2 (ja) * 2003-09-16 2010-02-10 三菱電機株式会社 情報端末および音声認識システム
JP4554285B2 (ja) * 2004-06-18 2010-09-29 トヨタ自動車株式会社 音声認識システム、音声認識方法、及び音声認識プログラム
JP5584603B2 (ja) * 2010-12-06 2014-09-03 富士通テン株式会社 情報提供システムおよび情報提供装置

Also Published As

Publication number Publication date
JP2014065359A (ja) 2014-04-17

Similar Documents

Publication Publication Date Title
JP4304952B2 (ja) 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
JP5821639B2 (ja) 音声認識装置
JP5637131B2 (ja) 音声認識装置
JP4292646B2 (ja) ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体
JP6501217B2 (ja) 情報端末システム
JP4260788B2 (ja) 音声認識機器制御装置
WO2016002406A1 (ja) 車載対話型システム、及び車載情報機器
EP2518447A1 (en) System and method for fixing user input mistakes in an in-vehicle electronic device
KR20100076998A (ko) 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모달 사용자 인터페이스
JP5986468B2 (ja) 表示制御装置、表示システム及び表示制御方法
JP2003114794A (ja) 操作案内装置及び操作案内方法
JP2009251388A (ja) 母国語発話装置
JP5464078B2 (ja) 音声認識端末
JP2013019958A (ja) 音声認識装置
JP3842497B2 (ja) 音声処理装置
JP6105321B2 (ja) 通信装置、通信システム、通信方法、及び、プログラム
JP2018141742A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
JP6387287B2 (ja) 不明事項解消処理システム
JP2008243146A (ja) 音声認識処理装置及びその制御方法
JP2016102823A (ja) 情報処理システム、音声入力装置及びコンピュータプログラム
JP2015129672A (ja) 施設検索装置および方法
WO2012017525A1 (ja) 処理装置及びコマンド入力支援方法
JP7010585B2 (ja) 音コマンド入力装置
KR20150061807A (ko) 수동 조작에 기반한 음성인식 명령어 안내 장치 및 방법
WO2011030404A1 (ja) オペレーティングシステム及びオペレーティング方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160805

R150 Certificate of patent or registration of utility model

Ref document number: 5986468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees