JP2015059811A - ナビゲーション装置および方法 - Google Patents

ナビゲーション装置および方法 Download PDF

Info

Publication number
JP2015059811A
JP2015059811A JP2013193129A JP2013193129A JP2015059811A JP 2015059811 A JP2015059811 A JP 2015059811A JP 2013193129 A JP2013193129 A JP 2013193129A JP 2013193129 A JP2013193129 A JP 2013193129A JP 2015059811 A JP2015059811 A JP 2015059811A
Authority
JP
Japan
Prior art keywords
voice
guidance
unit
arrival time
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013193129A
Other languages
English (en)
Other versions
JP6214297B2 (ja
Inventor
亮介 虎間
Ryosuke Torama
亮介 虎間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013193129A priority Critical patent/JP6214297B2/ja
Publication of JP2015059811A publication Critical patent/JP2015059811A/ja
Application granted granted Critical
Publication of JP6214297B2 publication Critical patent/JP6214297B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】自動車等の車両を運転中のユーザが確認したいタイミングで音声案内をしてくれるナビゲーション装置および方法を提供する。
【解決手段】この発明のナビゲーション装置によれば、ユーザの発話が確認発話であると判定された場合に、案内地点における目標物を決定し、車両が案内地点に到達する時間を計算して、その目標物と到達時間とに応じて誘導音声内容を生成するようにしたので、ユーザが確認したいタイミングで、周囲状況に応じた音声案内により誘導経路を把握することができるため、ユーザにとって運転中の目的地までの経路案内に対する不安感がなくなり、運転負荷が軽減されて利便性が向上する。
【選択図】図1

Description

この発明は、ユーザにより発話された音声を認識し、その認識結果と状況に応じた案内を行うナビゲーション装置および方法に関するものである。
自動車等の車両において、ユーザが目的地を設定すると、現在地から目的地までの経路を画面上の表示や音声により案内するナビゲーション装置が一般的である。この際、自動車等を運転中のユーザにとっては、右左折時等、視線を前方からはずすことができないため、音声による案内は便利であるが、ナビゲーション装置において予め決められたタイミングと内容で音声案内が行われるため、特に必要のない案内が出力されたり、その案内の内容がわかりにくかったりする場合がある。
このような問題に対処するために、例えば特許文献1には、音声案内の内容がユーザにとって満足できない内容だった場合に、ユーザの音声(例えば、「わからない」という発話音声)を認識して、次に優先順位の高い案内文を出力するナビゲーション装置が記載されている。
特開2007−285976号公報
しかしながら、例えば特許文献1のような従来のナビゲーション装置であっても、ナビゲーション装置において予め決められたタイミングと内容で音声案内が行われるものであることに変わりはなく、ユーザが運転中に迷ったり確認したいと思ったりしたタイミングで案内してくれるわけではない、という課題があった。
この発明は、上記のような課題を解決するためになされたものであり、自動車等の車両を運転中のユーザが確認したいタイミングで音声案内をしてくれるナビゲーション装置および方法を提供することを目的とする。
上記目的を達成するため、この発明は、車両の現在地と地図データとに基づいて前記車両の現在地から目的地までのルート検索を行い、案内地点を算出して経路案内を行うナビゲーション装置において、ユーザにより発話された音声を認識する音声認識部と、前記音声認識部により認識された音声が、前記案内地点を確認する確認発話であるか否かを判定する確認発話判定部と、前記確認発話判定部により前記音声認識部により認識された音声が確認発話であると判定された場合に、前記案内地点における目標物を決定する目標物決定部と、前記確認発話判定部により前記音声認識部により認識された音声が確認発話であると判定された場合に、前記案内地点に前記車両が到達する到達時間を計算する到達時間計算部と、前記目標物決定部により決定された目標物と前記到達時間計算部により計算された到達時間とに応じて、前記ユーザに対して案内する音声内容の詳細度を決定して誘導音声内容を生成する誘導詳細度制御部と、前記誘導詳細度制御部により生成された誘導音声内容を音声出力部に対して出力するよう指示を行う音声出力制御部とを備えたことを特徴とする。
この発明によれば、ユーザが確認したいタイミングで、周囲状況に応じた音声案内により誘導経路を把握することができるため、ユーザにとって運転中の目的地までの経路案内に対する不安感がなくなり、運転負荷が軽減されて利便性が向上する。
実施の形態1におけるナビゲーション装置の一例を示すブロック図である。 誘導内容生成部の詳細構成の一例を示すブロック図である。 確認発話判定部が有している確認キーワードの一例を示すテーブルである。 ナビゲーション装置のディスプレイ(表示部)に表示されているナビ画面の一例を示す図である。 施設ジャンルごとの優先順位の一例を示すテーブルである。 施設ジャンルごとのスコアと出現数のスコアの一例を示すテーブルである。 実施の形態1における到達時間に対応する誘導音声内容のひな形の一例を示すテーブルである。 実施の形態1におけるナビゲーション装置の処理を示すフローチャートである。 実施の形態1における誘導音声内容の生成処理の詳細を示すフローチャートである。 通常の誘導音声内容のひな形の一例を示すテーブルである。 誘導内容生成部の詳細構成の別の例を示すブロック図である。 図11に対応する誘導音声内容の生成処理の詳細を示すフローチャートである。 実施の形態2におけるナビゲーション装置の一例を示すブロック図である。 視線認識方法の一例を示す説明図である。 案内地点と視線方法と対象までの距離の違いを示すナビ画面による説明図である。 実施の形態2における、案内地点までの距離と視線が向けられている対象との距離の差と、到達時間とに対応する誘導音声内容のひな形の一例を示すテーブルである。 実施の形態3におけるナビゲーションシステムの概要を示す図である。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
この発明は、ユーザにより発話された音声を認識するナビゲーション装置であり、当該ナビゲーション装置が起動されている場合は常時、音声を認識して、その音声認識結果に応じて経路案内を音声出力するものである。なお、以下の実施の形態では、車両等の移動体に搭載されるナビゲーション装置を例に挙げて説明するが、車両以外の他の移動体用のナビゲーション装置であってもよいし、ナビゲーションシステムのサーバに適用してもよい。また、スマートフォン、タブレットPC、携帯電話等の携帯情報端末等にインストールされるナビゲーションシステムのアプリケーション等に適用してもよい。
実施の形態1.
図1は、この発明の実施の形態1におけるナビゲーション装置の一例を示すブロック図である。このナビゲーション装置は、制御部1、位置検出センサ2、現在位置取得部3、移動速度取得部4、経路計算部5、誘導内容生成部6、マイク7、音声取得部8、音声認識部9、音声合成部10、地図情報格納部11、地図情報取得部12、指示入力部13、表示制御部14、ディスプレイ(表示部)15、音声出力制御部16、スピーカ(音声出力部)17を備えており、車両の現在地と地図データとに基づいて、車両の現在地から目的地までのルート検索を行い、案内地点を算出して経路案内を行うものである。
位置検出センサ2は、GPS(Global Positioning System)衛星からの電波により移動体の現在位置を測定するGPS受信機や、方位センサや走行距離センサなどにより移動体の現在位置や方位を検出する自立航法センサなどにより、移動体の現在位置を検出する。
現在位置取得部3は、GPS受信機や自立航法センサなどの位置検出センサ2からの信号を受け、衛星航法システムや自立航法システムを利用し、かつ、後述する地図情報に基づくマップマッチングを行なって、自車両(移動体)の現在位置と進行方向を取得する。
移動速度取得部4は、車速信号により取得した車速を取得するものである。車速の取得方法については、車速センサを用いてもよいし、例えばGPS受信機による位置情報を用いて移動速度を取得したり、加速度センサを用いて速度を取得するなど、必ずしも車速センサを用いなくてもよい。また、これらを組み合わせて車速を取得するようにしてもよい。
経路計算部5は、指示入力部13や音声操作によりユーザにより設定された地点(目的地)と、現在位置取得部3により取得された位置情報と、地図情報取得部12により取得された地図情報とに基づいて、現在位置から目的地までの最適な経路(以下、「推奨経路」と言う。)を算出する。
誘導内容生成部6は、経路計算部5により算出された経路における案内地点(例えば、右折する地点など)と、地図情報格納部11に格納されている施設情報や交差点情報と、移動速度取得部4により取得した移動速度から、ユーザの状況に応じてよりわかりやすい誘導案内メッセージの内容を生成する。なお、詳細については、図2に示すフローチャートと用いて後述する。
マイク7は、ユーザが発話した音声を取得(集音)する。マイク7には、例えば、全指向性(または無指向性)のマイクや、複数の全指向性(または無指向性)のマイクをアレイ状に配列して指向特性を調整可能としたアレイマイクや、一方向のみに指向性を有しており、指向特性を調整できない単一指向性マイクなどがある。
音声取得部8は、マイク7により取得されたユーザ発話、すなわち、入力された音声を取り込み、例えば例えばPCM(Pulse Code Modulation)によりA/D(Analog/Digital)変換する。
音声認識部9は、音声取得部8によりデジタル化された音声信号から、ユーザが発話した内容に該当する音声区間を検出して認識処理を行うことにより、ユーザにより発話された音声を認識する。この際、例えばHMM(Hidden Markov Model)法のような一般的な音声認識技術や、周知技術であるキーワードスポッティングを用いるようにすればよい。なお、キーワードスポッティングによる認識ではなく、認識すべてを大語彙連続音声認識により認識し、認識結果を形態素解析して抽出する方法を用いてもよい。
ところで、カーナビゲーションシステム等に搭載されている音声認識機能においては、ユーザが発話の開始をシステムに対して明示(指示)するのが一般的である。そのために、音声認識開始を指示するボタン(以下、「音声認識開始指示部」と呼ぶ)が、タッチパネルに表示されたりハンドルに設置されたりしている。そして、ユーザにより音声認識開始指示部が押下された後に発話された音声を認識する。すなわち、音声認識開始指示部は音声認識開始信号を出力し、音声認識部は当該信号を受けると、当該信号を受けた後に音声取得部により取得された音声データから、ユーザが発話した内容に該当する音声区間を検出し、上述した認識処理を行う。
しかし、この実施の形態1における音声認識部9は、上述したようなユーザによる音声認識開始指示がなくても、常に、ユーザが発話した内容を認識する。すなわち、音声認識部9は、音声認識開始信号を受けなくても、このナビゲーション装置が起動されている場合は常時、音声取得部8により取得された音声データから、ユーザが発話した内容に該当する音声区間を検出して認識処理を行い、音声認識結果を出力する処理を繰り返し行う。以下の実施の形態においても同様である。
音声合成部10は、入力された文字または文字列から合成音声を生成する。この音声合成についても、周知の方法を用いればよい。
地図情報格納部11は、例えば道路に関する「道路情報」、施設に関する「施設情報」(種別、名称、位置など)、「各種文字情報」(地名、施設名、交差点名、道路名など)、施設・道路番号などを表す「各種アイコン情報」、誘導案内部で用いるための「誘導用情報」(所定の要所の位置情報・描画情報・音声案内情報など)等の地図データを格納している。
この地図情報格納部11は、例えばHDD(Hard Disk Drive)や、半導体素子を用いたSDカードなどのメモリでもよいし、ネットワーク上に存在し、通信ネットワークを介して道路データなどの情報を取得できる構成であってもよい。
地図情報取得部12は、地図情報や施設情報の取得指示などを受けると、地図情報格納部11を検索して必要な地図データを取得する。
指示入力部13は、ユーザの手動による指示を入力するもの、すなわち、ユーザによる各種操作の指示を受け付けるものである。当該指示は、ナビゲーション装置に設けられたハードウエアのスイッチ、後述するディスプレイ(表示部)15に設定され表示されるタッチスイッチ、あるいはハンドル等に設置されたリモコンもしくは別体のリモコンによる指示を認識する認識装置によるものが挙げられる。
表示制御部14は、地図情報取得部12、現在位置取得部3、経路計算部5、誘導案内生成部6、音声認識部9から必要な情報を取得し、ディスプレイ(表示部)15に描写すべき情報を生成して、ディスプレイ(表示部)15に対して当該情報を表示するよう指示を行う。
ディスプレイ(表示部)15は、表示一体型のタッチパネルであり、例えばLCD(Liquid Crystal Display)とタッチセンサから構成されており、表示制御部14の指示に基づき画面上に描画を行う。なお、タッチパネルには、感圧方式、電磁誘導方式、静電容量方式、あるいはこれらを組み合わせた方式などのうち、いずれを用いてもよい。また、LCDの代わりに有機ELディスプレイを用いてもよい。
音声出力制御部16は、誘導内容生成部6から取得した誘導内容に基づいて音声合成部10により生成された合成音声を出力するよう、スピーカ17に対して出力指示を行う。
スピーカ(音声出力部)17は、音声出力制御部16からの指示に基づいて、音声を出力する。
制御部1は、このナビゲーション装置全体の動作を制御する。また、指示入力部13から入力されたユーザからの指示や、音声認識部9により出力された認識結果に基づいて、様々な機能を実行する。
次に、誘導内容生成部6について、詳細に説明する。図2は、誘導内容生成部6の詳細構成の一例を示すブロック図であり、確認発話判定部18、目標物決定部19、到達時間計算部20、誘導詳細度制御部21で構成されている。
確認発話判定部18は、音声認識部9により認識された音声(ユーザの発話内容)が、案内地点を確認する「確認発話」であるか否かを判定する。
図3は、確認発話判定部18が有している確認キーワードの一例を示すテーブルであり、確認発話判定部18は、この図3に示すようなテーブルを参照することにより、音声認識部9により出力された音声認識結果が「確認発話」であるか否かを判定する。
具体的には、音声認識部9による認識結果が、図3(a)に示すような場所を確認するキーワード(この、その、あの、ここ、そこ、あそこ、これ、それ、あれ、次の、等の場所確認キーワード)のいずれかと図3(b)に示すような施設を確認するキーワード(交差点、コンビニ、信号、レストラン、駐車場、等の施設確認キーワード)のいずれかを含む場合、または、図3(a)に示すような場所確認キーワードのいずれかと図3(c)に示すような行動を確認するキーワード(曲がる、右、左、右折、左折、真っ直ぐ、直進、等の行動確認キーワード)のいずれかを含む場合、または、場所確認キーワードのいずれかと施設確認キーワードのいずれかと行動確認キーワードのいずれかの3つを含む場合、のどれかに該当するときに、「確認発話」であると判定する。なお、施設確認キーワードは、地図情報格納部11に格納されている施設ジャンルに該当する。
目標物決定部19は、確認発話判定部18により「確認発話」であると判定された場合に、地図情報取得部12より取得した施設情報と、経路計算部5より取得した推奨経路から、案内地点における誘導音声としてわかりやすい目標物を決定する。
具体的な決定方法について、図4〜図6を用いて説明する。図4は、ナビゲーション装置のディスプレイ(表示部)15に表示されているナビ画面の一例を示す図であり、図5は、施設ジャンルごとの優先順位の一例を示すテーブル、図6は、施設ジャンルごとのスコアと出現数のスコアの一例を示すテーブルである。
例えば、図4に示すような推奨経路により提示された次の案内地点51における目標物を判断する場合、案内地点51とその周辺にある施設を検索し、検索結果の施設を目標物とする。検索方法は、地図情報取得部12により取得された施設情報に含まれる案内地点の座標値から閾値以内の距離に存在する施設(図4に示す例では、案内地点51の円形内に存在する施設)を取得する。なお、探索範囲は図4に示すように円形であってもよいし、矩形内を探索するようにしてもよい。
検索結果の施設が複数ある場合には、すべての施設を候補目標物施設とする。すなわち、図4に示す場合には、コンビニとレストランが候補目標物とされる。
また、自車50と次の案内地点51との間にある施設についても検索を行う。図4に示す例では、自車50と案内地点51との間にもコンビニが1つ存在するので、これについても途中に存在する施設として認識する。
そして、図5に示すように予め設定された施設ジャンルごとの優先順位に基づいて、候補目標物施設の中から目標物とする施設を決定する。図5に示す施設ジャンルごとの優先順位の一例では、施設ジャンルがN個あるとして、優先順位1位が「コンビニ」、2位が「レジャー施設」、3位が「レストラン」、4位が「駐車場」、・・・、(N−1)位が「信号機」、N位が「交差点」となっている。
図4に示す例において、案内地点51の中に存在する候補目標物施設は「コンビニ」と「レストラン」であるが、図5を参照して目標物を決定する場合には、もっとも優先順位の高い「コンビニ」が目標物施設として決定される。この際、現在位置取得部3により取得された自車50の現在位置から案内地点51までの間に出現する目標物の数を同時に算出する。
あるいは、図6に示すように予め設定された施設ジャンルごとのスコア(図6(a))と、その施設ジャンル出現数のスコアとに基づいて、候補目標物施設の中からスコアの合計値が最大のものを目標物として決定する。図6に示す施設ジャンルごとのスコアと出現数のスコアの一例では、施設ジャンル「コンビニ」のスコアが「+5」、「レジャー施設」のスコアが「+4」、「レストラン」のスコアも「+4」、「駐車場」のスコアが「+3」、・・・、「信号機」のスコアが「+2」、「交差点」のスコアが「+1」であり、出現数が「1」ならスコア「+0」、出現数「2」ならスコア「−2」、出現数「3」ならスコア「−3」、出現数「4」以上ならスコア「−5」となっている。
この場合、同じく図4に示す例において、案内地点51の中に存在する候補目標物施設は「コンビニ」と「レストラン」である。
この例において、図6を参照して目標物を決定する場合には、コンビニのスコアは「+5」(図6(a)参照)だが、自車50と案内地点51との間におけるコンビニの出現数が2であるためスコアは「−2」(図6(b)参照)であるので、施設ジャンル「コンビニ」についての合計スコアは「+3」である。
一方、レストランのスコアは「+4」(図6(a)参照)で、自車50と案内地点51との間におけるレストランの出現数は1であるためスコアは「+0」(図6(b)参照)で、合計スコアは「+4」である。
この結果、合計スコアの大きい「レストラン」が目標物として決定される。
到達時間計算部20は、確認発話判定部18により「確認発話」であると判定された場合に、現在位置取得部3により取得されたユーザ(車両)の現在位置と、移動速度取得部4により取得されたユーザ(車両)の移動速度と、経路計算部5により算出された推奨経路の案内地点を用いて、案内地点にユーザ(車両)が到達する到達時間を計算する。
誘導詳細度制御部21は、確認発話判定部18により取得された発話内容と、目標物決定部19により決定された目標物と、到達時間計算部20により計算された到達時間とに応じて、例えば図7に示すような予め設定されている誘導音声内容のひな形を参照して、ユーザに対して案内する音声内容の詳細度を決定し、誘導音声内容を生成する。図7は、到達時間に対応する誘導音声内容のひな形の一例を示すテーブルである。
図7(a)は、車両の現在位置から案内地点までのその目標物の出現数が1つの場合のひな形であり、例えば、到達時間が2〜3秒(2秒以上3秒未満)の場合には「ここです」、到達時間が3〜4秒(3秒以上4秒未満)の場合には「この交差点です」、到達時間が4〜6秒(4秒以上6秒未満)の場合には「次の(目標物)がある交差点です」、到達時間が6秒以上の場合には「次の(目標物)がある交差点を(誘導指示)です」という誘導音声内容が登録されている。
誘導詳細度制御部21は、確認発話判定部18での発話内容に施設確認キーワードが含まれていた場合、まず初めに、目標物決定部19により取得した候補目標物施設と施設確認キーワードとを比較し、一致するものがあるか否かを判定する。
次に誘導音声内容の詳細度を決定する。誘導音声内容の詳細度は、案内地点への到達時間に応じて内容を変更する。例えば、目標物の出現数が1つの場合には、図7(a)に示すような、到達時間に応じて詳細度の異なる誘導音声内容を用意しておき、目標物決定部19で決定した目標物や、右折・左折のような誘導指示に応じて、図7(a)における目標物欄52、誘導指示欄53の内容を変更する。
また、目標物の出現数が2つ以上の場合は、図7(b)に示すような誘導音声内容を用意しておき、目標物決定部19で決定した目標物や、右折・左折のような誘導指示、および、目標物決定部19で算出した目標物の出現数に応じて、図7(b)における目標物欄52、誘導指示欄53に加え、出現数欄54の内容を変更する。
図7(b)は、車両の現在位置から案内地点までのその目標物の出現数が2つ以上の場合のひな形であり、例えば、到達時間が2〜3秒(2秒以上3秒未満)の場合には「ここです」、到達時間が3〜4秒(3秒以上4秒未満)の場合には「この交差点です」、到達時間が4〜6秒(4秒以上6秒未満)の場合には「この先(出現数)つ目の(目標物)がある交差点です」、到達時間が6秒以上の場合には「この先(出現数)つ目の(目標物)がある交差点を(誘導指示)です」という誘導音声内容が登録されている。
また、到達時間が所定の閾値未満(この例では、2秒未満)の場合には、案内地点を超過したと判断し、図7(c)に示すような「案内地点を通過しました」という誘導音声内容を生成し、推奨経路の再探索後に、目標物決定部19、到達時間計算部20、誘導詳細度制御部21の処理を再度行う。
次に、図8に示すフローチャートを用いて、この実施の形態1におけるナビゲーション装置の処理動作を説明する。図8は、ユーザにより発話が行われた際の、入力音声の取り込みから誘導音声の出力までを示すフローチャートである。
まず、音声取得部8は、マイク7により集音されたユーザ発話、すなわち、入力された音声を取り込み、例えばPCMによりA/D変換する(ステップST01)。
音声認識部9は、取り込まれた音声信号からユーザが発話した内容に該当する音声区間を検出し、該当音声区間の音声データの特徴量を抽出し、その特徴量に基づいて音声認識辞書を参照して認識処理を行う(ステップST02)。
次に、誘導内容生成部6の確認発話判定部18が、音声認識部9による音声認識結果から確認キーワードを抽出し、音声認識された音声が確認発話であるか否かを判断する(ステップST03)。ここで、確認発話であると判断した場合(ステップST03のYESの場合)、誘導内容生成部6の誘導詳細度制御部21が誘導音声内容を生成する(ステップST04)。なお、このステップST04における誘導音声内容の生成処理の詳細については、図9を用いて後述する。一方、確認発話ではないと判断された場合(ステップST03のNOの場合)は、ステップST01の処理へ戻る。
そして、音声合成部10が、ステップST04で生成された誘導音声内容を音声合成して、音声波形を生成する(ステップST05)。
その後、音声出力制御部16は、ステップST05で生成された音声波形に基づいて、スピーカ17に誘導音声を出力させる、すなわち、誘導詳細度制御部21により生成された誘導音声内容をスピーカに対して出力するよう指示を行う(ステップST06)。
ここで、ステップST04における誘導音声内容の生成処理について、図9を用いて説明する。図9は、誘導内容生成部6が図8のステップST04において誘導音声内容を生成する処理の詳細を示すフローチャートである。
図8のステップST03において、ユーザにより発話された音声が確認発話であると判断されると(ステップST03のYESの場合)、到達時間計算部20が、現在位置から案内地点までの距離と、案内地点までの到達時間を算出する(ステップST11)。
案内地点までの距離が所定の距離(閾値)以上である場合(ステップST12のNOの場合)、例えば図10に示すような通常の誘導音声内容を生成する(ステップST13)。例えば、案内地点までの距離が700メートルで、閾値が500メートルであった場合、図10に示す例では、「700メートル先、○○交差点を左折です」といった、案内地点までの距離、案内交差点名、誘導指示を含む一般的なナビゲーションシステムにおける誘導案内音声が生成される。
案内地点までの距離が所定の距離(閾値)未満である場合(ステップST12のYESの場合)には、目標物決定部19が、誘導に適切な目標物を決定する(ステップST14)。
次に、ステップST11で計算した案内地点までの到達時間(以下、「案内地点到達時間」と呼ぶ。)が所定の閾値以上である場合(ステップST15のYESの場合)、誘導詳細度制御部21が、その案内地点到達時間とステップST14で決定された目標物をもとに、例えば図7に示すようなテーブルを参照して、誘導音声内容を生成する(ステップST16)。
一方、案内地点到達時間が所定の閾値未満である場合(ステップST15のNOの場合)、誘導詳細度制御部21は、自車(車両)が案内地点を超過したと判断して、ルート再検索用の誘導音声内容、例えば、図7(c)に示すような案内地点を通過した旨を示す誘導音声内容を生成する(ステップST17)。なお、この図7(c)の例では、案内地点到達時間の所定の閾値は2秒としている。
具体的には、例えば、図4に示すような位置に自車50があるときに、その車両を運転するユーザが「あのコンビニを左?」と発話したとする。これにより、音声取得部8がこの発話音声を取り込み(図8のステップST01)、音声認識部9がその音声を認識する(ステップST02)。
そして、確認発話判定部18が、例えば図3に示すような確認キーワードのテーブルを参照することにより、音声認識結果から「あの」という場所確認キーワード、「コンビニ」という施設確認キーワード、「左」という行動確認キーワードを抽出し、前述の確認発話である条件を満たしているので、認識された音声は確認発話であると判定する(ステップST03)。
その後、到達時間計算部20が、自車位置取得部3により取得された自車位置と地図情報取得部12により取得された地図データとに基づいて、自車50から案内地点51までの距離を計算するとともに、その距離と移動速度取得部4により取得された車速とに基づいて案内地点51までの到達時間を計算する(ステップST11)。
ここでは、計算した結果、案内地点51までの距離が100メートル、案内地点到達時間が6.2秒であったとする。
案内地点までの距離の閾値が500メートル、到達時間の閾値が2秒に設定されているとすると、案内地点までの距離(=100メートル)は閾値(=500メートル)以上であるので(ステップST12のYESの場合)、目標物決定部19が案内地点51における目標物を決定する(ステップST14)。ここでは、候補目標物施設は「コンビニ」と「レストラン」であり、例えば図5に示す優先順位テーブルにしたがうとすると、「コンビニ」が目標物として決定される。また、この際、決定した目標物が自車50から案内地点51までの間に出現する出現数についても「2」と算出する。
また、案内地点到達時間(=6.2秒)は閾値(=2秒)以上であるので(ステップST15のYESの場合)、誘導詳細度制御部21が誘導音声内容を生成する(ステップST16)。この際、到達時間は「6.2秒」、目標物は「コンビニ」、誘導指示は「左折」、出現数は「2」であるので、例えば図7(b)に示すテーブルを参照して、「この先2つ目のコンビニがある交差点を左折です」という誘導音声内容が生成される。
そして、音声合成部10が、生成された誘導音声内容を音声合成して、音声波形を生成し(ステップST05)、音声出力制御部16が、生成された音声波形に基づいて、スピーカ17に誘導音声「この先2つ目のコンビニがある交差点を左折です」を出力させる(ステップST06)。
このように、ユーザが確認したタイミングで、そのときの周囲状況に応じた内容の音声案内が出力されて誘導経路を把握することができるため、ユーザにとって運転中の目的地までの経路案内に対する不安感がなくなり、運転負荷が軽減されて利便性が向上する。
また、誘導詳細度制御部21が、確認発話判定部18により取得された発話内容と、目標物決定部19により決定された目標物と、到達時間計算部20により計算された到達時間とに基づいて、誘導音声内容を生成する際に、ユーザの確認発話内容が正しい場合には「はい。」という肯定の音声を、間違いである場合には「いいえ。」という否定の音声を例えば図7に示すような予め設定されている誘導音声内容のひな形の前に付加した誘導音声内容を生成するようにしてもよい。
具体的には、例えば、図4に示すような位置に自車50があるときに、その車両を運転するユーザが「あのコンビニを左?」と発話した場合には、「はい。この先2つ目のコンビニがある交差点を左です」というように、「はい。」という肯定の音声を付加した誘導音声内容が出力される。また、例えばユーザが「あの駐車場を左?」と発話した場合には、「いいえ。この先2つ目のコンビニがある交差点を左です」というように、「いいえ。」という否定の音声を付加した誘導音声内容が出力される。
さらに、目標物決定部19において決定された目標物が「コンビニ」であったとしても、例えばユーザ「あのレストランを左?」というように、候補目標物施設である「レストラン」が発話された場合には、「はい。あのレストランを左です」というように、「はい。」という肯定の音声を付加した上で、ユーザが発話した施設確認キーワード「レストラン」を使用した誘導音声内容が出力されるようにしてもよい。
なお、誘導内容生成部6が、誘導音声速度制御部22も備えるようにして、誘導詳細度制御部21により生成された誘導音声内容と、到達時間計算部20により計算された案内地点までの到達時間とに応じて、誘導音声内容が再生される速度を変化させるようにしてもよい。
図11は、誘導内容生成部6の詳細構成の別の例を示すブロック図である。
誘導音声速度制御部22は、誘導詳細度制御部21で生成された誘導音声内容の再生速度を、到達時間計算部20で計算された案内地点到達時間に基づいて制御する。例えば、誘導詳細度制御部で生成された誘導音声内容の再生時間が、到達時間計算部20で取得した到達時間内に再生が終わらない場合に、到達時間内に再生が終了するように再生速度を上げる。この際、再生時間を早くしても再生音声のピッチは変わらないようにする。
この場合の、誘導音声内容の生成処理について、図12を用いて説明する。図12は、誘導内容生成部6が誘導音声速度制御部22も備える場合に、図8のステップST04において誘導音声内容を生成する処理の詳細を示すフローチャートである。
ステップST21〜ST25およびステップST28の処理については、図9に示すステップST11〜15およびステップST17の処理と同じであるため、説明を省略する。なお、前述の例と同じように、案内地点到達時間が6.2秒、閾値が2秒であり、ステップST26において「この先2つ目のコンビニがある交差点を左折です」という誘導音声内容が生成されたとする。
この場合、誘導音声速度制御部22は、案内地点51までの到達時間から閾値分の時間を残して誘導音声内容が生成し終わるように、すなわち、この例では到達時間6.2秒−閾値2秒=4.2秒の間に、「この先2つ目のコンビニがある交差点を左折です」という誘導音声が生成し終わるように、再生速度を決定する(ステップST27)。
そして、音声合成部10が、生成された誘導音声内容を音声合成して、音声波形を生成し(ステップST05)、音声出力制御部16が、生成された音声波形に基づいて、かつ、ステップST27において決定された再生速度で、スピーカ17に誘導音声「この先2つ目のコンビニがある交差点を左折です」を出力させる(ステップST06)。
この場合であっても、ユーザが確認したタイミングで、そのときの周囲状況に応じた内容の音声案内で、かつ、案内地点までにユーザが聞き終えることができる再生速度で音声案内が出力されて誘導経路を把握することができるため、ユーザにとって運転中の目的地までの経路案内に対する不安感がなくなり、運転負荷が軽減されて利便性が向上する。
以上のように、この実施の形態1によれば、ユーザが確認したタイミングで、そのときの周囲状況に応じた内容の音声案内が出力されて誘導経路を把握することができるため、ユーザにとって運転中の目的地までの経路案内に対する不安感がなくなり、運転負荷が軽減されて利便性が向上する。
実施の形態2.
図13は、この発明の実施の形態2におけるナビゲーション装置の一例を示すブロック図である。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態2では、実施の形態1と比べると、視線認識装置23および視線認識部24をさらに備えており、誘導内容生成部6の誘導詳細度制御部21に視線認識部24の出力結果が入力される点で異なる。
視線認識装置23は、例えばLEDとカメラから構成されており、角膜反射法を用いてユーザの目の位置(眼球位置と瞳孔中心)と視線方向を検出する。
視線認識部24は、視線認識装置23により検出された目の位置を視線方向から、ユーザが視線を向けている対象を認識し、ユーザの目の位置から視線を向けている対象までの距離を算出する。
図14は、この視線認識方法の一例を示す説明図であり、符号61が左右の眼球位置、符号62が左右の目の瞳孔中心、符号60が視線方向を示している。
視線認識部24は、視線認識装置23により検出された両目の眼球位置61と瞳孔中心62と視線方向60から交点63を算出し、左右の眼球位置61を結んだ直線64から交点63までの最短距離を、ユーザが視線を向けている対象までの距離Lとして算出する。
そして、誘導詳細度制御部21は、目標物決定部19により取得された目標物と、到達時間計算部20により取得された到達時間と、視線認識部24により取得された視線方向と距離L(視線を向けている対象までの距離)とに応じて、誘導音声内容の詳細度を制御(決定)し、誘導音声内容を生成する。
誘導音声内容の詳細度は、案内地点51への到達時間と、視線方向60と、対象までの距離Lに応じて、よりユーザにとってわかりやすい誘導音声内容に変更する。
具体的に、図15に示す例を用いて説明する。図15は、案内地点と視線方法と対象までの距離の違いを示すナビ画面による説明図である。
例えば、自車50と案内地点51と視線方向60との位置関係が図15(a)に示す状態の場合に、案内地点51への到達時間は7.5秒、視線方向60は図15(a)に示すとおり、案内地点51の中の「レストラン」に向いている。また、この「レストラン」までの距離は120メートル、また、案内地点51までの距離は115メートルであったとする。
この場合、案内地点までの距離と視線が向けられている対象との距離の差に対する閾値が10メートルに設定されているとすると、案内地点51までの距離(=115メートル)と視線が向けられている対象の「レストラン」との距離(=120メートル)の差は5メートルで、閾値(=10メートル)以内であるため、例えば図16に示すようなテーブルを参照して、ユーザの視線を肯定する「はい。その交差点です」という誘導音声が出力される。
図16は、案内地点までの距離と視線が向けられている対象との距離の差と、到達時間とに対応する誘導音声内容のひな形の一例を示すテーブルである。図16(a)は、案内地点までの距離と視線が向けられている対象との距離の差が閾値以内の場合に、ユーザの視線を肯定する誘導音声内容であり、例えば、到達時間が2〜3秒(2秒以上3秒未満)の場合には「はい。そこです」、到達時間が3秒以上の場合には「はい。その交差点です」という誘導音声内容が登録されている。
図16(b)および図16(c)は、案内地点までの距離と視線が向けられている対象との距離の差が閾値より大きい場合に、ユーザの視線を否定する誘導音声内容を示している。なお、図16(b)は自車位置から案内地点までの目標物の出現数が1つの場合、図16(c)はその出現数が2つ以上の場合であり、実施の形態1における図7(a)、(b)と同じ誘導音声内容の前に「いいえ。」というユーザの視線を否定する誘導音声が追加されている。
ここで、自車50と案内地点51と視線方向60との位置関係が図15(b)に示す状態の場合に、案内地点51への到達時間は7.5秒、視線方向60は図15(b)に示すとおり、自車50からもっとも近い交差点にある「コンビニ」に向いている。この「コンビニ」までの距離は20メートルであったとする。
この場合、案内地点51までの距離は115メートルであるので、この場合、案内地点51までの距離(=115メートル)と視線が向けられている対象の「コンビニ」との距離(=20メートル)の差は95メートルで、閾値(=10メートル)より大きく、かつ、自車50の位置から案内地点51までの「コンビニ」の出現数が2つであるため、図16(c)を参照して、ユーザの視線を否定する「いいえ。この先2つ目のコンビニを左です」という誘導音声が出力される。
このように、ユーザの発話内容に含まれている施設確認キーワードと目標物決定部19で決定した目標物が一致していても、視線認識部24により特定した交差点と案内地点とが異なっている場合(図12(b)の場合など)には、前述のように「いいえ。」という否定する発話を行ったあとに、例えば「この先2つ目のコンビニを左です」のように詳細な案内を行うよう、「いいえ。この先2つ目のコンビニを左です」という誘導音声内容を生成して出力する。
以上のように、この実施の形態2によれば、実施の形態1と同様の効果に加え、視線認識部24によりユーザの意図をより詳細に取得することにより、ユーザにとってよりわかりやすい誘導音声を生成でき、さらに利便性が向上する。
実施の形態3.
以上の実施の形態1,2では、この発明におけるナビゲーション装置が、車両等の移動体に搭載されるナビゲーション装置である場合を例に説明したが、車載用のナビゲーション装置に限らず、人、車両、鉄道、船舶または航空機等を含む移動体用のナビゲーション装置であってもよいし、ナビゲーションシステムのサーバに適用してもよい。また、スマートフォン、タブレットPC、携帯電話等の携帯情報端末等にインストールされるナビゲーションシステムのアプリケーション等、どのような形態のものにも適用することができる。
図17は、この発明の実施の形態3におけるナビゲーションシステムの概要を示す図である。このナビゲーションシステムは、車載装置100が、スマートフォンなどの携帯情報端末101およびサーバ102の少なくとも一方と連携してナビゲーション処理を行ったり、スマートフォンなどの携帯情報端末101およびサーバ102の少なくとも一方がナビゲーション処理を行い、車載装置100に誘導音声内容を出力させる等、様々な形態をとることができる。以下、当該ナビゲーションシステムの構成態様について説明する。
実施の形態1,2では、この発明のナビゲーション装置の機能を、図17に示す車載装置100がすべて備えるものとして説明したが、この実施の形態3におけるナビゲーションシステムでは、サーバ102がナビゲーション処理を行い、誘導音声内容を車載装置100に出力させることによりユーザに提供する場合、および、携帯情報端末101がサーバ102と連携してナビゲーション処理を行い、誘導音声内容を車載装置100に出力させることによりユーザに提供する場合について説明する。
まず、サーバ102がナビゲーション処理を行い、誘導音声内容を車載装置100に出力させる場合、すなわち、ナビゲーション機能を有するサーバ102と連携して、車載装置100が音声出力装置として機能する場合について説明する。
この構成においては、車載装置100がサーバ102と直接通信するか、または、車載装置100が携帯情報端末101を経由してサーバ102と通信する場合が考えられる。サーバ102は、上記実施の形態1,2で説明したナビゲーション装置として機能する。また、車載装置100は、サーバ102により出力された誘導音声内容をユーザに提供するためのスピーカ(音声出力部)17を少なくとも備える音声出力装置として機能する。
この場合、車載装置100は基本的に通信機能および音声出力機能のみを有し、サーバ102により生成された誘導音声内容を受信してユーザに提供する。
すなわち、サーバ102がスピーカ(音声出力部)17以外を備えるナビゲーション装置であり、このナビゲーション装置であるサーバ102が、ユーザにより発話された音声を認識して誘導音声内容を生成し、音声出力装置である車載装置100に出力させる。
このように構成しても、実施の形態1,2と同様な効果を得ることができる。
また、携帯情報端末101がサーバ102と連携してナビゲーション処理を行い、誘導音声内容を車載装置100がユーザに提供する場合について説明する。
この構成においては、車載装置100が携帯情報端末101を経由してサーバ102と通信する場合が考えられ、携帯情報端末101のアプリケーションが、サーバ102と連携してナビゲーション処理を行う。また、車載装置100は、携帯情報端末101とサーバ102により生成された誘導音声内容をユーザに提供するためのスピーカ(音声出力部)17を少なくとも備える音声出力装置として機能する。
この場合にも、車載装置100は基本的に通信機能および音声出力機能のみを有し、携帯情報端末101とサーバ102との連携による誘導音声内容を受信してユーザに提供する。
すなわち、携帯情報端末101のアプリケーションにより、ユーザにより発話された音声を認識して誘導音声内容が生成され、その誘導音声内容を音声出力装置である車載装置100に出力させる。
このように構成しても、実施の形態1,2と同様な効果を得ることができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
1 制御部、2 位置検出センサ、3 現在位置取得部、4 移動速度取得部、5 経路計算部、6 誘導内容生成部、7 マイク、8 音声取得部、9 音声認識部、10 音声合成部、11 地図情報格納部、12 地図情報取得部、13 指示入力部、14 表示制御部、15 ディスプレイ(表示部)、16 音声出力制御部、17 スピーカ、18 確認発話判定部、19 目標物決定部、20 到達時間計算部、21 誘導詳細度制御部、22 誘導音声速度制御部、23 視線認識装置、24 視線認識部、50 自車(自車マーク)、51 案内地点、52 目標物、53 誘導指示、54 出現数、60 視線方向、61 眼球位置、62 瞳孔中心、63 左右の眼球位置61と視線方向60との交点、64 左右の眼球位置61を結んだ直線、100 車載装置、101 携帯情報端末、102 サーバ。

Claims (8)

  1. 車両の現在地と地図データとに基づいて前記車両の現在地から目的地までのルート検索を行い、案内地点を算出して経路案内を行うナビゲーション装置において、
    ユーザにより発話された音声を認識する音声認識部と、
    前記音声認識部により認識された音声が、前記案内地点を確認する確認発話であるか否かを判定する確認発話判定部と、
    前記確認発話判定部により前記音声認識部により認識された音声が確認発話であると判定された場合に、前記案内地点における目標物を決定する目標物決定部と、
    前記確認発話判定部により前記音声認識部により認識された音声が確認発話であると判定された場合に、前記案内地点に前記車両が到達する到達時間を計算する到達時間計算部と、
    前記目標物決定部により決定された目標物と前記到達時間計算部により計算された到達時間とに応じて、前記ユーザに対して案内する音声内容の詳細度を決定して誘導音声内容を生成する誘導詳細度制御部と、
    前記誘導詳細度制御部により生成された誘導音声内容を音声出力部に対して出力するよう指示を行う音声出力制御部とを備えた
    ことを特徴とするナビゲーション装置。
  2. 前記確認発話判定部は、前記音声認識部により認識された音声が、施設を確認するキーワードまたは行動を確認するキーワードの少なくとも1つと、場所を確認するキーワードとを含む場合に、前記確認発話であると判定する
    ことを特徴とする請求項1記載のナビゲーション装置。
  3. 前記到達時間計算部は、前記到達時間とともに、前記車両の現在地から前記案内地点までの距離も計算するものであり、
    前記誘導詳細度制御部は、前記到達時間計算部により計算された前記案内地点までの距離が所定の距離未満である場合に、前記目標物決定部により決定された目標物と前記到達時間計算部により計算された到達時間とに応じて、前記ユーザに対して案内する音声内容の詳細度を決定して誘導音声内容を生成する
    ことを特徴とする請求項1または請求項2記載のナビゲーション装置。
  4. 前記誘導詳細度制御部は、前記到達時間計算部により計算された到達時間が所定の閾値未満である場合には、前記車両が前記案内地点を超過したと判断し、当該案内地点を通過した旨を示す誘導音声内容を生成する
    ことを特徴とする請求項1から請求項3のうちのいずれか1項記載のナビゲーション装置。
  5. 前記ユーザの目の位置と視線方向を検出して前記ユーザが視線を向けている対象を認識し、当該ユーザの目の位置から前記視線を向けている対象までの距離を算出する視線認識部をさらに備え、
    前記誘導詳細度制御部は、前記目標物決定部により決定された目標物と、前記到達時間計算部により計算された到達時間と、前記視線認識部により取得された視線方向および前記視線を向けている対象までの距離とに応じて、前記ユーザに対して案内する音声内容の詳細度を決定して誘導音声内容を生成する
    ことを特徴とする請求項1記載のナビゲーション装置。
  6. 前記誘導詳細度制御部により生成された誘導音声内容と、前記到達時間計算部により計算された到達時間とに応じて、前記誘導音声内容の再生速度を変化させる誘導音声速度制御部をさらに備えた
    ことを特徴とする請求項1から請求項5のうちのいずれか1項記載のナビゲーション装置。
  7. 車両の現在地と地図データとに基づいて前記車両の現在地から目的地までのルート検索を行い、案内地点を算出して経路案内を行い、音声出力装置に音声案内を出力するナビゲーション装置であって、
    ユーザにより発話された音声を認識する音声認識部と、
    前記音声認識部により認識された音声が、前記案内地点を確認する確認発話であるか否かを判定する確認発話判定部と、
    前記確認発話判定部により前記音声認識部により認識された音声が確認発話であると判定された場合に、前記案内地点における目標物を決定する目標物決定部と、
    前記確認発話判定部により前記音声認識部により認識された音声が確認発話であると判定された場合に、前記案内地点に前記車両が到達する到達時間を計算する到達時間計算部と、
    前記目標物決定部により決定された目標物と前記到達時間計算部により計算された到達時間とに応じて、前記ユーザに対して案内する音声内容の詳細度を決定して誘導音声内容を生成する誘導詳細度制御部と、
    前記誘導詳細度制御部により生成された誘導音声内容を前記音声出力装置に対して出力するよう指示を行う音声出力制御部とを備えた
    ことを特徴とするナビゲーション装置。
  8. ナビゲーション装置が、車両の現在地と地図データとに基づいて前記車両の現在地から目的地までのルート検索を行い、案内地点を算出して経路案内を行い、音声出力装置に音声案内を出力させるナビゲーション方法であって、
    音声認識部が、ユーザにより発話された音声を認識するするステップと、
    確認発話判定部が、前記音声認識部により認識された音声が、前記案内地点を確認する確認発話であるか否かを判定するステップと、
    目標物決定部が、前記確認発話判定部により前記音声認識部により認識された音声が確認発話であると判定された場合に、前記案内地点における目標物を決定するステップと、
    到達時間計算部が、前記確認発話判定部により前記音声認識部により認識された音声が確認発話であると判定された場合に、前記案内地点に前記車両が到達する到達時間を計算する
    誘導詳細度制御部が、前記目標物決定部により決定された目標物と前記到達時間計算部により計算された到達時間とに応じて、前記ユーザに対して案内する音声内容の詳細度を決定して誘導音声内容を生成するステップと、
    音声出力制御部が、前記誘導詳細度制御部により生成された誘導音声内容を前記音声出力装置に対して出力するよう指示を行うステップと
    を備えたことを特徴とするナビゲーション方法。
JP2013193129A 2013-09-18 2013-09-18 ナビゲーション装置および方法 Expired - Fee Related JP6214297B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013193129A JP6214297B2 (ja) 2013-09-18 2013-09-18 ナビゲーション装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013193129A JP6214297B2 (ja) 2013-09-18 2013-09-18 ナビゲーション装置および方法

Publications (2)

Publication Number Publication Date
JP2015059811A true JP2015059811A (ja) 2015-03-30
JP6214297B2 JP6214297B2 (ja) 2017-10-18

Family

ID=52817460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013193129A Expired - Fee Related JP6214297B2 (ja) 2013-09-18 2013-09-18 ナビゲーション装置および方法

Country Status (1)

Country Link
JP (1) JP6214297B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103728940A (zh) * 2013-12-23 2014-04-16 金川集团股份有限公司 一种磨机负荷测控装置
JP2017067527A (ja) * 2015-09-29 2017-04-06 アイシン・エィ・ダブリュ株式会社 経路案内システム、経路案内方法及びコンピュータプログラム
JP2018067224A (ja) * 2016-10-21 2018-04-26 パイオニア株式会社 車載機器
JP6479289B1 (ja) * 2018-04-09 2019-03-06 三菱電機株式会社 ナビゲーション装置及びナビゲーション方法
JP2020177373A (ja) * 2019-04-16 2020-10-29 学校法人早稲田大学 情報伝達システムおよびプログラム
WO2023112147A1 (ja) * 2021-12-14 2023-06-22 パイオニア株式会社 音声出力装置、音声出力方法、プログラム及び記憶媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239078A (ja) * 1997-02-28 1998-09-11 Toshiba Corp 経路誘導装置
JP2001116581A (ja) * 1999-10-20 2001-04-27 Alpine Electronics Inc ナビゲーションシステム
JP2001215871A (ja) * 2000-01-28 2001-08-10 Nihon Computer Graphic Co Ltd 案内用略図の作成方法、該方法を実施するコンピュータプログラムを記録した情報記録媒体、及び案内用略図作成システム
JP2001324345A (ja) * 2000-05-15 2001-11-22 Alpine Electronics Inc ナビゲーション装置及びナビゲーション装置の経路案内方法
JP2004053310A (ja) * 2002-07-17 2004-02-19 Mazda Motor Corp 視線誘導装置、経路誘導装置、視線誘導方法及び視線誘導用プログラム
JP2012154635A (ja) * 2011-01-21 2012-08-16 Aisin Aw Co Ltd 経路案内装置、経路案内プログラム、及び経路案内方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239078A (ja) * 1997-02-28 1998-09-11 Toshiba Corp 経路誘導装置
JP2001116581A (ja) * 1999-10-20 2001-04-27 Alpine Electronics Inc ナビゲーションシステム
JP2001215871A (ja) * 2000-01-28 2001-08-10 Nihon Computer Graphic Co Ltd 案内用略図の作成方法、該方法を実施するコンピュータプログラムを記録した情報記録媒体、及び案内用略図作成システム
JP2001324345A (ja) * 2000-05-15 2001-11-22 Alpine Electronics Inc ナビゲーション装置及びナビゲーション装置の経路案内方法
JP2004053310A (ja) * 2002-07-17 2004-02-19 Mazda Motor Corp 視線誘導装置、経路誘導装置、視線誘導方法及び視線誘導用プログラム
JP2012154635A (ja) * 2011-01-21 2012-08-16 Aisin Aw Co Ltd 経路案内装置、経路案内プログラム、及び経路案内方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103728940A (zh) * 2013-12-23 2014-04-16 金川集团股份有限公司 一种磨机负荷测控装置
JP2017067527A (ja) * 2015-09-29 2017-04-06 アイシン・エィ・ダブリュ株式会社 経路案内システム、経路案内方法及びコンピュータプログラム
JP2018067224A (ja) * 2016-10-21 2018-04-26 パイオニア株式会社 車載機器
JP6479289B1 (ja) * 2018-04-09 2019-03-06 三菱電機株式会社 ナビゲーション装置及びナビゲーション方法
WO2019198123A1 (ja) * 2018-04-09 2019-10-17 三菱電機株式会社 ナビゲーション装置及びナビゲーション方法
JP2020177373A (ja) * 2019-04-16 2020-10-29 学校法人早稲田大学 情報伝達システムおよびプログラム
JP7244910B2 (ja) 2019-04-16 2023-03-23 学校法人早稲田大学 情報伝達システムおよびプログラム
WO2023112147A1 (ja) * 2021-12-14 2023-06-22 パイオニア株式会社 音声出力装置、音声出力方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
JP6214297B2 (ja) 2017-10-18

Similar Documents

Publication Publication Date Title
JP6214297B2 (ja) ナビゲーション装置および方法
JP5921722B2 (ja) 音声認識装置および表示方法
WO2013005248A1 (ja) 音声認識装置およびナビゲーション装置
JP5762660B2 (ja) 音声認識装置、認識結果表示装置および表示方法
JP6400109B2 (ja) 音声認識システム
CN106030697B (zh) 车载控制装置及车载控制方法
US6937982B2 (en) Speech recognition apparatus and method using two opposite words
JP5893217B2 (ja) 音声認識装置および表示方法
JP5677650B2 (ja) 音声認識装置
JP2008058409A (ja) 音声認識方法及び音声認識装置
JP2013068532A (ja) 情報端末、サーバー装置、検索システムおよびその検索方法
US9541415B2 (en) Navigation system with touchless command mechanism and method of operation thereof
WO2013069060A1 (ja) ナビゲーション装置および方法
US9791925B2 (en) Information acquisition method, information acquisition system, and non-transitory recording medium for user of motor vehicle
JP6522009B2 (ja) 音声認識システム
JP5160653B2 (ja) 情報提供装置、通信端末、情報提供システム、情報提供方法、情報出力方法、情報提供プログラム、情報出力プログラムおよび記録媒体
JP7233918B2 (ja) 車載装置、通信システム
JP2015172848A (ja) 読唇入力装置、読唇入力方法及び読唇入力プログラム
JP2019109657A (ja) ナビゲーション装置およびナビゲーション方法、ならびにプログラム
JP2014232289A (ja) 誘導音声調整装置、誘導音声調整方法および誘導音声調整プログラム
JP2009086132A (ja) 音声認識装置、音声認識装置を備えたナビゲーション装置、音声認識装置を備えた電子機器、音声認識方法、音声認識プログラム、および記録媒体
JP2017102320A (ja) 音声認識装置
JP2019163938A (ja) 車載装置、音声案内システム
JPWO2013069060A1 (ja) ナビゲーション装置、方法およびプログラム
JPH10133683A (ja) 音声認識・合成方法及び音声認識・合成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170919

R150 Certificate of patent or registration of utility model

Ref document number: 6214297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees