JP2011232668A - 音声認識機能を備えたナビゲーション装置およびその検出結果提示方法 - Google Patents

音声認識機能を備えたナビゲーション装置およびその検出結果提示方法 Download PDF

Info

Publication number
JP2011232668A
JP2011232668A JP2010104863A JP2010104863A JP2011232668A JP 2011232668 A JP2011232668 A JP 2011232668A JP 2010104863 A JP2010104863 A JP 2010104863A JP 2010104863 A JP2010104863 A JP 2010104863A JP 2011232668 A JP2011232668 A JP 2011232668A
Authority
JP
Japan
Prior art keywords
data
vocabulary
user
navigation device
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010104863A
Other languages
English (en)
Inventor
Hisashi Takahashi
久 高橋
Hiroaki Kokubo
浩明 小窪
Takeshi Honma
健 本間
Hiroaki Takatsuki
宏明 高月
Hitoshi Yamadera
仁 山寺
Takahiro Inada
高洋 稲田
Yoshiaki Suzuki
義章 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2010104863A priority Critical patent/JP2011232668A/ja
Publication of JP2011232668A publication Critical patent/JP2011232668A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】音声認識により、利用者の意図する語彙に、より一致する語彙を検出し、提示することができる。
【解決手段】 利用者から受け付けた音声データおよび該音声データに基づいて検出された語彙が、誤認識データに記憶されている音声データおよび該音声データに対応付けられた語彙である場合、検出手段が検出した他の語彙を高順位で利用者に提示する。
【選択図】図1

Description

本発明は、音声認識機能を備えたナビゲーション装置およびその検出結果提示方法に関する。
ナビゲーション装置には音声認識機能を備えたものがある。このようなナビゲーション装置では、音声の誤認識を防止するため、種々の対策が講じられている。
例えば、特許文献1では、利用者以外の音声情報を除去することにより、音声の誤認識を防止している。
特開2009−086132号公報
しかしながら、利用者以外の音声情報を除去しても、利用者ごとに発音の特徴が異なるため、音声認識機能が利用者の意図する語彙を特定できない場合がある。また、発音の特徴を学習して、利用者ごとに音声認識のパラメータを変更することも考えられる。しかしながら、パラメータを変更してしまうと、音素特性が類似する他の語彙までも音声認識の対象から除外されてしまうことがあるため、このような方法の適用も難しい。したがって、従来の技術では、利用者の意図する語彙に一致する語彙を検索し、提示することが難しいという問題がある。
そこで、本発明は、音声認識により、利用者の意図する語彙に、より一致する語彙を検出し、提示できるナビゲーション装置の提供を目的とする。
上記課題を解決するため、本発明に係るナビゲーション装置は、辞書データを有し、音声認識できる。また、誤認識され得る音声データが、誤認識結果の語彙に対応付けられた誤認識データを記憶するための記憶手段と、利用者から音声データを受け付ける音声データ受け付け手段と、音声データの分析結果に基づいて、辞書データから所定数の語彙を検出する検出手段と、利用者から受け付けた音声データおよび該音声データに基づいて検出された語彙が、誤認識データに記憶されている音声データおよび該音声データに対応付けられた語彙である場合、検出手段が検出した他の語彙を高順位で利用者に提示する語彙提示手段と、を有する、という構成を特徴とする。
本発明に係るナビゲーション装置よれば、音声認識により、利用者の意図する語彙に、より一致する語彙を検出し、提示することができる。
本発明の一実施形態に係るナビゲーション装置の概略構成図である。 本発明の一実施形態に係る音響モデルの音素を表現したHMMを示す図である。 本発明の一実施形態に係る辞書データを示す図である。 本発明の一実施形態に係る低順位データを示す図である。 本発明の一実施形態に係るナビゲーション装置の機能ブロックを示す図である。 本発明の一実施形態に係るナビゲーション装置の音声認識処理を示すフロー図である。 本発明の一実施形態に係るナビゲーション装置の画面例である。 本発明の一実施形態に係るナビゲーション装置で検索された候補リストの一例を示した図である。 本発明の一実施形態に係るナビゲーション装置の画面例である。 本発明の一実施形態に係るナビゲーション装置で実行される検索結果提示処理のイメージ図である。
以下、本発明の一実施形態について図面を用いて説明する。
図1は車載用ナビゲーション装置100の概略構成図である。車載用ナビゲーション装置100は、演算処理部1と、出力装置10と、記憶装置11と、音声入出力装置12(音声入力装置としてマイクロフォン13、音声出力装置としてスピーカ14)と、入力装置15と、ROM装置16と、車速センサ17と、ジャイロセンサ18と、GPS(Global Positioning System)受信装置19と、FM多重放送受信装置20と、ビーコン受信装置21と、を備えている。
演算処理部1は、様々な処理を行う中心的ユニットである。例えば、車速センサ17、ジャイロセンサ18、GPS受信装置19、FM多重放送受信装置20、またはビーコン受信装置21から出力される情報を基にして現在地を検出する。また、得られた現在地情報に基づいて、表示に必要な地図データを記憶装置11あるいはROM装置16から読み出す。また、読み出した地図データをグラフィックス展開し、そこに現在地を示すマークを重ねて出力装置10へ表示する。また、記憶装置11あるいはROM装置16に記憶されている地図データ等を用いて、ユーザから指示された出発地または現在地と、目的地と、を結ぶ最適な経路(以下、「推奨経路」という)を探索する。また、スピーカ14や出力装置10を用いてユーザを誘導する。
演算処理部1は、各デバイス間をバス6で接続した構成である。演算処理部1は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU(Central Processing Unit)2と、記憶装置11から読み出した地図データ、演算データなどを格納するRAM(Random Access Memory)3と、プログラムやデータを格納するROM(Read Only Memory)4と、各種ハードウェアを演算処理部1に接続するインターフェイスであるI/F5と、を有する。
出力装置10は、演算処理部1で生成されたグラフィックス情報を表示するユニットである。例えば、出力装置10はグラフィックス情報を表示するための液晶ディスプレイ、有機ELディスプレイなどで構成される。
記憶装置11は、HDD(Hard Disk Drive)や不揮発性メモリカードといった、少なくとも読み書きが可能な記憶媒体で構成される。
記憶装置11には、例えば、通常の経路探索装置に必要な地図データ(地図上の道路を構成するリンクのリンクデータを含む)であるリンクテーブル、交通情報テーブル、経路情報および区間情報などが記憶されている。
交通情報テーブル(図示せず)は、例えば、FM多重放送受信装置20やビーコン受信装置21等の通信装置を介して、図示しない外部の機関等から送信された交通情報を記憶するテーブルである。また、経路情報(図示せず)は、ナビゲーション装置100等による経路探索の結果得られた経路に関する情報である。また、区間情報(図示せず)は、例えば一つまたは複数のリンクが連結された区間ごとに、区間を構成するリンクなどを含む情報である。
また、記憶装置11には、各音素に対応する音響モデルと、辞書データおよび文法データを有する言語モデルと、利用者の意図と異なる単語およびその特徴量を対応付けて記憶した低順位データと、が記憶されている。
図2は、音響モデルの表現形態として各音素を3状態で定義したHMM(Hidden Marcov Model)である。また、図3は、言語モデルの辞書データ30である。辞書データ30は、音声認識の対象となる単語31と、その音素列32とが対応付けて登録されている。また、各単語には、その出現頻度に応じた出現確率33が対応付けられている。ここで、単語31とは、音声認識の対象となる、あるまとまった固まりのことをいう。また、文法データ(図示せず)には、辞書データ30に登録されている単語の相互の接続規則が記述されている。すなわち、文法データには、音声認識可能な単語列が登録されている。
図4は、低順位データ40の一例を示す。低順位データ40には、利用者の音声データから変換された特徴ベクトル列の特徴量41と、かかる特徴量から検索した単語であって、利用者が意図しない単語であると評価した単語が登録される低順位リスト42と、が対応付けて記憶されている。なお、低順位データ40の作成処理については後述する。
再び図1に戻って説明する。音声入出力装置12は、音声入力装置としてマイクロフォン13と、音声出力装置としてスピーカ14と、を備える。マイクロフォン13は、ユーザやその他の搭乗者が発した声などの車載用ナビゲーション装置100の外部の音声を取得する。
スピーカ14は、演算処理部1で生成されたユーザへのメッセージを音声信号として出力する。マイクロフォン13とスピーカ14は、車両の所定の部位に、別個に配されている。ただし、一体の筐体に収納されていても良い。車載用ナビゲーション装置100は、マイクロフォン13及びスピーカ14を、それぞれ複数備えることができる。
入力装置15は、ユーザからの指示を、ユーザによる操作を介して受け付ける装置である。入力装置15は、方向キー31と、ダイヤルスイッチ32と、タッチパネル33と、その他のハードスイッチ(図示しない)である縮尺変更キーなどで構成される。
方向キー31は、例えば、上下左右および各斜め方向を示す8つのハードスイッチから構成され、出力装置10に表示されるメニュー項目の選択や、地図画像のスクロール方向を決定する際に用いられる。方向キーによって示される各方向は、選択するメニュー項目の移動方向や、出力装置10の表示エリアの移動方向を示す。例えば、複数列あるメニュー項目を選択する場合、左方向を示す方向キーを押すと、左の列に配列されているメニュー項目を選択することができる(図示せず)。また、地図画像をスクロールさせる場合、例えば、左方向を示す方向キーを押すと、出力装置10の表示エリアは左方向に移動する。なお、このような方向キー31は、ダイヤルスイッチ32の一部に設けられてもよい。
ダイヤルスイッチ23は、時計回り及び反時計回りに回転可能に構成され、所定の角度の回転ごとにパルス信号を発生し、演算処理部1に出力する。演算処理部1に入力されたパルス信号の数から、ダイヤルスイッチ23の回転角度が求められる。
タッチパネル24は、出力装置10の表示面側に搭載され、表示画面を透視可能である。タッチパネル24は、人の指によるタッチや専用のタッチペンによるタッチを検知する。ユーザによるタッチ位置は、例えば、タッチパネル24上に設定されるXY座標に基づき特定される。このようなタッチパネル24は、例えば、静電容量方式による入力検出素子などで構成される。
ROM装置16は、CD-ROMやDVDなどのROMやIC(Integrated Circuit)カードといった、少なくとも読み取りが可能な記憶媒体で構成されている。この記憶媒体には、例えば、動画データや、音声データなどが記憶されている。
車速センサ17,ジャイロセンサ18およびGPS受信装置19は、車載用ナビゲーション装置100において現在地(自車位置)を検出するために使用されるものである。
車速センサ17は、車速を算出するのに用いる値を出力するセンサである。ジャイロセンサ18は、光ファイバジャイロや振動ジャイロ等で構成され、移動体の回転による角速度を検出するものである。GPS受信装置19は、GPS衛星からの信号を受信し移動体とGPS衛星間の距離と距離の変化率を3個以上の衛星に対して測定することで移動体の現在地、進行速度および進行方位を測定し、演算処理部1に送信するものである。
FM多重放送受信装置20は、FM放送局から送られてくるFM多重放送信号を受信する。FM多重放送には、VICS(Vehicle Information Communication System:登録商標)情報の概略現況交通情報、規制情報、SA/PA(サービスエリア/パーキングエリア)情報、駐車場情報、天気情報などやFM多重一般情報としてラジオ局が提供する文字情報などがある。
ビーコン受信装置21は、光ビーコン、電波ビーコン等の信号を受信する。ビーコン等の信号には、VICS情報の概略現況交通情報、規制情報、SA/PA(サービスエリア/パーキングエリア)情報、駐車場情報などがある。
次に、本実施形態に係るナビゲーション装置100の機能ブロックについて説明する。
図5はナビゲーション装置100の機能ブロック図である。ナビゲーション装置100は、分析部51と、音声データ記憶部52と、音響モデル記憶部53と、言語モデル記憶部54と、音声認識部55と、特徴量記憶部56と、を有する。そして、ナビゲーション装置100は、これら機能部の働きによって、マイロフォン13などの音声入力装置12から取得した利用者の音声データに基づいて音声認識処理を実行する。
分析部51は、利用者が発話した音声データを分析して、かかる音声データの特徴量を抽出する機能部である。具体的には、分析部51は、利用者から受け付けた音声データを特徴ベクトル列に変換し、かかる特徴ベクトル列を音声データの特徴量として抽出する。なお、特徴ベクトル列とは、音声の各時刻の特徴量を多次元ベクトル量で表し、それを時系列に並べたものである。分析部51は、例えば、入力音声データから数十ミリ秒程度ずつ音声波形を切り出し、MFCC(Mel Frequency Cepstrum Coefficient)パラメータと呼ばれる多次元ベクトル量に変換し、これを時系列に並べる。分析部51は、このような音声データの特徴ベクトル列を音声データ記憶部52および音声認識部55へ出力する。
音声データ記憶部52は、分析部51で変換された音声の特徴ベクトル列を記憶する機能部である。なお、特徴ベクトル列に変換する前の音声データそのものを記憶するようにしてもよい。
音響モデル記憶部53は、各音素に対応する音響モデルを記憶する機能部である。すなわち、音響モデル記憶部53は、図2に示す各音素を記憶する。
言語モデル記憶部54は、辞書データ30および文法データ58を記憶する機能部である。すなわち、言語モデル記憶部54は、図3に示す辞書データ30や文法データを記憶する。
音声認識部55は、利用者の音声データに対応する単語を辞書データ30および文法データ58を用いて検索する機能部である。具体的には、音声認識部55は、音響モデル記憶部53に記憶された音素のHMMを言語モデルの規則(辞書データ、文法データ)に従って連結したHMMのネットワークから、音声データの特徴量に一致する確率が高い単語を検索する。そして、音声認識部55は、確率が高い上位n個(nは1以上の整数)の単語をリストアップし、リストアップした内容を出力装置10で表示させるためのグラフィックス情報を生成する。また、音声認識部55は、生成したグラフィックス情報を出力装置10(以下、ディスプレイという)に出力する。なお、このような検索は従来技術により実現されればよい。また、音声認識部55が出力する単語数は予め設定される。
また、音声認識部55は、低順位データ40を作成する機能部である。具体的には、音声認識部55は、低順位データ40の作成にあたり、ディスプレイに表示した単語が、利用者の意図した単語と一致しているか否かの評価を受け付ける。そして、利用者の意図した単語と一致していない評価を受け付けると、音声認識部55は、かかる単語と、単語の検索に用いた音声データの特徴量と、を対応付けた低順位データ40を作成する。音声認識部55は、作成した低順位データ40を特徴量記憶部56に出力する。
また、音声認識部55は、受け付けた音声データの特徴量と、低順位データ40内の特徴量とが一致または類似するか否かを判定する機能部である。具体的には、音声認識部55は、受け付けた音声データの特徴量と一致する特徴量が低順位データ40内に存在するか否かを検索する。また、音声認識部55は、受け付けた音声データの特徴量に類似する特徴量が低順位データ40内に存在するか否かを検索する。なお、受け付けた音声データの特徴量と、低順位データ40内の特徴量とが相異する場合、かかる相異の度合いが所定の範囲内であれば、音声認識部55は、受け付けた音声データの特徴量と、低順位データ40内の特徴量と、が類似すると判定する。このような類似判定は、例えば、ボイス・タグといった従来技術により実現されればよい。
また、音声認識部55は、受け付けた音声データの特徴量に基づいて検索した単語と、低順位リスト42の単語と、が一致するか否かを判定する機能部である。具体的には、音声認識部55は、受け付けた音声データの特徴量に基づいて検索した単語と、かかる特徴量に一致または類似する低順位データ40内の特徴量に対応付けられた低順位リスト42の単語と、が一致するか否かを判定する。そして、検索した単語と、低順位リスト42の単語とが一致する場合、音声認識部55は、かかる単語のディスプレイに表示する順位を低順位に変更する。
特徴量記憶部56は、低順位データ40を記憶する機能部である。具体的には、特徴量記憶部56は、音声認識部55によって作成された低順位データ40を記憶する。
なお、上記の各機能は、ナビゲーション装置100に実装されるCPU2が読み込んだ所定のプログラムを実行することにより構築される。そのため、ROM4や記憶装置11には、各機能部の処理を実行するためのプログラムが記憶されている。
また、上記した各構成要素は、本実施形態に係るナビゲーション装置100の構成を理解容易にするために、主な処理内容に応じて分類したものである。また、構成要素の分類の仕方やその名称によって、本願発明が制限されることはない。本実施形態に係るナビゲーション装置100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
また、各機能部は、ハードウェア(ASICなど)により構築されてもよい。また、各機能部の処理が1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
以上、本実施形態に係るナビゲーション装置100の機能ブロックについて説明した。
次に、本実施形態に係るナビゲーション装置100で実行される音声認識処理について説明する。図6は、その処理過程を示したフロー図である。本フローは、ナビゲーション装置100の起動とともに開始されるか、または、ユーザの要求に従って、音声認識モードへ移行した場合に開示される。
本フローが開始されると、分析部51は、マイクロフォン13を介して、利用者からの音声データを受け付ける(S101)。また、分析部51は、受け付けた音声データを分析して音声データの特徴量を抽出し(S102)、処理をS103に移行する。
S103において、音声認識部55は、音声データの特徴量に基づいて、音声データに一致する単語を辞書データ30から検索し、処理をS104に移行する。
S104において、音声認識部55は、S102で抽出した特徴量と、低順位データ40に登録されている特徴量とが一致または類似するか否かを判定する。そして、抽出した特徴量が低順位データ40の特徴量に一致または類似している場合(S104でYes)、音声認識部55は、処理をS105に移行する。その一方で、抽出した特徴量が低順位データ40の特徴量に一致または類似しない場合(S104でNo)、音声認識部55は、処理をS109に移行する。
S105において、音声認識部55は、S103で検索した単語と、かかる単語の検索に用いた特徴量に対応する低順位リスト42の単語と、が一致するか否かを判定する。かかる単語が一致する場合(S105でYes)、音声認識部55は、低順位リスト42の単語と一致する単語について、ディスプレイに表示する順位を低順位に変更する。なお、低順位とは、検出された際の表示候補順位よりも低い順位のことである。すなわち、検出された複数の単語のうち、最も低い表示候補順位に変更する場合も含まれる。そして、音声認識部55は、順位の高い単語からディスプレイに表示するためのグラフィックス情報を生成し、出力装置10に出力して処理をS106に移行する。その一方で、低順位リスト42に、S103で検索した単語が含まれていない場合(S105でNo)、音声認識部55は、かかる単語をディスプレイに表示するためのグラフィックス情報を生成し、出力装置10に出力して、処理をS109に移行する。
S106において、出力装置10は、低順位リスト42の単語と一致する単語を低順位に変更した後の、順位の高い単語からディスプレイに表示し、処理をS107に移行する。
S109において、音声認識部55は、S103で検索した単語のうち、ディスプレイに表示する順位の高い単語から表示し、処理をS107に移行する。
S107において、音声認識部55は、ディスプレイに表示した単語が利用者の意図する単語であるか否かを判定する。判定にあたり、音声認識部55は、利用者から正否の評価を受け付ける。そして、表示した単語が利用者の意図する単語である場合(S107でYes)、音声認識部55は、本フローを終了する。一方で、表示した単語が利用者の意図する単語でない場合(S107でNo)、音声認識部55は、低順位データ40を作成し(S108)、処理をS110に移行する。
S110において、特徴量記憶部は、低順位データ40を記憶し、処理をS106に移行する。
音声認識部は、ディスプレイに表示した単語が利用者の意図する単語と一致する旨の評価を受け付けるまで、S106〜S108、S110の処理を繰り返し実行する。
以上、本実施形態におけるナビゲーション装置100の音声認識処理について説明した。
次に、本実施形態の具体例について説明する。なお、以下の説明にあたり、具体的な各処理に対応するステップ番号を括弧内に表示する。
図7は、本実施形態における音声認識処理を便宜的に示したナビゲーション装置100の画面例101である。第1具体例は、低順位データ40が作成されていない場合、または、低順位データ40内に、受け付けた音声データに対応する特徴量が登録されていない場合、若しくは、受け付けた音声データに基づいて検索した単語と、低順位リスト42の単語と、が一致しない場合を想定したものである。
また、本具体例では、ナビゲーション装置100が利用者の音声データを受け付けて、都道府県の設定処理をする場面を想定する。ここで、利用者は「神奈川県」の設定を意図し、「かながわ」と発話したとする。
ナビゲーション装置100は、利用者の音声を受け付け(S101でYes)、音声データの特徴量を抽出する(S102)。そして、ナビゲーション装置100は、辞書データ30から音声データの特徴量に一致または類似する単語を検索する(S103)。
図8は、検索の結果、ナビゲーション装置100がリストアップした単語の候補リストを示した図である。候補リストは、音声データの特徴量および辞書データ30の出現確率から導き出した、利用者の発話と一致する確率の高い単語の候補を上から順に並べたものである。そして、ナビゲーション装置100は、候補順位の高い単語からディスプレイに表示する(S109)。本具体例では、利用者が「かながわ」と発話したにも関わらず、ナビゲーション装置が「香川」(「かがわ」)を最も高い候補順位としてリストアップした例を示したものである。
図9は、候補順位の最上位にある「香川」がディスプレイに表示された画面例102である。ここで、ナビゲーション装置100は、表示した県名が、利用者の意図する県名であるか否かの評価を受け付ける(S107)。すなわち、ディスプレイに評価受付けボタン103を表示して、利用者による県名の正否について評価を受け付ける。
利用者により、表示した県名が意図するものでないと判定された場合、すなわち、評価受付けボタンの「いいえ」が選択された場合(S107でNo)、ナビゲーション装置100は、利用者の音声データから抽出した特徴量と、県名「香川」を対応付け、図4に示す低順位データ40を作成する(S108)。
そして、ナビゲーション装置100は、候補順位の上から2番目にある「神奈川」をディスプレイに表示する(S106)。ディスプレイに表示した県名「神奈川」は、利用者の発話と一致しているため、ナビゲーション装置100は、表示内容が正しいとする利用者の評価を受け付け(S107でYes)、処理を終了する。
次に、第2具体例について説明する。本具体例では、既に作成済みの低順位データ40を用いて、ナビゲーション装置100が検索した単語をディスプレイに表示する場合を想定する。
ここでも、前述と同様に、ナビゲーション装置100が音声データを受け付けて(S101)、都道府県の設定処理を実行する場面を想定する。また、利用者が「神奈川県」の設定を意図し、「かながわ」と発話したとする。
ナビゲーション装置100は、前述と同様に、図8に示す単語の候補リストを作成する(S103)。そして、ナビゲーション装置100は、受け付けた利用者の音声データから抽出した特徴量と一致または類似する特徴量が登録された低順位データ40の有無について判定する(S104)。ナビゲーション装置104は、かかる低順位データ40が存在すると判定すると(S104でYes)、候補リスト内の単語と、かかる単語の検索に用いた特徴量に対応する低順位リスト42の単語と、が一致するか否かを判定する(S105)。
候補リスト内の単語に一致する単語が低順位リスト42に登録されている場合(S105でYes)、ナビゲーション装置100は、図10に示すように、かかる単語の表示候補順位を、例えば、最も低い表示候補順位に変更する(S106)。そして、ナビゲーション装置100は、候補順位の高い単語からディスプレイに表示する(S106)。その結果、ナビゲーション装置100は、「香川」を表示せず、利用者の意図通りの「神奈川」をディスプレイに表示することができる。
以上、本発明の実施形態について説明した。このような発明によれば、音声認識により、利用者の意図する語彙に、より一致する語彙を検索し、提示することができる。
特に、本発明では、利用者ごとに音声認識のパラメータを変更することもない。したがって、パラメータが変更された場合に、音素特性が類似する他の語彙までも音声認識の対象から除外されてしまう問題を回避することができる。
100・・・車載ナビゲーション装置、
1・・・演算処理部、10・・・出力装置、11・・・記憶装置、12・・・音声入出力装置、15・・・入力装置、16・・・ROM装置、17・・・車速センサ、18・・・ジャイロセンサ、19・・・GPS受信装置、20・・・FM多重放送受信装置、21・・・ビーコン受信装置

Claims (4)

  1. 辞書データを有し、音声認識機能を備えたナビゲーション装置であって、
    誤認識され得る音声データが、誤認識結果の語彙に対応付けられた誤認識データを記憶するための記憶手段と、
    利用者から音声データを受け付ける音声データ受け付け手段と、
    前記音声データの分析結果に基づいて、前記辞書データから所定数の語彙を検出する検出手段と、
    利用者から受け付けた音声データおよび該音声データに基づいて検出された語彙が、前記誤認識データに記憶されている音声データおよび該音声データに対応付けられた語彙である場合、前記検出手段が検出した他の語彙を高順位で利用者に提示する語彙提示手段と、
    を有することを特徴とするナビゲーション装置。
  2. 請求項1に記載のナビゲーション装置において、
    前記語彙提示手段は、
    前記誤認識データに、利用者から受け付けた音声データおよび該音声データに基づいて検出された語彙が対応付けられて記憶されている場合、利用者に提示する該語彙の順番を繰り下げて提示する
    ことを特徴とするナビゲーション装置。
  3. 請求項1または2に記載のナビゲーション装置において、
    前記語彙提示手段が提示した語彙が利用者の意図する語彙と異なる場合、該語彙および誤認識された音声データを対応付けた前記誤認識データを作成する誤認識データ作成手段を有する
    ことを特徴とするナビゲーション装置。
  4. 辞書データを記憶した記憶装置を有し、音声認識機能を備えたナビゲーション装置の検出結果提示方法であって、
    前記ナビゲーション装置は、
    利用者から音声データを受け付ける音声データ受け付けステップと、
    前記音声データの分析結果に基づいて、前記辞書データから所定数の語彙を検出する検出ステップと、
    誤認識された音声データが誤認識結果の語彙に対応付けられた誤認識データを参照し、利用者から受け付けた音声データおよび該音声データに基づいて検出された語彙が、前記誤認識データに記憶されている音声データおよび該音声データに対応付けられた語彙である場合、前記検出ステップで検出された他の語彙を高順位で利用者に提示する提示ステップと、
    を実行することを特徴とするナビゲーション装置の検出結果提示方法。
JP2010104863A 2010-04-30 2010-04-30 音声認識機能を備えたナビゲーション装置およびその検出結果提示方法 Pending JP2011232668A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010104863A JP2011232668A (ja) 2010-04-30 2010-04-30 音声認識機能を備えたナビゲーション装置およびその検出結果提示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010104863A JP2011232668A (ja) 2010-04-30 2010-04-30 音声認識機能を備えたナビゲーション装置およびその検出結果提示方法

Publications (1)

Publication Number Publication Date
JP2011232668A true JP2011232668A (ja) 2011-11-17

Family

ID=45322007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010104863A Pending JP2011232668A (ja) 2010-04-30 2010-04-30 音声認識機能を備えたナビゲーション装置およびその検出結果提示方法

Country Status (1)

Country Link
JP (1) JP2011232668A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106527421A (zh) * 2015-09-13 2017-03-22 上海能感物联网有限公司 汉语文本集群遥控的能自动导航的驱动器
CN106527416A (zh) * 2015-09-13 2017-03-22 上海能感物联网有限公司 汉语语音现场集群控制的能自动导航的驱动器
CN106527417A (zh) * 2015-09-13 2017-03-22 上海能感物联网有限公司 汉语语音集群遥控的能自动导航的驱动器
US10134390B2 (en) 2015-09-23 2018-11-20 Samsung Electronics Co., Ltd. Electronic device and voice recognition method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149295A (ja) * 1997-11-17 1999-06-02 Toyota Motor Corp 音声認識装置
JP2000348141A (ja) * 1999-06-08 2000-12-15 Toshiba Corp 入力情報の予測方法と装置、ならびにプログラム記憶媒体
JP2004213016A (ja) * 2002-12-31 2004-07-29 Samsung Electronics Co Ltd 音声認識方法及び装置
JP2006243575A (ja) * 2005-03-07 2006-09-14 Nec Corp 音声書き起こし支援装置およびその方法ならびにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149295A (ja) * 1997-11-17 1999-06-02 Toyota Motor Corp 音声認識装置
JP2000348141A (ja) * 1999-06-08 2000-12-15 Toshiba Corp 入力情報の予測方法と装置、ならびにプログラム記憶媒体
JP2004213016A (ja) * 2002-12-31 2004-07-29 Samsung Electronics Co Ltd 音声認識方法及び装置
JP2006243575A (ja) * 2005-03-07 2006-09-14 Nec Corp 音声書き起こし支援装置およびその方法ならびにプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106527421A (zh) * 2015-09-13 2017-03-22 上海能感物联网有限公司 汉语文本集群遥控的能自动导航的驱动器
CN106527416A (zh) * 2015-09-13 2017-03-22 上海能感物联网有限公司 汉语语音现场集群控制的能自动导航的驱动器
CN106527417A (zh) * 2015-09-13 2017-03-22 上海能感物联网有限公司 汉语语音集群遥控的能自动导航的驱动器
US10134390B2 (en) 2015-09-23 2018-11-20 Samsung Electronics Co., Ltd. Electronic device and voice recognition method thereof

Similar Documents

Publication Publication Date Title
JP4551961B2 (ja) 音声入力支援装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および、ナビゲーション装置
US9123327B2 (en) Voice recognition apparatus for recognizing a command portion and a data portion of a voice input
JP2013068532A (ja) 情報端末、サーバー装置、検索システムおよびその検索方法
JPWO2014109017A1 (ja) 音声認識装置および表示方法
JP4466379B2 (ja) 車載音声認識装置
JP2011232668A (ja) 音声認識機能を備えたナビゲーション装置およびその検出結果提示方法
JP4914632B2 (ja) ナビゲーション装置
JP5218459B2 (ja) 車両用情報端末及びプログラム
JP4258890B2 (ja) 音声認識装置、その装置を用いたナビゲーションシステム
JP2010039099A (ja) 音声認識および車載装置
JP5455355B2 (ja) 音声認識装置及びプログラム
JP4942406B2 (ja) ナビゲーション装置及びその音声出力方法
JP3296783B2 (ja) 車載用ナビゲーション装置および音声認識方法
JP3700533B2 (ja) 音声認識装置及び処理システム
KR100677711B1 (ko) 음성 인식 장치, 기억 매체 및 네비게이션 장치
EP1895508B1 (en) Speech recognizing device, information processing device, speech recognizing method, program, and recording medium
JP2007025076A (ja) 車載用音声認識装置
JPWO2006028171A1 (ja) データ提示装置、データ提示方法、データ提示プログラムおよびそのプログラムを記録した記録媒体
JP2006039954A (ja) データベース検索装置、プログラム及びナビゲーション装置
JP4645708B2 (ja) コード認識装置および経路探索装置
JP5522679B2 (ja) 検索装置
JP2009026004A (ja) データ検索装置
JPH11325946A (ja) 車載用ナビゲーション装置
JP2001215994A (ja) 音声認識住所検索装置と車載ナビゲーション装置
JPH1049195A (ja) 音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140527