JP4938719B2 - 車載情報システム - Google Patents

車載情報システム Download PDF

Info

Publication number
JP4938719B2
JP4938719B2 JP2008101885A JP2008101885A JP4938719B2 JP 4938719 B2 JP4938719 B2 JP 4938719B2 JP 2008101885 A JP2008101885 A JP 2008101885A JP 2008101885 A JP2008101885 A JP 2008101885A JP 4938719 B2 JP4938719 B2 JP 4938719B2
Authority
JP
Japan
Prior art keywords
input
voice
content
command
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008101885A
Other languages
English (en)
Other versions
JP2009251470A (ja
Inventor
雄介 奥
孝光 鈴木
卓司 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2008101885A priority Critical patent/JP4938719B2/ja
Publication of JP2009251470A publication Critical patent/JP2009251470A/ja
Application granted granted Critical
Publication of JP4938719B2 publication Critical patent/JP4938719B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザの発話の特徴を学習することにより音声認識の精度を向上させた車載情報システムに関する。
従来より、車載用のナビゲーション装置では音声入力における認識精度を向上させるために種々の工夫がなされている。
例えば、音声認識を行う際に誤認識が発生した場合に、複数回のやり直しを行った後においても誤認識が発生するときは、認識用のテンプレートを他のテンプレートに入れ替えて音声認識を再実行するナビゲーション装置が提案されている(例えば、特許文献1参照)。
特開2002−108386号公報
ところで、上述のような従来のナビゲーション装置では、音声認識に用いるテンプレートは不特定多数のユーザを想定して作製されているため、他のテンプレートに入れ替えても、精度の向上には限界があった。
そこで、本発明は、個々のユーザの発話の特徴を学習することにより、音声認識精度の向上を図った車載情報システムを提供することを目的とする。
本発明の一局面の車載情報システムは、手動操作により指令を入力する第1入力手段と、音声を入力する第2入力手段と、前記第2入力手段に入力される音声を音声認識する音声認識手段と、前記第1入力手段に入力される指令の内容、又は前記音声認識手段によって音声認識される音声の意味内容に基づき、所定の情報を出力する情報処理手段と、音声の特徴を評価するための基準値と、音声データの意味内容を特定するための閾値とを前記指令の内容に対応する識別IDに関連付けて格納する音声認識辞書と、前記第2入力手段に音声が入力された後の所定時間内に前記第1入力手段へ指令が入力されると、当該指令の内容を表すデータと、前記第2入力手段に入力される音声を表す音声データとに基づき、前記音声認識手段における認識手法を学習する学習手段とを含み、前記音声認識手段は、前記第2入力手段に入力される音声の特徴の評価値と前記音声認識辞書に格納された基準値との類似度を前記閾値と比較することによって当該音声の意味内容を認識するように構成されており、前記学習手段は、前記第1入力手段に入力された指令の内容に対応する識別IDに関連付けて前記音声認識辞書に格納された前記基準値と、前記第2入力手段に入力される音声を表す音声データの評価値との類似度に基づいて、前記指令の内容に対応する識別IDに関連付けて前記音声認識辞書に格納された前記閾値を変更することにより、前記音声認識手段における認識手法を学習する
また、前記音声の特徴は、声紋、アクセント、ピッチ、又は発話内容の少なくともいずれか一つであってもよい。
また、前記第1入力手段はタッチパネル式表示手段、又は遠隔操作装置であってもよい。
前記情報処理手段は、ナビゲーション装置の演算処理手段に含まれてもよい。
本発明によれば、個々のユーザの発話の特徴を学習することにより、音声認識精度の向上を図った車載情報システムを提供できるという特有の効果が得られる。
以下、本発明の車載情報システムを適用した実施の形態について説明する。
図1は、本実施の形態の車載情報システムの構成を示す図である。この車載情報システムはナビゲーション装置10であり、以下で説明する学習機能はナビゲーションECU(Electronic Control Unit)11によって実現される。
このナビゲーション装置10は、ナビゲーションECU11に加えて、タッチパネル12、現在位置検出部13、方位検出部14、ルート検索部15、地図データベース16、マイク17、音声認識辞書18、受信部19、及び遠隔操作装置20を備える。
ナビゲーションECU11は、図示しないバスを介してCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等からなるマイクロコンピュータを中心として構成される。
タッチパネル12には、電子地図と自車両の位置のほか、ナビゲーション装置10の所定の機能(例えば、ルート検索機能等)を実現するための入力スイッチが表示される。このタッチパネル12は、手動操作により指令を入力する入力手段であり、例えば、液晶モニタとマトリクススイッチとを組み合わせたものであればよく、パネルに表示した入力スイッチが利用者に押圧されることにより、操作可能に構成されていればよい。
現在位置検出部13は、衛星航法システム(GPS:Global Positioning System)を利用して車両の現在位置及び走行速度等を計算するGPS受信装置で構成される。
方位検出部14は、ジャイロコンパスで構成される。
ルート検索部15は、利用者から指定された検索条件に重み付けを行うことにより、候補のルートの中から最適ルートを検索するように構成される。
また、地図データベース16は、ナビゲーション装置に必要な電子地図を格納できればよく、例えば、ハードディスクで構成される。
マイク17は、音声を入力する入力手段であり、入力された音声は、音声データに変換されてナビゲーションECU11に入力される。ナビゲーションECU11は、後述する音声認識機能により、音声データの意味内容を認識する。
音声認識辞書18は、ナビゲーションECU11が音声認識機能を実行する際に利用される辞書であり、様々な音声の音声データの評価の基準となる基準値と、音声データを特定するための判定に用いる閾値と、その音声の意味内容を表す意味内容データとを関連付けて群データとして格納するデータベースであり、例えば、ハードディスクで構成される。なお、音声データを特定するための判定に用いる閾値については後述する。
受信部19は、遠隔操作装置20から送信される指令を受信する受信手段であり、遠隔操作装置20に手動操作によって入力される指令を受信し、ナビゲーションECU11に伝送するように構成されている。
ナビゲーション装置10は、利用者がタッチパネル12又は遠隔装置20を通じて手動操作による指令を入力できるとともに、マイク17を通じて音声による指令を入力できるように構成されており、上述の検出部等(13、14、15)によって検出される情報や地図データを用いて電子地図上における自車両の位置を表す位置データを導出することにより、利用者に所望の案内情報を提供できるように構成されていればよい。
本実施の形態では、ナビゲーションECU11は、利用者に所望の案内情報を提供するための案内機能に加えて、利用者の発話の特徴に基づいて音声認識機能における認識手法を学習する学習機能を有する。この学習機能については図2を用いて説明する。
図2は、本実施の形態の車載情報システムにおける音声認識手法の学習機能を示すブロック図である。
ナビゲーションECU11は、入力管理部21、入力解析制御部22、手動入力解析部23、音声認識部24、及び音声認識学習部25を含む。なお、この図2は、ナビゲーションECU11が含む機能のうち、音声認識機能と認識手法の学習機能を実現するために必要なブロックだけを示すが、ナビゲーションECU11は、利用者に所望の案内情報を提供するための案内機能を実現するための他のブロックを含むものである。
入力管理部21は、タッチパネル12、マイク17、又は遠隔操作装置20に入力される指令の管理を行う。入力された指令は、入力解析制御部22に伝送される。
入力解析制御部22は、入力される指令を解析する機能を有し、入力管理部21から入力される指令を手動入力解析部23又は音声認識部24に伝送する。タッチパネル12及び遠隔装置20から入力される指令は、手動入力解析部23に伝送され、マイク17から入力される指令は、音声データに変換されて音声認識部24に伝送される。
また、この入力解析制御部22は、入力管理部21を介してマイク17から指令が入力された場合には、その後の経過時間をカウントする。この場合において、所定時間以内に入力管理部21を介してタッチパネル12又は遠隔操作装置20から指令が入力された場合には、その旨を表す信号を音声認識学習部25に伝送する。なお、この所定時間は、例えば5秒間に設定される。
手動入力解析部23は、タッチパネル12及び遠隔装置20から入力される指令を解析する。タッチパネル12及び遠隔装置20から入力される指令は、ナビゲーション装置10を操作するための指令である。例えば、現在地を入力するために、タッチパネル12又は遠隔装置20の「現在地」ボタンが押された場合は、現在地を入力するモードを選択するための指令となる。手動入力解析部23は、必要に応じてこの指令を音声認識学習部25に伝送する。
音声認識部24は、音声認識辞書18を用いて、入力解析制御部22から伝送される音声データの意味内容を認識する。この認識処理は、音声データに含まれる複数の認証子を評価することによって行われる。認証子は、声紋、アクセント、ピッチ、及び発話内容であり、これらのうち、声紋、アクセント、及びピッチは発話の特徴を表す。
また、この評価は、音声データの評価値(声紋評価値、アクセント評価値、ピッチ評価値、及び発話内容評価値)と、評価基準となるパラメータ(声紋用パラメータPa、アクセント用パラメータPb、ピッチ用パラメータPc、及び発話内容用パラメータPd)との類似度を判定することによって行われる。これらのパラメータ(声紋用パラメータPa、アクセント用パラメータPb、ピッチ用パラメータPc、及び発話内容用パラメータPd)の値(基準値)を表すデータは、音声認識辞書18に格納されている。
声紋及び発話内容の評価は、例えば、隠れマルコフモデル(HMM:Hidden Markov Model)を用いて、音声データに含まれる単語や音素の評価を行うことによって行われる。この評価には、評価基準として声紋用パラメータPa及び発話内容用パラメータPdが用いられる。
アクセントの評価は、音声データが表す声の高さの分布を用いて認証を行うことによって実現される。この評価には、評価基準としてアクセント用パラメータPbが用いられる。
また、ピッチの評価は、音声データが表す声の高さを用いて認証を行うことによって実現される。この評価には、評価基準としてピッチ用パラメータPcが用いられる。
類似度の判定は、各々の評価値(声紋評価値、アクセント評価値、ピッチ評価値、及び発話内容評価値)と、評価基準となるパラメータ(声紋用パラメータPa、アクセント用パラメータPb、ピッチ用パラメータPc、及び発話内容用パラメータPd)の各々の値(基準値)との類似度が、声紋閾値Ta、アクセント閾値Tb、ピッチ閾値Tc、及び発話内容閾値Tdの各々の値以上であるか否かによって行われる。すべての類似度が閾値以上であれば類似していると判定され、いずれかの類似度が閾値未満であれば非類似と判定される。
図3は、本実施の形態の車載情報システムにおける音声認識辞書18のデータ構造を示す図である。このように、音声認識辞書内には、様々な言葉毎に識別ID(Identification)が割り振られ、識別ID毎に、声紋閾値Ta、アクセント閾値Tb、ピッチ閾値Tc、発話内容閾値Td、及び意味内容IDが関連付けられて格納されている。
なお、図3に示すデータは音声認識辞書18に格納されているデータの一部であり、実際には様々な言葉のデータが格納されている。また、図3には示さないが識別ID毎に、その言葉についての平均的な評価基準となるパラメータ(声紋用パラメータPa、アクセント用パラメータPb、ピッチ用パラメータPc、及び発話内容用パラメータPd)の値(基準値)を表すデータも格納されている。
例えば、識別ID「0001」の言葉は、声紋閾値Taが0.8、アクセント閾値Tbが0.9、ピッチ閾値Tcが0.7、及び発話内容閾値Tdが0.75で表される言葉であり、これらのパラメータを満たす言葉の意味は意味内容IDが「M00001」とされている。
ここで、意味内容ID「M00001」に対応する意味内容データは「現在地」を表すこととすると、認識手法は次の通りである。
音声認識部24は、声紋用パラメータPa、アクセント用パラメータPb、ピッチ用パラメータPc、及び発話内容用パラメータPdを用いて、音声データの評価値(声紋評価値、アクセント評価値、ピッチ評価値、及び発話内容評価値)との類似度を演算する。
音声認識部24は、演算した声紋の類似度、アクセントの類似度、ピッチの類似度、及び発話内容の類似度のすべてが声紋閾値Ta、アクセント閾値Tb、ピッチ閾値Tc、及び発話内容閾値Tdの値以上である場合に、音声データと識別ID「0001」の言葉が類似していると判定する。
音声認識部24は、識別ID「0001」に関連付けられた意味内容ID「M00001」によって特定される意味内容を音声認識辞書18から読み出す。これにより、音声データが表す意味内容が認識される。
具体的には、利用者がマイク17に「げんざいち」という音声を入力した場合に、音声データの評価値(声紋評価値、アクセント評価値、ピッチ評価値、及び発話内容評価値)が様々な識別IDの声紋用パラメータPa、アクセント用パラメータPb、ピッチ用パラメータPc、及び発話内容用パラメータPdと照合され、類似度が評価されることにより、識別ID「0001」がヒットする。
これにより、音声認識部24は、入力された音声データの意味内容は、意味内容ID「M00001」によって表されると判定し、タッチパネル12に「現在地」という言葉を表示する。このようにして、音声認識部24によって音声データが「現在地」という意味内容を表すと認識されることになる。
ところが、声紋の類似度、アクセントの類似度、ピッチの類似度、又は発話内容の類似度のうちの少なくともいずれか一つが声紋閾値Ta、アクセント閾値Tb、ピッチ閾値Tc、又は発話内容閾値Tdに満たない場合は、音声データと類似する言葉は音声認識辞書18から見つからず、利用者によってタッチパネル12又は遠隔操作装置20に入力がなされる場合が想定される。このように、タッチパネル12又は遠隔操作装置20に入力がなされた場合には、音声認識学習部25によって次のように学習が行われる。
音声認識学習部25は、マイク17への音声の入力後の所定時間内にタッチパネル12又は遠隔操作装置20に入力があったことを表す信号が入力解析制御部22から入力された場合に、音声認識部24によって認識された意味内容と、タッチパネル12又は遠隔操作装置20に入力された指令の内容とに基づき、認識手法の学習を行う。
マイク17への音声の入力後の所定時間内(5秒以内)にタッチパネル12又は遠隔操作装置20に入力があったことを表す信号が入力解析制御部22から音声認識学習部25に入力される場合は、音声認識が正しく行われなかったためにタッチパネル12又は遠隔操作装置20が操作された場合と想定される。
このため、本実施の形態のナビゲーション装置10は、利用者の音声の特徴を学習することにより音声認識の精度の向上を図るべく、音声認識部24によって認識された意味内容と、タッチパネル12又は遠隔操作装置20に入力された指令の内容との類似度に基づき、利用者の音声の特徴に合わせて声紋閾値Ta、アクセント閾値Tb、ピッチ閾値Tc、又は発話内容閾値Tdの値を変更する。
このように、利用者の音声の特徴に合わせていずれかの閾値を変更することにより、音声認識処理における評価基準が変更されるので、変更前は正しく音声認識されなかった利用者の発話が正しく音声認識されるようになり、音声認識の精度の向上を図ることができる。
ここで、利用者が「げんざいち」という音声をマイク17に入力した場合に、音声データのアクセントを表す評価値が「現在地」という単語のアクセントパラメータPbと類似していると判定されずに音声認識が正しく行われなかった場合を具体例として説明する。
この場合、音声の入力後5秒以内に利用者によってタッチパネル12の「現在地」ボタンが押されると、音声認識学習部25は、タッチパネル12に入力された指令が表す言葉を特定する声紋閾値Ta、アクセント閾値Tb、ピッチ閾値Tc、及び発話内容閾値Tdの値を音声認識辞書18から読み出す。
音声認識学習部25は、読み出した閾値(Ta〜Td)と類似度を比較し、どの類似度が閾値に満たなかったのかを特定する。
この場合は、声紋の類似度、ピッチの類似度、及び発話内容の類似度の各々が声紋閾値Ta、ピッチ閾値Tc、及び発話内容閾値Tdの各々の値以上であると判定したが、アクセントの類似度がアクセント閾値Tb未満であったため、アクセント閾値Tbの値を変更する。
ここで、変更後のアクセント閾値Tb(変更後)、変更前のアクセント閾値Tb(変更前)、及び変更前のアクセント閾値Tbとアクセントの類似度との差ΔTbを用いると、Tb(変更後)は次のように表される。
Tb(変更後)=Tb(変更前)−ΔTb
ここで、ΔTb=Tb(変更前)−Kであり、Kは「音声認識が正しく行われなかった場合のアクセントの類似度」である。
すなわち、Tb(変更前)からΔTbを減算することになる。これにより、アクセント閾値Tb(変更後)は、「音声認識が正しく行われなかった場合のアクセントの類似度(K)」と同一の値に設定される。これが音声認識手法の学習である。
これにより、次回、利用者が「げんざいち」という音声をマイク17に入力した場合は、声紋評価値、アクセント評価値、ピッチ評価値、及び発話内容評価値と、声紋用パラメータPa、アクセント用パラメータPb、ピッチ用パラメータPc、及び発話内容用パラメータPdとは類似すると判定されるため、音声認識学習部25によって利用者の音声データの意味内容が「現在地」であると正しく認識されるようになる。
これは、声紋評価値、ピッチ評価値、又は発話内容評価値のいずれかが声紋用パラメータPa、ピッチ用パラメータPc、又は発話内容用パラメータPdと類似しないと判定された場合においても同様であり、音声認識学習部25によって声紋閾値Ta、アクセント閾値Tb、ピッチ閾値Tc、又は発話内容閾値Tdが変更されることにより、次回からは音声認識が正しく行われることになる。
図4は、本実施の形態の車載情報システムにおける音声認識手法の学習処理の処理手順を示す図である。なお、図2に示す処理は、ナビゲーションECU11によって実行される。
ナビゲーション装置10の電源がオンにされると、ナビゲーションECU11は、本実施の形態の車載情報システムにおける認識手法の学習処理の処理手順を開始する(スタート)。
ナビゲーションECU11は、マイク17に入力された音声を音声データに変換する(ステップS1)。この処理は、ナビゲーションECU11の入力解析制御部22としての機能によって実行される処理であり、マイク17から出力される音声信号をデジタル変換することにより音声データが得られる。
ナビゲーションECU11は、音声データに対して音声認識処理を行う(ステップS2)。この音声認識処理は、ナビゲーションECU11の音声認識部24としての機能によって実行される処理であり、音声認識辞書18を用いて、入力解析制御部22から伝送される音声データの意味内容を認識する。
具体的には、音声データの評価値(声紋評価値、アクセント評価値、ピッチ評価値、及び発話内容評価値)を演算する。
次いで、ナビゲーションECU11は、音声の特徴の評価結果を分析する(ステップS3)。この処理は、ナビゲーションECU11の音声認識部24としての機能によって実行される処理であり、具体的には、ステップS2における比較の結果、音声データの評価値(声紋評価値、アクセント評価値、ピッチ評価値、及び発話内容評価値)を用いて音声認識辞書18に格納されたデータと照合し、声紋用パラメータPa、アクセント用パラメータPb、ピッチ用パラメータPc、及び発話内容用パラメータPdがすべて類似するデータが見つかった場合は、そのデータの識別IDに関連付けられた意味内容IDに対応する意味内容の文言を音声認識辞書18から抽出する。
次いで、ナビゲーションECU11は、ステップS3で抽出した文言をタッチパネル12に表示する(ステップS4)。利用者の確認のためである。
さらに、ナビゲーションECU11は、タッチパネル12又は遠隔操作装置20への手動操作の入力を監視する(ステップS5)。音声認識が正しく行われていない場合は、利用者によってタッチパネル12又は遠隔操作装置20への手動操作が行われる可能性が高いからである。
次いで、ナビゲーションECU11は、マイク17に音声が入力されてから5秒間の間にタッチパネル12又は遠隔操作装置20に手動操作が入力されたか否かを判定する(ステップS6)。音声認識が正しく行われていない場合は、認識手法の学習が必要になるからである。
ナビゲーションECU11は、マイク17に音声が入力されてから5秒間の間にタッチパネル12又は遠隔操作装置20に手動操作が入力されたと判定した場合は、その手動操作を解析する(ステップS7)。例えば、タッチパネル12に表示されている「現在地」ボタンが押された場合は、「現在地」ボタンが押されたことがナビゲーションECU11によって解析される。
ナビゲーションECU11は、ステップS7で解析した操作内容が表す言葉を特定するために必要な閾値(Ta〜Td)を音声認識辞書18から読み出し、ステップS1で取得した音声データについて演算された類似度と比較することにより、閾値(Ta〜Td)に満たない類似度が声紋、アクセント、ピッチ、又は発話内容のいずれの類似度であるかを特定する(ステップS8)。
ナビゲーションECU11は、ステップS8で類似度が閾値に満たないと判定されたアクセント閾値Tb(変更前)からΔTbを減じる(ステップS9)。これにより、アクセント閾値Tbの値は、ステップS8で特定されたアクセントの類似度(K)と同一の値になる。ここで、ΔTbはTb(変更前)と「音声認識が正しく行われなかった場合のアクセントの類似度(K)」の差分である。
これは、例えば、「げんざいち」という音声がマイク17に入力された場合に、音声データのアクセントを表す評価値が「現在地」という単語のアクセントパラメータPbと類似しないと判定されたために音声認識が正しく行われなかった場合に、次回の音声認識時には類似すると判定されるようにするために、アクセント閾値Tbの値を変更する処理である。
ナビゲーションECU11は、ステップS9で変更したアクセント閾値Tb(変更後)を音声認識辞書18に登録する(ステップS10)。
これにより、次回、利用者が「げんざいち」という音声をマイク17に入力した場合は、声紋評価値、アクセント評価値、ピッチ評価値、及び発話内容評価値と、声紋用パラメータPa、アクセント用パラメータPb、ピッチ用パラメータPc、及び発話内容用パラメータPdとがそれぞれ類似すると判定されるため、音声認識学習部25によって利用者の音声データの意味内容が「現在地」であると正しく認識されるようになる。
また、ステップS6において、マイク17に音声が入力されてから5秒間の間にタッチパネル12又は遠隔操作装置20に手動操作が入力されなかったと判定した場合は、ナビゲーションECU11は、ステップS3で音声認識辞書18から抽出された意味内容の文言によって特定される指令を用いてナビゲーション装置10の処理を実行する(ステップS11)。
この場合は、「現在地」という意味内容の文言が正しく音声認識された場合であるので、ナビゲーションECU11は、その文言によって特定される指令をナビゲーションECU11内の所定の機能部に伝送する。
このように、本実施の形態のナビゲーション装置10によれば、利用者の音声の特徴を学習することにより音声認識の精度の向上を図るべく、音声認識部24によって認識された意味内容と、タッチパネル12又は遠隔操作装置20に入力された指令の内容との一致性に基づき、利用者の音声の特徴に合わせて声紋閾値Ta、アクセント閾値Tb、ピッチ閾値Tc、又は発話内容閾値Tdの値を変更するので、変更前は正しく音声認識されなかった利用者の発話が正しく音声認識されるようになり、音声認識の精度の向上を図ることができる。
以上では、ナビゲーションECU11が音声認識手法の学習処理を実行する形態について説明したが、本実施の形態の車載情報システムを実現するための制御装置は、ナビゲーションECUとは別の専用のECUによって実現されてもよい。この専用ECUは、ナビゲーション装置10の内部又は外部のいずれに配設されてもよい。
また、以上では、液晶モニタとマトリクススイッチとを組み合わせたタッチパネル12を用いる場合について説明したが、パネルに表示した入力スイッチが利用者に押圧されることにより、操作可能に構成されるタッチパネル式表示手段であれば、上述のようなタッチパネル12に限られるものではない。
また、以上では、車載情報システムがナビゲーション装置10であり、このナビゲーション装置10の音声認識機能に学習機能を付加した形態について説明したが、車載情報システムはナビゲーション装置10に限定されるものではなく、オーディオやエアコン等の様々な車載装置が音声認識機能を有する場合は、その車載装置に本実施の形態の車載情報システムを適用することができる。
以上、本発明の例示的な実施の形態の車載情報システムについて説明したが、本発明は、具体的に開示された実施の形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
本実施の形態の車載情報システムの構成を示す図である。 本実施の形態の車載情報システムにおける音声認識手法の学習機能を示すブロック図である。 本実施の形態の車載情報システムにおける音声認識辞書18のデータ構造を示す図である。 本実施の形態の車載情報システムにおける音声認識手法の学習処理の処理手順を示す図である。
符号の説明
10 ナビゲーション装置
11 ナビゲーションECU
12 タッチパネル
13 現在位置検出部
14 方位検出部
15 ルート検索部
16 地図データベース
17 マイク
18 音声認識辞書
19 受信部
20 遠隔操作装置
21 力管理部
22 入力解析制御部
23 手動入力解析部
24 音声認識部
25 音声認識学習部

Claims (4)

  1. 手動操作により指令を入力する第1入力手段と、
    音声を入力する第2入力手段と、
    前記第2入力手段に入力される音声を音声認識する音声認識手段と、
    前記第1入力手段に入力される指令の内容、又は前記音声認識手段によって音声認識される音声の意味内容に基づき、所定の情報を出力する情報処理手段と、
    音声の特徴を評価するための基準値と、音声データの意味内容を特定するための閾値とを前記指令の内容に対応する識別IDに関連付けて格納する音声認識辞書と、
    前記第2入力手段に音声が入力された後の所定時間内に前記第1入力手段へ指令が入力されると、当該指令の内容を表すデータと、前記第2入力手段に入力される音声を表す音声データとに基づき、前記音声認識手段における認識手法を学習する学習手段と
    を含み、
    前記音声認識手段は、前記第2入力手段に入力される音声の特徴の評価値と前記音声認識辞書に格納された基準値との類似度を前記閾値と比較することによって当該音声の意味内容を認識するように構成されており、
    前記学習手段は、前記第1入力手段に入力された指令の内容に対応する識別IDに関連付けて前記音声認識辞書に格納された前記基準値と、前記第2入力手段に入力される音声を表す音声データの評価値との類似度に基づいて、前記指令の内容に対応する識別IDに関連付けて前記音声認識辞書に格納された前記閾値を変更することにより、前記音声認識手段における認識手法を学習する、車載情報システム。
  2. 前記音声の特徴は、声紋、アクセント、ピッチ、又は発話内容の少なくともいずれか一つである、請求項に記載の車載情報システム。
  3. 前記第1入力手段はタッチパネル式表示手段、又は遠隔操作装置である、請求項1又は2に記載の車載情報システム。
  4. 前記情報処理手段は、ナビゲーション装置の演算処理手段に含まれる、請求項1乃至のいずれか一項に記載の車載情報システム。
JP2008101885A 2008-04-09 2008-04-09 車載情報システム Expired - Fee Related JP4938719B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008101885A JP4938719B2 (ja) 2008-04-09 2008-04-09 車載情報システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008101885A JP4938719B2 (ja) 2008-04-09 2008-04-09 車載情報システム

Publications (2)

Publication Number Publication Date
JP2009251470A JP2009251470A (ja) 2009-10-29
JP4938719B2 true JP4938719B2 (ja) 2012-05-23

Family

ID=41312220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008101885A Expired - Fee Related JP4938719B2 (ja) 2008-04-09 2008-04-09 車載情報システム

Country Status (1)

Country Link
JP (1) JP4938719B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105244557A (zh) 2010-11-30 2016-01-13 住友理工株式会社 蓄电装置
CN103187051A (zh) * 2011-12-28 2013-07-03 上海博泰悦臻电子设备制造有限公司 车载互动装置
JP5737642B2 (ja) * 2014-08-15 2015-06-17 洋彰 宮崎 自律型知識向上装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6232500A (ja) * 1985-08-06 1987-02-12 日本電気株式会社 リジエクト機能付き音声認識装置
JPH07109560B2 (ja) * 1990-11-30 1995-11-22 富士通テン株式会社 音声認識装置
JP4680714B2 (ja) * 2005-08-03 2011-05-11 パナソニック株式会社 音声認識装置および音声認識方法

Also Published As

Publication number Publication date
JP2009251470A (ja) 2009-10-29

Similar Documents

Publication Publication Date Title
US10818286B2 (en) Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US8005673B2 (en) Voice recognition device, voice recognition method, and voice recognition program
JP4859982B2 (ja) 音声認識装置
CN106796786B (zh) 语音识别系统
JP2008058409A (ja) 音声認識方法及び音声認識装置
EP1450349B1 (en) Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
CN108682419A (zh) 语音控制方法及设备、计算机可读存储介质及设备
US10950233B2 (en) Dialogue system, vehicle having the same and dialogue processing method
CN106030697A (zh) 车载控制装置及车载控制方法
JP2002041085A (ja) 音声認識装置及び記録媒体
WO2015059764A1 (ja) ナビゲーション用サーバ、ナビゲーションシステムおよびナビゲーション方法
JP2006317573A (ja) 情報端末
JP2009230068A (ja) 音声認識装置及びナビゲーションシステム
JP4938719B2 (ja) 車載情報システム
JP5181533B2 (ja) 音声対話装置
JP4770374B2 (ja) 音声認識装置
JP4604377B2 (ja) 音声認識装置
JP5074759B2 (ja) 対話制御装置、対話制御方法及び対話制御プログラム
CN110556104A (zh) 语音识别装置、语音识别方法以及存储程序的存储介质
JP3700533B2 (ja) 音声認識装置及び処理システム
JP2008164809A (ja) 音声認識装置
US20110218809A1 (en) Voice synthesis device, navigation device having the same, and method for synthesizing voice message
JP3849283B2 (ja) 音声認識装置
JP2007057805A (ja) 車両用情報処理装置
JP7175221B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120223

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees