JP5158174B2 - 音声認識装置 - Google Patents

音声認識装置 Download PDF

Info

Publication number
JP5158174B2
JP5158174B2 JP2010238503A JP2010238503A JP5158174B2 JP 5158174 B2 JP5158174 B2 JP 5158174B2 JP 2010238503 A JP2010238503 A JP 2010238503A JP 2010238503 A JP2010238503 A JP 2010238503A JP 5158174 B2 JP5158174 B2 JP 5158174B2
Authority
JP
Japan
Prior art keywords
voice
facility
user
input
names
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010238503A
Other languages
English (en)
Other versions
JP2012093422A (ja
Inventor
剛宏 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010238503A priority Critical patent/JP5158174B2/ja
Priority to US13/272,568 priority patent/US9087515B2/en
Publication of JP2012093422A publication Critical patent/JP2012093422A/ja
Application granted granted Critical
Publication of JP5158174B2 publication Critical patent/JP5158174B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice

Description

本発明は、施設の名称等を音声で入力する際に好適する音声認識装置に関する。
カーナビゲーション装置においては、安全性や利便性向上のために、ユーザーが発声する音声で施設の名称等を入力可能なヒューマンマシンインターフェース(HMI)が採用されている。上記HMIを実現するために、ユーザーが発声する音声を認識する音声認識装置が、カーナビゲーション装置に組み込まれている。
特開平9−114487号公報
ユーザーが施設の名称等を音声で入力するに際して、音声認識装置によってユーザーの音声を認識する場合、次に述べる原因で誤認識が発生している。音声認識用のデータベースに登録されていない施設の名称等をユーザーが発声すると、誤認識が発生する。この場合、ユーザーが発声した施設の名称は音声認識用のデータベースに登録されていないため、上記施設の名称が音声認識されることはない。
しかし、ユーザーは、自分の発声の仕方が悪い、または、音声認識装置の認識精度が低いと考えるため、上記音声認識させたい施設の名称に対して発音のイントネーションを変えて発声したりして何とか音声認識させようとしてしまう。この場合、音声認識装置は誤認識を続けるため、ユーザーは音声認識装置の使用を諦めてしまったり、音声認識装置に対して悪い印象を持つことがあった。
上記したような誤認識が発生した場合、音声認識させたい施設の名称の別の呼び方(正式名称)をユーザーが発声すると、その別の呼び方がデータベースに登録されていることが多く、音声認識が正常に実行される。しかし、ユーザーは、誤認識が発生すると、音声認識できないためにかなり精神的に苛立ちを感じるため、別の呼び方を発声するという対策を実行できないことが多いということが実験的にわかっている。
そこで、本発明の目的は、音声認識用のデータベースに登録されていない施設の名称等をユーザーが繰り返し発声したような場合に、誤認識が続くことを防止できる音声認識装置を提供するにある。
請求項1の発明によれば、音声認識手段による音声認識結果が連続して誤認識であるとユーザーに指摘されたときに、今回入力された音声データと前回入力された音声データとを比較する比較手段と、比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、ユーザーが入力したい施設の名称の別の呼び方を話すようにユーザーに促す旨のガイダンスを出力するガイダンス出力手段とを備えるように構成したので、誤認識が続くことを防止できる。
上記構成の場合、請求項2の発明のように、前記音声認識装置は、施設の名称を音声認識するための装置であり、施設名称が辞書登録されたデータベースを備え、ユーザが入力した施設名称を音声入力すると、その音声入力を認識し、前記データベースの辞書を参照して合致する施設名称が存在するか否かを判断し、存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促し、ユーザが再入力しても、音声入力した施設名称が前記データベースの辞書に存在しない場合には、前回入力と今回入力のデータを比較し、それらがほぼ一致した場合には、別の呼び方をするように促すように構成することが好ましい。
また、請求項3の発明のように、比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、現在位置の近接地域に存在する施設の名称を一覧表にして表示装置に表示するように構成することが好ましい。
上記構成の場合、請求項4の発明のように、前記音声認識装置は、施設の名称を音声認識するための装置であり、施設名称が辞書登録されたデータベースを備え、ユーザが入力した施設名称を音声入力すると、その音声入力を認識し、前記データベースの辞書を参照して合致する施設名称が存在するか否かを判断し、存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促し、ユーザが再入力しても、音声入力した施設名称が前記データベースの辞書に存在しない場合には、前回入力と今回入力のデータを比較し、それらがほぼ一致した場合には、現在位置の近接地域に存在する施設の名称を一覧表にして表示装置に表示するように構成することが良い。また、請求項5の発明のように、前記一覧表は、辞書登録されている施設名称を一覧にしたものであることが好ましい構成である。
更に、請求項6の発明のように、比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、インターネットを介して外部サーバに接続し、ユーザーが発声した音声の音声データの特徴量をキーにして検索を実行し、検索されたコンテンツを表示装置に表示するように構成することが良い構成である。
請求項7の発明によれば、比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、車両の現在位置の情報を外部の情報センターへ送信し、前記情報センターにおいて別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この取得した別称の施設名称の一覧表を受信してユーザーに提示するように構成したので、誤認識が続くことを防止できる。
上記構成の場合、請求項8の発明のように、前記音声認識装置は、施設の名称を音声認識するための装置であり、施設名称が辞書登録されたデータベースを備え、ユーザが入力した施設名称を音声入力すると、その音声入力を認識し、前記データベースの辞書を参照して合致する施設名称が存在するか否かを判断し、存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促し、ユーザが再入力しても、音声入力した施設名称が前記データベースの辞書に存在しない場合には、前回入力と今回入力のデータを比較し、それらがほぼ一致した場合には、車両の現在位置の情報を外部の情報センターへ送信し、前記情報センターにおいて別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この取得した別称の施設名称の一覧表を受信してユーザーに提示するように構成することが好ましい。
また、上記構成の場合、請求項9の発明のように、辞書登録されている名称と辞書登録されていない別称とを対にして表示することが良い構成である。更に、請求項10の発明のように、辞書登録されている名称と辞書登録されていない別称とを区別して表示することが良い構成である。更にまた、請求項11の発明のように、前記情報センターにおいて別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得する際には、他のユーザーが呼んでいる通称や愛称が含まれていることが好ましい構成である。また、請求項12の発明のように、前記他のユーザーは、車両の現在位置周辺を地元とするユーザーであることが良い。
請求項13の発明によれば、比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、前記別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この取得した別称の施設名称の一覧表をユーザーに提示するように構成したので、誤認識が続くことを防止できる。
請求項14の発明によれば、比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、前記音声データを外部の情報センターへ送信し、前記情報センターにおいて前記音声データの音声認識を実行し、音声認識結果の施設等の位置情報を取得し、この取得した位置情報を受信してユーザーに提示するように構成したので、誤認識が続くことを防止できる。
請求項15の発明によれば、比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、前記音声データを変換した文字列と車両の現在位置を外部の情報センターへ送信し、前記情報センターにおいて前記文字列と車両の現在位置とで別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する類似別称の施設名称の一覧表を取得し、この取得した類似別称の施設名称の一覧表を受信してユーザーに提示するように構成したので、誤認識が続くことを防止できる。
上記構成の場合、請求項16の発明のように、前記音声認識装置は、施設の名称を音声認識するための装置であり、施設名称が辞書登録されたデータベースを備え、ユーザが入力した施設名称を音声入力すると、その音声入力を認識し、前記データベースの辞書を参照して合致する施設名称が存在するか否かを判断し、存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促し、ユーザが再入力しても、音声入力した施設名称が前記データベースの辞書に存在しない場合には、前回入力と今回入力のデータを比較し、それらがほぼ一致した場合には、前記音声データを変換した文字列と車両の現在位置を外部の情報センターへ送信し、前記情報センターにおいて前記文字列と車両の現在位置とで別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する類似別称の施設名称の一覧表を取得し、この取得した類似別称の施設名称の一覧表を受信してユーザーに提示するように構成することが好ましい。
本発明の第1実施形態を示す音声認識装置のブロック図 音声認識装置の制御内容を示すフローチャート 本発明の第2実施形態を示す図1相当図 図2相当図 本発明の第3実施形態を示す図1相当図 図2相当図 本発明の第4実施形態を示す図1相当図 図2相当図 本発明の第5実施形態を示す図1相当図 図2相当図
以下、本発明の第1実施形態について、図1および図2を参照して説明する。まず、図1は、音声認識機能を備えた制御装置(音声認識装置)1を含むシステムの構成を表すブロック図である。本実施形態の制御装置1は、自動車(車両)に搭載されており、車両の乗員(ユーザー)と音声にて対話しながら、車両に搭載されたカーナビゲーション装置2を制御する機能を備えている。
図1に示すように、制御装置1は、ユーザーが各種の指令(音声入力時に必要な操作を含む)やデータなどを外部操作によって入力するためのスイッチ装置3と、音声を入力するためのマイクロフォン4と、音声を出力するためのスピーカ5と、車両の現在位置(現在地)の検出や経路案内などを行う周知構成のカーナビゲーション装置2とに接続されている。
カーナビゲーション装置2は、いずれも図示しないが、車両の現在位置を検出するための周知のGPS装置や、地図データ,地名データ,施設名データなどの経路案内用データを記憶した記憶装置(CD、DVD、HD等)、及び、ユーザーが指令を入力するための操作スイッチ、道路地図等を表示する表示装置などを備えている。そして、カーナビゲーション装置2は、例えば、ユーザーから操作スイッチを介して、目的地と目的地までの経路案内を指示する指令が入力されると、車両の現在位置と目的地へ至るのに最適な経路とを含む道路地図を表示装置に表示して経路案内を行う機能を有している。
また、表示装置には、カーナビゲーション装置2によって経路案内用の道路地図が表示されるだけでなく、情報検索用メニューなどの様々な画像が表示される。尚、本実施形態では、制御装置1とカーナビゲーション装置2を分けるように構成したが、カーナビゲーション装置2の内部に制御装置1(即ち、音声認識装置および音声出力装置)を組み込むように構成しても良い。
制御装置1は、音声認識部6と、キャンセル操作識別部7と、音声記憶部8と、特徴量比較部9とから構成されている。音声認識部6は、マイクロフォン4から入力された音声信号をデジタル音声データに変換(A/D変換)し、この音声データと音声認識用のデータベース10とに基づいて音声認識を実行すると共に、上記音声データの特徴量を抽出し、音声認識結果と音声データの特徴量とをキャンセル操作識別部7へ送信するように構成されている。音声認識部6が、音声認識手段としての機能を有している。
キャンセル操作識別部7は、音声認識結果と音声データの特徴量を受信して、音声認識結果をスピーカ5へ送って該スピーカ5から音声出力させると共に、音声データの特徴量を音声記憶部8内に記憶させる。音声記憶部8は、2個の音声記憶キュー8a、8bを有しており、最新の(今回入力された)音声データの特徴量と、その次に新しい(前回入力された)音声データの特徴量が上記2個の音声記憶キュー8a、8bにそれぞれ記憶されており、それよりも古い音声データの特徴量は消えるようになっている。
また、音声認識結果がスピーカ5から出力されて、それを聞いたユーザーが自分が発声した音声と音声認識結果が異なる場合には、スイッチ装置3のキャンセルスイッチを操作する。ユーザーにより上記キャンセルスイッチが操作されると、キャンセルスイッチのスイッチ信号がキャンセル操作識別部7へ送信され、これを受けて、キャンセル操作識別部7は、特徴量比較部9に対して音声記憶部8内に記憶されている2個の音声データの特徴量の比較を実行させるための指令を出力する。これに対して、キャンセルスイッチのスイッチ信号がキャンセル操作識別部7へ送信されなかった場合(または、ユーザーがスイッチ装置3の正常認識スイッチを操作してそのスイッチ信号が送信された場合)、キャンセル操作識別部7は、音声記憶部8の音声記憶キュー8a、8b内に記憶されている音声データの特徴量を消去すると共に、前記音声認識結果をカーナビゲーション装置2へ送信するように構成されている。
また、特徴量比較部9は、前記指令を受けて、音声記憶部8内に2個の音声データの特徴量が記憶されている場合には、それら2個の音声データの特徴量の比較を実行する。ここで、2個の音声データの特徴量が一致しないとき(例えば類似度が95%未満のとき)には、特徴量比較部9は、何もしない。一方、2個の音声データの特徴量が一致したとき(例えば類似度が95%以上のとき)には、特徴量比較部9は、ユーザーが同じ言葉(施設の名称)を繰り返し発声していると判断し、その施設の名称の別の呼び方を話すようにユーザーに促す旨のメッセージに相当するガイドダンス音声をスピーカ5から出力するように構成されている。尚、上記メッセージの一例としては、「その呼び方では登録されていない可能性があります。違う呼び方で発話してください」というメッセージが好ましい。上記特徴量比較部9が、比較手段およびガイダンス出力手段としての各機能を有している。
次に、上記構成の制御装置1の動作を、図2のフローチャートを参照して説明する。まず、図2のステップS10では、制御装置1のキャンセル操作識別部7は、施設の名称の入力を促すガイダンスの音声をスピーカ5から出力する。そして、ステップS20へ進み、音声認識部6は、ユーザーが発声した音声をマイクロフォン4を介して入力し、音声認識処理を実行すると共に、音声データの特徴量を抽出し、さらに、キャンセル操作識別部7は、音声認識部6による音声認識結果をスピーカ5から出力する。
続いて、ステップS30へ進み、キャンセル操作識別部7は、ユーザーがキャンセルスイッチを操作したか否かを判断する。ここで、ユーザーがキャンセルスイッチを操作しなかった場合、すなわち、音声認識が正常に行われた場合には、ステップS30にて「NO」へ進み、ステップS40へ進み、次の画面へ移行し、これ以降、通常の正常動作が実行される。
一方、上記ステップS30において、ユーザーがキャンセルスイッチを操作した場合、すなわち、音声認識が正常に行われなかった(誤認識の)場合には、ステップS30にて「YES」へ進み、ステップS50へ進む。このステップS50では、上記音声認識に用いた音声データから抽出した音声データの特徴量を、キャンセル操作識別部7は、音声記憶部8の第1の音声記憶キュー8aに保存し、この保存したデータを音声データ1とする。
続いて、ステップS60へ進み、キャンセル操作識別部7は、施設の名称の入力を促すガイダンスの音声をスピーカ5から出力する。そして、ステップS70へ進み、音声認識部6は、ユーザーが発声した音声をマイクロフォン4を介して入力し、音声認識を実行すると共に、音声データの特徴量を抽出し、さらに、キャンセル操作識別部7は、音声認識部6による音声認識結果をスピーカ5から出力する。
次に、ステップS80へ進み、キャンセル操作識別部7は、ユーザーがキャンセルスイッチを操作したか否かを判断する。ここで、ユーザーがキャンセルスイッチを操作しなかった場合、すなわち、音声認識が正常に行われた場合には、ステップS80にて「NO」へ進み、ステップS40へ進み、次の画面へ移行し、これ以降、通常の正常動作が実行される。
一方、上記ステップS80において、ユーザーがキャンセルスイッチを操作した場合、すなわち、音声認識が正常に行われなかった場合には、ステップS80にて「YES」へ進み、ステップS90へ進む。このステップS90では、上記音声認識に用いた音声データから抽出した音声データの特徴量を、キャンセル操作識別部7は、音声記憶部8の第1の音声記憶キュー8aに保存し、この保存したデータを音声データ2とする。この場合、この処理以前に第1の音声記憶キュー8aに保存されていた音声データ1は、第2の音声記憶キュー8bに保存されるように移動する。即ち、2個の音声記憶キュー8a、8b内には、最新の(今回入力された)音声データの特徴量(音声データ2)と、その次に新しい(前回入力された)音声データの特徴量(音声データ1)が保存される。
尚、この後、更に新しい音声データの特徴量が音声記憶部8に保存されると、その最新の音声データの特徴量と、その次に新しい音声データの特徴量が2個の音声記憶キュー8a、8b内に保存され、それよりも古い(前前回入力された)音声データの特徴量は消去されるようになっている。そして、これ以降、最新の2個の音声データの特徴量が2個の音声記憶キュー8a、8bに保存される処理が繰り返される。
次に、ステップS100へ進み、第1の音声記憶キュー8a内の音声データ(の特徴量)2と、第2の音声記憶キュー8b内の音声データ(の特徴量)1を比較する。続いて、上記2つの音声データ1、2の類似度が例えば95%以上であるときには、ユーザーが同じ施設の名称を繰り返し発声していると判断できるから、ステップS110にて「YES」へ進み、ステップS130へ進み、キャンセル操作識別部7は、施設の名称を別の呼び方で発声するように促すガイダンス(例えば「その呼び方では登録されていない可能性があります。違う呼び方で発話してください」というメッセージ)の音声をスピーカ5から出力する。
一方、ステップS110において、上記2つの音声データの類似度が例えば95%以上でないときには、ユーザーが同じ施設の名称を繰り返し発声しているのではない(すなわち、異なる施設の名称を発声している)と判断できるから、ステップS110にて「NO」へ進み、ステップS120へ進み、キャンセル操作識別部7は、施設の名称を入力する(発声する)ように促すガイダンスの音声をスピーカ5から出力する。
そして、ステップS140へ進み、音声認識部6は、ユーザーが発声した音声をマイクロフォン4を介して入力し、音声認識を実行すると共に、音声データの特徴量を抽出し、さらに、キャンセル操作識別部7は、音声認識部6による音声認識結果をスピーカ5から出力する。この後は、ステップS30へ進み、以下、上述した処理を繰り返し実行するようになっている。
このような構成の本実施形態においては、ユーザーが施設の名称などを発声してそれを音声認識する際に、その施設の名称がデータベースに登録されていないために、連続して(2度続けて)誤認識(あるいは音声認識の失敗)が発生した場合、ユーザーが連続して「同じ言葉」を言っているか否かを判断し、連続して「同じ言葉」を言っていると判断したときに、施設の名称を別の呼び方で発声するように促すガイダンス、例えば「その呼び方では登録されていない可能性があります。違う呼び方で発話してください」というメッセージの音声をスピーカ5から出力するように構成した。この構成によれば、データベース10に登録されている施設の名称をユーザーに発声させることが可能になるから、誤認識が続くことを防止でき、ユーザーが音声認識装置の使用を諦めてしまったり、音声認識装置に対して悪い印象を持つことを防止できる。
尚、上記実施形態においては、連続して誤認識が発生した場合において、ユーザーが連続して「同じ言葉」を言っていると判断したときに、施設の名称を別の呼び方で発声するように促すガイダンスを音声出力するように構成したが、これに代えて、例えば、車両の現在位置の近接地域に存在する施設の名称を一覧表にして表示装置に表示するように構成しても良い。
例えば、「現在位置周辺にはこれらの施設があります。あなたが今入力しようとしているのはこれらの施設の愛称かもしれません。これを参考に、もう一度入力してみてください。」とガイダンスするとともに、一覧表を表示すると好ましい。
このように構成した場合、例えば、ユーザーが音声認識装置のデータベース10に辞書登録されていない通称(愛称)の「横浜赤レンガ倉庫」を繰り返し発声したときには、この「横浜赤レンガ倉庫」の正式名称である「新港埠頭保税倉庫」が、表示装置に一覧表の中の1つの施設として表示される可能性が高い(正式名称は辞書登録されているという前提である)。これにより、ユーザーは、「横浜赤レンガ倉庫」の正式名称を知っておれば、表示された正式名称の「新港埠頭保税倉庫」を見て、これを選択して入力することが可能となる。尚、上記構成では、車両の現在位置の近接地域に存在する施設の名称を一覧表にして表示装置に表示するように構成したが、これに代えて、車両の現在位置の近接地域に存在する施設の名称を順番に(例えば車両の現在位置に近いものから)読み上げる(音声で出力する)ように構成しても良い。
以上のようにすれば、ユーザーが辞書登録されている施設の正式名を知っているもののたまたまうっかり忘れている一方、辞書登録されていない施設の通称は覚えている場合に、その正式名を含んでいる可能性のある一覧が提示され、その施設についての音声入力指示が出来る機会が増える。
より具体的には、ユーザーは通称の「横浜赤レンガ倉庫」が、正式名「新港埠頭保税倉庫」であることを思い出し、辞書登録されている正式名によって音声入力できる可能性が高まる。つまりユーザーにとってその施設についての音声入力指示を成功させる機会、可能性が増す。
また、連続して誤認識が発生した場合において、ユーザーが連続して「同じ言葉」を言っていると判断したときに、インターネットを介して外部サーバに接続し、ユーザーが発声した音声の音声データの特徴量をキーにして検索を実行し、検索されたコンテンツを表示装置に表示するように構成しても良い。このように構成した場合、ユーザーは、表示されたコンテンツを見て、所望の施設の名称を選択して入力することが可能となる。尚、上記構成において、音声データの特徴量をキーにする検索を実行するに際しては、例えばVoice Searcherのような「言葉」を「音声のまま」で検索できる音声検索ソリューションを使用することが好ましい。
また、上記第1実施形態において、ユーザが入力した施設名称を音声入力したときに、その音声入力を音声認識し、データベース10の辞書を参照して合致する施設名称が存在するか否かを判断し、存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促す。そして、ユーザが再入力しても、音声入力した施設名称がデータベース10の辞書に存在しない場合には、前回入力と今回入力の音声入力データを比較し、それらがほぼ一致した場合には、別の呼び方をするように促すように構成しても良い。
図3および図4は、本発明の第2実施形態(車両用通信システム)を示すものであり、第1実施形態と同一構成には同一符号を付している。この第2実施形態では、図3に示すように、外部の情報センター11に、通称や愛称等の別称のついた施設名称のデータベース(以下、別称データベースと称す)12を設け、この別称データベース12を検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この別称の施設名称の一覧表を車両の制御装置1で読み上げたり、車両の表示装置に表示したりして提示するように構成した。上記別称の施設名称の一覧表においては、別称と、辞書登録されている正式名称(および施設の位置情報)とが対応付けられており、両者が提示される。この構成の場合、制御装置1およびカーナビゲーション装置2と、情報センター11とから車両用通信システムが構成されている。
具体的には、図3に示すように、車両の制御装置1に、車両の現在位置等の情報を取得する情報取得部13と、例えば携帯電話網に接続して通信する通信器14と、音声読み上げ器15とを設けた。情報取得部13は、カーナビゲーション装置2から車両の現在位置(即ち、自車位置)を取得し、この取得した自車位置を通信器14を介して情報センター11へ送信する。音声読み上げ器15は、情報センター11において後述するようにして取得された別称の施設名称の一覧表を通信器14を介して受信し、この受信した別称の施設名称の一覧表を音声で読み上げてスピーカ5から音声出力(提示)する機能を有する。また、受信した別称の施設名称の一覧表は、カーナビゲーション装置2へ送られ、その表示装置に表示(提示)されるように構成されている。この場合、制御装置1およびカーナビゲーション装置2が外部別称提示手段としての機能を有する。
情報センター11は、例えば携帯電話網に接続して通信する通信器16と、制御部17と、別称データベース12と、地図データベース18と、WWWサイト19とを備えている。制御部17は、車両の制御装置1から送信された自車位置の情報を通信器16を介して受信し、この受信した自車位置で別称データベース12を検索し、自車位置周辺(例えば自車位置を中心として半径10〜20km程度の地域内)に存在する施設の別称の一覧表(即ち、別称の施設名称の一覧表)を取得する。そして、制御部17は、上記取得した別称の施設名称の一覧表を通信器16を介して車両の制御装置1へ送信するように構成されている。
また、情報センター11においては、別称データベース12を次に述べる方法で作成およびデータ蓄積(拡充)している。まず、図3に示すように、不特定多数のユーザー(他ユーザー)が、各ユーザーのパソコン/携帯20から例えばインターネットを介して情報センター11のWWWサイト19にアクセスすることにより、地元の施設について最も呼ばれている通称や愛称を情報センター11内に収集する。そして、情報センター11の制御部17は、上記収集した通称や愛称(最も呼ばれているランキング1位のもの)を施設の別称として正式名称と対応付けて別称データベース12に登録する。尚、登録する別称は、地図データ(施設の位置情報)と対応させて(紐付けて)おくことにより、自車位置周辺の別称一覧を容易に取得可能な構成となっている。
また、他の車両に搭載されているカーナビゲーション装置21には、図3に示すように、ユーザーによる別称設定データベース22が設けられている。この別称設定データベース22には、ユーザーがよく使用する音声認識用名称や省略名称がユーザーによって任意に登録されている。情報センター11は、多数の車両のカーナビゲーション装置21の別称設定データベース22内のデータを収集して別称データベース12に登録する。具体的には、カーナビゲーション装置21の制御部23は、情報センター11から収集指令を通信器24を介して受信すると、別称設定データベース22内のデータを通信器24を介して情報センター11へ送信する。尚、通信器24は、例えば携帯電話網に接続して通信する機能を有する。
そして、情報センター11の制御部17は、カーナビゲーション装置21の別称設定データベース22内のデータを通信器16を介して受信すると、受信データを記憶しておき、2つ以上の車両で同様の名称(あいまい一致した名称)がある場合に、その名称を別称として正式名称と対応付けて別称設定データベース12に登録する。尚、登録する別称は、地図データ(施設の位置情報)と対応させて(紐付けて)おくことにより、自車位置周辺の別称一覧を容易に取得可能な構成となっている。
次に、上記第2実施形態の制御装置1の動作を、図4のフローチャートを参照して説明する。尚、第1実施形態の図2のフローチャートの処理と同じ処理については、同一のステップ番号を付している。この場合、ステップS10〜S110、S120、S140については、第1実施形態の図2のフローチャートと同じであるから、それ以外の処理について主として説明する。
図4のステップS110において、2つの音声データ1、2の類似度が例えば95%以上であるときには、ユーザーが同じ施設の名称を繰り返し発声していると判断できるから、「YES」へ進み、ステップS210へ進む。このステップS210では、車両の現在位置(自車位置)の情報を情報センター11へ送信する。そして、情報センター11から自車位置周辺に存在する別称の施設名称の一覧表が送られてくるのを待つ。
情報センター11では、自車位置の情報を受信すると、この自車位置の情報に基づいて別称データベース12を検索することにより、自車位置周辺に存在する別称の施設名称の一覧表のデータを取得し、この取得した別称の施設名称の一覧表のデータを車両の制御装置1へ送信する。尚、上記送信された別称の施設名称の一覧表のデータは、自車に近い順に並び替えられており、更に、別称に正式名称と施設の位置情報(施設の地点情報)が対応付けられて付属されている。
続いて、ステップS220へ進み、車両の制御装置1の情報取得部13は、情報センター11から送信された別称の施設名称の一覧表のデータを受信(取得)する。そして、ステップS230へ進み、車両の制御装置1の音声読み上げ器15は、上記受信した別称の施設名称の一覧表のデータを自車位置に近い順に音声で読み上げてスピーカ5から音声出力(提示)する。この音声出力と共に、上記受信した別称の施設名称の一覧表のデータは、車両のカーナビゲーション装置2へ送られ、表示装置に自車位置に近い順に表示(提示)されるようになっている。この表示は、ユーザの音声認識装置のデータベース10に登録された施設名称(正式名称)と、その通称(データベース10に登録されていない愛称、別称)とが対になってなされるようにするとよい。
そして、より好ましくは、この表示とともに、「現在位置周辺の施設のリストを表示します。各施設にはご覧のような愛称、通称があります。もしあなたが入力しようとしている施設名がこの中にある愛称や通称なら、正式名で入力してみてください。」と音声等によるガイダンスを行うとよい。
そして、ステップS120へ進み、施設の名称を入力する(発声する)ように促すガイダンスの音声をスピーカ5から出力する。この後は、ステップS140へ進み、音声認識を実行するものであり、これ以降の処理は、第1実施形態と同じである。
このようにすれば、ユーザーが辞書登録されている施設の正式名を全く知らない一方、辞書登録されていない施設の通称は知っている場合に、その施設についての音声入力指示が出来る機会が増える。
実施形態1を援用して具体的には、ユーザーは通称の「横浜赤レンガ倉庫」が、実は正式名「新港埠頭保税倉庫」であることを知り、辞書登録されている正式名によって音声入力できる可能性がより高まる。つまりユーザーにとって、よりその施設についての音声入力指示を成功させる機会、可能性が増す。
また、上記の表示中、辞書登録されている名称と、そうでない名称とを区別して表示するようにしてもよい。そうすればもし一覧の中に、辞書登録されている正式名の施設があり、ユーザはそうでない別称で入力を試みようとしていた場合に、ユーザは自分が何度も試みた施設名称が辞書登録されていないことを自覚できる。そして登録されている正式名にて入力することがより容易になる。
また、センターを介して得る他ユーザ(他車)の情報は、現在位置周辺を普段、日常の行動範囲としている者の情報を特に選択して取得するようにしてもよい。現在位置周辺を行動範囲に持つユーザは、地元の人間である可能性が高く、施設名を愛称に変更している(「新港埠頭保税倉庫」を「横浜赤レンガ倉庫」や「赤レンガ倉庫」などに変更している)確率が高いと考えられるためである。
また、上記した構成の第2実施形態においては、連続して誤認識が発生した場合において、ユーザーが連続して「同じ言葉」を言っていると判断したときに、車両の現在位置を外部の情報センター11に送り、情報センター11で別称データベース12を検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この別称の施設名称の一覧表を受信して車両の制御装置1で読み上げたり、車両の表示装置に表示したりするように構成した。このように構成した場合、別称の施設名称の一覧表が読み上げられたり表示されたりすると、別称と、音声認識装置のデータベース10に辞書登録されている正式名称との対応がわかるから、ユーザーが別称に対応する正式名称を選択して発声することが可能になる。これにより、ユーザーが発声した正式名称を音声認識して、正式名称と施設の位置情報(施設の地点情報)を取得することが可能になるから、誤認識が続くことを防止でき、ユーザーが音声認識装置の使用を諦めてしまったり、音声認識装置に対して悪い印象を持つことを防止できる。
尚、上記第2実施形態では、情報センター11を介して他者から情報を集めることで、車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この別称の施設名称を表示したり、読み上げたりするように構成したが、それだけではなく、以下のように構成してもよい。すなわち、取得した施設名称の一覧において、辞書登録されていない名称(別称)を音声データに変換し、登録されている正式名称データや施設位置と紐づけて、自動的にデータベース10の音声認識用の辞書に登録するようにしてもよい。このように構成すれば、ユーザーが別称を選択して発声すれば、その発声された別称を、上記受信した別称の施設名称の一覧表のデータやデータベース10の辞書に基づいて音声認識して、正式名称と施設の位置情報(施設の地点情報)を取得することが可能になる。
また、上記第2実施形態において、ユーザが入力した施設名称を音声入力したときに、その音声入力を音声認識し、データベース10の辞書を参照して合致する施設名称が存在するか否かを判断し、存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促す。そして、ユーザが再入力しても、音声入力した施設名称がデータベース10の辞書に存在しない場合には、前回入力と今回入力の音声入力データを比較し、それらがほぼ一致した場合には、車両の現在位置の情報を外部の情報センター11へ送信し、前記情報センター11において別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この取得した別称の施設名称の一覧表を受信してユーザーに提示(表示または音声出力)するように構成しても良い。この構成の場合、辞書登録されている名称と辞書登録されていない別称とを対にして表示することが好ましい。また、辞書登録されている名称と辞書登録されていない別称とを区別して(色や文字の大きさやフォントの種類等を変えて)表示することが良い。
図5および図6は、本発明の第3実施形態を示すものであり、第2実施形態と同一構成には同一符号を付している。この第3実施形態では、図5に示すように、カーナビゲーション装置2内に、ユーザー自身が作成した別称設定データベース22を設けるように構成した。具体的には、カーナビゲーション装置2内に設けられた検索器25は、自車位置の情報26に基づいて別称設定データベース22を検索し、自車位置周辺(例えば自車位置を中心として半径10〜20km程度の地域)に存在する施設の別称の一覧表(即ち、別称の施設名称の一覧表)を取得する。音声読み上げ器15は、検索器25により取得された別称の施設名称の一覧表を受け取って、これを自車位置に近い順に音声で読み上げてスピーカ5から音声出力(提示)する。この音声出力と共に、上記別称の施設名称の一覧表のデータは、カーナビゲーション装置2の表示装置に自車位置に近い順に表示(提示)されるようになっている。この場合、制御装置1およびカーナビゲーション装置2が内部別称提示手段としての機能を有する。
次に、上記第3実施形態の制御装置1の動作を、図6のフローチャートを参照して説明する。尚、第2実施形態の図3のフローチャートの処理と同じ処理については、同一のステップ番号を付している。この場合、ステップS10〜S110、S230、S120、S140については、第2実施形態の図4のフローチャートと同じであるから、それ以外の処理について主として説明する。
図6のステップS110において、2つの音声データ1、2の類似度が例えば95%以上であるときには、ユーザーが同じ施設の名称を繰り返し発声していると判断できるから、「YES」へ進み、ステップS310へ進む。このステップS310では、車両の現在位置(自車位置)の情報に基づいて別称設定データベース22を検索して別称の施設名称の一覧表のデータを取得する。続いて、ステップS230へ進み、これ以降の処理は第2実施形態と同じ処理を実行する。
尚、上述した以外の第3実施形態の構成は、第2実施形態の構成と同じ構成となっている。従って、第3実施形態においても、第2実施形態とほぼ同様な作用効果を得ることができる。
図7および図8は、本発明の第4実施形態を示すものであり、第2実施形態と同一構成には同一符号を付している。この第4実施形態では、連続して誤認識が発生した場合において、ユーザーが連続して「同じ言葉」を言っていると判断したときに、音声データを情報センター11へ送信して、情報センター11において再び音声認識処理を実行する。
具体的には、図7に示すように、特徴量比較器9は、連続して誤認識が発生した場合において、ユーザーが連続して「同じ言葉」を言っていると判断したときに、音声データを通信器14を介して情報センター11へ送信する。情報センター11には、センター音声認識部26と、音声認識用データベース27と、検索部28とが設けられている。センター音声認識部26は、車両の制御装置1から音声データを通信器24を介して受信すると、その受信した音声データについて音声認識用データベース27に基づいて音声認識処理を実行する。この場合、情報センター11の音声認識用データベース27は、車両の音声認識用のデータベース10に比べて巨大で認識性能が高いデータベースであるから、高精度に音声認識することが可能である。
そして、音声認識結果は、検索部28へ送られ、検索部28は、上記音声認識結果(即ち、施設等の名称(別称))に基づいて地図データベース18を検索し、音声認識結果の施設等の位置情報、即ち、緯度経度およびMAPコードの情報を取得する。更に、検索部28は、上記取得した緯度経度およびMAPコードの情報と、音声認識結果(施設等の名称)とを通信器24を介して車両の制御装置1へ送信する。車両の制御装置1は、情報センター11から上記取得した緯度経度およびMAPコードの情報と音声認識結果(施設等の名称)とを通信器14を介して受信すると、緯度経度およびMAPコードの情報で示される位置をカーナビゲーション装置2の表示装置に地図と一緒に表示する。そして、車両の制御装置1の音声読み上げ器15は、受信した音声認識結果(施設等の名称)を音声で読み上げてスピーカ5から音声出力すると共に、表示装置に表示された位置を目的地として設定して良いか否かのメッセージをスピーカ5から音声出力する。更に、ユーザーが、表示装置に表示された位置を目的地として設定して良いと応答すると、カーナビゲーション装置2は表示装置に表示された位置を目的地として設定するように構成されている。この場合、制御装置1およびカーナビゲーション装置2が外部位置情報提示手段としての機能を有する。
次に、上記第4実施形態の制御装置1の動作を、図8のフローチャートを参照して説明する。尚、第2実施形態の図4のフローチャートの処理と同じ処理については、同一のステップ番号を付している。この場合、ステップS10〜S110、S120、S140については、第2実施形態の図4のフローチャートと同じであるから、それ以外の処理について主として説明する。
図8のステップS110において、2つの音声データ1、2の類似度が例えば95%以上であるときには、ユーザーが同じ施設の名称を繰り返し発声していると判断できるから、「YES」へ進み、ステップS410へ進む。このステップS410では、音声データ(上記2つの音声データ1、2のいずれか一方)を情報センター11へ送信する。そして、情報センター11から緯度経度およびMAPコードの情報と音声認識結果(施設等の名称)とが送られてくるのを待つ。
情報センター11では、音声データの情報を受信すると、その受信した音声データについて音声認識用データベース27に基づいて再び音声認識処理を実行した後、この音声認識結果(即ち、施設等の名称(別称))に基づいて地図データベース18を検索し、音声認識結果の施設等の位置情報、即ち、緯度経度およびMAPコードの情報を取得し、さらに、上記取得した緯度経度およびMAPコードの情報と音声認識結果(施設等の名称)とを車両の制御装置1へ送信する。
続いて、ステップS420へ進み、車両の制御装置1は、情報センター11から送信された緯度経度およびMAPコードの情報と音声認識結果(施設等の名称)を受信(取得)する。そして、ステップS430へ進み、車両の制御装置1は、情報センター11から受信した緯度経度およびMAPコードの情報で示される位置をカーナビゲーション装置2の表示装置に地図と一緒に表示(提示)する。また、車両の制御装置1の音声読み上げ器15は、上記受信した音声認識結果(施設等の名称)を音声で読み上げてスピーカ5から音声出力(提示)すると共に、表示装置に表示された位置を目的地として設定して良いか否かのメッセージ(ガイダンス)をスピーカ5から音声出力する。
この後、ステップS440へ進み、ユーザーが、表示装置に表示された位置を目的地として設定して良いと応答したか否かを判断する。ここで、ユーザーが、表示装置に表示された位置を目的地として設定して良いと応答すると、「YES」へ進み、カーナビゲーション装置2は表示装置に表示された位置を目的地として設定し、ステップS40へ進む。これ以降の処理は、第1実施形態と同じである。
一方、ステップS440において、ユーザーが、表示装置に表示された位置を目的地として設定しないと応答すると、「NO」へ進み、ステップS120へ進み、施設の名称を入力する(発声する)ように促すガイダンスの音声をスピーカ5から出力する。この後は、ステップS140へ進み、音声認識を実行するものであり、これ以降の処理は、第1実施形態と同じである。尚、上述した以外の第4実施形態の構成は、第2実施形態の構成と同じ構成となっている。
上記した構成の第4実施形態においては、連続して誤認識が発生した場合において、ユーザーが連続して「同じ言葉」を言っていると判断したときに、音声データを外部の情報センター11に送り、情報センター11で音声認識用データベース27に基づいて再音声認識した後、音声認識結果(即ち、施設等の名称(別称))に基づいて地図データベース18を検索し、音声認識結果の施設等の位置情報、即ち、緯度経度およびMAPコードの情報を取得し、この緯度経度およびMAPコードの情報と音声認識結果(施設等の名称)を車両の制御装置1で受信して車両の表示装置に表示したり、読み上げたりするように構成した。この構成によれば、情報センター11で音声認識用データベース27に基づいて再音声認識した後、音声認識結果の施設等の位置情報、即ち、緯度経度およびMAPコードの情報を取得を取得して、目的地を設定することが可能になるから、誤認識が続くことを防止でき、ユーザーが音声認識装置の使用を諦めてしまったり、音声認識装置に対して悪い印象を持つことを防止できる。
図9および図10は、本発明の第5実施形態を示すものであり、第2実施形態と同一構成には同一符号を付している。この第5実施形態では、連続して誤認識が発生した場合において、ユーザーが連続して「同じ言葉」を言っていると判断したときに、音声データを文字列に変換し、変換した文字列のデータと自車位置の情報を情報センター11へ送信して、情報センター11において受信した文字列のデータと自車位置の情報とで別称データベース12を検索することにより車両の現在位置周辺に存在する類似別称の施設名称の一覧表を取得し、この類似別称の施設名称の一覧表を受信して車両の制御装置1で読み上げたり、車両の表示装置に表示したりするように構成している。
具体的には、図9に示すように、車両の制御装置1に文字列変換部29を設けた。この文字列変換部29は、連続して誤認識が発生した場合において、ユーザーが連続して「同じ言葉」を言っていると判断したときに、音声データを文字列(即ち、施設等の名称(別称)の文字列)に変換し、変換した文字列のデータを通信器14を介して情報センター11へ送信する。情報センター11の制御部17は、車両の制御装置1から送信された文字列のデータと自車位置の情報とを通信器16を介して受信し、この受信した文字列(即ち、施設等の名称(別称))と自車位置で別称データベース12を検索する。この場合、制御部17は、自車位置周辺(例えば自車位置を中心として半径10〜20km程度の地域)に存在する施設の別称の一覧表(即ち、別称の施設名称の一覧表)を抽出した後、この抽出した一覧表と受信した文字列(即ち、施設等の名称(別称))とを比較し、上記文字列に類似する別称(あいまい一致した別称の候補)の一覧表(即ち、類似別称の施設名称の一覧表)を作成する。そして、制御部17は、上記類似別称の施設名称の一覧表を通信器16を介して車両の制御装置1へ送信する。また、車両の制御装置1の音声読み上げ器15は、情報センター11から送信された上記類似別称の施設名称の一覧表を通信器14を介して受信し、この受信した類似別称の施設名称の一覧表を音声で読み上げてスピーカ5から音声出力(提示)する機能を有する。また、上記受信した類似別称の施設名称の一覧表のデータは、カーナビゲーション装置2へ送られ、表示装置に表示(提示)される。上記類似別称の施設名称の一覧表においては、類似別称と、辞書登録されている正式名称(および施設の位置情報)とが対応付けられており、両者が提示される。この構成の場合、制御装置1およびカーナビゲーション装置2が外部類似別称提示手段としての機能を有する。
次に、上記第5実施形態の制御装置1の動作を、図10のフローチャートを参照して説明する。尚、第2実施形態の図4のフローチャートの処理と同じ処理については、同一のステップ番号を付している。この場合、ステップS10〜S110、S120、S140については、第2実施形態の図4のフローチャートと同じであるから、それ以外の処理について主として説明する。
図10のステップS110において、2つの音声データ1、2の類似度が例えば95%以上であるときには、ユーザーが同じ施設の名称を繰り返し発声していると判断できるから、「YES」へ進み、ステップS510へ進む。このステップS510では、音声を変換した文字列と自車位置の情報を情報センター11へ送信する。
続いて、ステップS520へ進み、情報センター11においては、文字列のデータと自車位置の情報とを受信し、この受信した文字列(即ち、施設等の名称(別称))と自車位置とで別称データベース22を検索する。この場合、自車位置周辺(例えば自車位置を中心として半径10〜20km程度の地域)に存在する施設の別称の一覧表(即ち、別称の施設名称の一覧表)を抽出した後、この抽出した一覧表と受信した文字列(即ち、施設等の名称(別称))とを比較し、上記文字列に類似する別称(即ち、あいまい一致した別称の候補)の一覧表(即ち、類似別称の施設名称の一覧表)を作成する。そして、作成した類似別称の施設名称の一覧表を車両の制御装置1へ送信する。尚、上記送信された類似別称の施設名称の一覧表のデータにおいては、別称に正式名称と位置情報(施設の地点情報)が対応付けられて付属されている。
次いで、ステップS530へ進み、車両の制御装置1の音声読み上げ器15は、情報センター11から送信された類似別称の施設名称の一覧表のデータを受信(取得)する。そして、ステップS540へ進み、音声読み上げ器15は、受信した類似別称の施設名称の一覧表のデータを自車位置に近い順に並べ直した後、上記受信した類似別称の施設名称の一覧表のデータを自車位置に近い順に音声で読み上げてスピーカ5から音声出力(提示)する。この音声出力と共に、上記受信した類似別称の施設名称の一覧表のデータは、カーナビゲーション装置2へ送られ、該一覧表のデータを自車位置に近い順に並べ直した後、表示装置に自車位置に近い順に表示(提示)する。
そして、ステップS120へ進み、施設の名称を入力する(発声する)ように促すガイダンスの音声をスピーカ5から出力する。この後は、ステップS140へ進み、音声認識を実行するものであり、これ以降の処理は、第1実施形態と同じである。尚、上述した以外の第5実施形態の構成は、第2実施形態の構成と同じ構成となっている。
上記した構成の第5実施形態においては、連続して誤認識が発生した場合において、ユーザーが連続して「同じ言葉」を言っていると判断したときに、音声データを文字列に変換し、変換した文字列のデータと自車位置の情報を外部の情報センター11に送り、情報センター11で別称データベース12を検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この類似別称の施設名称の一覧表を受信して車両の制御装置1で読み上げたり、車両の表示装置に表示したりするように構成した。このように構成した場合、類似別称の施設名称の一覧表が読み上げられたり表示されたりすると、類似別称と、音声認識装置のデータベース10に辞書登録されている正式名称との対応がわかるから、ユーザーが類似別称に対応する正式名称を選択して発声することが可能になる。これにより、ユーザーが発声した正式名称を音声認識して、正式名称と施設の位置情報(施設の地点情報)とを取得することが可能になるから、誤認識が続くことを防止できる。
尚、上記第5実施形態では、情報センター11を介して他者から情報を集めることで、車両の現在位置周辺に存在する類似別称の施設名称の一覧表を取得し、この類似別称の施設名称を表示したり、読み上げたりするように構成したが、それだけではなく、以下のように構成してもよい。すなわち、取得した類似別称の施設名称の一覧において、辞書登録されていない名称(類似別称)を音声データに変換し、登録されている正式名称データや施設位置と紐づけて、自動的にデータベース10の音声認識用の辞書に登録するようにしてもよい。このように構成すれば、ユーザーが別称を選択して発声すれば、その発声された別称を、上記受信した類似別称の施設名称の一覧表のデータやデータベース10の辞書に基づいて音声認識して、正式名称と施設の位置情報(施設の地点情報)を取得することが可能になる。
また、上記第5実施形態では、車両の制御装置1において、類似別称の施設名称の一覧表のデータを、自車に近い順に並び替えるように構成したが、これに代えて、情報センター11において、類似別称の施設名称の一覧表のデータを、自車に近い順に並び替え、その後、並び替えた類似別称の施設名称の一覧表のデータを車両の制御装置1へ送信するように構成しても良い。
また、上記第5実施形態において、ユーザが入力した施設名称を音声入力すると、その音声入力を認識し、データベース10の辞書を参照して合致する施設名称が存在するか否かを判断し、存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促し、ユーザが再入力しても、音声入力した施設名称がデータベース10の辞書に存在しない場合には、前回入力と今回入力のデータを比較し、それらがほぼ一致した場合には、前記音声データを変換した文字列と車両の現在位置を外部の情報センター11へ送信し、情報センター11において前記文字列と車両の現在位置とで別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する類似別称の施設名称の一覧表を取得し、この取得した類似別称の施設名称の一覧表を受信してユーザーに提示するように構成しても良い。
図面中、1は制御装置、2はカーナビゲーション装置、4はマイクロフォン、5はスピーカ、6は音声認識部(音声認識手段)、7はキャンセル操作識別部、8は音声記憶部、9は特徴量比較部(比較手段、ガイダンス出力手段)、10はデータベース、11は情報センター、12は別称データベース、13は情報取得部、15は音声読み上げ器、17は制御部、18は地図データベース、20はパソコン/携帯、21はカーナビゲーション装置、22は別称設定データベース、23は制御部、25は検索器、26はセンター音声認識部、27は音声認識用データベース、28は検索部、29は文字列変換部を示す。

Claims (16)

  1. マイクロフォンを介して入力した音声信号をデジタル変換し、デジタル変換した音声データに基づいて音声認識する音声認識手段と、
    前記音声認識手段による音声認識結果が連続して誤認識であるとユーザーに指摘されたときに、今回入力された音声データと前回入力された音声データとを比較する比較手段と、
    前記比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、ユーザーが入力したい施設の名称の別の呼び方を話すようにユーザーに促す旨のガイダンスを出力するガイダンス出力手段とを備えてなる音声認識装置。
  2. 前記音声認識装置は、施設の名称を音声認識するための装置であり、
    施設名称が辞書登録されたデータベースを備え、
    ユーザが入力した施設名称を音声入力すると、その音声入力を認識し、前記データベースの辞書を参照して合致する施設名称が存在するか否かを判断し、
    存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促し、
    ユーザが再入力しても、音声入力した施設名称が前記データベースの辞書に存在しない場合には、前回入力と今回入力のデータを比較し、それらがほぼ一致した場合には、別の呼び方をするように促すことを特徴とする請求項1記載の音声認識装置。
  3. マイクロフォンを介して入力した音声信号をデジタル変換し、デジタル変換した音声データに基づいて音声認識する音声認識手段と、
    前記音声認識手段による音声認識結果が連続して誤認識であるとユーザーに指摘されたときに、今回入力された音声データと前回入力された音声データとを比較する比較手段と、
    前記比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、現在位置の近接地域に存在する施設の名称を一覧表にして表示装置に表示する手段とを備えてなる音声認識装置。
  4. 前記音声認識装置は、施設の名称を音声認識するための装置であり、
    施設名称が辞書登録されたデータベースを備え、
    ユーザが入力した施設名称を音声入力すると、その音声入力を認識し、前記データベースの辞書を参照して合致する施設名称が存在するか否かを判断し、
    存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促し、
    ユーザが再入力しても、音声入力した施設名称が前記データベースの辞書に存在しない場合には、前回入力と今回入力のデータを比較し、それらがほぼ一致した場合には、現在位置の近接地域に存在する施設の名称を一覧表にして表示装置に表示することを特徴とする請求項3記載の音声認識装置。
  5. 前記一覧表は、辞書登録されている施設名称を一覧にしたものであることを特徴とする請求項4記載の音声認識装置。
  6. マイクロフォンを介して入力した音声信号をデジタル変換し、デジタル変換した音声データに基づいて音声認識する音声認識手段と、
    前記音声認識手段による音声認識結果が連続して誤認識であるとユーザーに指摘されたときに、今回入力された音声データと前回入力された音声データとを比較する比較手段と、
    前記比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、インターネットを介して外部サーバに接続し、ユーザーが発声した音声の音声データの特徴量をキーにして検索を実行し、検索されたコンテンツを表示装置に表示する手段とを備えてなる音声認識装置。
  7. マイクロフォンを介して入力した音声信号をデジタル変換し、デジタル変換した音声データに基づいて音声認識する音声認識手段と、
    前記音声認識手段による音声認識結果が連続して誤認識であるとユーザーに指摘されたときに、今回入力された音声データと前回入力された音声データとを比較する比較手段と、
    前記比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、車両の現在位置の情報を外部の情報センターへ送信し、前記情報センターにおいて別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この取得した別称の施設名称の一覧表を受信してユーザーに提示する外部別称提示手段とを備えてなる音声認識装置。
  8. 前記音声認識装置は、施設の名称を音声認識するための装置であり、
    施設名称が辞書登録されたデータベースを備え、
    ユーザが入力した施設名称を音声入力すると、その音声入力を認識し、前記データベースの辞書を参照して合致する施設名称が存在するか否かを判断し、
    存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促し、
    ユーザが再入力しても、音声入力した施設名称が前記データベースの辞書に存在しない場合には、前回入力と今回入力のデータを比較し、それらがほぼ一致した場合には、車両の現在位置の情報を外部の情報センターへ送信し、前記情報センターにおいて別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この取得した別称の施設名称の一覧表を受信してユーザーに提示することを特徴とする請求項7記載の音声認識装置。
  9. 辞書登録されている名称と辞書登録されていない別称とを対にして表示することを特徴とする請求項8記載の音声認識装置。
  10. 辞書登録されている名称と辞書登録されていない別称とを区別して表示することを特徴とする請求項9記載の音声認識装置。
  11. 前記情報センターにおいて別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得する際には、他のユーザーが呼んでいる通称や愛称が含まれていることを特徴とする請求項8記載の音声認識装置。
  12. 前記他のユーザーは、車両の現在位置周辺を地元とするユーザーであることを特徴とする請求項11記載の音声認識装置。
  13. マイクロフォンを介して入力した音声信号をデジタル変換し、デジタル変換した音声データに基づいて音声認識する音声認識手段と、
    前記音声認識手段による音声認識結果が連続して誤認識であるとユーザーに指摘されたときに、今回入力された音声データと前回入力された音声データとを比較する比較手段と、
    別称のついた施設名称のデータベースと、
    前記比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、前記別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する別称の施設名称の一覧表を取得し、この取得した別称の施設名称の一覧表をユーザーに提示する内部別称提示手段とを備えてなる音声認識装置。
  14. マイクロフォンを介して入力した音声信号をデジタル変換し、デジタル変換した音声データに基づいて音声認識する音声認識手段と、
    前記音声認識手段による音声認識結果が連続して誤認識であるとユーザーに指摘されたときに、今回入力された音声データと前回入力された音声データとを比較する比較手段と、
    前記比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、前記音声データを外部の情報センターへ送信し、前記情報センターにおいて前記音声データの音声認識を実行し、音声認識結果の施設等の位置情報を取得し、この取得した位置情報を受信してユーザーに提示する外部位置情報提示手段とを備えてなる音声認識装置。
  15. マイクロフォンを介して入力した音声信号をデジタル変換し、デジタル変換した音声データに基づいて音声認識する音声認識手段と、
    前記音声認識手段による音声認識結果が連続して誤認識であるとユーザーに指摘されたときに、今回入力された音声データと前回入力された音声データとを比較する比較手段と、
    前記比較手段により今回入力された音声データと前回入力された音声データとがほぼ一致したと判断されたときに、前記音声データを変換した文字列と車両の現在位置を外部の情報センターへ送信し、前記情報センターにおいて前記文字列と車両の現在位置とで別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する類似別称の施設名称の一覧表を取得し、この取得した類似別称の施設名称の一覧表を受信してユーザーに提示する外部類似別称提示手段とを備えてなる音声認識装置。
  16. 前記音声認識装置は、施設の名称を音声認識するための装置であり、
    施設名称が辞書登録されたデータベースを備え、
    ユーザが入力した施設名称を音声入力すると、その音声入力を認識し、前記データベースの辞書を参照して合致する施設名称が存在するか否かを判断し、
    存在しない場合に、その旨をユーザに対して報知するとともに、ユーザの音声入力データを記憶し、再入力を促し、
    ユーザが再入力しても、音声入力した施設名称が前記データベースの辞書に存在しない場合には、前回入力と今回入力のデータを比較し、それらがほぼ一致した場合には、前記音声データを変換した文字列と車両の現在位置を外部の情報センターへ送信し、前記情報センターにおいて前記文字列と車両の現在位置とで別称のついた施設名称のデータベースを検索することにより車両の現在位置周辺に存在する類似別称の施設名称の一覧表を取得し、この取得した類似別称の施設名称の一覧表を受信してユーザーに提示することを特徴とする請求項15記載の音声認識装置。
JP2010238503A 2010-10-25 2010-10-25 音声認識装置 Expired - Fee Related JP5158174B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010238503A JP5158174B2 (ja) 2010-10-25 2010-10-25 音声認識装置
US13/272,568 US9087515B2 (en) 2010-10-25 2011-10-13 Determining navigation destination target in a situation of repeated speech recognition errors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010238503A JP5158174B2 (ja) 2010-10-25 2010-10-25 音声認識装置

Publications (2)

Publication Number Publication Date
JP2012093422A JP2012093422A (ja) 2012-05-17
JP5158174B2 true JP5158174B2 (ja) 2013-03-06

Family

ID=45973720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010238503A Expired - Fee Related JP5158174B2 (ja) 2010-10-25 2010-10-25 音声認識装置

Country Status (2)

Country Link
US (1) US9087515B2 (ja)
JP (1) JP5158174B2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103543979A (zh) * 2012-07-17 2014-01-29 联想(北京)有限公司 一种输出语音的方法、语音交互的方法及电子设备
KR102004884B1 (ko) * 2013-01-07 2019-07-29 삼성전자주식회사 전자 장치에서 움직이는 사진 제어 장치 및 방법
US20140359434A1 (en) * 2013-05-30 2014-12-04 Microsoft Corporation Providing out-of-dictionary indicators for shape writing
WO2015029296A1 (ja) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声認識方法及び音声認識装置
US9386148B2 (en) 2013-09-23 2016-07-05 Ooma, Inc. Identifying and filtering incoming telephone calls to enhance privacy
US9633547B2 (en) 2014-05-20 2017-04-25 Ooma, Inc. Security monitoring and control
US10769931B2 (en) 2014-05-20 2020-09-08 Ooma, Inc. Network jamming detection and remediation
US10553098B2 (en) 2014-05-20 2020-02-04 Ooma, Inc. Appliance device integration with alarm systems
US11330100B2 (en) 2014-07-09 2022-05-10 Ooma, Inc. Server based intelligent personal assistant services
KR101572932B1 (ko) * 2014-07-11 2015-11-30 현대자동차주식회사 음성 인식 기능이 탑재된 차량에서의 발신 통화 제어 방법 및 장치
KR101566254B1 (ko) * 2014-09-22 2015-11-05 엠앤서비스 주식회사 경로 안내를 위한 음성인식 지원 장치 및 방법, 그리고 시스템
JP6444128B2 (ja) * 2014-10-10 2018-12-26 クラリオン株式会社 検索システム
KR20160045353A (ko) 2014-10-17 2016-04-27 현대자동차주식회사 에이브이엔 장치, 차량, 및 에이브이엔 장치의 제어방법
KR101595090B1 (ko) * 2015-04-30 2016-02-17 주식회사 아마다스 음성 인식을 이용한 정보 검색 방법 및 장치
US11171875B2 (en) 2015-05-08 2021-11-09 Ooma, Inc. Systems and methods of communications network failure detection and remediation utilizing link probes
US10009286B2 (en) 2015-05-08 2018-06-26 Ooma, Inc. Communications hub
US10911368B2 (en) 2015-05-08 2021-02-02 Ooma, Inc. Gateway address spoofing for alternate network utilization
US10771396B2 (en) 2015-05-08 2020-09-08 Ooma, Inc. Communications network failure detection and remediation
JP2016104571A (ja) * 2016-01-20 2016-06-09 坂東機工株式会社 炭化珪素板のスクライブ方法及びスクライブ装置
JP6724511B2 (ja) * 2016-04-12 2020-07-15 富士通株式会社 音声認識装置、音声認識方法および音声認識プログラム
WO2018061824A1 (ja) * 2016-09-29 2018-04-05 日本電気株式会社 情報処理装置、情報処理方法およびプログラム記録媒体
KR102632026B1 (ko) * 2017-02-02 2024-01-31 가부시키가이샤 디에스아이 지시서 발행 시스템, 지시서 발행 방법 및 프로그램
JP7122710B2 (ja) * 2017-02-02 2022-08-22 株式会社DSi 指示書発行システム、指示書発行方法及びプログラム
JP2018124868A (ja) * 2017-02-02 2018-08-09 株式会社DSi 指示書発行システム、指示書発行方法及びプログラム
KR102053235B1 (ko) * 2017-12-27 2019-12-06 서울대학교산학협력단 사용자 참여형 위치 식별 방법
US10984795B2 (en) 2018-04-12 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and operation method thereof
CN108510981B (zh) * 2018-04-12 2020-07-24 三星电子(中国)研发中心 语音数据的获取方法和系统
US20210165540A1 (en) * 2018-07-18 2021-06-03 Sony Corporation Information processing device, information processing method, and program
US10657968B1 (en) * 2018-11-19 2020-05-19 Google Llc Controlling device output according to a determined condition of a user
CN111742364A (zh) * 2018-12-14 2020-10-02 谷歌有限责任公司 用于联网系统的基于语音的接口
CN110619873A (zh) * 2019-08-16 2019-12-27 北京小米移动软件有限公司 音频处理方法、装置及存储介质
CN110942772B (zh) * 2019-11-21 2022-11-25 新华三大数据技术有限公司 一种语音样本收集方法及装置
WO2023079875A1 (ja) * 2021-11-04 2023-05-11 株式会社Nttドコモ 情報処理装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58152298A (ja) 1982-03-04 1983-09-09 三菱電機株式会社 音声入力制御装置
US5712957A (en) * 1995-09-08 1998-01-27 Carnegie Mellon University Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists
US6067521A (en) 1995-10-16 2000-05-23 Sony Corporation Interrupt correction of speech recognition for a navigation device
JPH11109989A (ja) * 1997-10-02 1999-04-23 Toyota Motor Corp 音声認識装置
US6195635B1 (en) * 1998-08-13 2001-02-27 Dragon Systems, Inc. User-cued speech recognition
DE60033733T2 (de) * 1999-05-31 2007-12-06 Nippon Telegraph And Telephone Corp. Datenbankabfragesystem basierend auf Spracherkennung
CN1207664C (zh) * 1999-07-27 2005-06-22 国际商业机器公司 对语音识别结果中的错误进行校正的方法和语音识别系统
US6542814B2 (en) * 2001-03-07 2003-04-01 Horizon Navigation, Inc. Methods and apparatus for dynamic point of interest display
JP4604377B2 (ja) 2001-03-27 2011-01-05 株式会社デンソー 音声認識装置
JP4884599B2 (ja) 2001-05-14 2012-02-29 クラリオン株式会社 ナビゲーション装置及び方法並びにナビゲーション用ソフトウェア
JP2003091299A (ja) * 2001-07-13 2003-03-28 Honda Motor Co Ltd 車載用音声認識装置
JP2003131695A (ja) 2001-10-25 2003-05-09 Hitachi Ltd 音声認識機器、音声認識機器制御装置、及び音声認識機器制御方法
JP3762327B2 (ja) * 2002-04-24 2006-04-05 株式会社東芝 音声認識方法および音声認識装置および音声認識プログラム
EP1575031A3 (en) * 2002-05-15 2010-08-11 Pioneer Corporation Voice recognition apparatus
JP3724461B2 (ja) * 2002-07-25 2005-12-07 株式会社デンソー 音声制御装置
US7386454B2 (en) * 2002-07-31 2008-06-10 International Business Machines Corporation Natural error handling in speech recognition
US8019602B2 (en) * 2004-01-20 2011-09-13 Microsoft Corporation Automatic speech recognition learning using user corrections
JP2006178898A (ja) 2004-12-24 2006-07-06 Mitsubishi Electric Corp 地点検索装置
US20060293889A1 (en) * 2005-06-27 2006-12-28 Nokia Corporation Error correction for speech recognition systems
US8756058B2 (en) * 2006-02-23 2014-06-17 Nec Corporation Speech recognition system, speech recognition result output method, and speech recognition result output program
US7756710B2 (en) * 2006-07-13 2010-07-13 Sri International Method and apparatus for error correction in speech recognition applications
US8055502B2 (en) * 2006-11-28 2011-11-08 General Motors Llc Voice dialing using a rejection reference
US8140330B2 (en) * 2008-06-13 2012-03-20 Robert Bosch Gmbh System and method for detecting repeated patterns in dialog systems
US8965765B2 (en) * 2008-09-19 2015-02-24 Microsoft Corporation Structured models of repetition for speech recognition
JP5173895B2 (ja) * 2009-03-09 2013-04-03 トヨタ自動車株式会社 音声認識装置

Also Published As

Publication number Publication date
US20120101821A1 (en) 2012-04-26
JP2012093422A (ja) 2012-05-17
US9087515B2 (en) 2015-07-21

Similar Documents

Publication Publication Date Title
JP5158174B2 (ja) 音声認識装置
JP3990075B2 (ja) 音声認識支援方法及び音声認識システム
EP2560158B1 (en) Operating system and method of operating
JP5334178B2 (ja) 音声認識装置およびデータ更新方法
JP5968578B2 (ja) ユーザインターフェースシステム、ユーザインターフェース制御装置、ユーザインターフェース制御方法およびユーザインターフェース制御プログラム
JP6540414B2 (ja) 音声処理装置および音声処理方法
JP4684739B2 (ja) 音声処理装置
EP2518447A1 (en) System and method for fixing user input mistakes in an in-vehicle electronic device
JP3948441B2 (ja) 音声認識方法及び、車載装置
KR20190041569A (ko) 대화 시스템, 이를 포함하는 차량 및 대화 서비스 처리 방법
US8374868B2 (en) Method of recognizing speech
KR20200098079A (ko) 대화 시스템 및 대화 처리 방법
KR20180075009A (ko) 음성 처리 장치, 이를 포함하는 차량 및 음성 처리 방법
US20180052658A1 (en) Information processing device and information processing method
JP2022071159A (ja) 情報処理装置
JP2012168349A (ja) 音声認識システムおよびこれを用いた検索システム
WO2000010160A1 (fr) Dispositif et procede de reconnaissance vocale, dispositif de navigation, telephone portable et processeur d'informations
JP6477648B2 (ja) キーワード生成装置およびキーワード生成方法
JP3726783B2 (ja) 音声認識装置
JP2005275228A (ja) ナビゲーション装置
CN111199738B (zh) 语音识别装置、语音识别方法以及语音识别程序
JP2000122685A (ja) ナビゲーションシステム
KR20190037470A (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
US10832675B2 (en) Speech recognition system with interactive spelling function
JP2005227369A (ja) 音声認識装置および方法と車載ナビゲーション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R151 Written notification of patent or utility model registration

Ref document number: 5158174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees