JP2005031260A - 情報処理方法及び装置 - Google Patents
情報処理方法及び装置 Download PDFInfo
- Publication number
- JP2005031260A JP2005031260A JP2003194544A JP2003194544A JP2005031260A JP 2005031260 A JP2005031260 A JP 2005031260A JP 2003194544 A JP2003194544 A JP 2003194544A JP 2003194544 A JP2003194544 A JP 2003194544A JP 2005031260 A JP2005031260 A JP 2005031260A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- information
- point
- destination
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】目的地の大まかな位置をタッチパネル上で指定して目的地名等を音声入力するだけで、目的地周辺の地名や施設等に関する認識対象を絞り込むことができる情報処理方法及び装置を提供する。
【解決手段】地図データ記憶部8に記憶された地図データの一部が表示されたタッチパネル式ディスプレイ1上で指定された目的地付近の位置情報を取得し、その近傍に位置する認識対象となる場所名の音声情報を取得する。それと同時に、マイク6を介して入力された目的地名に関する音声情報を取得する。そして、音声認識部5によって、目的地名の音声情報と前記認識対象の場所名の音声情報との音声認識を行って認識結果を認識尤度として出力して、音声認識の結果に基づいて目的地に関する位置情報を取得する。
【選択図】 図1
【解決手段】地図データ記憶部8に記憶された地図データの一部が表示されたタッチパネル式ディスプレイ1上で指定された目的地付近の位置情報を取得し、その近傍に位置する認識対象となる場所名の音声情報を取得する。それと同時に、マイク6を介して入力された目的地名に関する音声情報を取得する。そして、音声認識部5によって、目的地名の音声情報と前記認識対象の場所名の音声情報との音声認識を行って認識結果を認識尤度として出力して、音声認識の結果に基づいて目的地に関する位置情報を取得する。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、入力音声情報と地図情報とに基づいて認識対象語彙を限定する情報処理技術に関する。
【0002】
【従来の技術】
従来のナビゲーション装置では、経路設定部により所定の目的地に至るまでに経由する経路が設定されると、設定された経路に対応するデータが設定経路メモリに供給されて記憶される。そこで、認識対象語彙選択部は、設定経路メモリに記憶された経路に基づいて、その経路の周辺の地図上に含まれる地名を、大規模地名辞書に記憶された地名の中から選択し、読み出して認識対象語彙メモリに供給する。そして、認識対象語彙メモリは、認識対象語彙選択部より供給された地名を記憶し、音声認識部は、所定の音声を認識対象語彙メモリに記憶された語彙に基づいて認識して、認識対象語彙を限定することにより、音声認識の性能を高めるという方法がある(例えば、特許文献1参照)。
【0003】
また、音声認識部における認識対象語を予め設定された車両走行経路もしくは現在の車両走行状態から予測される車両走行域のみに関連する地名情報に限定して決定する認識対象語決定部を設けることにより、認識対象語彙数を最小限に抑制して、処理速度の低下を防止し、かつ音声認識率を高めている方法もある(例えば、特許文献2参照)。
【0004】
また従来、音声認識において、ボタンを押下しながら発声して音声区間を検出する方法もあった。
【0005】
【特許文献1】
特開平08−202386号公報
【特許文献2】
特開平09−042987号公報
【0006】
【発明が解決しようとする課題】
しかしながら、上記特許文献に記載の方法では、設定された経路付近の地名を認識語彙として絞り込むことはできるが、地図内に表示されている任意地点の近傍の地名を認識語彙として絞り込むことはできなかった。従って、ユーザが目的地のおおまかな位置を知っているだけでは、その位置から目的地等を絞り込むことは非常に困難であった。また、上記認識語彙の絞り込みと音声区間の検出とを一つの操作で同時に行うことはできなかった。
【0007】
本発明は、このような事情を考慮してなされたものであり、目的地の大まかな位置をタッチパネル上で指定して目的地名等を音声入力するだけで、目的地周辺の地名や施設等に関する認識対象を絞り込むことができる情報処理方法及び装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決するため、本発明に係る情報処理方法は、地図データの一部が表示されたタッチパネル上で指定された第1地点の位置情報を取得する地点取得工程と、
前記第1地点の近傍に位置する1又は複数の第2地点に関する音声情報を前記地図データに基づいて取得する対象取得工程と、
目的地に関する音声情報を取得する音声取得工程と、
前記目的地に関する音声情報と前記第2地点に関する音声情報との音声認識を行う音声認識工程と、
前記音声認識の結果に基づいて前記第2地点に関する位置情報の中から前記目的地に関する位置情報を取得する位置取得工程とを有することを特徴とする。
【0009】
また、本発明に係る情報処理装置は、地図データを記憶する記憶手段と、
前記地図データの一部を表示するタッチパネルと、
前記タッチパネル上で指定された第1地点の位置情報を取得する地点取得手段と、
前記第1地点の近傍に位置する1又は複数の第2地点の地名の音声情報を前記地図データに基づいて取得する対象取得手段と、
目的地名の音声情報を取得する音声取得手段と、
前記目的地名の音声情報と前記第2地点の地名の音声情報との音声認識を行う音声認識手段と、
前記音声認識の結果に基づいて前記第2地点に関する位置情報の中から前記目的地に関する位置情報を取得する位置取得手段とを備えることを特徴とする。
【0010】
【発明の実施の形態】
以下、図面を参照して、本発明の好適な実施形態について説明する。
【0011】
<第1の実施形態>
図1は、本発明の第1の実施形態に係るナビゲーション装置の構成を示すブロック図である。図1に示すように、本実施形態に係るナビゲーション装置は、タッチパネル式ディスプレイ1、CPU2、ROM3、RAM4、音声認識部5、マイク6、現在位置検出部7及び地図データ記憶部8を備えている。図1において、音声認識部5は、既存の音声認識方法等を用いてマイク6で入力されたユーザ等の音声を認識する。現在位置検出部7は、GPS等を用いて本ナビゲーション装置の現在位置を検出する。また、地図データ記憶部8は、ハードディスクに地図データが記憶されているもの、或いは、着脱可能なCD−ROM等の記録媒体に記録された地図データを挿入・着脱等して用いるものであってもよい。
【0012】
図2は、図1に示した本実施形態に係るナビゲーション装置についてのユーザ操作に基づくナビゲーション動作の手順を説明するためのフローチャートである。尚、以下で説明する各処理を行うプログラムは、図1のナビゲーション装置のROM3内に記憶されており、CPU2で実行される。また、ユーザは目的地のおおよその位置を知っているものとする。
【0013】
まず、ユーザは、目的地のおおよその位置を知っているので、地図データ記憶部8に記憶されている地図データの一部が表示されたタッチパネル式ディスプレイ1上の目的地付近の任意の場所を指等で触れる(ステップS101)。図3は、ユーザがタッチパネル式ディスプレイ1上の任意の場所に触れたときの認識語彙の絞込みを説明するための概要図である。例えば、図3(a)に示すように、タッチパネル式ディスプレイ1上の符号Aで示す部分にユーザの指が触れたとする。このとき、ユーザが触れた位置Aの近傍(例えば、半径5km以内)の地名を地図データ記憶部8から取り出して認識語彙とする。例えば、図3(b)に示すように、「新横浜(しんよこはま)」、「菊名(きくな)」、「妙蓮寺(みょうれんじ)」及び「富士塚(ふじづか)」が認識対象語彙として選択されたとする。尚、図3(a)に示すように、これらの4つの地名は図3(a)の縮尺の地図には表示されていない地名である。この際、後述するステップS107における音声認識において用いられるこれらの地名に関する音声情報が地図データ記憶部8から取得され、RAM4に記録される。また、認識対象語彙とされた上記場所に関する位置情報については、音声情報と同時に地図データ記憶部8から取得してRAM4に記録してもよいし、後述する音声認識結果に基づいて決定された目的地だけの位置情報を認識処理後に取得してもよい。
【0014】
次に、ステップS101でユーザがタッチパネル式ディスプレイ1上に指等を触れた状態で目的地に関する音声を録音する、すなわち、音声切出しを開始する(ステップS103)。そこで、ユーザが目的地を発声する(ステップS104)。例えば、「きくな」と発声する。この音声データはマイク6から入力されてRAM4に記録される。そして、ユーザが画面から指を離したか否かが判定される(ステップS105)。その結果、ユーザが画面から指を離したと判定された場合(Yes)、音声の録音を終了する、すなわち、音声の切出しを終了する(ステップS106)。
【0015】
次いで、ステップS102で認識対象語彙とされ、RAM4に記録されている「しんよこはま」、「みょうれんじ」、「きくな」及び「ふじづか」の地名に関する音声情報と、RAM4に録音された入力音声データ(すなわち、ステップS104でユーザが発声した「きくな」の音声データ)とを音声認識して、その結果をユーザに提示する(ステップS107)。この音声認識処理は、上述のように既知の方法を用いればよい。
【0016】
その後、本ナビゲーション装置では、例えば、最大の音声認識率であった認識対象語彙である場所を目的地と決定し、現在地から当該目的地までのナビゲーション等を開始することができる。
【0017】
上述したように、ユーザが目的地のおおまかな位置を知っていれば、タッチパネル式ディスプレイに表示された地図の目的地付近に触れてその近傍の地名や施設名に認識語彙を絞り込むことができる。また、地図に触れるという一つの操作で、同時に音声の切出しも行うことによって、認識語彙の絞込みと音声区間の切出しを極めて容易に行うことができる。
【0018】
<第2の実施形態>
次に、本発明の第2の実施形態に係るナビゲーション装置について説明する。
本実施形態に係るナビゲーション装置の構成は前述した第1の実施形態と同様であるため省略する。ここで、第2の実施形態に係るナビゲーション装置の動作及びユーザの操作について図2のフローチャートを参照して説明する。
【0019】
まず、ユーザは、図3(a)に示すような地図が表示されたタッチパネル式ディスプレイ1に触れる(ステップS101)。次に、ユーザが指等で触れた位置の近傍(例えば、半径5km以内)の地名を取り出し認識対象語彙とする(ステップS102)。本実施形態では、「こづくえ」、「しんよこはま」、「おおくらやま」、「つなしま」、「みょうれんじ」、「きくな」及び「おおぐち」が認識語彙となったとする。尚、これらの地名は図3(a)の縮尺の地図には表示されていないものである。また、この際、認識対象語彙とされた上記場所に関する位置情報についても同時に地図データ記憶部8から取得してRAM4に記録しておく。
【0020】
そして、音声の録音を開始する(ステップS103)。そこで、ユーザが目的地を発声する(ステップS104)。例えば、ユーザが「おおくらやま」と発声したとすると、その音声データがマイク6から入力されてRAM4に記録される。そして、ユーザが画面から指を離したと判定された場合(ステップS105でYesの場合)、音声の録音を終了する(ステップS106)。
【0021】
次いで、ナビゲーション装置では、ステップS102で認識対象語彙とされた「こづくえ」、「しんよこはま」、「おおくらやま」、「つなしま」、「みょうれんじ」、「きくな」、「ふじづか」及び「おおぐち」の地名に関する音声情報を用いて、RAM4に録音されたユーザの入力音声データ(例えば、「おおくらやま」)と比較することによって音声認識を行う(ステップS107)。
【0022】
図4は、本発明の第2の実施形態に係るナビゲーション装置におけるタッチパネルでの接触位置に基づく重み付けの一例を示す図である。図4に示すように、本実施形態では、音声認識の際に、ユーザが触れた位置から遠い場所になればなるほど音声認識率P(X)にかかる重み付けW(X)が徐々に小さくなるような重み付けを行う。
【0023】
まず、ステップS106で録音した音声によるステップS102で求めた認識対象語彙との音声認識率P(X)が、P(こづくえ)=0.1、P(しんよこはま)=0.1、P(おおくらやま)=0.7、P(つなしま)=0.1、P(みょうれんじ)=0.1、P(きくな)=0.1、P(おおぐち)=0.8、であったとする。そして、接触位置による重みW(X)を求める。例えば、ユーザが触れた位置から認識対象語彙の位置情報を用いて距離を算出する。例えば、その距離に基づいたそれぞれの重みが、W(こづくえ)=0.5、W(しんよこはま)=0.8、W(おおくらやま)=0.7、W(つなしま)=0.5、W(みょうれんじ)=0.7、W(きくな)=0.9、W(おおぐち)=0.5、であったとする。
【0024】
ここで、本実施形態では、最終候補として、P(X)とW(X)の積が最大になるXを取り出す。例えば、上記例では、X=「おおくらやま」が最大となる。
【0025】
上述したように、本実施形態によれば、接触位置に近く、かつ音声認識率の高い単語が選択される。
【0026】
<第3の実施形態>
次に、本発明の第3の実施形態に係るナビゲーション装置について説明する。本実施形態では、ユーザの触れた範囲に所定の認識率(認識尤度)以上の認識対象語彙の場所がなければ、所定の認識率以上の認識対象語彙の場所が現れるまで「近傍」とする地図上の範囲を順次広げていくという処理が行われる。本実施形態に係るナビゲーション装置の構成は前述した第1の実施形態と同様であるため省略する。図5は、本発明の第3の実施形態に係るナビゲーション装置の動作及びユーザの操作を説明するためのフローチャートである。
【0027】
以下、図5に示すフローチャートに従って、本実施形態におけるナビゲーション装置の動作およびユーザの操作について説明する。まず、ユーザは図3(a)に示すような地図が表示されたタッチパネル式ディスプレイ1に触れる(ステップS101)。次いで、図3(b)に示すように、ユーザが触れた位置の近傍(例えば、半径5km以内)の地名を取り出し認識語彙とする(ステップS102)。ここでは、図3(b)に示すように、「しんよこはま」、「みょうれんじ」、「きくな」及び「ふじづか」が認識語彙となったとする。
【0028】
そして、音声の録音を開始する(ステップS103)。そこで、ユーザが目的地を発声し、その音声データをマイク6で入力してRAM4に記録される(ステップS104)。例えば、ユーザが「よこはま」と発声したとする。ここで、ユーザが画面から指を離したと判定された場合(ステップS105でYesの場合)、音声の録音を終了する(ステップS106)。そして、ステップS102で認識語彙とされた「しんよこはま」、「みょうれんじ」、「きくな」及び「ふじづか」に関する音声情報を用いて、RAM4に録音されたユーザの入力音声データ「よこはま」を音声認識する(ステップS107)。その結果、本実施形態では、音声認識率P(X)として、P(しんよこはま)=0.5、P(みょうれんじ)=0.2、P(きくな)=0.3、P(ふじづか)=0.1が得られたとする。
【0029】
次いで、音声認識率P(X)の中に所定値(例えば、0.7)以上のものが存在するかどうかを判定する(ステップS108)。その結果、所定値以上の音声認識率P(X)が存在しない場合(No)、ユーザが触れた位置の近傍を広げて(例えば、半径7.5km以内に拡大)、その範囲から地名を取り出して認識対象語彙とする(ステップS109)。ここでは、「しんよこはま」、「みょうれんじ」、「きくな」、「ふじづか」、「こづくえ」、「おおくらやま」、「よこはま」、「ひがしかながわ」及び「つるみ」が認識対象語彙となったとする。再びこれらを認識語彙として、ステップS107において、RAM4に録音されたデータを音声認識する。音声認識の結果P(X)に所定の値を超えるものが存在すれば、その中でP(X)が最大になるXを認識結果とする。
【0030】
上述したように、本実施形態によれば、ユーザが触れた位置から離れるに従って音声認識率にかける重みを徐々に小さくしていくことによって、接触位置に近く、かつ音声認識率の高い単語が優先して選択される。すなわち、一定の音声認識率以下の単語が選択されることを防いで対象を拡大して再認識処理がされるので、接触位置に近い場所であっても音声認識率の極端に低い単語が選択されることを防止でき、より正確な目的地を選択することができる。
【0031】
<第4の実施形態>
次に、本発明の第4の実施形態に係るナビゲーション装置について説明する。本実施形態では、ユーザが画面に触れてジャンル名、例えば「駐車場(ちゅうしゃじょう)」、「駅(えき)」等の音声を発声した場合、そのジャンルに属する施設等の中でユーザが触れた近傍のものの位置や名称等を地図上に表示するという処理が行われる。本実施形態に係るナビゲーション装置の構成は前述した第1の実施形態と同様であるため省略する。図6は、本発明の第4の実施形態に係るナビゲーション装置の動作及びユーザの操作を説明するためのフローチャートである。
【0032】
以下、図6に示すフローチャートに従って、本実施形態におけるナビゲーション装置の動作およびユーザの操作について説明する。まず、図7(a)に示すように、ユーザは地図が表示されたタッチパネル式ディスプレイ1上の任意の場所、例えば図7(a)の符号Aで示される場所、に触れる(ステップS201)。ここで、図7は、ユーザがタッチパネル式ディスプレイ1上の任意の場所に触れてジャンル名を発声したときのディスプレイ表示の変化例を説明するための概要図である。次いで、音声の録音を開始する(ステップS202)。ここで、ユーザが目的地のジャンル名を発声し、当該音声デーをRAM4に記録する(ステップS203)。例えば、図7(b)に示すように「ちゅうしゃじょう」と発声したとする。
【0033】
そして、ユーザが画面から指を離したと判定された場合(ステップS204でYesの場合)、音声の録音を終了する(ステップS205)。そして、ユーザの発声を音声認識する(ステップS206)。ここでは、「ちゅうしゃじょう」を認識し、地図データ記憶部8に記憶されている駐車場データの中から、ユーザが指定した「A」で示される場所近傍の駐車場を検索する。そして、検索された駐車場について、その位置情報に基づいて図7(c)に示すように、ユーザが触れた近傍にある「駐車場」を所定のマーク等で表示する(ステップS207)。この処理は、図1における地図データ記憶部8に記憶されている地図データに、駐車場の位置データ等を記憶しておくことによって、ユーザが指定した位置とそれらの駐車場の位置データとを比較して、例えばそれらの間の距離等に基づいて表示させる駐車場に関するデータを選択するようにすればよい。
【0034】
上述したように、本実施形態によれば、ユーザはタッチパネルに表示された地図上で所望の位置に触れながら所望のジャンル名を発声し、そのジャンルの施設のうちユーザが触れた近傍にあるものの名称等を取り出して地図上に表示させることができる。その際、地図上の位置の選択と音声区間の切出しとを、地図に触れるという一つの操作によって同時に行うことができる。
【0035】
すなわち、縮尺等のためにディスプレイに表示された地図上にない施設等であっても、ユーザが検索したい場所を地図に触れながら、その施設等のジャンル名を発声することによって容易に検索することができる。
【0036】
<第5の実施形態>
上述した第1から第4の実施形態では、タッチパネル上に表示された地図に触れて所望の位置を指定しているが、地図上の領域を指でなぞったり、指で閉領域を描いたりして領域を指定しても良い。
【0037】
<第6の実施形態>
上記実施形態ではタッチパネル上に表示された地図に触れている間に音声切り出しを行っているが、地図に触れている間だけでなく、地図に触れる前の所定時間(例えば、数秒間)、或いは、地図に触れた後の所定時間(例えば、数秒間)に音声切り出しを行うようにしてもよい。
【0038】
<その他の実施形態>
尚、本発明は、複数の機器(例えば、コンピュータ、インタフェース機器等)から構成されるシステムに適用してもよい。
【0039】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(又は記憶媒体)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0040】
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0041】
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0042】
【発明の効果】
以上説明したように、本発明によれば、目的地の大まかな位置をタッチパネル上で指定して目的地名等を音声入力するだけで、目的地周辺の地名や施設等に関する認識対象を絞り込むことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係るナビゲーション装置の構成を示すブロック図である。
【図2】図1に示した本実施形態に係るナビゲーション装置についてのユーザ操作に基づくナビゲーション動作の手順を説明するためのフローチャートである。
【図3】ユーザがタッチパネル式ディスプレイ1上の任意の場所に触れたときの認識語彙の絞込みを説明するための概要図である。
【図4】本発明の第2の実施形態に係るナビゲーション装置におけるタッチパネルでの接触位置に基づく重み付けの一例を示す図である。
【図5】本発明の第3の実施形態に係るナビゲーション装置の動作及びユーザの操作を説明するためのフローチャートである。
【図6】本発明の第4の実施形態に係るナビゲーション装置の動作及びユーザの操作を説明するためのフローチャートである。
【図7】ユーザがタッチパネル式ディスプレイ1上の任意の場所に触れてジャンル名を発声したときのディスプレイ表示の変化例を説明するための概要図である。
【符号の説明】
1 タッチパネル式ディスプレイ
2 CPU
3 ROM
4 RAM
5 音声認識部
6 マイク
7 現在位置検出部
8 地図データ記憶部
【発明の属する技術分野】
本発明は、入力音声情報と地図情報とに基づいて認識対象語彙を限定する情報処理技術に関する。
【0002】
【従来の技術】
従来のナビゲーション装置では、経路設定部により所定の目的地に至るまでに経由する経路が設定されると、設定された経路に対応するデータが設定経路メモリに供給されて記憶される。そこで、認識対象語彙選択部は、設定経路メモリに記憶された経路に基づいて、その経路の周辺の地図上に含まれる地名を、大規模地名辞書に記憶された地名の中から選択し、読み出して認識対象語彙メモリに供給する。そして、認識対象語彙メモリは、認識対象語彙選択部より供給された地名を記憶し、音声認識部は、所定の音声を認識対象語彙メモリに記憶された語彙に基づいて認識して、認識対象語彙を限定することにより、音声認識の性能を高めるという方法がある(例えば、特許文献1参照)。
【0003】
また、音声認識部における認識対象語を予め設定された車両走行経路もしくは現在の車両走行状態から予測される車両走行域のみに関連する地名情報に限定して決定する認識対象語決定部を設けることにより、認識対象語彙数を最小限に抑制して、処理速度の低下を防止し、かつ音声認識率を高めている方法もある(例えば、特許文献2参照)。
【0004】
また従来、音声認識において、ボタンを押下しながら発声して音声区間を検出する方法もあった。
【0005】
【特許文献1】
特開平08−202386号公報
【特許文献2】
特開平09−042987号公報
【0006】
【発明が解決しようとする課題】
しかしながら、上記特許文献に記載の方法では、設定された経路付近の地名を認識語彙として絞り込むことはできるが、地図内に表示されている任意地点の近傍の地名を認識語彙として絞り込むことはできなかった。従って、ユーザが目的地のおおまかな位置を知っているだけでは、その位置から目的地等を絞り込むことは非常に困難であった。また、上記認識語彙の絞り込みと音声区間の検出とを一つの操作で同時に行うことはできなかった。
【0007】
本発明は、このような事情を考慮してなされたものであり、目的地の大まかな位置をタッチパネル上で指定して目的地名等を音声入力するだけで、目的地周辺の地名や施設等に関する認識対象を絞り込むことができる情報処理方法及び装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記課題を解決するため、本発明に係る情報処理方法は、地図データの一部が表示されたタッチパネル上で指定された第1地点の位置情報を取得する地点取得工程と、
前記第1地点の近傍に位置する1又は複数の第2地点に関する音声情報を前記地図データに基づいて取得する対象取得工程と、
目的地に関する音声情報を取得する音声取得工程と、
前記目的地に関する音声情報と前記第2地点に関する音声情報との音声認識を行う音声認識工程と、
前記音声認識の結果に基づいて前記第2地点に関する位置情報の中から前記目的地に関する位置情報を取得する位置取得工程とを有することを特徴とする。
【0009】
また、本発明に係る情報処理装置は、地図データを記憶する記憶手段と、
前記地図データの一部を表示するタッチパネルと、
前記タッチパネル上で指定された第1地点の位置情報を取得する地点取得手段と、
前記第1地点の近傍に位置する1又は複数の第2地点の地名の音声情報を前記地図データに基づいて取得する対象取得手段と、
目的地名の音声情報を取得する音声取得手段と、
前記目的地名の音声情報と前記第2地点の地名の音声情報との音声認識を行う音声認識手段と、
前記音声認識の結果に基づいて前記第2地点に関する位置情報の中から前記目的地に関する位置情報を取得する位置取得手段とを備えることを特徴とする。
【0010】
【発明の実施の形態】
以下、図面を参照して、本発明の好適な実施形態について説明する。
【0011】
<第1の実施形態>
図1は、本発明の第1の実施形態に係るナビゲーション装置の構成を示すブロック図である。図1に示すように、本実施形態に係るナビゲーション装置は、タッチパネル式ディスプレイ1、CPU2、ROM3、RAM4、音声認識部5、マイク6、現在位置検出部7及び地図データ記憶部8を備えている。図1において、音声認識部5は、既存の音声認識方法等を用いてマイク6で入力されたユーザ等の音声を認識する。現在位置検出部7は、GPS等を用いて本ナビゲーション装置の現在位置を検出する。また、地図データ記憶部8は、ハードディスクに地図データが記憶されているもの、或いは、着脱可能なCD−ROM等の記録媒体に記録された地図データを挿入・着脱等して用いるものであってもよい。
【0012】
図2は、図1に示した本実施形態に係るナビゲーション装置についてのユーザ操作に基づくナビゲーション動作の手順を説明するためのフローチャートである。尚、以下で説明する各処理を行うプログラムは、図1のナビゲーション装置のROM3内に記憶されており、CPU2で実行される。また、ユーザは目的地のおおよその位置を知っているものとする。
【0013】
まず、ユーザは、目的地のおおよその位置を知っているので、地図データ記憶部8に記憶されている地図データの一部が表示されたタッチパネル式ディスプレイ1上の目的地付近の任意の場所を指等で触れる(ステップS101)。図3は、ユーザがタッチパネル式ディスプレイ1上の任意の場所に触れたときの認識語彙の絞込みを説明するための概要図である。例えば、図3(a)に示すように、タッチパネル式ディスプレイ1上の符号Aで示す部分にユーザの指が触れたとする。このとき、ユーザが触れた位置Aの近傍(例えば、半径5km以内)の地名を地図データ記憶部8から取り出して認識語彙とする。例えば、図3(b)に示すように、「新横浜(しんよこはま)」、「菊名(きくな)」、「妙蓮寺(みょうれんじ)」及び「富士塚(ふじづか)」が認識対象語彙として選択されたとする。尚、図3(a)に示すように、これらの4つの地名は図3(a)の縮尺の地図には表示されていない地名である。この際、後述するステップS107における音声認識において用いられるこれらの地名に関する音声情報が地図データ記憶部8から取得され、RAM4に記録される。また、認識対象語彙とされた上記場所に関する位置情報については、音声情報と同時に地図データ記憶部8から取得してRAM4に記録してもよいし、後述する音声認識結果に基づいて決定された目的地だけの位置情報を認識処理後に取得してもよい。
【0014】
次に、ステップS101でユーザがタッチパネル式ディスプレイ1上に指等を触れた状態で目的地に関する音声を録音する、すなわち、音声切出しを開始する(ステップS103)。そこで、ユーザが目的地を発声する(ステップS104)。例えば、「きくな」と発声する。この音声データはマイク6から入力されてRAM4に記録される。そして、ユーザが画面から指を離したか否かが判定される(ステップS105)。その結果、ユーザが画面から指を離したと判定された場合(Yes)、音声の録音を終了する、すなわち、音声の切出しを終了する(ステップS106)。
【0015】
次いで、ステップS102で認識対象語彙とされ、RAM4に記録されている「しんよこはま」、「みょうれんじ」、「きくな」及び「ふじづか」の地名に関する音声情報と、RAM4に録音された入力音声データ(すなわち、ステップS104でユーザが発声した「きくな」の音声データ)とを音声認識して、その結果をユーザに提示する(ステップS107)。この音声認識処理は、上述のように既知の方法を用いればよい。
【0016】
その後、本ナビゲーション装置では、例えば、最大の音声認識率であった認識対象語彙である場所を目的地と決定し、現在地から当該目的地までのナビゲーション等を開始することができる。
【0017】
上述したように、ユーザが目的地のおおまかな位置を知っていれば、タッチパネル式ディスプレイに表示された地図の目的地付近に触れてその近傍の地名や施設名に認識語彙を絞り込むことができる。また、地図に触れるという一つの操作で、同時に音声の切出しも行うことによって、認識語彙の絞込みと音声区間の切出しを極めて容易に行うことができる。
【0018】
<第2の実施形態>
次に、本発明の第2の実施形態に係るナビゲーション装置について説明する。
本実施形態に係るナビゲーション装置の構成は前述した第1の実施形態と同様であるため省略する。ここで、第2の実施形態に係るナビゲーション装置の動作及びユーザの操作について図2のフローチャートを参照して説明する。
【0019】
まず、ユーザは、図3(a)に示すような地図が表示されたタッチパネル式ディスプレイ1に触れる(ステップS101)。次に、ユーザが指等で触れた位置の近傍(例えば、半径5km以内)の地名を取り出し認識対象語彙とする(ステップS102)。本実施形態では、「こづくえ」、「しんよこはま」、「おおくらやま」、「つなしま」、「みょうれんじ」、「きくな」及び「おおぐち」が認識語彙となったとする。尚、これらの地名は図3(a)の縮尺の地図には表示されていないものである。また、この際、認識対象語彙とされた上記場所に関する位置情報についても同時に地図データ記憶部8から取得してRAM4に記録しておく。
【0020】
そして、音声の録音を開始する(ステップS103)。そこで、ユーザが目的地を発声する(ステップS104)。例えば、ユーザが「おおくらやま」と発声したとすると、その音声データがマイク6から入力されてRAM4に記録される。そして、ユーザが画面から指を離したと判定された場合(ステップS105でYesの場合)、音声の録音を終了する(ステップS106)。
【0021】
次いで、ナビゲーション装置では、ステップS102で認識対象語彙とされた「こづくえ」、「しんよこはま」、「おおくらやま」、「つなしま」、「みょうれんじ」、「きくな」、「ふじづか」及び「おおぐち」の地名に関する音声情報を用いて、RAM4に録音されたユーザの入力音声データ(例えば、「おおくらやま」)と比較することによって音声認識を行う(ステップS107)。
【0022】
図4は、本発明の第2の実施形態に係るナビゲーション装置におけるタッチパネルでの接触位置に基づく重み付けの一例を示す図である。図4に示すように、本実施形態では、音声認識の際に、ユーザが触れた位置から遠い場所になればなるほど音声認識率P(X)にかかる重み付けW(X)が徐々に小さくなるような重み付けを行う。
【0023】
まず、ステップS106で録音した音声によるステップS102で求めた認識対象語彙との音声認識率P(X)が、P(こづくえ)=0.1、P(しんよこはま)=0.1、P(おおくらやま)=0.7、P(つなしま)=0.1、P(みょうれんじ)=0.1、P(きくな)=0.1、P(おおぐち)=0.8、であったとする。そして、接触位置による重みW(X)を求める。例えば、ユーザが触れた位置から認識対象語彙の位置情報を用いて距離を算出する。例えば、その距離に基づいたそれぞれの重みが、W(こづくえ)=0.5、W(しんよこはま)=0.8、W(おおくらやま)=0.7、W(つなしま)=0.5、W(みょうれんじ)=0.7、W(きくな)=0.9、W(おおぐち)=0.5、であったとする。
【0024】
ここで、本実施形態では、最終候補として、P(X)とW(X)の積が最大になるXを取り出す。例えば、上記例では、X=「おおくらやま」が最大となる。
【0025】
上述したように、本実施形態によれば、接触位置に近く、かつ音声認識率の高い単語が選択される。
【0026】
<第3の実施形態>
次に、本発明の第3の実施形態に係るナビゲーション装置について説明する。本実施形態では、ユーザの触れた範囲に所定の認識率(認識尤度)以上の認識対象語彙の場所がなければ、所定の認識率以上の認識対象語彙の場所が現れるまで「近傍」とする地図上の範囲を順次広げていくという処理が行われる。本実施形態に係るナビゲーション装置の構成は前述した第1の実施形態と同様であるため省略する。図5は、本発明の第3の実施形態に係るナビゲーション装置の動作及びユーザの操作を説明するためのフローチャートである。
【0027】
以下、図5に示すフローチャートに従って、本実施形態におけるナビゲーション装置の動作およびユーザの操作について説明する。まず、ユーザは図3(a)に示すような地図が表示されたタッチパネル式ディスプレイ1に触れる(ステップS101)。次いで、図3(b)に示すように、ユーザが触れた位置の近傍(例えば、半径5km以内)の地名を取り出し認識語彙とする(ステップS102)。ここでは、図3(b)に示すように、「しんよこはま」、「みょうれんじ」、「きくな」及び「ふじづか」が認識語彙となったとする。
【0028】
そして、音声の録音を開始する(ステップS103)。そこで、ユーザが目的地を発声し、その音声データをマイク6で入力してRAM4に記録される(ステップS104)。例えば、ユーザが「よこはま」と発声したとする。ここで、ユーザが画面から指を離したと判定された場合(ステップS105でYesの場合)、音声の録音を終了する(ステップS106)。そして、ステップS102で認識語彙とされた「しんよこはま」、「みょうれんじ」、「きくな」及び「ふじづか」に関する音声情報を用いて、RAM4に録音されたユーザの入力音声データ「よこはま」を音声認識する(ステップS107)。その結果、本実施形態では、音声認識率P(X)として、P(しんよこはま)=0.5、P(みょうれんじ)=0.2、P(きくな)=0.3、P(ふじづか)=0.1が得られたとする。
【0029】
次いで、音声認識率P(X)の中に所定値(例えば、0.7)以上のものが存在するかどうかを判定する(ステップS108)。その結果、所定値以上の音声認識率P(X)が存在しない場合(No)、ユーザが触れた位置の近傍を広げて(例えば、半径7.5km以内に拡大)、その範囲から地名を取り出して認識対象語彙とする(ステップS109)。ここでは、「しんよこはま」、「みょうれんじ」、「きくな」、「ふじづか」、「こづくえ」、「おおくらやま」、「よこはま」、「ひがしかながわ」及び「つるみ」が認識対象語彙となったとする。再びこれらを認識語彙として、ステップS107において、RAM4に録音されたデータを音声認識する。音声認識の結果P(X)に所定の値を超えるものが存在すれば、その中でP(X)が最大になるXを認識結果とする。
【0030】
上述したように、本実施形態によれば、ユーザが触れた位置から離れるに従って音声認識率にかける重みを徐々に小さくしていくことによって、接触位置に近く、かつ音声認識率の高い単語が優先して選択される。すなわち、一定の音声認識率以下の単語が選択されることを防いで対象を拡大して再認識処理がされるので、接触位置に近い場所であっても音声認識率の極端に低い単語が選択されることを防止でき、より正確な目的地を選択することができる。
【0031】
<第4の実施形態>
次に、本発明の第4の実施形態に係るナビゲーション装置について説明する。本実施形態では、ユーザが画面に触れてジャンル名、例えば「駐車場(ちゅうしゃじょう)」、「駅(えき)」等の音声を発声した場合、そのジャンルに属する施設等の中でユーザが触れた近傍のものの位置や名称等を地図上に表示するという処理が行われる。本実施形態に係るナビゲーション装置の構成は前述した第1の実施形態と同様であるため省略する。図6は、本発明の第4の実施形態に係るナビゲーション装置の動作及びユーザの操作を説明するためのフローチャートである。
【0032】
以下、図6に示すフローチャートに従って、本実施形態におけるナビゲーション装置の動作およびユーザの操作について説明する。まず、図7(a)に示すように、ユーザは地図が表示されたタッチパネル式ディスプレイ1上の任意の場所、例えば図7(a)の符号Aで示される場所、に触れる(ステップS201)。ここで、図7は、ユーザがタッチパネル式ディスプレイ1上の任意の場所に触れてジャンル名を発声したときのディスプレイ表示の変化例を説明するための概要図である。次いで、音声の録音を開始する(ステップS202)。ここで、ユーザが目的地のジャンル名を発声し、当該音声デーをRAM4に記録する(ステップS203)。例えば、図7(b)に示すように「ちゅうしゃじょう」と発声したとする。
【0033】
そして、ユーザが画面から指を離したと判定された場合(ステップS204でYesの場合)、音声の録音を終了する(ステップS205)。そして、ユーザの発声を音声認識する(ステップS206)。ここでは、「ちゅうしゃじょう」を認識し、地図データ記憶部8に記憶されている駐車場データの中から、ユーザが指定した「A」で示される場所近傍の駐車場を検索する。そして、検索された駐車場について、その位置情報に基づいて図7(c)に示すように、ユーザが触れた近傍にある「駐車場」を所定のマーク等で表示する(ステップS207)。この処理は、図1における地図データ記憶部8に記憶されている地図データに、駐車場の位置データ等を記憶しておくことによって、ユーザが指定した位置とそれらの駐車場の位置データとを比較して、例えばそれらの間の距離等に基づいて表示させる駐車場に関するデータを選択するようにすればよい。
【0034】
上述したように、本実施形態によれば、ユーザはタッチパネルに表示された地図上で所望の位置に触れながら所望のジャンル名を発声し、そのジャンルの施設のうちユーザが触れた近傍にあるものの名称等を取り出して地図上に表示させることができる。その際、地図上の位置の選択と音声区間の切出しとを、地図に触れるという一つの操作によって同時に行うことができる。
【0035】
すなわち、縮尺等のためにディスプレイに表示された地図上にない施設等であっても、ユーザが検索したい場所を地図に触れながら、その施設等のジャンル名を発声することによって容易に検索することができる。
【0036】
<第5の実施形態>
上述した第1から第4の実施形態では、タッチパネル上に表示された地図に触れて所望の位置を指定しているが、地図上の領域を指でなぞったり、指で閉領域を描いたりして領域を指定しても良い。
【0037】
<第6の実施形態>
上記実施形態ではタッチパネル上に表示された地図に触れている間に音声切り出しを行っているが、地図に触れている間だけでなく、地図に触れる前の所定時間(例えば、数秒間)、或いは、地図に触れた後の所定時間(例えば、数秒間)に音声切り出しを行うようにしてもよい。
【0038】
<その他の実施形態>
尚、本発明は、複数の機器(例えば、コンピュータ、インタフェース機器等)から構成されるシステムに適用してもよい。
【0039】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(又は記憶媒体)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0040】
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0041】
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0042】
【発明の効果】
以上説明したように、本発明によれば、目的地の大まかな位置をタッチパネル上で指定して目的地名等を音声入力するだけで、目的地周辺の地名や施設等に関する認識対象を絞り込むことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係るナビゲーション装置の構成を示すブロック図である。
【図2】図1に示した本実施形態に係るナビゲーション装置についてのユーザ操作に基づくナビゲーション動作の手順を説明するためのフローチャートである。
【図3】ユーザがタッチパネル式ディスプレイ1上の任意の場所に触れたときの認識語彙の絞込みを説明するための概要図である。
【図4】本発明の第2の実施形態に係るナビゲーション装置におけるタッチパネルでの接触位置に基づく重み付けの一例を示す図である。
【図5】本発明の第3の実施形態に係るナビゲーション装置の動作及びユーザの操作を説明するためのフローチャートである。
【図6】本発明の第4の実施形態に係るナビゲーション装置の動作及びユーザの操作を説明するためのフローチャートである。
【図7】ユーザがタッチパネル式ディスプレイ1上の任意の場所に触れてジャンル名を発声したときのディスプレイ表示の変化例を説明するための概要図である。
【符号の説明】
1 タッチパネル式ディスプレイ
2 CPU
3 ROM
4 RAM
5 音声認識部
6 マイク
7 現在位置検出部
8 地図データ記憶部
Claims (9)
- 地図データの一部が表示されたタッチパネル上で指定された第1地点の位置情報を取得する地点取得工程と、
前記第1地点の近傍に位置する1又は複数の第2地点に関する音声情報を前記地図データに基づいて取得する対象取得工程と、
目的地に関する音声情報を取得する音声取得工程と、
前記目的地に関する音声情報と前記第2地点に関する音声情報との音声認識を行う音声認識工程と、
前記音声認識の結果に基づいて前記第2地点に関する位置情報の中から前記目的地に関する位置情報を取得する位置取得工程とを有することを特徴とする情報処理方法。 - 前記音声認識の結果を認識尤度として出力する出力工程と、前記認識尤度が所定値未満の場合、所定値以上の認識尤度が得られる前記第2地点が含まれる範囲まで前記近傍の範囲を拡大する拡大工程をさらに有し、
前記音声認識工程が、前記拡大工程により拡大された近傍の範囲内で前記目的地に関する音声情報と前記第2地点に関する音声情報との音声認識を行うことを特徴とする請求項1に記載の情報処理方法。 - 前記第1地点と前記第2地点との距離が長くなるに応じて前記目的地に関する音声情報と前記第2地点に関する音声情報との前記認識尤度を減少させる重み付け処理を行う重み付け工程をさらに有することを特徴とする請求項1又は2に記載の情報処理方法。
- 前記音声取得工程が、前記タッチパネル上で前記第1地点が指定されている間に発声された音声情報のみを取得することを特徴とする請求項1から3までのいずれか1項に記載の情報処理方法。
- 前記第2地点が、前記タッチパネル上に名称が表示されていない場所であることを特徴とする請求項1から4までのいずれか1項に記載の情報処理方法。
- 地図データの一部が表示されたタッチパネル上で指定された第1地点の位置情報を取得する地点取得工程と、
目的施設のジャンルに関する音声情報を取得する音声取得工程と、
前記第1地点の近傍に位置する1又は複数の前記ジャンルに属する施設情報を前記地図データに基づいて取得する対象取得工程と、
取得された前記施設情報を前記タッチパネル上にマーク又は名称で表示する表示工程とを有することを特徴とする情報処理方法。 - 地図データを記憶する記憶手段と、
前記地図データの一部を表示するタッチパネルと、
前記タッチパネル上で指定された第1地点の位置情報を取得する地点取得手段と、
前記第1地点の近傍に位置する1又は複数の第2地点の地名の音声情報を前記地図データに基づいて取得する対象取得手段と、
目的地名の音声情報を取得する音声取得手段と、
前記目的地名の音声情報と前記第2地点の地名の音声情報との音声認識を行う音声認識手段と、
前記音声認識の結果に基づいて前記第2地点に関する位置情報の中から前記目的地に関する位置情報を取得する位置取得手段とを備えることを特徴とする情報処理装置。 - コンピュータに、
地図データの一部が表示されたタッチパネル上で指定された第1地点の位置情報を取得する地点取得手順と、
前記第1地点の近傍に位置する1又は複数の第2地点の地名の音声情報を前記地図データに基づいて取得する対象取得手順と、
目的地名の音声情報を取得する音声取得手順と、
前記目的地名の音声情報と前記第2地点の地名の音声情報との音声認識を行う音声認識手順と、
前記音声認識の結果に基づいて前記第2地点に関する位置情報の中から前記目的地に関する位置情報を取得する位置取得手順とを実行させるためのプログラム。 - 請求項8に記載のプログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003194544A JP2005031260A (ja) | 2003-07-09 | 2003-07-09 | 情報処理方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003194544A JP2005031260A (ja) | 2003-07-09 | 2003-07-09 | 情報処理方法及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005031260A true JP2005031260A (ja) | 2005-02-03 |
Family
ID=34205684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003194544A Withdrawn JP2005031260A (ja) | 2003-07-09 | 2003-07-09 | 情報処理方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005031260A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008037121A (ja) * | 2006-08-01 | 2008-02-21 | Xanavi Informatics Corp | 車載表示装置 |
JP2008058813A (ja) * | 2006-09-01 | 2008-03-13 | Honda Motor Co Ltd | 音声応答システム、音声応答プログラム |
US8538756B2 (en) | 2010-01-12 | 2013-09-17 | Denso Corporation | In-vehicle device and method for modifying display mode of icon indicated on the same |
JP5705312B2 (ja) * | 2011-05-20 | 2015-04-22 | 三菱電機株式会社 | 情報機器 |
JP2017033524A (ja) * | 2015-11-27 | 2017-02-09 | パナソニックIpマネジメント株式会社 | 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両 |
-
2003
- 2003-07-09 JP JP2003194544A patent/JP2005031260A/ja not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008037121A (ja) * | 2006-08-01 | 2008-02-21 | Xanavi Informatics Corp | 車載表示装置 |
JP2008058813A (ja) * | 2006-09-01 | 2008-03-13 | Honda Motor Co Ltd | 音声応答システム、音声応答プログラム |
JP4666648B2 (ja) * | 2006-09-01 | 2011-04-06 | 本田技研工業株式会社 | 音声応答システム、音声応答プログラム |
US8538756B2 (en) | 2010-01-12 | 2013-09-17 | Denso Corporation | In-vehicle device and method for modifying display mode of icon indicated on the same |
JP5705312B2 (ja) * | 2011-05-20 | 2015-04-22 | 三菱電機株式会社 | 情報機器 |
JP2017033524A (ja) * | 2015-11-27 | 2017-02-09 | パナソニックIpマネジメント株式会社 | 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3943492B2 (ja) | ディクテーションとコマンドの区別を向上させる方法 | |
JP4260788B2 (ja) | 音声認識機器制御装置 | |
US6604073B2 (en) | Voice recognition apparatus | |
JP4131978B2 (ja) | 音声認識機器制御装置 | |
WO2013005248A1 (ja) | 音声認識装置およびナビゲーション装置 | |
JP2010191400A (ja) | 音声認識装置およびデータ更新方法 | |
JP3834169B2 (ja) | 連続音声認識装置および記録媒体 | |
US20080262843A1 (en) | Speech recognition apparatus and method | |
JP6896335B2 (ja) | 音声認識装置および音声認識方法 | |
US9355639B2 (en) | Candidate selection apparatus and candidate selection method utilizing voice recognition | |
JP2005031260A (ja) | 情報処理方法及び装置 | |
JP3645104B2 (ja) | 辞書検索装置及び辞書検索プログラムを記録した記録媒体 | |
JP3296783B2 (ja) | 車載用ナビゲーション装置および音声認識方法 | |
JP3624698B2 (ja) | 音声認識装置、その装置を用いたナビゲーションシステム及び自動販売システム | |
JP2011232668A (ja) | 音声認識機能を備えたナビゲーション装置およびその検出結果提示方法 | |
JP2004245938A (ja) | 音声認識装置及びプログラム | |
JP2010128144A (ja) | 音声認識装置及びプログラム | |
KR101063159B1 (ko) | 명령횟수를 줄일 수 있는 음성 인식을 이용한 주소 검색 방법 | |
JP4453377B2 (ja) | 音声認識装置、プログラム及びナビゲーション装置 | |
JP3762191B2 (ja) | 情報入力方法、情報入力装置及び記憶媒体 | |
JP2007004052A (ja) | 音声対話装置及び音声理解結果生成方法 | |
JP2009282835A (ja) | 音声検索装置及びその方法 | |
JP5446540B2 (ja) | 情報検索装置、制御方法及びプログラム | |
JP2011180416A (ja) | 音声合成装置、音声合成方法およびカーナビゲーションシステム | |
JP2001306088A (ja) | 音声認識装置及び処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20061003 |