JP2004317803A - Navigation system and program - Google Patents

Navigation system and program Download PDF

Info

Publication number
JP2004317803A
JP2004317803A JP2003111744A JP2003111744A JP2004317803A JP 2004317803 A JP2004317803 A JP 2004317803A JP 2003111744 A JP2003111744 A JP 2003111744A JP 2003111744 A JP2003111744 A JP 2003111744A JP 2004317803 A JP2004317803 A JP 2004317803A
Authority
JP
Japan
Prior art keywords
voice
data
output
pattern
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003111744A
Other languages
Japanese (ja)
Inventor
Yoshikazu Inagaki
稲垣  賀一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2003111744A priority Critical patent/JP2004317803A/en
Publication of JP2004317803A publication Critical patent/JP2004317803A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation system capable of attaining utterance with more natural and accurate readings as much as possible. <P>SOLUTION: Position information based upon a set point (e.g. a destination) and a reference position 307 of speech recognition data 301 are made to match each other, and speech patterns 303 of an administrative area name and a facility name corresponding to the matching reference position 307 are voiced out. The speech patterns 303 are originally used to recognize a speech, but used for speech output. Thus, data prepared for speech recognition are used, so a navigation system having a speech recognizing function can realize the speech output without nearly preparing data for speech output. Further, administrative area names, facility names, and position information of speech recognition data are made to accurately correspond to one another, so, for example, even if an administrative area name of the same Chinese characters are read differently with areas, accurately speech output becomes possible. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、音声認識機能を有するナビゲーション装置等に関する。
【0002】
【従来の技術】
従来、様々なナビゲーション装置が開発されているが、そのナビゲーション装置が有する機能の一つに経路案内機能がある。これは、利用者によって設定された目的地までの推奨経路を算出し、地図を表示したり音声を出力したりすることによって推奨経路を案内するものである。利用者が目的地を設定する方法としては、利用者がマイクロフォンに音声を入力し、音声応答装置がマイクロフォンに入力された音声を認識して目的地を設定する方法がある。また、タッチパネルやリモコン等を用い、表示部に表示された地図上で任意の地点を指定して設定する方法や、住所や施設名称を選択又はテキスト入力して設定する方法がある。しかし、何れの方法を用いた場合でも、間違って目的地を設定してしまう可能性があるため、設定後に設定された目的地の住所や施設名称を音声にて出力することにより、利用者に確認を促す仕組みを有していることが望ましい。
【0003】
このようにして音声出力による確認を行うためには、何らかの音声データが必要である。全ての住所や施設名称を人が読み上げて録音(サンプリング)した音声データをあらかじめ用意し、その音声データを用いて音声出力すれば、利用者は違和感をほとんど覚えない。しかし実際には、このようなことは困難である。なぜなら、施設名称はともかく、住所については数が膨大であるとともに、録音した音声データは他のデータと比べて一般的にデータ量が大きいため、ナビゲーション装置が用いる記憶媒体の容量との兼ね合いからあらかじめ用意しておくことが不可能であるからである。
【0004】
そこで、できるだけ音声データのデータ量を減らしながら、住所や施設名称を正確に音声出力させる技術が考えられている。
例えば、特許文献1に記載の音声合成装置は、入力されたテキストコードに基づいて漢字読みデータベースを検索し、その検索結果に基づいた合成音声を出力するものである。この技術によれば、難解な漢字の地名も読み上げることができると共に、さらに漢字そのままの読み(つまり単なる音読み等)も音声出力することができるため、利用者が確認を行いやすい。
【0005】
【特許文献1】
特開平10−141978号公報
【0006】
【発明が解決しようとする課題】
ところが、合成音声を出力させるためには、まず合成音声出力させたいテキストに基づいたテキストコードを正確に特定する必要があり、正確に特定しないと問題が起こる場合があった。例えば、同じ漢字で読みが違う地名が異なる地域に存在するような場合である。このような場合、単に漢字の一致だけで特定してしまうと間違った読み方で合成音声出力させてしまうことがありうる。また、この音声合成装置は、あらかじめ専用の漢字読みデータベースを準備しておく必要があり、コスト増を招く要因となりうる。さらに、漢字読みデータベースには、単に読みが登録されているだけであるため、アクセントやイントネーション等が考慮された音声ではないため、利用者が違和感を持つおそれがあった。
【0007】
本発明はこのような問題に鑑みなされたものであり、できるだけ正確な読みで発話することが可能なナビゲーション装置等を提供することを目的とする。
【0008】
【課題を解決するための手段及び発明の効果】
通常、音声認識機能を有するナビゲーション装置は、目的地等を設定するために、行政区画名称や施設名称を認識するための音声パターンとその位置データとが対になった音声認識データが利用可能に構成されている。そして、この音声認識データを利用し、利用者が発声した行政区画名称や施設名称を認識し、その認識した行政区画の基準位置(例えば役所の位置や中心位置)や施設の存在位置を特定する。本願発明はこの点に注目し、この音声認識データを音声出力の際にも利用して音声出力を行うようにしたものである。
【0009】
請求項1に記載のナビゲーション装置は、行政区画名称を認識するための音声パターンとその行政区画の基準位置を示す位置データとが対になった音声認識データが記憶された音声認識データ記憶媒体から音声認識データを取得する音声認識データ取得手段と、音声パターンに基づいた音声を出力する音声出力手段と、利用者によって入力された位置情報に対応する音声パターンを前記音声認識データ取得手段が取得した前記音声認識データの中から検索し、検索した前記音声パターンを前記音声出力手段に音声として出力させる制御手段と、を備える。なお、ここで言う音声パターンというのは、一般的に知られている、音声を認識するための音声波形パターンや、テキスト等を意味する。このテキストは、単なるテキストだけでも良いしアクセントやイントネーション記号を含むものでもよい。また、行政区画の基準位置というのは、行政区画を特定するための位置であり、例えば役所の位置や中心位置などである。
【0010】
このように請求項1に記載のナビゲーション装置は、音声認識用に用意された音声認識データを利用するため、行政区画名称を記憶した音声出力用のデータを専用データとして新たに用意する必要がない。このため、音声認識機能を有するナビゲーション装置であれば、容易に実現することができる。また、音声認識データの行政区画名称の音声パターンとその行政区画の位置データとは正確な対応づけがなされているため、例えば同一漢字の行政区画名称が地域によって読み方が違うような場合でも正確に音声出力することができる。
【0011】
請求項2に記載のナビゲーション装置は、更に、施設名称を認識するための音声パターンとその施設の存在位置を示す位置データとが対になった音声認識データが、音声認識データ取得手段が取得する音声認識データに含まれるようになっている。そして、制御手段が、利用者によって入力された位置情報に対応する音声パターンを音声認識データ取得手段が取得した音声認識データの中から検索し、検索した音声パターンを音声出力手段に音声として出力させる。
【0012】
このようになっていれば、施設名称についても正確な読みで音声出力することができる。
ところで、行政区画名称を音声出力することを考えた場合、その行政区画名称だけ(例えば「昭和町」だけ)を音声出力するようになっていてもよいが、その行政区画名称を含む住所形式(例えば「愛知県刈谷市昭和町」の形式)で音声出力すると利用者はわかりやすい。請求項3に記載のナビゲーション装置であれば、このようなことが実現できる。請求項3に記載のナビゲーション装置は、更に、行政区画の位置データと行政区画の階層関係を示す階層データとが記憶された行政区画データ記憶媒体から、位置データ及び階層データを取得する行政区画データ取得手段を備える。そして、制御手段は、入力された位置情報に対応する、複数の行政区画名称からなる住所を、行政区画データ取得手段が取得した位置データ及び階層データとに基づいて特定し、特定した各々の行政区画に対応する音声パターンを音声認識データの中から組み合わせ、その組み合わせた音声パターンを音声出力手段に音声として出力させる。なお、この行政区画の階層関係を示す階層データというのは、例えばある行政区画がどの町に属し、どの区に属し、どの市に属し、どの県に属するかといった階層関係を示すデータである。
【0013】
このようになっていれば住所形式で音声出力されるため、利用者は行政区画や施設の位置を特定しやすい。
ところで、全ての名称を網羅していなくても、ある一部の行政区画名称(住所形式を含む)や施設名称だけでもあらかじめ録音(サンプリング)した音声データがあるならば、それを利用するようになっているとよい。つまり、請求項4に記載のように、更に、音声パターンに対応した、あらかじめ録音した音声データを記憶する音声データ記憶媒体から音声データを取得する音声データ取得手段を備えるようにする。そして、制御手段が、音声データ取得手段が取得した音声データの中に、音声出力手段に音声として出力予定の音声パターンに対応する音声データが存在する場合は、音声パターンの代わりに音声データを音声出力手段に出力させるのである。
【0014】
このようになっていると、音声データが存在するものについては、非常に流暢な音声出力がなされ、利用者はわかりやすい。
また、請求項5に記載のような、請求項1〜請求項4の何れかに記載のナビゲーション装置の制御手段として機能させるプログラムを、ナビゲーション装置が内蔵するコンピュータに実行させるようになっていてもよい。このようになっていれば、例えば、フレキシブルディスク、光磁気ディスク、CD−ROM、ハードディスク、ROM、RAM等のコンピュータが読みとり可能な記録媒体にプログラムを記録し、必用に応じてコンピュータにロードして起動することによりロボット指示装置として機能させることができる。また、プログラムはネットワークを用いて流通させることも可能であるため、機能アップ等も容易である。
【0015】
【発明の実施の形態】
以下、本発明が適用された実施例について図面を用いて説明する。尚、本発明の実施の形態は、下記の実施例に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
【0016】
図1は実施例のナビゲーション装置20の概略構成を示すブロック図である。ナビゲーション装置20は車両に搭載され、車両の現在位置を検出する位置検出器21と、ユーザーからの各種指示を入力するための操作スイッチ群22と、操作スイッチ群22と同様に各種指示を入力可能であってナビゲーション装置20とは別体となったリモートコントロール端末(以下、リモコンと称す)23aと、リモコン23aからの信号を入力するリモコンセンサ23bと、ナビゲーション装置20とは別の装置から情報を入力したり別の装置に情報を出力したりすることが可能な外部情報入出力部24と、地図データや各種の情報を記録した外部記憶媒体から地図データ等を入力する地図データ入力器25と、地図や各種情報の表示を行うための表示部26と、各種のガイド音声等を出力するための音声出力部27と、上述した位置検出器21,操作スイッチ群22,リモコンセンサ23b,外部情報入出力部24,地図データ入力器25からの入力に応じて各種処理を実行し、外部情報入出力部24,表示部26,音声出力部27を制御する制御回路29とを備えている。
【0017】
位置検出器21は、GPS(Global Positioning System)用の人工衛星からの送信電波をGPSアンテナを介して受信し、車両の位置,方位,速度等を検出するGPS受信機21aと、車両に加えられる回転運動の大きさを検出するジャイロスコープ21bと、車両の前後方向の加速度等から走行した距離を検出するための距離センサ21cと、地磁気から進行方位を検出するための地磁気センサ21dとを備えている。そして、これら各センサ等21a〜21dは、各々が性質の異なる誤差を有しているため、互いに補完しながら使用するように構成されている。
【0018】
操作スイッチ群22としては、表示部26と一体に構成され、表示画面上に設置されるタッチパネル及び表示部26の周囲に設けられたメカニカルなキースイッチ等が用いられる。尚、タッチパネルと表示部26とは積層一体化されており、タッチパネルには、感圧方式,電磁誘導方式,静電容量方式,あるいはこれらを組み合わせた方式など各種の方式があるが、その何れを用いてもよい。
【0019】
外部情報入出力部24は、図示しないアンテナが接続され、そのアンテナを介して図示しないVICSセンタから交通情報を受信する。この受信した交通情報は制御回路29へ送られて案内経路を設定する際等に利用される。
地図データ入力器25は、記憶媒体30に記憶された各種データを入力するための装置である。記憶媒体30には、地図データ200、音声データ201、音声認識データ301及び行政区画階層データ401が記憶されている。実際の記録媒体としては、そのデータ量からCD−ROMやDVDを用いるのが一般的であるが、ハードディスクなどの磁気記憶装置やメモリカード等の他の媒体を用いても良い。記憶媒体30が記憶する地図データ200は、道路の形状データ、道路の幅員データ、道路の規制データ、地形データ、マークデータ、交差点データ、施設のデータ等から構成される。また、音声データ201は、録音して生成された音声データである。録音して生成された音声データというのは、例えばサンプリング周波数44.1KHz、量子化ビット数16ビットのPCM方式で、人の発声音声を録音したものである。発声音声としては、行政区画名称や施設名称等である。具体的には、主要な行政区画名称(例えば愛知県)や、主要な行政区画名称の組み合わせ(例えば愛知県名古屋市)や、主要な施設名称(例えばナゴヤドーム)などから構成される。
【0020】
音声認識データ301については、図2のデータ例を用いて説明する。図2に示す音声認識データ301は、音声パターン303と表示用テキスト305と基準位置307と区分309をデータ項目として備える。音声パターン303は、音声読み上げ用のカナ及び図示していないアクセントやイントネーション等から構成されるものであり、音声認識を行う際に用いるものである。表示用テキスト305は、認識された音声の確認を行う際に、表示部26に表示させるためのデータである。基準位置307は、認識した行政区画名称又は施設名称の基準位置(例えば役所の位置や中心位置)を示すものである。区分309は、行政区画名称なのか施設名称なのかを示すデータである。
【0021】
また、行政区画階層データ401については、図3のデータ例を用いて説明する。図3に示す行政区画階層データ401は、複数のセルから構成されるツリー構造を有し、各セルは、行政区画名称と位置データとから構成される。このうち位置データは、当該行政区画の役所の存在場所や中心位置といった基準位置を示すデータである。なお、各セルは、行政区画の領域を特定可能な情報(例えば境界線を示す頂点位置情報等)も有していると良い。
【0022】
図3では、セル403は愛知県に対応するものであり、それに関連するセルとして刈谷市のセル405、名古屋市のセル407、知立市のセル409等がある。またこのうち刈谷市405に関連するセルとしては逢妻町のセル411、井ヶ谷町のセル413、城町のセル415等がある。このように行政区画名称の階層がわかるようになっているため、行政区画階層データ401を用いれば任意の行政区画の階層関係を特定することができる。
【0023】
図1に戻り、表示部26は、カラー表示装置であり、液晶ディスプレイ,有機ELディスプレイ,CRTなどがあるが、その何れを用いてもよい。表示部26の表示画面には、位置検出器21にて検出した車両の現在位置と地図データ入力器25より入力された地図データとから特定した現在地を示すマーク、目的地までの誘導経路、名称、目印、各種施設のマーク等の付加データとを重ねて表示することができる。また、施設のガイド等も表示できる。
【0024】
音声出力部27は、地図データ入力器25より入力した施設のガイドや各種案内の音声や、外部情報入出力部24を介して受信した交通情報の読み上げ音声を出力することができる。
マイクロフォン28は、利用者が音声を入力(発話)するとその入力した音声に基づく電気信号を出力するものである。利用者はこのマイクロフォン28に様々な音声を入力することにより、ナビゲーション装置20を操作することができる。
【0025】
制御回路29は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROM及びRAMに記憶されたプログラムに基づいて、位置検出器21からの各検出信号に基づき座標及び進行方向の組として車両の現在位置を算出し、地図データ入力器25を介して読み込んだ現在位置付近の地図等を表示部26に表示する表示処理や、地図データ入力器25に格納された地点データに基づき、操作スイッチ群22やリモコン23a等の操作に従って目的地となる施設を選択し、現在位置から目的地までの最適な経路を自動的に求める経路計算を行って案内経路を設定する案内経路設定処理等を行う。
【0026】
ここまででナビゲーション装置20の概略構成を説明したが、ここで特許請求の範囲に記載の用語との対応を示しておく。制御回路29が特許請求の範囲に記載した制御手段に相当し、音声出力部27が音声出力手段に相当する。また、地図データ入力器25が、音声認識データ取得手段、行政区画データ取得手段及び音声データ取得手段に相当する。また、記憶媒体30が、音声認識データ記憶媒体、行政区画データ記憶媒体、音声データ記憶媒体に相当する。
【0027】
次に、制御回路29で実行される、目的地設定処理を例に挙げて地点確認のための音声出力について説明する。尚、従来の一般的な車両用のナビゲーション装置が通常実行する案内処理等の他の処理については説明を省略する。
図4は、目的地設定処理を説明するためのフローチャートである。目的地設定処理は、利用者が操作スイッチ群22やリモコン23aを操作して目的地を設定しようとした際に実行が開始される。
【0028】
開始されるとまず、操作情報を取得する(S105)。これは、利用者が目的地を設定しようと考え、例えば利用者が施設の名称をマイクロフォン28に音声入力した際にマイクロフォン28から出力される音声信号の情報や、表示部26に表示された地図に基づいて利用者が操作スイッチ群22やリモコン23aを操作した際に操作スイッチ群22やリモコン23aから出力される操作情報を意味する。なお、目的地としては、施設であってもよいし、施設の存在しない単なる地図上の一地点であってもよい。
【0029】
次に、S105において取得した操作情報と地図データ入力器25が入力した地図データとに基づいて、利用者が設定した目的地の住所を算出する(S110)。例えば、利用者が施設名称である「刈谷球場」をマイクロフォン28に音声入力した場合は、刈谷球場の住所である「愛知県刈谷市城町1−49」を本ステップで算出する。なお、利用者が住所を指定して目的地を設定した場合は、その時点ですでに住所が特定されているので、本ステップはスキップする。
【0030】
次に、S110で算出した住所(あるいはS105で特定済みの住所)に対応する音声データが音声データ201の中に存在するか否かを判定する(S115)。これは、音声データ201を行政区画名称で検索することによって判定する。検索単位としては、個別の行政区画名称であってもよいし行政区画名称を組み合わせたものであってもよい。例えば、S110で算出した住所が「愛知県刈谷市城町1−49」であり、音声データ201の中に「愛知県刈谷市」というデータが見つかれば住所に対応する音声データが存在したと判定する。なお、本ステップの検索は慎重に行う必要がある。なぜなら、音声データ201を行政区画名称で検索するため、行政区画名称自体は同じであっても読み方やアクセントが異なる音声データが存在する場合があるからである。したがってこのような問題を排除するため、同一行政区画名称で複数種類の読み方が存在する音声データはあらかじめ除くようにするとよい。もちろん、音声データ201の各音声データが位置情報によっても特定できるような音声データ201である場合はこの限りではない。
【0031】
このようにして判定した結果、S110で算出した住所に対応する音声データが音声データ201の中に存在した場合はS120に進み、存在しなかった場合はS125に進む。
S120では、S110で算出した住所にしたがい、音声認識データ301の音声パターン303を組み合わせて読み上げデータを生成する。その際、まず行政区画階層データ401を参照して行政区画名称と基準地点のペアを求める。その求めたペアを利用して音声認識データ301の中から音声パターン303を特定し、音声パターン303を組み合わせる。
【0032】
具体例を示す。例えばS110で算出した住所が「愛知県刈谷市城町1−49」であった場合、まず行政区画階層データ401の中から愛知県のセル403と刈谷市のセル405と城町のセル415とを特定して抽出する。そして、それぞれのセルの行政区画名称と基準地点とのペアを用いて、音声認識データ301の中から音声パターン303を特定する。つまり、それぞれのセルの行政区画名称を音声認識データ301の表示用テキスト305とマッチさせ、それぞれのセルの位置情報を音声認識データ301の基準位置301とマッチさせ、両者の論理積をとったものに合致するデータレコードの音声パターン303を抽出する。そして、抽出した複数の音声パターン303を、住所に合わせて組み合わせる。具体的には「アイチケン カリヤシ シロマチ イチノヨンジュウキュウ」のように組み合わせて読み上げデータを生成する。
【0033】
一方、S125では、S110で算出した住所にしたがい、検索した音声データ201と音声認識データ301の音声パターン303とを組み合わせて読み上げデータを生成する。この際、音声データ201のみで住所に対応する読み上げデータを生成することができるのであれば、音声パターン303は使用しない。また、音声パターン303の利用方法は、S120で説明した方法と同じである。
【0034】
具体例を示す。例えばS110で算出した住所が「愛知県刈谷市城町1−49」であった場合、まず音声データ201を用いる。ここでは、音声データ201として「愛知県刈谷市」を読み上げたデータが存在したとすれば、このデータを用いる。続いて、行政区画階層データ401の中から愛知県のセル403と刈谷市のセル405と城町のセル415とを特定し、そのうち城町のセルを抽出する。そして、そのセルの行政区画名称と基準地点とのペアを用いて、音声認識データ301の中から音声パターン303「シロマチ」を特定する。そして最後に、音声データ201の「愛知県刈谷市」と音声パターン303の「シロマチ」とを組み合わせて読み上げデータを生成する。
【0035】
このようにして読み上げデータの生成が完了すると、生成した読み上げデータに基づいて音声出力部27に音声を出力させる(S130)。一例としては、「目的地は愛知県刈谷市城町1−49の刈谷球場でよろしいですか?」といった内容である。
【0036】
続いて、S130で出力された音声に対応して乗員が行った操作情報を取得する(S135)。この操作情報というのは、利用者が目的地を確定するため、あるいはキャンセルするために操作した操作スイッチ群22やリモコン23aの操作情報である。
【0037】
続いて、S130で取得した操作情報が目的地を確定する旨の情報であったか否かによって分岐する。目的地を確定する旨の情報であった場合は目的地を確定して本処理(目的地設定処理)を終了する。一方、キャンセルする旨の情報であった場合は目的地設定処理の最初のステップ(S105)に戻る。
【0038】
ここまでで、目的地設定処理を例に挙げて地点確認のための音声出力について説明したが、本実施例のナビゲーション装置20によれば次のような効果が得られる。
ナビゲーション装置20は、音声認識時に使用する音声パターン303を使用して音声出力を行う。このため、行政区画名称や施設名称を記憶した音声出力用のデータを専用データとして新たに用意する必要がない。このため、ナビゲーション装置20のように音声認識機能を有するナビゲーション装置であれば、容易に実現することができる。また、音声認識データ301の行政区画名称や施設名称(つまり音声パターン303)と位置情報(つまり基準位置307)とは正確な対応づけがなされているため、例えば同一漢字の行政区画名称が地域によって読み方が違うような場合でも正確に音声出力することができる。
【0039】
また、設定された目的地を住所形式で音声出力するため、利用者は目的地の位置を確認しやすい。
また、読み上げ予定の行政区画名称のうち、音声データ201として存在するものについては、それを利用して音声出力させるようになっている。このため、流暢な音声出力がなされ、利用者はわかりやすい。
【0040】
以下、他の実施例について述べる。上記実施例では、目的地設定処理を挙げて地点確認のための音声出力について説明したが、目的地設定処理以外の処理でも同様の処理によって確認等のための音声出力を行うようになっていてもよい。例えば、メモリ地点を設定する際や、施設情報を検索した際などに、確認のために施設名称や住所を音声出力するようになっているとよい。
【図面の簡単な説明】
【図1】実施例のナビゲーション装置の構成を示すブロック図である。
【図2】音声認識データを説明するためのデータ例である。
【図3】行政区画階層データを説明するためのデータ例である。
【図4】目的地設定処理を説明するためのフローチャートである。
【符号の説明】
20…ナビゲーション装置、21…位置検出器、21a…GPS受信機、21b…ジャイロスコープ、21c…距離センサ、21d…地磁気センサ、22…操作スイッチ群、23a…リモコン、23b…リモコンセンサ、24…外部情報入出力部、25…地図データ入力器、26…表示部、27…音声出力部、28…マイクロフォン、30…記憶媒体、200…地図データ、201…音声データ、301…音声認識データ、401…行政区画階層データ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a navigation device and the like having a voice recognition function.
[0002]
[Prior art]
Conventionally, various navigation devices have been developed, and one of the functions of the navigation device is a route guidance function. This is to calculate a recommended route to a destination set by a user, and to guide the recommended route by displaying a map or outputting sound. As a method for the user to set the destination, there is a method in which the user inputs voice to the microphone, and the voice response device recognizes the voice input to the microphone and sets the destination. Further, there is a method of specifying and setting an arbitrary point on a map displayed on a display unit using a touch panel, a remote controller, or the like, and a method of selecting or setting an address or a facility name by text input. However, no matter which method is used, there is a possibility that the destination is set by mistake, so that the address and facility name of the destination set after the setting are output by voice to the user. It is desirable to have a mechanism to prompt confirmation.
[0003]
In order to confirm by voice output in this way, some voice data is required. If voice data prepared by reading and recording (sampling) all addresses and facility names by a person is prepared in advance, and voice is output using the voice data, the user hardly feels uncomfortable. But in practice, this is difficult. Because, apart from the name of the facility, the number of addresses is enormous, and the volume of recorded voice data is generally large compared to other data. It is impossible to prepare them.
[0004]
Therefore, a technology for accurately outputting an address or a facility name by voice while reducing the data amount of voice data as much as possible has been considered.
For example, the speech synthesis device described in Patent Literature 1 searches a kanji reading database based on an input text code and outputs a synthesized speech based on the search result. According to this technology, it is possible to read aloud kanji place names and to output kanji as they are (that is, mere reading aloud), so that the user can easily confirm.
[0005]
[Patent Document 1]
JP 10-141978 A
[Problems to be solved by the invention]
However, in order to output a synthesized speech, it is necessary to first accurately specify a text code based on a text to be output as a synthesized speech, and if not, a problem may occur. For example, there is a case where the same kanji and different readings exist in different regions. In such a case, if the identification is made only by the matching of the kanji, the synthesized voice may be output in an incorrect reading manner. In addition, this speech synthesizer needs to prepare a dedicated kanji reading database in advance, which may cause an increase in cost. Furthermore, since the reading is simply registered in the kanji reading database, it is not a voice in which accent, intonation, and the like are taken into consideration, so that the user may have a sense of discomfort.
[0007]
The present invention has been made in view of such a problem, and an object of the present invention is to provide a navigation device or the like that can speak with accurate reading as much as possible.
[0008]
Means for Solving the Problems and Effects of the Invention
Usually, a navigation device having a voice recognition function can use voice recognition data in which a voice pattern for recognizing an administrative division name or a facility name and its position data are set in order to set a destination or the like. It is configured. Then, by using the voice recognition data, the name of the administrative division or the name of the facility spoken by the user is recognized, and the reference position (for example, the position of the government office or the center position) of the recognized administrative division or the location of the facility is specified. . The present invention pays attention to this point, and performs voice output by using the voice recognition data also in voice output.
[0009]
The navigation device according to claim 1, wherein a voice pattern for recognizing an administrative section name and a voice recognition data storage medium storing voice recognition data in which position data indicating a reference position of the administrative section are paired. Voice recognition data obtaining means for obtaining voice recognition data, voice output means for outputting voice based on the voice pattern, and voice recognition data obtaining means obtaining a voice pattern corresponding to position information input by a user. Control means for searching the voice recognition data and outputting the searched voice pattern as voice to the voice output means. The voice pattern referred to here means a voice waveform pattern for recognizing voice, text, and the like, which are generally known. This text may be just text or may include accents and intonation symbols. The reference position of the administrative division is a position for specifying the administrative division, for example, the position of the government office or the center position.
[0010]
As described above, the navigation device according to the first aspect uses the voice recognition data prepared for voice recognition, so that it is not necessary to newly prepare voice output data storing the administrative division name as dedicated data. . Therefore, any navigation device having a voice recognition function can be easily realized. In addition, since the voice pattern of the administrative division name in the voice recognition data and the position data of the administrative division are accurately correlated, for example, even if the administrative division name of the same kanji is read differently depending on the region, it can be accurately determined. Can output voice.
[0011]
In the navigation device according to the second aspect, the voice recognition data obtaining unit obtains voice recognition data in which a voice pattern for recognizing a facility name and position data indicating the location of the facility are paired. It is included in the voice recognition data. Then, the control unit searches for a voice pattern corresponding to the position information input by the user from the voice recognition data obtained by the voice recognition data obtaining unit, and causes the voice output unit to output the searched voice pattern as voice. .
[0012]
With this configuration, it is possible to output a sound with accurate reading even for the facility name.
By the way, when it is considered to output the administrative division name by voice, only the administrative division name (for example, only “Showa-cho”) may be output by voice. For example, the user can easily understand if the sound is output in the form of “Showa-cho, Kariya-shi, Aichi”. With the navigation device according to the third aspect, this can be realized. The administrative apparatus according to claim 3, further comprising: obtaining the position data and the hierarchical data from the administrative division data storage medium storing the positional data of the administrative division and the hierarchical data indicating the hierarchical relation of the administrative division. An acquisition unit is provided. Then, the control means specifies an address composed of a plurality of administrative division names corresponding to the input position information based on the position data and the hierarchical data acquired by the administrative division data acquisition means, and specifies each of the identified administrative divisions. The voice patterns corresponding to the sections are combined from the voice recognition data, and the combined voice patterns are output as voice to the voice output means. Note that the hierarchical data indicating the hierarchical relation of the administrative divisions is data indicating, for example, the hierarchical relation of a certain administrative division to which town, which ward, which city, and which prefecture.
[0013]
In such a case, voice is output in the form of an address, so that the user can easily specify the position of the administrative division or facility.
By the way, even if it does not cover all the names, if there is audio data that has been recorded (sampled) in advance even for some administrative division names (including address format) and facility names, use them. I hope it is. That is, as described in the fourth aspect, there is further provided an audio data acquisition means for acquiring audio data from an audio data storage medium for storing audio data recorded in advance corresponding to an audio pattern. If the voice data corresponding to the voice pattern to be output as voice to the voice output means exists in the voice data obtained by the voice data obtaining means, the control means outputs the voice data instead of the voice pattern. It is output to the output means.
[0014]
With this configuration, for a case where voice data exists, a very fluent voice output is made, and the user can easily understand.
Further, a program for functioning as the control means of the navigation device according to any one of claims 1 to 4 as described in claim 5 may be executed by a computer built in the navigation device. Good. If this is the case, for example, the program is recorded on a computer-readable recording medium such as a flexible disk, a magneto-optical disk, a CD-ROM, a hard disk, a ROM, and a RAM, and loaded into the computer as necessary. When activated, it can function as a robot pointing device. Further, since the program can be distributed through a network, it is easy to upgrade the functions.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments to which the present invention is applied will be described with reference to the drawings. It should be noted that the embodiments of the present invention are not limited to the following examples in any way, and can take various forms as long as they belong to the technical scope of the present invention.
[0016]
FIG. 1 is a block diagram illustrating a schematic configuration of a navigation device 20 according to the embodiment. The navigation device 20 is mounted on a vehicle, and a position detector 21 for detecting a current position of the vehicle, an operation switch group 22 for inputting various instructions from a user, and various instructions can be input similarly to the operation switch group 22 Therefore, a remote control terminal (hereinafter, referred to as a remote controller) 23a separate from the navigation device 20, a remote control sensor 23b for inputting a signal from the remote controller 23a, and information from a device different from the navigation device 20 An external information input / output unit 24 capable of inputting and outputting information to another device; a map data input unit 25 for inputting map data and the like from an external storage medium in which map data and various kinds of information are recorded; , A display unit 26 for displaying a map and various information, a voice output unit 27 for outputting various guide voices, and the like. Various processes are executed in accordance with inputs from the position detector 21, the operation switch group 22, the remote control sensor 23b, the external information input / output unit 24, and the map data input unit 25, and the external information input / output unit 24, the display unit 26, the voice And a control circuit 29 for controlling the output unit 27.
[0017]
The position detector 21 receives a transmission radio wave from a GPS (Global Positioning System) artificial satellite via a GPS antenna, and detects a position, a direction, a speed, and the like of the vehicle, and a GPS receiver 21a, which is added to the vehicle. A gyroscope 21b for detecting the magnitude of the rotational movement, a distance sensor 21c for detecting the distance traveled from the longitudinal acceleration of the vehicle, and the like, and a geomagnetic sensor 21d for detecting the traveling direction from the geomagnetism are provided. I have. Each of the sensors 21a to 21d has an error having a different property, and is configured to be used while complementing each other.
[0018]
As the operation switch group 22, a touch panel provided on the display screen, a mechanical key switch provided around the display unit 26, and the like, which are integrally formed with the display unit 26, are used. The touch panel and the display unit 26 are laminated and integrated, and there are various types of touch panels such as a pressure-sensitive type, an electromagnetic induction type, a capacitance type, and a combination thereof. May be used.
[0019]
The external information input / output unit 24 is connected to an antenna (not shown), and receives traffic information from a VICS center (not shown) via the antenna. The received traffic information is sent to the control circuit 29 and used for setting a guidance route.
The map data input device 25 is a device for inputting various data stored in the storage medium 30. The storage medium 30 stores map data 200, voice data 201, voice recognition data 301, and administrative division hierarchy data 401. As an actual recording medium, a CD-ROM or DVD is generally used because of its data amount, but other media such as a magnetic storage device such as a hard disk or a memory card may be used. The map data 200 stored in the storage medium 30 includes road shape data, road width data, road regulation data, terrain data, mark data, intersection data, facility data, and the like. The audio data 201 is audio data generated by recording. The voice data generated by the recording is, for example, a human voice voice recorded by a PCM method with a sampling frequency of 44.1 KHz and a quantization bit number of 16 bits. The uttered voice includes an administrative division name, a facility name, and the like. Specifically, it is composed of a main administrative division name (for example, Aichi Prefecture), a combination of main administrative division names (for example, Nagoya City, Aichi Prefecture), and a main facility name (for example, Nagoya Dome).
[0020]
The speech recognition data 301 will be described using the data example of FIG. The voice recognition data 301 shown in FIG. 2 includes a voice pattern 303, a display text 305, a reference position 307, and a section 309 as data items. The voice pattern 303 is composed of kana for voice reading, accents and intonations (not shown), and is used when performing voice recognition. The display text 305 is data to be displayed on the display unit 26 when confirming the recognized voice. The reference position 307 indicates a reference position (for example, the position of a government office or the center position) of the recognized administrative division name or facility name. The section 309 is data indicating whether the name is an administrative division name or a facility name.
[0021]
In addition, the administrative division hierarchy data 401 will be described using the data example of FIG. The administrative division hierarchy data 401 shown in FIG. 3 has a tree structure composed of a plurality of cells, and each cell is composed of an administrative division name and position data. Among them, the position data is data indicating a reference position such as the location where the government office of the administrative division is located or the center position. It is preferable that each cell also has information (for example, vertex position information indicating a boundary line) that can specify the area of the administrative division.
[0022]
In FIG. 3, the cell 403 corresponds to Aichi prefecture, and the cells related thereto include a cell 405 in Kariya city, a cell 407 in Nagoya city, a cell 409 in Chiryu city, and the like. Among them, the cells related to the Kariya city 405 include the cell 411 in Aizuma-cho, the cell 413 in Igaya-cho, and the cell 415 in Shiromachi. Since the hierarchy of the administrative division names can be understood in this way, the hierarchical relation of an arbitrary administrative division can be specified by using the administrative division hierarchical data 401.
[0023]
Returning to FIG. 1, the display unit 26 is a color display device, such as a liquid crystal display, an organic EL display, or a CRT, but any of them may be used. The display screen of the display unit 26 includes a mark indicating the current position specified from the current position of the vehicle detected by the position detector 21 and the map data input from the map data input unit 25, a guidance route to the destination, and a name. And additional data such as marks, marks of various facilities, etc. can be displayed in a superimposed manner. In addition, facility guides and the like can be displayed.
[0024]
The voice output unit 27 can output voices of facility guides and various types of guidance input from the map data input unit 25 and voices of traffic information received via the external information input / output unit 24.
The microphone 28 outputs an electric signal based on the input voice when the user inputs (utters) a voice. The user can operate the navigation device 20 by inputting various sounds into the microphone 28.
[0025]
The control circuit 29 is mainly composed of a well-known microcomputer including a CPU, a ROM, a RAM, an I / O, and a bus line for connecting these components, and is based on a program stored in the ROM and the RAM. A display that calculates the current position of the vehicle as a set of coordinates and traveling direction based on each detection signal from the position detector 21 and displays a map or the like near the current position read via the map data input device 25 on the display unit 26. Based on the processing and the point data stored in the map data input device 25, a facility as a destination is selected according to an operation of the operation switch group 22 or the remote controller 23a, and an optimal route from the current position to the destination is automatically determined. , A guide route setting process of setting a guide route by performing a route calculation required.
[0026]
The schematic configuration of the navigation device 20 has been described so far. Here, correspondence with the terms described in the claims will be described. The control circuit 29 corresponds to the control means described in the claims, and the audio output unit 27 corresponds to the audio output means. Further, the map data input device 25 corresponds to voice recognition data obtaining means, administrative division data obtaining means, and voice data obtaining means. Further, the storage medium 30 corresponds to a voice recognition data storage medium, an administrative division data storage medium, and a voice data storage medium.
[0027]
Next, audio output for confirming a point performed by the control circuit 29 will be described using a destination setting process as an example. Descriptions of other processes, such as a guidance process, which is usually performed by a conventional general vehicle navigation device, are omitted.
FIG. 4 is a flowchart for explaining the destination setting process. The destination setting process is started when the user operates the operation switch group 22 or the remote controller 23a to set a destination.
[0028]
When started, first, operation information is acquired (S105). This is because the user intends to set a destination, for example, information of a voice signal output from the microphone 28 when the user voice-inputs the name of the facility into the microphone 28, or a map displayed on the display unit 26. Means the operation information output from the operation switch group 22 or the remote controller 23a when the user operates the operation switch group 22 or the remote controller 23a based on the. The destination may be a facility or a simple point on a map where no facility exists.
[0029]
Next, the destination address set by the user is calculated based on the operation information acquired in S105 and the map data input by the map data input device 25 (S110). For example, when the user voice-inputs the facility name “Kariya Stadium” to the microphone 28, the address of the Kariya Stadium is calculated as “1-49 Jomachi, Kariya City, Aichi Prefecture” in this step. When the user specifies the address and sets the destination, the address is already specified at that time, and thus this step is skipped.
[0030]
Next, it is determined whether or not voice data corresponding to the address calculated in S110 (or the address specified in S105) exists in the voice data 201 (S115). This is determined by searching the audio data 201 by the administrative division name. The search unit may be an individual administrative division name or a combination of administrative division names. For example, if the address calculated in S110 is “1-49 Jomachi, Kariya-shi, Aichi” and if the data “Kariya-shi, Aichi” is found in the voice data 201, it is determined that the voice data corresponding to the address exists. I do. The search in this step needs to be performed carefully. This is because, since the voice data 201 is searched by the administrative division name, there may be audio data with different reading styles and accents even if the administrative division name itself is the same. Therefore, in order to eliminate such a problem, it is preferable to previously remove voice data in which a plurality of types of reading are present under the same administrative division name. Of course, the present invention is not limited to the case where each audio data of the audio data 201 is the audio data 201 which can be specified by the position information.
[0031]
As a result of the determination, if the voice data corresponding to the address calculated in S110 exists in the voice data 201, the process proceeds to S120, and if not, the process proceeds to S125.
In step S120, according to the address calculated in step S110, speech data 303 is generated by combining the speech pattern 303 of the speech recognition data 301. At this time, first, a pair of the administrative division name and the reference point is obtained with reference to the administrative division hierarchical data 401. The voice pattern 303 is specified from the voice recognition data 301 by using the obtained pair, and the voice pattern 303 is combined.
[0032]
A specific example will be described. For example, if the address calculated in S110 is “1-49 Jomachi, Kariya City, Aichi Prefecture”, first, from the administrative division hierarchy data 401, the cell 403 of Aichi Prefecture, the cell 405 of Kariya City, and the cell 415 of Jomachi are Identify and extract. Then, the voice pattern 303 is specified from the voice recognition data 301 by using the pair of the administrative division name of each cell and the reference point. That is, the administrative division name of each cell is matched with the display text 305 of the speech recognition data 301, the position information of each cell is matched with the reference position 301 of the speech recognition data 301, and the logical product of both is obtained. Is extracted from the voice pattern 303 of the data record that matches. Then, the plurality of extracted voice patterns 303 are combined according to the address. Specifically, read-aloud data is generated in combination like "Aichiken Kariyashi Shiromachi Ichino Yongyukyu".
[0033]
On the other hand, in S125, according to the address calculated in S110, the read voice data is generated by combining the searched voice data 201 and the voice pattern 303 of the voice recognition data 301. At this time, if the reading data corresponding to the address can be generated only by the voice data 201, the voice pattern 303 is not used. The method of using the voice pattern 303 is the same as the method described in S120.
[0034]
A specific example will be described. For example, if the address calculated in S110 is “1-49 Jomachi, Kariya City, Aichi Prefecture”, the voice data 201 is used first. Here, assuming that there is data reading out “Kariya City, Aichi Prefecture” as the audio data 201, this data is used. Subsequently, the cell 403 of Aichi prefecture, the cell 405 of Kariya city, and the cell 415 of castle town are specified from the administrative division hierarchy data 401, and the cell of castle town is extracted among them. Then, the voice pattern 303 “Shiromachi” is specified from the voice recognition data 301 using the pair of the administrative division name of the cell and the reference point. Finally, the voice data 201 is generated by combining “Kariya city, Aichi” with the voice pattern 303 “Shiromachi”.
[0035]
When the generation of the read-aloud data is completed in this way, the voice is output to the voice output section 27 based on the generated read-aloud data (S130). As an example, the content is such as "Is the destination at Kariya Stadium in 1-49, Jomachi, Kariya City, Aichi Prefecture?"
[0036]
Subsequently, information on the operation performed by the occupant corresponding to the voice output in S130 is obtained (S135). The operation information is operation information of the operation switch group 22 and the remote controller 23a operated by the user to determine the destination or to cancel the destination.
[0037]
Subsequently, the process branches depending on whether or not the operation information acquired in S130 is information for determining a destination. If the information indicates that the destination is determined, the destination is determined and the process (destination setting process) ends. On the other hand, if the information is to cancel, the process returns to the first step (S105) of the destination setting process.
[0038]
So far, the audio output for confirming a point has been described by taking the destination setting processing as an example. However, the following effects can be obtained by the navigation device 20 of the present embodiment.
The navigation device 20 performs voice output using the voice pattern 303 used for voice recognition. For this reason, it is not necessary to newly prepare voice output data storing the administrative division names and facility names as dedicated data. Therefore, any navigation device having a voice recognition function like the navigation device 20 can be easily realized. In addition, since the administrative division name or facility name (that is, the audio pattern 303) of the voice recognition data 301 and the positional information (that is, the reference position 307) are accurately associated, for example, the administrative division name of the same kanji may be different depending on the region. Even if the reading is different, the voice can be output accurately.
[0039]
In addition, since the set destination is output as voice in the form of an address, the user can easily confirm the position of the destination.
Further, among the administrative division names scheduled to be read out, those that exist as the audio data 201 are used for audio output. Therefore, fluent voice output is made, and the user can easily understand.
[0040]
Hereinafter, other embodiments will be described. In the above-described embodiment, the audio output for confirming a point has been described with reference to the destination setting processing. However, audio processing for confirmation and the like is performed by the same processing in processing other than the destination setting processing. Is also good. For example, when a memory location is set or when facility information is searched, the facility name or address may be output as voice for confirmation.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a navigation device according to an embodiment.
FIG. 2 is a data example for explaining voice recognition data.
FIG. 3 is an example of data for explaining administrative division hierarchy data.
FIG. 4 is a flowchart illustrating a destination setting process.
[Explanation of symbols]
Reference Signs List 20 navigation device, 21 position detector, 21a GPS receiver, 21b gyroscope, 21c distance sensor, 21d geomagnetic sensor, 22 operation switch group, 23a remote control, 23b remote control sensor, 24 external Information input / output unit, 25: map data input unit, 26: display unit, 27: voice output unit, 28: microphone, 30: storage medium, 200: map data, 201: voice data, 301: voice recognition data, 401 ... Administrative division hierarchy data

Claims (5)

行政区画名称を認識するための音声パターンとその行政区画の基準位置を示す位置データとが対になった音声認識データが記憶された音声認識データ記憶媒体から前記音声認識データを取得する音声認識データ取得手段と、
音声パターンに基づいた音声を出力する音声出力手段と、
利用者によって入力された位置情報に対応する音声パターンを前記音声認識データ取得手段が取得した前記音声認識データの中から検索し、検索した前記音声パターンを前記音声出力手段に音声として出力させる制御手段と、
を備えることを特徴とする音声認識機能を有するナビゲーション装置。
Speech recognition data for acquiring speech recognition data from a speech recognition data storage medium storing speech recognition data in which a speech pattern for recognizing an administrative section name and position data indicating a reference position of the administrative section are stored. Acquisition means;
Audio output means for outputting audio based on the audio pattern;
Control means for searching a voice pattern corresponding to position information input by a user from the voice recognition data obtained by the voice recognition data obtaining means, and outputting the searched voice pattern to the voice output means as voice When,
A navigation device having a voice recognition function, comprising:
請求項1に記載のナビゲーション装置において、
前記音声認識データ取得手段が取得する音声認識データには、更に、施設名称を認識するための音声パターンとその施設の存在位置を示す位置データとが対になったデータが含まれ、
前記制御手段は、利用者によって入力された位置情報に対応する音声パターンを前記音声認識データ取得手段が取得した前記音声認識データの中から検索し、検索した前記音声パターンを前記音声出力手段に音声として出力させることを特徴とするナビゲーション装置。
The navigation device according to claim 1,
The voice recognition data obtained by the voice recognition data obtaining means further includes data in which a voice pattern for recognizing a facility name and position data indicating the location of the facility are paired,
The control means searches for a voice pattern corresponding to the position information input by the user from the voice recognition data obtained by the voice recognition data obtaining means, and outputs the searched voice pattern to the voice output means. A navigation device characterized in that it is output as a message.
請求項1又は請求項2に記載のナビゲーション装置において、
更に、行政区画の位置データと行政区画の階層関係を示す階層データとが記憶された行政区画データ記憶媒体から、前記位置データ及び前記階層データを取得する行政区画データ取得手段を備え、
前記制御手段は、入力された前記位置情報に対応する、複数の行政区画名称からなる住所を、前記行政区画データ取得手段が取得した前記位置データ及び前記階層データとに基づいて特定し、特定した各々の行政区画に対応する前記音声パターンを前記音声認識データの中から組み合わせ、その組み合わせた音声パターンを前記音声出力手段に音声として出力させることを特徴とするナビゲーション装置。
The navigation device according to claim 1 or 2,
Further, from an administrative division data storage medium in which positional data of administrative divisions and hierarchical data indicating the hierarchical relation of administrative divisions are stored, the administrative division data acquisition means for acquiring the position data and the hierarchical data,
The control means, based on the position data and the hierarchical data obtained by the administrative division data acquisition means, specified an address consisting of a plurality of administrative division names corresponding to the input location information, and specified. A navigation device, wherein the voice patterns corresponding to each administrative section are combined from the voice recognition data, and the combined voice pattern is output as voice to the voice output means.
請求項1〜請求項3の何れかに記載のナビゲーション装置において、
更に、あらかじめ録音した音声データを記憶する音声データ記憶媒体から音声データを取得する音声データ取得手段を備え、
前記制御手段は、前記音声データ取得手段が取得した前記音声データの中に、前記音声出力手段に音声として出力予定の前記音声パターンに対応する前記音声データが存在する場合は、前記音声パターンの代わりに前記音声データを前記音声出力手段に出力させることを特徴とするナビゲーション装置。
In the navigation device according to any one of claims 1 to 3,
Further, the audio data storage means for obtaining audio data from an audio data storage medium that stores audio data recorded in advance,
The control means, if the voice data corresponding to the voice pattern to be output as voice to the voice output means in the voice data obtained by the voice data obtaining means, replaces the voice pattern. Wherein said audio data is output to said audio output means.
コンピュータを、請求項1〜請求項4の何れかに記載のナビゲーション装置の制御手段として機能させるためのプログラム。A program for causing a computer to function as control means for the navigation device according to claim 1.
JP2003111744A 2003-04-16 2003-04-16 Navigation system and program Pending JP2004317803A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003111744A JP2004317803A (en) 2003-04-16 2003-04-16 Navigation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003111744A JP2004317803A (en) 2003-04-16 2003-04-16 Navigation system and program

Publications (1)

Publication Number Publication Date
JP2004317803A true JP2004317803A (en) 2004-11-11

Family

ID=33472206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003111744A Pending JP2004317803A (en) 2003-04-16 2003-04-16 Navigation system and program

Country Status (1)

Country Link
JP (1) JP2004317803A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7203259B1 (en) 2022-03-29 2023-01-12 三菱電機Itソリューションズ株式会社 Broadcast audio transmission device, broadcast audio transmission method, and broadcast audio transmission program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7203259B1 (en) 2022-03-29 2023-01-12 三菱電機Itソリューションズ株式会社 Broadcast audio transmission device, broadcast audio transmission method, and broadcast audio transmission program
JP2023146934A (en) * 2022-03-29 2023-10-12 三菱電機Itソリューションズ株式会社 Broadcasting audio transmission device, broadcasting audio transmission method and broadcasting audio transmission program
JP7426466B2 (en) 2022-03-29 2024-02-01 三菱電機Itソリューションズ株式会社 Broadcasting audio transmission device, broadcasting audio transmission method, broadcasting audio transmission program, audio transmission terminal, and receiving terminal

Similar Documents

Publication Publication Date Title
JP3573907B2 (en) Speech synthesizer
US6064323A (en) Navigation apparatus, navigation method and automotive vehicles
JP2644376B2 (en) Voice navigation method for vehicles
US6937982B2 (en) Speech recognition apparatus and method using two opposite words
KR101063607B1 (en) Navigation system having a name search function using voice recognition and its method
JP4930486B2 (en) Voice recognition system and navigation device
JP2001027540A (en) Navigation method to use function of voice recognition
JP3645104B2 (en) Dictionary search apparatus and recording medium storing dictionary search program
US20110022390A1 (en) Speech device, speech control program, and speech control method
JP2011232668A (en) Navigation device with voice recognition function and detection result presentation method thereof
JP2004317803A (en) Navigation system and program
JP3700533B2 (en) Speech recognition apparatus and processing system
JP2007187687A (en) Speech conversion processing apparatus
JPH0926799A (en) Speech recognition device
JP3925368B2 (en) Control system
JP3759313B2 (en) Car navigation system
JPH08328584A (en) Speach recognition device, method therefor and navigation device
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program
JPH09114487A (en) Device and method for speech recognition, device and method for navigation, and automobile
KR100466737B1 (en) Navigation devices, navigation methods and automobiles
JP2006090867A (en) Navigation system
JP2000074685A (en) Retrieving method in mobile unit and car navigation system
KR200328847Y1 (en) Geographical information provider which gives user&#39;s previously input schedule together
JP2004061754A (en) Voice controlled unit
JP4219047B2 (en) Navigation device and destination setting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090721