JP4049456B2 - 音声情報利用システム - Google Patents
音声情報利用システム Download PDFInfo
- Publication number
- JP4049456B2 JP4049456B2 JP27549798A JP27549798A JP4049456B2 JP 4049456 B2 JP4049456 B2 JP 4049456B2 JP 27549798 A JP27549798 A JP 27549798A JP 27549798 A JP27549798 A JP 27549798A JP 4049456 B2 JP4049456 B2 JP 4049456B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- information
- utilization system
- terminal
- voice recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
Description
【発明の属する技術分野】
本発明は自動車等の移動体に備えた情報端末装置の音声情報利用システムに関し、特に通信機能を介して行われる音声情報の利用システムに関する。
【0002】
【従来の技術】
自動車のナビゲーション装置等において、地名検索や目的地の設定等に音声認識を用いることが行われている。
例えば、特開平7−222248号公報には、携帯型情報端末が通信できるネットワーク上に、音声認識手段を有する大規模なハードウエアをもつサーバを設け、携帯型情報端末から入力した音声情報を通信手段によりサーバに送り、サーバ内で音声認識を行い、認識結果を文字情報として表現し、携帯情報端末に送り返すようにした音声情報を利用したシステムが記載されている。このシステムにおいては、携帯型情報端末では音声を入力し符号化して記録し、記録された音声情報は通信機能によりサーバに送られる。サーバでは音声認識手段により、送られてきた音声情報を認識し文字情報に変換している。
【0003】
【発明が解決しようとする課題】
本発明は、上記のような従来の音声情報利用システムを、特に車載用情報端末として、使い勝手を向上させた音声情報利用システムを提供することである。
【0004】
【課題を解決するための手段】
上記課題を解決するため、本発明音声情報利用システムは、情報センターと通信手段によりデータをやり取りできる車載用情報端末を有し、この情報端末には音声入力手段、入力された音声を識別して音声情報としてコード化する音声認識手段、コード化された音声情報と音声コマンドを照合し、その音声情報に対応する情報コードを選択して出力する音声認識用テーブル、音声合成手段、表示手段、及びCPUを有している。一方、情報センターには通信手段、音声認識用テーブル、情報提供メニューテーブルDB(データベース)、及びCPUを有する。そして、前記音声情報に対応する情報コードがセンターに送信され、センターは情報コードに対応する情報を情報提供メニューテーブルDBから取り出して端末に送信する。
【0005】
前記端末が有する音声コマンド、情報コード等を含む音声認識用テーブルのデータは、通信手段を介して情報センターの音声認識用テーブルから入手する。この音声認識用テーブルは情報センターにおいて構築され、また適宜更新されるため、端末側の音声認識用テーブルも端末側がセンター側からデータを入手する際に新しいデータを送信してもらって更新する。また、音声認識された音声情報は表示または音声出力されて発声者が確認できるようになっている。
【0006】
その他、本発明の実施の形態については以下に説明する。
【0007】
【発明の実施の形態】
図1は本発明システムの構成の概要を示した図である。情報端末1側は、CPU17の周辺に、マイク等の音声入力手段11、入力された音声を認識する音声認識手段12、音声コマンドを有する音声認識辞書14を含んだ音声認識用テーブル13、音声合成手段15、音声出力手段19、液晶ディスプレイ等の表示手段18、及び情報センター2が接続されているネットワーク3に無線又は有線により接続可能な通信手段16を有する。
【0008】
一方、情報センター(以下、センターと記す)2側は、CPU22の周辺に、ネットワークに接続するための通信手段21、音声コマンドを有する音声認識辞書24を含んだ音声認識用テーブル23、及び情報提供メニューテーブルDB25を有する。
図1に示された構成の動作の概要を以下に説明する。端末1側において、ユーザが入手したい情報のコマンドを音声入力手段11に発する。入力された音声は、音声認識手段12によってコードに変換される。音声認識用テーブル13の音声認識辞書14に発した音声から変換されたコードに対応する音声コマンドが含まれていれば、その音声コマンドが選択され、通信手段16によりネットワーク3を介してセンター2側にその音声コマンドに対応する情報コードが送信される。なお、音声コマンドと該音声コマンドに対応する情報コードを共通にすること、つまり音声コマンドの文字コード自体を情報コードとすることも可能である。センター2側では通信手段21がこの情報コードを受信し、情報提供メニューテーブルDB25のデータベースからこの情報コードに対応したデータを取り出し、通信手段21、ネットワーク3、及び通信手段16を介して端末1側に送信する。
【0009】
上記のように、本発明では端末1側に音声認識用テーブル13を備え、端末1側で音声の認識を行うようにしているので、従来の手法のように音声認識のために端末1とセンター2の間で通信を行う必要がない。
端末側は表示手段18を有しているが、ユーザが音声入力手段11に対して発し、音声認識されたコマンド名がこの表示手段18に表示されるようになっている。これにより、ユーザが発した音声によるコマンド名がどのように認識されたか確認できる。
【0010】
音声認識用テーブル24のデータはセンター2側において構築される。端末1側はこのデータを通信手段21、ネットワーク3、及び通信手段16を介してデータ通信により入手し、端末1側にも音声認識用テーブル13を構築する。なおセンター2側の音声認識用テーブル23は常に更新されているので、端末1側は常に最新のデータを得るため、例えばユーザが端末1から情報提供要求コードをセンター2側に要求したとき、同時に端末1側の音声認識用テーブルのバージョン番号を送信する。そして、端末1が有する音声認識用テーブル13のバージョン番号とセンター2側が有する同テーブル23のバージョン番号とが一致しているかどうか判別し、一致していなければ音声認識用テーブルをセンター2側から送信し、端末1側の音声認識用テーブルを最新のバージョンに書き換える。
【0011】
図2は上記構成のうち音声認識用テーブル13(又は23)の内容を示した表である。表はデータ形式とその内容を示しており、総件数n件のデータが含まれている。各データにつき、
▲1▼サービスメニューコード
▲2▼音声認識表示のサイズ
▲3▼音声コマンドのサイズ
▲4▼検索条件のサイズ
▲5▼音声認識結果表示データ
▲6▼音声コマンド
▲7▼検索条件
を有しており、1番目からn番目まで各々について同じ項目のデータを有している。
【0012】
この表において、例えば1番目のデータはコンビニエンスストアに関するデータであり、2番目のデータはファミリーレストランに関するデータである。そして、上記音声認識用テーブル13のデータは情報センター2において構築される。
図2の▲1▼〜▲7▼のデータの内、「▲1▼サービスメニューコード」はセンター2への情報リクエストコードといえる情報コードであり、例えば、コンビニエンスストアのコードを「FF007A8E」のような情報コードで表すことができる。この「▲1▼サービスメニューコード」をセンター2へ送信することにより、センタ2からコンビニエンスストアに関する情報が端末1に送信され、ユーザは希望の情報を得ることができる。
【0013】
「▲6▼音声コマンド」は音声認識した情報の呼び方のデータを表しており、音声認識辞書として用いる。音声認識する情報が、例えば「コンビニエンスストア」の場合、音声コマンドの音声認識用データとして「コンビニエンスストア」、「コンビニ」、「コンビニエンス」等の複数のデータを設定することができる。従って、ユーザが「コンビニエンスストア」と発声せず、「コンビニ」と発声した場合も、「コンビニエンスストア」と認識されるようになっている。なお、図2のテーブル上では「▲6▼音声コマンド」のデータが複数ある場合、〔コンビニエンスストア;コンビニ;コンビニエンス〕のように、区切り記号として例えば「;」が用いられており、この音声コマンドを使用するソフトウエアはこの記号を検出することにより、音声認識用データがいくつ含まれているか判断することができる。また、「▲6▼音声コマンド」は、音声コマンドデータにアクセントをつけることによって音声合成にも用いることができる。
【0014】
図3は音声認識及び音声合成の両者に用いることができる音声コマンドデータの例を示したものである。この音声コマンドデータは、図3(a)に示した〔コンビ’ニエンスストア;コンビ’ニ;コンビ’ニエンス〕のように音声で発する場合のアクセントを付けたものであり、このデータから(b)の音声合成用データと(c)の音声認識用データを得ることができる。
【0015】
そして、ユーザが発した音声によるコマンド名がどのように音声認識されたかを、図3(b)の音声合成用データを用いてその結果を音声で発して知らせることができる。
一方、「▲5▼音声認識結果表示データ」は、先に述べたように、ユーザが発した音声によるコマンド名がどのように音声認識されたか、その結果を文字で表示するためのデータである。
【0016】
「▲7▼検索条件」は、検索条件を設定する領域である。この領域に検索条件を設定することにより、ユーザが得たい情報に対する細かな設定、例えば入手するコンビニの件数を現在地から近い順に10に設定し、不要に多くの情報を得ないようにすることができる。また、各コンビニに関する情報の文字数を一定の範囲に制限することもできる。このようにするこにより、ユーザの手間を省き、またセンターが管理するデータの量に合わせた制御を行うことができる。
【0017】
「▲2▼音声認識表示のサイズ」は、表示のための容量を1バイトで表わしたものであり、「▲3▼音声コマンドのサイズ」は、コマンドのための容量を1バイトで表したものである。また、「▲4▼検索条件のサイズ」は、検索条件のための容量を1バイトで表したものである。
図4は、情報提供メニューテーブル25の階層構造を示したものである。例えば、タウンサーチを行って現在地付近のコンビニエンスストアを探したいとする。従来のようにキーボードにより選択する場合、まずタウンサーチを選択し、次に順次、現在地付近の施設、施設ジャンル、買物のコードをキーボードで選択し、最後にコンビニエンスストアを選択する。コンビニエンスストアには、例えばその位置及び番地、名称、電話番号等のデータベース(DB)が付随しており、これらのデータに基づいて表示装置に地図と共にコンビニエンスストアの位置が表示される。
【0018】
本発明では、従来のようにキーボード等により選択せず、ユーザが発声することにより得た音声認識用テーブル13のコンビニエンスストアに相当する情報コードである「▲1▼サービスメニューコード」をセンター2へ送信する。するとセンタ2から上記コンビニエンスストアに関する情報が上記データベース(DB)から取り出されて端末1に送信され、ユーザは希望の情報を得ることができる。
【0019】
なお、図5に示すように、端末1側に情報提供メニューテーブル(DBを含まない)01とキーボード等の入力手段02を設ければ、従来のようにメニューテーブル01を用いてコンビニエンスストアを選択し、そのコードをセンター2側に送信して情報を得ることもできる。
次に本発明音声情報利用システムの動作の詳細について説明する。なお、以下の動作はCPU17と22により制御される。まず、本発明システムを動作させるために端末1の電源を投入すると、通信手段16、ネットワーク3、及び通信手段21を介して、端末1はセンター2の音声認識用テーブル23のデータをデータ通信によって入手し、端末1側の音声認識用テーブル13に格納する。次に、音声認識システムの動作を開始させる。ユーザがコンビニで買物をしたい場合、図1の音声入力手段11に対して、例えば「コンビニ」と発声すると、「コンビニ」という音声が音声認識手段12によりコードに変換される。このコードが音声認識用テーブルに入力する。図2は先に説明したように音声認識用テーブルのデータ内容を示しており、音声認識辞書として用いられる「▲6▼音声コマンド」を含んでいる。音声認識用テーブルの第1番目のデータの「▲6▼音声コマンド」に、先に記載したように〔コンビニエンスストア;コンビニ;コンビニエンス〕が含まれていたとすると、先の音声から変換されたコードと音声認識用テーブルの第1番目のデータの「▲6▼音声コマンド」のコードが一致するため、コンビニが選択され、表示手段18に「コンビニ」と表示される。また、音声合成手段15により「コンビニ」と音声合成され、音声出力手段19から「コンビニ」と発声される。
【0020】
上記のように「コンビニ」と音声認識されると、「コンビニ」に対応した情報コードである「▲1▼サービスメニューコード」、例えば「FF007A8E」というコードデータが端末1の通信手段16、ネットワーク3、センター2の通信手段21を介してセンター2側に送信される。センター2では、CPU22により上記「FF007A8E」というコードに対応したデータが情報提供メニューテーブルDB25から取り出され、通信手段21、ネットワーク3、及び通信手段16を介して端末1に送信され、CPU17により表示手段18にコンビニに関する情報が表示される。また、音声出力手段19により必要に応じて音声によって情報をユーザに伝える。
【0021】
先に述べたように、音声認識用テーブル23のデータはセンター2側において構築され、また常に更新されている。そのため、端末1側は常に最新のデータを有した音声認識用テーブル13を得る必要がある。例えばユーザが端末1から情報提供要求コードをセンター2に送信したとき、同時に端末の音声認識用テーブル13のバージョン番号を送信する。そして、端末1が有する音声認識用テーブル13のバージョン番号とセンター2が有する音声認識用テーブル23のバージョン番号が一致しているかどうか判別し、一致していなければ音声認識用テーブル23のデータをセンター2側から送信し、端末1側の音声認識用テーブル13を最新のバージョンに書き換える。
【0022】
図6及び図7は音声認識用テーブルの容量に関する実施の形態を示したものである。音声認識用テーブルには、センターが提供する情報に関して、音声コマンド、音声認識結果表示データ、検索条件等が設定されたデータ群が集合体として構成されている。これらのデータは個々のデータが可変長に設定できるようになっており、音声認識用テーブル全体の容量も提供する情報量により可変長となる。一方、センター2側から送信されたデータ量に対して、端末1側の受信容量には制限がある。そのため、予め送信されるデータの容量を定めることにより、端末1側のデータを保持するメモリがオーバフローするのを防止することができる。
【0023】
図6において、端末1側で音声認識用テーブルで現在使用可能なメモリの総容量をaとすると、この総容量aを予めセンター2側に知らせておく。こうすることにより、センター2側は端末1側に送信するデータの量を調整するので、支障なくデータを送信することができる。
図7は、端末1側ですでにメモリの一部を使用済であり、音声認識用テーブルで現在使用可能な残りのメモリの容量をbとすると、この使用可能容量bを予めセンタ2側に知らせておく。こうすることにより、同様にセンター2側は端末1側に送信するデータの量を調整するので、支障なくデータを送信することができる。
【0024】
図8は本発明音声情報利用システムを実施する場合のメッセージの発声内容に関する実施の形態を示したものである。本発明システムにおいては、発声を促すメッセージや発声したコマンドに対する結果を音声で知らせている。ユーザはこのシステムを何回も利用すると、発声を促すメッセージ等を覚えてしまい、一々メッセージを聞くことが煩わしくなってくる。本発明においてはそのような場合のために、メッセージ等のレベルを例えば「詳細」、「標準」、「シンプル」の3つに分け、これを選択できるようにしてある。図8に示したボードにおいて、このシステムを最初に利用するユーザは「詳細」を選択する。すると本発明システムがオンすると同時に「詳細」レベルのメッセージが提供される。本システムに慣れたユーザが利用するときは「シンプル」を選択すれば、必要最小限のメッセージのみが提供される。また、「標準」を選択すると、「詳細」より簡潔なメッセージが提供される。なお、「認識OFF」を選択すると、音声認識システムがOFFとなる。
【0025】
図9は本発明音声認識システムの動作を示すフローチャートであり、特に間違って音声認識がされた場合、間違いの原因となった音声コマンドを辞書から削除して再度音声認識を行うようにした場合のフローチャートを示したものである。システムの端末1の電源が投入されると、端末1側は通信手段によって音声認識用テーブルをセンター2側から入手する(S1)。次に、スイッチをオンして音声認識動作を開始させ(S2)、ユーザは得たい情報のコマンドを発声できる状態にする。その後、発声があったかどうか判断される(S3)。発声された場合(Yes)、音声は音声認識によりコード化され、音声認識用テーブル13の音声認識辞書14の音声コマンドと照合される(S4)。そして次に照合の結果が表示あるいは音声により報知され(S5)、結果を見て音声認識をやり直すかどうか判断する(S6)。間違って音声認識されていれば(Yes)、誤りと判定された音声コマンドを音声認識辞書から削除し(S9)、削除された音声認識辞書を用いて再度音声認識を行う(S2)。正しく音声認識がされており、S6において音声認識をやり直す必要がない場合(No)、音声情報利用システムは先に述べたような情報入手の動作を開始する(S7)。S3で発声がされなかった場合(No)、タイムアウトかどうか判断される(S8)。Yesであれば、即ち所定時間経過しても発声がされなかった場合(Yes)、動作は終了する。S8でNoの場合、即ち発声はされていないが所定時間経過していない場合、再度S3に戻って発声があるかどうか判断される。そしてこの動作は、発声がされるまで、あるいは所定時間経過するまで繰り返される。なお、S9において削除された音声コマンドは、S7の音声認識システムの動作が開始された時点で削除から回復されて辞書に復活する。
【0026】
上記のように間違いの原因となった単語を削除して音声認識を行うので、再度同じ間違が生じなくなる。
図10は音声認識用テーブルの音声コマンドを表示したものである。音声認識用テーブルは適宜更新されており、それに伴って音声コマンドも変化している。従って、ある情報を入手したい場合、現在どのような音声コマンドが含まれているかを知っておけば、どのように発声したらよいか知ることができる。そのために本発明では、例えば、現在地の交通情報を知りたい場合、あるいは現在地付近のタウン施設を知りたい場合、どのように発声したらよいかを表示させることができるようにしてある。コンビニエンスストアで買物をしたい場合、この表示を見て「コンビニ」、あるいは「コンビニエンス」と発声すれば、コンビニエンスストアに関する情報を入手できるできることがわかる。
【0027】
【発明の効果】
本発明の音声情報利用システムでは、車載用情報端末側に音声認識手段、音声認識用テーブルを備えて音声認識をしているので、音声認識のために端末とセンター間で通信を行う必要がない。そのため音声認識のための時間が短縮でき、また通信に要する費用を軽減できる。また、発声した波形データをセンターには送信しないため、波形データとセンターから受信するデータを区別する回路が不要となる。さらに、音声認識用テーブルが端末側に備えられていても、適宜センター側からデータを入手して更新できるので、常に最新のデータが得られる。
【図面の簡単な説明】
【図1】本発明システムの構成の概要を示した図である。
【図2】音声認識用テーブルの内容を示した表である。
【図3】音声認識及び音声合成の両者に用いることのできる音声コマンドの例を示した図である。
【図4】情報メニューテーブルの階層構造を示した図である。
【図5】 入力手段によっても必要な情報名を選択できるように構成した、本発明システムの構成の概要を示した図である。
【図6】音声認識用テーブルの容量に関する実施の形態を示した図である。
【図7】音声認識用テーブルの容量に関する別の実施の形態を示した図である。
【図8】本発明音声情報利用システムを実施する場合のメッセージの発声内容に関する実施の形態を示した図である。
【図9】本発明音声情報利用システムの動作を示すフローチャートであり、特に間違って音声認識がされた場合、間違いの原因となった音声コマンドを辞書から削除して再度音声認識を行うようにした場合のフローチャートを示した図である。
【図10】音声認識用テーブルの音声コマンドを表示した図である。
【符号の説明】
1…情報端末
11…音声入力手段
12…音声認識手段
13…音声認識用テーブル
14…音声認識辞書
15…音声合成手段
16…通信手段
17…CPU
18…表示手段
19…音声出力手段
2…情報センター
21…通信手段
22…CPU
23…音声認識用テーブル
24…音声認識辞書
25…情報提供メニューテーブル&DB
3…ネットワーク
01…情報提供メニューテーブル
02…入力手段
Claims (15)
- 音声入力手段と通信手段を有する車載用情報端末を備えた音声情報利用システムであって、該端末は、情報センターから前記通信手段によって入手した音声コマンドと該音声コマンドに対応する情報コードを有する音声認識用テーブルを備え、前記音声入力手段により入力され音声認識された音声情報に該当する前記音声コマンドを選択し、該選択された音声コマンドに対応する前記情報コードを前記音声認識用テーブルから取り出し、該情報コードに対応する情報を前記情報センターから入手すべく該情報コードを該情報センターに送信すると同時に前記端末の該音声認識用テーブルのバージョン番号を送信し、前記情報センター側の音声認識用テーブルのバージョン番号と一致していなければ前記情報センターから該情報センター側の音声認識用テーブルを受信して音声認識用テーブルを更新する音声情報利用システム。
- 前記音声認識用テーブルの音声コマンドは、対応する情報コードを有している、請求項1に記載の音声情報利用システム。
- 前記車載用情報端末は、前記認識された音声情報を表示する手段を有している、請求項1に記載の音声情報利用システム。
- 前記認識された音声情報を表示するため、前記音声認識用テーブルは音声認識結果表示データを有している、請求項3に記載の音声情報利用システム。
- 前記音声認識用テーブルは、1つの情報コードに対して複数の音声コマンドを有する、請求項1に記載の音声情報利用システム。
- 前記音声認識用テーブルは、1つの情報コードに対して含まれている音声コマンドの数が判別できる構成となっている、請求項5に記載の音声情報利用システム。
- 前記車載用情報端末は、前記認識された音声情報を音声出力する手段を有している、請求項1に記載の音声情報利用システム。
- 前記認識された音声情報を音声出力するため、前記音声コマンドデータは音声合成データを有している、請求項7に記載の音声情報利用システム。
- 前記音声認識用テーブルは、ユーザが得たい情報に対する検索条件を設定する領域を有する、請求項1に記載の音声情報利用システム。
- 前記車載用情報端末の音声認識用テーブルの総容量を予め前記センターに発信しておき、該センターは前記総容量の範囲で前記端末に前記音声認識用テーブルのデータを送信する、請求項1に記載の音声情報利用システム。
- 前記車載用情報端末の音声認識用テーブルの使用可能な容量を随時前記センターに発信し、該センターは前記使用可能な容量の範囲で前記端末に前記音声認識用テーブルのデータを送信する、請求項1に記載の音声情報利用システム。
- 前記音声情報利用システムを実行する際に発せられる音声メッセージの内容をレベル分けし、ユーザが選択できるようにした、請求項1に記載の音声情報利用システム。
- ユーザが前記音声入力手段に対して発声した音声が誤って認識された場合、誤認識の結果選択された音声コマンドを削除し、再度音声認識する手段を有した、請求項1に記載の音声情報利用システム。
- 前記削除された音声コマンドを、音声認識が正しくされた後、音声コマンドに含めるようにした、請求項13に記載の音声情報利用システム。
- 前記音声認識用テーブルの音声コマンドに含まれている単語を表示できるようにした、請求項1に記載の音声情報利用システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27549798A JP4049456B2 (ja) | 1998-09-29 | 1998-09-29 | 音声情報利用システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27549798A JP4049456B2 (ja) | 1998-09-29 | 1998-09-29 | 音声情報利用システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000105681A JP2000105681A (ja) | 2000-04-11 |
JP4049456B2 true JP4049456B2 (ja) | 2008-02-20 |
Family
ID=17556327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27549798A Expired - Fee Related JP4049456B2 (ja) | 1998-09-29 | 1998-09-29 | 音声情報利用システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4049456B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001338204A (ja) * | 2000-05-24 | 2001-12-07 | Canon Inc | 情報提供システム、情報提供装置、端末器、端末装置、情報提供方法、及び、記録媒体 |
JP2002181552A (ja) * | 2000-12-11 | 2002-06-26 | Nippon Telegr & Teleph Corp <Ntt> | サーバ型ナビゲーションシステム |
JP2012088370A (ja) * | 2010-10-15 | 2012-05-10 | Denso Corp | 音声認識システム、音声認識端末、およびセンター |
JP6552390B2 (ja) * | 2015-11-26 | 2019-07-31 | 三菱電機株式会社 | 移動体用支援装置および移動体用支援方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0628028B2 (ja) * | 1985-05-21 | 1994-04-13 | 株式会社日立製作所 | 音声デ−タ入力装置 |
JPS62209974A (ja) * | 1986-03-11 | 1987-09-16 | Nec Corp | フアクシミリ通信方式 |
JPH08186654A (ja) * | 1994-12-22 | 1996-07-16 | Internatl Business Mach Corp <Ibm> | 携帯端末装置 |
JP2929959B2 (ja) * | 1995-02-17 | 1999-08-03 | 日本電気株式会社 | 音声入力ネットワークサービスシステム |
JPH08256144A (ja) * | 1995-03-17 | 1996-10-01 | Fujitsu Ltd | 課金状況照会システム |
JP3722871B2 (ja) * | 1995-06-08 | 2005-11-30 | 富士通株式会社 | 局情報伝送装置 |
JPH0923326A (ja) * | 1995-07-05 | 1997-01-21 | Oki Data:Kk | ファクシミリの通信方法 |
JPH1089976A (ja) * | 1996-09-13 | 1998-04-10 | Hitachi Ltd | 情報表示装置およびナビゲーションシステム |
JPH10111784A (ja) * | 1996-10-08 | 1998-04-28 | Toshiba Corp | パーソナルコンピュータおよびコマンド制御方法 |
JPH10134004A (ja) * | 1996-10-28 | 1998-05-22 | Casio Comput Co Ltd | 画像データ処理システム |
JPH10222342A (ja) * | 1997-02-06 | 1998-08-21 | Nippon Telegr & Teleph Corp <Ntt> | ハイパーテキスト音声制御方法及び装置 |
JP3362625B2 (ja) * | 1997-02-10 | 2003-01-07 | トヨタ自動車株式会社 | 車両用情報検索装置 |
-
1998
- 1998-09-29 JP JP27549798A patent/JP4049456B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000105681A (ja) | 2000-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8189746B1 (en) | Voice rendering of E-mail with tags for improved user experience | |
US8032383B1 (en) | Speech controlled services and devices using internet | |
US8463608B2 (en) | Interactive speech recognition model | |
KR101221172B1 (ko) | 이동 통신 장치의 음성 어휘를 자동으로 확장하는 방법 및장치 | |
US20090204392A1 (en) | Communication terminal having speech recognition function, update support device for speech recognition dictionary thereof, and update method | |
US20030144846A1 (en) | Method and system for modifying the behavior of an application based upon the application's grammar | |
US7392184B2 (en) | Arrangement of speaker-independent speech recognition | |
CN1893487B (zh) | 用于电话簿传送的方法和系统 | |
JP2003295893A (ja) | 音声認識システム、装置、音声認識方法、音声認識プログラム及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
WO2006074345A1 (en) | Hands-free system and method for retrieving and processing phonebook information from a wireless phone in a vehicle | |
WO2008072413A1 (ja) | 音声認識装置 | |
US20060190260A1 (en) | Selecting an order of elements for a speech synthesis | |
KR101594835B1 (ko) | 음성인식 기능을 갖는 차량 및 헤드유닛과 이를 위한 음성 인식방법 | |
JP4401883B2 (ja) | 車載端末、移動通信端末およびこれらを用いたメール送受信システム | |
US7158499B2 (en) | Voice-operated two-way asynchronous radio | |
JP4049456B2 (ja) | 音声情報利用システム | |
US20020072916A1 (en) | Distributed speech recognition for internet access | |
EP1665229B1 (en) | Speech synthesis | |
US20020077814A1 (en) | Voice recognition system method and apparatus | |
JP2001141500A (ja) | 車載エージェント処理装置 | |
US6865532B2 (en) | Method for recognizing spoken identifiers having predefined grammars | |
EP1524778A1 (en) | Method for communicating information from a server to a user via a mobile communication device running a dialog script | |
JP5007209B2 (ja) | ユーザデータ管理システム、情報提供システム、およびユーザデータ管理方法 | |
JP2003202890A (ja) | 音声認識装置及びその方法、プログラム | |
JP2004516563A (ja) | ユーザインタフェースのコンフィギュレーション方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051011 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070522 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071127 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101207 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111207 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121207 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131207 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131207 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |