JP3771437B2 - Information exchange method and information exchange system - Google Patents

Information exchange method and information exchange system Download PDF

Info

Publication number
JP3771437B2
JP3771437B2 JP2000328946A JP2000328946A JP3771437B2 JP 3771437 B2 JP3771437 B2 JP 3771437B2 JP 2000328946 A JP2000328946 A JP 2000328946A JP 2000328946 A JP2000328946 A JP 2000328946A JP 3771437 B2 JP3771437 B2 JP 3771437B2
Authority
JP
Japan
Prior art keywords
content
information
vehicle terminal
information exchange
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000328946A
Other languages
Japanese (ja)
Other versions
JP2002131061A (en
Inventor
陽助 荒金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2000328946A priority Critical patent/JP3771437B2/en
Publication of JP2002131061A publication Critical patent/JP2002131061A/en
Application granted granted Critical
Publication of JP3771437B2 publication Critical patent/JP3771437B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Transfer Between Computers (AREA)
  • Mobile Radio Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、車載端末にてインターネット等へ情報を発信し、また、収集する技術に係り、詳しくは、ドライバの運転の安全性を確保したまま、情報を発信・受信・提示する情報交換方法及び情報交換システムに関する。
【0002】
【従来の技術】
情報流通産業及び移動体通信技術等の発達により、自動車等の車内においても膨大な情報源にいつでもどこでもアクセスできるような社会状況において、ラジオやカーナビ情報といった受動的な情報アクセスだけではなく、例えば携帯電話や電子メールといった双方向アクセスが可能なメディアが導入されるようになってきた。そして、そこでは安全性が問題となってきており、携帯電話であれば、ハンズフリー装置を併用することが義務づけられている。また、メール等の文字入力手段は、文章選択式で送信するようになっており、また、原則停車中でなければ使用できないようになっている。
【0003】
一方、i−mode対応のカーナビでは、カーナビのインタフェースを介してWebブラウジングやメール送受信が行えるようになってきている。カーナビ等のインタフェースとしては、主として音声認識が採用されており、認識率向上のために音声環境ファイルを動的に構成するなどの技術を用いている。
【0004】
【発明が解決しようとする課題】
従来技術においては、車両内から情報を発信する際には大きな制限がかかっている。例えば、メール送信文を作成する際の選択文は限られており、送信内容によっては選択文からでは構成できない問題があった。また、音声認識の範囲を広げるためには、音声認識の候補語を増やす必要があり、それは認識率悪化とのトレードオフの関係になってしまうという問題があった。また、位置や速度、時間など、モバイル通信における情報交換において重要な情報も手動で入力する必要があり、ユーザが時間を浪費するという問題もあった。
【0005】
本発明は、車両内からの情報発信における上述のような問題を解決し、コンテンツに応じた音声認識方法や選択文構成、自動入力サポートを提供することによって、安全性を確保したまま、快適な情報へのアクセシビリティを向上させることを目的とする。
【0006】
【課題を解決するための手段】
本発明は、車載端末が情報蓄積・提供センタと任意に通信して情報の授受を行うシステムにおいて、車両内のユーザが情報を発信することをサポートするコンテンツ記述言語とそれを解析実行するブラウザを持つことを主要な特徴とする。
【0007】
また、本発明は、センタ側(サーバ側)は、オフィス/ホーム端末から発信された情報を解析する解析手段と、解析結果からKeyとなる単語を抜き出す抽出手段と、それを車内からの発信の際の選択語としてコンテンツに登録する登録手段を持つことを主要な特徴とする。
【0008】
また、本発明は、車載端末側は、センタ側から送信されてきた質問文のコンテンツ内に記述された音声認識用単語及びカテゴリを用いて、音声認識候補語を動的に作成する候補語作成手段を持つことを主要な特徴とする。
【0009】
また、本発明は、車載端末側は、センタ側から送信されてきた質問文のコンテンツ内に記述された自動入力様式に応じて、各種センサから抽出した情報をユーザの手を介さずに発信する自動入力処理手段を持つことを主要な特徴とする。
【0010】
また、本発明は、車載端末側は、車両に架装されたマイクと、それから取得した音声乃至は音響をセンタに送信する通信手段を持ち、センタ側は、それを蓄積する蓄積手段と、音声であった場合には音声認識をする認識手段と、蓄積乃至は認識結果を配信する配信手段とを持つことを主要な特徴とする。また、センタ側は、音響であった場合は、これを蓄積し、コンテンツとリンクを張って配信することを主要な特徴とする。
【0011】
【発明の実施の形態】
以下、本発明の一実施の形態について図面を参照して詳細に説明する。
図1は本発明による情報交換システムの構成例を示すブロック図である。システムは、情報蓄積・提供センタとしてのセンタ設備100と、車載端末としての車両端末設備200に大別される。センタ設備100は、図1では省略してあるオフィス/ホームや車両端末設備200から発信された情報を処理・蓄積したり、車両端末設備200にコンテンツを送信する際には、車載端末の種別に応じた記述様式のコンテンツを送信する等の機能を有する。車両端末設備200は、センタ設備100より送られてくるコンテンツを解析し、内容に応じて、各種センサ等から抽出した情報を自動発信したり、ユーザから入力された情報を発信する等の機能を有する。
【0012】
センタ設備100が車両端末設備200側にコンテンツを送信する契機は、一例を挙げれば、次のような場合である。
1.ユーザからの要求に応じて送信する。
2.良くある質問事項は定型文として、ユーザが車載端末を起動したら第1に送
信する。
3.車両側の位置情報などを検出し、所定の位置に来たなら送信する。
4.コンテンツ(掲示板などの)に有効期限を設定して、それまでに当該コンテ
ンツにアクセスしたユーザ全員に送信する。
【0013】
初めにセンタ設備100の構成および動作について詳述する。センタ設備100は、大きく分けて送信処理部110、項目抽出部120、コンテンツデータベース130、音響処理部140、通信部150よりなる。センタ設備100は、インタネット300乃至は通信回線経由で各端末と接続することが可能になっており、オフィス/ホームや車内の端末からのアクセスが可能である。オフィスやホームからアクセスしているユーザは、従来のインタネット環境と同様に、コンテンツにアクセスし、情報の授受を行う。
【0014】
項目抽出部120は、オフィスやホームなどからアクセスしたユーザが自由文入力したデータを通信部150から受け取って解析し、項目及び内容を抽出し、それを車内からの発信の際の選択語としてコンテンツデータベース130に登録する。項目抽出部120は、形態素解析部121、項目関連辞書122、内容関連辞書123、有効期限設定部124、Key抽出部125、データ作成部126、データベース登録部127よりなる。
【0015】
形態素解析部121は、ユーザ(特にオフィスやホームからアクセスしているユーザ)が入力したデータを解析する。Key抽出部125は、形態素解析部121が解析したデータから、項目関連辞書122を参照して項目となりうる語句を抽出する。さらに、Key抽出部125は、項目として抽出された語句から、内容関連辞書123を参照して、項目の内容となる語句を列挙、抽出する。有効期限設定部124は、データの中から有効期限となりうる語句を抽出する。データ作成部126は、これら抽出された、項目・内容・有効期限を含んだデータを作成し、データベース登録部127は、これをコンテンツデータベース130に登録する。
【0016】
図2に項目抽出部120における処理例を示す。例えば、「天気はどうですか?」の質問文の場合、「天気」が項目として抽出され、その値として{晴、曇り、雨、雷、雪等}が設定される。この質問文のコンテンツを端末に送信した場合、車載端末からの発信データ(応答)では、質問に対する答えとして、これらの値(返値)が期待できる。
【0017】
送信処理部110は、端末種類に対応してコンテンツの記述様式を変換し、該当端末に対する送信処理を行う。送信処理部110は、要求解析部111と変換部112よりなる。
【0018】
要求解析部111は、コンテンツ送信先の端末の種類(ホーム/オフィス/車両内)、対応状況(完全対応/不完全対応/未対応)をUser Agentによって抽出し、変換部112へ通知する。変換部112は、送信対象コンテンツをコンテンツデータベース130から取得し、端末の種類・対応状況に応じた形式に変換し、通信部150より該当端末に送信する。
【0019】
ここで、車載端末に送信されるコンテンツの形式は、車内環境という特殊な環境での使用に耐えうる形式で送る必要がある。図3は該車内環境の特徴例を列挙したものである。本発明では、車載端末に送信するコンテンツの記述言語はHTML乃至はXMLと上位互換若しくは、HTML乃至はXMLのサブセットとし、車載端末側で、センサ情報の自動入力、音声合成及び認識など、車載機器の制御を行うことが可能な記述様式とする。
【0020】
図4に、車載端末に送信するコンテンツの具体例を示す。ここでは、HTMLベースのヘッダ記述例を示す。本例は、天候に関する質問であるため、ワイパーやライトなどのセンサ情報から一定の情報を自動入手できるようにする。この自動入手に関する要求もヘッダに記述される(例えば、〈INPUT Type=auto…〉)。なお、端末の種類がホーム/オフィスであれば、図4に示したようなヘッダは必要がないので省かれる。また、車載端末であっても、自動入力に対応していない端末の場合には、「〈INPUT Type=auto…〉」の部分は不要になる。
【0021】
後述するように、このように記述されたデータを受信した車載端末(車両端末設備200)では、データを解析し、それを必要としている(あるいは、データの要求を満たすのに必要な)インタフェースにデータを送り、その返値を得る。図4の例では、音声入力インタフェースと自動入力インタフェースがこれに該当する。車載端末は、返値を集約し、センタ設備側に送信(発信)する。
【0022】
音響処理部140は、車載端末等から送信されてきた音声/音響データを通信部150より受け取り、車載マイク等で取得された音響/音声を解析・蓄積し、コンテンツデータベース130のコンテンツとリンクし、端末よりコンテンツ配信の要求があった際には、そのコンテンツと関係する音響データを送信処理部110、通信部150を介して送信する。音響処理部140は、音声認識部141、蓄積部142よりなる。
【0023】
音声認識部141は、端末より送られてきた特に音声データを音声認識処理し、その認識結果(テキストデータ)をコンテンツデータベース130に登録する。蓄積部142は、端末より送られてきた音声データ乃至は音響データを蓄積すると共にコンテンツデータベース130内のコンテンツとリンクを張る。端末よりコンテンツ要求があると、コンテンツデータベース130から要求のあったコンテンツを検索し、そのコンテンツにリンク付けられた音声/音響データがあった場合、蓄積部142から該当音声/音響データを見つけ、コンテンツと一緒に提供する。
【0024】
次に、車両端末設備200の構成および動作について説明する。車両端末設備200は、大きく分けて通信部210、ブラウザ装置220、各種センサ240、音声認識部250、音声合成部260、各種ユーザインタフェース270からなる。車両端末設備200は、通信部210を介してセンタ設備100を含むインタネット300乃至はプライベートネットに接続し、各種情報の授受を行うことができる。
【0025】
ブラウザ装置220は、センタ設備100より送られてきたコンテンツを解析し、環境に応じて最適な通知方法にてユーザに通知すると共に、各種ユーザインターフェース260、各種センサ240から得られる情報をセンタ設備100に発信する役割を担う。ブラウザ装置220は、デコーダ221、ユーザ入力インターフェース(I/F)222、スピーカI/F223、ディスプレイI/F224、音声認識I/F225、音声合成I/F226、センサI/F227、マイクI/F228、自動入力処理部229、演算部230からなる。
【0026】
ユーザ入力I/F222、スピーカI/F223、ディスプレイI/F224、音声認識I/F225、音声合成I/F226、センサI/F227、マイクI/F228は、各種センサ240、音声認識部250、音声合成部260、各種ユーザインタフェース270とのインタフェースを司る。
【0027】
デコーダ221は、センタ設備100より送られてきたコンテンツを解析し、演算部230が処理しやすいように各I/F別に分類して演算部に送信する。図5に、図4に示したHTMLベースのヘッダ記述例について、センサI/F自動入力用、音声認識I/F用、音声合成I/F用への分類例を示す。下線部が各I/Fへ通知するように分類される。
【0028】
演算部230は、デコーダ221より送られてきた分類済みのコンテンツを各I/Fに割り当てると共に、それらのスケジューリングを行う。スケジューリングとは、例えば、図5の記述例の場合、音声認識用のデータを音声認識I/F225を経由して音声認識部250に送信して前処理を行わせ、次に音声合成I/F226経由で音声合成部260にて「天気は?」という合成音声をユーザに通知すると共に画面に対応するコンテンツを表示し、マイクI/F228経由でユーザインタフェース270にて音声入力を促し、次に音声認識部250に音声認識を開始するよう通知する、という流れを制御することである。また、コンテンツに自動入力が指定されている項目については自動入力処理部229に通知する。図6に処理の具体例を示す。
【0029】
ブラウザ装置220の自動入力処理部229は、演算部230より通知された自動入力処理項目について、各種センサ240から取得した値を入力する。ここで、各種センサ240は、運転状況やドライバの状況などをセンシングし、ブラウザ装置220の中のセンサI/F227からの要求によってその値を通知する。センシング値は、リアルタイムな値のみではなく、「過去1時間の平均速度」といった履歴も含む。
【0030】
音声認識部250は、演算部230より通知されたユーザ入力要求処理項目について、まず、声音認識の候補語を抽出し、次に入力音声の音声認識を行い、結果をユーザ入力要求項目に入力する。音声認識部250は、認識処理部251、類義語辞書252、候補語抽出・保管部253よりなる。
【0031】
ここで、車両内環境でのデータ入力は、安全性を考慮して音声認識を想定しているので、認識率向上のためには認識候補語を絞る必要がある。そのためには、自由文入力ではなく選択入力にする必要がある。しかし、選択文入力にすると自由度が大幅に減るので、それを補償するために類義語辞書252を用いて発声単語の許容を増やす。具体的には候補語を増やす。
【0032】
候補語抽出・保管部253は、ブラウザ装置220の演算部230より送られてきた音声認識用のデータから、類義語辞書252を用いて候補語抽出の前処理を行う。例えば、図6のVoiceListに示された単語の類義語を類義語辞書252から検索し、そのなかからCategoryにマッチするものを候補語として抽出・保管する。認識処理部251は、候補語抽出・保管部253より与えられる音声認識候補語を用いて、ユーザからの入力音声の音声認識処理を実行する。候補語抽出・保管処理のフローチャート例を図7に示す。
【0033】
フラウザ装置220は、自動入力処理部229での自動入力項目の処理結果及び音声認識部250でのユーザ入力項目の処理結果を編集し、通信部210を通してセンタ設備100に応答を返す(すなわち発信する)。
【0034】
以上、本発明の一実施の形態について、その構成及び動作を詳述したが、本発明は、これに限定されるものではなく、種々の変形や拡張等が可能である。
【0035】
【発明の効果】
以上説明したように、本発明によれば、次のような効果が得られる。
(1) コンテンツ記述言語及びそのブラウザを適切に定義して使用することにより、安全性を確保したまま車両内環境から有用な情報を発信することが可能になる。
(2) 端末種別によりコンテンツの記述様式を変換することによって、従来のHTMLベースのコンテンツとの互換性を保つことが可能であり、オフィス/ホームからのは従来と全く同じ方法でアクセスできる。
(3) 本発明によるコンテンツ記述言語は、従来のHTMLの特徴を取り入れたものであり、書式形態などでコンテンツ記述者が新たに学習する内容は非常に少なく、本発明によるコンテンツ記述方式普及が容易になる。
(4) 本発明のシステムを、例えば、掲示板のようなものに適用すると、掲示板というのはある特定のカテゴリに関するものであって、そこに記述される内容/書式は比較的定型化されているので、本発明によるKey抽出でほとんどの情報発信内容をカバーできる。
(5) サーバ側での録音機能により、自由文の音声認識を大容量辞書や大処理量が可能となるサーバ側で実施したり、録音された音声を直接コンテンツとして配信したり、音声のみではなく、周囲の音響(祭りの音、海の音、動物の鳴き声など)それ自体をコンテンツとして配信できる。
(6) 音声認識のための候補語を効率よく限定することが可能になり、ロードノイズ等音声認識にとっては過酷な環境である車両内環境でも音声認識率を向上させることができる。
(7) 位置や時間、速度といったパラメータを自動入力することが可能であり、ユーザの手を煩わすことなく運転中でも情報発信する事が可能になる。
(8) センタ側から情報をユーザの手を煩わすことなく収集して渋滞情報や観光情報などに共有できる。
(9) User Agentの機能を活用して端末ブラウザの情報を集めることにより、端末ブラウザの本発明の方式への対応に応じたコンテンツを配信し、ユーザが可能な最大の利益を享受できることが可能になる。
【図面の簡単な説明】
【図1】本発明の一実施形態のシステム構成のブロック図である。
【図2】本発明のコンテンツデータベース登録例を示す図である。
【図3】車両内環境の特徴例を示す図である。
【図4】センタ設備から車両端末設備へ送信されるコンテンツの一例を示す図である。
【図5】図4のコンテンツに対するブラウザ装置のデコーダにおける分類例を示す図である。
【図6】ブラウザ装置の演算部における処理記述例を示す図である。
【図7】音声認識部の候補語抽出・保管のフローチャート例を示す図である。
【符号の説明】
100 センタ設備
110 送信処理部
120 項目抽出部
130 コンテンツデータベース
140 音響処理部
150 通信部
200 車両端末設備
210 通信部
220 ブラウザ装置
230 演算部
240 各種センサ
250 音声認識部
260 音声合成部
270 各種ユーザインタフェース
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for transmitting and collecting information to the Internet or the like with an in-vehicle terminal, and more specifically, an information exchange method for transmitting, receiving, and presenting information while ensuring the safety of driving of a driver, and Information exchange system.
[0002]
[Prior art]
Due to the development of the information distribution industry and mobile communication technology, in the social situation where a vast amount of information sources can be accessed anytime and anywhere in a car such as an automobile, not only passive information access such as radio and car navigation information, but also mobile phones, for example Media that allows two-way access, such as telephone and e-mail, has been introduced. And safety has become a problem there, and if it is a mobile phone, it is obliged to use a hands-free device together. In addition, text input means such as e-mails are transmitted by a text selection method, and can be used only when the vehicle is stopped in principle.
[0003]
On the other hand, in an i-mode compatible car navigation system, it is now possible to perform web browsing and mail transmission / reception via the car navigation interface. Speech recognition is mainly employed as an interface for a car navigation system, and a technique such as dynamically configuring a speech environment file to improve the recognition rate is used.
[0004]
[Problems to be solved by the invention]
In the prior art, there is a great limitation when transmitting information from within the vehicle. For example, there is a limited number of selected sentences when creating a mail transmission sentence, and there is a problem that it cannot be configured from a selected sentence depending on the contents of transmission. Further, in order to expand the range of speech recognition, it is necessary to increase the number of candidate words for speech recognition, which has a problem of a trade-off relationship with deterioration of the recognition rate. In addition, it is necessary to manually input important information such as position, speed, and time in information exchange in mobile communication, and there is a problem that the user wastes time.
[0005]
The present invention solves the above-mentioned problems in information transmission from the inside of a vehicle, and provides a voice recognition method, selected sentence structure, and automatic input support according to the content, thereby ensuring comfort while ensuring safety. The purpose is to improve accessibility to information.
[0006]
[Means for Solving the Problems]
In a system in which an in-vehicle terminal arbitrarily communicates with an information storage / provision center to exchange information, a content description language that supports a user in a vehicle to transmit information and a browser that analyzes and executes the content description language It has the main feature of having.
[0007]
In the present invention, the center side (server side) analyzes the information transmitted from the office / home terminal, the extraction means for extracting the key word from the analysis result, The main feature is that it has a registration means for registering in the content as a selection word.
[0008]
In addition, the present invention provides a candidate word creation in which the in-vehicle terminal side dynamically creates a speech recognition candidate word by using the speech recognition word and category described in the question sentence content transmitted from the center side. The main feature is having means.
[0009]
Further, according to the present invention, the in-vehicle terminal side transmits information extracted from various sensors without a user's hand in accordance with the automatic input format described in the contents of the question sentence transmitted from the center side. The main feature is having an automatic input processing means.
[0010]
Further, in the present invention, the in-vehicle terminal side has a microphone mounted on the vehicle, and communication means for transmitting voice or sound acquired therefrom to the center, and the center side stores storage means for storing the voice and sound. The main feature is that it has a recognition means for performing speech recognition and a distribution means for distributing the accumulated or recognized result. In addition, the main feature of the center is that if it is sound, it is stored and distributed with a link to the content.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a configuration example of an information exchange system according to the present invention. The system is roughly divided into a center facility 100 as an information storage / providing center and a vehicle terminal facility 200 as an in-vehicle terminal. When the center facility 100 processes / stores information transmitted from the office / home or the vehicle terminal facility 200, which is omitted in FIG. 1, or transmits content to the vehicle terminal facility 200, the center facility 100 determines the type of the in-vehicle terminal. It has a function of transmitting contents in a corresponding description format. The vehicle terminal facility 200 analyzes the content sent from the center facility 100 and automatically transmits information extracted from various sensors or the like according to the content or transmits information input from the user. Have.
[0012]
An example of the opportunity for the center facility 100 to transmit content to the vehicle terminal facility 200 side is as follows.
1. Send in response to a request from the user.
2. Frequently asked questions are sent as a fixed sentence to the first when the user activates the in-vehicle terminal.
3. It detects the position information on the vehicle side and transmits it when it reaches a predetermined position.
4). An expiration date is set for content (such as a bulletin board) and sent to all users who have accessed the content so far.
[0013]
First, the configuration and operation of the center facility 100 will be described in detail. The center facility 100 is roughly divided into a transmission processing unit 110, an item extraction unit 120, a content database 130, an acoustic processing unit 140, and a communication unit 150. The center facility 100 can be connected to each terminal via the Internet 300 or a communication line, and can be accessed from an office / home or a terminal in the car. A user accessing from an office or home accesses content and exchanges information in the same manner as in a conventional Internet environment.
[0014]
The item extraction unit 120 receives data from a communication unit 150 and analyzes data input by a user who accesses from an office or home from the communication unit 150, extracts items and contents, and uses them as selection words when making a call from the vehicle. Register in the database 130 . The item extraction unit 120 includes a morphological analysis unit 121, an item related dictionary 122, a content related dictionary 123, an expiration date setting unit 124, a key extraction unit 125, a data creation unit 126, and a database registration unit 127.
[0015]
The morphological analysis unit 121 analyzes data input by a user (particularly a user accessing from an office or home). The key extraction unit 125 extracts words / phrases that can be items from the data analyzed by the morpheme analysis unit 121 with reference to the item relation dictionary 122. Further, the key extraction unit 125 refers to the content-related dictionary 123 from the words and phrases extracted as items, and lists and extracts words and phrases that are the contents of the items. The expiration date setting unit 124 extracts words / phrases that can become expiration dates from the data. The data creation unit 126 creates the extracted data including items, contents, and expiration dates, and the database registration unit 127 registers this in the content database 130.
[0016]
FIG. 2 shows a processing example in the item extraction unit 120. For example, in the case of a question sentence “How is the weather?”, “Weather” is extracted as an item, and {sunny, cloudy, rain, thunder, snow, etc.} is set as the value. When the contents of the question sentence are transmitted to the terminal, these values (return values) can be expected as answers to the question in the transmission data (response) from the in-vehicle terminal.
[0017]
The transmission processing unit 110 converts the description format of the content corresponding to the terminal type, and performs transmission processing for the corresponding terminal. The transmission processing unit 110 includes a request analysis unit 111 and a conversion unit 112.
[0018]
The request analysis unit 111 extracts the content transmission destination terminal type (home / office / in-vehicle) and correspondence status (complete correspondence / incomplete correspondence / non-correspondence) by User Agent, and notifies the conversion unit 112 of the extracted information. The conversion unit 112 acquires the content to be transmitted from the content database 130, converts the content into a format according to the type / support status of the terminal, and transmits it to the corresponding terminal from the communication unit 150.
[0019]
Here, the format of the content transmitted to the in-vehicle terminal needs to be transmitted in a format that can withstand use in a special environment such as an in-vehicle environment. FIG. 3 lists examples of features of the in-vehicle environment. In the present invention, the description language of the content to be transmitted to the in-vehicle terminal is upwardly compatible with HTML or XML, or a subset of HTML or XML, and the in-vehicle device such as automatic input of sensor information, speech synthesis and recognition on the in-vehicle terminal side. This is a description format that can be controlled.
[0020]
FIG. 4 shows a specific example of content transmitted to the in-vehicle terminal. Here, an HTML-based header description example is shown. Since this example is a question about the weather, certain information can be automatically obtained from sensor information such as wipers and lights. This request for automatic acquisition is also described in the header (for example, <INPUT Type = auto ...>). If the type of terminal is home / office, the header as shown in FIG. 4 is unnecessary and is omitted. In addition, even if it is an in-vehicle terminal, in the case of a terminal that does not support automatic input, the “<INPUT Type = auto ...>” portion is not necessary.
[0021]
As will be described later, the in-vehicle terminal (vehicle terminal equipment 200) that has received the data described in this way analyzes the data and creates an interface that needs it (or is necessary to satisfy the data request). Send data and get the return value. In the example of FIG. 4, the voice input interface and the automatic input interface correspond to this. The in-vehicle terminal aggregates the return values and transmits (transmits) them to the center facility side.
[0022]
The acoustic processing unit 140 receives voice / acoustic data transmitted from the in-vehicle terminal or the like from the communication unit 150, analyzes and accumulates the acoustic / sound acquired by the in-vehicle microphone or the like, and links with the content in the content database 130, When a content distribution request is received from the terminal, acoustic data related to the content is transmitted via the transmission processing unit 110 and the communication unit 150. The acoustic processing unit 140 includes a voice recognition unit 141 and a storage unit 142.
[0023]
The voice recognition unit 141 performs voice recognition processing on particularly voice data sent from the terminal, and registers the recognition result (text data) in the content database 130. The accumulating unit 142 accumulates audio data or acoustic data sent from the terminal and links to the content in the content database 130. When there is a content request from the terminal, the requested content is searched from the content database 130, and when there is audio / sound data linked to the content, the corresponding audio / sound data is found from the storage unit 142, and the content Provide with.
[0024]
Next, the configuration and operation of the vehicle terminal facility 200 will be described. The vehicle terminal equipment 200 is roughly divided into a communication unit 210, a browser device 220, various sensors 240, a voice recognition unit 250, a voice synthesis unit 260, and various user interfaces 270. The vehicle terminal equipment 200 can be connected to the Internet 300 or the private net including the center equipment 100 via the communication unit 210 to exchange various information.
[0025]
The browser device 220 analyzes the content sent from the center facility 100, notifies the user by an optimal notification method according to the environment, and sends information obtained from the various user interfaces 260 and the various sensors 240 to the center facility 100. Play a role to send to. The browser device 220 includes a decoder 221, a user input interface (I / F) 222, a speaker I / F 223, a display I / F 224, a voice recognition I / F 225, a voice synthesis I / F 226, a sensor I / F 227, a microphone I / F 228, An automatic input processing unit 229 and a calculation unit 230 are included.
[0026]
User input I / F 222, speaker I / F 223, display I / F 224, voice recognition I / F 225, voice synthesis I / F 226, sensor I / F 227, microphone I / F 228, various sensors 240, voice recognition unit 250, voice synthesis It controls the interface with the unit 260 and various user interfaces 270.
[0027]
The decoder 221 analyzes the content sent from the center facility 100, classifies each I / F so as to be easily processed by the calculation unit 230, and transmits it to the calculation unit. FIG. 5 shows a classification example of the HTML-based header description example shown in FIG. 4 into sensor I / F automatic input, speech recognition I / F, and speech synthesis I / F. The underlined portion is classified so as to notify each I / F.
[0028]
The calculation unit 230 assigns the classified content sent from the decoder 221 to each I / F and performs scheduling thereof. For example, in the case of the description example of FIG. 5, scheduling is performed by transmitting speech recognition data to the speech recognition unit 250 via the speech recognition I / F 225 to perform preprocessing, and then performing speech synthesis I / F 226. The voice synthesis unit 260 notifies the user of the synthesized voice “What is the weather?” And displays the content corresponding to the screen, prompts the user interface 270 to input the voice via the microphone I / F 228, and then the voice. This is to control the flow of notifying the recognition unit 250 to start speech recognition. Further, the automatic input processing unit 229 is notified of items for which automatic input is designated for the content. FIG. 6 shows a specific example of processing.
[0029]
The automatic input processing unit 229 of the browser device 220 inputs values acquired from the various sensors 240 for the automatic input processing items notified from the calculation unit 230. Here, the various sensors 240 sense the driving situation, the situation of the driver, and the like, and notify the value in response to a request from the sensor I / F 227 in the browser device 220. The sensing value includes not only a real-time value but also a history such as “average speed over the past hour”.
[0030]
The voice recognition unit 250 first extracts a candidate word for voice sound recognition for the user input request processing item notified from the calculation unit 230, then performs voice recognition of the input voice, and inputs the result to the user input request item. . The voice recognition unit 250 includes a recognition processing unit 251, a synonym dictionary 252, and a candidate word extraction / storage unit 253.
[0031]
Here, since the data input in the in-vehicle environment assumes voice recognition in consideration of safety, it is necessary to narrow down recognition candidate words in order to improve the recognition rate. For this purpose, it is necessary to select input instead of free text input. However, since the degree of freedom is greatly reduced when the selected sentence is input, the synonym dictionary 252 is used to increase the tolerance of the spoken word in order to compensate for it. Specifically, the number of candidate words is increased.
[0032]
The candidate word extraction / storage unit 253 performs preprocessing of candidate word extraction from the speech recognition data sent from the calculation unit 230 of the browser device 220 using the synonym dictionary 252. For example, the synonym of the word shown in the VoiceList in FIG. 6 is searched from the synonym dictionary 252, and those that match the Category are extracted and stored as candidate words. The recognition processing unit 251 executes speech recognition processing of the input speech from the user using the speech recognition candidate words given from the candidate word extraction / storage unit 253. A flowchart example of candidate word extraction / storage processing is shown in FIG.
[0033]
The browser device 220 edits the processing result of the automatic input item in the automatic input processing unit 229 and the processing result of the user input item in the voice recognition unit 250 and returns a response to the center facility 100 through the communication unit 210 (that is, transmits the response). ).
[0034]
The configuration and operation of one embodiment of the present invention have been described in detail above, but the present invention is not limited to this, and various modifications and expansions are possible.
[0035]
【The invention's effect】
As described above, according to the present invention, the following effects can be obtained.
(1) By appropriately defining and using a content description language and its browser, it becomes possible to transmit useful information from the in-vehicle environment while ensuring safety.
(2) By converting the content description format according to the terminal type, compatibility with conventional HTML-based content can be maintained, and access from the office / home can be performed in exactly the same manner as before.
(3) The content description language according to the present invention incorporates the features of the conventional HTML, and the content writer newly learns with a format and the like, so that the content description method according to the present invention is easy to spread. become.
(4) When the system of the present invention is applied to, for example, a bulletin board, the bulletin board relates to a specific category, and the contents / format described therein are relatively standardized. Therefore, most information transmission contents can be covered by the key extraction according to the present invention.
(5) With the recording function on the server side, speech recognition of free sentences can be performed on the server side that enables large-capacity dictionaries and large amounts of processing, recorded sound can be distributed directly as content, In addition, surrounding sounds (festival sounds, sea sounds, animal calls, etc.) themselves can be delivered as content.
(6) Candidate words for voice recognition can be efficiently limited, and the voice recognition rate can be improved even in an in-vehicle environment that is a severe environment for voice recognition such as road noise.
(7) Parameters such as position, time, and speed can be automatically input, and information can be transmitted even during driving without bothering the user.
(8) It is possible to collect information from the center side without bothering the user and share it in traffic jam information or sightseeing information.
(9) By collecting the information of the terminal browser by utilizing the function of User Agent, it is possible to distribute the contents according to the correspondence of the terminal browser to the method of the present invention and enjoy the maximum possible benefit for the user become.
[Brief description of the drawings]
FIG. 1 is a block diagram of a system configuration according to an embodiment of the present invention.
FIG. 2 is a diagram showing an example of content database registration according to the present invention.
FIG. 3 is a diagram illustrating a characteristic example of an in-vehicle environment.
FIG. 4 is a diagram showing an example of content transmitted from the center facility to the vehicle terminal facility.
FIG. 5 is a diagram illustrating a classification example in the decoder of the browser device for the content of FIG. 4;
FIG. 6 is a diagram illustrating a process description example in a calculation unit of the browser device.
FIG. 7 is a diagram showing an example of a flowchart of candidate word extraction / storage of a speech recognition unit.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 Center equipment 110 Transmission processing part 120 Item extraction part 130 Content database 140 Acoustic processing part 150 Communication part 200 Vehicle terminal equipment 210 Communication part 220 Browser apparatus 230 Calculation part 240 Various sensors 250 Voice recognition part 260 Voice synthesis part 270 Various user interfaces

Claims (7)

車載端末がコンテンツデータベースを備える情報蓄積・提供センタと任意に通信して情報交換を行う情報交換方法であって、
センタ側は、車載端末の種類が記載されたUser Agentの情報により通信相手の車載端末の種別を判別して、その種別に応じた記述様式の質問文のコンテンツを車載端末へ送信し、
車載端末側は、センタ側より送られてくる前記質問文のコンテンツを解析し、該コンテンツの入力項目の内容に応じてセンタ側へ、センサ情報を自動発信したり、ユーザから入力された情報を発信し、
センタ側は、前記質問文のコンテンツに対して車載端末から送信されてくる情報を処理し、その結果を、コンテンツデータベースに登録して蓄積する、
ことを特徴とする情報交換方法。
An information exchange method in which an in-vehicle terminal arbitrarily communicates with an information storage / providing center including a content database to exchange information,
The center side determines the type of the in-vehicle terminal of the communication partner from the information of the User Agent in which the type of the in-vehicle terminal is described, and transmits the content of the question text in the description format according to the type to the in-vehicle terminal.
The in-vehicle terminal side analyzes the content of the question sentence sent from the center side, automatically transmits sensor information to the center side according to the contents of the input items of the content, or receives information input from the user Outgoing,
The center side processes information transmitted from the in-vehicle terminal for the content of the question sentence, and registers and accumulates the result in the content database.
An information exchange method characterized by that.
請求項1記載の情報交換方法において、
センタ側から車載端末に送信される質問文のコンテンツの記述様式は、HTMLと上位互換性があり、センサ情報の自動入力、音声合成及び認識など、車載機器の制御を行うことの可能な記述様式であることを特徴とする情報交換方法。
The information exchange method according to claim 1,
The description format of the content of the question sentence transmitted from the center to the in-vehicle terminal is upward compatible with HTML, and is a description format capable of controlling the in-vehicle device such as automatic input of sensor information, speech synthesis and recognition An information exchange method characterized by
請求項1もしくは2記載の情報交換方法において、
車載端末側は、センタ側より送られてくる質問文のコンテンツを解析し、コンテンツにて、位置、時間、速度、照度など車載センサによって取得できる項目が自動入力を指示されている際には、車載センサより取得した項目の値を、必ずしもユーザの確認をとることなく発信することを特徴とする情報交換方法。
In the information exchange method according to claim 1 or 2,
The in-vehicle terminal side analyzes the content of the question text sent from the center side, and when the items that can be acquired by the in-vehicle sensor such as position, time, speed, illuminance are instructed in the content, An information exchange method characterized by transmitting the value of an item acquired from an in-vehicle sensor without necessarily confirming the user.
請求項1乃至3記載の情報交換方法において、
車載端末側は、センタ側より送られてくる質問文のコンテンツを解析し、音声合成と音声認識を用い、ユーザとの会話により、入力項目において、コンテンツに記述されている内容から、音声認識の候補語を動的に構成し音声認識に用いることを特徴とする情報交換方法。
In the information exchange method of Claims 1 thru | or 3,
The in-vehicle terminal side analyzes the content of the question text sent from the center side, uses speech synthesis and speech recognition, and from the contents described in the content in the input items by conversation with the user, An information exchanging method characterized in that candidate words are dynamically constructed and used for speech recognition.
請求項1乃至4のいずれか1項に記載の情報交換方法において、
車載端末側は、質問文のコンテンツの自由文入力項目では、音声をそのままセンタ側に送信し、
センタ側は、車載端末側から送信されてきた音声の音声認識を行い、認識結果をコンテンツデータベースに登録し、音声は別に蓄積してコンテンツデータベースの前記認識結果とリンクを張ることを特徴とする情報交換方法。
The information exchange method according to any one of claims 1 to 4,
The in-vehicle terminal side sends the voice as it is to the center side in the free text input item of the question text content,
The center side performs voice recognition of the voice transmitted from the in-vehicle terminal side, registers the recognition result in the content database, accumulates the voice separately, and links to the recognition result of the content database. method of exchange.
請求項1乃至5のいずれか1項に記載の情報交換方法において、The information exchange method according to any one of claims 1 to 5,
センタ側では、オフィス/ホーム端末から入力された自由文データを解析し、質問文コンテンツの項目の内容となりうる語句を抽出するとともに、データの中から有効期限となりうる語句を抽出し、項目、内容、有効期限を含んだデータをコンテンツデータベースへ登録することを特徴とする情報交換方法。On the center side, free text data input from the office / home terminal is analyzed to extract words and phrases that can be the contents of the question sentence content items, and words and phrases that can be expired from the data. An information exchanging method characterized by registering data including an expiration date in a content database.
車載端末が情報蓄積・提供センタと任意に通信して情報交換を行う情報交換システムであって、An information exchange system in which an in-vehicle terminal communicates arbitrarily with an information storage / providing center to exchange information,
車載端末及び情報蓄積・提供センタが請求項1乃至6のいずれか1項に記載の方法を実現する機能を備えていることを特徴とする情報交換システム。An information exchange system, wherein the in-vehicle terminal and the information storage / providing center have a function of realizing the method according to any one of claims 1 to 6.
JP2000328946A 2000-10-27 2000-10-27 Information exchange method and information exchange system Expired - Fee Related JP3771437B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000328946A JP3771437B2 (en) 2000-10-27 2000-10-27 Information exchange method and information exchange system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000328946A JP3771437B2 (en) 2000-10-27 2000-10-27 Information exchange method and information exchange system

Publications (2)

Publication Number Publication Date
JP2002131061A JP2002131061A (en) 2002-05-09
JP3771437B2 true JP3771437B2 (en) 2006-04-26

Family

ID=18805718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000328946A Expired - Fee Related JP3771437B2 (en) 2000-10-27 2000-10-27 Information exchange method and information exchange system

Country Status (1)

Country Link
JP (1) JP3771437B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100336086C (en) * 2005-04-30 2007-09-05 文鹏飞 Motor vehicle driving information handling method and apparatus
JP5887253B2 (en) 2012-11-16 2016-03-16 本田技研工業株式会社 Message processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3469930B2 (en) * 1994-02-14 2003-11-25 株式会社シーエスケイ Mobile multimedia communication system and mobile
JP3370526B2 (en) * 1996-04-24 2003-01-27 富士通株式会社 Mobile communication system and mobile terminal and information center used in the mobile communication system
JP3548459B2 (en) * 1998-11-20 2004-07-28 富士通株式会社 Guide information presenting apparatus, guide information presenting processing method, recording medium recording guide information presenting program, guide script generating apparatus, guide information providing apparatus, guide information providing method, and guide information providing program recording medium
JP2001194162A (en) * 2000-01-13 2001-07-19 Soft Ryutsu Kk Information providing system and method for navigation device, and storage medium storing computer program for realizing information providing system for navigation device

Also Published As

Publication number Publication date
JP2002131061A (en) 2002-05-09

Similar Documents

Publication Publication Date Title
US6937986B2 (en) Automatic dynamic speech recognition vocabulary based on external sources of information
US6944593B2 (en) Speech input system, speech portal server, and speech input terminal
US7286990B1 (en) Universal interface for voice activated access to multiple information providers
US20080154612A1 (en) Local storage and use of search results for voice-enabled mobile communications devices
CN102591856B (en) A kind of translation system and interpretation method
CN102439661A (en) Service oriented speech recognition for in-vehicle automated interaction
US8583441B2 (en) Method and system for providing speech dialogue applications
CN101292282A (en) Mobile systems and methods of supporting natural language human-machine interactions
CN103442130A (en) Voice control method, mobile terminal device and voice control system
CN101206651A (en) Vehicle information voice inquiry system and method
CN201919034U (en) Network-based voice prompt system
CN102254550A (en) Method and system for reading characters on webpage
WO2000067091A2 (en) Speech recognition interface with natural language engine for audio information retrieval over cellular network
TW499671B (en) Method and system for providing texts for voice requests
DE10048576A1 (en) Process for the transmission of individual data to motor vehicles
US20060173689A1 (en) Speech information service system and terminal
JPH10177469A (en) Mobile terminal voice recognition, database retrieval and resource access communication system
KR100911312B1 (en) Voice Portal Service System and Voice Portal Service Method
JP3771437B2 (en) Information exchange method and information exchange system
CN110275948A (en) Free jump method, device and the medium of Self-Service
US20020072916A1 (en) Distributed speech recognition for internet access
JP2002374356A (en) Automatic information system
JP2002091473A (en) Information processor
CN108877767A (en) A kind of intelligent voice prompt system and method
GB2368441A (en) Voice to voice data handling system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees