JP2001141500A - On-vehicle agent process system - Google Patents

On-vehicle agent process system

Info

Publication number
JP2001141500A
JP2001141500A JP32396299A JP32396299A JP2001141500A JP 2001141500 A JP2001141500 A JP 2001141500A JP 32396299 A JP32396299 A JP 32396299A JP 32396299 A JP32396299 A JP 32396299A JP 2001141500 A JP2001141500 A JP 2001141500A
Authority
JP
Japan
Prior art keywords
information
vehicle
voice
agent processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP32396299A
Other languages
Japanese (ja)
Inventor
Jun Okada
潤 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Wiring Systems Ltd
AutoNetworks Technologies Ltd
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Wiring Systems Ltd
AutoNetworks Technologies Ltd
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Wiring Systems Ltd, AutoNetworks Technologies Ltd, Sumitomo Electric Industries Ltd filed Critical Sumitomo Wiring Systems Ltd
Priority to JP32396299A priority Critical patent/JP2001141500A/en
Publication of JP2001141500A publication Critical patent/JP2001141500A/en
Abandoned legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a car driver with the natural language information full of flexibility in a simple manner. SOLUTION: A voice-sound information including voice, as a signal received with a wireless communication part 1 is processed in a syntactic analyzing part for semantic interpretation after voice recognition while an e-mail is processed in the same part as it is, so that the information related to the operation of various on-vehicle units in a car is selected for summarizing with priority, which is outputted from a speaker 5 after voice-sound synthesization. If various on-vehicle units are estimated to require operation, that estimation is automatically judged at an agent process part 4, for voice-guiding which is added with the operation guide information for the on-vehicle unit.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、外部と通信を行
う通信端末が設置された自動車において、当該通信端末
を通じて送信されてきた情報に基づいて、乗員の希望す
る情報を音声出力により提供する車載エージェント処理
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle equipped with a communication terminal for communicating with the outside, which provides information desired by an occupant by voice output based on information transmitted through the communication terminal. It relates to an agent processing device.

【0002】[0002]

【従来の技術】近年の情報通信技術のめざましい発展に
より、自動車の分野においても、外部との情報通信によ
り乗員に様々な情報を提供することが行われている。
2. Description of the Related Art With the remarkable development of information communication technology in recent years, various information has been provided to occupants by information communication with the outside in the field of automobiles.

【0003】例えば、カーナビゲーションシステムは、
CD−ROM等の所定の記録媒体内に予め格納された地
図において、衛星から発信されるGPS信号などに基づ
いて自車位置を刻々と把握し、走行目的地に対する最適
経路を自動的に検索するなど、道路走行上有益な情報を
提供するシステムとして使用されている。
For example, a car navigation system is
In a map previously stored in a predetermined recording medium such as a CD-ROM, the position of the own vehicle is grasped every moment based on a GPS signal transmitted from a satellite and the like, and an optimum route to a travel destination is automatically searched. It is used as a system that provides useful information on road driving.

【0004】そして、このカーナビゲーションシステム
にリンクして提供される高度道路交通システム(Intell
igent Transport Systems:以下「ITS」と称す)
は、渋滞情報や有料道路での自動料金収受等の様々な道
路交通情報を情報通信技術等を用いて乗員に提供するも
のであり、事故や渋滞を解消し、さらに省エネや環境と
の共存をも図るものとして、その発展が期待されてい
る。
[0004] An intelligent transportation system (Intell.
igent Transport Systems (hereinafter referred to as "ITS")
Is to provide occupants with various road traffic information such as traffic congestion information and automatic toll collection on toll roads using information and communication technology, etc., to eliminate accidents and traffic congestion, and to save energy and coexist with the environment. It is expected that its development will continue.

【0005】これらの情報提供は、一般に画像情報や音
声情報として表示されて乗員に示すものであり、外部か
ら与えられる情報は、所定のデータフォーマットに沿っ
て生成された規則性のあるデータ列として予め規定され
たものである。
[0005] The provision of such information is generally displayed as image information or audio information and shown to the occupant. Information provided from the outside is provided as a regular data string generated according to a predetermined data format. It is specified in advance.

【0006】さらに、乗員に対する情報提供のための通
信としては、ハンズフリーの携帯電話のような無線通信
システムを用いた会話形式のものがある。この方法によ
れば、自動車の乗員は手で受話器を握ることなく、外部
に対して様々な問いかけを行い、これに対して遠隔地に
いる係員(オペレータ)が応答する形式で、フレキシブ
ルに情報の提供を行うことができる。即ち、この無線通
信システムでは、会話相手の肉声等がそのまま音声情報
として与えられるものである。
Further, as communication for providing information to occupants, there is a conversation type using a wireless communication system such as a hands-free portable telephone. According to this method, an occupant of a car makes various questions to the outside without grasping the handset by hand, and a clerk (operator) at a remote place responds to the question in a flexible manner. Offers can be made. That is, in this wireless communication system, the real voice of the conversation partner or the like is directly given as audio information.

【0007】この他に、いわゆる車内パソコンのような
自動車内のコンピューティングシステムを用いて、携帯
電話等による無線通信を通じて外部から電子メールで情
報提供を受けることも可能である。
[0007] In addition, it is also possible to use an in-vehicle computing system such as a so-called in-vehicle personal computer to receive information provided by e-mail from outside through wireless communication using a mobile phone or the like.

【0008】[0008]

【発明が解決しようとする課題】以上のような様々な自
動車通信分野において、カーナビゲーションシステムや
ITSによって提供される情報は、予め設定された固有
のフォーマットのデータでなければならないため、提供
されるデータを予め固有のフォーマットに設定して準備
しておく必要がある。このため、固有のフォーマットの
データとして準備されていない情報を送信することは極
めて困難である。
The information provided by the car navigation system or the ITS in the various fields of automobile communication as described above must be provided in a predetermined format of a specific format. It is necessary to set the data in a specific format in advance and prepare it. For this reason, it is extremely difficult to transmit information that is not prepared as data in a unique format.

【0009】一方、ハンズフリーの無線通信システムや
電子メールで情報の提供を受ける場合は、乗員はいわゆ
る自然言語の形式で情報の提供を受けることができ、こ
の点で、カーナビゲーションシステムやITSに比べて
情報のフレキシビリティを確保できるものであるが、情
報が不定形であるために、不必要な情報が混在して与え
られる場合も多く、このような情報を全て自動車内の乗
員に提示する必要がないにもかかわらず、多くの情報を
そのまま伝達するのは、情報効率上望ましいことではな
い。したがって、自然言語による情報のなかから必要な
部分を要約して乗員に対してわかりやすくなるように再
構築することが望ましい。
On the other hand, when information is provided by a hands-free wireless communication system or e-mail, the occupant can receive the information in a so-called natural language format. Compared to this, it is possible to secure the flexibility of information, but since the information is indefinite, often unnecessary information is given in a mixed manner, and all such information is presented to the occupants in the car Despite the necessity, it is not desirable in terms of information efficiency to transmit much information as it is. Therefore, it is desirable to summarize necessary parts from the information in the natural language and reconstruct the information so that it is easy for the occupant to understand.

【0010】そこで、この発明の課題は、無線通信によ
り伝送されてきたフレキシビリティの高い自然言語によ
る肉声情報または電子メールについて、これを自動車の
乗員に理解しやすい形式に要約して変換し、且つ乗員が
必要な種々の情報内容を付加加工して、非視認で済むよ
うに音声出力により伝達することが可能な車載エージェ
ント処理装置を提供することにある。
[0010] Therefore, an object of the present invention is to convert real voice information or e-mail in a natural language with high flexibility transmitted by wireless communication into a form that can be summarized into a format that can be easily understood by a vehicle occupant, and It is an object of the present invention to provide an in-vehicle agent processing device that allows an occupant to additionally process various necessary information contents and transmit the information by voice output so as to be invisible.

【0011】[0011]

【課題を解決するための手段】上記課題を解決すべく、
請求項1に記載の発明によれば、外部と通信を行う通信
端末が設置された自動車において、当該通信端末を通じ
て送信されてきた情報に基づいて、乗員の希望する情報
を音声出力により提供する車載エージェント処理装置で
あって、外部から与えられる無線信号を受信する無線通
信部と、前記無線通信部を通じて外部から与えられた前
記無線信号中の自然言語情報について構文解析を行い自
動車内の各種車載ユニットに関する情報を取捨選択して
要約し、文字情報に再構築するエージェント処理部と、
前記エージェント処理部で再構築された文字情報を音声
に変換して音声出力する音声合成手段とを備えるもので
ある。
Means for Solving the Problems In order to solve the above problems,
According to the first aspect of the present invention, in a vehicle equipped with a communication terminal that communicates with the outside, an in-vehicle that provides information desired by an occupant by voice output based on information transmitted through the communication terminal. An agent processing device, a wireless communication unit that receives a wireless signal provided from the outside, and various on-vehicle units in a vehicle that perform syntax analysis on natural language information in the wireless signal provided from the outside through the wireless communication unit An agent processing unit for selecting and summarizing information regarding the information and reconstructing it into character information;
A voice synthesizing unit for converting the character information reconstructed by the agent processing unit into voice and outputting the voice;

【0012】請求項2に記載の発明によれば、前記エー
ジェント処理部が、前記各種車載ユニットに関する情報
のなかに、前記乗員が新たに前記各種車載ユニットの操
作を行うべき要因となる情報が含まれていた場合に、そ
の旨を判断して前記乗員に当該車載ユニットを操作する
よう呼びかける旨の操作案内情報を含ませて前記文字情
報に再構築するようにされたものである。
According to the second aspect of the present invention, the agent processing unit includes, in the information on the various on-vehicle units, information on the occupant which is a factor for newly operating the on-vehicle units. If so, the character information is reconstructed by including the operation guide information for instructing the occupant to operate the in-vehicle unit and determining the fact.

【0013】請求項3に記載の発明によれば、前記自然
言語情報が、肉声を含む音声情報を含み、当該音声情報
を音声認識して文字情報に変換する音声認識手段をさら
に備えるものである。
According to the third aspect of the present invention, the natural language information includes voice information including a real voice, and further includes voice recognition means for voice-recognizing the voice information and converting it into character information. .

【0014】請求項4に記載の発明によれば、前記自然
言語情報が文字情報からなる電子メールである。
According to the fourth aspect of the present invention, the natural language information is an electronic mail including character information.

【0015】請求項5に記載の発明によれば、前記各種
車載ユニットは、任意の走行目的地に対する推奨経路検
索を行うカーナビゲーションシステムを含み、前記カー
ナビゲーションシステムは、前記各種車載ユニットに関
する情報として自動車の前記走行目的地についての新た
な情報が含まれていた場合に、当該新たな情報に基づい
て推奨経路検索を実行するようにされたものである。
According to the invention described in claim 5, the various on-vehicle units include a car navigation system for performing a recommended route search for an arbitrary travel destination, and the car navigation system includes information on the various on-vehicle units as information. When new information on the travel destination of the car is included, a recommended route search is executed based on the new information.

【0016】尚、この明細書において、自然言語情報と
は、漢字かな混じりの文字情報であるテキストデータ及
び肉声による会話等の音声情報のいずれをも含むものと
する。
In this specification, natural language information includes both text data, which is character information mixed with kanji and kana, and voice information, such as a conversation with a real voice.

【0017】[0017]

【発明の実施の形態】<構成>図1はこの発明の一の実
施の形態に係る車載エージェント処理装置を示すブロッ
ク図である。この車載エージェント処理装置は、外部か
ら無線等で与えられた自然言語による電子メールについ
て、その内容を構文解析を行って内容抽出するととも
に、外部から無線で与えられた肉声情報を音声認識でテ
キストデータに変換した後に、その内容を構文解析を行
った後、その内容に基づいて種々の情報を付加加工した
後、乗員に対して音声情報として出力するようになって
いる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS <Structure> FIG. 1 is a block diagram showing an on-vehicle agent processing device according to an embodiment of the present invention. This in-vehicle agent processing device extracts the contents of an e-mail in natural language given from the outside by radio, etc. by performing syntax analysis, and extracts the voice data given from the outside by radio to text data by voice recognition. After the content is converted to syntax, the content is subjected to syntax analysis, and various information is additionally processed based on the content, and then output as audio information to the occupant.

【0018】具体的には、この車載エージェント処理装
置は、図1のように、外部との間でアナログ信号として
の肉声情報及び種々の文字情報等について無線通信を行
う無線通信部1と、無線通信部1を通じて外部との間で
電子メールの送受信を行う電子メール送受信装置2と、
無線通信部1を通じて外部から与えられた肉声情報を音
声認識してテキストデータ(文字情報)に変換するとと
もに後述のエージェント処理部4から与えられたテキス
トデータを音声データに変換する音声認識合成装置3
と、電子メール送受信装置2で受信された電子メール及
び音声認識合成装置3で音声認識して変換されたテキス
トデータの内容を構文解析及びキーワード分析を行って
内容抽出し種々の情報を付加加工してから、音声認識合
成装置3に出力するエージェント処理部4とを備える。
尚、無線通信部1、送受信装置2、音声認識合成装置3
及びエージェント処理部4は、カーナビゲーションシス
テム7等の種々の車載ユニットと同様に、自動車内のロ
ーカルエリアネットワーク(LAN)を通じて互いに通
信可能にバス接続されており、このローカルエリアネッ
トワーク(LAN)を流れる信号のうち、受信側におい
て所定の条件に合致した信号のみの入力を許可するよう
信号選択を行うといった既存の多重通信方式により信号
の送受信を行うようになっている。
More specifically, as shown in FIG. 1, the on-vehicle agent processing device includes a radio communication unit 1 for performing radio communication with the outside on real voice information and various character information as an analog signal, An e-mail transmission / reception device 2 for transmitting / receiving e-mail to / from the outside through the communication unit 1;
Speech recognition / synthesis device 3 that performs voice recognition of externally provided real voice information through wireless communication unit 1 to convert it into text data (character information) and converts text data provided from agent processing unit 4 into voice data, which will be described later.
Then, the contents of the e-mail received by the e-mail transmission / reception device 2 and the text data converted by speech recognition by the speech recognition / synthesis device 3 are subjected to syntax analysis and keyword analysis to extract the contents, and various information is added and processed. And an agent processing unit 4 that outputs the data to the speech recognition / synthesis device 3.
In addition, the wireless communication unit 1, the transmitting / receiving device 2, the voice recognition / synthesis device 3
The agent processing unit 4 is communicatively connected to a bus via a local area network (LAN) in the vehicle, and communicates with the local area network (LAN), like various on-vehicle units such as the car navigation system 7. Among the signals, signals are transmitted and received by an existing multiplex communication method such that a signal is selected on the receiving side so as to permit input of only signals meeting predetermined conditions.

【0019】無線通信部1は、アンテナ1aを介して無
線通話を行う一般的な携帯電話が使用され、各地域に設
置された無線通信局を通じて一般公衆回線に接続し、こ
の一般公衆回線を通じて所望のサービス局等から情報の
提供を受けることが可能となっている。
The wireless communication unit 1 uses a general portable telephone that performs wireless communication via the antenna 1a, connects to a general public line through a wireless communication station installed in each region, and connects to a general public line through the general public line. It is possible to receive information from service bureaus and the like.

【0020】電子メール送受信装置2は、いわゆる一般
的な車載パソコン(パーソナルコンピューティングシス
テム)が使用され、TCP/IP等の一般的な通信プロ
トコルに沿って無線通信部1及び一般公衆回線を通じて
外部と電子メールの送受信を行うことが可能とされてい
る。
As the e-mail transmitting / receiving device 2, a so-called general in-vehicle personal computer (personal computing system) is used. It is possible to send and receive e-mails.

【0021】音声認識合成装置3は、音声認識機能と音
声合成機能を併せ有する回路である。
The speech recognition and synthesis device 3 is a circuit having both a speech recognition function and a speech synthesis function.

【0022】音声認識合成装置3の音声認識機能は、図
2の如く、無線通信部1を通じて受信された肉声の自然
言語による音声信号を周波数分析部11で周波数分析
し、これを音素分解部12で音素分解した後に、誤り率
を低減するために単語認識部13で単語認識し、さらに
文認識部14で文認識を実行して、電子メールと同様の
テキストデータに変換するようになっている。
As shown in FIG. 2, the voice recognition function of the voice recognition / synthesizing device 3 is such that the frequency analysis unit 11 analyzes the frequency of a voice signal in a natural language of a real voice received through the wireless communication unit 1, and this is analyzed by the phoneme decomposition unit 12. After the phoneme decomposition, the word recognition unit 13 performs word recognition in order to reduce the error rate, and the sentence recognition unit 14 executes sentence recognition to convert the data into text data similar to an electronic mail. .

【0023】周波数分析部11は、無線通信部1から与
えられた音声信号を数ms〜十数msごとのフレームに
分割し,さらにそれぞれのフレームについて高速フーリ
エ変換等を用いてスペクトル分析を行うもので、さら
に、得られたスペクトルを、聴覚尺度に基づくパラメー
タに変換した後、雑音を除去して音素分解部12に出力
する。
The frequency analysis unit 11 divides the audio signal supplied from the wireless communication unit 1 into frames of several ms to several tens of ms, and performs a spectrum analysis on each frame using a fast Fourier transform or the like. Then, after converting the obtained spectrum into a parameter based on the auditory scale, the noise is removed and output to the phoneme decomposition unit 12.

【0024】音素分解部12は、周波数分析部11から
与えられたスペクトルデータについて、さらに所定の辞
書ファイル15内の音素モデル15aを参照しつつ、子
音及び母音といった音素に分解するものである。ここ
で、例えば子音の特徴は、スペクトルの時間変化のパタ
ーンにあるため、辞書ファイル15内の音素モデル15
aとしては、音声パラメータを時系列的に表現したもの
が用いられる。また、音素モデル15aは、カテゴリ内
の歪みを最小にする代表パターンを求めるベクトル量子
化(VQ)、カテゴリ間の境界を保存するように、代表
パターンを求める学習ベクトル量子化(LVQ)、時系
列パターンをマルコフモデル化した隠れマルコフモデル
(HMM)などを用いて、多数のデータから学習された
ものが使用される。ただし、この音素分解部12での音
素分解は、不特定話者に対するものであるため音素認識
率が60%〜80%程度であり、例えば8音素からなる
単語が正解する確率は,41%(80%の4乗)以下で
あると考えられているため、ここでの音素分解の結果に
ついて、さらに単語認識部13での単語認識及び文認識
部14での文認識が必要とされる。
The phoneme decomposing unit 12 decomposes the spectrum data supplied from the frequency analysis unit 11 into phonemes such as consonants and vowels while referring to a phoneme model 15a in a predetermined dictionary file 15. Here, for example, since the feature of the consonant is in the pattern of the time change of the spectrum, the phoneme model 15 in the dictionary file 15 is used.
As a, a voice parameter expressed in time series is used. The phoneme model 15a includes a vector quantization (VQ) for obtaining a representative pattern that minimizes distortion in a category, a learning vector quantization (LVQ) for obtaining a representative pattern so as to preserve boundaries between categories, and a time series. Using a Hidden Markov Model (HMM) in which a pattern is converted into a Markov model, a pattern learned from a large number of data is used. However, since the phoneme decomposition in the phoneme decomposition unit 12 is for an unspecified speaker, the phoneme recognition rate is about 60% to 80%. For example, the probability that a word composed of 8 phonemes is correct is 41% ( Since it is considered to be less than (80% of the fourth power), the result of the phoneme decomposition here requires further word recognition in the word recognition unit 13 and sentence recognition in the sentence recognition unit 14.

【0025】単語認識部13は、音素分解部12で分解
された各音素について、辞書ファイル15内の単語モデ
ル15bの照合を行い、両者の一致度を計算し、一致度
の高い単語を選択して単語認識するようになっている。
ここで、辞書ファイル15内の単語モデル15bとして
は、単語中の母音の無声化・長音化・鼻音化、子音の口
蓋化等音素の変形を考慮したモデルが用意される。
The word recognizing unit 13 checks the word model 15b in the dictionary file 15 for each phoneme decomposed by the phoneme decomposing unit 12, calculates the degree of coincidence between the two, and selects a word having a high degree of coincidence. To recognize words.
Here, as the word model 15b in the dictionary file 15, a model that takes into account the deformation of phonemes such as vowelization, vowelization, nasalization, and palatalization of consonants in a word is prepared.

【0026】文認識部14は、単語認識部13での単語
認識の結果から、辞書ファイル15内の言語モデル(単
語と単語のつながりのモデル、あるいは文法)15cに
合致する単語列を選び出すようになっている。
The sentence recognizing unit 14 selects a word sequence that matches a language model (model of word-word connection or grammar) 15c in the dictionary file 15 from the result of the word recognition by the word recognizing unit 13. Has become.

【0027】一方、音声認識合成装置3の音声合成機能
は、漢字かな混じりの文字情報であるテキストデータか
ら音声を合成するテキスト音声合成方式を採用したもの
であって、図3の如く、入力された漢字かな混じりの文
字情報を表音文字列に変換する言語処理部21と、規則
音声合成を行って表音文字列を音声波形に変換する音響
処理部22とを備える。
On the other hand, the speech synthesis function of the speech recognition / synthesis device 3 adopts a text speech synthesis system for synthesizing speech from text data which is character information mixed with kanji or kana, and as shown in FIG. It comprises a language processing unit 21 for converting character information containing mixed Chinese characters and kana into a phonetic character string, and an acoustic processing unit 22 for performing regular speech synthesis to convert the phonetic character string into a speech waveform.

【0028】言語処理部21は、単語の読みとアクセン
トを得るために辞書ファイル15内の単語辞書15dを
検索し、この検索結果に基づいてテキストデータ中の各
単語の読みとアクセントを決定し、さらに各文節の係り
受け関係から文章のイントネーションを決定して、表音
文字列、単語の読み、アクセント及び文のイントネーシ
ョンに関する情報が格納された表音文字列を生成する。
The language processing unit 21 searches the word dictionary 15d in the dictionary file 15 to obtain the reading and accent of the word, and determines the reading and accent of each word in the text data based on the search result. Further, the intonation of the sentence is determined from the dependency relation of each phrase, and a phonogram string storing information on the phonogram string, word reading, accent and intonation of the sentence is generated.

【0029】音響処理部22は、言語処理部21から与
えられた表音文字列に基づいて、辞書ファイル15内の
波形辞書15eから各音素の波形を読み出して音声波形
を組み上げるようになっている。尚、この音響処理部2
2で組み上げられた音声波形は、図1に示したスピーカ
5を通じて音声出力されるようになっている。
The sound processing section 22 reads out the waveform of each phoneme from the waveform dictionary 15e in the dictionary file 15 based on the phonetic character string provided from the language processing section 21, and assembles a speech waveform. . The sound processing unit 2
The audio waveform assembled in 2 is output as audio through the speaker 5 shown in FIG.

【0030】エージェント処理部4は、例えば階層モデ
ル方式を使用して自然言語処理に必要な知識のモジュー
ル性を反映しながら、与えられた情報の意味内容を把握
した後、種々の情報をテキストデータとして出力するも
ので、図4の如く、電子メール送受信装置2から与えら
れた電子メールのテキストデータや、音声認識合成装置
3で音声認識されたテキストデータについて、その構造
を構文解析部31で解析決定し、ここで解析決定された
情報を意味解析部32で意味解釈した後、情報追加編集
部33において様々な情報を追加して編集し、発話内容
生成部34で発話内容を生成した後、文生成部35で文
章に成形してテキストデータとして出力するようになっ
ている。
The agent processing unit 4 grasps the semantic contents of the given information while reflecting the modularity of knowledge necessary for natural language processing using, for example, a hierarchical model method, and then converts various information into text data. As shown in FIG. 4, the syntax analysis unit 31 analyzes the structure of the text data of the e-mail given from the e-mail transmission / reception device 2 and the text data recognized by the speech recognition / synthesis unit 3 by speech. After the information determined and analyzed here is interpreted by the semantic analysis unit 32, various information is added and edited by the information addition and editing unit 33, and after the utterance content is generated by the utterance content generation unit 34, The sentence generation unit 35 forms the sentence and outputs it as text data.

【0031】構文解析部31は、解析すべきテキストデ
ータが所定の統語規則にあっているかどうかを判定し、
これに基づいて文の構造(主部・述部、修飾・被修飾
等)を抽出した後、これをツリー展開した構文木のデー
タとして意味解析部32に出力するようになっている。
ここで、構文解析部31で取り扱う統語規則としては、
正規文法、文脈自由文法及び文脈依存文法等の様々な種
類のものが考えられるが、無線通信部1を通じて外部か
ら与えられた自由な肉声の自然言語を取り扱うことを考
慮し、この実施の形態では文脈自由文法が採用されるこ
とが望ましい。この文脈自由文法の解析方法としては、
開始記号から始めて入力単語列に至るまで書き換え規則
を適用してゆくトップダウン型探索、始めに単語を辞書
引きして部分的な構造を組み上げてゆくボトムアップ型
探索、または、文法から予めLRテーブルなどの表を作
成して解析を行なう決定的解析などがあり、いずれの方
法を採用しても差し支えない。
The syntax analyzer 31 determines whether the text data to be analyzed conforms to a predetermined syntactic rule,
Based on this, the structure of the sentence (main part / predicate, modification / modification, etc.) is extracted, and the extracted structure is output to the semantic analysis unit 32 as syntax tree data obtained by expanding the tree.
Here, the syntax rules handled by the syntax analysis unit 31 include:
Various types such as a regular grammar, a context-free grammar, and a context-dependent grammar are conceivable. However, in consideration of handling a natural language of a free real voice externally given through the wireless communication unit 1, in this embodiment, It is desirable to use a context-free grammar. As a method of analyzing this context-free grammar,
A top-down search in which rewriting rules are applied starting from a start symbol to an input word string, a bottom-up search in which words are first dictionary-derived and a partial structure is assembled, or an LR table is prepared in advance from a grammar. There is a deterministic analysis or the like in which a table is created and analyzed, and any method may be adopted.

【0032】意味解析部32は、構文解析部31での解
析結果に基づいて、各単語をカテゴリー別に絞り込んで
その意味内容を自動的に認識するもので、具体的には、
まず構文解析部31での解析結果である構文木から述語
(動詞)の部分を取り出し、格フレームの骨格を作成し
た後、構文木の上位層に昇るにつれて結合される構文カ
テゴリーが、格フレームの適合するスロットに書かれて
いる所定の制約を満足するかチェックし、満足すればそ
のスロットに単一化する一方、制約を満たさないなら
ば、他の構文カテゴリーのスロットに組み込むことを試
みるようにすることで、構文木内の単語をカテゴリー別
に絞り込むようになっている。そして、特に意味解析部
32では、無線通信部1を通じて情報を受信した際の情
報送信元(依頼主)があるかどうか、その依頼主が誰で
あるか、依頼主が自動車の乗員に対して要求してきた依
頼行動が何であるか、その依頼行動の目的対象(例えば
走行目的地の変更要求の場合の新たな目的地)が何であ
るか、等についての情報があれば、これらを最重要の優
先度で構文木内の単語として情報追加編集部33に伝達
するようになっている。
The semantic analysis unit 32 automatically narrows down each word by category based on the analysis result of the syntax analysis unit 31 and automatically recognizes the meaning of the words.
First, a predicate (verb) portion is extracted from the syntax tree, which is the analysis result of the syntax analysis unit 31, and a skeleton of a case frame is created. Check that the given constraint written in the matching slot is satisfied, and if so, unify it into that slot, and if it doesn't, try to incorporate it into another syntax category slot. By doing so, words in the parse tree are narrowed down by category. In particular, the semantic analysis unit 32 determines whether or not there is an information transmission source (a requester) when the information is received through the wireless communication unit 1, who is the requester, and whether the requester is a car occupant. If there is information about the requested action requested, and the target object of the requested action (for example, a new destination in the case of a request to change the traveling destination), if these are the most important information, The information is transmitted to the information adding / editing unit 33 as a word in the syntax tree by priority.

【0033】情報追加編集部33は、意味解析部32で
解析された意味内容について、例えば図1に示したカー
ナビゲーションシステム等の乗員の各種車載ユニットに
関する行動に適した情報を取捨選択し、受信した電子メ
ールまたは無線で与えられた肉声の情報送信元(依頼
主)の情報や、予め用意していた基本文字列等を追加し
て、発話内容生成部34に構文木の形式で出力するよう
になっている。ここで出力される構文木の情報内容とし
ては、特に、受信した電子メールまたは無線で与えられ
た肉声情報の中から、自動車の走行に関連する情報を選
択してその要約内容を含めるとともに、カーナビゲーシ
ョンシステム等の乗員の各種車載ユニットについての操
作関連の内容については、その操作案内の情報を含める
ようになっている。
The information adding / editing unit 33 selects and receives, from the semantic contents analyzed by the semantic analyzing unit 32, information suitable for the behavior of the occupant, such as the car navigation system shown in FIG. The information of the sender (requester) of the real voice given by e-mail or wireless, the basic character string prepared in advance, and the like are added and output to the utterance content generation unit 34 in the form of a syntax tree. It has become. As the information content of the syntax tree output here, in particular, information related to the driving of the car is selected from the received e-mail or real voice information given wirelessly, and the summary content is included. The operation-related contents of various on-vehicle units of the occupant such as a navigation system include information on operation guidance.

【0034】発話内容生成部34は、情報追加編集部3
3から与えられた構文木の形式の情報に基づいて、その
内部表現として何を表現するかを所定の文法制約に従っ
て決定するようになっている。
The utterance content generation unit 34 includes the information addition editing unit 3
Based on the information in the form of the syntax tree given from No. 3, what to represent as its internal representation is determined according to a predetermined grammatical constraint.

【0035】文生成部35は、発話内容生成部34で決
定された内部表現を、所定の文法制約通りに構築して、
自動車の走行に関連する情報及び操作案内の情報として
漢字かな混じりのテキストデータとして文章化し、これ
を音声認識合成装置3へ出力するようになっている。
尚、文生成部35で文章化されたテキストデータは、音
声認識合成装置3の音声合成機能により音声波形に変換
されてスピーカ5から音声出力されることになる。
The sentence generation unit 35 constructs the internal expression determined by the utterance content generation unit 34 according to a predetermined grammar constraint,
The information relating to the traveling of the car and the information of the operation guide are converted into text as kanji-kana mixed text data, and this is output to the speech recognition synthesis device 3.
The text data converted into a sentence by the sentence generation unit 35 is converted into a voice waveform by the voice synthesis function of the voice recognition / synthesis device 3 and is output as voice from the speaker 5.

【0036】尚、音声認識合成装置3及びエージェント
処理部4は、所定の記憶装置内に予め格納されたソフト
ウェアプログラムをメモリ内に読み出して所定のCPU
により機能動作させる際の機能要素として実現してもよ
いし、あるいは、ハードウェアとして基板上にそれぞれ
回路構成したものを使用してもよい。
The voice recognition / synthesis device 3 and the agent processing section 4 read out a software program stored in a predetermined storage device into a memory, and read a software program stored in a predetermined CPU.
May be realized as a functional element when the function is operated, or hardware having a circuit configuration on a substrate may be used.

【0037】また、辞書ファイル15としては、車載エ
ージェント処理装置として独自のものを使用することも
可能であるが、例えば、カーナビゲーションシステム7
において使用される内部辞書を兼用する構成であっても
よい。
As the dictionary file 15, it is possible to use a unique one as an in-vehicle agent processing device.
May be used as the internal dictionary used in the above.

【0038】尚、図1中の符号6は音声認識合成装置3
に対して乗員の音声を入力するためのマイクロフォン装
置を示している。
Incidentally, reference numeral 6 in FIG.
1 shows a microphone device for inputting an occupant's voice to the user.

【0039】<動作>上記構成の車載エージェント処理
装置における動作例を図5〜図7のフローチャートに沿
って説明する。尚、ここでは、自動車内でカーナビゲー
ションシステム7の最適経路検索を行った際に、外部か
らの無線通信を通じて目的経路の変更があった場合を例
に挙げて説明することにする。
<Operation> An example of the operation of the vehicle-mounted agent processing device having the above configuration will be described with reference to the flowcharts of FIGS. Here, a case will be described as an example where a target route is changed through external wireless communication when an optimum route search of the car navigation system 7 is performed in a car.

【0040】まず、図5中のステップS1において、自
動車の乗員は、車載エージェント処理装置の電源をオン
にし、その動作(エージェント処理)を開始する。この
場合、車載エージェント処理装置は、無線通信部1によ
り外部からの受信があるまで待機状態を保持することに
なる。
First, in step S1 in FIG. 5, the occupant of the automobile turns on the power of the on-vehicle agent processing apparatus and starts its operation (agent processing). In this case, the in-vehicle agent processing device holds the standby state until the wireless communication unit 1 receives an external signal.

【0041】外部から無線通信部1に何らかの無線信号
が与えられると、その信号は、自動車内のローカルエリ
アネットワークに出力される。
When any wireless signal is given to the wireless communication unit 1 from the outside, the signal is output to the local area network in the automobile.

【0042】ここで、無線通信部1から出力された信号
が電子メールであった場合は、電子メール送受信装置2
側において、ローカルエリアネットワーク内に流される
信号のヘッド部に付与された符号などにより、当該信号
が電子メールのものである旨を判断し、これを電子メー
ル送受信装置2内に受信して、所定形式のテキストデー
タに変換した後、これをローカルエリアネットワークを
通じてエージェント処理部4に送信する。
If the signal output from the wireless communication unit 1 is an electronic mail, the electronic mail
On the side of the electronic mail transmitting / receiving device 2, it is determined that the signal is an electronic mail by a code or the like attached to the head portion of the signal flowing in the local area network. After converting the data into text data in a format, the text data is transmitted to the agent processing unit 4 through the local area network.

【0043】あるいは、無線通信部1から出力された信
号が通常の携帯電話での肉声による会話であった場合
は、音声認識合成装置3側において、ローカルエリアネ
ットワーク内に流される信号のヘッド部に付与された符
号などにより、当該信号が音声信号である旨を判断し、
これを音声認識合成装置3内に受信する。そして、その
音声認識機能により、無線通信部1を通じて受信された
肉声の自然言語による音声信号を周波数分析部11で周
波数分析し、これを音素分解部12で音素分解した後
に、誤り率を低減するために単語認識部13で単語認識
し、さらに文認識部14で文認識を実行して、電子メー
ルと同様のテキストデータに変換する(図2)。ここで
変換したテキストデータは、ローカルエリアネットワー
クを通じてエージェント処理部4に送信される。
Alternatively, when the signal output from the wireless communication unit 1 is a conversation with a real mobile phone, the voice recognition / synthesis unit 3 sends the signal to the head of the signal flowing in the local area network. Judgment that the signal is an audio signal based on the assigned code or the like,
This is received in the speech recognition synthesis device 3. Then, by the voice recognition function, the frequency analysis unit 11 analyzes the frequency of the voice signal in the natural language of the real voice received through the wireless communication unit 1, and the phoneme decomposition unit 12 performs the phoneme decomposition, and then reduces the error rate. For this purpose, the word recognition unit 13 performs word recognition, and the sentence recognition unit 14 executes sentence recognition to convert the data into text data similar to that of an electronic mail (FIG. 2). The converted text data is transmitted to the agent processing unit 4 via the local area network.

【0044】エージェント処理部4では、無線通信部1
で受信された後に電子メール送受信装置2または音声認
識合成装置3からローカルエリアネットワークを通じて
送信されてきたテキストデータ(以下「受信データ」と
称す)について、その構造を構文解析部31で解析決定
し、ここで解析決定された情報を意味解析部32で意味
解釈(ステップS2)する。
In the agent processing unit 4, the radio communication unit 1
Of the text data (hereinafter, referred to as “received data”) transmitted from the electronic mail transmitting / receiving device 2 or the voice recognition / synthesizing device 3 through the local area network after being received by the parsing unit 31, Here, the information determined to be analyzed is interpreted by the semantic analysis unit 32 (step S2).

【0045】このときの意味解析部32での処理手順と
しては、まず、図6中のステップS9のように、無線通
信部1を通じて情報を受信した際の情報送信元(依頼
主)があるかどうかを判断し、依頼主が特定できない場
合は処理を終了する(ステップS15)。一方、依頼主
が特定できる場合は、その依頼主が誰であるかを判断
し、ステップS10において依頼主の名前(依頼名)を
メモリ内に保持する。
As a processing procedure in the semantic analysis unit 32 at this time, first, as in step S9 in FIG. 6, is there an information transmission source (requester) when the information is received through the wireless communication unit 1? It is determined whether or not the requester can be specified, and the process is terminated (step S15). On the other hand, if the requester can be identified, it is determined who the requester is, and in step S10, the name of the requester (request name) is held in the memory.

【0046】次に、ステップS11において、依頼主が
自動車の乗員に対して要求してきた依頼行動があるかど
うかを判断し、依頼行動がある場合はこれをステップS
12においてメモリ内に保持する。一方、依頼行動がな
い場合はステップS15に進んで処理を終了する。
Next, in step S11, it is determined whether or not there is a request action requested by the client to the occupant of the automobile.
At 12, it is held in the memory. On the other hand, if there is no request action, the process proceeds to step S15 and ends.

【0047】さらに、ステップS13において、その依
頼行動の目的対象(例えば走行目的地の変更要求の場合
の新たな目的地)が何であるかといった情報があるかど
うかを判断し、かかる情報がある場合は、ステップS1
4において、これらの情報を併せて情報追加編集部33
に伝達する。
Further, in step S13, it is determined whether or not there is information such as what is the target object of the requested action (for example, a new destination in the case of a request to change the traveling destination). Is the step S1
In 4, the information adding / editing unit 33 combines these pieces of information.
To communicate.

【0048】かかる意味解析部32での処理が終了した
後は、次に、図5中のステップS3において、情報追加
編集部33により操作案内等を含む様々な情報を追加し
て編集し、発話内容生成部34で発話内容を生成した
後、文生成部35で文章に成形して操作案内等を含んだ
テキストデータとして出力する。
After the processing in the semantic analysis unit 32 is completed, next, in step S3 in FIG. 5, the information addition and editing unit 33 adds and edits various information including operation guidance and the like, and utters. After the utterance content is generated by the content generation unit 34, it is formed into a sentence by the sentence generation unit 35 and output as text data including operation guidance and the like.

【0049】具体的に情報追加編集部33では、図7の
ように、まずステップS16において、予め用意してい
た基本文字列等を読み出し、この基本文字列を構文木の
中に組み込む。また、同様にして、意味解析部32を介
して与えられた依頼主の名前(ステップS17)、依頼
主が自動車の乗員に対して要求してきた依頼行動(ステ
ップS18)、及びその依頼行動の目的対象(例えば走
行目的地の変更要求の場合の新たな目的地:ステップS
19)等も併せて構文木内に組み込む。カーナビゲーシ
ョンシステム7等の各種車載ユニットの操作案内等を含
んだ状態で、これらの構文木形式の情報を発話内容生成
部34に出力する。
More specifically, as shown in FIG. 7, the information adding / editing section 33 first reads a basic character string prepared in advance in step S16, and incorporates the basic character string into a syntax tree. Similarly, the requester's name given via the semantic analysis unit 32 (step S17), the request action requested by the client to the occupant of the car (step S18), and the purpose of the request action Target (for example, a new destination in the case of a request to change the travel destination: Step S
19) is also incorporated in the syntax tree. The information in the form of a syntax tree is output to the utterance content generation unit 34 in a state including operation guidance of various on-vehicle units such as the car navigation system 7.

【0050】ステップS20では、情報追加編集部33
から与えられた構文木形式の情報に基づいて、発話内容
生成部34により表現内容を所定の文法制約に従って決
定し、文生成部35により、所定の文法制約通りに構築
して、自動車の走行に関連する情報及び操作案内の情報
として漢字かな混じりのテキストデータとして文章化
し、これを音声認識合成装置3へ出力する。
In step S20, the information addition / editing unit 33
Based on the information in the syntax tree format given by the utterance generation unit 34, the utterance content generation unit 34 determines the expression content according to a predetermined grammatical constraint, and the sentence generation unit 35 constructs the expression according to the predetermined grammatical constraint, and is used for driving a car As related information and operation guide information, text is formed as text data mixed with kanji and kana, and this is output to the speech recognition / synthesis device 3.

【0051】そして、図5中のステップS4の如く、文
生成部35で文章化されたテキストデータは、音声認識
合成装置3の音声合成機能により音声波形に変換され
て、スピーカ5から音声出力される。
Then, as in step S 4 in FIG. 5, the text data that has been sentenced by the sentence generation unit 35 is converted into a voice waveform by the voice synthesis function of the voice recognition / synthesis device 3, and is output as voice from the speaker 5. You.

【0052】この際、依頼主の名前が「○○さん」であ
り、走行目的地の変更要求の新たな目的地が「△△」で
ある場合、スピーカ5からは、例えば、「○○さんか
ら、△△へ来て欲しいと依頼がありました。ルート探索
を開始しますか?」というように操作案内が行われる。
At this time, if the name of the requester is “Mr. XX” and the new destination of the travel destination change request is “で”, for example, “Mr. Asked me to come to △△. Do you want to start searching for routes? "

【0053】ここで、自動車内の乗員(例えばドライバ
ー)は、音声報知された操作案内に対して自分の行動に
ついて意思決定を行い(ステップS5)、カーナビゲー
ションシステム7の操作を行わない場合はそのまま処理
を終了する(ステップS6)。一方、操作案内に従って
ルート探索を開始したい場合は、一旦自動車を停止させ
た後、カーナビゲーションシステム7の所定のボタン操
作等を行ってルート計算を指示し(ステップS7)、そ
の結果が得られた時点で処理を終了する(ステップS
8)。
Here, the occupant (eg, driver) in the car makes a decision on his / her action in response to the voice-guided operation guide (step S5). If the car navigation system 7 is not operated, it is left as it is. The process ends (Step S6). On the other hand, when it is desired to start the route search in accordance with the operation guidance, the vehicle is once stopped, and a predetermined button operation or the like of the car navigation system 7 is performed to instruct a route calculation (step S7), and the result is obtained. At this point, the process ends (step S
8).

【0054】尚、ステップS5における乗員の意思決定
の工程を省略し、ステップS4からステップS7のルー
ト計算の工程に進むようにしておけば、カーナビゲーシ
ョンシステム7での目的地変更におけるルート計算を全
自動で開始することが可能となり、便利である。
By omitting the occupant decision-making process in step S5 and proceeding to the route calculation process in step S4 from step S4, the route calculation in the destination change in the car navigation system 7 is fully automatic. It is convenient to be able to start.

【0055】以上のように、無線通信部1を通じて外部
から伝送されてきたフレキシビリティの高い自然言語に
よる肉声情報または電子メールについて、これを自動車
の乗員に理解しやすい形式に要約して変換し、且つ乗員
が必要な種々の情報内容を付加加工して、非視認で済む
ように音声出力により伝達することができるので、不必
要な情報を簡潔に自動車内の乗員に提示でき、また予め
決まった形式のデータを用意する必要がなくなる点で、
送信側の手間を大幅に省くことが可能となる。
As described above, the real voice information or e-mail in the natural language with high flexibility transmitted from the outside through the wireless communication unit 1 is summarized and converted into a format that can be easily understood by the occupant of the car. In addition, since the occupant can add and process various necessary information contents and transmit the information by voice output so as to be invisible, unnecessary information can be simply presented to the occupant in the vehicle, and the predetermined information can be determined in advance. You do n’t need to prepare data in the format,
It is possible to greatly reduce the labor on the transmission side.

【0056】尚、上記実施の形態では、カーナビゲーシ
ョンシステム7の走行目的地の変更を例に挙げて動作説
明をしたが、自動車内の各種車載ユニットに関するもの
であればどのようなものであってもよく、この何らかの
各種車載ユニットの操作を行うべき要因となる情報が含
まれていた場合に、その旨を判断して乗員に各種車載ユ
ニットについての操作を呼びかける旨の操作案内情報を
含ませて文字情報に再構築するものであれば、どのよう
に動作してもよいことはもちろんである。
In the above-described embodiment, the operation has been described by taking the change of the traveling destination of the car navigation system 7 as an example. If the information includes a factor that should be used to operate the various on-vehicle units, it is determined that the information is included, and operation guidance information for inviting the occupant to perform operations on the various on-vehicle units is included. It is needless to say that any operation may be performed as long as the character information is reconstructed.

【0057】[0057]

【発明の効果】請求項1に記載の発明によれば、外部か
ら与えられる無線信号を無線通信部で受信し、その無線
信号中の自然言語情報についてエージェント処理部で構
文解析を行い自動車内の各種車載ユニットに関する情報
を取捨選択して要約して文字情報に再構築し、この再構
築された文字情報を音声合成手段で音声変換して出力す
るようにしているので、例えば、請求項3のような肉声
に係る音声情報や、請求項4のような電子メールのよう
なフレキシビリティの高い自然言語による情報につい
て、これを自動車の乗員に理解しやすい形式に要約して
変換し、且つ乗員にとって必要と思われる種々の情報内
容を付加加工して、非視認で済むように音声出力により
伝達することができるので、不必要な情報を簡潔に自動
車内の乗員に提示でき、また予め決まった形式のデータ
を用意する必要がなくなる点で、送信側の手間を大幅に
省くことが可能となる。
According to the first aspect of the present invention, a radio signal received from the outside is received by the radio communication unit, and syntax analysis is performed on the natural language information in the radio signal by the agent processing unit. Since information relating to various on-vehicle units is selected, summarized, and reconstructed into character information, and the reconstructed character information is converted into speech by a speech synthesizing unit and output, for example, Such voice information relating to a real voice or information in a natural language having high flexibility such as an e-mail as claimed in claim 4 is converted into a format that is easy to understand for a vehicle occupant and converted. Various necessary information contents can be additionally processed and transmitted by voice output so that they can be invisible, so unnecessary information can be simply presented to the occupants in the car. And in that the need to prepare the data for pre-determined format is eliminated, it is possible to save significantly the time of the transmission side.

【0058】また、請求項2に記載の発明のように、エ
ージェント処理部において、各種車載ユニットの操作を
行うべきと判断した場合に、操作案内情報を含ませて文
字情報に再構築することで、自動的に乗員に操作を呼び
かけるようにしているので、乗員にとって最も必要な情
報を簡潔に提示できるという効果がある。
Further, as in the second aspect of the present invention, when the agent processing unit determines that the operation of various on-vehicle units should be performed, the agent processing unit reconstructs the character information by including the operation guide information. Since the operation is automatically called to the occupant, there is an effect that the most necessary information for the occupant can be simply presented.

【0059】請求項5に記載の発明によれば、各種車載
ユニットに関する情報として走行目的地についての新た
な情報が含まれていた場合に、カーナビゲーションシス
テムにおいて、その新たな情報に基づいて推奨経路検索
を実行するようにしているので、目的地変更等における
推奨経路検索を一切の操作を行わずに全自動で開始する
ことが可能となり便利である。
According to the fifth aspect of the present invention, when new information on a travel destination is included as information on various on-vehicle units, a recommended route is provided in the car navigation system based on the new information. Since the search is executed, it is possible to start the recommended route search at the time of destination change or the like automatically without performing any operation, which is convenient.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一の実施の形態に係る車載エージェ
ント処理装置を示す全体ブロック図である。
FIG. 1 is an overall block diagram showing an on-vehicle agent processing device according to an embodiment of the present invention.

【図2】音声認識合成装置の音声認識機能を司る一部の
内部構成を示す機能ブロック図である。
FIG. 2 is a functional block diagram showing an internal configuration of a part of a voice recognition / synthesis device that controls a voice recognition function.

【図3】音声認識合成装置の音声合成機能を司る一部の
内部構成を示す機能ブロック図である。
FIG. 3 is a functional block diagram showing an internal configuration of a part that controls a speech synthesis function of the speech recognition and synthesis device.

【図4】エージェント処理部の内部構成を示す機能ブロ
ック図である。
FIG. 4 is a functional block diagram showing an internal configuration of an agent processing unit.

【図5】この発明の一の実施の形態に係る車載エージェ
ント処理装置の動作を示すフローチャートである。
FIG. 5 is a flowchart showing an operation of the vehicle-mounted agent processing device according to one embodiment of the present invention;

【図6】この発明の一の実施の形態に係る車載エージェ
ント処理装置の動作を示すフローチャートである。
FIG. 6 is a flowchart showing an operation of the vehicle-mounted agent processing device according to one embodiment of the present invention;

【図7】この発明の一の実施の形態に係る車載エージェ
ント処理装置の動作を示すフローチャートである。
FIG. 7 is a flowchart showing an operation of the vehicle-mounted agent processing device according to one embodiment of the present invention;

【符号の説明】[Explanation of symbols]

1 無線通信部 2 電子メール送受信装置 3 音声認識合成装置 4 エージェント処理部 5 スピーカ 7 カーナビゲーションシステム 1a アンテナ 11 周波数分析部 12 音素分解部 13 単語認識部 14 文認識部 15 辞書ファイル 21 言語処理部 22 音響処理部 31 構文解析部 32 意味解析部 33 情報追加編集部 34 発話内容生成部 35 文生成部 REFERENCE SIGNS LIST 1 wireless communication unit 2 electronic mail transmitting and receiving device 3 voice recognition and synthesis device 4 agent processing unit 5 speaker 7 car navigation system 1a antenna 11 frequency analysis unit 12 phoneme decomposition unit 13 word recognition unit 14 sentence recognition unit 15 dictionary file 21 language processing unit 22 Sound processing unit 31 Syntax analysis unit 32 Semantic analysis unit 33 Information addition and editing unit 34 Utterance content generation unit 35 Sentence generation unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/28 G10L 3/00 551Q (72)発明者 岡田 潤 愛知県名古屋市南区菊住1丁目7番10号 株式会社ハーネス総合技術研究所内 Fターム(参考) 2F029 AA02 AB07 AC02 AC18 5D015 HH11 KK02 KK04 LL01 5H180 AA01 BB05 BB13 FF05 FF25 FF27 9A001 BB04 CC05 DD11 EE02 HH17 HH18 HH33 JJ14 JJ77 KK56──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/28 G10L 3/00 551Q (72) Inventor Jun Okada 1-7 Kikuzumi, Minami-ku, Nagoya City, Aichi Prefecture No. 10 F-term in Harness Research Institute, Inc. (Reference) 2F029 AA02 AB07 AC02 AC18 5D015 HH11 KK02 KK04 LL01 5H180 AA01 BB05 BB13 FF05 FF25 FF27 9A001 BB04 CC05 DD11 EE02 HH17 HH18 HH33 JJ14 JJ77 KK56

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 外部と通信を行う通信端末が設置された
自動車において、当該通信端末を通じて送信されてきた
情報に基づいて、乗員の希望する情報を音声出力により
提供する車載エージェント処理装置であって、 外部から与えられる無線信号を受信する無線通信部と、 前記無線通信部を通じて外部から与えられた前記無線信
号中の自然言語情報について構文解析を行い自動車内の
各種車載ユニットに関する情報を取捨選択して要約し、
文字情報に再構築するエージェント処理部と、 前記エージェント処理部で再構築された文字情報を音声
に変換して音声出力する音声合成手段とを備える車載エ
ージェント処理装置。
1. An in-vehicle agent processing device for providing information desired by an occupant by voice output based on information transmitted through the communication terminal in an automobile provided with a communication terminal that communicates with the outside. A wireless communication unit that receives a wireless signal given from the outside; a syntax analysis is performed on natural language information in the wireless signal given from the outside through the wireless communication unit, and information on various on-vehicle units in the vehicle is selected. Summarizing,
An in-vehicle agent processing apparatus comprising: an agent processing unit configured to reconstruct character information; and a speech synthesis unit configured to convert the character information reconstructed by the agent processing unit into voice and output the voice.
【請求項2】 請求項1に記載の車載エージェント処理
装置であって、 前記エージェント処理部は、前記各種車載ユニットに関
する情報のなかに、前記乗員が新たに前記各種車載ユニ
ットの操作を行うべき要因となる情報が含まれていた場
合に、その旨を判断して前記乗員に当該車載ユニットを
操作するよう呼びかける旨の操作案内情報を含ませて前
記文字情報に再構築するようにされたことを特徴とする
車載エージェント処理装置。
2. The in-vehicle agent processing device according to claim 1, wherein the agent processing unit includes a factor in which the occupant newly operates the various in-vehicle units in information on the various in-vehicle units. When the information included in the character information is included, operation guide information indicating that the occupant is operated to operate the on-vehicle unit is included, and the character information is reconstructed. Characteristic in-vehicle agent processing device.
【請求項3】 請求項1または請求項2に記載の車載エ
ージェント処理装置であって、 前記自然言語情報は、肉声を含む音声情報を含み、 当該音声情報を音声認識して文字情報に変換する音声認
識手段をさらに備える車載エージェント処理装置。
3. The on-vehicle agent processing device according to claim 1, wherein the natural language information includes voice information including a real voice, and converts the voice information into character information by voice recognition. An in-vehicle agent processing device further comprising a voice recognition unit.
【請求項4】 請求項1ないし請求項3のいずれかに記
載の車載エージェント処理装置であって、 前記自然言語情報は文字情報からなる電子メールである
車載エージェント処理装置。
4. The on-vehicle agent processing device according to claim 1, wherein the natural language information is an electronic mail including character information.
【請求項5】 請求項1ないし請求項4のいずれかに記
載の車載エージェント処理装置であって、 前記各種車載ユニットは、任意の走行目的地に対する推
奨経路検索を行うカーナビゲーションシステムを含み、 前記カーナビゲーションシステムは、前記各種車載ユニ
ットに関する情報として自動車の前記走行目的地につい
ての新たな情報が含まれていた場合に、当該新たな情報
に基づいて推奨経路検索を実行するようにされたことを
特徴とする車載エージェント処理装置。
5. The on-vehicle agent processing device according to claim 1, wherein the various on-vehicle units include a car navigation system that performs a recommended route search for an arbitrary traveling destination. When the car navigation system includes new information about the travel destination of the vehicle as information on the various on-vehicle units, the car navigation system performs a recommended route search based on the new information. Characteristic in-vehicle agent processing device.
JP32396299A 1999-11-15 1999-11-15 On-vehicle agent process system Abandoned JP2001141500A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32396299A JP2001141500A (en) 1999-11-15 1999-11-15 On-vehicle agent process system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32396299A JP2001141500A (en) 1999-11-15 1999-11-15 On-vehicle agent process system

Publications (1)

Publication Number Publication Date
JP2001141500A true JP2001141500A (en) 2001-05-25

Family

ID=18160582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32396299A Abandoned JP2001141500A (en) 1999-11-15 1999-11-15 On-vehicle agent process system

Country Status (1)

Country Link
JP (1) JP2001141500A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015055497A (en) * 2013-09-10 2015-03-23 アイシン・エィ・ダブリュ株式会社 Information terminal, information provision system, destination setting method, and computer program
CN111660955A (en) * 2019-03-07 2020-09-15 本田技研工业株式会社 Vehicle-mounted intelligent system, control method of vehicle-mounted intelligent system and storage medium
DE102020132456A1 (en) 2020-01-08 2021-07-08 Toyota Jidosha Kabushiki Kaisha Agent system, agent processing method and agent processing program
US20210237757A1 (en) * 2020-01-31 2021-08-05 Toyota Jidosha Kabushiki Kaisha Information processing device, information processing method, and storage medium storing information processing program
US11790907B2 (en) 2020-01-29 2023-10-17 Toyota Jidosha Kabushiki Kaisha Agent device, agent system, and recording medium
US11809885B2 (en) 2020-01-29 2023-11-07 Toyota Jidosha Kabushiki Kaisha Agent device, agent system, and recording medium
US11869488B2 (en) 2019-12-18 2024-01-09 Toyota Jidosha Kabushiki Kaisha Agent device, agent system, and computer-readable storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015055497A (en) * 2013-09-10 2015-03-23 アイシン・エィ・ダブリュ株式会社 Information terminal, information provision system, destination setting method, and computer program
CN111660955A (en) * 2019-03-07 2020-09-15 本田技研工业株式会社 Vehicle-mounted intelligent system, control method of vehicle-mounted intelligent system and storage medium
US11869488B2 (en) 2019-12-18 2024-01-09 Toyota Jidosha Kabushiki Kaisha Agent device, agent system, and computer-readable storage medium
DE102020132456A1 (en) 2020-01-08 2021-07-08 Toyota Jidosha Kabushiki Kaisha Agent system, agent processing method and agent processing program
US11593568B2 (en) 2020-01-08 2023-02-28 Toyota Jidosha Kabushiki Kaisha Agent system, agent processing method, and non-transitory storage medium that stores an agent processing program
US11790907B2 (en) 2020-01-29 2023-10-17 Toyota Jidosha Kabushiki Kaisha Agent device, agent system, and recording medium
US11809885B2 (en) 2020-01-29 2023-11-07 Toyota Jidosha Kabushiki Kaisha Agent device, agent system, and recording medium
US20210237757A1 (en) * 2020-01-31 2021-08-05 Toyota Jidosha Kabushiki Kaisha Information processing device, information processing method, and storage medium storing information processing program
US11577745B2 (en) 2020-01-31 2023-02-14 Toyota Jidosha Kabushiki Kaisha Information processing device, information processing method, and storage medium storing information processing program

Similar Documents

Publication Publication Date Title
US10380992B2 (en) Natural language generation based on user speech style
US9202465B2 (en) Speech recognition dependent on text message content
US8560313B2 (en) Transient noise rejection for speech recognition
US9484027B2 (en) Using pitch during speech recognition post-processing to improve recognition accuracy
CN102543077B (en) Male acoustic model adaptation method based on language-independent female speech data
US20180074661A1 (en) Preferred emoji identification and generation
US20070156405A1 (en) Speech recognition system
US20120109649A1 (en) Speech dialect classification for automatic speech recognition
Pellom et al. University of Colorado Dialogue Systems for Travel and Navigation
US9911408B2 (en) Dynamic speech system tuning
US20020173956A1 (en) Method and system for speech recognition using phonetically similar word alternatives
CN108242236A (en) Dialog process device and its vehicle and dialog process method
US9997155B2 (en) Adapting a speech system to user pronunciation
JPH07210189A (en) Method and system for voice recognition
JP2003308090A (en) Device, method and program for recognizing speech
US20040215454A1 (en) Speech recognition apparatus, speech recognition method, and recording medium on which speech recognition program is computer-readable recorded
JP5335165B2 (en) Pronunciation information generating apparatus, in-vehicle information apparatus, and database generating method
EP1024476A1 (en) Speech recognizing device and method, navigation device, portable telephone, and information processor
CN107885720B (en) Keyword generation device and keyword generation method
JP2001141500A (en) On-vehicle agent process system
WO2020238341A1 (en) Speech recognition method, apparatus and device, and computer-readable storage medium
JP3911178B2 (en) Speech recognition dictionary creation device and speech recognition dictionary creation method, speech recognition device, portable terminal, speech recognition system, speech recognition dictionary creation program, and program recording medium
CN102542705A (en) Voice reminding method and system
JPH09146585A (en) Voice recognition and translation system
JP2000187493A (en) Speech output device and onboard computer

Legal Events

Date Code Title Description
A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20060704