JP2000181500A - Speech recognition apparatus and agent apparatus - Google Patents

Speech recognition apparatus and agent apparatus

Info

Publication number
JP2000181500A
JP2000181500A JP10375411A JP37541198A JP2000181500A JP 2000181500 A JP2000181500 A JP 2000181500A JP 10375411 A JP10375411 A JP 10375411A JP 37541198 A JP37541198 A JP 37541198A JP 2000181500 A JP2000181500 A JP 2000181500A
Authority
JP
Japan
Prior art keywords
agent
noise
noise element
state
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10375411A
Other languages
Japanese (ja)
Inventor
Tomoki Kubota
智氣 窪田
Koji Hori
孝二 堀
Manabu Matsuda
松田  学
Kazuhide Adachi
和英 足立
Koji Mukai
康二 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP10375411A priority Critical patent/JP2000181500A/en
Publication of JP2000181500A publication Critical patent/JP2000181500A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To lessen the influence of the noises generated in a vehicle and to obtain higher recognition accuracy by detecting the state of noise elements which are the cause for the noises when the recognition accuracy is below a prescribed value and decreasing the noises by controlling the state of the detected noise elements. SOLUTION: An entire part processing section 1 has a navigation processing section 10, an agent processing section 11, etc. The agent processing section 11 judges whether the recognition accuracy of the speeches inputted from a microphone 265 is low or not by a speech control section 14 and if the accuracy is low, the processing section executes the control, such as adjustment, to a noise causative apparatus which is the cause for the noise. The agent processing section 11 executes the evaluation to the recognition result by a speech control section 14 of the speeches inputted from the microphone 26 and executes the judgment as to whether the recognition accuracy is low or not and the detection of the cause (opening or closing of a window, the operating state of an air conditioner or an audio operating state) of the noise to lower the recognition accuracy. The agent processing section 11 executes the noise removal processing for removing the noise cause.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声認識装置及び
エージェント装置に係り、詳細には、音声認識の精度が
低い場合により高くなるように制御可能な音声認識装置
及びエージェント装置に関する。
The present invention relates to a speech recognition device and an agent device, and more particularly, to a speech recognition device and an agent device that can be controlled to have higher accuracy when speech recognition accuracy is low.

【0002】[0002]

【従来の技術】マイクロホンから入力される音声を認識
する技術が実用化され、各種分野で製品化されている。
例えば、自動車等の車両内に使用される音声認識装置で
は、認識した音声内容に対応して搭載装置各部の制御を
行うことができるようになっている。このような車両内
で使用される音声認識装置の場合、車両内に発生するオ
ーディオやナビゲーション装置、エンジン等による各種
音が雑音としてその認識率が悪くしていた。そこで、車
両内の雑音による影響を少なくし、音声認識を精度良く
行うようにした技術が特開平6−67689号公報によ
り提案されている。この公報記載の音声認識装置では、
自動車の窓の開閉量に基づいてマイクのアンプのゲイン
を調整することで、認識精度を高めるようにしている。
2. Description of the Related Art Techniques for recognizing sounds input from microphones have been put to practical use and have been commercialized in various fields.
For example, in a voice recognition device used in a vehicle such as an automobile, it is possible to control each section of the mounted device in accordance with the recognized voice content. In the case of such a voice recognition device used in a vehicle, the recognition rate of audio generated in the vehicle, various sounds generated by a navigation device, an engine, or the like is reduced as noise. Therefore, Japanese Patent Application Laid-Open No. 6-67689 proposes a technique for reducing the influence of noise in a vehicle and performing speech recognition with high accuracy. In the speech recognition device described in this publication,
The recognition accuracy is improved by adjusting the gain of the microphone amplifier based on the opening and closing amount of the window of the car.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記公報記載
の技術では、窓の開閉量とマイクのアンプのゲインとの
対応付けが困難であった。このため、車両における雑音
対策としては十分な効果が得られなかった。そこで、本
発明は車両内に発生する雑音による影響を少なくして、
より高い認識精度を得ることが可能な音声認識装置を提
供することを第1の目的とする。
However, in the technology described in the above publication, it is difficult to associate the opening and closing amount of the window with the gain of the microphone amplifier. For this reason, a sufficient effect was not obtained as a measure against noise in the vehicle. Therefore, the present invention reduces the effect of noise generated in the vehicle,
A first object is to provide a speech recognition device capable of obtaining higher recognition accuracy.

【0004】ところで、本出願人は、現在未公知である
が、車両の過去の状態などの履歴・運転者の状態に応じ
て、擬人化されたエージェントを車両内に出現させて、
運転者や同乗者とのコミュニケーションを行うと共に、
コミュニケーションの結果として各種制御を行うエージ
ェント装置について出願している。このようなエージェ
ント装置においても、車両内でエージェントが運転者等
とコミュニケーションを行うための重要な要素として音
声認識の技術が使用されており、同様に音声認識精度の
向上が望まれる。そこで、本発明は、車両内に発生する
雑音による影響を少なくして、より高い音声認識精度で
コミュニケーションを行うことが可能なエージェント装
置を提供することを第2の目的とする。
[0004] By the way, the present applicant makes an anthropomorphic agent appear in the vehicle according to the history of the vehicle and the driver's state, such as the past state of the vehicle, which is currently unknown.
While communicating with drivers and passengers,
We have applied for an agent device that performs various controls as a result of communication. Also in such an agent device, a voice recognition technology is used as an important element for an agent to communicate with a driver or the like in a vehicle, and similarly, improvement in voice recognition accuracy is desired. Accordingly, a second object of the present invention is to provide an agent device capable of performing communication with higher voice recognition accuracy by reducing the influence of noise generated in a vehicle.

【0005】[0005]

【課題を解決するための手段】請求項1に記載した発明
では、音声を認識する音声認識手段と、この音声認識手
段による認識精度を取得する認識精度取得手段と、この
認識精度取得手段による認識精度が所定値以下である場
合に、雑音の原因となる雑音要素の状態を検出する雑音
要素検出手段と、この雑音要素検出手段により検出され
た雑音要素の状態を制御して雑音を減少させる雑音要素
制御手段とを音声認識装置に具備させて前記第1の目的
を達成する。請求項2に記載した発明では、請求項1に
記載した音声認識装置において、前記雑音要素検出手段
で検出された雑音要素の状態を記憶する状態記憶手段を
有し、前記雑音要素制御手段は、音声認識処理が終了し
た場合に前記状態記憶手段に記憶された状態に前記雑音
要素の状態を戻す。請求項3に記載した発明では、請求
項1又は請求項2に記載した音声認識装置において、前
記雑音要素検出手段は、雑音要素の状態として窓の開閉
状態を検出し、前記雑音要素制御手段は、前記雑音要素
検出手段により窓が開いた状態が検出された場合、開い
ている窓を閉める。請求項4に記載した発明では、請求
項1又は請求項2に記載した音声認識装置において、前
記雑音要素検出手段は、雑音要素の状態としてオーディ
オの音量を検出し、前記雑音要素制御手段は、前記雑音
要素検出手段により所定値以上のオーディオの音量が検
出された場合、その音量を下げる。請求項5に記載した
発明では、請求項1又は請求項2に記載した音声認識装
置において、前記雑音要素検出手段は、雑音要素の状態
としてエアコンの風量を検出し、前記雑音要素制御手段
は、前記雑音要素検出手段により所定量以上の風量が検
出された場合、風量を下げる。請求項6に記載した発明
では、音声を認識する音声認識手段と、この音声認識手
段による認識精度を取得する認識精度取得手段と、擬人
化されたエージェントを車両内に出現させるエージェン
ト出現手段と、前記認識精度取得手段による認識精度が
所定値以下である場合に、雑音の原因となる雑音要素の
状態を検出する雑音要素検出手段と、この雑音要素検出
手段により検出された雑音要素の状態を制御して雑音を
減少させる行為を、前記エージェント出現手段により出
現されるエージェントに行わせるエージェント制御手段
とをエージェント装置に具備させた前記第2の目的を達
成する。
According to the first aspect of the present invention, a voice recognition means for recognizing a voice, a recognition accuracy obtaining means for obtaining a recognition accuracy by the voice recognition means, and a recognition by the recognition precision obtaining means. A noise element detecting means for detecting a state of a noise element causing noise when the accuracy is equal to or less than a predetermined value; and a noise for controlling the state of the noise element detected by the noise element detecting means to reduce the noise. The first object is achieved by providing a speech recognition device with element control means. According to a second aspect of the present invention, in the speech recognition apparatus according to the first aspect, there is provided a state storage unit that stores a state of the noise element detected by the noise element detection unit, and the noise element control unit includes: When the voice recognition processing is completed, the state of the noise element is returned to the state stored in the state storage unit. According to a third aspect of the present invention, in the speech recognition apparatus according to the first or second aspect, the noise element detecting means detects an open / closed state of a window as a state of the noise element, and the noise element control means When the noise element detecting means detects that the window is open, the open window is closed. According to a fourth aspect of the present invention, in the speech recognition apparatus according to the first or second aspect, the noise element detection unit detects a volume of audio as a state of the noise element, and the noise element control unit includes: When the noise element detecting means detects a sound volume of audio equal to or higher than a predetermined value, the sound volume is reduced. According to a fifth aspect of the present invention, in the voice recognition device according to the first or second aspect, the noise element detecting means detects a flow rate of an air conditioner as a state of the noise element, and the noise element control means comprises: When the noise element detecting means detects an air volume equal to or more than a predetermined amount, the air volume is reduced. According to the invention described in claim 6, a voice recognition unit that recognizes voice, a recognition accuracy obtaining unit that obtains recognition accuracy by the voice recognition unit, an agent appearance unit that causes a personified agent to appear in a vehicle, A noise element detecting means for detecting a state of a noise element causing noise when the recognition accuracy of the recognition accuracy obtaining means is equal to or less than a predetermined value; and controlling a state of the noise element detected by the noise element detecting means. The second object is achieved by providing an agent device with agent control means for causing an agent appearing by the agent appearing means to perform an action of reducing noise.

【0006】[0006]

【発明の実施の形態】以下、本発明の音声認識装置及び
エージェント装置における好適な実施の形態について、
エージェント装置を例に図1から図10を参照して詳細
に説明する。 (1)実施形態の概要 本実施形態のエージェント装置では、エージェントが、
車両の運転者や同乗者等の搭乗者の音声を認識するが、
その認識精度が低いと判断した場合には、その原因とし
て、(a)窓が開いている場合、(b)エアコンが作動
中である場合、(c)オーディオが使用されている場合
が考えられる。そこで、エージェントは、音声認識精度
が低く、(a)〜(c)の雑音原因がある場合に、その
原因に対応して、窓を閉める、エアコンの風量を調整す
る、オーディオの音量を調節する、のいずれかの雑音除
去処理を行う。以上の雑音除去処理を行うにあたって、
エージェントは、その処理前の状態、すなわち、開いて
いる窓の位置Xと開閉量R1、エアコンの風量R2、及
びオーディオの音量R3を学習(記憶)しておき、音声
認識処理が終了した後に、窓等の各車両機器を制御前の
元の状態に戻す車両機器状態復元処理も行われる。本実
施形態におけるエージェントは、擬人化されたエージェ
ントであり、その画像(平面的画像、ホログラフィ等の
立体的画像等)が画像表示装置によって車両内に出現さ
れる。このエージェントの処理としては、車両自体、搭
乗者、対向車等を含む車両の状況判断と学習(状況の学
習だけでなく運転者の応答や反応等も含む)をし、各時
点での車両状況とそれまでの学習結果に基づいて、エー
ジェントが運転者や車両に対して様々なバリエーション
をもった対応(行為=行動と音声)をする。これにより
運転者は、複数のエージェントを車両内に自由に呼びだ
してつき合う(コミュニケーションする)ことが可能に
なり、車両内での環境を快適にすることができる。ここ
で、本実施形態において擬人化されたエージェントと
は、特定の人間、生物、漫画のキャラクター等との同一
性があり、その同一性のある生物が、同一性・連続性を
保つようなある傾向の出力(動作、音声により応答)を
行うものである。また、同一性・連続性は特有の個性を
持つ人格として表現され、電子機器内の一種の疑似生命
体としてもとらえることができる。車両内に出現させる
本実施形態のエージェントは、人間と同様に判断する疑
似人格化(仮想人格化)された主体である。従って、同
一の車両状況であっても、過去の学習内容に応じてコミ
ュニケーションの内容は異なる。ときには、車両の相応
には関係ない範囲での判断ミスも有り、この判断ミスに
よる不要な(ドジな)応答をすることもある。そして運
転者の応答により、判断ミスか否かを判定し、学習す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of a speech recognition apparatus and an agent apparatus according to the present invention will be described below.
This will be described in detail with reference to FIGS. 1 to 10 using an agent device as an example. (1) Overview of Embodiment In the agent device of the present embodiment, the agent
Recognizes the voices of passengers, such as the driver of the vehicle and passengers,
When it is determined that the recognition accuracy is low, the causes may be (a) when the window is open, (b) when the air conditioner is operating, and (c) when audio is used. . Therefore, when the voice recognition accuracy is low and there are noise causes (a) to (c), the agent closes the window, adjusts the air volume of the air conditioner, and adjusts the audio volume according to the cause. , Is performed. In performing the above noise removal processing,
The agent learns (stores) the state before the process, that is, the position X of the open window and the opening / closing amount R1, the air volume R2 of the air conditioner, and the volume R3 of the audio, and after the voice recognition process ends, A vehicle device state restoration process for returning each vehicle device such as a window to the original state before control is also performed. The agent in the present embodiment is a personified agent, and an image thereof (a planar image, a three-dimensional image such as holography, etc.) appears in the vehicle by the image display device. The processing of the agent includes determining and learning the situation of the vehicle including the vehicle itself, passengers, oncoming vehicles (including not only learning of the situation but also the response and reaction of the driver), and the vehicle situation at each time point. Based on the learning results up to that point, the agent responds to the driver or the vehicle with various variations (action = action and voice). As a result, the driver can freely call and communicate (communicate) with a plurality of agents in the vehicle, and can make the environment in the vehicle comfortable. Here, in the present embodiment, the personified agent has the same identity as a specific person, creature, cartoon character, etc., and the creature with the identity maintains the identity and continuity. The output of the tendency (response by operation or voice) is performed. In addition, identity and continuity are expressed as personalities having unique personalities, and can be regarded as a kind of pseudo-creature in an electronic device. The agent according to the present embodiment that appears in the vehicle is a pseudo-personalized (virtual personalized) subject that is determined in the same manner as a human. Therefore, even in the same vehicle situation, the content of the communication differs depending on the past learning content. Occasionally, there is a misjudgment in a range unrelated to the vehicle, and an unnecessary (burst) response may be made due to the misjudgment. Then, based on the driver's response, it is determined whether or not there is a determination error, and learning is performed.

【0007】(2)実施形態の詳細 図1は、本実施形態におけるエージェント装置の構成を
示すブロック図である。本実施形態では、エージェント
によるコミュニケーション機能全体を制御する全体処理
部1を備えている。この全体処理部は、設定した目的地
までの経路を探索して音声や画像表示によって経路案内
をするナビゲーション処理部10、エージェント処理部
11、ナビゲーション処理部10とエージェント処理部
11に対するI/F部12、エージェント画像や地図画
像等の画像出力や入力画像を処理する画像処理部13、
エージェントの音声や経路案内用の音声等の音声を出力
したり、入力される音声を音声認識辞書を使用して認識
したりする音声制御部14、及び車両や運転者に関する
各種状況の検出データを処理する状況情報処理部15を
有している。エージェント処理部11は、所定容姿のエ
ージェントを車両内に出現させると共に、新たに呼ばれ
た名前のエージェントに切り替えて(容姿の画像を変更
して)車両内に出現させる。また、車両の状況や運転者
による過去の応対等を学習して適切な会話や制御を行う
ようになっている。
(2) Details of Embodiment FIG. 1 is a block diagram showing a configuration of an agent device according to this embodiment. In the present embodiment, an overall processing unit 1 that controls the entire communication function of the agent is provided. The overall processing unit includes a navigation processing unit 10, an agent processing unit 11, and an I / F unit for the navigation processing unit 10 and the agent processing unit 11, which search for a route to a set destination and provide route guidance by voice or image display. 12, an image processing unit 13 for processing an image output or an input image such as an agent image or a map image,
A voice control unit 14 that outputs voices such as voices of agents and voices for route guidance, recognizes input voices using a voice recognition dictionary, and detects detection data of various situations regarding vehicles and drivers. It has a situation information processing unit 15 for processing. The agent processing unit 11 causes the agent having a predetermined appearance to appear in the vehicle, and switches to an agent having a newly called name (changes the image of the appearance) to appear in the vehicle. In addition, appropriate conversation and control are performed by learning the situation of the vehicle and past responses by the driver.

【0008】またエージェント処理部11は、音声制御
部14によりマイク26から入力される音声の認識精度
が低いか否かを判断し、低い場合には、雑音や騒音の原
因となっている雑音原因機器に対する調節等の制御を行
う。またエージェント処理部11は、マイク26から入
力される音声の音声制御部14による認識結果に対し評
価を行い、認識精度が低い否かの判断や、認識精度を低
くする雑音の原因(窓の開閉状態、エアコンの動作状
態、オーディオの動作状態)の検出を行う。また、エー
ジェント処理部11は、後述するように、雑音原因を除
去するための雑音除去処理を行う。
The agent processing unit 11 determines whether or not the recognition accuracy of the voice input from the microphone 26 by the voice control unit 14 is low. If the recognition accuracy is low, the noise source It performs control such as adjustment for the equipment. Further, the agent processing unit 11 evaluates the recognition result of the voice input from the microphone 26 by the voice control unit 14 to determine whether the recognition accuracy is low or to determine the cause of the noise that lowers the recognition accuracy (opening / closing of the window). State, operating state of air conditioner, operating state of audio). Further, the agent processing unit 11 performs a noise removal process for removing a noise cause, as described later.

【0009】ナビゲーション処理部10とエージェント
処理部11は、データ処理及び各部の動作の制御を行う
CPU(中央処理装置)と、このCPUにデータバスや
制御バス等のバスラインで接続されたROM、RAM、
タイマ等を備えている。両処理部10、11はネットワ
ーク接続されており、互いの処理データを取得すること
ができるようになっている。ROMはCPUで制御を行
うための各種データやプログラムが予め格納されたリー
ドオンリーメモリであり、RAMはCPUがワーキング
メモリとして使用するランダムアクセスメモリである。
The navigation processing unit 10 and the agent processing unit 11 include a CPU (central processing unit) for controlling data processing and operation of each unit, a ROM connected to the CPU by a bus line such as a data bus and a control bus, and the like. RAM,
A timer and the like are provided. The two processing units 10 and 11 are connected to a network, and can acquire processing data of each other. The ROM is a read-only memory in which various data and programs for controlling by the CPU are stored in advance, and the RAM is a random access memory used by the CPU as a working memory.

【0010】本実施形態のナビゲーション処理部10と
エージェント処理部11は、CPUがROMに格納され
た各種プログラムを読み込んで各種処理を実行するよう
になっている。なお、CPUは、記憶媒体駆動装置23
にセットされた外部の記憶媒体からコンピュータプログ
ラムを読み込んで、エージェントデータ記憶装置29や
ナビゲーションデータ記憶装置30、図示しないハード
ディスク等のその他の記憶装置に格納(インストール)
し、この記憶装置から必要なプログラム等をRAMに読
み込んで(ロードして)実行するようにしてもよい。ま
た、必要なプログラム等を記録媒体駆動装置23からR
AMに直接読み込んで実行するようにしてもよい。
In the navigation processing unit 10 and the agent processing unit 11 of the present embodiment, the CPU reads various programs stored in the ROM and executes various processes. The CPU is a storage medium drive 23
The computer program is read from an external storage medium set in the storage device, and stored (installed) in another storage device such as an agent data storage device 29, a navigation data storage device 30, and a hard disk (not shown).
Then, a necessary program or the like may be read (loaded) from the storage device into the RAM and executed. Also, necessary programs and the like are transmitted from the recording medium driving device 23 to the R
The program may be directly read into the AM and executed.

【0011】ナビゲーション処理部10には、現在位置
検出装置21とナビゲーションデータ記憶装置30が接
続され、エージェント処理部11にはエージェントデー
タ記憶装置29が接続され、I/F部12には入力装置
22と記憶媒体駆動装置23と通信制御装置24と窓開
閉装置201とエアコン風量調節装置202とオーディ
オ音量調節装置203が接続され、画像処理部13には
表示装置27と撮像装置28が接続され、音声制御部1
4には音声出力装置25とマイク26が接続され、状況
情報処理部15には状況センサ部40が接続されてい
る。
A current position detecting device 21 and a navigation data storage device 30 are connected to the navigation processing unit 10, an agent data storage device 29 is connected to the agent processing unit 11, and an input device 22 is connected to the I / F unit 12. , A storage medium drive device 23, a communication control device 24, a window opening / closing device 201, an air conditioner air volume control device 202, and an audio volume control device 203, and a display device 27 and an imaging device 28 are connected to the image processing unit 13, Control unit 1
4, a voice output device 25 and a microphone 26 are connected, and the status information processing unit 15 is connected to a status sensor unit 40.

【0012】現在位置検出装置21は、車両の絶対位置
(緯度、経度による)を検出するためのものであり、人
工衛星を利用して車両の位置を測定するGPS(Global
Positioning System)受信装置211と、方位センサ2
12と、舵角センサ213と、距離センサ214と、路
上に配置されたビーコンからの位置情報を受信するビー
コン受信装置215等が使用される。GPS受信装置2
11とビーコン受信装置215は単独で位置測定が可能
であるが、GPS受信装置211やビーコン受信装置2
15による受信が不可能な場所では、方位センサ212
と距離センサ214の双方を用いた推測航法によって現
在位置を検出するようになっている。なお、より正確な
現在位置を検出するために、所定の基地局から送信され
る測位誤差に対する補正信号を受信し、現在位置を補正
するD−GPS(ディファレンシャルGPS)を使用す
るようにしてもよい。方位センサ212は、例えば、地
磁気を検出して車両の方位を求める地磁気センサ、車両
の回転角速度を検出しその角速度を積分して車両の方位
を求めるガスレートジャイロや光ファイバジャイロ等の
ジャイロ、左右の車輪センサを配置しその出力パルス差
(移動距離の差)により車両の旋回を検出することで方
位の変位量を算出するようにした車輪センサ、等が使用
される。舵角センサ213は、ステアリングの回転部に
取り付けた光学的な回転センサや回転抵抗ボリューム等
を用いてステアリングの角度αを検出する。距離センサ
214は、例えば、車輪の回転数を検出して計数し、ま
たは加速度を検出して2回積分するもの等の各種の方法
が使用される。
The current position detecting device 21 is for detecting the absolute position (depending on latitude and longitude) of the vehicle, and uses a GPS (Global Positioning System) for measuring the position of the vehicle using artificial satellites.
Positioning System) Receiver 211 and bearing sensor 2
12, a steering angle sensor 213, a distance sensor 214, a beacon receiving device 215 for receiving position information from a beacon arranged on the road, and the like. GPS receiver 2
11 and the beacon receiving device 215 can perform position measurement independently, but the GPS receiving device 211 and the beacon receiving device 2
In a place where reception by the receiver 15 is impossible, the direction sensor 212
The current position is detected by dead reckoning navigation using both the distance sensor 214 and the distance sensor 214. In order to detect a more accurate current position, a D-GPS (Differential GPS) that receives a correction signal for a positioning error transmitted from a predetermined base station and corrects the current position may be used. . The azimuth sensor 212 is, for example, a terrestrial magnetism sensor that detects terrestrial magnetism to determine the azimuth of the vehicle, a gyro such as a gas rate gyro or an optical fiber gyro that detects the rotational angular velocity of the vehicle and integrates the angular velocity to determine the azimuth of the vehicle. A wheel sensor or the like is used in which a wheel sensor is disposed, and the amount of azimuth displacement is calculated by detecting the turning of the vehicle based on the output pulse difference (difference in moving distance). The steering angle sensor 213 detects the steering angle α by using an optical rotation sensor, a rotation resistance volume, or the like attached to a rotating part of the steering. As the distance sensor 214, for example, various methods such as a method of detecting and counting the number of rotations of a wheel, or a method of detecting acceleration and integrating twice are used.

【0013】入力装置22は、エージェントの名前の読
みを入力したり、そのた、エージェント処理を行う上で
使用されるユーザ情報(年齢、性別、趣味、性格など)
を入力するためのものである。なお、これらユーザに関
する情報は、入力装置22からユーザが入力する場合に
限らず、ユーザとのコミュニケーションが無い時間が一
定時間以上経過した場合等に、未入力の項目について例
えば、プロ野球が好きか否か、好きな球団名等に関する
各種問い合わせをエージェントがユーザに行い、ユーザ
の回答内容から取得するようにしてもよい。入力装置2
2は、本実施形態によるエージェントのその他全ての問
い合わせ等に対して運転者が応答するための1つの手段
でもある。入力装置22は、ナビゲーション処理におけ
る走行開始時の現在地(出発地点)や目的地(到達地
点)、情報提供局へ渋滞情報等の情報の請求を発信した
い車両の所定の走行環境(発信条件)、車内で使用され
る携帯電話のタイプ(型式)などを入力するためのもの
でもある。入力装置22には、タッチパネル(スイッチ
として機能)、キーボード、マウス、ライトペン、ジョ
イスティック、赤外線等によるリモコン、音声認識装置
などの各種の装置が使用可能である。また、赤外線等を
利用したリモコンと、リモコンから送信される各種信号
を受信する受信部を備えてもよい。リモコンには、画面
上に表示されたカーソルの移動操作等を行うジョイステ
ィックの他、メニュー指定キー(ボタン)、テンキー等
の各種キーが配置される。
The input device 22 is used to input the reading of the name of the agent, and to input user information (age, gender, hobby, personality, etc.) used in performing agent processing.
Is for inputting. In addition, the information about these users is not limited to the case where the user inputs from the input device 22. Alternatively, the agent may make various inquiries regarding the favorite team name and the like to the user, and acquire the information from the user's answer. Input device 2
2 is one means for the driver to respond to all other inquiries of the agent according to the present embodiment. The input device 22 includes a current location (departure point) and a destination (arrival point) at the start of traveling in the navigation processing, a predetermined traveling environment (transmission condition) of a vehicle to which a request for information such as traffic congestion information is transmitted to an information providing station, It is also used to input the type (model) of the mobile phone used in the vehicle. As the input device 22, various devices such as a touch panel (functioning as a switch), a keyboard, a mouse, a light pen, a joystick, a remote controller using infrared rays, and a voice recognition device can be used. Further, a remote control using infrared rays or the like and a receiving unit for receiving various signals transmitted from the remote control may be provided. On the remote controller, various keys such as a menu designation key (button) and a numeric keypad are arranged in addition to a joystick for moving a cursor displayed on the screen.

【0014】記憶媒体駆動装置23は、ナビゲーション
処理部10やエージェント処理部11が各種処理を行う
ためのコンピュータプログラムを外部の記憶媒体から読
み込むのに使用される駆動装置である。記憶媒体に記録
されているコンピュータプログラムには、各種のプログ
ラムやデータ等が含まれる。ここで、記憶媒体とは、コ
ンピュータプログラムが記録される記憶媒体をいい、具
体的には、フロッピーディスク、ハードディスク、磁気
テープ等の磁気記憶媒体、メモリチップやICカード等
の半導体記憶媒体、CD−ROMやMO、PD(相変化
書換型光ディスク)、DVD(ディジタル・ビデオ・デ
ィスク)等の光学的に情報が読み取られる記憶媒体、紙
カードや紙テープ、文字認識装置を使用してプログラム
を読み込むための印刷物等の用紙(および、紙に相当す
る機能を持った媒体)を用いた記憶媒体、その他各種方
法でコンピュータプログラムが記録される記憶媒体が含
まれる。
The storage medium drive unit 23 is a drive unit used by the navigation processing unit 10 and the agent processing unit 11 to read a computer program for performing various processes from an external storage medium. The computer programs recorded on the storage medium include various programs and data. Here, the storage medium refers to a storage medium on which a computer program is recorded, and specifically, a magnetic storage medium such as a floppy disk, a hard disk, a magnetic tape, a semiconductor storage medium such as a memory chip or an IC card, and a CD-ROM. ROM, MO, PD (Phase Change Rewritable Optical Disk), DVD (Digital Video Disk) and other storage media from which information can be read optically, paper cards and tapes, and programs for reading programs using character recognition devices It includes a storage medium using paper such as a printed matter (and a medium having a function equivalent to paper) and a storage medium on which a computer program is recorded by various methods.

【0015】記憶媒体駆動装置23は、これらの各種記
憶媒体からコンピュータプログラムを読み込む他に、記
憶媒体がフロッピーディスクやICカード等のように書
き込み可能な記憶媒体である場合には、ナビゲーション
処理部10やエージェント処理部11のRAMや記憶装
置29、30のデータ等をその記憶媒体に書き込むこと
が可能である。例えば、ICカードにエージェント機能
に関する学習内容(学習項目データ、応答データ)や、
ユーザ情報等を記憶させ、他の車両を運転する場合でも
この記憶させたICカードを使用することで、自分の好
みに合わせて命名され、過去の応対の状況に応じて学習
された同一のエージェントとコミュニケーションするこ
とが可能になる。これにより、車両毎のエージェントで
はなく、運転者に固有な名前と、学習内容のエージェン
トを車両内に出現させることが可能になる。
The storage medium drive unit 23 reads a computer program from these various storage media and, when the storage medium is a writable storage medium such as a floppy disk or an IC card, the navigation processing unit 10. And the data of the RAM of the agent processing unit 11 and the storage devices 29 and 30 can be written to the storage medium. For example, learning contents (learning item data, response data) relating to the agent function on the IC card,
The same agent that stores user information and other information and uses this stored IC card even when driving another vehicle is named according to his / her preference and learned according to past response situations. It is possible to communicate with. This makes it possible to cause an agent having a name unique to the driver and learning contents to appear in the vehicle, instead of an agent for each vehicle.

【0016】通信制御装置24は、各種無線通信機器か
らなる携帯電話が接続されるようになっている。通信制
御装置24は、電話回線による通話の他、道路の混雑状
況や交通規制等の交通情報に関するデータなどを提供す
る情報提供局との通信や、車内での通信カラオケのため
に使用するカラオケデータを提供する情報提供局との通
信を行うことができるようになっている。また、通信制
御装置24を介して、エージェント機能に関する学習デ
ータやユーザ情報等を送受信することも可能である。
The communication control device 24 is connected to a portable telephone composed of various wireless communication devices. The communication control unit 24 communicates with an information providing station that provides data related to traffic information such as traffic congestion conditions and traffic regulations in addition to telephone calls, and karaoke data used for karaoke communication in the vehicle. Can be communicated with an information providing station that provides the information. Further, it is also possible to transmit and receive learning data and user information related to the agent function via the communication control device 24.

【0017】窓開閉装置201は、エージェント処理部
11による制御のもと、開いている窓を閉じると共に、
閉じた窓を元の開閉量まで開くようになっている。エア
コン風量調節装置202は、エージェント処理部11に
よる制御のもと、音声認識に影響を与えない程度までエ
アコンの風量を小さくすると共に、小さくした風量を元
の風量にまで大きくするようになっている。オーディオ
音量調節装置203は、エージェント処理部11による
制御のもと、音声認識に影響を与えない程度までオーデ
ィオの音量を小さくすると共に、小さくした音量を元の
音量にまで大きくするようになっている。
The window opening / closing device 201 closes an open window under the control of the agent processing unit 11,
The closed window is opened to the original opening and closing amount. Under the control of the agent processing unit 11, the air conditioner air volume adjusting device 202 reduces the air volume of the air conditioner to a level that does not affect voice recognition, and increases the reduced air volume to the original air volume. . Under the control of the agent processing unit 11, the audio volume control device 203 reduces the volume of the audio to a level that does not affect the speech recognition, and increases the reduced volume to the original volume. .

【0018】音声出力装置25は、車内に配置された複
数のスピーカで構成され、音声制御部14で制御された
音声、例えば、音声による経路案内を行う場合の案内音
声や、エージェントの音声や音が出力されるようになっ
ている。この音声出力装置25は、全部又は一部をオー
ディオ用のスピーカと兼用するようにしてもよい。な
お、音声制御部14は、運転者のチューニング指示の入
力に応じて、音声出力装置25から出力する音声の音色
やアクセント等を制御することが可能である。音声出力
装置25は、音声制御部14で認識した音声についての
認識内向をユーザに確認(コールバック)するために合
成された音声も出力するようになっている。
The voice output device 25 is composed of a plurality of speakers arranged in the vehicle, and is controlled by the voice control unit 14, for example, guidance voice for performing route guidance by voice, voice or sound of an agent. Is output. The audio output device 25 may be used in whole or in part as a speaker for audio. Note that the voice control unit 14 can control the tone color, accent, and the like of the voice output from the voice output device 25 in response to the driver's input of a tuning instruction. The voice output device 25 is also configured to output a voice synthesized in order to confirm (call back) to the user the introversion of the voice recognized by the voice control unit 14.

【0019】マイク26は、音声制御部14における音
声認識の対象となる音声、例えば、ナビゲーション処理
における目的地等の入力音声や、エージェントとの運転
者の会話等(コールバックに対すユーザの応答等を含
む)を入力する音声入力手段として機能する。このマイ
ク26は、通信カラオケ等のカラオケを行う際のマイク
と兼用するようにしてもよく、また、運転者の音声を的
確に収集するために指向性のある専用のマイクを使用す
るようにしてもよい。音声出力装置25とマイク26と
でハンズフリーユニットを形成させて、携帯電話を介さ
ずに、電話通信における通話を行えるようにしてもよ
い。
The microphone 26 is a voice to be subjected to voice recognition by the voice control unit 14, for example, an input voice of a destination in a navigation process, a conversation of a driver with an agent (a user response to a callback, etc.). Function as a voice input unit for inputting The microphone 26 may be used also as a microphone for performing karaoke such as a communication karaoke, or a dedicated directional microphone may be used to accurately collect a driver's voice. Is also good. The audio output device 25 and the microphone 26 may form a hands-free unit so that a telephone call can be made without using a mobile phone.

【0020】表示装置27には、ナビゲーション処理部
10の処理による経路案内用の道路地図や各種画像情報
が表示されたり、エージェント処理部11によるエージ
ェントの各種行動(動画)が表示されたりするようにな
っている。また、撮像装置28で撮像された車両内外の
画像も画像処理部13で処理された後に表示されるよう
になっている。表示装置27は、液晶表示装置、CRT
等の各種表示装置が使用される。なお、この表示装置2
7は、例えばタッチパネル等の、前記入力装置22とし
ての機能を兼ね備えたものとすることができる。
The display device 27 displays a road map and various image information for route guidance by the processing of the navigation processing unit 10, and displays various actions (moving images) of the agent by the agent processing unit 11. Has become. Further, images inside and outside the vehicle captured by the image capturing device 28 are also displayed after being processed by the image processing unit 13. The display device 27 is a liquid crystal display device, a CRT
Various display devices are used. This display device 2
Reference numeral 7 may have a function as the input device 22 such as a touch panel.

【0021】撮像装置28は、画像を撮像するためのC
CD(電荷結合素子)を備えたカメラで構成されてお
り、運転者を撮像する車内カメラの他、車両前方、後
方、右側方、左側方を撮像する各車外カメラが配置され
ている。撮像装置28の各カメラにより撮像された画像
は、画像処理部13に供給され、画像認識等の処理が行
われ、各認識結果をエージェント処理部11によるプロ
グラム番号の決定にも使用するようになっている。
The image pickup device 28 has a C for picking up an image.
It is composed of a camera equipped with a CD (Charge Coupled Device). In addition to an in-vehicle camera for imaging the driver, an out-of-vehicle camera for imaging the front, rear, right and left sides of the vehicle are arranged. The image captured by each camera of the imaging device 28 is supplied to the image processing unit 13, where processing such as image recognition is performed, and each recognition result is also used by the agent processing unit 11 to determine a program number. ing.

【0022】エージェントデータ記憶装置29は、本実
施形態によるエージェント機能を実現するために必要な
各種データやプログラムが格納される記憶装置である。
このエージェントデータ記憶装置29には、例えば、フ
ロッピーディスク、ハードディスク、CD−ROM、光
ディスク、磁気テープ、ICカード、光カード、DVD
等の各種記憶媒体と、その駆動装置が使用される。この
場合、例えば、学習項目データ292、応答データ29
3、及びユーザ情報297を持ち運びが容易なICカー
ドやフロッピーディスクで構成し、その他のデータをハ
ードディスクで構成するというように、複数種類の異な
る記憶媒体と駆動装置で構成し、駆動装置としてそれら
の駆動装置を用いるようにしてもよい。
The agent data storage device 29 is a storage device for storing various data and programs necessary for realizing the agent function according to the present embodiment.
The agent data storage device 29 includes, for example, a floppy disk, hard disk, CD-ROM, optical disk, magnetic tape, IC card, optical card, DVD
And various storage media, and its driving device. In this case, for example, the learning item data 292 and the response data 29
3, a plurality of different storage media and drive units, such as an easy-to-carry IC card or a floppy disk, and other data, such as a hard disk. A driving device may be used.

【0023】エージェントデータ記憶装置29には、エ
ージェントプログラム290、プログラム選択テーブル
291、学習項目データ292、応答データ293、エ
ージェントの容姿や行動を静止画像や動画像で画像表示
するための画像データ294、車両機器状態データ29
6、運転者を特定するためのユーザ情報297、その他
のエージェントのための処理に必要な各種のデータが格
納されている。
The agent data storage device 29 has an agent program 290, a program selection table 291, learning item data 292, response data 293, image data 294 for displaying the appearance and behavior of the agent as a still image or a moving image, Vehicle equipment status data 29
6. User information 297 for specifying a driver and various data necessary for processing for other agents are stored.

【0024】画像データ294には、各エージェントの
容姿と、各容姿のエージェントが様々な表情や動作を表
すための各種画像データが格納されている。ユーザは、
これら各エージェントを選択し、自由に名前を付ける
(設定する)ことができるようになっている。格納され
る容姿としては、人間(男性、女性)的な容姿である必
要はなく、例えば、ひよこや犬、猫、カエル、ネズミ等
の動物自体の容姿や人間的に図案化(イラスト化)した
動物の容姿であってもよく、更にロボット的な容姿や、
特定のキャラクタの容姿等であっても良く、これら各容
姿に対応して名前を付けることが可能である。またエー
ジェントの年齢としても一定である必要がなく、エージ
ェントの学習機能として、最初は子供の容姿とし、時間
の経過と共に成長していき容姿が変化していく(大人の
容姿に変化し、更に老人の容姿に変化していく)ように
してもよい。画像データ294には、これらの各種エー
ジェントの容姿の画像が格納されており、運転者の好み
によって入力装置22等から選択することができるよう
になっている。
The image data 294 stores the appearance of each agent and various image data for the agent of each appearance to express various expressions and actions. The user
Each of these agents can be selected and freely named (set). The appearance to be stored does not have to be a human (male, female) appearance, for example, a chick, a dog, a cat, a frog, a mouse, etc., and the animal itself or a human figure (illustration). It may be an animal appearance, a robotic appearance,
It may be the appearance of a specific character or the like, and it is possible to give a name corresponding to each appearance. Also, the age of the agent does not need to be constant, and as a learning function of the agent, the appearance of the child is first changed to a child's appearance, and it grows over time and changes in appearance (change to the appearance of an adult, May be changed). The image data 294 stores images of the appearances of these various agents, and can be selected from the input device 22 or the like according to the driver's preference.

【0025】ユーザ情報297には、ユーザの氏名、住
所、生年月日、性別、性格、趣味、好きなスポーツ、好
きなチーム、好きな食べ物、宗教、ユーザの身長、体
重、運転席(シート)の固定位置(前後位置、背もたれ
の角度)、ルームミラーの角度、視線の高さ、顔写真を
デジタル化したデータ、音声の特徴パラメータ等の各種
情報が各ユーザ毎に格納されている。ユーザ情報は、エ
ージェントがユーザと取るコミュニケーションの内容を
判断する場合に使用される他、ユーザの体重等の後者の
データ群は運転者を特定するためにも使用される。
The user information 297 includes the user's name, address, date of birth, gender, character, hobby, favorite sport, favorite team, favorite food, religion, user's height, weight, driver's seat (seat). For each user, various information such as a fixed position (front-back position, backrest angle), an angle of a room mirror, a height of a line of sight, digitized data of a face photograph, voice characteristic parameters, and the like are stored. The user information is used when the agent determines the content of the communication with the user, and the latter data group such as the weight of the user is also used to identify the driver.

【0026】状態データ296には、車両機器制御実行
フラグと、車両機器状態データとが格納される。車両機
器制御実行フラグは、音声認識精度を高くするために雑
音除去制御を実行した車両機器を特定するためのフラグ
で、本実施形態では、窓閉め実行フラグ、風量調節フラ
グ、音量調節フラグがあり、それぞれのフラグをオン、
オフするためのフラグ領域が確保されている。そして、
車両機器状態データは車両の各機器の状態を記憶してお
くためのデータで、窓状態データ、エアコン状態デー
タ、オーディオ状態データが格納される。窓状態データ
としての開いている窓の位置Xと開閉量R1、エアコン
状態データとしてのエアコンの風量R2、オーディオ状
態データとしてのオーディオの音量R3が、それぞれ、
各車両機器制御実行フラグと対応して格納されるように
なっている。開いている窓が複数ある場合には、その窓
位置Xnと開閉量R1n(n=1,2,3…)が開いて
いる窓の数だけ格納される。各車両機器状態データは、
対応するフラグがオンされる際に格納され、音声認識処
理が終了した後に、制御した各機器を元の状態に戻すた
めに、車両機器状態データが読み出される。
The state data 296 stores a vehicle equipment control execution flag and vehicle equipment state data. The vehicle device control execution flag is a flag for specifying the vehicle device that has performed the noise removal control in order to increase the voice recognition accuracy. In the present embodiment, there are a window closing execution flag, an air volume adjustment flag, and a volume adjustment flag. , Turn on each flag,
A flag area for turning off is secured. And
The vehicle device status data is data for storing the status of each device of the vehicle, and stores window status data, air conditioner status data, and audio status data. The position X and the opening / closing amount R1 of the open window as the window state data, the air volume R2 of the air conditioner as the air conditioner state data, and the audio volume R3 as the audio state data are:
It is stored in correspondence with each vehicle equipment control execution flag. When there are a plurality of open windows, the window position Xn and the opening / closing amount R1n (n = 1, 2, 3,...) Are stored by the number of open windows. Each vehicle equipment status data is
Stored when the corresponding flag is turned on, and after the voice recognition processing is completed, the vehicle device state data is read in order to return each controlled device to the original state.

【0027】エージェントプログラム290には、エー
ジェント機能を実現するためのエージェント処理プログ
ラムや、エージェントと運転者とがコミュニケーション
する場合の細かな行動を表示装置27に画像表示すると
共にその行動に対応した会話を音声出力装置25から出
力するためのコミュニケーションプログラムがプログラ
ム番号順に格納されている。このエージェントプログラ
ム290には、各プログラム番号の音声に対して複数種
類の音声データが格納されており、運転者は前記エージ
ェントの容姿の選択と併せて音声を入力装置22等から
選択することができるようになっている。エージェント
の音声としては、男性の音声、女性の音声、子供の音
声、機械的な音声、動物的な音声、特定の声優や俳優の
音声、特定のキャラクタの音声等があり、これらの中か
ら適宜運転者が選択する。なお、この音声と前記容姿の
選択は、適時変更することが可能である。
In the agent program 290, an agent processing program for realizing the agent function, detailed actions when the agent and the driver communicate with each other are displayed on the display device 27 as images, and conversation corresponding to the actions is performed. Communication programs to be output from the audio output device 25 are stored in program number order. The agent program 290 stores a plurality of types of voice data with respect to the voice of each program number, and the driver can select the voice from the input device 22 or the like together with the selection of the appearance of the agent. It has become. Agent voices include male voices, female voices, child voices, mechanical voices, animal voices, voices of specific voice actors and actors, voices of specific characters, and the like. The driver chooses. The selection of the voice and the appearance can be changed as needed.

【0028】プログラム選択テーブル291は、エージ
ェントプログラム290に格納されているコミュニケー
ションプログラムを選択するためのテーブルである。こ
のプログラム選択テーブル291からコミュニケーショ
ンプログラムを選択する選択条件には、状態センサ40
により検出される車両や運転者の各種状況から決定され
る項目(時間、起動場所、冷却水温、シフトポジション
位置、アクセル開度等)と、学習項目データ292や応
答データ293に格納されている学習内容から決定され
る項目(今日のIG ON回数、前回終了時からの経過
時間、通算起動回数等)とがある。
The program selection table 291 is a table for selecting a communication program stored in the agent program 290. The selection conditions for selecting a communication program from the program selection table 291 include the state sensor 40
(Time, start-up location, cooling water temperature, shift position, accelerator opening, etc.) determined from various conditions of the vehicle and the driver detected by the above, and learning stored in learning item data 292 and response data 293. There are items determined from the contents (today's IG ON count, elapsed time since last end, total start count, etc.).

【0029】学習項目データ292及び応答データ29
3は、運転者の運転操作や応答によってエージェントが
学習した結果を格納するデータである。従って、学習項
目データ292と応答データ293は、各運転者毎にそ
のデータが格納・更新(学習)されるようになってい
る。応答データ293には、エージェントの行為に対す
るユーザの応答の履歴が、各コミュニケーションプログ
ラム番号毎に格納される。
Learning item data 292 and response data 29
Reference numeral 3 denotes data for storing a result learned by the agent based on a driver's driving operation or response. Therefore, the learning item data 292 and the response data 293 are stored and updated (learned) for each driver. The response data 293 stores the history of the user's response to the action of the agent for each communication program number.

【0030】学習項目データ292には、プログラム選
択テーブル291の選択条件を決定する通算起動回数、
前回終了日時、今日のイグニッションON回数、前5回
の給油時残量等が格納され、選択条件により選択された
プログラムを起動するか否か(お休みするか否か)を決
定するためのお休み回数/日時、デフォルト値、その他
のデータが格納される。
The learning item data 292 includes the total number of activations for determining the selection conditions of the program selection table 291,
The last end date and time, today's ignition ON frequency, the last five refueling remaining times, etc. are stored, and are used to determine whether to start the program selected according to the selection conditions (whether to take a rest). The number of rests / date and time, default value, and other data are stored.

【0031】また、学習項目データ292には、音声認
識に影響を与えないエアコンの風量H2とオーディオの
音量H3が、しきい値として格納されるようになってい
る。音声認識の精度が低い場合には、エアコン風量調節
装置202、オーディオ音量調節装置203を制御し
て、しきい値H2、H3と等しくなるまで風量と音量を
下げ、このしきい値が妥当か否かについて学習される。
すなわち、格納されているしきい値H2、H3と等しい
風量、音量に下げても音声認識率が未だ低い場合には、
風量、音量をさらに所定量下げるように学習項目データ
292に格納されているしきい値H2、H3の値を所定
量下げるように変更する。しきい値を下げる場合、例え
ば、エアコンであれば風量が1段階弱くなるように下
げ、オーディオであれば調節可能範囲の10%だけ音量
が下がるようにさげる。この風量と音量のしきい値H
2、H3については、ユーザによって声の大きさや音質
等が異なることから、各ユーザ情報297に格納されて
いる各ユーザ(運転者)毎に区別して格納されるように
なっている。
In the learning item data 292, the air volume H2 of the air conditioner and the audio volume H3 which do not affect the speech recognition are stored as threshold values. If the accuracy of voice recognition is low, the air conditioner air volume control device 202 and the audio volume control device 203 are controlled to reduce the air volume and volume until they become equal to the threshold values H2 and H3. Learned about.
That is, if the speech recognition rate is still low even if the air volume and volume are reduced to the same as the stored thresholds H2 and H3,
The values of the thresholds H2 and H3 stored in the learning item data 292 are changed so as to be lowered by a predetermined amount so that the air volume and volume are further lowered by a predetermined amount. When lowering the threshold value, for example, in the case of an air conditioner, the air volume is lowered by one step, and in the case of audio, the volume is lowered by 10% of the adjustable range. This air volume and volume threshold H
2, H3 is differently stored for each user (driver) stored in the respective user information 297 because the loudness and the sound quality of the user vary from user to user.

【0032】エージェント処理部11は、これら学習項
目データ292、応答データ293、及び状況センサ部
40で検出される車両の各種状況に対応するプログラム
番号をプログラム選択テーブル291から選択し、その
プログラム番号に対応するエージェントプログラム29
0を選択して実行することで、エージェントと運転者等
とのコミュニケーションが行われるよようになってい
る。例えば、エンジンの冷却水温度が低い場合には、エ
ンジンの調子に合わせてエージェントが「眠そうに…」
行動する。眠そうな表現として、瞼が下がった表情の画
像にしたり、あくびや伸びをした後に所定の行動(お辞
儀等)をしたり、最初に目をこすったり、動きや発声を
通常よりもゆっくりさせたりすることで表すことができ
る。これらの眠そうな表現は、常に同一にするのではな
く、行動回数等を学習することで適宜表現を変更する。
例えば、3回に1回は目をこすり(A行動)、10回に
1回はあくびをするようにし(B行動)、それ以外では
瞼を下がった表情(C行動)にする。これらの変化は、
行動Bや行動Cの付加プログラムを行動Aの基本プログ
ラムに組み合わせることで実現される。そして、どの行
動を組み合わせるかについては、基本となる行動Aのプ
ログラム実行回数を学習項目として計数しておき、回数
に応じて付加プログラムを組み合わせるようにする。ま
た、急ブレーキが踏まれたことを条件として、エージェ
ントが「しりもち」をついたり、「たたら」を踏んだり
する行動をとったり、驚き声をだすようなプログラムも
規定されている。エージェントによる各行動の選択は急
ブレーキに対する学習によって変化するようにし、例え
ば、最初の急ブレーキから3回目までは「しりもち」を
つき、4回目から10回目までは「たたら」を踏み、1
0回目以降は「片足を一歩前にだすだけで踏ん張る」行
動を取るようにし、エージェントが急ブレーキに対して
段階的に慣れるようにする。そして、最後の急ブレーキ
から1週間の間隔があいた場合には、1段階後退するよ
うにする。
The agent processing section 11 selects from the program selection table 291 these learning item data 292, response data 293, and program numbers corresponding to various situations of the vehicle detected by the situation sensor section 40, and assigns them to the program numbers. Corresponding agent program 29
By selecting and executing 0, communication between the agent and the driver or the like is performed. For example, when the temperature of the engine coolant is low, the agent "sleeps ..."
Act. As a sleepy expression, make an image of a facial expression with eyelids lowered, perform a predetermined action (bowing etc.) after yawning or stretching, rub your eyes first, make movement and vocalization slower than usual It can be expressed by doing. These sleepy expressions are not always the same, but the expressions are appropriately changed by learning the number of actions and the like.
For example, the eyes are rubbed once every three times (A action), yawn once every ten times (B action), and the facial expression with the eyelid lowered (C action) otherwise. These changes are
This is realized by combining the additional program of the action B and the action C with the basic program of the action A. As for which action is to be combined, the number of program executions of the basic action A is counted as a learning item, and an additional program is combined according to the number of times. In addition, a program is also provided in which an agent takes an action such as "swiping", "stepping on", and making a surprise voice on condition that a sudden brake is applied. The selection of each action by the agent is changed by learning for the sudden braking. For example, the first time from the first sudden braking, the third time, "Shimo-mochi", and the fourth to the tenth time, "Tatara", step on, 1
From the 0th time onward, take the action of "stepping on one foot just one step forward" and let the agent gradually get used to sudden braking. Then, if there is an interval of one week from the last sudden braking, the vehicle is moved backward by one step.

【0033】ナビゲーションデータ記憶装置30には経
路案内等で使用される各種データファイルとして、通信
地域データファイル、描画地図データファイル、道路網
データファイル、目的地まで探索した走行経路に関する
データが格納される探索データファイルが格納されるよ
うになっている。道路網データファイルには、経路探索
に使用される各種データとして、交差点データ、ノード
データ、道路データが格納される。通信地域データファ
イルには、通信制御装置24に接続される携帯電話や、
接続せずに車内で使用される携帯電話が、車両位置にお
いて通信できる地域を表示装置27に表示したり、その
通信できる地域を経路探索の際に使用するための通信地
域データが、携帯電話のタイプ別に格納されている。
The navigation data storage device 30 stores various data files used for route guidance and the like, such as a communication area data file, a rendered map data file, a road network data file, and data on a travel route searched for a destination. A search data file is stored. In the road network data file, intersection data, node data, and road data are stored as various data used for the route search. The communication area data file includes a mobile phone connected to the communication control device 24,
The communication area data for the mobile phone used in the car without connection to display the area where the mobile phone can communicate at the vehicle position on the display device 27 and to use the area where the communication can be performed for the route search is stored in the mobile phone. Stored by type.

【0034】状況センサ部40は、窓開き量検出センサ
401、エアコン風量検出センサ402、オーディオ音
量検出センサ403、及びその他のセンサ404を備え
ている。窓開き量検出センサ401は、車両に配置され
ている各窓のうち、開いている窓の位置と、その開閉量
を検出するセンサである。エアコン風量センサ401
は、エアコンのオン、オフ、及びオンされている場合の
風量を検出センサである。オーディオ音量検出センサ4
03は、CD(コンパクトディスク)プレイヤー、カセ
ットテープレコーダ、MD(ミニディスク)プレイヤ
ー、ラジオ、テレビ、ビデオテープレコーダー等のオー
ディオ装置のオン、オフ、及びオンされている場合にス
ピーカ(兼用されている場合には音声出力装置25)か
ら出力される音量を検出するセンサである。これらの各
センサによる検出値は、状態データ296に格納される
ようになっている。
The situation sensor unit 40 includes a window opening amount detection sensor 401, an air conditioner air volume detection sensor 402, an audio volume detection sensor 403, and other sensors 404. The window opening amount detection sensor 401 is a sensor that detects the position of an open window among the windows arranged in the vehicle and the opening / closing amount thereof. Air conditioner air volume sensor 401
Is a sensor for detecting whether the air conditioner is on, off, and when the air conditioner is on. Audio volume detection sensor 4
Reference numeral 03 denotes a speaker (also used as a speaker when the audio devices such as a CD (compact disk) player, a cassette tape recorder, an MD (mini disk) player, a radio, a television, and a video tape recorder are on, off, and on. In this case, it is a sensor for detecting the volume output from the audio output device 25). The values detected by these sensors are stored in the state data 296.

【0035】その他のセンサ404としては、車両状況
や運転者状況、車内状況等を検出する各種センサを備え
ている。これら各種センサは、それぞれのセンシング目
的に応じた所定の位置に配置されている。なお、これら
の各センサは独立したセンサとして存在しない場合に
は、他のセンサ検出信号から間接的にセンシングする場
合を含む。例えば、タイヤの空気圧低下検出センサは、
車速センサの信号の変動により間接的に空気圧の低下を
検出する。その他のセンサ404としては、イグニッシ
ョンのONとOFFを検出するイグニッションセンサ、
例えばスピードメータケーブルの回転角速度又は回転数
を検出して車速を算出する車速センサは、アクセルペダ
ルの踏み込み量を検出するアクセルセンサ、ブレーキの
踏み込み量を検出したり、踏み込み力や踏む込む速度等
から急ブレーキがかけられたか否かを検出するブレーキ
センサ、サイドブレーキがかけられているか否かを検出
するサイドブレーキ検出センサ、シフトレバー位置を検
出するシフト位置検出センサ、ウィンカの点滅及び点滅
させている方向を検出するウィンカー検出センサ、ワイ
パーの駆動状態(速度等)を検出するワイパー検出セン
サ、ヘッドランプ、テールランプ、フォグランプ、ルー
ムランプ等の各ランプの点灯状態を検出するライト検出
センサ、運転者、及び同乗者(補助席、後部座席)がシ
ートベルトを着用しているか否かを検出し、未着用の場
合にエージェントが嫌われない程度に着用を促す等のた
めのシートベルト検出センサ、運転席ドア、助手席ド
ア、後部運転席側ドア、後部助手席側ドア等の車種に応
じた各ドア毎の開閉状態を検出し、いわゆる半ドアの場
合にはエージェントがその旨を知らせる等のためのドア
開閉検出センサ、撮像装置28で撮像された車内の画像
から検出し、または、補助席等に配置された圧力センサ
や、体重計により、助手席や後部座席に同乗者が乗って
いるか否かを検出同乗者検出センサ、室内の気温を検出
する室内温度検出センサ、車両外の気温を検出する室外
温度検出センサ、ガソリン、軽油等の燃料の残量を検出
し、給油時直前における過去5回分の検出値が学習項目
データ292に格納され、その平均値になった場合にエ
ージェントが給油時期であることを知らせる等のための
燃料検出センサ、冷却水の温度を検出し、イグニッショ
ンON直後においてエージェントが眠そうな行為をした
り(検出水温が低い場合)、水温が高すぎる場合でオー
バーヒートする前にエージェントが「だるそう」な行動
と共にその旨を知らせるための水温検出センサ、急ブレ
ーキによるタイヤのロックを防止し操縦性と車両安定性
を確保するABSが作動したか否かを検出するABS検
出センサ、運転者の体重を検出し、検出した体重から、
または、体重と撮像装置28の画像から運転者を特定
し、その運転者との関係で学習したエージェントを出現
させる等のための体重センサ、車両前方の他車両や障害
物との距離を検出する前車間距離センサ、後方の他車両
や障害物との距離を検出する後車間距離センサ、例え
ば、ハンドル表面に配置し運転者の手の状態から運転者
の体温、心拍数、発汗状態を検出する体温センサ、心拍
数センサ、発汗センサ、運転者の脳波を検出するセンサ
で、例えばα波やβ波等を検出して運転者の覚醒状態等
を調べる脳波センサ、ユーザの視線の動きを検出し、通
常運転中、車外の目的物を捜している、車内目的物をさ
がしている、覚醒状態等を判断するためのアイトレーサ
ー、ユーザの手の動きや顔の動きを検出する赤外線セン
サ、タイヤの空気圧低下検出センサ、ベルト類のゆるみ
検出センサ、窓の開閉状態センサ、クラクションセン
サ、室内湿度センサ、室外湿度センサ、油温検出セン
サ、油圧検出センサ等の各種センサを備えている。
The other sensors 404 include various sensors for detecting a vehicle condition, a driver condition, a vehicle interior condition, and the like. These various sensors are arranged at predetermined positions according to the respective sensing purposes. Note that the case where these sensors do not exist as independent sensors includes the case where sensing is performed indirectly from other sensor detection signals. For example, a tire pressure drop detection sensor
A decrease in air pressure is indirectly detected by a change in the signal of the vehicle speed sensor. Other sensors 404 include an ignition sensor for detecting ignition ON and OFF,
For example, a vehicle speed sensor that calculates the vehicle speed by detecting the rotational angular velocity or the number of rotations of the speedometer cable is an accelerator sensor that detects the amount of depression of the accelerator pedal, detects the amount of depression of the brake, and detects the depression force and the speed of depression. A brake sensor that detects whether a sudden brake is applied, a side brake detection sensor that detects whether a side brake is applied, a shift position detection sensor that detects a shift lever position, blinking and blinking of a blinker. A turn signal detection sensor for detecting a direction, a wiper detection sensor for detecting a driving state (speed or the like) of a wiper, a light detection sensor for detecting a lighting state of each lamp such as a head lamp, a tail lamp, a fog lamp, a room lamp, a driver, and Passengers (auxiliary seats, rear seats) wear seat belts Seat belt detection sensor to detect whether the agent is wearing or not, and to encourage the agent to wear it to the extent that it is not disliked when not wearing it, driver's door, passenger's seat door, rear driver's seat side door, rear passenger's seat side A door open / close detection sensor for detecting an open / close state of each door according to a vehicle type such as a door, and in the case of a so-called half-door, an agent notifying the fact, from an image of the inside of the vehicle taken by the image pickup device 28. Detects or detects whether or not a passenger is in the front passenger seat or rear seat by using a pressure sensor or a weight scale placed in the auxiliary seat, etc.Passenger detection sensor, indoor temperature detection that detects indoor air temperature A sensor, an outdoor temperature detecting sensor for detecting the temperature outside the vehicle, detecting the remaining amount of fuel such as gasoline and light oil, and detecting values for the past 5 times immediately before refueling are stored in the learning item data 292, and an average value thereof. The fuel detection sensor for notifying the agent that it is time to refuel when it becomes, detects the temperature of the cooling water, and the agent takes a sleepy action immediately after the ignition is turned on (when the detected water temperature is low) A water temperature detection sensor that alerts the agent to a "sloppy" action before overheating when the water temperature is too high, and ABS to prevent tire lock due to sudden braking and ensure maneuverability and vehicle stability ABS detection sensor that detects whether or not it has been activated, detects the weight of the driver, and from the detected weight,
Alternatively, the driver is specified from the weight and the image of the imaging device 28, and a weight sensor for causing an agent learned in relation to the driver to appear, and the distance to other vehicles or obstacles ahead of the vehicle are detected. Front inter-vehicle distance sensor, rear inter-vehicle distance sensor that detects the distance to another vehicle or obstacle behind, for example, placed on the steering wheel surface to detect the driver's body temperature, heart rate, and sweating state from the driver's hand state A body temperature sensor, a heart rate sensor, a perspiration sensor, a sensor for detecting a driver's brain wave, for example, an α-wave or a β-wave for detecting a driver's arousal state, etc. During normal driving, searching for objects outside the vehicle, searching for objects inside the vehicle, eye tracer to judge arousal state etc., infrared sensor to detect user's hand movement and face movement, tire Air pressure drop Various sensors such as a detection sensor, a belt looseness detection sensor, a window open / closed state sensor, a horn sensor, an indoor humidity sensor, an outdoor humidity sensor, an oil temperature detection sensor, and a hydraulic pressure detection sensor are provided.

【0036】次に、以上のように構成された本実施形態
の動作について説明する。図2は本実施形態のエージェ
ントによる処理のメイン動作を表したフローチャートで
ある。エージェント処理部11は、イグニッションがO
Nされたことがイグニッションセンサ401で検出され
ると、まず最初に初期設定を行う(ステップ11)。初
期設定としては、RAMのクリア、各処理用のワークエ
リアをRAMに設定、プログラム選択テーブル291の
RAMへのロード、フラグの0設定、等の処理が行われ
る。なお、本実施形態のエージェント処理では、その処
理の開始をイグニッションONとしたが、例えばドア開
閉検出センサ411によりいずれかのドアの開閉が検出
された場合に処理を開始するようにしてもよい。
Next, the operation of the present embodiment configured as described above will be described. FIG. 2 is a flowchart showing the main operation of the processing by the agent of the present embodiment. The agent processing unit 11 sets the ignition to O
When the ignition sensor 401 detects that N has been performed, first, initialization is performed (step 11). As the initial setting, processes such as clearing the RAM, setting a work area for each process in the RAM, loading the program selection table 291 into the RAM, setting a flag to 0, and the like are performed. In the agent processing according to the present embodiment, the start of the processing is set to the ignition ON. However, the processing may be started when, for example, the opening / closing of any door is detected by the door opening / closing detection sensor 411.

【0037】次に、エージェント処理部11は、主とし
てユーザ情報297に格納された各種データに基づい
て、運転者の特定を行う(ステップ12)。すなわち、
エージェント処理部11は、運転者から先に挨拶がかけ
られたときにはその声を分析して運転者を特定したり、
撮像した画像を分析することで運転者を特定したり、状
況センサ部40の体重センサで検出した体重から運転者
を特定したり、設定されたシート位置やルームミラーの
角度から運転者を特定したりする。なお、特定した運転
者については、後述のエージェントの処理とは別個に、
「○○さんですか?」等の問い合わせをする特別のコミ
ュニケーションプログラムが起動され、運転者の確認が
行われる。
Next, the agent processing section 11 specifies a driver mainly based on various data stored in the user information 297 (step 12). That is,
The agent processing unit 11 analyzes a voice when a greeting is first given by the driver to identify the driver,
The driver is identified by analyzing the captured image, the driver is identified from the weight detected by the weight sensor of the situation sensor unit 40, and the driver is identified from the set seat position and the angle of the rearview mirror. Or In addition, about the identified driver, separately from the processing of the agent described below,
A special communication program for inquiring, such as "Are you?" Is activated, and the driver is confirmed.

【0038】運転者が特定されると、次にエージェント
処理部11は、現在の状況を把握する(ステップ1
3)。すなわち、エージェント処理部11は、状況情報
処理部15に状況センサ部40の各センサから供給され
る検出値や、撮像装置28で撮像した画像の処理結果
や、現在位置検出装置21で検出した車両の現在位置等
のデータを取得して、RAMの所定エリアに格納し、格
納したデータから現在状況の把握を行う。例えば、窓開
き量検出センサ401の出力から開いている窓の位置と
開閉量を把握し、エアコン風量検出センサ402の出力
から風量を把握し、オーディオ音量検出センサ403か
ら音量を把握する。また、水温検出センサで検出された
冷却水の温度がt1である場合、エージェント処理部1
1は、この温度t1をRAMに格納すると共に、t1が
所定の閾値t2以下であれば、車両の現在の状態として
冷却水温は低い状態であると把握する。現在の状況とし
ては、他にマイク26からの入力に基づいて音声認識し
た運転者の要求、例えば、「○○○番に電話をしてく
れ。」や「この辺のレストランを表示してくれ。」や
「CDをかけてくれ。」等の要求も現在の状況として把
握される。この場合、認識した音声に含まれるワード
「CD」「かけて」等がプログラム選択テーブル291
の選択条件になる。さらにエージェント処理部11は、
現在状況として、エージェントデータ記憶装置29の学
習項目データ292と応答データ293をチェックする
ことで、エージェントがこれまでに学習してきた状態
(学習データ)を把握する。
When the driver is specified, the agent processing unit 11 grasps the current situation (step 1).
3). That is, the agent processing unit 11 detects the detection value supplied from each sensor of the situation sensor unit 40 to the situation information processing unit 15, the processing result of the image captured by the imaging device 28, and the vehicle detected by the current position detection device 21. The data such as the current position is acquired and stored in a predetermined area of the RAM, and the current situation is grasped from the stored data. For example, the position of the open window and the opening / closing amount are grasped from the output of the window opening amount detection sensor 401, the air volume is grasped from the output of the air conditioner air volume detection sensor 402, and the volume is grasped from the audio volume detection sensor 403. When the temperature of the cooling water detected by the water temperature detection sensor is t1, the agent processing unit 1
1 stores the temperature t1 in the RAM and, when t1 is equal to or less than the predetermined threshold value t2, recognizes that the cooling water temperature is low as the current state of the vehicle. As the current situation, there are other requests from the driver who have performed voice recognition based on the input from the microphone 26, for example, "Please call the number XXX." And "Please play CD" are also recognized as the current situation. In this case, the words “CD”, “Kake” and the like included in the recognized voice are stored in the program selection table 291.
Selection condition. Further, the agent processing unit 11
By checking the learning item data 292 and the response data 293 in the agent data storage device 29 as the current situation, the state (learning data) that the agent has learned so far is grasped.

【0039】エージェント処理部11は、現在の状況を
把握すると、把握した状況に応じたエージェントの処理
を行う(ステップ14)。ここでのエージェントの処理
としては、エージェントによる判断、行為(行動+発
声)、制御、学習、検査等の各種処理、例えば、後述す
る雑音除去処理等も含まれるが、把握した現在の状況に
よっては何も動作しない場合も含まれる。
Upon grasping the current situation, the agent processing section 11 performs an agent process according to the grasped situation (step 14). The processing of the agent here includes various kinds of processing such as judgment, action (action + utterance), control, learning, and inspection by the agent, for example, noise removal processing to be described later. This includes cases where nothing works.

【0040】次に、エージェント処理部11は、メイン
動作の処理を終了するか否かを判断し(ステップ1
5)、終了しない場合には(ステップ15;N)、ステ
ップ13に戻って処理を繰り返す。一方を終了する場
合、すなわち、イグニッションがOFFされたことがイ
グニッションセンサで検出され(ステップ13)、室内
灯の消灯等の終了処理(ステップ14)が完了した後
(ステップ15;Y)、メイン処理の動作を終了する。
Next, the agent processing section 11 determines whether or not to end the processing of the main operation (step 1).
5) If not terminated (step 15; N), return to step 13 and repeat the process. When one of the processes is terminated, that is, the ignition sensor detects that the ignition has been turned off (step 13), and after the termination process such as turning off the interior light (step 14) is completed (step 15; Y), the main process is performed. The operation of is ended.

【0041】図3及び図4は、本実施形態による雑音除
去処理の処理動作を表したフローチャートである。この
雑音除去処理は、図2におけるメイン動作において、現
在の状況として把握された、音声認識スイッチの状態、
開いている窓の位置と開閉量、エアコンの風量、オーデ
ィオの音量(ステップ13)に基づき、その把握状況に
応じたエージェントの処理(ステップ14)として実行
される。エージェント処理部11は、ステップ13で把
握した現在の状況から、音声認識開始か否かを判断する
(ステップ21)。音声認識の開始か否かについては、
例えば、ナビゲーション処理における目的地設定が選択
された場合、入力装置22から所定の音声認識スイッチ
がオンされた場合にエージェント処理部11は音声認識
開始と判断する。
FIGS. 3 and 4 are flowcharts showing the processing operation of the noise removal processing according to the present embodiment. This noise elimination processing is based on the state of the voice recognition switch, which is grasped as the current situation in the main operation in FIG.
Based on the position of the open window and the opening / closing amount, the air volume of the air conditioner, and the volume of the audio (step 13), the process is executed as an agent process (step 14) according to the grasped state. The agent processing unit 11 determines whether or not to start speech recognition based on the current situation grasped in step 13 (step 21). Regarding whether to start speech recognition,
For example, when the destination setting in the navigation processing is selected, and when a predetermined voice recognition switch is turned on from the input device 22, the agent processing unit 11 determines that the voice recognition has started.

【0042】音声認識開始であれば(ステップ21;
Y)、さらにマイク26から音声が入力されたか否かを
判断し(ステップ22)、音声入力がなければ(;N)
メインルーチンにリターンする。一方、音声入力がされ
た場合(ステップ22;Y)、入力された音声の認識を
音声制御部14において行い(ステップ23)、さらに
認識結果を確認するためにコールバック音声を音声制御
部14で音声合成し、音声出力装置25から出力する
(ステップ24)。
If speech recognition is started (step 21;
Y) Further, it is determined whether or not a voice has been input from the microphone 26 (step 22), and if no voice has been input (; N).
Return to the main routine. On the other hand, when a voice is input (Step 22; Y), the input voice is recognized by the voice control unit 14 (Step 23), and a callback voice is output by the voice control unit 14 to confirm the recognition result. The voice is synthesized and output from the voice output device 25 (step 24).

【0043】このコールバックに対してユーザが「O
K」(承認)をしたか否かを確認する(ステップ25;
認識精度取得手段)。すなわち、エージェント処理部1
1は、入力装置22による入力結果から、承認を表す
「はい」「Yes」「OK」等の承認キーが選択(タッ
チパネルによるタッチやジョイスティックによる選択を
含む)されたか、それとも否認を表す「いいえ」「N
o」等の否認キーが選択されたか否かを確認する。ま
た、エージェント処理部11は、ユーザが音声により承
認を表す音声「はい」「Yes」「OK」「いいよ」
「あっている」等の承認音声を発したか、それとも、否
認を表す音声「いいえ」「No」「違う」「だめ」等の
否認音声を発したか否かについて、マイク26から入力
される音声を音声制御部14で認識し、その認識結果か
らもコールバックの確認をする。なお、本実施形態では
音声によるコールバックの確認をする場合のために、コ
ールバック専用の音声辞書を用意しておき、ステップ2
4のコールバックから所定時間(例えば、3秒以内、5
秒以内、等任意の時間をコールバック回答時間として設
定可能)にマイク26から入力された音声に対しては、
コールバック専用の音声辞書を使用することで、承認か
否認かを精度良く認識することができるようになってい
る。
When the user responds to this callback with "O
"K" (approval) is confirmed (step 25;
Recognition accuracy acquisition means). That is, the agent processing unit 1
Reference numeral 1 denotes whether an approval key such as “Yes”, “Yes”, or “OK” indicating the approval has been selected (including touch by the touch panel or selection by the joystick) from the input result by the input device 22, or “No” indicating the denial. "N
Confirm whether a denial key such as "o" has been selected. In addition, the agent processing unit 11 outputs a voice “Yes”, “Yes”, “OK”, “OK” indicating the user's approval by voice.
It is input from the microphone 26 as to whether an approval sound such as “matched” is issued or a sound indicating denial such as “No”, “No”, “No” or “No” is issued. The voice is recognized by the voice control unit 14, and the callback is confirmed from the recognition result. In this embodiment, in order to confirm the callback by voice, a voice dictionary dedicated to the callback is prepared, and step 2 is performed.
A predetermined time (for example, within 3 seconds, 5
Any time, such as within seconds, can be set as the callback answer time) for the voice input from the microphone 26,
By using a voice dictionary dedicated to callback, it is possible to accurately recognize whether to approve or reject.

【0044】コールバックに対するユーザの回答がOK
でない場合、すなわち、認識結果が否認された場合(ス
テップ25;N)、エージェント処理部11は、車両内
の状態が音声認識精度が低い状態であると判断し、その
原因である雑音を除去するための処理を行う。エージェ
ント処理部11は、まず、状態データ296の車両機器
制御実行フラグのフラグ状態から、窓閉め実行フラグ、
風量調節フラグ、音量調節フラグの全てがオンであるか
否かを確認する(ステップ26)。全てのフラグがオン
でなければ(ステップ26;N)、エージェント制御部
11は、メインルーチンのステップ13で把握した現在
の状況から、開いている窓があるか否かを確認し(ステ
ップ27)、開いている窓があれば、その開き窓の位置
Xと開き量(開閉量)R1をエージェントデータ記憶装
置29の状態データ296に格納する(ステップ2
8)。
The user's answer to the callback is OK
If not, that is, if the recognition result is rejected (Step 25; N), the agent processing unit 11 determines that the state in the vehicle is a state where the voice recognition accuracy is low, and removes the noise that is the cause. Process for The agent processing unit 11 first determines a window closing execution flag from the flag state of the vehicle device control execution flag in the state data 296,
It is checked whether all of the air volume adjustment flag and the volume adjustment flag are on (step 26). If all the flags are not ON (Step 26; N), the agent control unit 11 checks whether there is any open window from the current situation grasped in Step 13 of the main routine (Step 27). If there is an open window, the position X and the opening amount (opening / closing amount) R1 of the opening window are stored in the state data 296 of the agent data storage device 29 (step 2).
8).

【0045】そしてエージェント処理部11は、例え
ば、「X位置の窓を閉めてもいいですか」というよう
に、空いている窓を指定してその窓を閉めることの許可
を求める音声を音声制御部14で合成し、音声出力装置
25から出力する(ステップ29)。この音声出力は、
実際にはエージェントによるユーザとのコミュニケーシ
ョンとして処理され、図5に示されるように、表示装置
27に画像表示されているエージェントが窓を閉めて良
いか否かをユーザに問い合わせる。なお、図5に示され
ている吹き出しとその中に表示された文字について、本
実施形態ではエージェントが発声しているので表示され
ないが、ユーザが視覚的にも確認できるようにするため
に表示するようにしてもよい(以下、同じ)。
Then, the agent processing unit 11 performs voice control for specifying a vacant window and requesting permission to close the window, such as "Can the window at the X position be closed?" The sound is synthesized by the unit 14 and output from the audio output device 25 (step 29). This audio output is
Actually, the process is performed as communication with the user by the agent, and as shown in FIG. 5, the user is asked whether or not the agent displayed on the display device 27 is allowed to close the window. Note that the balloon shown in FIG. 5 and the characters displayed therein are not displayed because the agent speaks in this embodiment, but are displayed so that the user can visually confirm it. (The same applies hereinafter).

【0046】その後エージェント処理部11は、エージ
ェントによる音声出力に対してユーザが「OK」したか
否か、すなわち、窓を閉めることを承認したか否かを確
認する(ステップ30)。この承認と否認についての確
認はステップ25と同様にして行われる。ユーザが「O
K」した場合(ステップ30;Y)、エージェント処理
部11は、インターフェース部12を介して窓開閉装置
201を制御し、開いている位置Xの窓を閉めると共
に、状態データ296の車両機器制御実行フラグのうち
窓閉め実行フラグをオンにする(ステップ31)。
Thereafter, the agent processing section 11 confirms whether or not the user has "OK" for the voice output by the agent, that is, whether or not the user has approved closing the window (step 30). Confirmation of this approval and rejection is performed in the same manner as in step 25. When the user enters "O
If "K" (step 30; Y), the agent processing unit 11 controls the window opening / closing device 201 via the interface unit 12, closes the window at the open position X, and executes the vehicle device control of the state data 296. The window closing execution flag is turned on among the flags (step 31).

【0047】窓閉め実行(ステップ31)の後、窓を閉
めることが否認された場合(ステップ30;N)、又は
開いている窓がない場合(ステップ27;N)、エージ
ェント処理部11は、次に、メインルーチンのステップ
13で把握した現在の状況からエアコンの風量R2を取
得すると共に、メインルーチンのステップ12で特定し
た運転者(ユーザ)に対応するしきい値H2を学習項目
データ292から読み出し、両者を比較する(ステップ
32)。エージェント処理部11は、エアコン風量R2
がしきい値H2よりも大きい場合(ステップ32;
Y)、エアコンの風量を状態データ296に格納する
(ステップ33)。
After the execution of the window closing (step 31), if it is denied that the window is closed (step 30; N), or if there is no open window (step 27; N), the agent processing unit 11 Next, the air conditioner air volume R2 is acquired from the current situation grasped in step 13 of the main routine, and the threshold value H2 corresponding to the driver (user) specified in step 12 of the main routine is obtained from the learning item data 292. The two are read and compared (step 32). The agent processing unit 11 has an air conditioner air volume R2
Is greater than the threshold value H2 (step 32;
Y), the air volume of the air conditioner is stored in the state data 296 (step 33).

【0048】そしてエージェント処理部11は、例え
ば、「エアコンの風量を弱くしてもいいですか」という
ようにエアコンの風量を弱めることの許可を求める音声
を音声制御部14で合成し、音声出力装置25から出力
する(ステップ34)。この音声出力は、窓閉めの許可
を求める場合(ステップ29)と同様に、実際にはエー
ジェントによるユーザとのコミュニケーションとして処
理され、図6に示されるように、表示装置27に画像表
示されているエージェントが風量を弱くしても良いか否
かをユーザに問い合わせる。
Then, the agent processing unit 11 synthesizes a voice requesting permission to reduce the air volume of the air conditioner by the voice control unit 14, for example, "Can the air volume of the air conditioner be reduced?" Output from the device 25 (step 34). This voice output is actually processed as communication with the user by the agent, as in the case of requesting permission to close the window (step 29), and is displayed on the display device 27 as shown in FIG. The user is asked whether the air volume can be reduced by the agent.

【0049】その後エージェント処理部11は、エージ
ェントによる音声出力に対してユーザが「OK」したか
否か、すなわち、風量を弱めることを承認したか否か
を、ステップ25と同様にして確認する(ステップ3
5)。ユーザが「OK」した場合(ステップ35;
Y)、エージェント処理部11は、インターフェース部
12を介してエアコン風量調節装置202を制御し、エ
アコンの風量がしきい値H2の風量になるように調節す
ると共に、状態データ296の車両機器制御実行フラグ
のうち風量調節実行フラグをオンにする(ステップ3
6)。なお、風量に対するしきい値H2が最低値”0”
である場合、エージェント処理部11は、エアコン風量
調節部202によりエアコンの電源をオフする。
Thereafter, the agent processing section 11 confirms whether or not the user has "OK" with respect to the voice output by the agent, that is, whether or not the user has approved that the air volume should be reduced, in the same manner as in step 25 (step 25). Step 3
5). When the user has "OK" (step 35;
Y), the agent processing unit 11 controls the air conditioner air volume adjusting device 202 via the interface unit 12 to adjust the air volume of the air conditioner to the air volume of the threshold value H2, and to execute the vehicle device control of the state data 296. Turn on the airflow adjustment execution flag among the flags (step 3
6). Note that the threshold value H2 for the air volume is the minimum value “0”.
In this case, the agent processing unit 11 turns off the power of the air conditioner by the air conditioner air volume adjusting unit 202.

【0050】風量調節の実行(ステップ36)の後、風
量を弱めることが否認された場合(ステップ35;
N)、又はエアコン風量がしきい値H2以下である(エ
アコンが停止している場合を含む)場合(ステップ3
2;N)、エージェント処理部11は、次に、メインル
ーチンのステップ13で把握した現在の状況からオーデ
ィオの風量R3を取得すると共に、メインルーチンのス
テップ12で特定した運転者(ユーザ)に対応するしき
い値H3を学習項目データ292から読み出し、両者を
比較する(ステップ37)。エージェント処理部11
は、オーディオの音量R3がしきい値H3よりも大きい
場合(ステップ37;Y)、オーディオの音量を状態デ
ータ296に格納する(ステップ38)。
After the execution of the air volume adjustment (step 36), if it is determined that the air volume is to be reduced (step 35;
N) or when the air conditioner air volume is equal to or less than the threshold value H2 (including when the air conditioner is stopped) (step 3).
2; N), the agent processing unit 11 acquires the air volume R3 of the audio from the current situation grasped in step 13 of the main routine, and responds to the driver (user) specified in step 12 of the main routine. The threshold value H3 to be read is read from the learning item data 292, and the two are compared (step 37). Agent processing unit 11
Stores the audio volume in the status data 296 when the audio volume R3 is larger than the threshold value H3 (step 37; Y) (step 38).

【0051】そしてエージェント処理部11は、例え
ば、「オーディオの音量を小さくしてもいいですか」と
いうようにオーディオの音量を小さくすることの許可を
求める音声を音声制御部14で合成し、音声出力装置2
5から出力する(ステップ39)。この音声出力も、窓
閉めの許可を求める場合(ステップ29)と同様に、実
際にはエージェントによるユーザとのコミュニケーショ
ンとして処理され、図7に示されるように、表示装置2
7に画像表示されているエージェントが音量を小さくし
ても良いか否かをユーザに問い合わせる。
Then, the agent processing unit 11 synthesizes a voice requesting permission to reduce the audio volume, for example, "Can the audio volume be reduced?" Output device 2
5 is output (step 39). This voice output is actually processed as communication with the user by the agent, as in the case of requesting permission to close the window (step 29), and as shown in FIG.
An inquiry is made to the user as to whether or not the agent whose image is displayed in FIG.

【0052】その後エージェント処理部11は、エージ
ェントによる音声出力に対してユーザが「OK」したか
否か、すなわち、音量を下げることを承認したか否か
を、ステップ25と同様にして確認する(ステップ4
0)。ユーザが「OK」した場合(ステップ40;
Y)、エージェント処理部11は、インターフェース部
12を介してオーディオ音量調節装置203を制御し、
オーディオの音量がしきい値H3の音量になるように調
節すると共に、状態データ296の車両機器制御実行フ
ラグのうち音量調節実行フラグをオンにする(ステップ
41)。なお、音量のしきい値が最低値”0”である場
合には、エージェント処理部11は、オーディオ音量調
節部203によりオーディオの電源をオフする。
Thereafter, the agent processing section 11 confirms whether or not the user has "OK" with respect to the voice output by the agent, that is, whether or not the user has approved the reduction of the volume in the same manner as in step 25 (step 25). Step 4
0). When the user has “OK” (Step 40;
Y), the agent processing unit 11 controls the audio volume control device 203 via the interface unit 12,
The audio volume is adjusted so as to be equal to the threshold value H3, and the volume adjustment execution flag among the vehicle device control execution flags in the state data 296 is turned on (step 41). When the threshold value of the volume is the minimum value “0”, the agent processing unit 11 turns off the power of the audio by the audio volume adjusting unit 203.

【0053】音量調節の実行(ステップ41)の後、音
量を下げることが否認された場合(ステップ40;
N)、又はオーディオ音量がしきい値H3以下である
(オーディオが使用されていない場合を含む)場合(ス
テップ37;N)、エージェント処理部11は、ステッ
プ21に移行する。
After executing the volume control (step 41), if it is denied that the volume should be lowered (step 40;
N) or when the audio volume is equal to or lower than the threshold value H3 (including the case where no audio is used) (Step 37; N), the agent processing unit 11 proceeds to Step 21.

【0054】以上のステップ27からステップ41まで
の車両機器制御処理によって雑音原因が除去された後
に、音声入力がされ(ステップ22;Y)、音声認識を
行う(ステップ23)。そして認識結果のコールバック
に対して承認された場合、すなわち、音声の認識結果が
正しい場合に(ステップ25;Y)、エージェント処理
部11は、認識結果に対応する命令を実行して(ステッ
プ42)、メインルーチンにリターンする。認識結果に
対応する命令の実行としては、例えば、ナビゲーション
処理の目的地設定において、目的地を駅や遊園地等のジ
ャンルから探したい場合にユーザが「ジャンル」と発声
し、正しく認識されたものとする(ステップ25;
Y)。この場合の命令実行として、選択可能な各種のジ
ャンル名がリストされたパネルを持ってエージェントが
表示装置27に登場する画像が表示される。なお、表示
する情報リストの画像が大きい場合には、リストの表示
を優先させて、エージェントはリストの背後に隠れるよ
うにする。
After the cause of the noise has been eliminated by the vehicle equipment control processing from step 27 to step 41, voice input is performed (step 22; Y), and voice recognition is performed (step 23). When the callback of the recognition result is approved, that is, when the recognition result of the voice is correct (Step 25; Y), the agent processing unit 11 executes an instruction corresponding to the recognition result (Step 42). ), And return to the main routine. As the execution of the instruction corresponding to the recognition result, for example, in the destination setting of the navigation processing, when the user wants to search for the destination from a genre such as a station or an amusement park, the user utters “genre” and is correctly recognized. (Step 25;
Y). As the command execution in this case, an image in which the agent appears on the display device 27 is displayed with a panel listing various selectable genre names. When the image of the information list to be displayed is large, the display of the list is prioritized, and the agent is hidden behind the list.

【0055】一方、ステップ27からステップ41まで
の車両機器制御処理によって雑音原因を除去しても、そ
の後入力された音声に対する認識精度が未だ低い場合、
すなわち、音声認識を行い(ステップ23)、そのコー
ルバック(ステップ24)に対して否認された場合(ス
テップ25;N)、車両機器制御実行フラグの全フラグ
がオンであれば(ステップ26;Y)、エージェント処
理部11は、図8に示されるように、例えば、「静かに
してください」等の、認識率を高めるために有効なユー
ザの行為を促す音声を音声制御部14で合成し、音声出
力装置25から出力する(ステップ43)。この音声出
力も、窓閉めの許可を求める場合(ステップ29)と同
様に、実際にはエージェントによるユーザとのコミュニ
ケーションとして処理され、図8に示されるように、表
示装置27に画像表示されているエージェントがユーザ
に対して静かにするように促すコメントをする。この認
識率を高めるために有効なユーザの行為として、運転者
以外の同乗者がいてその会話が雑音原因となっている場
合には、「静かにする」行為が該当し図8に示されるよ
うに「静かにしてください」とエージェントがコメント
する。また、運転者が1人だけで同乗者がいない場合に
は、ユーザの行為として「大きな声で話す」行為が該当
し、エージェントは「もう少し大きな声で話してくださ
い」とコメントする。なお、同乗者の有無については、
同乗者検出センサや運転席以外のシートベルトの着用状
態等からステップ13で把握されている現在の状況に基
づいて判断される。
On the other hand, even if the cause of noise is removed by the vehicle equipment control processing from step 27 to step 41, the recognition accuracy for the subsequently input voice is still low,
That is, voice recognition is performed (step 23), and when the callback (step 24) is rejected (step 25; N), if all the vehicle device control execution flags are on (step 26; Y) 8, the agent processing unit 11 synthesizes, in the voice control unit 14, a voice that prompts the user to perform an effective action to increase the recognition rate, such as "Please be quiet", as shown in FIG. Output from the audio output device 25 (step 43). This voice output is actually processed as communication with the user by the agent, as in the case of requesting permission to close the window (step 29), and is displayed on the display device 27 as shown in FIG. The agent makes a comment urging the user to be quiet. As an effective user action to increase the recognition rate, when there is a passenger other than the driver and the conversation is a cause of noise, a “quiet” action is applicable, as shown in FIG. "Please be quiet," the agent comments. If there is only one driver and there is no passenger, the action of the user is “speak loudly”, and the agent comments “speak a little more loudly”. In addition, about existence of passenger,
The determination is made based on the current situation grasped in step 13 from the passenger detection sensor, the wearing state of the seat belt other than the driver's seat, and the like.

【0056】次にエージェント処理部11は、メインル
ーチンのステップ12で特定した運転者に対する風量と
音量のしきい値H2、H3を、所定量だけ下げるように
変更する(ステップ44)。すなわち、エアコンの風量
が1段階下がるようにしきい値H2を下げ、オーディオ
の音量が調節可能範囲の10%だけ下がるようにしきい
値H3を下げる。なお、風量調節が数段階に調節できる
ようになっているエアコンではなく、数十段階に風量調
節できるようなエアコンや、アナログ的に任意位置に調
節できるエアコンである場合には、オーディオの場合と
同様に、調節可能範囲の10%だけ風量を下げるように
しきい値H2も下げる。
Next, the agent processing unit 11 changes the threshold values H2 and H3 of the air volume and the volume for the driver specified in step 12 of the main routine so as to decrease by a predetermined amount (step 44). That is, the threshold value H2 is reduced so that the air volume of the air conditioner is reduced by one step, and the threshold value H3 is reduced so that the audio volume is reduced by 10% of the adjustable range. In addition, if the air conditioner is not an air conditioner that can adjust the air flow in several steps, but an air conditioner that can adjust the air flow in several tens of steps, or an air conditioner that can be adjusted to an arbitrary position in an analog manner, Similarly, the threshold value H2 is reduced so that the air volume is reduced by 10% of the adjustable range.

【0057】つぎにエージェント処理部11は、風量調
節実行フラグと、音量調節実行フラグをオフにし(ステ
ップ45)、ステップ21に移行する。両フラグをオフ
にすることで、ステップ27からステップ41までの車
両機器制御処理により、エアコンの風量とオーディオの
音量が変更後のしきい値H2、H3となるまで更に下げ
られる。
Next, the agent processing section 11 turns off the air volume adjustment execution flag and the volume adjustment execution flag (step 45), and proceeds to step 21. By turning off both flags, the air conditioner air volume and audio volume are further reduced to the changed threshold values H2 and H3 by the vehicle device control processing from step 27 to step 41.

【0058】以上のように車両機器制御処理によって、
高い精度で音声認識が行われ、その後、音声認識が終了
か否か確認される(ステップ21)。音声認識の終了
は、例えば、音声認識スイッチがオフされた場合、マイ
ク26に一定時間一定レベル以上の音声が入力されない
場合や、ユーザが音声認識を必要としない別のモードを
選択した場合等に音声認識の終了と判断される。
As described above, the vehicle device control process provides
Speech recognition is performed with high accuracy, and thereafter, it is confirmed whether the speech recognition is completed (step 21). The speech recognition is terminated, for example, when the speech recognition switch is turned off, when a sound of a certain level or higher is not input to the microphone 26 for a certain period of time, or when the user selects another mode that does not require the speech recognition. It is determined that the speech recognition has ended.

【0059】音声認識が終了である場合(ステップ2
1;N)、エージェント処理部11は、車両機器制御処
理によって閉められた窓や下げられた風量、音量を元の
状態に戻す車両機器状態復元処理を実行する。すなわ
ち、エージェント処理部11は、エージェントデータ記
憶装置29の状態データ296から窓閉め実行フラグが
オンされているか否かを確認し(ステップ46)、オン
であれば(;Y)、ステップ28で状態データ296に
格納した開き窓位置Xと開き量R1を読み出し、窓開閉
装置201を制御して該当位置の窓XをR1だけ開けて
元の状態に戻すと共に、窓閉め実行フラグをオフにする
(ステップ23)。同様に、エージェント処理部11
は、風量調節実行フラグがオンされているか確認し、オ
ンであれば(ステップ48;Y)、エアコン風量調節装
置202を制御してエアコンの風量を元の風量であるR
2に戻す(ステップ49)。また同様に、エージェント
処理部11は、音量調節実行フラグがオンされているか
確認し、オンであれば(ステップ50;Y)、オーディ
オ音量調節装置203を制御してオーディオの音量を元
の音量R3に戻し(ステップ51)、メインルーチンに
リターンする。
When the voice recognition is completed (step 2
1; N), the agent processing unit 11 executes a vehicle device state restoring process of returning the window closed by the vehicle device control process, the lowered air volume, and the volume to the original state. That is, the agent processing unit 11 confirms from the status data 296 of the agent data storage device 29 whether or not the window closing execution flag is turned on (step 46). The window position X and the opening amount R1 stored in the data 296 are read, and the window opening / closing device 201 is controlled to open the window X at the corresponding position by R1 to return to the original state and turn off the window closing execution flag ( Step 23). Similarly, the agent processing unit 11
Checks whether the air volume adjustment execution flag is on, and if it is on (Step 48; Y), the air conditioner air volume adjustment device 202 is controlled to change the air volume of the air conditioner to the original air volume, R
2 (step 49). Similarly, the agent processing unit 11 checks whether the volume adjustment execution flag is turned on, and if it is on (step 50; Y), the agent processing unit 11 controls the audio volume adjustment device 203 to reduce the audio volume to the original volume R3. (Step 51), and returns to the main routine.

【0060】以上説明したように、本実施形態の音声認
識装置、及び、音声認識装置を適用したエージェント装
置によれば、車内での音声認識率が低い場合に、開いて
いる窓を閉める、エアコンの風量を下げる、オーディオ
の音量を下げることで、雑音の原因を除去しているの
で、低い雑音状態で音声認識が行われる、認識率が低下
することを防止することができる。
As described above, according to the voice recognition device of this embodiment and the agent device to which the voice recognition device is applied, when the voice recognition rate in the vehicle is low, the open window is closed and the air conditioner is closed. Since the cause of the noise is eliminated by lowering the air volume and lowering the volume of the audio, it is possible to prevent the voice recognition from being performed in a low noise state and prevent the recognition rate from being lowered.

【0061】以上本発明の好適な実施形態について説明
したが、本発明はかかる実施形態の構成に限定されるも
のではなく、各請求項に記載された発明の範囲において
他の実施形態を採用し、また、変形することが可能であ
る。例えば、説明した実施形態では、雑音を除去するた
めに窓、エアコン、及びオーディオの全てを制御対象と
しているが、本発明では、窓のみ、エアコンのみ、オー
ディオのみ、窓とエアコン、窓とオーディオ、エアコン
とオーディオのいずれか、即ち窓、エアコン、オーディ
オのうちの少なくとも1つの要素を雑音要素として制御
するようにしてもよい。
Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the configuration of this embodiment, and other embodiments may be adopted within the scope of the invention described in each claim. , And can be deformed. For example, in the embodiment described above, all the windows, air conditioners, and audio are controlled to remove noise, but in the present invention, only windows, only air conditioners, only audio, windows and air conditioners, windows and audios, One of the air conditioner and the audio, that is, at least one of the window, the air conditioner, and the audio may be controlled as a noise element.

【0062】また、説明した実施形態では、窓閉め、エ
アコン風量調節、オーディオ音量調節の全てに対して制
御を行うか否かを判断したが、制御に優先順位を付ける
ようにしてもよい。図9は、雑音除去処理における車両
機器制御処理で、各機器の制御に優先順位を付けた場合
の図4に対応するフローチャートである。なお、図4と
同一のステップ番号を付した処理は同一又は同様な処理
が行われるので、適宜説明を簡略化する。すなわち、音
声認識の精度が低いと判断された場合、エージェント処
理部11は、雑音原因の対象として窓に注目し、開いて
いる窓を確認し(ステップ27;Y)、その窓位置Xと
開き量R2を取得、記憶し(ステップ28)、エージェ
ントによりユーザに窓閉めの確認が承認された場合(ス
テップ29、ステップ30;Y)、開いている窓を閉め
て(ステップ31)、ステップ21(図3)に移行して
音声認識を続行する。エアコン風量、オーディオ音量が
しきい値H2、H3よりも高いか否かの判断と調節制御
を行うことなくステップ21に移行し、低かった音声認
識精度が窓を閉めることによって解消されれば、そのま
ま音声認識を続行する。
In the embodiment described above, it is determined whether or not control is to be performed for all of window closing, air conditioning air volume adjustment, and audio volume adjustment. However, priority may be assigned to the control. FIG. 9 is a flowchart corresponding to FIG. 4 in the case where priorities are assigned to the control of each device in the vehicle device control process in the noise removal process. Note that the processes with the same step numbers as those in FIG. 4 are the same or similar, and thus the description will be appropriately simplified. That is, when it is determined that the accuracy of the speech recognition is low, the agent processing unit 11 pays attention to the window as a cause of the noise, confirms the open window (Step 27; Y), and determines the window position X and the open position. The amount R2 is acquired and stored (step 28), and if the confirmation of closing the window is approved by the user by the agent (step 29, step 30; Y), the open window is closed (step 31), and step 21 ( The process proceeds to FIG. 3) and speech recognition is continued. The process proceeds to step 21 without determining whether the air conditioner air volume and the audio volume are higher than the threshold values H2 and H3 and without performing adjustment control. If the low voice recognition accuracy is eliminated by closing the window, Continue speech recognition.

【0063】一方、窓を閉めても音声認識の精度が依然
として低い場合(前回の処理で窓の閉めているのでステ
ップ27;N)、窓を閉めることがユーザによって拒否
された場合(ステップ30;N)、及び元々開いている
窓がない場合(ステップ27;N)、エアコンの風量R
2がしきい値H2よりも高いか否かを判断する(ステッ
プ32)。高い場合(ステップ32;Y)に風量R2を
記憶し(ステップ33)、エージェントにより風量調節
の承認がされた場合(ステップ34、ステップ35;
Y)にエアコンの風量をH2まで下げて(ステップ3
6)、ステップ21に移行する。エアコンの風量をH2
まで下げることで、音声認識精度が高くなった場合に
は、オーディオの音量の判断と調節を行うことなく、そ
のまま音声認識を続行する。
On the other hand, if the accuracy of voice recognition is still low even if the window is closed (step 27; N because the window was closed in the previous processing), if the user is refused to close the window (step 30; N), and when there is no originally open window (Step 27; N), the air flow rate R of the air conditioner
It is determined whether or not 2 is higher than a threshold value H2 (step 32). When it is high (step 32; Y), the air volume R2 is stored (step 33), and when the air volume adjustment is approved by the agent (step 34, step 35;
Y), reduce the air volume of the air conditioner to H2 (step 3).
6) Go to step 21. Set the air volume of the air conditioner to H2
If the voice recognition accuracy is increased by lowering the threshold value to a lower level, the voice recognition is continued without determining and adjusting the audio volume.

【0064】そして、エアコン風量をしきい値H2まで
下げても音声認識精度が低い場合(前回の処理で風量調
節しているのでステップ32;N)、風量調節が否認さ
れた場合(ステップ35;N)、及び、風量R2がしき
い値H2以下である場合(ステップ32;N)、エージ
ェント処理部11は、オーディオの音量R3がしきい値
H3よりも高いか否かを判断する(ステップ37)。高
い場合(ステップ37;Y)に音量R3を記憶し(ステ
ップ38)、エージェントにより音量調節の承認がされ
た場合(ステップ39、ステップ40;Y)にオーディ
オの音量をH3まで下げて(ステップ41)、ステップ
21に移行する。オーディオの音量をH3まで下げるこ
とで、音声認識精度が高くなった場合には、そのまま音
声認識を続行する。
If the voice recognition accuracy is low even if the air conditioner air volume is reduced to the threshold value H2 (Step 32; N since the air volume was adjusted in the previous processing), if the air volume adjustment is denied (Step 35; N), and when the air volume R2 is equal to or less than the threshold value H2 (Step 32; N), the agent processing unit 11 determines whether or not the audio volume R3 is higher than the threshold value H3 (Step 37). ). If the volume is high (Step 37; Y), the volume R3 is stored (Step 38), and if the volume adjustment is approved by the agent (Step 39, Step 40; Y), the audio volume is reduced to H3 (Step 41). ), And proceed to step 21. If the voice recognition accuracy is increased by lowering the volume of the audio to H3, the voice recognition is continued as it is.

【0065】オーディオ音量をしきい値H2にまで下げ
ても、なお音声認識精度が低い場合には、「大きな声で
話してください」や「静かにしてください」等の認識率
を高めるために有効なユーザの行為を促す音声を音声制
御部14で合成し、エージェントによる会話として音声
出力装置25から出力する。その後エージェント処理部
11は、ステップ44、45で説明したと同様に、風量
と音量のしきい値H2、H3を下げ、両フラグをオフに
する。このように、雑音原因になっている機器の制御に
優先順位をつけて、順次制御することで、最低限必要な
機器のみを制御することで音声認識精度を上げることが
可能になる。
Even if the audio volume is lowered to the threshold value H2, if the voice recognition accuracy is still low, it is effective to increase the recognition rate of "Please speak loudly" or "Please be quiet". The voice that prompts the user to perform an appropriate action is synthesized by the voice control unit 14 and output from the voice output device 25 as a conversation by the agent. After that, the agent processing unit 11 lowers the thresholds H2 and H3 of the air volume and the volume and turns off both flags, as described in steps 44 and 45. In this way, by prioritizing and sequentially controlling the devices that cause noise, it is possible to improve the voice recognition accuracy by controlling only the minimum necessary devices.

【0066】また、上記した変形例では、窓閉め、エア
コン風量調節、オーディオ音量調節の順番に優先順位を
付けて制御するようにしたが、車両走行中と停止中とで
優先順位を変更するようにしてもよい。例えば、車両走
行中の優先順位を窓閉め、エアコン風量調節、オーディ
オ音量調節の順として制御するが、車両停止中の優先順
位をエアコン風量調節、オーディオ音量調節、窓閉めの
順として制御する。
In the above-described modified example, control is performed by assigning priorities to the order of closing the window, adjusting the air-conditioning air volume, and adjusting the audio volume. However, the priorities are changed between when the vehicle is running and when the vehicle is stopped. It may be. For example, the priority order while the vehicle is running is controlled in the order of closing the window, air conditioner air volume adjustment, and audio volume adjustment. The priority order while the vehicle is stopped is controlled in the order of air conditioner air volume adjustment, audio volume adjustment, and window closing.

【0067】説明した実施形態では、ステップ43から
ステップ45の順で説明したように、認識率を高めるた
めに有効なユーザの行為を促した(ステップ43)後
に、風量と音量のしきい値H2、H3を下げる変更(ス
テップ44)と両フラグのオフ(ステップ45)を行う
ようにした。これに対し、本発明では、ステップ26で
Yesの場合に、風量と音量のしきい値変更と両フラグ
オフを実行してステップ21に移行し、しきい値H2、
H3が最低の値になり、エアコンとオーディオの電源が
オフされた後においてもまだ音声認識精度が低い場合
に、認識率を高めるために有効なユーザの行為を促す
(ステップ43)ようにしてもよい。
In the described embodiment, as described in the order from step 43 to step 45, after prompting the user to take an effective action to increase the recognition rate (step 43), the threshold value H2 of the air volume and the volume is set. , H3 (step 44) and both flags are turned off (step 45). On the other hand, in the present invention, in the case of Yes in step 26, the threshold values of the air volume and the volume are changed and both flags are turned off, and the process proceeds to step 21, where the threshold value H2,
If H3 becomes the lowest value and the voice recognition accuracy is still low even after the power of the air conditioner and the audio is turned off, an effective user action to increase the recognition rate is encouraged (step 43). Good.

【0068】また、窓、エアコン、オーディオの3要素
以外にも、雑音の原因になり得る装置も雑音要素として
制御対象としてもよい。例えば、車内に配置されたカラ
オケ装置や、通信制御装置24を介して演奏データや画
像等を取得して車内で演奏する通信カラオケが存在する
場合には、その演奏の音量やマイクから入力される歌声
の音量を調整するようにしてもよい。但し、演奏や歌声
を出力するスピーカとして、音声出力装置25が兼用さ
れている場合には、カラオケや通信カラオケをオーディ
オに含めて制御するようにしてもよい。また、自動車電
話や携帯電話やPHS(パーソナル・ハンディーフォン
・システム)等の無線通信による電話が車内で使用され
ている場合や、アマチュア無線機やトランシーバー等の
無線通信機器が使用されている場合で、特に運転者等の
音声認識対象となっている者以外の同乗者により携帯電
話や無線機等が使用されている場合にも、インターフェ
ース部12を介してエージェント処理部11により制御
可能に接続されていれば、音量を下げる等の雑音低減処
理を行うようにしてもよい。これらの機器がエージェン
ト処理部11により制御可能に接続されていない場合に
は、これらの使用音声を小さくするようにエージェント
が要求し、また、音声認識対象者に対して大きな声で発
声するように要求する。
In addition to the three elements of the window, the air conditioner, and the audio, a device that may cause noise may be controlled as a noise element. For example, when there is a karaoke device arranged in the vehicle or a communication karaoke device which acquires performance data and images via the communication control device 24 and performs in the vehicle, the volume of the performance and the input from the microphone are provided. The volume of the singing voice may be adjusted. However, when the audio output device 25 is also used as a speaker for outputting a performance or a singing voice, karaoke or communication karaoke may be included in the audio and controlled. Also, when a wireless telephone such as a car phone, a mobile phone, or a PHS (Personal Handy Phone System) is used in the vehicle, or when a wireless communication device such as an amateur radio or a transceiver is used. In particular, even when a mobile phone or a wireless device or the like is used by a passenger other than the person whose voice recognition is to be performed, such as a driver, the mobile phone is connected so as to be controllable by the agent processing unit 11 via the interface unit 12. If so, noise reduction processing such as lowering the volume may be performed. If these devices are not controllably connected by the agent processing unit 11, the agent requests that these voices be used at a low level, and also makes the voice recognition target utter a loud voice. Request.

【0069】また、説明した実施形態では、図3のステ
ップ25において、コールバックに対してユーザが承認
しなかった場合に、音声認識精度が低い(認識精度が所
定値以下である)と判断したが、認識精度が所定値以下
か否かについて他の判断基準を採用することも可能であ
る。例えば、認識結果のコールバックに対するユーザの
否認(ステップ25;N)がm回続いた場合に音声認識
精度が所定値以下であると判断してステップ27からス
テップ41の車両機器制御処理を行うようにしてもよ
い。また、直前p回、例えば、直前10回の音声認識結
果のコールバックに対する承認の回数が所定回数q回、
例えば、7回以下の場合に音声認識精度が低いと判断し
て、車両機器制御処理を行うようにしてもよい。さら
に、音声入力用のマイク26のS/N比(信号対雑音
比)がしきい値H4以下の場合に音声認識の精度が低い
と判断して、車両機器制御処理を行うようにしてもよ
い。
In the embodiment described above, when the user does not approve the callback in step 25 of FIG. 3, it is determined that the speech recognition accuracy is low (the recognition accuracy is equal to or less than a predetermined value). However, it is also possible to adopt another criterion for determining whether the recognition accuracy is equal to or less than a predetermined value. For example, if the user rejects the callback of the recognition result (step 25; N) for m times, it is determined that the voice recognition accuracy is equal to or less than a predetermined value, and the vehicle device control processing of steps 27 to 41 is performed. It may be. Also, the number of approvals for the callback of the last 10 times, for example, the last 10 times of the speech recognition result is q times the predetermined number of times,
For example, in the case of seven times or less, it may be determined that the voice recognition accuracy is low, and the vehicle device control processing may be performed. Further, when the S / N ratio (signal-to-noise ratio) of the microphone 26 for voice input is equal to or less than the threshold value H4, it may be determined that the accuracy of voice recognition is low, and vehicle device control processing may be performed. .

【0070】説明した実施形態では、ステップ46から
ステップ51の状態復元処理において、各フラグがオン
であれば無条件に元の状態に戻すようにした。これに対
して、本発明では、各フラグがオンの場合に、対応する
車両機器を元の状態に戻す前に、図10に示されるよう
に、エージェントが元の状態に戻しても良いか否かを確
認し、承認された場合に元の状態に戻すようにしてもよ
い。確認の言葉としてエージェントは、例えば、「X位
置の窓を開けましょうか?」「X位置の窓を元の位置ま
で開けましょうか?」「エアコンの風量を元に戻します
か?」「オーディオの音量を元に戻しますか?」等のコ
メントをする。
In the described embodiment, in the state restoring process from step 46 to step 51, if each flag is on, the state is unconditionally returned to the original state. On the other hand, in the present invention, when each flag is ON, before returning the corresponding vehicle device to the original state, as shown in FIG. 10, whether or not the agent may return to the original state May be confirmed, and if approved, the state may be returned to the original state. As a confirmation word, for example, the agent asks, "Do you want to open the window at the X position?""Would you like to open the window at the X position to the original position?" Do you want to restore the volume? "

【0071】以上説明した実施形態では、エージェント
の行為として音声の認識および車両機器制御処理等を行
うようにしたが、本発明では、エージェントの行為とし
てではなく、音声認識装置による処理として音声認識、
認識精度の確認、車両機器制御処理、車両機器状態復元
処理を行うようにしてもよい。
In the embodiment described above, voice recognition and vehicle equipment control processing and the like are performed as an agent's action. However, in the present invention, voice recognition and processing are performed not as an agent's action but as processing by a voice recognition device.
Confirmation of recognition accuracy, vehicle equipment control processing, and vehicle equipment state restoration processing may be performed.

【0072】[0072]

【発明の効果】請求項1から請求項5に記載した各音声
認識装置によれば、車両内に発生する雑音による影響を
少なくして、より高い認識精度を得ることができる。ま
た、請求項6に記載したエージェント装置によれば、車
両内に発生する雑音による影響を少なくして、より高い
音声認識精度でコミュニケーションを行うことができ
る。
According to each of the speech recognition devices according to the first to fifth aspects, the effect of noise generated in the vehicle can be reduced, and higher recognition accuracy can be obtained. According to the agent device of the sixth aspect, it is possible to reduce the influence of noise generated in the vehicle and perform communication with higher voice recognition accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の1実施形態におけるエージェント装置
の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an agent device according to an embodiment of the present invention.

【図2】同上、エージェントによる処理のメイン動作を
表したフローチャートである。
FIG. 2 is a flowchart showing a main operation of processing by an agent according to the first embodiment;

【図3】同上、エージェントによる雑音除去処理の処理
動作の一部を表したフローチャートである。
FIG. 3 is a flowchart showing a part of the processing operation of noise removal processing by the agent.

【図4】同上、エージェントによる雑音除去処理の処理
動作の残りを表したフローチャートである。
FIG. 4 is a flowchart showing the rest of the processing operation of the noise removal processing by the agent.

【図5】同上、雑音除去処理においてエージェントによ
る窓閉めの確認状態を表した説明図である。
FIG. 5 is an explanatory diagram showing a confirmation state of closing a window by an agent in the noise removal processing.

【図6】同上、雑音除去処理においてエージェントによ
るエアコン風量調節の確認状態を表した説明図である。
FIG. 6 is an explanatory diagram showing a confirmation state of air conditioner air volume adjustment by an agent in the noise removal processing.

【図7】同上、雑音除去処理においてエージェントによ
るオーディオ音量調節の確認状態を表した説明図であ
る。
FIG. 7 is an explanatory diagram showing a confirmation state of audio volume adjustment by an agent in the noise removal processing.

【図8】同上、雑音除去処理においてエージェントが認
識率を高めるために有効なユーザの行為を促す状態を表
す説明図である。
FIG. 8 is an explanatory diagram showing a state in which the agent prompts an effective user action to increase the recognition rate in the noise removal processing.

【図9】同上、雑音除去処理における車両機器制御処理
で、各機器の制御に優先順位を付けた変形例を表すフロ
ーチャートである。
FIG. 9 is a flowchart illustrating a modified example in which control of each device is prioritized in the vehicle device control process in the noise removal process.

【図10】同上、雑音除去処理においてエージェントに
よる窓開けの確認状態を表した説明図である。
FIG. 10 is an explanatory diagram showing a confirmation state of window opening by an agent in the noise removal processing.

【符号の説明】[Explanation of symbols]

1 全体処理部 10 ナビゲーション処理部 11 エージェント処理部 12 I/F部 13 画像処理部 14 音声制御部 15 状況情報処理部 21 現在位置検出装置 22 入力装置 23 記憶媒体駆動装置 24 通信制御装置 201 窓開閉装置 202 エアコン風量調節装置 203 オーディオ音量調節装置 25 音声出力装置 26 マイク 27 表示装置 28 撮像装置 29 エージェントデータ記憶装置 290 エージェントプログラム 291 プログラム選択テーブル 292 学習項目データ 293 応答データ 294 画像データ 296 状態データ 297 ユーザ情報 30 ナビゲーションデータ記憶装置 40 状況センサ部 401 窓開き量検出センサ 402 エアコン風量検出センサ 403 オーディオ音量検出センサ 404 その他の状況センサ DESCRIPTION OF SYMBOLS 1 Whole processing part 10 Navigation processing part 11 Agent processing part 12 I / F part 13 Image processing part 14 Voice control part 15 Situation information processing part 21 Current position detection device 22 Input device 23 Storage medium drive device 24 Communication control device 201 Window opening and closing Device 202 Air conditioner air volume control device 203 Audio volume control device 25 Audio output device 26 Microphone 27 Display device 28 Imaging device 29 Agent data storage device 290 Agent program 291 Program selection table 292 Learning item data 293 Response data 294 Image data 296 State data 297 User Information 30 Navigation data storage device 40 Situation sensor unit 401 Window opening amount detection sensor 402 Air conditioner air volume detection sensor 403 Audio volume detection sensor 404 Other status sensors Support

───────────────────────────────────────────────────── フロントページの続き (72)発明者 松田 学 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 足立 和英 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 (72)発明者 向井 康二 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 Fターム(参考) 5D015 EE05 KK01 9A001 DD11 HH17 HH26 HZ19 JZ77 KK32 KK56  ──────────────────────────────────────────────────続 き Continued on the front page (72) Manabu Matsuda 2-19-12 Sotokanda, Chiyoda-ku, Tokyo Inside Equos Research Co., Ltd. (72) Kazuhide Adachi 2--19 Sotokanda, Chiyoda-ku, Tokyo 12 Equos Research Co., Ltd. (72) Inventor Koji Mukai 2--19-12 Sotokanda, Chiyoda-ku, Tokyo F-term within Equos Research Co., Ltd. 5D015 EE05 KK01 9A001 DD11 HH17 HH26 HZ19 JZ77 KK32 KK56

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 音声を認識する音声認識手段と、 この音声認識手段による認識精度を取得する認識精度取
得手段と、 この認識精度取得手段による認識精度が所定値以下であ
る場合に、雑音の原因となる雑音要素の状態を検出する
雑音要素検出手段と、 この雑音要素検出手段により検出された雑音要素の状態
を制御して雑音を減少させる雑音要素制御手段と、を具
備することを特徴とする音声認識装置。
1. A voice recognition means for recognizing a voice, a recognition accuracy obtaining means for obtaining recognition accuracy by the voice recognition means, and a source of noise when the recognition accuracy by the recognition accuracy obtaining means is equal to or less than a predetermined value. Noise element detecting means for detecting the state of the noise element, and noise element control means for reducing the noise by controlling the state of the noise element detected by the noise element detecting means. Voice recognition device.
【請求項2】 前記雑音要素検出手段で検出された雑音
要素の状態を記憶する状態記憶手段を有し、 前記雑音要素制御手段は、音声認識処理が終了した場合
に前記状態記憶手段に記憶された状態に前記雑音要素の
状態を戻すことを特徴とする請求項1に記載の音声認識
装置。
2. A state storage means for storing a state of the noise element detected by the noise element detection means, wherein the noise element control means is stored in the state storage means when the speech recognition processing is completed. 2. The speech recognition apparatus according to claim 1, wherein the state of the noise element is returned to a state where the noise element has been set.
【請求項3】 前記雑音要素検出手段は、雑音要素の状
態として窓の開閉状態を検出し、 前記雑音要素制御手段は、前記雑音要素検出手段により
窓が開いた状態が検出された場合、開いている窓を閉め
ることを特徴とする請求項1又は請求項2に記載の音声
認識装置。
3. The noise element detecting means detects an open / close state of a window as a state of the noise element. The noise element control means opens the window when the noise element detecting means detects that the window is open. The speech recognition device according to claim 1, wherein a closed window is closed.
【請求項4】 前記雑音要素検出手段は、雑音要素の状
態としてオーディオの音量を検出し、 前記雑音要素制御手段は、前記雑音要素検出手段により
所定値以上のオーディオの音量が検出された場合、その
音量を下げることを特徴とする請求項1又は請求項2に
記載の音声認識装置。
4. The noise element detection means detects an audio volume as a state of the noise element, and the noise element control means detects when the noise element detection means detects an audio volume of a predetermined value or more. The voice recognition device according to claim 1, wherein the volume is reduced.
【請求項5】 前記雑音要素検出手段は、雑音要素の状
態としてエアコンの風量を検出し、 前記雑音要素制御手段は、前記雑音要素検出手段により
所定量以上の風量が検出された場合、風量を下げること
を特徴とする請求項1又は請求項2に記載の音声認識装
置。
5. The noise element detecting means detects an air volume of the air conditioner as a state of the noise element, and the noise element control means detects the air volume when the noise element detecting means detects an air volume of a predetermined amount or more. The voice recognition device according to claim 1, wherein the voice recognition device lowers the voice recognition value.
【請求項6】 音声を認識する音声認識手段と、この音
声認識手段による認識精度を取得する認識精度取得手段
と、 擬人化されたエージェントを車両内に出現させるエージ
ェント出現手段と、 前記認識精度取得手段による認識精度が所定値以下であ
る場合に、雑音の原因となる雑音要素の状態を検出する
雑音要素検出手段と、 この雑音要素検出手段により検出された雑音要素の状態
を制御して雑音を減少させる行為を、前記エージェント
出現手段により出現されるエージェントに行わせるエー
ジェント制御手段と、を具備することを特徴とするエー
ジェント装置。
6. A speech recognition means for recognizing speech, a recognition accuracy acquisition means for acquiring recognition accuracy by the speech recognition means, an agent appearance means for causing an anthropomorphized agent to appear in a vehicle, and the recognition accuracy acquisition A noise element detecting means for detecting a state of a noise element causing noise when the recognition accuracy by the means is equal to or less than a predetermined value; and controlling the state of the noise element detected by the noise element detecting means to reduce noise. Agent control means for causing an agent appearing by the agent appearing means to perform an act of decreasing the agent.
JP10375411A 1998-12-15 1998-12-15 Speech recognition apparatus and agent apparatus Pending JP2000181500A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10375411A JP2000181500A (en) 1998-12-15 1998-12-15 Speech recognition apparatus and agent apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10375411A JP2000181500A (en) 1998-12-15 1998-12-15 Speech recognition apparatus and agent apparatus

Publications (1)

Publication Number Publication Date
JP2000181500A true JP2000181500A (en) 2000-06-30

Family

ID=18505480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10375411A Pending JP2000181500A (en) 1998-12-15 1998-12-15 Speech recognition apparatus and agent apparatus

Country Status (1)

Country Link
JP (1) JP2000181500A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002268668A (en) * 2001-03-13 2002-09-20 Denso Corp Navigation device
JP2002304192A (en) * 2001-04-05 2002-10-18 Denso Corp Voice recognition device
WO2005062293A1 (en) * 2003-12-05 2005-07-07 Kabushikikaisha Kenwood Audio device control device,audio device control method, and program
WO2005062295A1 (en) * 2003-12-05 2005-07-07 Kabushikikaisha Kenwood Device control device, speech recognition device, agent device, and device control method
WO2005062294A1 (en) * 2003-12-05 2005-07-07 Kabushikikaisha Kenwood Device control device, speech recognition device, agent device, data structure, and device control method
JP2006337513A (en) * 2005-05-31 2006-12-14 Funai Electric Co Ltd Television receiver
JP2009169445A (en) * 2009-05-07 2009-07-30 Denso Corp Speech recognition device and car navigation device
JP2011145610A (en) * 2010-01-18 2011-07-28 Fujitsu Toshiba Mobile Communications Ltd Communication apparatus
JP2013054613A (en) * 2011-09-06 2013-03-21 Denso Corp Electronic control unit and control method thereof
KR20150007422A (en) * 2013-07-11 2015-01-21 삼성전자주식회사 Electric equipment and method for controlling the same
WO2016117514A1 (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
JP2016149014A (en) * 2015-02-12 2016-08-18 株式会社デンソー Interactive device
WO2017098775A1 (en) * 2015-12-11 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program
WO2017134935A1 (en) * 2016-02-03 2017-08-10 ソニー株式会社 Information processing device, information processing method, and program
JP2018511100A (en) * 2015-01-29 2018-04-19 ネイバー コーポレーションNAVER Corporation Cartoon data display apparatus and method
JP6561261B1 (en) * 2018-09-21 2019-08-21 Global Mobility Service株式会社 Remote fuel monitoring system, vehicle-mounted device, vehicle or machine, server, remote fuel monitoring method, remote fuel monitoring program, and storage medium
JP2020024276A (en) * 2018-08-07 2020-02-13 ソフトバンク株式会社 Information processing apparatus, information processing system, control program, and information processing method
JP2020157808A (en) * 2019-03-25 2020-10-01 本田技研工業株式会社 Agent device, control method of agent device, and program
JP7302005B2 (en) 2020-06-24 2023-07-03 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Vehicle interaction method and device, electronic device, storage medium, and vehicle
WO2024078460A1 (en) * 2022-10-13 2024-04-18 广州小鹏汽车科技有限公司 Speech processing method, speech interaction method, server, and storage medium

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4622124B2 (en) * 2001-03-13 2011-02-02 株式会社デンソー Navigation device
JP2002268668A (en) * 2001-03-13 2002-09-20 Denso Corp Navigation device
JP2002304192A (en) * 2001-04-05 2002-10-18 Denso Corp Voice recognition device
JP4724943B2 (en) * 2001-04-05 2011-07-13 株式会社デンソー Voice recognition device
WO2005062295A1 (en) * 2003-12-05 2005-07-07 Kabushikikaisha Kenwood Device control device, speech recognition device, agent device, and device control method
US7529676B2 (en) 2003-12-05 2009-05-05 Kabushikikaisha Kenwood Audio device control device, audio device control method, and program
US7822614B2 (en) 2003-12-05 2010-10-26 Kabushikikaisha Kenwood Device control, speech recognition device, agent device, control method
WO2005062294A1 (en) * 2003-12-05 2005-07-07 Kabushikikaisha Kenwood Device control device, speech recognition device, agent device, data structure, and device control method
WO2005062293A1 (en) * 2003-12-05 2005-07-07 Kabushikikaisha Kenwood Audio device control device,audio device control method, and program
JP2006337513A (en) * 2005-05-31 2006-12-14 Funai Electric Co Ltd Television receiver
JP2009169445A (en) * 2009-05-07 2009-07-30 Denso Corp Speech recognition device and car navigation device
JP2011145610A (en) * 2010-01-18 2011-07-28 Fujitsu Toshiba Mobile Communications Ltd Communication apparatus
JP2013054613A (en) * 2011-09-06 2013-03-21 Denso Corp Electronic control unit and control method thereof
KR102109381B1 (en) * 2013-07-11 2020-05-12 삼성전자주식회사 Electric equipment and method for controlling the same
KR20150007422A (en) * 2013-07-11 2015-01-21 삼성전자주식회사 Electric equipment and method for controlling the same
JP2016135530A (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
WO2016117514A1 (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot
JP2018511100A (en) * 2015-01-29 2018-04-19 ネイバー コーポレーションNAVER Corporation Cartoon data display apparatus and method
JP2016149014A (en) * 2015-02-12 2016-08-18 株式会社デンソー Interactive device
WO2017098775A1 (en) * 2015-12-11 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program
JPWO2017098775A1 (en) * 2015-12-11 2018-09-27 ソニー株式会社 Information processing apparatus, information processing method, and program
US11087775B2 (en) 2015-12-11 2021-08-10 Sony Corporation Device and method of noise suppression based on noise source positions
WO2017134935A1 (en) * 2016-02-03 2017-08-10 ソニー株式会社 Information processing device, information processing method, and program
JP2020024276A (en) * 2018-08-07 2020-02-13 ソフトバンク株式会社 Information processing apparatus, information processing system, control program, and information processing method
WO2020059119A1 (en) * 2018-09-21 2020-03-26 Global Mobility Service株式会社 Remote fuel monitoring system, vehicle-mounted device, vehicle or machine, server, remote fuel monitoring method, remote fuel monitoring program, and storage medium
JP6561261B1 (en) * 2018-09-21 2019-08-21 Global Mobility Service株式会社 Remote fuel monitoring system, vehicle-mounted device, vehicle or machine, server, remote fuel monitoring method, remote fuel monitoring program, and storage medium
US11373458B2 (en) 2018-09-21 2022-06-28 Global Mobility Service Inc. Remote fuel monitoring system, vehicle-mounted device, vehicle or machine, server, remote fuel monitoring method, remote fuel monitoring program and storage medium
JP2020157808A (en) * 2019-03-25 2020-10-01 本田技研工業株式会社 Agent device, control method of agent device, and program
CN111731323A (en) * 2019-03-25 2020-10-02 本田技研工业株式会社 Agent device, control method for agent device, and storage medium
US11542744B2 (en) 2019-03-25 2023-01-03 Honda Motor Co., Ltd. Agent device, agent device control method, and storage medium
JP7239365B2 (en) 2019-03-25 2023-03-14 本田技研工業株式会社 AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP7302005B2 (en) 2020-06-24 2023-07-03 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Vehicle interaction method and device, electronic device, storage medium, and vehicle
WO2024078460A1 (en) * 2022-10-13 2024-04-18 广州小鹏汽车科技有限公司 Speech processing method, speech interaction method, server, and storage medium

Similar Documents

Publication Publication Date Title
JP3918850B2 (en) Agent device
JP2000181500A (en) Speech recognition apparatus and agent apparatus
JP3873386B2 (en) Agent device
JP4380541B2 (en) Vehicle agent device
JP4193300B2 (en) Agent device
JP4085500B2 (en) Vehicle status grasping device, agent device, and vehicle control device
JPH11259446A (en) Agent device
JP3965538B2 (en) Agent device
JPH11259271A (en) Agent device
JP5045302B2 (en) Automotive information provision device
US11176948B2 (en) Agent device, agent presentation method, and storage medium
JP2000266551A (en) Dfstination setting device and agent device
JP2000020888A (en) Agent device
JP2019139354A (en) Information providing device and information providing method
JP4207350B2 (en) Information output device
JP2000222689A (en) Vehicle controller
JP4253918B2 (en) Agent device
JPH11272640A (en) Agent device
JP2000186942A (en) Agent mental model preparing method, and agent device
JP4284733B2 (en) Agent device
JP4032492B2 (en) Agent device
JP2000203465A (en) Information recording device
JP2003106846A (en) Agent apparatus
CN111724778B (en) In-vehicle apparatus, control method for in-vehicle apparatus, and storage medium
JP2002149191A (en) Voice input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080605

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081007