JP2003109162A - Agent apparatus - Google Patents

Agent apparatus

Info

Publication number
JP2003109162A
JP2003109162A JP2001304717A JP2001304717A JP2003109162A JP 2003109162 A JP2003109162 A JP 2003109162A JP 2001304717 A JP2001304717 A JP 2001304717A JP 2001304717 A JP2001304717 A JP 2001304717A JP 2003109162 A JP2003109162 A JP 2003109162A
Authority
JP
Japan
Prior art keywords
emergency
data
agent
scenario
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001304717A
Other languages
Japanese (ja)
Other versions
JP4936094B2 (en
Inventor
Tomoki Kubota
智氣 窪田
Koji Hori
孝二 堀
Kazuhide Adachi
和英 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2001304717A priority Critical patent/JP4936094B2/en
Publication of JP2003109162A publication Critical patent/JP2003109162A/en
Application granted granted Critical
Publication of JP4936094B2 publication Critical patent/JP4936094B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an agent apparatus in which exact information can be collected and provided in the case of an emergency when the dispatch of an ambulance crew is required. SOLUTION: The knowledge of emergency medical care is made into data and questions to be ordinarily asked by the ambulance crew for knowing the state of a patient in the case of an emergency is prepared as emergency questions to be asked by an agent. From an emergency call (call of No.199) from a vehicle to the arrival of the ambulance crew, the agent asks the emergency questions and required information is collected from the patient. When all the questions are finished, the collected information of the patient is transmitted to an emergency institution, to which the emergency call is originated. Further, from the end of the questions to the arrival of the ambulance crew, by asking to the patient at prescribed intervals, the consciousness of the patient is kept.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はエージェント装置に
係り、例えば、搭乗者の気分が悪くなった場合などの緊
急時に救急機関に通報を行うエージェント装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an agent device and, more particularly, to an agent device for notifying an emergency agency in an emergency such as when a passenger feels uncomfortable.

【0002】[0002]

【従来の技術】車両内で運転者の具合が悪くなった場合
等の緊急時には、通常通り119番通報をすることにな
るが、必ずしも同伴者が居て通報するとは限らない。運
転者1人である場合には、運転者自信が自分の体の異常
を感じ通報する場合もある。このような緊急事態が発生
した場合に、緊急連絡用のスイッチを用意しておき、緊
急事態が発生したことを自動的に通報する緊急通報装置
が提案されている。
2. Description of the Related Art In an emergency such as when a driver feels unwell in a vehicle, the 119th call is made as usual, but it is not always the case that a companion is present. When there is only one driver, the driver's self-confidence may feel an abnormality in his / her body and may make a report. In the event of such an emergency, an emergency notification device has been proposed that prepares a switch for emergency contact and automatically reports the occurrence of the emergency.

【0003】[0003]

【発明が解決しようとする課題】従来の緊急通報装置で
は、緊急事態が発生したことを救急機関に通報して、救
急隊員の派遣を要請するだけであった。このため、救急
隊員が現場に到着した時点で、運転者が意識を失ってし
まっていると、症状や状況等について聞き出すことがで
きなくなる。また、患者(救急車で運ばれる対象者)か
ら救急隊員が現在の状態を聞き出す行為は、救急隊員が
現場に到着しなければ行なうことができない。このよう
な救急問診行為は、専門知識に基づいた質問を行う必要
があり、たとえ同乗者がいたとしても適切な情報が得ら
れない可能性がある。
In the conventional emergency notification device, only the fact that an emergency has occurred is notified to the emergency agency and the dispatch of emergency personnel is requested. For this reason, if the driver loses consciousness at the time when the rescue staff arrives at the scene, it will be impossible to ask about the symptoms and situation. In addition, the act of the ambulance crew asking the current state from the patient (the person who is carried by the ambulance) cannot be performed unless the ambulance crew arrives at the scene. Such an emergency inquiry action requires asking a question based on specialized knowledge, and may not obtain appropriate information even if there is a passenger.

【0004】そこで本発明は上記課題を解決するために
なされたもので、救急隊員の派遣が必要な緊急時におい
て、的確な情報を収集して提供することが可能なエージ
ェント装置を提供することを第1の目的とする。また、
救急隊員が到着するまでの間にエージェントができうる
処置をほどこすことを第2の目的とする。
Therefore, the present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide an agent device capable of collecting and providing accurate information in an emergency when dispatching emergency personnel. The first purpose. Also,
The second purpose is to provide the agent with possible treatment by the time the paramedics arrive.

【0005】[0005]

【課題を解決するための手段】請求項1に記載した発明
では、救急隊員の派遣が必要な緊急時に、救急機関に対
して車両の現在位置と緊急事態の発生を緊急通報する緊
急通報手段と、前記緊急通報手段による通報をした場合
に、車室内に人工的な擬似生命体であるエージェントを
出現させ、搭乗者に対して搭乗者の状態を質問する質問
手段と、前記質問手段による質問に対する、搭乗者から
の回答を保存する回答保存手段と、前記保存した回答を
患者情報として出力する状態出力手段と、をエージェン
ト装置に具備させて前記目的を達成する。請求項2に記
載の発明では、請求項1に記載のエージェント装置にお
いて、前記質問手段は、搭乗者からの回答に応じて次の
質問が決まる救急質問項目について質問することを特徴
とする。請求項3に記載の発明では、請求項1に記載の
エージェント装置において、前記状態出力手段は、前記
緊急通報先である救急機関に前記保存した回答を患者情
報として送信することを特徴とする。請求項4に記載の
発明では、請求項1に記載のエージェント装置におい
て、搭乗者に関する情報が格納された格納手段を備え、
前記質問手段は、前記格納手段に格納された情報につい
て正しいか否かを質問することを特徴とする。
According to the invention as set forth in claim 1, an emergency call means for making an emergency call to the emergency agency about the current position of the vehicle and the occurrence of an emergency situation in an emergency requiring dispatch of emergency personnel. When the emergency call means makes a report, an agent that is an artificial pseudo-life appears in the passenger compartment and asks the passenger about the state of the passenger. The object is achieved by providing the agent device with an answer storage means for saving the answer from the passenger and a status output means for outputting the saved answer as patient information. The invention according to claim 2 is characterized in that, in the agent device according to claim 1, the inquiring means inquires about an emergency question item in which the next question is decided according to the answer from the passenger. According to a third aspect of the invention, in the agent apparatus according to the first aspect, the state output means transmits the stored answer as patient information to an emergency agency that is the emergency call destination. According to a fourth aspect of the invention, in the agent device according to the first aspect, there is provided storage means for storing information regarding passengers,
The inquiry means may inquire whether or not the information stored in the storage means is correct.

【0006】[0006]

【発明の実施の形態】以下、本発明のエージェント装置
における好適な実施の形態について、図1から図9を参
照して詳細に説明する。 (1)実施形態の概要 救命救急の知識をデータ化し、緊急時に患者の状態を知
るために救急隊員が通常行う質問を、エージェントが行
う緊急質問として予め用意しておく。そして、車両から
緊急通報(119番通報)をした後、救急隊員が到着す
るまでの間に、エージェントが緊急質問をし、患者から
必要な情報を収集する。全ての質問が終了したら、緊急
連絡した救急機関に収集した患者の情報を送信する。さ
らに、質問終了後、救急隊員が到着するまでの間、所定
間隔で患者に問いかけることで、患者の意識を保つよう
にする。緊急通報は運転者本人が緊急通報キーを選択す
る場合と、緊急事態検出装置で緊急事態を検出した場合
にエージェントが自動的に緊急通報する場合がある。そ
して、救急隊員が到着したら、収集した患者の状態情報
を救急隊員に告知する。告知は画面表示と音声で行い、
終了の指示(音声又は終了ボタンの選択)があるまで繰
り返す。告知の開始は、画面に表示した患者情報スイッ
チを救急隊員が選択することで開始し、又は、音声認識
装置で救急車のサイレン音を認識したら開始する。この
ように、緊急通報してから救急隊員が到着するまでの間
の時間を有効に活用して、少しでも早く患者(運転者)
から状態情報を聞き出し、救急隊員が的確な処置を行な
うための補助を行うことで、救急隊員の救急活動の効果
を上げることができる。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, preferred embodiments of an agent device of the present invention will be described in detail with reference to FIGS. (1) Outline of the embodiment The knowledge of life-saving emergency is converted into data, and the questions that ambulance crews usually ask in order to know the condition of the patient in an emergency are prepared in advance as emergency questions that the agent asks. Then, after making an emergency call (call 119) from the vehicle, the agent asks an emergency question and collects the necessary information from the patient before the rescue staff arrives. When all the questions have been completed, send the collected patient information to the emergency department who has contacted the emergency. Further, after the question is completed, the patient is kept conscious by asking the patient at a predetermined interval until the ambulance crew arrives. The emergency call may be made by the driver himself / herself selecting the emergency call key, or the agent may automatically make an emergency call when the emergency detecting device detects an emergency. Then, when the rescue staff arrives, the status information of the collected patient is notified to the rescue staff. Announcement is done by screen display and voice,
Repeat until the end instruction (voice or end button selection) is given. The start of the notification starts when the emergency personnel select the patient information switch displayed on the screen, or when the voice recognition device recognizes the siren sound of the ambulance. In this way, the time between the emergency call and the arrival of the ambulance crew is effectively utilized, and the patient (driver) can be used as soon as possible.
By hearing the status information from the person and assisting the ambulance crew to take appropriate measures, the effect of the ambulance crew's emergency activities can be improved.

【0007】なお、本実施形態におけるエージェント
は、人工的な擬似生命体であり、その容姿(平面的画
像、ホログラフィ等の立体的画像等)が画像表示装置に
よって車両内に出現される。このエージェントの処理と
しては、車両自体、搭乗者、対向車等を含む車両の状況
判断と学習(状況の学習だけでなく運転者の応答や反応
等も含む)をし、各時点での車両状況とそれまでの学習
結果に基づいて、エージェントが運転者や車両に対して
様々なバリエーションをもった対応(行為=行動と音
声)をする。これにより運転者は、複数のエージェント
を車両内に自由に呼びだしてつき合う(コミュニケーシ
ョンする)ことが可能になり、車両内での環境を快適に
することができる。ここで、本実施形態における人工的
な擬似生命体(エージェント)とは、特定の人間、生
物、漫画のキャラクター等の同一性があり、その同一性
のある擬似生命体が、主体の同一性・連続性を保つよう
に出力(動作、音声により応答)を行うものである。ま
た、同一性・連続性は特有の個性を持つものとして表現
され、車室内に出現させる本実施形態のエージェント
は、同一の車両状況であっても、過去の学習内容に応じ
て発声する音声や画像などが異なる。このエージェント
の各種コミュニケーション行為として、緊急時通報や緊
急質問等の緊急時処理を行わせる。そしてエージェント
が行う緊急時処理を含めた各行為を複数のシナリオで構
成する。各シナリオは、エージェントによる一連の連続
した行為の内容を規定した複数のシナリオデータ(アプ
リケーションを含む)と、各シナリオデータを起動する
ための起動条件とにより規格化する。
The agent in the present embodiment is an artificial pseudo-lifeform, and its appearance (planar image, stereoscopic image such as holography) appears in the vehicle by the image display device. As the processing of this agent, the situation of the vehicle including the vehicle itself, passengers, oncoming vehicles, etc. is judged and learned (including not only the learning of the situation but also the response and reaction of the driver), and the vehicle situation at each time point. Based on the learning results up to that point, the agent responds to the driver and the vehicle with various variations (action = action and voice). As a result, the driver can freely call out a plurality of agents in the vehicle and have a relationship (communication) with each other, thereby making the environment in the vehicle comfortable. Here, the artificial artificial life form (agent) in the present embodiment has a certain human, living thing, cartoon character and the like, and the pseudo life form having the same identity is The output (action, response by voice) is performed so as to maintain continuity. Further, the identity / continuity is expressed as having a unique individuality, and the agent of the present embodiment that appears in the vehicle interior can recognize the voices that are uttered according to the past learning content even in the same vehicle situation. Images are different. As various communication actions of this agent, emergency processing such as an emergency call and an emergency question is performed. Then, each action including the emergency processing performed by the agent is composed of a plurality of scenarios. Each scenario is standardized by a plurality of scenario data (including an application) that defines the content of a series of continuous actions by the agent, and a start condition for starting each scenario data.

【0008】(2)実施形態の詳細 図1は、本実施形態におけるエージェント装置の構成を
示すブロック図である。本実施形態は、コミュニケーシ
ョン機能全体を制御する全体処理部9を備えている。こ
の全体処理部9は、設定した目的地までの経路を探索し
て音声や画像表示により案内するナビゲーション処理部
10、エージェント処理部11、ナビゲーション処理部
10とエージェント処理部11に対する外部I/F部1
2、エージェント画像や地図画像等の画像出力や入力画
像を処理する画像処理部13、エージェント音声や経路
案内音声等の音声出力や入力される音声を制御する音声
制御部14、車両や運転者に関する各種状況の検出デー
タを処理する状況情報処理部15、入力制御部16及び
記憶装置制御部17を有している。
(2) Details of Embodiment FIG. 1 is a block diagram showing the configuration of an agent device in this embodiment. The present embodiment includes an overall processing unit 9 that controls the entire communication function. The overall processing unit 9 searches for a route to a set destination and guides it by voice or image display, an agent processing unit 11, an external I / F unit for the navigation processing unit 10 and the agent processing unit 11. 1
2. Image processing unit 13 that processes image output and input images of agent images and map images, voice control unit 14 that controls voice output and input voice of agent voices and route guidance voices, and relates to vehicles and drivers. It has a situation information processing unit 15 that processes detection data of various situations, an input control unit 16, and a storage device control unit 17.

【0009】ナビゲーション処理部10とエージェント
処理部11は、データ処理及び各部の動作の制御を行う
CPU(中央処理装置)と、このCPUにデータバスや
制御バス等のバスラインで接続されたROM、RAM、
タイマ等を備えている。両処理部10、11はネットワ
ーク接続(車内LAN(Local Area Net
work))されており、互いの処理データを取得する
ことができるようになっている。本実施形態のエージェ
ント処理部11では、シナリオに従ってナビゲーション
用のデータ(目的地データや走行経路データ等)を情報
センタ等の外部装置から取得した場合や、シナリオに基
づくユーザとのコミュニケーションにより目的地を取得
した場合に、これらのデータをナビゲーション処理部1
0に供給するようになっている。ROMはCPUで制御
を行うための各種データやプログラムが予め格納された
リードオンリーメモリであり、RAMはCPUがワーキ
ングメモリとして使用するランダムアクセスメモリであ
る。
The navigation processing unit 10 and the agent processing unit 11 include a CPU (central processing unit) that controls data processing and operations of each unit, and a ROM that is connected to the CPU by a bus line such as a data bus or a control bus. RAM,
Equipped with a timer. Both processing units 10 and 11 are connected to a network (in-vehicle LAN (Local Area Net).
work)), and mutually processed data can be acquired. In the agent processing unit 11 of the present embodiment, when the navigation data (destination data, travel route data, etc.) is obtained from an external device such as an information center according to the scenario, or the destination is communicated with the user based on the scenario. When acquired, these data are stored in the navigation processing unit 1.
It is designed to supply 0. The ROM is a read-only memory in which various data and programs for controlling by the CPU are stored in advance, and the RAM is a random access memory used as a working memory by the CPU.

【0010】本実施形態のナビゲーション処理部10と
エージェント処理部11は、CPUがROMに格納され
た各種プログラムを読み込んで各種処理を実行するよう
になっている。なお、CPUは、記憶媒体駆動装置23
にセットされた外部の記憶媒体からコンピュータプログ
ラムを読み込んで、記憶装置29のエージェントデータ
30やナビゲーションデータ31、図示しないハードデ
ィスク等のその他の記憶装置に格納(インストール)
し、この記憶装置から必要なプログラム等をRAMに読
み込んで(ロードして)実行するようにしてもよい。ま
た、必要なプログラム等を記憶媒体駆動装置23からR
AMに直接読み込んで実行するようにしてもよい。
In the navigation processing unit 10 and the agent processing unit 11 of this embodiment, the CPU reads various programs stored in the ROM and executes various processes. The CPU is the storage medium drive device 23.
The computer program is read from the external storage medium set in the storage device and stored in the agent data 30 and the navigation data 31 of the storage device 29, or another storage device such as a hard disk (not shown) (installation).
However, a necessary program or the like may be read (loaded) from the storage device into the RAM and executed. In addition, necessary programs and the like are read from the storage medium drive device 23
You may make it read in AM directly and perform.

【0011】エージェント処理部11は、運転者との会
話を含めたエージェントの各種コミュニケーション動作
を、車両や運転者の各種状況(場面)を想定して予め作
成されたシナリオに従って行うようになっている。すな
わち、車速、時間、走行地域、気温、ガソリン残量、緊
急事態検出、等の各種状況をシナリオ起動条件とし、各
状況におけるエージェントの行動が、各状況毎にシナリ
オとして規定されている。各シナリオは、連続する複数
のシーンで構成されている。シーンは、シナリオのなか
の1つの場面であり、本実施形態における緊急通報後の
質問シナリオでは、エージェントが救急、救命に基づく
情報収集のための質問を行う各場面のシーンで構成され
ている。各シーンは、タイトル、リスト、吹き出し、背
景、その他の小単位(パーツ)でまとまっている。各シ
ーンは、シナリオに従って順次進行していき、シナリオ
によっては、特定のシーンで出される質問に対する運転
者の回答や車両の状況等によって、選択される複数のシ
ーンが存在する。すなわち、途中の回答に応じてシーン
が分岐するシナリオが存在する。シーンを含むシナリオ
のデータは後述するシナリオデータファイル302に格
納されている。いつどこでシナリオを実行するのかを規
定する情報(シナリオ起動条件)と、実行した場合にど
のような画面構成で、エージェントにどのような動作や
会話をさせ、ナビゲーション処理部10等のモジュール
に対してどのような指示を出し、イベントを受けとった
場合に次はどうするのか(どのシーンに移行するのか)
を規定するデータがシーン毎にまとまってシナリオデー
タファイル302のシナリオデータ1〜nとして格納さ
れている。本実施形態では、このように規格化されたシ
ナリオデータにより、救急救命の知識に基づいて患者の
状態情報を収集するための各種質問が緊急質問としてシ
ナリオデータ化されている。
The agent processing unit 11 is adapted to perform various communication operations of the agent including conversation with the driver according to a scenario created in advance assuming various situations (scenes) of the vehicle and the driver. . That is, various situations such as vehicle speed, time, traveling area, temperature, gasoline level, and emergency detection are set as scenario activation conditions, and the behavior of the agent in each situation is defined as a scenario for each situation. Each scenario is composed of a plurality of consecutive scenes. The scene is one of the scenes in the scenario, and in the question scenario after the emergency call according to the present embodiment, the scene is composed of scenes in which the agent asks a question for information collection based on emergency and lifesaving. Each scene is organized by title, list, balloon, background, and other small units (parts). Each scene sequentially progresses according to the scenario, and depending on the scenario, there are a plurality of scenes selected depending on the driver's answer to the question given in a specific scene, the condition of the vehicle, and the like. That is, there is a scenario in which a scene branches according to an answer on the way. The data of the scenario including the scene is stored in the scenario data file 302 described later. Information (scenario activation condition) that defines when and where to execute a scenario, what kind of screen configuration is used when it is executed, what kind of operation or conversation the agent has, and the modules such as the navigation processing unit 10 What kind of instruction and what to do next when receiving an event (what scene to move to)
For each scene is collectively stored as scenario data 1 to n in the scenario data file 302. In the present embodiment, by using the scenario data thus standardized, various questions for collecting the state information of the patient based on the knowledge of emergency lifesaving are converted into scenario data as emergency questions.

【0012】図2は、エージェント処理部11の構成を
表したものである。この図2に示されるように、エージ
ェント処理部11は、状況判断部111、シナリオ実行
要求部112、シナリオ駆動部113、シナリオデータ
読み込み部114、描画処理部115、音声認識管理部
116、ユーザ入力受付部117を備えている。これら
各部111〜117は、エージェント処理部11が備え
るCPU及びROM等に格納された対応エンジン(ソフ
トウェア)により実現されるようになっている。状況判
断部111等の各部を構成するエンジンは、他のエンジ
ンにデータを伝達する場合に、対応するイベントを発行
する。各部111〜117が発行するイベントの中に
は、シーンを分岐するか否かを判断するイベントが含ま
れる。
FIG. 2 shows the configuration of the agent processing section 11. As shown in FIG. 2, the agent processing unit 11 includes a situation determination unit 111, a scenario execution request unit 112, a scenario drive unit 113, a scenario data reading unit 114, a drawing processing unit 115, a voice recognition management unit 116, and a user input. The reception unit 117 is provided. Each of these units 111 to 117 is realized by a corresponding engine (software) stored in a CPU, a ROM, and the like included in the agent processing unit 11. The engine that constitutes each unit such as the situation determination unit 111 issues a corresponding event when transmitting data to another engine. The events issued by the respective units 111 to 117 include an event for determining whether or not to branch the scene.

【0013】状況判断部111は、時間、場所、各種入
力等の状況の変化を通知するAPI(Applicat
ion Programing Interface)
を備えている。状況判断部111は、(目的地設定等)
状況の変化に対応して、シナリオ実行要求判断部112
にイベントを発行する。シナリオ実行要求判断部112
は、状況判断結果をAPI関数で参照し、シナリオを実
行するか否かを判断する。シナリオを実行する場合はシ
ナリオ起動要求のイベントをシナリオ駆動113に対し
発行する。
The status judgment unit 111 is an API (Applicat) for notifying a change in status such as time, place, and various inputs.
Ion Programming Interface)
Is equipped with. The situation determination unit 111 (destination setting, etc.)
The scenario execution request determination unit 112 responds to changes in the situation.
Issue an event to. Scenario execution request determination unit 112
Determines whether or not to execute the scenario by referring to the situation determination result with the API function. When executing a scenario, a scenario activation request event is issued to the scenario driver 113.

【0014】シナリオ駆動部113は、シナリオ実行要
求部112で発行されたシナリオ起動要求のイベントに
対し、起動を行うか否かの判断をする。起動を行うと判
断した場合、シナリオ駆動部113は、シナリオデータ
の読み込みをシナリオデータ読み込み部114に依頼す
る。また、シナリオデータに従って描画のリクエスト、
キャラクタとの動作のリクエストを描画処理部115に
依頼する。また、シナリオデータに従って音声認識に使
用する辞書を音声認識管理部116に通知する。更に、
シナリオ駆動部113は、音声認識の結果や、ユーザ入
力によってシナリオを駆動(シーンの推移を管理)す
る。
The scenario drive unit 113 determines whether or not to start the scenario activation request event issued by the scenario execution request unit 112. When it is determined that the scenario data is to be activated, the scenario driving unit 113 requests the scenario data reading unit 114 to read the scenario data. In addition, drawing request according to the scenario data,
The drawing processing unit 115 is requested to request a motion with the character. It also notifies the voice recognition management unit 116 of the dictionary used for voice recognition according to the scenario data. Furthermore,
The scenario drive unit 113 drives a scenario (manages scene transitions) based on the result of voice recognition or user input.

【0015】シナリオデータ読み込み部114は、シナ
リオ駆動部113からのイベントの依頼に基づいて、シ
ナリオデータファイル302から該当するシナリオデー
タの読み込みを行う。また、シナリオ駆動部113から
のイベントの依頼により画像データの読み込みを行な
う。描画処理部115は、シナリオ駆動部113からの
イベントの依頼に基づいて、該当する場面の描画や、キ
ャラクタ(エージェント)の描画を行う。音声認識管理
部116は、音声認識部142への指示を統括する。例
えば、シナリオ駆動部113から通知される使用辞書の
指定を行う。音声認識部116は、音声認識部142に
おいて、指定した使用辞書による音声認識の結果がでた
ら、認識結果に対応するイベントをシナリオ駆動部11
3に対して発行する。ユーザ入力受付部117は、ユー
ザからの入力があったら、入力内容に対応するイベント
をシナリオ駆動部113に対して発行する。ユーザから
の入力は、入力制御部16からの情報により判断され
る。
The scenario data reading unit 114 reads the corresponding scenario data from the scenario data file 302 based on the event request from the scenario driving unit 113. Further, the image data is read in response to an event request from the scenario drive unit 113. The drawing processing unit 115 draws a corresponding scene or a character (agent) based on an event request from the scenario driving unit 113. The voice recognition management unit 116 controls instructions to the voice recognition unit 142. For example, the usage dictionary notified from the scenario drive unit 113 is designated. The voice recognition unit 116, when the voice recognition unit 142 produces a voice recognition result based on the specified use dictionary, outputs an event corresponding to the recognition result to the scenario drive unit 11.
Issue to 3. The user input reception unit 117 issues an event corresponding to the input content to the scenario drive unit 113 when there is an input from the user. The input from the user is determined by the information from the input control unit 16.

【0016】本実施形態では、状況判断部111が緊急
事態検出のイベント又は緊急通報キーのイベントを発行
すると、シナリオ事項要求判断部112が救急質問シナ
リオの実行を要求するイベントをシナリオ駆動部113
に発行する。シナリオ駆動部113では、救急質問シナ
リオの読み込みをシナリオデータ読み込み部に要求する
イベントを発行し、読み込まれたシナリオデータに従っ
て、描画処理部115に描画のリクエストを発行し、音
声認識管理部116に音声認識のリクエストイベントを
発行する。なお、エージェント処理部11の各部では、
イベントを発行する場合と、API関数を用いる場合に
ついて説明したが、全てをイベント発行としてもよく、
また全てをAPI関数を使用するようにしてもよい。
In this embodiment, when the situation judging section 111 issues an event for detecting an emergency or an event for an emergency call key, the scenario item request judging section 112 sends an event requesting execution of an emergency question scenario to the scenario driving section 113.
To publish. The scenario driving unit 113 issues an event requesting the scenario data reading unit to read the emergency question scenario, issues a drawing request to the drawing processing unit 115 in accordance with the read scenario data, and outputs a voice to the voice recognition management unit 116. Issue a recognition request event. In addition, in each part of the agent processing unit 11,
Although the case of issuing an event and the case of using an API function have been described, it is possible to issue all events,
Alternatively, all may use API functions.

【0017】図1において、外部I/F部12には、緊
急通報装置21と記憶媒体駆動装置23と通信制御部2
4が接続され、画像処理部13には表示装置27及び撮
像装置28が接続され、音声制御部14には音声出力装
置25及びマイク(音声取得手段)26が接続され、状
況情報処理部15には各種状況検出装置40が接続さ
れ、入力制御部16には入力装置22が接続されてる。
In FIG. 1, the external I / F unit 12 includes an emergency notification device 21, a storage medium driving device 23, and a communication control unit 2.
4 is connected, the image processing unit 13 is connected to the display device 27 and the imaging device 28, the voice control unit 14 is connected to the voice output device 25 and the microphone (voice acquisition means) 26, and the situation information processing unit 15 is connected. Is connected to various status detecting devices 40, and the input device 16 is connected to the input device 22.

【0018】各種状況検出装置40は、現在位置検出装
置41と状況検出部42と緊急事態検出装置43を備え
ている。現在位置検出装置41は、車両の絶対位置(緯
度、経度による)を検出するためのものであり、人工衛
星を利用して車両の位置を測定するGPS(Globa
l Positioning System)受信装置
411と、方位センサ412と、舵角センサ413と、
距離センサ414と、路上に配置されたビーコンからの
位置情報を受信するビーコン受信装置415等が使用さ
れる。GPS受信装置411とビーコン受信装置415
は単独で位置測定が可能であるが、GPS受信装置41
1やビーコン受信装置415による受信が不可能な場所
では、方位センサ412、舵角センサ413及び距離セ
ンサ414の内、少なくとも1つを用いた推測航法によ
って現在位置を検出するようになっている。方位センサ
412は、例えば、地磁気を検出して車両の方位を求め
る地磁気センサ、車両の回転角速度を検出しその角速度
を積分して車両の方位を求めるガスレートジャイロや光
ファイバジャイロ等のジャイロ、左右の車輪センサを配
置しその出力パルス差(移動距離の差)により車両の旋
回を検出することで方位の変位量を算出するようにした
車輪センサ、等が使用される。舵角センサ413は、ス
テアリングの回転部に取り付けた光学的な回転センサや
回転抵抗ボリューム等を用いてステアリングの角度αを
検出する。距離センサ414は、例えば、車輪の回転数
を検出して計数し、または加速度を検出して2回積分す
るもの等の各種の方法が使用される。距離センサ414
と舵角センサ413は運転操作状況検出手段としても機
能する。
The various situation detecting device 40 comprises a current position detecting device 41, a situation detecting section 42 and an emergency situation detecting device 43. The current position detection device 41 is for detecting the absolute position (by latitude and longitude) of the vehicle, and is a GPS (Global) that measures the position of the vehicle using an artificial satellite.
l Positioning System) receiving device 411, azimuth sensor 412, rudder angle sensor 413,
A distance sensor 414 and a beacon receiving device 415 that receives position information from beacons arranged on the road are used. GPS receiver 411 and beacon receiver 415
Can measure position independently, but GPS receiver 41
1 and a place where the beacon receiving device 415 cannot receive, the current position is detected by dead reckoning using at least one of the azimuth sensor 412, the steering angle sensor 413, and the distance sensor 414. The azimuth sensor 412 is, for example, a gyro such as a gas rate gyro or an optical fiber gyro that detects the azimuth of the vehicle by detecting the geomagnetism, a rotational velocity of the vehicle is detected, and the angular velocity is integrated to obtain the azimuth of the vehicle. A wheel sensor, etc., in which the wheel sensor is arranged and the amount of displacement of the azimuth is calculated by detecting the turning of the vehicle by the output pulse difference (difference in moving distance), is used. The rudder angle sensor 413 detects the steering angle α using an optical rotation sensor attached to the rotating portion of the steering wheel, a rotation resistance volume, or the like. As the distance sensor 414, various methods such as a method of detecting and counting the number of rotations of the wheel or a method of detecting acceleration and integrating twice are used. Distance sensor 414
The steering angle sensor 413 also functions as a driving operation status detecting unit.

【0019】状況検出部42は、運転操作の状況を検出
する運転操作状況検出手段として機能するブレーキセン
サ421、車速センサ422、方向指示器検出器42
3、シフトレバセンサ424、サイドブレーキ(パーキ
ングブレーキ)センサ425を備えている。また、状況
検出部42は、機器操作の状況を検出する機器操作状況
検出手段として機能するエアコン検出器427、ワイパ
検出器428、オーディオ検出器429を備えている。
The situation detecting section 42 functions as a driving operation situation detecting means for detecting the situation of a driving operation, a brake sensor 421, a vehicle speed sensor 422, and a direction indicator detector 42.
3, a shift lever sensor 424, and a side brake (parking brake) sensor 425. The situation detection unit 42 also includes an air conditioner detector 427, a wiper detector 428, and an audio detector 429 that function as a device operation situation detection unit that detects the situation of equipment operation.

【0020】ブレーキセンサ421は、フットブレーキ
が踏み込み状態か否かを検出する。車速センサ422
は、車速を検出する。方向指示器検出器423は、運転
者が方向指示器の操作中であるか否か、及び方向指示器
が点滅中か否かを検出する。シフトレバセンサ424
は、運転者がシフトレバを操作中か否か、及びシフトレ
バ位置を検出する。サイドブレーキ(パーキングブレー
キ)センサ425は、運転者がサイドブレーキを操作中
か否か、及びサイドブレーキの状態(オンかオフか)を
検出する。
The brake sensor 421 detects whether or not the foot brake is depressed. Vehicle speed sensor 422
Detects the vehicle speed. The turn signal detector 423 detects whether the driver is operating the turn signal and whether the turn signal is blinking. Shift lever sensor 424
Detects whether the driver is operating the shift lever and the shift lever position. The side brake (parking brake) sensor 425 detects whether the driver is operating the side brake and the state of the side brake (on or off).

【0021】エアコン検出器427は、運転者がエアコ
ンの各種スイッチ等を操作中か否かを検出する。ワイパ
検出器428は、運転者がワイパの操作中か否かを検出
する。オーディオ検出器429は、運転者がラジオ、C
Dプレーヤ、カセットプーヤー等のオーディオ機器を操
作中か否か、及びオーディオ機器による音声が出力中か
否かを検出する。状況検出部42は、その他、機器操作
状況検出手段として、ヘッドランプやルームランプ等の
ランプ類の操作状況を検出するライト検出センサ、運転
者のシートベルト着脱操作を検出するシートベルト検出
センサ、その他のセンサを備えている。
The air conditioner detector 427 detects whether the driver is operating various switches of the air conditioner. The wiper detector 428 detects whether the driver is operating the wiper. The audio detector 429 is a radio, C
It is detected whether or not an audio device such as a D player or a cassette poker is being operated, and whether or not sound from the audio device is being output. In addition, the status detection unit 42 also serves as device operation status detection means, such as a light detection sensor that detects the operation status of lamps such as headlamps and room lamps, a seatbelt detection sensor that detects a driver's seatbelt removal operation. It is equipped with a sensor.

【0022】緊急事態検出装置43は、ハザードスイッ
チセンサ431と衝突センサ432を備えている。ハザ
ードスイッチセンサ431は、ハザードスイッチのオ
ン、オフ状態を検出し、状況情報処理部15に供給する
ようになっている。状況情報処理部15では、ハザード
スイッチセンサ431からスイッチオン状態が所定時間
t以上継続した場合に緊急事態信号をエージェント処理
部11の状況判断部111に供給するようになってい
る。衝突センサ432は、車両が衝突したことを検出す
るセンサで、本実施形態では、エアバックが作動したこ
とを検出することで衝突を検出し、検出信号を状況情報
処理部15に供給するようになっている。
The emergency detecting device 43 includes a hazard switch sensor 431 and a collision sensor 432. The hazard switch sensor 431 detects the on / off state of the hazard switch and supplies it to the situation information processing unit 15. The situation information processing unit 15 supplies an emergency signal from the hazard switch sensor 431 to the situation determining unit 111 of the agent processing unit 11 when the switch-on state continues for a predetermined time t or longer. The collision sensor 432 is a sensor that detects a collision of the vehicle. In the present embodiment, the collision sensor 432 detects the collision by detecting that the airbag is activated, and supplies a detection signal to the situation information processing unit 15. Has become.

【0023】入力装置22は、運転者情報を運転者が入
力する場合や、本実施形態によるエージェントのその他
全ての問い合わせ等に対して運転者が応答するための1
つの手段でもある。入力装置22は、ナビゲーション処
理における走行開始時の現在地(出発地点)や目的地
(到達地点)、情報提供局へ渋滞情報等の情報の請求を
発信したい車両の所定の走行環境(発信条件)、車内で
使用される携帯電話のタイプ(型式)などを入力するた
めのものでもある。入力装置22には、タッチパネル
(スイッチとして機能)、キーボード、マウス、ライト
ペン、ジョイスティック、赤外線等によるリモコン、音
声認識装置などの各種の装置が使用可能である。また、
赤外線等を利用したリモコンと、リモコンから送信され
る各種信号を受信する受信部を備えてもよい。リモコン
には、画面上に表示されたカーソルの移動操作等を行う
ジョイスティックの他、メニュー指定キー(ボタン)、
テンキー等の各種キーが配置される。入力装置22は、
本実施形態において運転者が緊急通報をするための緊急
通報キーを備えている。本実施形態における緊急通報キ
ーは、専用のボタンを配置しているが、タッチパネルで
のキー配置としてもよい。入力制御部16は、入力装置
22による入力内容に対応するデータを検出しエージェ
ント処理部11やナビゲーション処理部10に供給す
る。入力制御部16は、運転者による入力操作中か否か
を検出することで機器操作状況検出手段として機能す
る。
The input device 22 is used for the driver to input driver information, and for the driver to respond to all other inquiries from the agent according to the present embodiment.
It is also one means. The input device 22 is a predetermined traveling environment (transmission condition) of a vehicle that wants to transmit a request for information such as traffic jam information to the information providing station, the current location (departure point) and destination (arrival point) at the start of traveling in the navigation processing, It is also for inputting the type of mobile phone used in the car. As the input device 22, various devices such as a touch panel (functioning as a switch), a keyboard, a mouse, a light pen, a joystick, a remote controller using infrared rays, a voice recognition device, and the like can be used. Also,
A remote controller using infrared rays and the like, and a receiving unit for receiving various signals transmitted from the remote controller may be provided. On the remote control, in addition to the joystick for moving the cursor displayed on the screen, menu specifying keys (buttons),
Various keys such as a numeric keypad are arranged. The input device 22 is
In this embodiment, the driver is provided with an emergency call key for making an emergency call. Although the emergency call key in this embodiment has a dedicated button, it may be arranged on the touch panel. The input control unit 16 detects data corresponding to the content input by the input device 22 and supplies the data to the agent processing unit 11 and the navigation processing unit 10. The input control unit 16 functions as a device operation status detection unit by detecting whether or not the driver is performing an input operation.

【0024】緊急通報装置21は、緊急通報キーが選択
された場合や、緊急事態が検出された場合に、救急機関
との間で緊急の通信を確立するようになっている。救急
機関との通信は、電話回線、救急用の専用回線、インタ
ーネット等の各種通信回線の確立による。
The emergency call device 21 is adapted to establish emergency communication with the emergency agency when the emergency call key is selected or when an emergency situation is detected. Communication with the emergency department is based on the establishment of various communication lines such as a telephone line, a dedicated emergency line, and the Internet.

【0025】記憶媒体駆動装置23は、ナビゲーション
処理部10やエージェント処理部11が各種処理を行う
ためのコンピュータプログラムを外部の記憶媒体から読
み込むのに使用される駆動装置である。記憶媒体に記録
されているコンピュータプログラムには、各種のプログ
ラムやデータ等が含まれる。ここで、記憶媒体とは、コ
ンピュータプログラムが記録される記憶媒体をいい、具
体的には、フロッピー(登録商標)ディスク、ハードデ
ィスク、磁気テープ等の磁気記憶媒体、メモリチップや
ICカード等の半導体記憶媒体、CD−ROMやMO、
PD(相変化書換型光ディスク)等の光学的に情報が読
み取られる記憶媒体、紙カードや紙テープ等を用いた記
憶媒体、その他各種方法でコンピュータプログラムが記
録される記憶媒体が含まれる。
The storage medium drive unit 23 is a drive unit used to read a computer program for the navigation processing unit 10 and the agent processing unit 11 to perform various processes from an external storage medium. The computer program recorded in the storage medium includes various programs and data. Here, the storage medium refers to a storage medium in which a computer program is recorded, and specifically, a magnetic storage medium such as a floppy (registered trademark) disk, a hard disk, a magnetic tape, or a semiconductor storage such as a memory chip or an IC card. Medium, CD-ROM, MO,
A storage medium such as a PD (Phase Change Rewritable Optical Disk) from which information is optically read, a storage medium using a paper card, a paper tape, or the like, and a storage medium in which a computer program is recorded by various other methods are included.

【0026】記憶媒体駆動装置23は、これらの各種記
憶媒体からコンピュータプログラムを読み込む他に、記
憶媒体がフロッピーディスクやICカード等のように書
き込み可能な記憶媒体である場合には、ナビゲーション
処理部10やエージェント処理部11のRAMや記憶装
置29のデータ等をその記憶媒体に書き込むことが可能
である。例えば、ICカードにエージェント機能に関す
る学習内容(学習項目データ、応答データ)や運転者情
報等のデータを記憶させ、他の車両を運転する場合でも
これらを記憶させたICカードからデータを読み出させ
て使用することで、自分の過去の応対の状況に応じて学
習した状態のエージェントとコミュニケーションするこ
とが可能になる。これにより、車両毎のエージェントで
はなく、運転者毎に固有な学習内容のエージェントを車
両内に出現させることが可能になる。また、シナリオや
メール等を記憶させておくこともできる。またICカー
ドにシナリオデータファイルを格納するようにしてもよ
い。これにより、ユーザ各自にとって固有のオリジナル
シナリオとすることが可能である。
The storage medium driving device 23 reads the computer program from these various storage media, and when the storage medium is a writable storage medium such as a floppy disk or an IC card, the navigation processing unit 10 The RAM of the agent processing unit 11, the data of the storage device 29, and the like can be written in the storage medium. For example, the IC card is made to store data such as learning contents (learning item data, response data) about the agent function and driver information, and the data is read from the IC card storing these even when driving another vehicle. By using it, it becomes possible to communicate with the agent in the learned state according to his / her past response situation. As a result, not the agent for each vehicle but the agent having the learning content unique to each driver can appear in the vehicle. It is also possible to store scenarios, emails, etc. The scenario data file may be stored in the IC card. This makes it possible to create an original scenario unique to each user.

【0027】通信制御部24は、各種無線通信機器から
なる例えば携帯電話が接続されるようになっている。通
信制御部24は、電話回線による通話の他、道路の混雑
状況や交通規制等の交通情報に関するデータなどを提供
する情報提供局との通信や、車内での通信カラオケのた
めに使用するカラオケデータを提供する情報提供局との
通信を行うことができるようになっている。また、通信
制御部24を介して、エージェント機能に関する学習デ
ータ、シナリオデータファイル等を送受信することも可
能である。本実施形態のエージェント処理部11では、
通信制御部24を介してシナリオが添付された電子メー
ルを受信することができるようになっている。また、エ
ージェント処理部11は、インターネット上のホームペ
ージを表示するブラウザソフトを備えており、通信制御
部24を介してホームページからシナリオを含めたデー
タをダウンロードすることができるようになっている。
なお、通信制御部24は、携帯電話等の無線通信機能を
内蔵するようにしてもよい。
The communication control unit 24 is adapted to be connected to, for example, a mobile phone including various wireless communication devices. The communication control unit 24 communicates with an information providing station that provides data relating to traffic information such as road congestion and traffic regulation in addition to telephone calls over telephone lines, and karaoke data used for in-car communication karaoke. It is possible to communicate with the information providing station that provides the. Further, it is also possible to transmit / receive learning data, a scenario data file, and the like regarding the agent function via the communication control unit 24. In the agent processing unit 11 of this embodiment,
An electronic mail with a scenario attached can be received via the communication control unit 24. Further, the agent processing unit 11 is provided with browser software for displaying a home page on the Internet, and can download data including a scenario from the home page via the communication control unit 24.
The communication control unit 24 may have a built-in wireless communication function such as a mobile phone.

【0028】音声出力装置25は、車内に配置された複
数のスピーカで構成され、音声制御部14で制御された
音声、例えば、音声による経路案内を行う場合の案内音
声や、エージェントによる運転者との通常のコミュニケ
ーション用の会話や本実施形態の運転者情報取得のため
の質問による音声や音が出力されるようになっている。
この音声出力装置25は、オーディオ用のスピーカと兼
用するようにしてもよい。音声出力装置25と音声制御
部14はエンジン処理部11と共に質問手段を構成し、
緊急通報がされた場合に、救急質問シナリオで規定され
た各シーン毎に、エージェントによる救急質問が出力さ
れる。
The voice output device 25 is composed of a plurality of loudspeakers arranged in the vehicle, and the voice controlled by the voice control unit 14, for example, a guidance voice for voice route guidance and a driver by an agent. A voice or sound is output according to a normal conversation for communication or a question for acquiring driver information of the present embodiment.
The audio output device 25 may also be used as an audio speaker. The voice output device 25 and the voice control unit 14 together with the engine processing unit 11 constitute an inquiry means,
When an emergency call is made, an emergency question by the agent is output for each scene specified in the emergency question scenario.

【0029】マイク26は、音声制御部14における音
声認識の対象となる音声、例えば、ナビゲーション処理
における目的地等の入力音声や、エージェントと運転者
の会話(運転者による応答を含む)等を入出力する音声
入力手段として機能する。このマイク26は、運転者の
音声を的確に収集するために指向性のある専用のマイク
が使用される。尚、音声出力装置25とマイク26とで
ハンズフリーユニットを形成させて、携帯電話を介さず
に、電話通信における通話を行えるようにしてもよい。
マイク26と音声認識部142は、運転者が同乗者と会
話中か否かを検出する会話検出手段として機能し、この
場合のマイク26、音声認識部142は、運転者の状況
を検出する状況検出手段として機能する。また、マイク
26と音声認識部142は、同乗者がいるか否かを会話
から検出することで同乗者検出手段として機能し、更
に、救急車両のサイレン音を認識して救急隊員が到着し
たことを認識する救急隊員到着検出手段として機能す
る。
The microphone 26 inputs a voice which is a target of voice recognition in the voice control unit 14, for example, an input voice such as a destination in a navigation process, a conversation between an agent and a driver (including a response by the driver), and the like. It functions as a voice input means for outputting. As the microphone 26, a dedicated microphone having directivity is used in order to accurately collect the driver's voice. The voice output device 25 and the microphone 26 may form a hands-free unit so that telephone communication can be performed without using a mobile phone.
The microphone 26 and the voice recognition unit 142 function as a conversation detection unit that detects whether or not the driver is in conversation with the fellow passenger. In this case, the microphone 26 and the voice recognition unit 142 detect the situation of the driver. It functions as a detection means. Further, the microphone 26 and the voice recognition unit 142 function as a passenger detection means by detecting whether or not there is a passenger from the conversation, and further recognize the siren sound of the ambulance vehicle to confirm that the ambulance crew has arrived. It functions as a means to detect the arrival of emergency personnel.

【0030】表示装置27には、ナビゲーション処理部
10の処理による経路案内用の道路地図や各種画像情報
が表示されたり、エージェント処理部11によるエージ
ェントの各種行動(動画)及び画面構成の各パーツが表
示されたりするようになっている。また、撮像装置28
で撮像された車両内外の画像も画像処理部13で処理さ
れた後に表示されるようになっている。表示装置27で
は、本実施形態の救急質問シナリオに従って、救急隊員
の容姿をした救急隊員エージェントが救急質問をする際
に表示される複数の救急質問シーン画像や、質問が終了
した後救急隊員が到着するまでの間表示される呼びかけ
シーン画像や、救急隊員に収集した患者の情報情報を告
知する告知シーン画面などが表示されるようになってい
る。表示装置27は、液晶表示装置、CRT等の各種表
示装置が使用される。なお、この表示装置27は、例え
ばタッチパネル等の、前記入力装置22としての機能を
兼ね備えたものとすることができる。
On the display device 27, a road map for route guidance and various image information by the processing of the navigation processing unit 10 are displayed, and various actions (moving images) of the agent by the agent processing unit 11 and parts of the screen configuration are displayed. It is supposed to be displayed. In addition, the imaging device 28
The images of the inside and outside of the vehicle, which are picked up in, are also displayed after being processed by the image processing unit 13. In the display device 27, according to the emergency question scenario of the present embodiment, a plurality of emergency question scene images displayed when an emergency agent agent in the appearance of an emergency agent asks an emergency question, and after the question is completed, the emergency agent arrives. A call scene image that is displayed until that time is displayed, a notification scene screen that notifies the information information of the patient collected to the ambulance crew, and the like are displayed. As the display device 27, various display devices such as a liquid crystal display device and a CRT are used. The display device 27 may have a function as the input device 22, such as a touch panel.

【0031】撮像装置28は、画像を撮像するためのC
CD(電荷結合素子)を備えたカメラで構成されてお
り、運転者を撮像する車内カメラの他、車両前方、後
方、右側方、左側方を撮像する各車外カメラが配置され
ている。撮像装置28の各カメラにより撮像された画像
は、画像処理部13に供給され、画像認識等の処理が行
われ、各認識結果(同乗者の有無、運転者の認識等)を
エージェントのコミュニケーションに反映させるように
なっている。
The image pickup device 28 is a C for picking up an image.
It is composed of a camera equipped with a CD (charge coupled device), and in addition to an in-vehicle camera for imaging the driver, each out-of-vehicle camera for imaging the front, rear, right side and left side of the vehicle is arranged. The image captured by each camera of the image capturing device 28 is supplied to the image processing unit 13 and subjected to processing such as image recognition, and each recognition result (presence / absence of passenger, recognition of driver, etc.) is communicated to the agent. It is supposed to be reflected.

【0032】記憶装置29は、記憶装置制御部17に接
続され、記憶制御装置17による制御のもとでデータや
プログラムの読み込み、書き込みが行われるようになっ
ている。記憶装置29には本実施形態による各種エージ
ェント機能やナビゲーション機能を実現するうえで必要
な各種データ(プログラムを含む)として、エージェン
トデータ30とナビゲーションデータ31が格納されて
いる。この記憶装置29には、例えば、フロッピーディ
スク、ハードディスク、CD−ROM、光ディスク、磁
気テープ、ICカード、光カード、DVD(digit
al versatile disc)等の各種記憶媒
体と、その駆動装置が使用される。この場合、例えば、
学習項目データ304、応答データ305、運転者情報
307、シナリオデータファイル302を持ち運びが可
能なICカードやフロッピーディスクで構成し、その他
のデータをDVDやハードディスクで構成するというよ
うに、複数種類の異なる記憶媒体と駆動装置で構成し、
駆動装置としてそれらの記憶媒体を用いるようにしても
よい。
The storage device 29 is connected to the storage device controller 17 so that data and programs can be read and written under the control of the storage controller 17. The storage device 29 stores agent data 30 and navigation data 31 as various data (including programs) necessary for realizing various agent functions and navigation functions according to this embodiment. The storage device 29 includes, for example, a floppy disk, a hard disk, a CD-ROM, an optical disk, a magnetic tape, an IC card, an optical card, a DVD (digit).
Various storage media such as an al versatile disc) and a drive device therefor are used. In this case, for example,
The learning item data 304, the response data 305, the driver information 307, and the scenario data file 302 are composed of a portable IC card or a floppy disk, and other data are composed of a DVD or a hard disk. It consists of a storage medium and a drive,
You may make it use those storage media as a drive device.

【0033】エージェントデータ30には、エージェン
トプログラム301、シナリオデータファイル302、
音声データ303、学習項目データ304、音声データ
で構成される応答データ305、エージェントの容姿や
行動を画像表示するための画像データ306、運転者情
報307、患者情報308、その他のエージェントによ
る処理に必要な各種のデータが格納されている。
The agent data 30 includes an agent program 301, a scenario data file 302,
Voice data 303, learning item data 304, response data 305 composed of voice data, image data 306 for displaying the appearance and behavior of the agent, driver information 307, patient information 308, and other processing required by the agent Various types of data are stored.

【0034】エージェントプログラム301には、エー
ジェント機能を実現するためのエージェント処理プログ
ラムが格納されている。例えば、各シナリオの起動条件
を満たしたか否かを判断する条件判断処理、条件判断処
理で起動条件を満たすと判断した場合に、当該起動条件
に対応するシナリオを起動し、そのシナリオデータに従
って前記エージェントに行為をさせるシナリオ実行処
理、その他の各種処理を実行する処理プログラムが格納
されている。
The agent program 301 stores an agent processing program for realizing the agent function. For example, when it is determined in the condition determination processing that determines whether or not the activation condition of each scenario is satisfied, the condition determination processing determines that the activation condition is satisfied, the scenario corresponding to the activation condition is activated, and the agent is executed according to the scenario data. A process program for executing a scenario execution process that causes an action and various other processes is stored.

【0035】学習項目データ304及び応答データ30
5は、運転者の運転操作や応答によってエージェントが
学習した結果を格納するデータである。従って、学習項
目データ304と応答データ305は、各運転者毎にそ
のデータが格納・更新(学習)されるようになってい
る。学習項目データ304には、例えば、イグニッショ
ンした通算回数や1日のオン回数、前5回の燃料給油時
の燃料残量のデータ等のエージェントの学習対象となる
項目が格納される。この学習項目データ304に格納さ
れた学習内容に従って、例えば、イグニッションオン回
数に応じてエージェント出現時の挨拶内容が変化した
り、燃料残量が前5回の燃料残量の平均値以下になった
場合に、エージェントが給油の提案をする。応答データ
305には、エージェントの行為に対するユーザの応答
の履歴が所定のシナリオ毎に格納される。応答データ3
05には、応答日時と応答内容が、各応答項目毎に所定
回数分格納される。応答内容としては、無視された、拒
絶された、受容(容認)された、の各場合が音声認識や
入力装置22の入力結果から判断され、格納される。
Learning item data 304 and response data 30
5 is data that stores the result learned by the agent according to the driving operation and response of the driver. Therefore, the learning item data 304 and the response data 305 are stored / updated (learned) for each driver. The learning item data 304 stores, for example, items to be learned by the agent, such as the total number of ignitions, the number of times of turning on per day, and the data of the remaining fuel amount at the time of refueling the previous five times. According to the learning content stored in the learning item data 304, for example, the greeting content at the time of appearance of the agent changes according to the number of times the ignition is turned on, or the fuel remaining amount becomes less than or equal to the average value of the fuel remaining amounts of the previous five times. In some cases, the agent makes a refueling proposal. The response data 305 stores a history of user responses to agent actions for each predetermined scenario. Response data 3
In 05, response date and time and response content are stored a predetermined number of times for each response item. As the content of the response, each case of ignored, rejected, accepted (accepted) is judged from the voice recognition and the input result of the input device 22 and stored.

【0036】シナリオデータファイル302には、各状
況、場面におけるエージェントの行為が規定されたシナ
リオのデータが格納されており、本実施形態の緊急通報
時に起動される救急質問シナリオも格納されている。本
実施形態におけるシナリオデータファイル302はDV
Dに格納されている。図3は、シナリオデータファイル
302のデータ構造とデータ内容を概念的に表したもの
である。シナリオデータファイル302は、各シーンを
規定する複数のシナリオデータがまとまって1つのファ
イルを構成している。シナリオデータファイル302に
は、ファイルヘッダ、シナリオ管理テーブル、自動起動
条件テーブル、手動起動可能シナリオ一覧、各シナリオ
データ1〜n、及び追加リソースデータから構成されて
いる。
The scenario data file 302 stores the data of the scenario in which the action of the agent in each situation and scene is defined, and also the emergency question scenario activated at the time of the emergency call of this embodiment. The scenario data file 302 in this embodiment is DV
It is stored in D. FIG. 3 conceptually shows the data structure and data contents of the scenario data file 302. In the scenario data file 302, a plurality of scenario data defining each scene are collected to form one file. The scenario data file 302 includes a file header, a scenario management table, an automatic start condition table, a list of manually startable scenarios, each scenario data 1 to n, and additional resource data.

【0037】ファイルヘッダは、シナリオデータファイ
ルのヘッダで、ファイルに関する情報が格納されてい
る。シナリオ管理テーブルは、シナリオデータファイル
に収録されているシナリオデータを管理するためのデー
タ、例えば、各シナリオデータを実行する場合の優先順
位等のデータが格納されている。
The file header is a header of the scenario data file and stores information about the file. The scenario management table stores data for managing the scenario data recorded in the scenario data file, for example, data such as a priority order when executing each scenario data.

【0038】自動起動条件テーブルは、シナリオデータ
ファイルに収録されているシナリオデータを自動で起動
する条件データが各シナリオデータ毎に規定され格納さ
れている。自動起動条件として、例えば、特定地点Aか
ら所定距離の地点に到達した場合に実行する特定シナリ
オについての特定地点と距離データや、起動時にエージ
ェントが挨拶するシナリオを実行するための条件として
のイグニッションオン、起動してから所定時間経過等の
各種自動起動条件が格納されている。また、自動起動を
禁止する自動起動禁止条件として、例えば、(A)手動
起動を優先する、(B)別のシナリオを実行中は自動起
動しない、(C)例えば30分以内に実行したことがあ
るシナリオは起動しない、(D)音楽を聞いている場合
は起動しない、(E)カーブを右左折中(ステアリング
操作中)には起動しない、(F)急減速中もしくは急加
速中は起動しない、(G)同乗者と会話しているときは
起動しない、(H)ナビゲーション装置、オーディオ装
置、エアコン装置、シフトレバ、サイドブレーキ、ワイ
パー、方向指示器等の各種機器の操作中は起動しない、
(I)オーディオの使用中は起動しない(音楽や放送を
聞いている障害とならないための条件:オーディオがオ
ンでないこと)、(J)ナビゲーション処理部10によ
る走行経路の案内ガイダンス中は起動しない等の自動起
動禁止条件についても格納されている。但し、これらの
自動起動禁止条件を満たす場合であっても、本実施形態
による緊急通報時の救急質問シナリオ等は自動起動する
ように、優先順位がシナリオ管理テーブルで規定されて
いる。この自動起動禁止条件は、各シナリオに共通して
適用される条件と、個別のシナリオに適用される条件と
がある。
In the automatic start condition table, condition data for automatically starting the scenario data recorded in the scenario data file is defined and stored for each scenario data. As the automatic start condition, for example, a specific point and distance data regarding a specific scenario to be executed when a point at a predetermined distance from the specific point A, or an ignition on condition for executing a scenario in which an agent greets at startup is turned on. Stores various automatic start conditions such as a lapse of a predetermined time after starting. Further, as the automatic start prohibition condition for prohibiting the automatic start, for example, (A) manual start is prioritized, (B) automatic start is not performed while another scenario is being executed, (C) execution is performed within 30 minutes, for example. Some scenarios do not start, (D) do not start when listening to music, (E) do not start while turning the curve to the left or right (during steering operation), (F) do not start during sudden deceleration or sudden acceleration , (G) does not start while talking with a passenger, (H) does not start while operating various devices such as navigation device, audio device, air conditioner device, shift lever, side brake, wiper, turn signal,
(I) Do not start while using audio (condition for not disturbing listening to music or broadcasting: audio is not on), (J) Do not start during guidance guidance of the travel route by the navigation processing unit 10, etc. The automatic start prohibition condition of is also stored. However, the priority order is defined in the scenario management table so that the emergency question scenario or the like at the time of emergency call according to the present embodiment is automatically activated even when these automatic activation prohibition conditions are satisfied. The automatic start prohibition condition includes a condition commonly applied to each scenario and a condition applied to an individual scenario.

【0039】本実施形態における、運転者情報を収集す
るためにエージェントが質問をする場合の質問シナリオ
を起動する条件としては、運転者の負荷状態が低負荷状
態であると判断できるための条件として、以下の条件や
その他の条件が規定されている。 (a)1時間以内に質問をするシナリオを実行していな
い(頻繁に質問しすぎないようにするための条件) (b)イグニッションオンから15分以上経過している
(運転し始めた直後ではない) (c)車内に会話がない(マイク26からの集音によ
る) (d)直線道路(ナビゲーションデータ31と現在位置
から検出)で、速度変化が所定時間無い。 (e)信号待ちをしている(ナビゲーションデータ3
1、現在位置、車速から判定) これらの質問起動条件は、起動のための必須条件かいず
れか1つを満たせばよい条件かなどについて決められて
いる。例えば、上記(a)〜(e)の条件に限ると、
(a)〜(c)を全て満たし、(d)か(e)を満たし
た場合に質問シナリオの起動条件がみたされ、質問シナ
リオが起動される。この場合でも、上記自動起動禁止条
件(A)〜が該当する場合には、質問シナリオの起動は
禁止される。なお、質問起動条件を含め、自動起動条件
に基づく起動判定ルーチンは、例えば、1秒毎にポーリ
ング処理されるようになっている。
In this embodiment, the condition for activating the question scenario when the agent asks a question in order to collect the driver information is a condition for judging that the driver's load condition is a low load condition. The following conditions and other conditions are specified. (A) Do not execute a scenario for asking questions within one hour (conditions for not asking too many questions) (b) 15 minutes or more have passed since ignition was turned on (immediately after starting driving (C) There is no conversation in the vehicle (by collecting sound from the microphone 26) (d) There is no speed change for a predetermined time on a straight road (detected from the navigation data 31 and the current position). (E) Waiting for a signal (navigation data 3
1. Judgment from current position and vehicle speed) These question activation conditions are determined as to whether any one of the indispensable conditions for activation should be satisfied. For example, limited to the above conditions (a) to (e),
When all of (a) to (c) are satisfied and (d) or (e) is satisfied, the activation condition of the question scenario is satisfied, and the question scenario is activated. Even in this case, if the automatic activation prohibition conditions (A) to are satisfied, activation of the question scenario is prohibited. The start determination routine based on the automatic start condition including the question start condition is, for example, polled every one second.

【0040】上記した各条件のうち、条件(E)、
(F)、(H)、(J)、(d)、(e)により運転操
作に対する負荷が判断され、条件(C)、(D)、
(G)、(I)、(J)、(a)、(b)、(c)、に
より運転者が感じる煩わしさの程度が判断される。
Of the above conditions, condition (E),
(F), (H), (J), (d), (e) determines the load on the driving operation, and conditions (C), (D),
From (G), (I), (J), (a), (b) and (c), the degree of annoyance felt by the driver is determined.

【0041】手動起動可能シナリオ一覧は、シナリオデ
ータファイルに収録されているシナリオデータの中の手
動で起動することが可能なシナリオの一覧データが格納
されている。追加リソースデータは、記憶装置の拡張用
としてシナリオデータに付加するための音声データや画
像データ等が格納されている。
The manually-startable scenario list stores list data of scenarios that can be manually started in the scenario data recorded in the scenario data file. The additional resource data stores audio data, image data, etc. to be added to the scenario data for expanding the storage device.

【0042】各シナリオデータ1〜nは、シナリオヘッ
ダ、音声認識辞書DB、画像データ管理テーブル、シー
ン管理テーブル、各シーンデータ1〜m、実画像データ
で構成されている。各シナリオは複数のシーンで構成さ
れる。シナリオヘッダは、シナリオデータのヘッダセク
ションで、シナリオに関する情報が格納されている。音
声認識辞書DBは、シナリオで使用する音声認識辞書の
DBで、音声認識辞書データが格納されている。画像デ
ータ管理テーブルは、シナリオで使用する画像を指定す
るためのデータが格納されている。エージェントの画像
は画像データ306に格納され、シナリオに固有の画像
はシナリオデータ末尾の実画像データに格納されてい
る。シーン管理テーブルには、シナリオに収録されてい
るシーンデータを管理するためのデータが格納されてい
る。
Each scenario data 1 to n is composed of a scenario header, a voice recognition dictionary DB, an image data management table, a scene management table, each scene data 1 to m, and actual image data. Each scenario consists of multiple scenes. The scenario header is a header section of scenario data and stores information about scenarios. The voice recognition dictionary DB is a DB of a voice recognition dictionary used in a scenario and stores voice recognition dictionary data. The image data management table stores data for designating an image used in a scenario. The image of the agent is stored in the image data 306, and the image unique to the scenario is stored in the actual image data at the end of the scenario data. The scene management table stores data for managing the scene data recorded in the scenario.

【0043】各シーンデータ1〜mは、シーンヘッダ、
画面構成データ、キャラクタ動作指示データ、各種処理
指示データ、シーン分岐テーブルから構成されている。
シーンヘッダは、シーンデータのヘッダセクションで、
シーンに関する情報とシーンデータに属する各データセ
クションを管理するデータが格納されている。画面構成
データは、当該シーンで表示する画面構成を規定するセ
クションで、表示装置27上に表示する画面構成の各パ
ーツのデータが格納されている。キャラクタ動作指示デ
ータは、当該シーンにおけるキャラクタの動作指示と話
す内容に関する指示データ(使用する音声データ303
を指示するデータ)が格納されている。各種処理指示デ
ータは、当該シーンで他モジュール(例えばナビ)に処
理指示依頼を行うデータが格納されている。シーン分岐
テーブルは、当該シーンから次のシーンへの分岐情報が
格納されているセクションで、あるシーンにおいてイベ
ントを受け取ったときの次のシーンを規定するデータが
格納されている。
Each scene data 1 to m is a scene header,
It is composed of screen configuration data, character action instruction data, various processing instruction data, and a scene branch table.
The scene header is the header section of the scene data,
Information about a scene and data for managing each data section belonging to the scene data are stored. The screen configuration data is a section that defines the screen configuration displayed in the scene, and stores data of each part of the screen configuration displayed on the display device 27. The character action instruction data is instruction data regarding the action instruction of the character in the scene and the content to be spoken (the voice data 303 to be used).
Is stored. As the various processing instruction data, data for requesting a processing instruction to another module (for example, navigation) in the scene is stored. The scene branch table is a section that stores branch information from the scene to the next scene, and stores data that defines the next scene when an event is received in the certain scene.

【0044】図4は、シーンデータに基づいて表示装置
27に表示されるシーン画面の一例を表したものであ
る。この図4に示されるシーン画面は、未入力の運転者
情報である趣味嗜好(食事)を取得するために運転者に
質問をする質問シナリオのシーン画面(シーン番号0x
0001)である。シーン画面は、図4に示されるよう
に、エージェントの画像(静止画、動画)が表示される
エージェント表示画面51、エージェントの音声に対応
した文字が表示される吹き出し画面52、タイトル画面
53、及び、各シーン固有の画像データ(実画像データ
の画像や回答選択ボタン等)が表示されるシーン表示画
面54から構成されている。
FIG. 4 shows an example of a scene screen displayed on the display device 27 based on the scene data. The scene screen shown in FIG. 4 is a scene screen (question number 0x) of a question scenario in which a driver is asked a question in order to acquire a hobby preference (meal) which is uninput driver information.
0001). As shown in FIG. 4, the scene screen includes an agent display screen 51 on which an agent image (still image, moving image) is displayed, a balloon screen 52 on which characters corresponding to the agent's voice are displayed, a title screen 53, and , A scene display screen 54 on which image data specific to each scene (image of actual image data, answer selection button, etc.) is displayed.

【0045】エージェント処理部11は、趣味嗜好(食
事)の質問シナリオを起動すると、最初にシーンヘッダ
で指定されるシーンの画面構成データをシナリオデータ
ファイル302から読み出してシーン画面を表示装置2
7に表示すると共に、質問文に相当する質問音声を音声
出力装置25から出力するようになっている。図4
(a)の質問シナリオのシーン画面では、吹き出し画面
52に「どのジャンルの食事が好きですか?」と表示さ
れる。なお、吹き出し画面52の表示に対応する音声を
音声出力装置25から出力されるようになっている。ま
た、図4(a)のシーン画面におけるシーン表示画面5
4には、4つの回答選択ボタン54aの「和食」、「洋
食」、「中華」、「特に無し」が表示されている。
When the hobby / preference (meal) question scenario is activated, the agent processing section 11 first reads the screen configuration data of the scene designated by the scene header from the scenario data file 302 and displays the scene screen on the display device 2
7, the question voice corresponding to the question sentence is output from the voice output device 25. Figure 4
In the scene screen of the question scenario of (a), “Which genre of meal do you like?” Is displayed on the balloon screen 52. The voice output device 25 outputs a voice corresponding to the display of the balloon screen 52. In addition, the scene display screen 5 in the scene screen of FIG.
In 4, the four answer selection buttons 54a of "Japanese food", "Western food", "Chinese food", and "None" are displayed.

【0046】この運転者に対する質問のシーンには、シ
ーン管理テーブルに従って、運転者の回答に応じた複数
のシーンが分岐して続くようになっている。すなわち、
図4(a)のシーン画面(シーン番号0x0001)で
運転者が回答選択ボタン「和食」を選択すると、エージ
ェント処理部11は、回答に応じたシーン画面(b)に
分岐して表示される。このシーン画面(b)では、選択
された「和食」がタイトル画面53に表示されると共
に、吹き出し画面には「和食が好きなのですね。」と表
示され、なお、分岐後の和食のシーン画面では、和食の
実画像がシナリオデータから読み出され、シーン表示画
面54に表示される。そしてエージェント処理部11に
より、運転者の回答、例えば、「和食」が運転者情報と
して、運転者情報307の趣味嗜好データに格納される
ようになっている。本実施形態の救急質問シナリオの場
合には、各シーン毎に患者の状態等に関する救急質問が
され、その質問に対する各回答が患者情報310に格納
されるようになっている。このようにして、シナリオに
規定された各シーン画像と音声が最後のシーンまで連続
的に順次表示、出力されることで、1シナリオにおける
エージェントの行為が完了することになる。
A plurality of scenes corresponding to the driver's answer branch off and follow the scene of the question to the driver according to the scene management table. That is,
When the driver selects the answer selection button “Japanese food” on the scene screen (scene number 0x0001) of FIG. 4A, the agent processing unit 11 is branched and displayed on the scene screen (b) corresponding to the answer. In this scene screen (b), the selected "Japanese food" is displayed on the title screen 53, and "I like Japanese food" is displayed on the balloon screen. In the scene screen of Japanese food after branching, An actual image of Japanese food is read from the scenario data and displayed on the scene display screen 54. Then, the agent processing unit 11 stores the driver's answer, for example, “Japanese food” as driver information in the hobby / preference data of the driver information 307. In the case of the emergency question scenario of the present embodiment, an emergency question regarding the patient's condition or the like is asked for each scene, and each answer to the question is stored in the patient information 310. In this way, each scene image and sound specified in the scenario are continuously displayed and output until the last scene, whereby the action of the agent in one scenario is completed.

【0047】記憶装置29(図1)の音声データ303
には、選択されたシナリオのシーンに従って、エージェ
ントが運転者と会話等を行うための音声データが格納さ
れている。エージェントによる会話の音声データは、本
実施形態による、エージェントの救急質問の音声データ
も格納されている。音声データ303の各データは、シ
ーンデータのキャラクタ動作指示データにより指定され
る。
Voice data 303 in the storage device 29 (FIG. 1)
Stores voice data for the agent to have a conversation with the driver according to the scene of the selected scenario. As the voice data of the conversation by the agent, the voice data of the emergency question of the agent according to the present embodiment is also stored. Each data of the voice data 303 is designated by the character motion instruction data of the scene data.

【0048】画像データ306には、シナリオにより指
定された各シーンで使用されるエージェントの状態を表
す静止画像や、動作を表す動画(アニメーション)等が
格納されている。例えば、エージェントがお辞儀をする
動画、うなずく動画、右手を挙げる動画等が格納されて
いる。これらの各静止画像や動画には画像コードが付け
られている。画像データ306に格納されるエージェン
トの容姿としては、人間(男性、女性)的な容姿である
必要はない。例えば、非人間型のエージェントとして、
タコや、ひよこ、犬、猫、カエル、ネズミ等の動物自体
の容姿や、人間的に図案化(イラスト化)した動物の容
姿であってもよく、更にロボット的な容姿や、フロアス
タンドや木などの容姿や、特定のキャラクタの容姿等で
あってもよい。またエージェントの年齢としても一定で
ある必要がなく、エージェントの学習機能として、最初
は子供の容姿とし、時間の経過と共に成長していき容姿
が変化していく(大人の容姿に変化し、更に老人の容姿
に変化していく)ようにしてもよい。画像データ306
には、これらの各種エージェントの容姿の画像が格納さ
れており、運転者の好みによって入力装置22等から選
択することができるようになっている。
The image data 306 stores a still image showing the state of the agent used in each scene designated by the scenario, a moving image (animation) showing the action, and the like. For example, a video in which the agent bows, a nod video, a video in which the right hand is raised, and the like are stored. An image code is attached to each of these still images and moving images. The appearance of the agent stored in the image data 306 does not have to be a human (male, female) appearance. For example, as a non-human agent,
It may be the appearance of animals such as octopus, chick, dog, cat, frog, rat, etc., or the appearance of animals that are humanly designed (illustrated), and even robotic appearance, floor stands, trees, etc. It may be the appearance such as or the appearance of a specific character. In addition, the age of the agent does not have to be constant, and as the learning function of the agent, the appearance of the child is initially set, and the appearance grows and changes over time (the appearance of an adult changes, and It will change to your appearance). Image data 306
Stores the images of the appearances of these various agents, and can be selected from the input device 22 or the like according to the driver's preference.

【0049】運転者情報307は、運転者に関する情報
で、エージェントによる行為をより運転者の希望や趣味
嗜好に合ったものとするために利用される。図5は運転
者情報307の構成を概念的に表したものである。この
図5に例示されるように、運転者情報307には、運転
者のID(識別情報)、名前、年齢、性別、結婚(既婚
か未婚か)、子供(有無、人数、年齢)からなる運転者
基礎データと、趣味嗜好データと、図示しない健康管理
データが格納されるようになっている。趣味嗜好データ
としては、スポーツ、飲食、旅行等の大項目と、これら
大項目の概念に含まれる詳細項目とから構成されてい
る。例えば、大項目スポーツには、好きなサッカーチー
ム、好きな野球の球団、ゴルフに対する興味等の詳細な
データが格納されるようになっている。健康管理データ
には、健康管理上のデータで、持病がある場合にその病
名や症状、かかりつけの病院名等が格納される。本実施
形態では、これらの各運転者情報には優先順位が決めら
れており、エージェントは、未だ格納されていない運転
者情報のうち優先順位が高い順に運転者に質問をするよ
うになっている。運転者基礎データは、趣味嗜好データ
よりも優先順位が高くなっている。
The driver information 307 is information relating to the driver and is used to make the action by the agent more suitable to the driver's wishes and hobbies. FIG. 5 conceptually shows the configuration of the driver information 307. As illustrated in FIG. 5, the driver information 307 includes driver ID (identification information), name, age, sex, marriage (married or unmarried), and child (presence / absence, number, age). Basic driver data, hobby and preference data, and health management data (not shown) are stored. The hobby and preference data is composed of major items such as sports, eating and drinking, and travel, and detailed items included in the concept of these major items. For example, the large-item sport stores detailed data such as a favorite soccer team, a favorite baseball team, and interest in golf. The health management data is data for health management, and if there is a chronic disease, the name of the disease, the symptom, the name of the family hospital, etc. are stored. In the present embodiment, priorities are determined for each of these pieces of driver information, and the agent asks the driver questions in descending order of priority among the driver information that has not yet been stored. . The driver basic data has a higher priority than the hobby and preference data.

【0050】運転者情報307は、その車両を運転する
運転者が複数存在する場合には、各運転者毎に作成され
る。そして、運転者を特定して該当する運転者情報が使
用される。運転者の特定は、例えば、イグニッションオ
ン時に、全運転者に共通するエージェントが登場して運
転者の問い合わせをし、その回答から特定する。運転者
の問い合わせは、入力済み運転者の氏名とその他を選択
するボタンを表示装置に表示し、選択を促す音声を出力
する。その他が選択された場合には新規ユーザ登録画面
を表示する。なお、体重、運転席(シート)の固定位置
(前後位置、背もたれの角度)、ルームミラーの角度、
視線の高さ、顔写真をデジタル化したデータ、音声の特
徴パラメータ等の運転者固有の情報を少なくとも1つ運
転者情報307に格納しておき、これらの情報から運転
者を特定するようにしてもよい。
The driver information 307 is created for each driver when there are a plurality of drivers who drive the vehicle. Then, the driver is specified and the corresponding driver information is used. The driver is specified by, for example, when the ignition is turned on, an agent common to all the drivers appears, inquires of the driver, and specifies from the answer. For the driver's inquiry, a button for selecting the name of the driver who has already entered and other information is displayed on the display device, and a voice prompting the selection is output. If other is selected, the new user registration screen is displayed. In addition, weight, fixed position of driver's seat (front and rear position, angle of backrest), angle of rearview mirror,
At least one driver-specific information such as the height of the line of sight, the data obtained by digitizing the face photograph, and the characteristic parameters of the voice is stored in the driver information 307, and the driver is specified from these information. Good.

【0051】患者情報308には、緊急通報時の救急質
問シナリオに従ってエージェントが患者に質問した内容
に対する患者の回答が格納される。この患者情報308
に格納された患者情報は、緊急通報装置21、又は通信
制御部24を介して緊急通報をした救急機関に送信され
ると共に、救急隊員が到着した後の告知情報となる。
The patient information 308 stores the patient's answer to the contents of the agent's question to the patient according to the emergency question scenario at the time of emergency call. This patient information 308
The patient information stored in (1) is transmitted to the emergency agency that has made an emergency call via the emergency notification device 21 or the communication control unit 24, and becomes the notification information after the emergency personnel arrive.

【0052】ナビゲーションデータ31には、経路案内
等で使用される各種データファイルとして、通信地域デ
ータファイル、描画地図データファイル、交差点データ
ファイル、ノードデータファイル、道路データファイ
ル、探索データファイル、写真データファイル等の各種
データが格納されている。
The navigation data 31 is a communication area data file, a drawing map data file, an intersection data file, a node data file, a road data file, a search data file, and a photo data file as various data files used for route guidance and the like. Various data such as is stored.

【0053】通信地域データファイルには、通信制御部
24に接続され又は無接続で車内において使用される携
帯電話が、車内から通信できる地域を表示装置27に表
示したり、その通信できる地域を経路探索の際に使用す
るための通信地域データが、携帯電話のタイプ別に格納
されている。描画地図データファイルには、表示装置2
7に描画される描画地図データが格納されている。この
描画地図データは、階層化された地図、例えば最上位層
から日本、関東地方、東京、神田といった階層ごとの地
図データが格納されている。各階層の地図データは、そ
れぞれ地図コードが付されている。
In the communication area data file, a mobile phone which is connected to the communication control unit 24 or is not connected and is used in the car displays the communication area on the display device 27 or routes the communication area. Communication area data to be used for searching is stored for each type of mobile phone. The drawing map data file contains the display device 2
7 stores drawing map data to be drawn. This drawing map data stores a hierarchical map, for example, map data for each layer such as Japan, Kanto region, Tokyo, Kanda from the highest layer. A map code is attached to the map data of each layer.

【0054】交差点データファイルには、各交差点を特
定する交差点番号、交差点名、交差点の座標(緯度と経
度)、その交差点が始点や終点になっている道路の番
号、および信号の有無などが交差点データとして格納さ
れている。ノードデータファイルには、各道路における
各地点の座標を指定する緯度、経度などの情報からなる
ノードデータが格納されている。すなわち、このノード
データは、道路上の一地点に関するデータであり、ノー
ド間を接続するものをアークと呼ぶと、複数のノード列
のそれぞれの間をアークで接続することによって道路が
表現される。道路データファイルには、各道路を特定す
る道路番号、始点や終点となる交差点番号、同じ始点や
終点を持つ道路の道路番号、道路の太さ、進入禁止等の
禁止情報、後述の写真データの写真番号などが格納され
ている。交差点データファイル、ノードデータファイ
ル、道路データファイルにそれぞれ格納された交差点デ
ータ、ノードデータ、道路データからなる道路網データ
は、経路探索に使用される。
In the intersection data file, the intersection number for identifying each intersection, the name of the intersection, the coordinates (latitude and longitude) of the intersection, the number of the road where the intersection is the starting point and the ending point, and the presence or absence of a signal are included. It is stored as data. The node data file stores node data including information such as latitude and longitude that specify the coordinates of each point on each road. That is, this node data is data relating to one point on the road, and when connecting the nodes is called an arc, the road is represented by connecting each of the plurality of node strings by an arc. In the road data file, the road number that identifies each road, the intersection number that is the start point and the end point, the road number of the road that has the same start point and the end point, the thickness of the road, prohibition information such as entry prohibition, The photo number etc. are stored. Road network data composed of intersection data, node data, and road data respectively stored in the intersection data file, the node data file, and the road data file is used for route search.

【0055】探索データファイルには、経路探索により
生成された経路を構成する交差点列データ、ノード列デ
ータなどが格納されている。交差点列データは、交差点
名、交差点番号、その交差点の特徴的風景を写した写真
番号、曲がり角、距離等の情報からなる。また、ノード
列データは、そのノードの位置を表す東経、北緯などの
情報からなる。写真データファイルには、各交差点や直
進中に見える特徴的な風景等を撮影した写真が、その写
真番号と対応してデジタル、アナログ、またはネガフィ
ルムの形式で格納されている。
The search data file stores intersection sequence data, node sequence data, etc., which form the route generated by the route search. The intersection row data is composed of information such as an intersection name, an intersection number, a photograph number showing a characteristic landscape of the intersection, a corner, and a distance. In addition, the node string data includes information such as east longitude and north latitude indicating the position of the node. The photograph data file stores photographs of each intersection and characteristic landscapes that can be seen while going straight ahead in a digital, analog, or negative film format corresponding to the photograph number.

【0056】次にこのように構成されたエージェント装
置の動作について説明する。図6は、緊急通報から救急
隊員エージェントを起動するまでの処理を表したフロー
チャートである。エージェント処理部11は、車両等の
状態が各シナリオの自動起動条件を満たすか否かを監視
している。そして、エージェント処理部11は、緊急通
報キーが選択された場合、緊急事態検出装置43のハザ
ードスイッチのオン状態が所定時間t以上継続した場
合、及び、衝突センサ432から衝突検出信号が出力さ
れた場合に、緊急通報の必要性ありと判断して、緊急通
報装置21を介して救急機関(119番)に通報する
(ステップ11)。
Next, the operation of the agent device thus configured will be described. FIG. 6 is a flowchart showing the processing from the emergency call to the activation of the rescue agent. The agent processing unit 11 monitors whether the state of the vehicle or the like satisfies the automatic start condition of each scenario. Then, the agent processing unit 11 outputs a collision detection signal from the collision sensor 432, when the emergency call key is selected, when the hazard switch of the emergency detection device 43 remains on for a predetermined time t or longer. In this case, it is determined that an emergency call is necessary and the emergency agency (119) is notified via the emergency call device 21 (step 11).

【0057】次いでエージェント処理部11は、車両が
安全な場所にあるか否かを判断する(ステップ12)。
本実施形態では、緊急通報を行った後に一定時間車両が
移動しなければ(一定時間車速=0km/hならば)、
エージェント処理部11は車両が安全な場所にあると判
断し(ステップ12;Y)、救急隊員エージェントを起
動させて(ステップ14)処理を終了する。一方、車両
が安全な場所にあると判断できない場合(ステップ1
2;Y)、運転者により車両が移動されるのをまち(ス
テップ13)、ステップ12に戻って安全性についての
判断を継続する。
Next, the agent processing section 11 determines whether or not the vehicle is in a safe place (step 12).
In the present embodiment, if the vehicle does not move for a certain period of time after making an emergency call (if the certain period of vehicle speed = 0 km / h),
The agent processing unit 11 determines that the vehicle is in a safe place (step 12; Y), activates the rescue agent (step 14), and ends the process. On the other hand, if it cannot be determined that the vehicle is in a safe place (step 1
2; Y), waiting for the vehicle to be moved by the driver (step 13), returning to step 12 to continue the determination on safety.

【0058】図7は、救急隊員エージェントが行う救急
質問シナリオの流れを表したフローチャートである。救
急質問シナリオが実行されると、まず最初のシーンで緊
急隊員エージェントが表示装置27画面上に登場して自
己紹介をする(ステップ21)。そして、次のシーンに
移行し、救急質問による患者の情報収集を行う(ステッ
プ22〜26)。救急質問による質問項目としては、例
えば、名前、年齢、性別、住所、行きつけの病院、症
状、血液型などが対象になっており、これら各質問項目
に対応したシーンが規定されている。
FIG. 7 is a flow chart showing the flow of the emergency inquiry scenario performed by the rescue agent. When the emergency question scenario is executed, in the first scene, the emergency agent appears on the screen of the display device 27 and introduces himself (step 21). Then, the process shifts to the next scene, and patient information is collected by an emergency question (steps 22 to 26). As the question items for the emergency question, for example, the name, age, sex, address, hospital of the visit, symptoms, blood type, etc. are targeted, and the scenes corresponding to these question items are defined.

【0059】エージェント処理部11は、救急質問によ
って収集すべき情報が運転者情報307に格納されてい
るか否かを確認する(ステップ22)。質問項目の回答
が運転者情報307に格納されている場合(ステップ2
2;Y)、救急隊員エージェントは、搭乗者が「はい」
(肯定)又は「いいえ」(否定)で回答できる形式の質
問をし、確認する。例えば、運転者情報307に住所情
報として”東京都新宿区西新宿8−?−x”が格納され
ている場合、救急隊員エージェントは、「○○さんの住
所は東京都新宿区西新宿8−?−xですか?」というよ
うに、はい、いいえ、で回答できる形式の質問をする。
このように、運転者情報307に格納されている情報に
ついて、「はい」「いいえ」で回答できる確認形式の質
問をするので、患者の負担を少なくすることができる。
The agent processing section 11 confirms whether or not the information to be collected by the emergency question is stored in the driver information 307 (step 22). If the answers to the question items are stored in the driver information 307 (step 2
2; Y), the emergency agent has the passenger "Yes"
Ask and confirm a question that can be answered (affirmative) or "no" (negative). For example, if the driver information 307 stores "8-?-X Nishi-Shinjuku, Shinjuku-ku, Tokyo" as the address information, the ambulance agent will ask, "The address of Mr. XX is 8-Shinjuku-ku, Shinjuku-ku, Tokyo. ? -X? "And ask questions in a format that can be answered with yes or no.
In this way, the information stored in the driver information 307 is queried in a confirmation format that can be answered with “yes” and “no”, so the burden on the patient can be reduced.

【0060】一方、収集すべき情報が運転者情報307
に格納されていない場合(ステップ22;N)、及び、
ステップ23における確認で「いいえ」等の否定回答が
された場合(ステップ23;いいえ)、合救急隊員エー
ジェントは該当質問項目に対応する救急質問をする(ス
テップ24)。例えば、質問項目が住所情報であれば
「○○さんの住所を教えてください」といった救急質問
を行う。これらの質問項目に対する確認(ステップ2
3)や質問(ステップ24)は、救急隊員の音声出力
と、シーン画面の吹き出し画面52に文章表示で出力さ
れる。なお、緊急隊員エージェントによる確認(ステッ
プ23)に対して一定時間回答がない場合にはステップ
24の質問をし、ステップ24の質問に対して一定時間
回答が無い場合にはステップ25をとばしてステップ2
6に移行する。
On the other hand, the information to be collected is the driver information 307.
Is not stored in (step 22; N), and
When a negative answer such as "No" is given in the confirmation in step 23 (step 23; No), the combined emergency agent asks the emergency question corresponding to the relevant question item (step 24). For example, if the question item is address information, an emergency question such as "Please tell Mr. XX's address" is asked. Confirmation of these question items (Step 2
3) and the question (step 24) are output by voice output of the emergency personnel and text display on the balloon screen 52 of the scene screen. If the confirmation by the emergency agent (step 23) is not answered for a certain period of time, the question in step 24 is asked. If the question in step 24 is not answered for a certain period of time, step 25 is skipped. Two
Go to 6.

【0061】そして、質問項目に対する確認内容、及び
救急質問に対する回答を記録する(ステップ25)。こ
の回答の記録は、主として音声データの録音により行わ
れる。そして、到着した救急隊員に告知する場合には、
エージェントの音声と、回答の録音音声とをつないで出
力する。例えば、「○○さんの住所は」をエージェント
の合成音声で出力し、記憶された情報「東京都渋谷区
…」を出力し、音声「です」を出力する。
Then, the confirmation contents for the question item and the answer to the emergency question are recorded (step 25). The recording of this answer is mainly performed by recording audio data. And when notifying the emergency personnel who arrived,
The voice of the agent and the recorded voice of the answer are connected and output. For example, “Mr. XX's address is” is output as a synthetic voice of the agent, the stored information “Shibuya-ku, Tokyo ...” is output, and the voice “is” is output.

【0062】次に、エージェント処理部11は、緊急質
問項目の全てについての質問が終了したか判断し(ステ
ップ26)、終了していなければステップ22に戻って
次の質問項目の救急質問により患者情報の収集を継続す
る。一方、全ての質問が終了すると(ステップ26;
Y)、エージェント処理部11は、収集した患者情報
を、緊急通報した救急機関に緊急通報装置21、又は通
信制御部24を介して送信(ステップ27)した後に処
理を終了する。
Next, the agent processing section 11 judges whether or not the questions about all the emergency question items have been completed (step 26), and if not completed, the procedure returns to step 22 and the patient is asked by the emergency question of the next question item. Continue to collect information. On the other hand, when all the questions are completed (step 26;
Y), the agent processing unit 11 transmits the collected patient information to the emergency agency that made the emergency notification via the emergency notification device 21 or the communication control unit 24 (step 27), and then ends the processing.

【0063】図8は、患者情報を救急質問シナリオに従
って収集した後に起動する呼びかけシナリオのうちの1
つのシーン画面を表したものである。なお、この呼びか
けシナリオは、救急質問シナリオに組み込んでもよい。
すなわち、呼びかけシナリオの各シーンを、救急質問シ
ナリオの最後のシーンに続くシーンとしてもよい。図8
に示されるように、呼びかけシナリオでは、救急質問シ
ナリオによる患者情報の終了が完了した後も、救急隊員
エージェント51aが、患者の意識を保つ(覚醒状態を
維持させる)ために、音声出力装置25から呼びかけを
出力する。この呼びかけは、患者が意識を失うのを回避
することが目的なので、救急隊員エージェントの音声出
力が中心になるが、図8に例示するように、吹き出し画
面52にも呼びかけを文章でも表示する。そして、患者
の視覚による意識維持のために、救急隊員エージェント
51aを静止画ではなく、動画により患者の注意を引く
ような大きめの動作をする。
FIG. 8 shows one of the calling scenarios activated after the patient information is collected according to the emergency question scenario.
It shows one scene screen. The calling scenario may be incorporated in the emergency question scenario.
That is, each scene of the calling scenario may be a scene following the last scene of the emergency question scenario. Figure 8
In the calling scenario, the emergency response agent 51a uses the voice output device 25 to maintain the patient's consciousness (maintain the awake state) even after the completion of the patient information in the emergency question scenario, as shown in FIG. Output a call. This call is for the purpose of avoiding the patient's loss of consciousness, so the voice output of the ambulance agent becomes the center, but as shown in FIG. 8, the call is also displayed in text on the balloon screen 52. Then, in order to maintain the visual awareness of the patient, the rescue agent 51a is operated in a large size so as to draw the patient's attention not by a still image but by a moving image.

【0064】救急隊員エージェント51aが音声による
呼びかけに対して、患者からの返事を音声認識部142
で認識した場合には、呼びかけを連呼せずに、所定時間
(例えば、1分間)経過した後に次の呼びかけを行うよ
うにする。呼びかけは、患者の応答(返事)が無い場合
には同一の呼びかけ(図8の例では「○○さんしっかり
してください」)を連呼し、応答があった場合には「も
うすぐ救急車がきますよ。大丈夫ですか」等の別の呼び
かけを行う。この場合も吹き出し画面52の内容も呼び
かけの変更に対応して変更する。なお、音声認識部14
2により、同乗者等の第三者による呼びかけを認識した
場合には、救急隊員エージェントによる呼びかけは行わ
ない。
When the ambulance agent 51a makes a voice call, the voice recognition unit 142 receives a response from the patient.
When it is recognized in step 1, the next call is made after a predetermined time (for example, 1 minute) has passed without continuously calling the call. When there is no response (reply) from the patient, the same call (in the example of Fig. 8, "Please secure Mr. ○○") is called continuously, and when there is a response, "Ambulance will be coming soon. Is it okay? "And make another call. In this case also, the content of the balloon screen 52 is changed in response to the change in the call. The voice recognition unit 14
If a call from a third party such as a passenger is recognized according to 2, the call from the ambulance agent will not be made.

【0065】救急隊員エージェントによる呼びかけをし
ている間、エージェント処理部11は、緊急通報をして
からの時間を計測しており、ナビゲーションデータ31
による救急機関の所在地から車両までの走行距離を求
め、救急車両が到着するまでの予想時間を算出して、シ
ーン表示画面54に到着予想時間54dが表示される。
この到着予想時間を表示すると共に、到着予想時間によ
る呼びかけを行うことで、患者を勇気づけることができ
る。
During the call by the ambulance agent, the agent processing unit 11 measures the time after the emergency call, and the navigation data 31
The traveled distance from the location of the emergency engine to the vehicle is calculated, the estimated time until the emergency vehicle arrives is calculated, and the estimated arrival time 54d is displayed on the scene display screen 54.
By displaying the estimated arrival time and making a call based on the estimated arrival time, the patient can be encouraged.

【0066】呼びかけシナリオにおける全シーン画面に
は、シーン表示画面54に患者情報キー54が表示され
るようになっている。この患者情報キー54eが選択
(押下又は音声入力による)されると、エージェント処
理部11は、救急質問シナリオによって収集した患者情
報を出力する。
The patient information key 54 is displayed on the scene display screen 54 on all scene screens in the calling scenario. When the patient information key 54e is selected (pressed or input by voice), the agent processing unit 11 outputs the patient information collected by the emergency question scenario.

【0067】図9は、患者情報を出力する患者情報告知
シナリオによるシーン画面を表したものである。この患
者情報告知シナリオは、図8の患者情報キー54eが選
択された場合、及び、救急車のサイレン音を音声認識部
142で認識した場合に起動される。患者情報告知シナ
リオでは、図9に示されるように、エージェント処理部
11は、例えば救急隊員エージェント51aの音声でス
ピーカ25から、患者情報308に格納した患者情報の
内容を順次読み上げることで到着した救急隊員に告知す
る。このシーン画面では、図9に示されるように、エー
ジェント処理部11は、緊急隊員エージェントの音声内
容に対応する文字を吹き出し画面52に表示するととも
に、シーン表示画面54には、収集した全内容を画面表
示可能な数の範囲毎に順次表示する。シーン表示画面5
4fには、終了キー54gが表示されており、エージェ
ント処理部11は、救急隊員によって終了キー54gが
選択されるまで、収集した患者情報の音声告知と画面表
示告知を繰り返し行う。
FIG. 9 shows a scene screen according to a patient information notification scenario for outputting patient information. This patient information notification scenario is activated when the patient information key 54e in FIG. 8 is selected and when the siren sound of the ambulance is recognized by the voice recognition unit 142. In the patient information notification scenario, as shown in FIG. 9, the agent processing unit 11 arrives by reading the contents of the patient information stored in the patient information 308 sequentially from the speaker 25 with the voice of the rescue agent 51a, for example. Notify the members. In this scene screen, as shown in FIG. 9, the agent processing unit 11 displays characters corresponding to the voice content of the emergency agent on the balloon screen 52, and the scene display screen 54 displays all the collected contents. Sequential display is performed for each range that can be displayed on the screen. Scene display screen 5
An end key 54g is displayed on 4f, and the agent processing unit 11 repeatedly gives a voice notification of the collected patient information and a screen display notification until the end key 54g is selected by the rescue staff.

【0068】なお、エージェント処理部11で収集して
患者情報308に格納されている患者情報は、救急隊員
の要求操作により、記憶媒体駆動装置23を介してフロ
ッピーディスクやICカード等に複写できるようにして
もよい。
The patient information collected by the agent processing unit 11 and stored in the patient information 308 can be copied to a floppy disk, an IC card or the like via the storage medium driving device 23 by an operation requested by the emergency personnel. You may

【0069】以上説明したように、本実施形態によれ
ば、緊急状態の通報した後に緊急質問シナリオを起動す
ることで、救急知識に基づいた適切な救急質問を行い、
その回答から患者の状態などの患者情報を収集をするの
で、救急隊員が到着した時点で適切な患者情報を直ちに
提供することができる。また、救急隊員エージェントが
患者にたいして救急質問をすることにより、また、救急
質問が終了した後も患者を呼びかけることにより、患者
が意識を失わずに覚醒状態の時間を長くすることができ
る。
As described above, according to the present embodiment, the emergency question scenario is activated after the emergency state is notified, and an appropriate emergency question is made based on the emergency knowledge.
Since the patient information such as the condition of the patient is collected from the response, it is possible to immediately provide the appropriate patient information when the rescue staff arrives. Further, the ambulance agent can ask the patient for an emergency question and call the patient even after the emergency question is completed, so that the patient can stay awake for a long time without losing consciousness.

【0070】また、本実施形態では、救急質問シナリオ
が終了した後にエージェント処理部11は、収集した患
者情報を通信制御部24又は緊急通報装置21から救急
機関に送信するようにした。従って救急機関は受診した
患者情報を、現場到着前に救急車に送信することができ
る。これにより、救急隊員は現場に到着する前に、患者
の状態を知ることができ、必要な準備を整えることがで
きる。
Further, in the present embodiment, after the emergency question scenario is completed, the agent processing section 11 transmits the collected patient information from the communication control section 24 or the emergency notification device 21 to the emergency agency. Therefore, the ambulance organization can transmit the patient information received by the ambulance to the ambulance before the arrival at the site. This allows the paramedics to know the patient's condition and make the necessary preparations before arriving at the scene.

【0071】以上、本発明のエージェント装置の実施形
態について説明したが、本発明は説明した実施形態に限
定されるものではなく、各請求項に記載した範囲におい
て各種の変形を行うことが可能である。例えば、説明し
た実施形態では、運転者情報307に格納されている質
問項目については確認の質問をする(ステップ23)場
合について説明したが、運転者との対話(質問シナリオ
による)により収集した運転者情報については、改めて
確認や質問を行わないようにしてもよい。または、運転
者情報307に格納されている質問項目についての確認
は、格納されていない質問項目や運転者情報307の格
納対象以外の質問項目の救急質問が終了した後に確認を
するようにしてもよい。
Although the embodiment of the agent device of the present invention has been described above, the present invention is not limited to the described embodiment, and various modifications can be made within the scope of the claims. is there. For example, in the above-described embodiment, the case of asking a confirmation question for the question items stored in the driver information 307 (step 23) has been described, but the driving collected by the dialogue with the driver (depending on the question scenario). Regarding the personal information, it is possible not to make a confirmation or a question again. Alternatively, the confirmation regarding the question item stored in the driver information 307 may be performed after the emergency question of the question item not stored or the question item other than the storage target of the driver information 307 is completed. Good.

【0072】また、説明した実施形態では、緊急隊員エ
ージェントが救急隊員に対して一方的に収集した患者情
報を告知する場合について説明した。これに対して、収
集した患者情報に基づいて、救急隊員からの患者の状態
等に対するの質問に対して救急隊員エージェントが回答
する、回答シナリオを作成しておき、救急隊員の問いか
けにより起動するようにしてもよい。
Further, in the embodiment described, the case has been described in which the emergency agent is unilaterally notified to the emergency personnel of the patient information collected. On the other hand, based on the collected patient information, an emergency response agent answers questions to the patient's condition etc. from the emergency response personnel, creates an answer scenario, and activates it by inquiring from the emergency response personnel. You may

【0073】本実施形態では、救急機関としての消防署
に119番通報をする場合について説明したが、独自の
救急センタに緊急通報をするようにしてもよい。この場
合、救急通報を受けた救急センタから、119番に通報
する。救急センタからの119番通報は、緊急通報の受
信後ただちに行ってもよく、救急隊員エージェントが収
集した患者情報を受信し、その患者情報を検討した後に
119番通報するようにしてもよい。
In the present embodiment, the case has been described in which the 119 call is made to the fire department as an emergency agency, but an emergency call may be made to its own emergency center. In this case, the emergency center that received the emergency call reports 119. The 119 call from the emergency center may be made immediately after receiving the emergency call, or the 119 call may be made after receiving the patient information collected by the ambulance agent and reviewing the patient information.

【0074】また、本実施形態では緊急シナリオ(救急
質問シナリオ、呼びかけシナリオ、告知シナリオ)を含
めたシナリオデータファイル302をDVDに格納する
場合について説明したが、緊急時シナリオについては、
緊急通報先(救急機関や救急センタ)から通信により受
信して実行するようにしてもよい。
In this embodiment, the case where the scenario data file 302 including the emergency scenario (emergency question scenario, call scenario, notification scenario) is stored in the DVD has been described.
It may be executed by receiving from an emergency call destination (emergency agency or emergency center) by communication.

【0075】なお、本実施形態では処理されないが、緊
急通報装置21での緊急通報により、撮像装置28で車
両内の状態を撮像して記憶装置30に保存するようにし
てもよい。これにより、緊急通報後の患者の状態を実画
像により確認することができ、救急活動の重要な患者デ
ータとして使用できる。この画像データは、患者情報3
08に格納され、質問シナリオにより収集した患者情報
と共に、記憶媒体駆動装置23から所定の記憶媒体に複
写出力して救急隊員が病院等に持ち帰ることが可能であ
る。
Although not processed in this embodiment, an image of the state inside the vehicle may be picked up by the image pickup device 28 and saved in the storage device 30 by an emergency call from the emergency call device 21. As a result, the condition of the patient after the emergency call can be confirmed by the actual image, and it can be used as important patient data for emergency activities. This image data is patient information 3
It is possible for the ambulance crew to take it back to a hospital or the like by copying it out from the storage medium driving device 23 to a predetermined storage medium together with the patient information stored in 08 and collected according to the question scenario.

【0076】緊急通報をした後一定時間の間、表示装置
27の表示画面上に、救急隊員エージェントを手動で起
動する(緊急シナリオの起動)、救急隊員エージェント
起動キーを画面表示するようにしてもよい。この起動キ
ーは、エージェントメニューで表示されるようにしても
よい。これにより、緊急シナリオを最後まで完了しなか
った場合でも、患者(運転者)等は再び救急隊員エージ
ェントを呼び出して、もう一度シナリオをやり直すこと
ができるようになる。
For a certain period of time after making an emergency call, the ambulance agent agent may be manually activated (emergency scenario activation) on the display screen of the display device 27, or the ambulance agent activation key may be displayed on the screen. Good. This activation key may be displayed in the agent menu. As a result, even if the emergency scenario is not completed to the end, the patient (driver) etc. can call the ambulance agent again and start the scenario again.

【0077】[0077]

【発明の効果】本発明によれば、救急隊員の派遣が必要
な緊急時において、的確な情報を収集して提供すること
ができる。
As described above, according to the present invention, it is possible to collect and provide accurate information in an emergency when it is necessary to dispatch emergency personnel.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態におけるエージェント装置
の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an agent device according to an embodiment of the present invention.

【図2】同上、エージェント装置におけるエージェント
処理部の構成図である。
FIG. 2 is a configuration diagram of an agent processing unit in the agent device.

【図3】同上、エージェント装置におけるシナリオデー
タファイルのデータ構造とデータ内容を概念的に表した
説明図である。
FIG. 3 is an explanatory diagram conceptually showing the data structure and data contents of a scenario data file in the agent device.

【図4】同上、シナリオのシーンデータ基づいて表示装
置に表示されるシーン画面を表した説明図である。
FIG. 4 is an explanatory diagram showing a scene screen displayed on a display device based on scene data of a scenario.

【図5】同上、エージェント装置における運転者情報の
構成を概念的に表した説明図である。
FIG. 5 is an explanatory diagram conceptually showing the configuration of driver information in the agent device.

【図6】同上、エージェント装置において、緊急通報か
ら救急隊員エージェントを起動するまでの処理を表した
フローチャートである。
FIG. 6 is a flowchart showing the processing from the emergency call to the activation of the rescue agent in the agent device.

【図7】同上、エージェント装置において、救急隊員エ
ージェントが行う救急質問シナリオの流れを表したフロ
ーチャートである。
FIG. 7 is a flowchart showing a flow of an emergency inquiry scenario performed by the emergency agent in the agent device.

【図8】同上、エージェント装置おいて、患者情報を救
急質問シナリオに従って収集した後に起動する呼びかけ
シナリオのうちの1つのシーン画面を表した説明図であ
る。
FIG. 8 is an explanatory diagram showing a scene screen of one of the calling scenarios activated after collecting patient information according to the emergency question scenario in the agent device.

【図9】同上、エージェント装置において、患者情報を
出力する患者情報告知シナリオによるシーン画面を表し
た説明図である。
FIG. 9 is an explanatory diagram showing a scene screen according to a patient information notification scenario for outputting patient information in the agent device.

【符号の説明】[Explanation of symbols]

9 全体処理部 10 ナビゲーション処理部 11 エージェント処理部 12 外部I/F部 13 画像処理部 14 音声制御部 15 状況情報処理部 16 入力制御部 17 記憶装置制御部 21 緊急通報装置 22 入力装置 24 通信制御部 25 音声出力装置 26 マイク 27 表示装置 28 撮像装置 29 記憶装置 30 エージェントデータ 31 ナビゲーションデータ 40 各種状況検出装置 41 現在位置検出装置 42 状況検出部 43 緊急事態検出装置 9 Overall processing unit 10 Navigation processing unit 11 Agent processing unit 12 External I / F section 13 Image processing unit 14 Voice control unit 15 Situation Information Processing Department 16 Input control unit 17 Storage device control unit 21 Emergency call device 22 Input device 24 Communication control unit 25 audio output device 26 microphone 27 Display 28 Imaging device 29 storage 30 agent data 31 Navigation data 40 Various status detectors 41 Current position detector 42 Status detector 43 Emergency detection device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 足立 和英 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 Fターム(参考) 2F029 AA02 AC12 AC18 5C087 AA02 AA03 AA09 AA10 AA24 AA25 AA37 BB21 BB32 BB64 BB65 BB73 BB74 DD03 DD14 DD31 EE05 EE16 FF01 FF05 FF17 FF19 FF20 GG07 GG11 GG19 GG70 5H180 AA01 EE08 EE15 FF04 FF05 FF10 FF13 FF25 FF27 FF33 FF40    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kazuhide Adachi             2-19-12 Sotokanda, Chiyoda-ku, Tokyo Stock             Inside the company Equus Research F term (reference) 2F029 AA02 AC12 AC18                 5C087 AA02 AA03 AA09 AA10 AA24                       AA25 AA37 BB21 BB32 BB64                       BB65 BB73 BB74 DD03 DD14                       DD31 EE05 EE16 FF01 FF05                       FF17 FF19 FF20 GG07 GG11                       GG19 GG70                 5H180 AA01 EE08 EE15 FF04 FF05                       FF10 FF13 FF25 FF27 FF33                       FF40

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 救急隊員の派遣が必要な緊急時に、救急
機関に対して車両の現在位置と緊急事態の発生を緊急通
報する緊急通報手段と、 前記緊急通報手段による通報をした場合に、車室内に人
工的な擬似生命体であるエージェントを出現させ、搭乗
者に対して搭乗者の状態を質問する質問手段と、 前記質問手段による質問に対する、搭乗者からの回答を
保存する回答保存手段と、 前記保存した回答を患者情報として出力する状態出力手
段と、を具備することを特徴とするエージェント装置。
1. An emergency call means for making an emergency call to the emergency agency regarding the current position of the vehicle and the occurrence of an emergency in the event of an emergency requiring the dispatch of ambulance personnel; An inquiry means for causing an agent, which is an artificial artificial life object, to appear in the room, and asking the passenger about the passenger's condition; and an answer storage means for saving an answer from the passenger to the question by the inquiry means. And a status output unit that outputs the stored answer as patient information.
【請求項2】 前記質問手段は、搭乗者からの回答に応
じて次の質問が決まる救急質問項目について質問するこ
とを特徴とする請求項1に記載のエージェント装置。
2. The agent device according to claim 1, wherein the inquiry unit makes an inquiry about an emergency question item for which the next question is determined according to an answer from the passenger.
【請求項3】 前記状態出力手段は、前記緊急通報先で
ある救急機関に前記保存した回答を患者情報として送信
することを特徴とする請求項1に記載のエージェント装
置。
3. The agent device according to claim 1, wherein the state output unit transmits the stored answer as patient information to an emergency agency which is the emergency call destination.
【請求項4】 搭乗者に関する情報が格納された格納手
段を備え、 前記質問手段は、前記格納手段に格納された情報につい
て正しいか否かを質問することを特徴とする請求項1に
記載のエージェント装置。
4. The storage device according to claim 1, further comprising storage means for storing information about passengers, wherein the inquiry means asks whether or not the information stored in the storage means is correct. Agent device.
JP2001304717A 2001-09-28 2001-09-28 Agent device Expired - Fee Related JP4936094B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001304717A JP4936094B2 (en) 2001-09-28 2001-09-28 Agent device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001304717A JP4936094B2 (en) 2001-09-28 2001-09-28 Agent device

Publications (2)

Publication Number Publication Date
JP2003109162A true JP2003109162A (en) 2003-04-11
JP4936094B2 JP4936094B2 (en) 2012-05-23

Family

ID=19124598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001304717A Expired - Fee Related JP4936094B2 (en) 2001-09-28 2001-09-28 Agent device

Country Status (1)

Country Link
JP (1) JP4936094B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011106036A1 (en) * 2010-02-24 2011-09-01 Clawson Jeffrey J Burn diagnostic and intervention tool for emergency dispatch
US8335298B2 (en) 2009-09-14 2012-12-18 Clawson Jeffrey J Pandemic diagnostic and intervention tool for emergency dispatch
US8355483B2 (en) 2009-09-11 2013-01-15 Clawson Jeffrey J Stroke diagnostic and intervention tool for emergency dispatch
US8396191B2 (en) 2011-02-11 2013-03-12 Jeffrey J. Clawson Anti-social protocol for emergency dispatch
JP2013101622A (en) * 2004-05-21 2013-05-23 Pressco Technology Inc Graphical re-inspection user setup interface
US8488748B2 (en) 2011-01-19 2013-07-16 Jeffrey J. Clawson Meningitis diagnostic and intervention tool for emergency dispatch
CN103208199A (en) * 2012-12-20 2013-07-17 苏州亿倍信息技术有限公司 Method and system for dispatching and controlling ambulance
US8670526B2 (en) 2011-02-11 2014-03-11 Jeffrey J. Clawson Hate crime diagnostic and intervention tool for emergency dispatch
US8712020B2 (en) 2012-09-06 2014-04-29 Jeffrey J. Clawson Pandemic protocol for emergency dispatch
US8873719B2 (en) 2013-01-31 2014-10-28 Jeffrey J. Clawson Active assailant protocol for emergency dispatch
US8971501B2 (en) 2009-04-13 2015-03-03 Priority Dispatch Corporation Methods and systems to identify code hierarchy bias in medical priority dispatch systems
US9319859B2 (en) 2013-01-31 2016-04-19 Jeffrey J. Clawson System and method for text messaging for emergency response
US9516166B1 (en) 2015-05-28 2016-12-06 Jeffrey J. Clawson Chemical suicide protocol for emergency response
US9877171B2 (en) 2016-04-08 2018-01-23 Jeffrey J. Clawson Picture/video messaging protocol for emergency response
US10657614B2 (en) 2015-12-23 2020-05-19 Jeffrey J. Clawson Locator diagnostic system for emergency dispatch
US10699548B2 (en) 2018-04-19 2020-06-30 Jeffrey J. Clawson Expedited dispatch protocol system and method
JP2020181348A (en) * 2019-04-24 2020-11-05 セコム株式会社 Security system and monitoring display device
CN112289460A (en) * 2019-07-22 2021-01-29 丰田自动车株式会社 Vehicle, information processing system, recording medium, and information processing method
US11910471B2 (en) 2021-04-23 2024-02-20 Priority Dispatch Corp. System and method for emergency dispatch
US11937160B2 (en) 2021-04-23 2024-03-19 Priority Dispatch Corporation System and method for emergency dispatch

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102329416B1 (en) * 2020-03-18 2021-11-22 연세대학교 산학협력단 First aid guideline providing method and system based on Artificial Intelligence

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11132774A (en) * 1997-10-30 1999-05-21 Nippon Telegr & Teleph Corp <Ntt> Portable navigation device and navigation system
JPH11353576A (en) * 1998-06-05 1999-12-24 Toyota Motor Corp Emergency report device and system therefor
JP2000221049A (en) * 1999-01-29 2000-08-11 Equos Research Co Ltd Vehicle situation grasping system, agent device, and vehicle controller
WO2001008120A1 (en) * 1999-07-24 2001-02-01 Robert Bosch Gmbh Navigation method and navigation system for motor vehicles
JP2001235343A (en) * 2000-02-21 2001-08-31 Equos Research Co Ltd Information output device
JP2001266008A (en) * 2000-03-16 2001-09-28 Casio Comput Co Ltd Inquiry response system, information processor, and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11132774A (en) * 1997-10-30 1999-05-21 Nippon Telegr & Teleph Corp <Ntt> Portable navigation device and navigation system
JPH11353576A (en) * 1998-06-05 1999-12-24 Toyota Motor Corp Emergency report device and system therefor
JP2000221049A (en) * 1999-01-29 2000-08-11 Equos Research Co Ltd Vehicle situation grasping system, agent device, and vehicle controller
WO2001008120A1 (en) * 1999-07-24 2001-02-01 Robert Bosch Gmbh Navigation method and navigation system for motor vehicles
JP2003505708A (en) * 1999-07-24 2003-02-12 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Navigation method and navigation system for automobile
JP2001235343A (en) * 2000-02-21 2001-08-31 Equos Research Co Ltd Information output device
JP2001266008A (en) * 2000-03-16 2001-09-28 Casio Comput Co Ltd Inquiry response system, information processor, and recording medium

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101622A (en) * 2004-05-21 2013-05-23 Pressco Technology Inc Graphical re-inspection user setup interface
US10074057B2 (en) 2004-05-21 2018-09-11 Pressco Technology Inc. Graphical re-inspection user setup interface
US8971501B2 (en) 2009-04-13 2015-03-03 Priority Dispatch Corporation Methods and systems to identify code hierarchy bias in medical priority dispatch systems
US8355483B2 (en) 2009-09-11 2013-01-15 Clawson Jeffrey J Stroke diagnostic and intervention tool for emergency dispatch
US8335298B2 (en) 2009-09-14 2012-12-18 Clawson Jeffrey J Pandemic diagnostic and intervention tool for emergency dispatch
WO2011106036A1 (en) * 2010-02-24 2011-09-01 Clawson Jeffrey J Burn diagnostic and intervention tool for emergency dispatch
US8294570B2 (en) 2010-02-24 2012-10-23 Clawson Jeffrey J Burn diagnostic and intervention tool for emergency dispatch
US8488748B2 (en) 2011-01-19 2013-07-16 Jeffrey J. Clawson Meningitis diagnostic and intervention tool for emergency dispatch
US8396191B2 (en) 2011-02-11 2013-03-12 Jeffrey J. Clawson Anti-social protocol for emergency dispatch
US8670526B2 (en) 2011-02-11 2014-03-11 Jeffrey J. Clawson Hate crime diagnostic and intervention tool for emergency dispatch
US8712020B2 (en) 2012-09-06 2014-04-29 Jeffrey J. Clawson Pandemic protocol for emergency dispatch
CN103208199A (en) * 2012-12-20 2013-07-17 苏州亿倍信息技术有限公司 Method and system for dispatching and controlling ambulance
US9319859B2 (en) 2013-01-31 2016-04-19 Jeffrey J. Clawson System and method for text messaging for emergency response
US9491605B2 (en) 2013-01-31 2016-11-08 Jeffrey J. Clawson Text messaging for emergency response
US8873719B2 (en) 2013-01-31 2014-10-28 Jeffrey J. Clawson Active assailant protocol for emergency dispatch
US9516166B1 (en) 2015-05-28 2016-12-06 Jeffrey J. Clawson Chemical suicide protocol for emergency response
US10657614B2 (en) 2015-12-23 2020-05-19 Jeffrey J. Clawson Locator diagnostic system for emergency dispatch
US9877171B2 (en) 2016-04-08 2018-01-23 Jeffrey J. Clawson Picture/video messaging protocol for emergency response
US10699548B2 (en) 2018-04-19 2020-06-30 Jeffrey J. Clawson Expedited dispatch protocol system and method
JP2020181348A (en) * 2019-04-24 2020-11-05 セコム株式会社 Security system and monitoring display device
JP7308068B2 (en) 2019-04-24 2023-07-13 セコム株式会社 Security system and surveillance display
CN112289460A (en) * 2019-07-22 2021-01-29 丰田自动车株式会社 Vehicle, information processing system, recording medium, and information processing method
US11910471B2 (en) 2021-04-23 2024-02-20 Priority Dispatch Corp. System and method for emergency dispatch
US11937160B2 (en) 2021-04-23 2024-03-19 Priority Dispatch Corporation System and method for emergency dispatch

Also Published As

Publication number Publication date
JP4936094B2 (en) 2012-05-23

Similar Documents

Publication Publication Date Title
JP5019145B2 (en) Driver information collection device
JP4936094B2 (en) Agent device
US7044742B2 (en) Emergency reporting apparatus
JP3965538B2 (en) Agent device
JP4258585B2 (en) Destination setting device
JP3873386B2 (en) Agent device
JP4193300B2 (en) Agent device
US20040225416A1 (en) Data creation apparatus
JPH11259446A (en) Agent device
JPWO2019049201A1 (en) Automotive and automotive programs
US8600667B2 (en) Location based entertainment with a personal navigation device
JP4259054B2 (en) In-vehicle device
JP4207350B2 (en) Information output device
JP3907509B2 (en) Emergency call device
JP4253918B2 (en) Agent device
JP6628375B1 (en) Self-driving cars and programs for self-driving cars
JP4258607B2 (en) In-vehicle device
JP2003106846A (en) Agent apparatus
JP2020042850A (en) Automatic driving vehicle and program for automatic driving vehicle
JP2004037953A (en) On-vehicle device, and device and program for data creation
JP2004054883A (en) Onboard agent system and interactive operation control system
JP2003157489A (en) Operation control device
JP2004053251A (en) In-vehicle device, data creating device and data creation program
JP2004050975A (en) In-vehicle device, data preparation device, and data preparation program
JP3547727B2 (en) Emergency call device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees