JP2023019245A - Agent device - Google Patents
Agent device Download PDFInfo
- Publication number
- JP2023019245A JP2023019245A JP2021123831A JP2021123831A JP2023019245A JP 2023019245 A JP2023019245 A JP 2023019245A JP 2021123831 A JP2021123831 A JP 2021123831A JP 2021123831 A JP2021123831 A JP 2021123831A JP 2023019245 A JP2023019245 A JP 2023019245A
- Authority
- JP
- Japan
- Prior art keywords
- agent
- control unit
- corner
- vehicle
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005452 bending Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 description 151
- 238000000034 method Methods 0.000 description 91
- 230000008569 process Effects 0.000 description 88
- 238000012545 processing Methods 0.000 description 52
- 230000009471 action Effects 0.000 description 18
- 210000003128 head Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 239000004973 liquid crystal related substance Substances 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 210000003127 knee Anatomy 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000005043 peripheral vision Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000000245 forearm Anatomy 0.000 description 2
- 210000004394 hip joint Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、擬人化されたキャラクタによる報知が可能なエージェント装置に関する。 TECHNICAL FIELD The present invention relates to an agent device capable of notification by an anthropomorphic character.
従来から、自動車などの車両での走行環境において、乗員(特に運転者)に注意喚起を促す手法として、様々な手法が提案されている。
このような手法の1つとして、乗員と、擬人化されたキャラクタ(いわゆるエージェント)とが、対話を行いながら、乗員の要求に応じた運転支援に関する情報などを提供するエージェント装置や、運転支援装置が提案されている。
2. Description of the Related Art Conventionally, various methods have been proposed as methods for calling the attention of a passenger (especially a driver) in a driving environment of a vehicle such as an automobile.
As one of such methods, there is an agent device or a driving support device in which a passenger and an anthropomorphic character (a so-called agent) interact with each other to provide information on driving support in response to requests from the passenger. is proposed.
例えば、従来の運転支援装置では、音声などによる危険回避行動の通知では、直感的に伝わり難いと考え、ダッシュボードに小型のロボットを配設し、擬人化されたエージェントとして登場させ、このエージェントに運転者が行うべき危険回避行動を模擬的に実行させるものが提案されている(特許文献1参照)。 For example, with conventional driving support devices, it is difficult to intuitively convey danger avoidance notifications by voice, etc., so we installed a small robot on the dashboard and made it appear as an anthropomorphic agent. A system has been proposed that simulates the danger avoidance behavior that a driver should take (see Patent Literature 1).
しかしながら、従来のエージェントは、無機的なものであったり、突然登場して注意喚起を促すものであったりして、エージェントと、運転者と、の信頼関係が築き難かった。また、エージェントに突然回避行動と同じ動作をとられても、回避行動を取らなければならない原因となったものが解らないと、とっさにその行動を取り難く、特に信頼関係がないと回避行動に繋がらないという問題があった。
特に、走行時に危険回避行動などの運転者に所定の対応処置の必要が発生した場合に、エージェントが突然、回避行動の真似事を行っても、何故エージェントがその行動を行ったのか理解できず、考えているうちに所定の回避行動が間に合わなくなってしまう虞がある。
例えば、走行中にコーナーが現れた際に、エージェントに注意が集中してしまう、あるいは、対向車やコーナー外側の風景、ガードレールなどに視線が行ってしまうと、アンダーステアーを誘発し、対向車線にはみ出してしまう虞がある。
However, conventional agents are inorganic or appear suddenly to call attention, making it difficult to build a relationship of trust between the agent and the driver. In addition, even if the agent suddenly takes the same action as an evasive action, it is difficult to take that action immediately without knowing what caused the agent to take the evasive action, especially if there is no trusting relationship. I had a problem with not connecting.
In particular, when the driver is required to take a predetermined action such as avoiding danger while driving, even if the agent suddenly mimics the avoidance action, it is difficult to understand why the agent took that action. , while thinking, there is a possibility that the predetermined avoidance action will not be in time.
For example, when a corner appears while driving, if the agent's attention is focused on the agent, or if the line of sight goes to the oncoming vehicle, the scenery outside the corner, the guardrail, etc., it will induce understeer and turn into the oncoming lane. There is a risk that it will stick out.
本発明は、このような従来の問題を解決するためになされたもので、特定の対象物に運転者の視線が集中して、周辺の注意が疎かになってしまうことを防止して、安全性を向上させることができるエージェント装置を提供することを課題とする。 SUMMARY OF THE INVENTION The present invention was made to solve such conventional problems. An object of the present invention is to provide an agent device capable of improving the performance.
本発明に係るエージェント装置は、シフトポジションを検知するシフトポジション検知部と、周辺状況を取得する周辺状況取得部と、擬人化されたエージェントを制御するエージェント制御部と、を備え、前記エージェント制御部は、前記周辺状況の取得により、進行経路にコーナーがあると判断した場合、両腕と屈伸を用いて、コーナーの曲率を表現させる、ことを特徴とする。 An agent device according to the present invention includes a shift position detection unit that detects a shift position, a surrounding situation acquisition unit that acquires a surrounding situation, and an agent control unit that controls a personified agent. is characterized by expressing the curvature of the corner by using both arms and bending and stretching when it is determined that there is a corner in the traveling path by acquiring the surrounding conditions.
本発明によれば、特定の対象物に運転者の視線が集中して、周辺の注意が疎かになってしまうことを防止して、安全性を向上させることができるエージェント装置を提供することができる。 According to the present invention, it is possible to provide an agent device capable of improving safety by preventing the driver's line of sight from concentrating on a specific object and causing the driver's attention to be neglected. can.
以下、本発明の実施の形態について、図面を参照して説明する。
また、以下の説明で、異なる図における同一符号は同一機能の部位を示しており、各図における重複説明は適宜省略する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Also, in the following description, the same reference numerals in different drawings indicate portions having the same function, and duplication of description in each drawing will be omitted as appropriate.
(車室内における各構成)
図1、図2に示すように、車両1は、運転席2の車両前方側に設けられるインストルメントパネル3と、運転席2とインストルメントパネル3との間に配置されるステアリングホイール4と、を有している。ステアリングホイール4は、ステアリングシャフト(図示省略)を介してステアリングコラム(図示省略)に回転自在に取り付けられている。また、ステアリングホイール4の内部には、車両1が衝突等した際に、運転者(以下、ドライバーという)Hに向けて展開するエアバッグ8が格納されている。
なお、本実施の形態のエージェント装置100(後述)およびエージェント200(後述)においては、ドライバーHとの対話やジェスチャー(動作)を基本に説明しているが、他の乗員に対しても同様に行うことができる。
(Each configuration in the passenger compartment)
As shown in FIGS. 1 and 2, a
In addition, in the agent device 100 (described later) and the agent 200 (described later) of the present embodiment, the explanation is based on the interaction and gestures (movements) with the driver H, but the same applies to other passengers. It can be carried out.
図1に示すように、車両1の車室内には、第1表示用パネル30と、第2表示用パネル40と、の2つの表示パネルが設けられている。第1表示用パネル30は、運転席2の前方側のインストルメントパネル3に配置され、第2表示用パネル40は、運転席2の左前方側のインストルメントパネル3に配置されている。
As shown in FIG. 1 , two display panels, that is, a
(第1表示用パネル30)
図1、図2に示すように、第1表示用パネル30は、アナログ時計のように構成された指針式メータと、液晶パネルとバックライトとが一体的に設けられたいわゆる液晶ディスプレイ装置とを備えて構成されている。ドライバーHは、第1表示用パネル30の第1表示領域30aに表示される各種情報を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。
(First display panel 30)
As shown in FIGS. 1 and 2, the
図2に示すように、第1表示用パネル30には、第1表示領域30aが設けられており、この第1表示領域30aの左右には、車両1の走行速度(スピードメータ)や、エンジンの単位時間当たりの回転数(タコメータ)などの情報を表示する2つの指針式メータと、2つの指針式メータの間であって第1表示用パネル30の中央部には、一般的な車両情報を示す画像を表示する小型の液晶ディスプレイ装置とが配置される。なお、第1表示用パネル30は、指針式メータを備えずに、全体を1つの液晶ディスプレイ装置で構成してもよい。
As shown in FIG. 2, the
(第2表示用パネル40)
図1に示すように、第2表示用パネル40は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されている。なお、第2表示用パネル40には地図情報等が表示され、いわゆるカーナビゲーションシステムを担っている。
(Second display panel 40)
As shown in FIG. 1, the
なお、第1表示用パネル30、第2表示用パネル40において構成されている液晶ディスプレイ装置を、プラズマディスプレイや有機EL等の自発光型の表示デバイス、投影型のプロジェクタ等の表示装置で構成してもよい。
It should be noted that the liquid crystal display device constituted by the
(エージェント200)
また、図3に示すように、運転席2の前方側のインストルメントパネル3の上部には、エージェント200が配置されている。
なお、エージェント200は、ドライバーHの周辺視野に入る位置であればどこでもよく、必ずしも運転席の真正面に配置されていなくてもよい。なお、エージェント200は、ドライバーHの周辺視野にあって、ドライバーHの車外の視野等を遮らない位置にあるのが望ましい。また、所定の操作デバイス、または、音声指示等により、エージェント200の配置位置を変更できるようにしてもよい。
(Agent 200)
Further, as shown in FIG. 3, an
The
エージェント200は、擬人化されたキャラクタであり、人型の外形を備えた報知用および対話型の立体物である。なお、本実施の形態において、エージェント200は、人型の実像する立体物としているが、これに限らず、ディスプレイ等の表示装置に表示されたキャラクタであっても、フォログラム等で表現された3次元表示物、仮想立体物等であってもよい。
The
図4に示すように、エージェント200は、頭部211、右眼部212R、左眼部212L、首部213、胸部214、腰部215、臀部216、右肩部221R、左肩部221L、右上腕部222R、左上腕部222L、右肘部223R、左肘部223L、右前腕部224R、左前腕部224L、右手首部225R、左手首部225L、右手部226R、左手部226L、右股関節部231R、左股関節部231L、右大腿部232R、左大腿部232L、右膝部233R、左膝部233L、右下腿部234R、左下腿部234L、右足首部235R、左足首部235L、右足部236R、左足部236Lを有している。
As shown in FIG. 4,
また、エージェント200には、支持コネクタ240が設けられており、エージェント200が、インストルメントパネル3上に立設可能に支持されている。
なお、エージェント200の頭部211の両側部には、耳が設けられている。これにより、ドライバーHの話をエージェント200がよく聴いているように思わせることができる。また、この耳については、実際に設けられていなくても、後述のように、エージェント200がドライバーHの話を聴く際に、エージェント200の頭部211の側部に、右手部226Rまたは左手部226Lを当てることにより、耳に手を当てて聴いているように見せることができ、ドライバーHとの信頼関係を深めることができる。
Further, the
Ears are provided on both sides of the
なお、図4(a)は、エージェント200が、ドライバーH側(車両1の後方側)を向いているときの基本姿勢を示す図であり、図4(b)は、エージェント200が、ドライバーHに背を向けている(車両1の前方側を向いている)ときの基本姿勢を示す図である。
また、基本姿勢において、エージェント200は、右手部226Rの右手掌部226Ra、左手部226Lの左手掌部226Laをエージェント200の内側に向け、右手部226Rの右手甲部226Rb、左手部226Lの左手甲部226Lbをエージェント200の外側に向けて、起立している。
上記のように、エージェント200は、ドライバーH側を向いた前面姿勢と、ドライバーHに背を向けた背面姿勢と、で自由に回転できるようになっている。すなわち、エージェント200は、支持コネクタ240を中心にエージェント200自体が回転するようなものでもよいし、エージェント200を回転体の上にのせて、この回転体を回転させることにより、前面姿勢から背面姿勢、背面姿勢から前面姿勢に回転させるようにしたものであってもよい。
FIG. 4(a) is a diagram showing the basic posture of the
In the basic posture, the
As described above, the
また、エージェント200内には、後述するエージェント制御部190が設けられており、エージェント200の各関節を制御および動作させ、エージェント200が所定の姿勢をとることができるようになっている。エージェント制御部190は、後述する制御部110(ECU)と無線接続されており、制御部110による制御により、エージェント200を動作させるようになっている。なお、本実施の形態では、エージェント制御部190と、制御部110と、を無線接続とするようにしたが、例えば、支持コネクタ240内に通信ラインを通して、有線接続するようにしてもよい。
An
また、エージェント200の頭部211内には、後述するエージェントスピーカ191が設けられており、エージェント制御部190の制御により、音声出力が行われるようになっている。なお、このエージェントスピーカ191は、エージェント200の頭部211内に限らず、エージェント200の他の部位であっても、車両1の他の場所に設けられたものであってもよい。ただし、エージェント200の頭部211内にエージェントスピーカ191が設けられていた方が、ドライバーHに対して、よりリアルにエージェント200からの発話とらえさせることができ、感情移入もし易く、ドライバーHのエージェント200に対する信頼構築に、大きく寄与することができる。
An
次に、本発明におけるエージェント装置100の構成について、図5のブロック図を参照して説明する。
Next, the configuration of the
図5に示すように、エージェント装置100は、制御部110と、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、スピーカ150と、マイク160と、記憶部170と、送受信機180と、エージェント制御部190と、エージェントスピーカ191と、を備えている。
As shown in FIG. 5, the
なお、図5に示すエージェント装置100は一例にすぎず、エージェント装置100の構成要素は適宜変更ができる。例えば、スピーカ150と、エージェントスピーカ191と、はいずれか一方のみでも、本発明のエージェント装置100を実現できる。また、マイク160に加えて、エージェント200内にエージェントマイクを備えても良く、マイク160の代わりに、エージェント200内に備えたエージェントマイクのみを備えたものであっても、本発明のエージェント装置100を実現できる。さらに、本実施の形態においては、制御部110とエージェント制御部190の双方を設けるようにしているが、これに限らず、制御部110、または、エージェント制御部190の一方のみを有し、双方の機能を行うようにしても構わない。
Note that the
(制御部110)
制御部110は、図示しないCPU、ROM、RAM(例えば、リングバッファ)、EEPROM、入出力ポート等を備えており、例えば、入力ポートより情報入力が行われると、ROMから読み出した制御プログラムに基づいて、出力ポートを介して各種デバイスを制御するようになっている。
(control unit 110)
The
なお、制御部110のROMには、エージェント200が行う動作や、セリフのデータテーブル(図示省略)が記憶されている。また、AI等の学習機能を持たせ、記憶されている動作やセリフ以外を行うようにしてもよい。制御部110のCPUは、後述する各認識部から取得した情報や、マイク160から取得した情報に基づいて、エージェント200に行わせる動作やセリフをデータテーブルから決定する。例えば、ドライバーHからの発話をマイク160から取得したら、データテーブルから「うなずき」のジェスチャーを決定し、ドライバーHの発話が終了したら、「了解しました」といったセリフを決定する。なお、エージェント200が行う動作や、セリフのデータテーブルは、エージェント制御部190のROMに記憶させるようにしてもよい。
Note that the ROM of the
(周辺環境認識部120)
周辺環境認識部120は、車両1(自車両)の周辺環境を認識するために設けられている。また、周辺環境認識部120は、車外撮影用カメラ120aと、レーダ120bと、気温センサ120cと、天候センサ120dと、ナビゲーション装置121と、を備えており、これらのデバイスによって車両1の周辺環境および周辺状況を認識することができるようになっている。例えば、周辺環境認識部120は、進行方向のコーナーや曲がり角の存在、接近物の有無などを検知することができるようになっている。
なお、本実施の形態においては、ナビゲーション装置121を、周辺環境認識部120の一部として有する構成としているが、これに限らず、ナビゲーション装置121を周辺環境認識部120とは別体で、単独で有するものであってもよい。
(Surrounding environment recognition unit 120)
The surrounding
In the present embodiment, the
(車外撮影用カメラ120a)
車外撮影用カメラ120aは、例えば、図示しないルームミラーに取り付けられており、車両1の前方、および、車両1の後方を撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、車両1の前方、車両1の後方の状況をリアルタイムおよび事後的に認識することができる。
(
The
(レーダ120b)
レーダ120bは、例えば、電波を飛ばして障害物等を検知するミリ波レーダが用いられており、当該ミリ波レーダが車両1のフロントバンパやリアバンパに取り付けられ、車両1の前方監視、車両1の前側方監視、車両1の後側方監視ができるようになっている。そして、監視情報が制御部110に入力されて、制御部110がRAMに監視情報を記憶する。これにより、制御部110は、車両1の前方、車両1の前側方の状況、車両1の後側方の状況をリアルタイムおよび事後的に認識することができる。なお、本実施の形態においてはミリ波レーダを用いているが、他のレーダを用いてもよい。例えば、赤外線レーダでもよい。
(
The
(気温センサ120c)
気温センサ120cは、例えば、車両1の後部に取り付けられており、車両1の外部の気温を検出できるようになっている。そして、検出した気温が制御部110に入力されて、制御部110がRAMに気温を記憶する。これにより、制御部110は、車両1の外部の気温を認識することができる。
(
The
(天候センサ120d)
天候センサ120dは、例えば、車両1の上部に取り付けられており、車両1にかかる雨の水滴等を検知できるようになっている。そして、検知した水滴情報が制御部110に入力されて、制御部110がRAMに水滴情報を記憶する。これにより、制御部110は、車両1の外部の天候状況を認識することができる。
(
The
(ナビゲーション装置121)
ナビゲーション装置121は、目的地、経由地等に応じて、経路案内を行うものである。また、ナビゲーション装置121は、地図情報やGPS、VICS受信機などを有しており、車両1の現在位置や周辺の地図情報、渋滞情報、道路規制情報、駐車場情報などを取得できるようになっている。したがって、制御部110は、ナビゲーション装置121に加え、車外撮影用カメラ120aやレーダ120bなどが取得した情報をもとに、車両1の周辺状況をリアルタイムに認識することができる。
なお、ナビゲーション装置121は、地図情報についても、随時、受信可能で、最新の地図情報を取得できるようになっている。また、ナビゲーション装置121の送受信部は、後述する送受信機180と兼用するものであっても構わない。
(Navigation device 121)
The
The
以上のようにして、制御部110は、車両1の周辺環境、周辺状況をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の周辺環境、周辺状況の認識に基づいて、エージェント200と、エージェントスピーカ191と、を制御して、車両1の周辺環境、周辺状況の情報をドライバーHに対して報知することができる。例えば、車両1の前方に落下物があれば、「前方に落下物があります」といったジェスチャーおよび音声による報知ができる。これにより、安全性を向上させることができる。
As described above, the
なお、本実施の形態においては、周辺環境認識部120として、車外撮影用カメラ120aと、レーダ120bと、気温センサ120cと、天候センサ120dと、ナビゲーション装置121と、を挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
In the present embodiment, as surrounding
(乗員状態認識部130)
乗員状態認識部130は、ドライバーHの状態を認識するために設けられている。また、乗員状態認識部130は、乗員撮影用カメラ130aと、バイタルセンサ130bとを備えており、これらのデバイスによってドライバーHの状態を認識することができるようになっている。
(Occupant state recognition unit 130)
The occupant
(乗員撮影用カメラ130a)
乗員撮影用カメラ130aは、例えば、インストルメントパネル3に取り付けられており、ドライバーHを撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。なお、ここでいう、ドライバーHの状態とは、具体的には、ドライバーHの目蓋の状態や、瞬きの回数、視線の方向、顔の向き、また、うずくまった状態であるか、動作できない状態であるか、などが想定される。
(
The
(バイタルセンサ130b)
バイタルセンサ130bは、例えば、ステアリングホイール4のドライバーHにより把持される部位に取り付けられ、ドライバーHの心拍数や血圧等のバイタル情報を取得できるようになっている。そして、取得したバイタル情報が制御部110に入力されて、制御部110がRAMにバイタル情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。
(
The
以上のようにして、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、ドライバーHの状態の認識に基づいて、エージェント200と、エージェントスピーカ191とを制御して、所定の情報をドライバーHに対して報知することができる。例えば、「目蓋が下がっておりますが、休憩しませんか?」といった画像および音声による報知や、「いつもより心拍数が速いですが、休憩しませんか?」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。
As described above, the
乗員状態認識部130は、乗員撮影用カメラ130aやバイタルセンサ130bから取得した情報や、マイク160から入力した情報に基づいて、ある程度の範囲でドライバーHの思考感情を認識することができる。例えば、乗員撮影用カメラ130aよりドライバーHの顔の表情を取得し、バイタルセンサ130bよりドライバーHの心拍数や血圧を取得し、マイク160より声量および入力内容を取得し、これらの取得した情報からドライバーHが通常の思考感情にあるか、通常とは異なる思考感情(例えば、驚いている、怒っているなど)にあるかを認識することができる。
The occupant
なお、本実施形態においては、乗員状態認識部130として、乗員撮影用カメラ130aと、バイタルセンサ130bと、を挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
In this embodiment, the
(車両状態認識部140)
車両状態認識部140は、車両1の状態を認識するために設けられている。また、車両状態認識部140は、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eと、シフトポジションセンサ140fと、を備えており、これらのデバイスによって車両1の状態を認識することができるようになっている。
(Vehicle state recognition unit 140)
Vehicle
(車速センサ140a)
車速センサ140aは、車両1の車速を検出するためのセンサであって、検出された車速が車速信号として制御部110に入力されて、制御部110がRAMに車速情報を記憶する。これにより、制御部110は、車両1の車速をリアルタイムおよび事後的に認識することができる。
(
The
(ハンドル角センサ140b)
ハンドル角センサ140bは、車両1のハンドル角(ステアリングホイール4の角度)を検出するためのセンサであって、検出されたハンドル角が角度信号として制御部110に入力されて、制御部110がRAMに角度情報を記憶する。これにより、制御部110は、車両1のハンドル角(ステアリングホイール4の角度)をリアルタイムおよび事後的に認識することができる。
(Handle
The steering
(アクセルペダルセンサ140c)
アクセルペダルセンサ140cは、図示しないアクセルペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のアクセルペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(
The
(ブレーキペダルセンサ140d)
ブレーキペダルセンサ140dは、図示しないブレーキペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のブレーキペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(Brake pedal sensor 140d)
The brake pedal sensor 140d is a sensor for detecting the amount of depression of a brake pedal (not shown). memorize Thereby, the
(Gセンサ140e)
Gセンサ140eは、車両1の加速度、減速度及び傾斜を検出するためのセンサであって、加速度が検出された場合は加速度量が、減速度が検出された場合は減速度量が、傾斜が検出された場合は傾斜角度量が、それぞれ加速度量信号、減速度量信号、傾斜角度信号として制御部110に入力されて、制御部110がRAMに加速度情報、減速度情報及び傾斜情報を記憶する。これにより、制御部110は、車両1の加速度、減速度及び傾斜をリアルタイムおよび事後的に認識することができる。
(
The
(シフトポジションセンサ140f)
シフトポジションセンサ140fは、車両1のシフトレンジ(シフトポジション)がどこになっているかを検出するためのセンサである。すなわち、シフトポジションセンサ140fは、シフトレンジが、パーキングレンジ(停車位置)、ドライブレンジ(走行位置)、リバースレンジ(後退位置)、ニュートラルレンジ(中立位置)等の、どの位置に設定されているかを検知するものである。シフトポジションセンサ140fが検知したシフトレンジは、制御部110に入力されて、制御部110がRAMに現在のシフトレンジを記憶する。これにより、制御部110は、シフトレンジがどこに設定されているかを認識することができる。
(
The
以上のようにして、制御部110は、車両1の状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の状態の認識に基づいて、エージェント200と、エージェントスピーカ191と、を制御して、車両1の状態の情報をドライバーHに対して報知することができる。例えば、適切な速度で走行していれば、「適切な速度で走行されていますね」といったジェスチャーおよび音声による報知ができる。これにより、安全性の向上に繋がる。
As described above, the
なお、本実施形態においては、車両状態認識部140として、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140e、シフトポジションセンサ140fと、を挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
In this embodiment, the vehicle
(スピーカ150)
スピーカ150は、例えば、インストルメントパネル3に取り付けられており、エージェント200から発せられる音声以外の音声や警告音等が出力される。なお、スピーカ150を設けずに、車両1に内蔵されているオーディオスピーカを用いてもよい。また、後述するように、スピーカ150は、エージェントスピーカ191を兼用するものであってもよい。
(Speaker 150)
The
(マイク160)
マイク160は、例えば、インストルメントパネル3に取り付けられており、ドライバーH、その他乗員から発せられる音声が入力される。
(mic 160)
The
(記憶部170)
記憶部170は、上述した各認識部から取得した情報や、ドライバーHと制御部110とで行われた対話等を記憶することが可能である。制御部110は、これらの情報を記憶部170に蓄積していくことで、ドライバーHの運転傾向(例えば、どのような運転を行うドライバーであるのか)や、ドライバーHの趣味嗜好(例えば、どのようなBGMが好みであるのか)等を認識することができる。また、これらを認識することで、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話をエージェント装置100側(エージェント200)から能動的に行うこともできる。
(storage unit 170)
The
(送受信機180)
送受信機180は、例えば、車載用の無線LANを用いた情報の取得や、衛星測位システムを用いた位置情報の取得などが可能である。制御部110は、これら取得した情報や、上述の記憶部170に蓄積した情報に基づいて、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話をエージェント装置100側(エージェント200)から能動的に行うこともできる。
(Transceiver 180)
The transmitter/
(エージェント制御部190)
エージェント制御部190は、図示しないCPU、ROM、RAM、入出力ポート等を備えており、例えば、制御部110から情報入力が行われると、エージェント200の各部を動作させたり、エージェントスピーカ191に対して所定の音声出力を行わせたりできるようになっている。
(Agent control unit 190)
The
(エージェントスピーカ191)
エージェントスピーカ191は、前述のように、エージェント200の頭部211内に設けられており、エージェント200から発せられる音声等が出力される。なお、本実施の形態のように、エージェントスピーカ191をエージェント200の頭部211内、特に口にあたる部分に設けることで、よりリアルになり信頼関係の構築に寄与するものであるが、エージェント200が小さいものであり、頭部211内に設けることが困難である場合などには、前述のスピーカ150で代用したり、車両1内の他の部分にエージェントスピーカ191、または、その代用品となるスピーカを設けたりしてもよい。
(Agent speaker 191)
The
次に、エージェント装置100におけるエージェント200の動作および対話について、説明する。エージェント200の動作および対話は、制御部110による制御処理によって行われ、エージェント制御部190によりエージェント200の各部が動作されるとともに、エージェントスピーカ191から音声が出力される。なお、制御処理を行う制御フローは、制御部110のROMに記憶されており、制御部110のCPUがROMから読み出して各種処理を行う。
Next, the operation and interaction of
以下、図6を用いて、制御部110のCPUにより行われるエージェント制御処理のメイン処理について、説明する。
Main processing of the agent control processing performed by the CPU of the
(ステップS10)
ステップS10において、制御部110のCPUは、イグニッションがオンされると、エージェント制御処理のメイン処理を開始する。具体的には、制御部110のCPUは、ROMからエージェント制御処理のメイン処理を読み出して処理を開始し、ステップS100に処理を移行する。
(Step S10)
In step S10, when the ignition is turned on, the CPU of
(ステップS100)
ステップS100において、制御部110のCPUは、乗車時処理を行う。乗車時処理では、ドライバーHが車両1に乗車した際の開始時の処理を行う。例えば、制御部110のCPUは、乗車時処理において、エージェント200をドライバーHに正対させる処理を行う。また、制御部110のCPUは、ドライバーHへの会話を行ったり、天候、燃料残情報、車両メンテナンスの特筆事項などの乗車時説明事項を、エージェント200に対して発話および動作によって行わせたりする処理などを行う。そして、乗車時処理を終えると、ステップS200に処理を移行する。
(Step S100)
In step S100, the CPU of the
(ステップS200)
ステップS200において、制御部110のCPUは、運転開始前処理を行う。運転開始前処理では、ドライバーHが運転を開始する前の処理を行う。例えば、運転開始前処理では、目的地までの走行環境の注意事項や、休憩ポイントについての説明などを行う。運転開始前処理の説明では、エージェント200は、ドライバーHに正対し、項目ごとに両手を動かして説明し、項目の終了ごとに首を上下するなど完了の合図も行う。そして、運転開始前処理を終えると、ステップS20に処理を移行する。
(Step S200)
In step S200, the CPU of the
(ステップS20)
ステップS20において、制御部110のCPUは、シフトレンジが「P」(パーキングレンジ)であるか否かを判定する処理を行う。具体的には、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、パーキングレンジであるか否かを判定する。制御部110のCPUは、シフトレンジがパーキングレンジでない(この場合、シフトポジションが変更された)と判定した場合には、ステップS300に処理を移行し、シフトレンジがパーキングレンジである(この場合、シフトポジションが変更されていない)と判定した場合には、ステップS400に処理を移行する。
(Step S20)
In step S20, the CPU of
(ステップS300)
ステップS300において、制御部110のCPUは、走行時処理を行う。走行時処理では、走行時におけるエージェント200の制御処理を行う。例えば、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、「D」(ドライブレンジ)である場合には、エージェント200を前方(車両1の進行方向)に向かせる(所定の姿勢をとらせる)などの前進走行時のエージェント200の制御処理を行い、シフトレンジが「R」(リバースレンジ)である場合には、後退走行時のエージェント200の制御処理を行う。走行時処理の詳細については、後述する。そして、走行時処理を終えると、ステップS30に処理を移行する。
(Step S300)
In step S300, the CPU of the
(ステップS30)
ステップS30において、制御部110のCPUは、シフトレンジが「P」(パーキングレンジ)であるか否かを判定する処理を行う。前述のように、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、パーキングレンジであるか否かを判定する。制御部110のCPUは、シフトレンジがパーキングレンジでないと判定した場合には、ステップS300に処理を移行し、シフトレンジがパーキングレンジであると判定した場合には、ステップS400に処理を移行する。
(Step S30)
In step S30, the CPU of
(ステップS400)
ステップS400において、制御部110のCPUは、運転終了時処理を行う。運転終了時処理では、所定の走行が終了した際の終了時の処理を行う。例えば、制御部110のCPUは、運転終了時処理において、エージェント200を改めてドライバーHに正対させ、基本姿勢を取らせる。また、制御部110のCPUは、運転終了時の労いのための音声出力および動作を行ったり、車両における異常や告知情報などがある場合には、異常の告知、警告音の発報や、情報の告知を音声や動作で行ったりする。そして、運転終了時処理を終えると、ステップS40に処理を移行する。
(Step S400)
In step S400, the CPU of the
(ステップS40)
ステップS40において、制御部110のCPUは、シフトレンジが「P」(パーキングレンジ)であるか否かを判定する処理を行う。前述のように、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、パーキングレンジであるか否かを判定する。制御部110のCPUは、シフトレンジがパーキングレンジでない(この場合、シフトポジションが変更された)と判定した場合には、ステップS300に処理を移行し、シフトレンジがパーキングレンジである(この場合、シフトポジションが変更されていない)と判定した場合には、ステップS50に処理を移行する。
(Step S40)
In step S40, the CPU of
(ステップS50)
ステップS50において、制御部110のCPUは、運転再開判定処理を行う。運転再開判定処理では、ドライバーHが運転を再開する意思があるのか否かを判定する処理を行う。例えば、制御部110のCPUは、ドライバーHから「運転を再開します」といった音声入力が行われた場合、または、新たな目的地がナビゲーションシステムに音声入力や手入力によって入力された場合等、運転再開の意思があると判定する。制御部110のCPUは、運転再開の意思があると判定した場合には、ステップS200に処理を移行し、運転再開の意思がないと判定した場合には、ステップS60に処理を移行する。
(Step S50)
In step S50, the CPU of the
(ステップS60)
ステップS60において、制御部110のCPUは、イグニッションがオフされたか否かを判定する。制御部110のCPUは、イグニッションがオフされた場合には、エージェント制御処理のメイン処理を終了し、イグニッションがオフされていない場合には、ステップS40に処理を移行する。
(Step S60)
In step S60, the CPU of
次に、図7を用いて、制御部110のCPUにより行われる走行時処理について説明を行う。図7は、図6のステップS300(走行時処理)のサブルーチンである。
Next, with reference to FIG. 7, the running processing performed by the CPU of the
(ステップS301)
走行時処理では、まず、ステップS301において、制御部110のCPUは、発進時処理を行う。発進時処理では、発進時の注意喚起を行う。すなわち、発進時には、ドライバーHの考えと動作(過去の操作を含む)が一致していない場合が発生しやすい。具体的には、高齢者等が思い込みでシフトポジション(シフトレンジの「D」(ドライブレンジ)と「R」(リバースレンジ)等)を間違え、衝突などが発生することがある。ここでは、安全だろうとの思い込みを排除するため、発進時処理を行う。例えば、制御部110のCPUは、発進時処理において、シフトレンジの読み上げによる行動確認を行う。また、制御部110のCPUは、進行方向の目視確認を促す。これにより、車両1に誤発進機能が搭載されていたとしても、ドライバーHによる誤操作自体を抑制して、安全性を向上させることができる。
(Step S301)
In the running process, first, in step S301, the CPU of the
(ステップS302)
ステップS302において、制御部110のCPUは、シフトレンジが「D」(ドライブレンジ)であるか否かを判定する処理を行う。具体的には、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、ドライブレンジであるか否かを判定する。制御部110のCPUは、シフトレンジがドライブレンジでないと判定した場合には、ステップS303に処理を移行し、シフトレンジがドライブレンジであると判定した場合には、ステップS310に処理を移行する。
(Step S302)
In step S302, the CPU of
(ステップS303)
ステップS303において、制御部110のCPUは、非ドライブレンジ時処理を行う。非ドライブレンジ時処理では、シフトレンジが「D」(ドライブレンジ)時以外の走行時の処理を行う。例えば、制御部110のCPUは、シフトレンジが「R」(リバースレンジ)であれば、リバースレンジ時処理などを行う。リバースレンジ時処理では、駐車を想定した処理などを行う。非ドライブレンジ時処理の詳細については、説明を省略する。そして、非ドライブレンジ時処理を終えると、走行時処理を終了する。
(Step S303)
In step S303, the CPU of the
(ステップS310)
ステップS310において、制御部110のCPUは、走行中処理を行う。走行中処理では、周辺状況に応じて走行中におけるエージェント200の制御処理を行う。例えば、制御部110のCPUは、コーナー進入前の減速指示や、カーブの半径の報知を、エージェント200の動作により伝達させる処理などを行う。走行中処理の詳細については、後述する。そして、走行中処理が終了したら、走行時処理を終了する。
(Step S310)
In step S310, the CPU of
次に、図8を用いて、制御部110のCPUにより行われる走行中処理について説明を行う。図8は、図7のステップS310(走行中処理)のサブルーチンである。
Next, the running process performed by the CPU of the
(ステップS311)
走行中処理では、まず、ステップS311において、制御部110のCPUは、接近物があるか否かを判定する処理を行う。具体的には、制御部110のCPUは、車外撮影用カメラ120aやレーダ120b等から入力された周辺状況の情報から、車両1に対して所定の範囲内および所定の速度以上で接近するもの(や人など)があるか否かを判定する。すなわち、制御部110のCPUは、取得した周辺状況により、障害物の回避を行う必要があるか否かを判断する。制御部110のCPUは、接近物があると判定した場合には、ステップS312に処理を移行し、接近物がないと判定した場合には、ステップS314に処理を移行する。
(Step S311)
In the running process, first, in step S311, the CPU of the
(ステップS312)
ステップS312において、制御部110のCPUは、障害物回避処理を行う。障害物回避処理には、緊急回避処理と普通回避処理とがある。すなわち、車両1に接近物があった場合、衝突の虞があり、早急に回避行動をとらなければならない場合と、ドライバーHに報知し、適切な処置を行わせるだけでよい場合と、がある。制御部110のCPUは、取得した周辺状況に応じて、緊急回避処理または普通回避処理を行う。緊急回避処理では、状況によっては、ドライバーHの操作によらず緊急ブレーキの発動や、エアバッグ8の展開を行うこともある。そして、制御部110のCPUは、障害物回避処理の後、ステップS313に処理を移行する。
(Step S312)
In step S312, the CPU of the
(ステップS313)
ステップS313において、制御部110のCPUは、走行停止であるか否かを判定する処理を行う。この走行停止には、ドライバーHの操作によらず、制御部110のCPUにより、車両1を走行停止させた場合も、ドライバーHが車両1を停車させた場合も、含まれる。制御部110のCPUは、走行停止でないと判定した場合には、ステップS311に処理を移行し、走行停止であると判定した場合には、走行中処理を終了する。
(Step S313)
In step S313, the CPU of the
(ステップS314)
ステップS314において、制御部110のCPUは、車速が「0」であるか否かを判定する処理を行う。具体的には、制御部110のCPUは、車速センサ140aから入力された車速に基づいて、車両1が停止したか否かを判定する。制御部110のCPUは、車速が「0」でないと判定した場合には、ステップS315に処理を移行し、車速が「0」であると判定した場合には、走行中処理を終了する。
(Step S314)
In step S314, the CPU of
(ステップS315)
ステップS315において、制御部110のCPUは、コーナーに接近したか否かを判定する処理を行う。例えば、制御部110のCPUは、車両1の進行経路にコーナーがあり、コーナーまでの距離が所定の距離、または、コーナーに達するまでの推定時間が所定の時間以内などとなったところで、コーナーに接近したと判断する。なお、この判定のための距離や時間などは、車両1の速度や走行路の状況などによって変更することが望ましい。制御部110のCPUは、コーナーに接近したと判定した場合には、ステップS320に処理を移行し、コーナーに接近していないと判定した場合には、ステップS316に処理を移行する。
(Step S315)
In step S315, the CPU of the
(ステップS316)
ステップS316において、制御部110のCPUは、コーナー外走行中処理を行う。コーナー外走行中処理では、走行中の経路がコーナー以外、および、コーナーの直近以外である場合の走行時の処理を行う。例えば、制御部110のCPUは、走行路が直進路であれば、直進時処理などを行う。コーナー外走行中処理の詳細については、説明を省略する。そして、コーナー外走行中処理を行った後、ステップS311に処理を移行する。
(Step S316)
In step S316, the CPU of the
(ステップS320)
ステップS320において、制御部110のCPUは、コーナー走行用処理を行う。コーナー走行用処理では、コーナーの手前からコーナーの走行中におけるエージェント200の制御処理などを行う。例えば、制御部110のCPUは、車両1のコーナー走行中のアンダーステアーによる対向車線へのはみだし防止の処理などを行う。コーナー走行用処理の詳細については、後述する。そして、コーナー走行用処理を行った後、ステップS311に処理を移行する。
(Step S320)
In step S320, the CPU of the
次に、図9を用いて、制御部110のCPUにより行われるコーナー走行用処理について説明を行う。図9は、図8のステップS320(コーナー走行用処理)のサブルーチンである。
Next, the corner running processing performed by the CPU of the
(ステップS321)
コーナー走行用処理では、まず、ステップS321において、制御部110のCPUは、コーナー進入前であるか否かを判定する処理を行う。例えば、制御部110のCPUは、車両1の走行路が、直進路であるか、すでに曲がっているか否かなどを判定する。制御部110のCPUは、コーナー進入前であると判定した場合には、ステップS322に処理を移行し、コーナー進入前でない、すなわち、もうコーナー内に入っていると判定した場合には、ステップS326に処理を移行する。
(Step S321)
In the corner running process, first, in step S321, the CPU of the
(ステップS322)
ステップS322において、制御部110のCPUは、ドライバーHに対して、コーナーを認識させる処理を行う。具体的には、制御部110のCPUは、エージェント200に対して、コーナーに接近していることを、音声、または、指差しなどの動作、あるいは、その両方で報知し、ドライバーHに対してコーナーを認識させる。そして、コーナーを認識させる処理の実行後、ステップS323に処理を移行する。
(Step S322)
In step S322, the CPU of the
(ステップS323)
ステップS323において、制御部110のCPUは、減速の指示を行う。具体的には、図10に示すように、制御部110のCPUは、エージェント200に対して、掌を下に向け、両腕を水平に広げさせる。これにより、ドライバーHに対して、中心視野に意識が集中していたものを、周辺の注意も必要であることを意識付けさせる。そして、制御部110のCPUは、エージェント200の両腕を広げたまま、両足を屈伸させて、しゃがみこませる。これにより、減速の指示を行い、ドライバーHに減速行動を起こさせることができる。なお、減速の必要度合いに応じて、屈伸量(屈伸の深さ)を変えることで、減速の量をイメージさせることができる。また、地図情報等から道路状況等は収集することができる。そして、道路状況、場合によっては対向車などの情報も含めて、減速の必要量を求め、減速度合いに応じて屈伸量を設定する。
(Step S323)
In step S323, the CPU of the
例えば、図11に示すように、コーナーの前方の視界が遮られている場合がある。このような場合、前方の状況を視認することができず、対向車がセンターラインをはみ出して、自車が走行している車線に進入してくる可能性もある。したがって、このような場合には、見通しが良い場合よりも、減速量を多くする必要がある。このため、道路状況などによって、減速量を設定することが望ましい。また、ドライバーHに車両1の停止を促す必要があると判断した場合には、エージェント200の掌をドライバーHに向けさせる。これにより、安全性を向上させることができる。なお、本ステップに限らず、ドライバーHに車両1の停止を促す必要があると判断した場合には、随時、エージェント200の掌をドライバーHに向けさせる。そして、減速の指示を行ったら、ステップS324に処理を移行する。
For example, as shown in FIG. 11, the view ahead of the corner may be obstructed. In such a case, the situation ahead cannot be visually recognized, and an oncoming vehicle may cross the center line and enter the lane in which the vehicle is traveling. Therefore, in such a case, it is necessary to decelerate more than when the visibility is good. Therefore, it is desirable to set the deceleration amount according to road conditions and the like. Further, when it is determined that it is necessary to prompt the driver H to stop the
(ステップS324)
ステップS324において、制御部110のCPUは、コーナー出口の報知を行う。ここで、制御部110のCPUは、ドライバーHに視線がコーナー出口に集中してしまわないように、対向車などを周辺視野でとらえさせつつ、コーナー出口を示す。具体的には、制御部110のCPUは、エージェント200に対して、一方の腕でコーナー出口を指差しながら、他方の腕は水平に伸ばしたまま、減速およびドライバーHの視線がコーナー出口に集中してしまわないように、視線誘導を行う。また、コーナー出口の指差しは、短時間とすることにより、さらに、ドライバーHの視線がコーナー出口に集中してしまわないようにする。そして、コーナー出口の報知を行ったら、ステップS325に処理を移行する。
(Step S324)
In step S324, the CPU of the
(ステップS325)
ステップS325において、制御部110のCPUは、コーナーの直前に達したか否かを判定する処理を行う。すなわち、制御部110のCPUは、コーナーまでの距離が所定の距離、または、コーナーに達するまでの推定時間が所定の時間以内などとなり、コーナーに接近したと判断してから、さらに走行し、上記距離や時間などよりも短い、コーナー直前と設定した距離や時間などとなったか否かを判定する。
(Step S325)
In step S325, the CPU of the
なお、このコーナー直前と設定する距離や時間などについても、適宜設定可能である。すなわち、コーナー直前判定を、走行路が曲がり出す寸前としてもよいし、ある程度余裕を持った段階でコーナー直前と判定するようにしてもよい。また、このコーナー直前判定値は、車両1の速度や走行路の状況などに加え、ドライバーHの特性などによって変化させるようにしてもよい。制御部110のCPUは、コーナーの直前に達したと判定した場合には、ステップS326に処理を移行し、コーナーの進行中における処理等を行い、コーナーの直前に達していないと判定した場合には、ステップS322に処理を移行する。
It should be noted that the distance and time to be set immediately before the corner can also be set as appropriate. In other words, the judgment just before the corner may be made just before the road turns, or it may be judged that the road is just before the corner when there is some margin. Further, this corner-preceding determination value may be changed according to the characteristics of the driver H in addition to the speed of the
(ステップS326)
ステップS326において、制御部110のCPUは、エージェント200に対して、コーナーの曲率(R:回転半径)表現を行わせる。また、制御部110のCPUは、このコーナーの曲率表現の際に、減速をイメージさせつつ、コーナーの曲率表現を行い、コーナーの出口表現を継続して行う。
(Step S326)
In step S326, the CPU of the
具体的には、図12に示すように、制御部110のCPUは、エージェント200に対して、一方の腕でコーナー出口を指差しながら、他方の腕を水平に伸ばして減速をイメージさせる。そして、上半身を傾けさせ、ねじりを加えて、上半身の傾きとねじり度合いでコーナーのキツさを表現する。また、左右の屈伸量を変え、エージェント200の上半身のねじれと片膝の屈伸度合いによっても、コーナーの深さを再現する。さらに、一方の腕のコーナー出口の指差しを継続したまま、他方の腕の水平も維持することにより、減速をイメージさせる。また、屈伸量の大きさによって、減速量も表現する。このように、エージェント200が、上半身のねじれと片膝の屈伸度合い、また、腕だけの動作ではなく、肩を入れて屈伸も活用して体をねじることにより、カーブの深さを表現することにより、ドライバーHがエージェント200を周辺視野で捉えるだけで、コーナーのRの大きさなど状況を把握することができ、よそ見することなく安全に走行することができる。そして、コーナーの曲率表現後、ステップS327に処理を移行する。
Specifically, as shown in FIG. 12, the CPU of the
(ステップS327)
ステップS327において、制御部110のCPUは、コーナーが終了したか否かを判定する処理を行う。制御部110のCPUは、コーナーが終了したと判定した場合には、コーナー走行用処理を終了し、コーナーが終了していないと判定した場合には、ステップS328に処理を移行する。
(Step S327)
In step S327, the CPU of
(ステップS328)
ステップS328において、制御部110のCPUは、曲率が変化したか否かを判定する処理を行う。すなわち、1つのコーナーにおいても、途中で曲率が変化する場合がある。例えば、1つのコーナーにおいても、複数のカーブが存在することがある。具体的には、1つのコーナーにおいて、前半のカーブの曲率、すなわち、回転半径と、後半のカーブの曲率と、が異なることがある。また、途中でカーブの方向が逆になることもある。そこで、曲率が変化したか否かを判定し、曲率が変化した場合には、変化に応じた対応を行う。制御部110のCPUは、曲率が変化したと判定した場合には、ステップS329に処理を移行し、曲率が変化していないと判定した場合には、ステップS326に処理を移行する。
(Step S328)
In step S328, the CPU of
(ステップS329)
ステップS329において、制御部110のCPUは、変化した曲率に合わせて、エージェント200の表現を変更させる。具体的には、制御部110のCPUは、カーブの曲率が変化したら、あるいは、変化する前に、エージェント200の上半身の傾きとねじり度合いを変更させる。また、曲率が変化することを示すため、一端腕を曲げるなどの動作を挟むようにしてもよい。そして、曲率に合わせた表現に変更したら、ステップS326に処理を移行する。
(Step S329)
In step S329, the CPU of
以上のように、本実施の形態のエージェント装置100は、エージェント200に対して、コーナーの深さ(R)と視線誘導とを同時に与えるので、ドライバーHに対して、コーナーにおける周囲の注意も意識付けさせつつ、所定の運転操作も行わせることができ、アンダーステアーによる対向車線へのはみ出しなどを防止することができる。すなわち、特定の対象物にドライバーHの視線が集中して、周辺の注意が疎かになってしまうことを防止して、安全性を向上させることができる。
As described above, the
なお、本実施の形態のエージェント制御処理は、制御部110のROM、RAM、EEPROM等に記憶されたプログラムが、制御部110のRAM等に展開されて、制御部110のCPU等によって実行される。
さらに、本実施の形態において、シフトポジションセンサ140fは、本願のシフトポジション検知部を構成する。また、本実施の形態において、周辺環境認識部120は、本願の周辺状況取得部を構成する。
In the agent control process of the present embodiment, a program stored in the ROM, RAM, EEPROM, etc. of the
Furthermore, in the present embodiment, the
また、本実施の形態においては、制御部110とエージェント制御部190の双方によって、本願のエージェント制御部を構成するようにしたが、前述のように、エージェント制御部190のみで、本実施の形態の制御部110とエージェント制御部190の双方の機能を有するようにしてもよい。
In the present embodiment, both the
1:車両、100:エージェント装置、110:制御部、120:周辺環境認識部、130:乗員状態認識部、140:車両状態認識部、140f:シフトポジションセンサ、150:スピーカ、160:マイク、170:記憶部、180:送受信機、190:エージェント制御部、191:エージェントスピーカ、200:エージェント
1: vehicle, 100: agent device, 110: control unit, 120: surrounding environment recognition unit, 130: occupant state recognition unit, 140: vehicle state recognition unit, 140f: shift position sensor, 150: speaker, 160: microphone, 170 : storage unit, 180: transceiver, 190: agent control unit, 191: agent speaker, 200: agent
Claims (4)
周辺状況を取得する周辺状況取得部と、
擬人化されたエージェントを制御するエージェント制御部と、
を備え、
前記エージェント制御部は、
前記周辺状況の取得により、進行経路にコーナーがあると判断した場合、両腕と屈伸を用いて、コーナーの曲率を表現させる、
ことを特徴とするエージェント装置。 a shift position detection unit that detects a shift position;
a peripheral situation acquisition unit that acquires a peripheral situation;
an agent control unit that controls an anthropomorphic agent;
with
The agent control unit
When it is determined that there is a corner in the traveling path by acquiring the surrounding situation, the curvature of the corner is expressed using both arms and bending and stretching.
An agent device characterized by:
両腕を広げ、コーナーの出口方向の足を曲げ、コーナーの出口に目線を向けさせる、
ことを特徴とする請求項1に記載のエージェント装置。 The agent control unit
Spread your arms, bend your legs toward the exit of the corner, and turn your eyes to the exit of the corner.
The agent device according to claim 1, characterized by:
コーナーの進行中においては、一方の腕を上げた状態を維持し、他方の腕でコーナーの出口を指し示す、
ことを特徴とする請求項1または請求項2に記載のエージェント装置。 The agent control unit
During the corner, keep one arm up and point the exit of the corner with the other arm.
3. The agent device according to claim 1 or 2, characterized by:
運転者に停止を促す必要があると判断した場合、掌を運転者に向けさせる、
ことを特徴とする請求項1から請求項3のいずれか1項に記載のエージェント装置。
The agent control unit
If it determines that it is necessary to prompt the driver to stop, turn the palm to the driver,
4. The agent device according to any one of claims 1 to 3, characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021123831A JP2023019245A (en) | 2021-07-29 | 2021-07-29 | Agent device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021123831A JP2023019245A (en) | 2021-07-29 | 2021-07-29 | Agent device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023019245A true JP2023019245A (en) | 2023-02-09 |
Family
ID=85160070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021123831A Pending JP2023019245A (en) | 2021-07-29 | 2021-07-29 | Agent device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023019245A (en) |
-
2021
- 2021-07-29 JP JP2021123831A patent/JP2023019245A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11492017B2 (en) | Information presentation device and information presentation method | |
JP4380541B2 (en) | Vehicle agent device | |
JP6976089B2 (en) | Driving support device and driving support method | |
KR101895485B1 (en) | Drive assistance appratus and method for controlling the same | |
CN110730740B (en) | Vehicle control system, vehicle control method, and storage medium | |
US20210064030A1 (en) | Driver assistance for a vehicle and method for operating the same | |
WO2018220827A1 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
JP2018180594A (en) | Running support device | |
JP2019006275A (en) | Vehicle control system, vehicle control method, and vehicle control program | |
WO2018220832A1 (en) | Vehicle control system, vehicle control method, and program | |
US10994612B2 (en) | Agent system, agent control method, and storage medium | |
WO2018220834A1 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
JP2002019491A (en) | Display device of vehicle | |
JP2000193480A (en) | On-vehicle input/output device | |
JP2003300443A (en) | Parking assist system | |
WO2019058781A1 (en) | Parking assistance device | |
EP3683668A1 (en) | Vehicle display device | |
WO2022224754A1 (en) | Vehicle display system, vehicle display method, and vehicle display program | |
US20240001763A1 (en) | Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program | |
JP7181744B2 (en) | Vehicle agent device | |
JP2023019245A (en) | Agent device | |
EP4102323B1 (en) | Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program | |
JP2023019244A (en) | Agent device | |
JP2023019247A (en) | Agent device | |
JP2023019246A (en) | Agent device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240610 |