JP2020056607A - 車両用エージェント装置 - Google Patents
車両用エージェント装置 Download PDFInfo
- Publication number
- JP2020056607A JP2020056607A JP2018185748A JP2018185748A JP2020056607A JP 2020056607 A JP2020056607 A JP 2020056607A JP 2018185748 A JP2018185748 A JP 2018185748A JP 2018185748 A JP2018185748 A JP 2018185748A JP 2020056607 A JP2020056607 A JP 2020056607A
- Authority
- JP
- Japan
- Prior art keywords
- character
- vehicle
- occupant
- anthropomorphic
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 48
- 230000008569 process Effects 0.000 claims description 46
- 239000012141 concentrate Substances 0.000 abstract description 4
- 230000002093 peripheral effect Effects 0.000 abstract description 3
- 239000003795 chemical substances by application Substances 0.000 description 51
- 238000012545 processing Methods 0.000 description 31
- 230000004044 response Effects 0.000 description 11
- 239000004973 liquid crystal related substance Substances 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000036772 blood pressure Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 206010041349 Somnolence Diseases 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Description
例えば、乗員と、擬人化されたキャラクタ(いわゆるエージェント)とが、コミュニケーションを図ることが可能な車両用エージェント装置も上記手法の1つとして提案されており、このような車両用エージェント装置として、特許文献1では、擬人化されたエージェントを車両内に出現させ、当該エージェントが状況に合わせた行為をすることで、乗員とのコミュニケーションを図ることが提案されている。
図1、図2に示すように、車両1は、運転席2の車両前方側に設けられるインストルメントパネル3と、運転席2とインストルメントパネル3との間に配置されるステアリングホイール4とを有している。ステアリングホイール4は、ステアリングシャフト(図示省略)を介してステアリングコラム(図示省略)に回転自在に取り付けられている。また、ステアリングホイール4の内部には、車両1が衝突等した際に、ドライバーHに向けて展開するエアバック8が格納されている。
図1、図2に示すように、第1表示用パネル30は、アナログ時計のように構成された指針式メータと、液晶パネルとバックライトとが一体的に設けられたいわゆる液晶ディスプレイ装置とを備えて構成されている。ドライバー(運転者)H(以下、ドライバーH)は、第1表示用パネル30の第1表示領域30aに表示される各種情報を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。
図1、図2に示すように、第2表示用パネル40は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されており、その下端部の左右方向の両端部には、それぞれ、相反する方向に突出する一対の回動軸41が取り付けられている。この回動軸41が支持部材(図示省略)によって軸支されることによって、上方に向けて起立する起立位置と、車両前方へ向けて倒伏する倒伏位置との間で可変自在に取り付けられている。ドライバーHは、第2表示用パネル40の第2表示領域40aに表示される各種画像を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。なお、第2表示用パネル40は、起立位置と倒伏位置との間で可変自在に構成したが、支持部材から起立したまま突出する突出位置と支持部材の内部に格納される格納位置との間で上下に可変自在に構成してもよいし、可変不能に固定されていてもよい。
図1に示すように、第3表示用パネル50は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されている。なお、第3表示用パネル50には地図情報等が表示され、いわゆるカーナビゲーションシステムを担っている。
図2に示すように、操作ボタン60は、上下左右の4方向のキーが設けられた操作デバイスであって、本発明の車両用エージェント装置の制御部110(図3参照)に対して、操作信号を入力可能となっている。これにより、例えば、擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声の音量値の変更や、擬人化キャラクタ画像I1の表示位置の変更等ができるようになっている。
制御部110は、図示しないCPU、ROM、RAM(例えば、リングバッファ)、入出力ポート等を備えており、例えば、入力ポートより情報入力が行われると、ROMから読み出した制御プログラムに基づいて、出力ポートを介して各種デバイス(第2表示用パネル40やスピーカ150)を制御するようになっている。
周辺環境認識部120は、車両1(自車両)の周辺環境を認識するために設けられている。また、周辺環境認識部120は、車外撮影用カメラ120aと、レーダ120bとを備えており、これらのデバイスによって車両1の周辺環境を認識することができるようになっている。
車外撮影用カメラ120aは、例えば、図示しないルームミラーに取り付けられており、車両1の前方、および、車両1の後方を撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、車両1の前方、車両1の後方の状況をリアルタイムおよび事後的に認識することができる。
レーダ120bは、例えば、電波を飛ばして障害物等を検知するミリ波レーダが用いられており、当該ミリ波レーダが車両1のフロントバンパやリアバンパに取り付けられ、車両1の前方監視、車両1の前側方監視、車両1の後側方監視ができるようになっている。そして、監視情報が制御部110に入力されて、制御部110がRAMに監視情報を記憶する。これにより、制御部110は、車両1の前方、車両1の前側方の状況、車両1の後側方の状況をリアルタイムおよび事後的に認識することができる。なお、本実施形態においてはミリ波レーダを用いているが、他のレーダを用いてもよい。例えば、赤外線レーダでもよい。
乗員状態認識部130は、ドライバーHの状態を認識するために設けられている。また、乗員状態認識部130は、乗員撮影用カメラ130aと、バイタルセンサ130bとを備えており、これらのデバイスによってドライバーHの状態を認識することができるようになっている。
乗員撮影用カメラ130aは、例えば、インストルメントパネル3に取り付けられており、ドライバーHを撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。なお、ここでいう、ドライバーHの状態とは、具体的には、ドライバーHの目蓋の状態や、瞬きの回数、視線の方向、顔の向きなどが想定される。
バイタルセンサ130bは、例えば、ステアリングホイール4のドライバーHにより把持される部位に取り付けられ、ドライバーHの心拍数や血圧等のバイタル情報を取得できるようになっている。そして、取得したバイタル情報が制御部110に入力されて、制御部110がRAMにバイタル情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。
車両状態認識部140は、車両1の状態を認識するために設けられている。また、車両状態認識部140は、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを備えており、これらのデバイスによって車両1の状態を認識することができるようになっている。
車速センサ140aは、車両1の車速を検出するためのセンサであって、検出された車速が車速信号として制御部110に入力されて、制御部110がRAMに車速情報を記憶する。これにより、制御部110は、車両1の車速をリアルタイムおよび事後的に認識することができる。
ハンドル角センサ140bは、車両1のハンドル角(ステアリングホイール4の角度)を検出するためのセンサであって、検出されたハンドル角が角度信号として制御部110に入力されて、制御部110がRAMに角度情報を記憶する。これにより、制御部110は、車両1のハンドル角(ステアリングホイール4の角度)をリアルタイムおよび事後的に認識することができる。
アクセルペダルセンサ140cは、図示しないアクセルペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のアクセルペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
ブレーキペダルセンサ140dは、図示しないブレーキペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のブレーキペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
Gセンサ140eは、車両1の加速度、減速度及び傾斜を検出するためのセンサであって、加速度が検出された場合は加速度量が、減速度が検出された場合は減速度量が、傾斜が検出された場合は傾斜角度量が、それぞれ加速度量信号、減速度量信号、傾斜角度信号として制御部110に入力されて、制御部110がRAMに加速度情報、減速度情報及び傾斜情報を記憶する。これにより、制御部110は、車両1の加速度、減速度及び傾斜をリアルタイムおよび事後的に認識することができる。
スピーカ150は、例えば、インストルメントパネル3に取り付けられており、擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声が出力される。なお、スピーカ150を設けずに、車両1に内蔵されているオーディオスピーカを用いてもよい。
マイク160は、例えば、インストルメントパネル3に取り付けられており、ドライバーH、その他乗員から発せられる音声が入力される。
記憶部170は、上述した各認識部から取得した情報や、ドライバーHと制御部110とで行われた対話等を記憶することが可能である。制御部110は、これらの情報を記憶部170に蓄積していくことで、ドライバーHの運転傾向(例えば、どのような運転を行うドライバーであるのか)や、ドライバーHの趣味嗜好(例えば、どのようなBGMが好みであるのか)等を認識することができる。また、これらを認識することで、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(擬人化キャラクタ画像I1)から能動的に行うこともできる。
送受信機180は、例えば、車載用の無線LANを用いた情報の取得や、衛星測位システムを用いた位置情報の取得などが可能である。制御部110は、これら取得した情報や、上述の記憶部170に蓄積した情報に基づいて、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(擬人化キャラクタ画像I1)から能動的に行うこともできる。
ステップS10において、制御部110のCPUは、車両状態認識処理を行う。具体的には、車両状態認識部140から入力した情報に基づいて、車両1における状態を認識する。そして、車両状態認識処理を終えると、ステップS20に処理を移行する。
ステップS20において、制御部110のCPUは、周辺環境認識処理を行う。具体的には、周辺環境認識部120から入力した情報に基づいて、車両1における周辺環境を認識する。そして、周辺環境認識処理を終えると、ステップS30に処理を移行する。
ステップS30において、制御部110のCPUは、乗員状態認識処理を行う。具体的には、乗員状態認識部130から入力した情報に基づいて、ドライバーHの状態を認識する。そして、乗員状態認識処理を終えると、ステップS40に処理を移行する。
ステップS40において、制御部110のCPUは、危険因子抽出処理を行う。具体的には、ステップS10〜ステップS30にて各種情報を認識した結果、危険因子が含まれているかを抽出する処理を行う。
ステップS50において、制御部110のCPUは、特定の状況であるか、を判定する。なお、特定の状況とは、各認識部から取得した情報が、所定の閾値を超え、危険因子が含まれている状況をいう。すなわち、ステップS40で危険因子抽出処理を行った結果、危険因子が含まれているかを判定する。そして、特定の状況であると判定した場合は、ステップS60に処理を移行し、特定の状況ではないと判定した場合は、ステップS70に処理を移行する。
ステップS60において、制御部110のCPUは、危険因子のレベルに対応した特定のキャラクタへの変更処理を行う。この特定のキャラクタとは、非擬人化キャラクタ及び非擬人化キャラクタに変更する前の特殊な擬人化キャラクタが意味し、危険因子があり、その危険因子のレベルが低いときには、特殊な擬人化キャラクタ(例えば、図6(b)で示す特殊な擬人化キャラクタ画像I2)に変更し、危険因子のレベルが高いときには、非擬人化キャラクタ(例えば、図6(c)で示す非擬人化キャラクタ画像I3)に変更する。
ステップS70において、制御部110のCPUは、特定の状況なしか、を判定する。具体的には、ステップS40で危険因子を抽出した結果、危険因子が抽出されなかったか、すなわち、特定の状況になかったかを判定する。そして、特定の状況になかったと判定した場合は、ステップS80に処理を移行し、特定の状況にあったと判定した場合は、ステップS100に処理を移行する。
ステップS80において、制御部110のCPUは、非擬人化キャラクタを含む特定のキャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「0」がセットされていれば、擬人化キャラクタをセット中であると認識し、「1」がセットされていれば、非擬人化キャラクタを含む特定のキャラクタをセット中であると認識する。すなわち、当該処理においては、RAMの識別フラグに「1」がセットされているかを判定する。そして、非擬人化キャラクタを含む特定のキャラクタをセット中であると判定した場合は、ステップS90に処理を移行し、非擬人化キャラクタを含む特定のキャラクタをセット中ではないと判定した場合は、ステップS100に処理を移行する。
ステップS90において、制御部110のCPUは、擬人化されたキャラクタへの変更処理を行う。具体的には、RAMの識別フラグ「1」に代えて、「0」をセットする。このように、危険因子が抽出されなかった場合は、非擬人化キャラクタを含む特定のキャラクタから通常の擬人化キャラクタに変更する。これにより、車両用エージェント装置100側からの能動的なスタイルでの対話(後述の自律的対話)が可能となる。そして、擬人化されたキャラクタへの変更処理を終えると、ステップS100に処理を移行する。
ステップS100において、制御部110のCPUは、報知制御処理を行う。なお、報知制御処理は、後に図5を用いて詳述する。そして、報知制御処理を終えると、メイン処理を終了する。
ステップS101において、制御部110のCPUは、非擬人化キャラクタを含む特定のキャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「1」がセットされているかを判定する。そして、非擬人化キャラクタを含む特定のキャラクタをセット中であると判定した場合は、ステップS102に処理を移行し、非擬人化キャラクタを含む特定のキャラクタをセット中ではないと判定した場合は、ステップS103に処理を移行する。
ステップS102において、制御部110のCPUは、自律型対話規制処理を行う。具体的には、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話を規制するための処理を行う。これにより、車両用エージェント装置100側からの画像および音声による語りかけは行われなくなり、乗員からの会話入力があった場合にのみ、画像おより音声により応答することになる。そして、自律型対話規制処理を終えると、ステップS104に処理を移行する。
ステップS103において、制御部110のCPUは、自律型対話制御処理を行う。具体的には、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話を行うための処理を行う。例えば、ドライバーHが乗車して、直線道路を走行している状態になったときなどにおいて、擬人化キャラクタ画像I1から「昨日は、○○様が応援している△△チームが負けてしまいました・・・」などといったことが音声および画像で報知(語りかけ)される。なお、当該語りかけにドライバーHが応答すれば、話題は継続される(後述のステップS105〜ステップS107)。例えば、ドライバーHがマイク160を介して、「今日は、□□選手が出るから勝つよ」などと応答すれば、擬人化キャラクタ画像I1が「そうですね!□□選手は頼もしいですからね!」などといった双方向での対話が可能である。一方、ドライバーHが応答しなければ、所定時間後に別の話題を持ち出して、再度擬人化キャラクタ画像I1から報知(語りかけ)が行われる。なお、複数回語りかけを行ったものの、ドライバーHからの応答がない場合は、ドライバーHが会話を行いたくない状態にあると認識して、語りかけの実行頻度を下げることもできる。そして、自律型対話制御処理を終えると、ステップS104に処理を移行する。
ステップS104において、制御部110のCPUは、乗員の会話入力があったかを判定する。具体的には、マイク160の入力ポートより音声入力が行われたかを判定する。なお、制御部110には、図示しない公知の音声認識部が設けられており、当該音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断するようになっている。また、ここでいう乗員とは、ドライバーHに限らず、他の乗員であってもよい。また、マイク160による音声入力に限らず、操作ボタン60による操作入力によって会話入力ができてもよい。ただし、安全性を鑑みて、ワンタッチ操作での会話入力ができることが好ましい。また、当該処理における乗員の会話入力は、上述した受動的なスタイルでの対話も含む。そして、乗員の会話入力があったと判定した場合は、ステップS105に処理を移行し、乗員の会話入力がなかったと判定した場合は、ステップS106に処理を移行する。
ステップS105において、制御部110のCPUは、対応する会話内容の応答制御処理を行う。具体的には、上述の音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断して、応答内容を決定し、セリフの表示データ、およびセリフの音声データを生成する。そして、対応する会話内容の応答制御処理を終えると、ステップS106に処理を移行する。
ステップS106において、制御部110のCPUは、画像表示処理を行う。具体的には、ステップS103において決定されたセリフの表示データや、ステップS105で生成したセリフの表示データを出力し、第2表示用パネル40に当該セリフを表示する処理を行う。そして、画像表示処理を終えると、ステップS107に処理を移行する。
ステップS107において、制御部110のCPUは、音出力処理を行う。具体的には、ステップS103において決定されたセリフの音声データや、ステップS105で生成したセリフの音声データを出力し、スピーカ150より当該セリフを出力する処理を行う。そして、音出力処理を終えると、メイン処理を終了する。以上のような処理によって、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話や、受動的なスタイルでの対話や、危険因子の有無に応じたキャラクタ画像の変更等が実現される。
以下に、想定される変形例を追記する。
本実施形態において、制御部110は、本発明の、キャラクタを制御するエージェント制御手段を構成する。
Claims (5)
- キャラクタと乗員との双方向のコミュニケーションが可能な車両用エージェント装置であって、
前記キャラクタを制御するエージェント制御手段と、
車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、
前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、
前記エージェント制御手段は、
視覚または聴覚的に擬人化された擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、
前記識別手段により前記特定の状況に相当すると識別された場合、前記擬人化キャラクタを、視覚または聴覚的に擬人化されたものと乗員が認識できない非擬人化キャラクタに変更させる、
ことを特徴とする車両用エージェント装置。 - 前記エージェント制御手段は、
前記非擬人化キャラクタを制御しているときは、前記擬人化キャラクタを制御しているときよりも、キャラクタからのコミュニケーションの実行頻度が低下する、
ことを特徴とする請求項1に記載の車両用エージェント装置。 - 前記エージェント制御手段は、
前記擬人化キャラクタから前記非擬人化キャラクタへ変更する過程を報知する、
ことを特徴とする請求項1または請求項2に記載の車両用エージェント装置。 - 前記エージェント制御手段は、
キャラクタと乗員との双方向のコミュニケーションの制御手段として、
乗員からの会話の入力があった場合に、入力した会話の内容を乗員に返答する他律型会話制御手段と、
乗員からの会話の入力の有無にかかわらず、所定の乗員情報に基づいて、乗員に会話をする自律型会話制御手段と、を有し、
前記非擬人化キャラクタを制御しているときは、前記自律型会話制御手段による会話を規制する、
ことを特徴とする請求項1乃至請求項3のいずれか一項に記載の車両用エージェント装置。 - 前記エージェント制御手段は、
前記擬人化キャラクタを前記非擬人化キャラクタに変更させた後、前記識別手段により前記特定の状況に相当すると識別されない場合は、前記擬人化キャラクタに復帰させる、
ことを特徴とする請求項1乃至請求項4のいずれか一項に記載の車両用エージェント装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018185748A JP7181743B2 (ja) | 2018-09-28 | 2018-09-28 | 車両用エージェント装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018185748A JP7181743B2 (ja) | 2018-09-28 | 2018-09-28 | 車両用エージェント装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020056607A true JP2020056607A (ja) | 2020-04-09 |
JP7181743B2 JP7181743B2 (ja) | 2022-12-01 |
Family
ID=70106973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018185748A Active JP7181743B2 (ja) | 2018-09-28 | 2018-09-28 | 車両用エージェント装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7181743B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11968352B2 (en) | 2020-11-30 | 2024-04-23 | Honda Motor Co., Ltd. | Display method and system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1137766A (ja) * | 1997-07-22 | 1999-02-12 | Aqueous Res:Kk | エージェント装置 |
JP2001307298A (ja) * | 2000-04-24 | 2001-11-02 | Kenwood Corp | 車載用ナビゲーション装置及び表示装置 |
JP2013078969A (ja) * | 2011-10-03 | 2013-05-02 | Yupiteru Corp | 運転支援システムおよび運転支援プログラム |
-
2018
- 2018-09-28 JP JP2018185748A patent/JP7181743B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1137766A (ja) * | 1997-07-22 | 1999-02-12 | Aqueous Res:Kk | エージェント装置 |
JP2001307298A (ja) * | 2000-04-24 | 2001-11-02 | Kenwood Corp | 車載用ナビゲーション装置及び表示装置 |
JP2013078969A (ja) * | 2011-10-03 | 2013-05-02 | Yupiteru Corp | 運転支援システムおよび運転支援プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11968352B2 (en) | 2020-11-30 | 2024-04-23 | Honda Motor Co., Ltd. | Display method and system |
Also Published As
Publication number | Publication date |
---|---|
JP7181743B2 (ja) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6372388B2 (ja) | ドライバの運転不能状態検出装置 | |
US10430676B2 (en) | Apparatus detecting driving incapability state of driver | |
CN106663377B (zh) | 驾驶员的驾驶不能状态检测装置 | |
JP4894300B2 (ja) | 車載装置調整装置 | |
JP6555647B2 (ja) | 車両運転支援システム及び車両運転支援方法 | |
WO2016027412A1 (ja) | 車載制御装置 | |
JP6379720B2 (ja) | ドライバの運転不能状態検出装置 | |
JP6593712B2 (ja) | 車両運転支援システム | |
JP2017124735A (ja) | 運転支援装置 | |
JP2016137871A (ja) | 車両用乗員感情対応制御装置 | |
JP6075577B2 (ja) | 運転支援装置 | |
JP7181744B2 (ja) | 車両用エージェント装置 | |
JP7358040B2 (ja) | 車両用報知装置 | |
JP7181743B2 (ja) | 車両用エージェント装置 | |
JP6631545B2 (ja) | 依存度推定装置 | |
JP6428376B2 (ja) | 情報表示装置 | |
CN115139898A (zh) | 一种交互的方法和装置 | |
JP2018173996A (ja) | ドライバの運転不能状態検出装置 | |
JP7393739B2 (ja) | ドライバ状態推定装置 | |
JP7095337B2 (ja) | 表示制御装置および表示制御方法 | |
JP6607287B2 (ja) | ドライバの運転不能状態検出装置 | |
WO2022239642A1 (ja) | 車両用情報提供装置、車両用情報提供方法、及び車両用情報提供プログラム | |
KR20150103478A (ko) | 차량용 대화 보조 장치 | |
JP2023019248A (ja) | エージェント装置 | |
JP2023019245A (ja) | エージェント装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181743 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |