JP2020056607A - 車両用エージェント装置 - Google Patents

車両用エージェント装置 Download PDF

Info

Publication number
JP2020056607A
JP2020056607A JP2018185748A JP2018185748A JP2020056607A JP 2020056607 A JP2020056607 A JP 2020056607A JP 2018185748 A JP2018185748 A JP 2018185748A JP 2018185748 A JP2018185748 A JP 2018185748A JP 2020056607 A JP2020056607 A JP 2020056607A
Authority
JP
Japan
Prior art keywords
character
vehicle
occupant
anthropomorphic
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018185748A
Other languages
English (en)
Other versions
JP7181743B2 (ja
Inventor
愛美 相川
Manami Aikawa
愛美 相川
勇 長澤
Isamu Nagasawa
勇 長澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2018185748A priority Critical patent/JP7181743B2/ja
Publication of JP2020056607A publication Critical patent/JP2020056607A/ja
Application granted granted Critical
Publication of JP7181743B2 publication Critical patent/JP7181743B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

【課題】擬人化されたキャラクタと乗員とのコミュニケーションが過度になることを防ぎ、乗員に集中して運転させることを可能とする車両用エージェント装置を提供すること。【解決手段】車両用エージェント装置100は、少なくとも第2表示用パネル40に表示された擬人化キャラクタ画像I1、スピーカ150、マイク160を用いて、ドライバーHとの対話が可能である。そして、車両用エージェント装置100は、周辺環境認識部120、乗員状態認識部130、車両状態認識部140の少なくともいずれかから情報を取得し、取得した情報が所定の閾値を超えている場合は、擬人化キャラクタ画像I1から非擬人化キャラクタ画像I3に変更する。【選択図】図3

Description

本発明は、乗員と、擬人化されたキャラクタとが、コミュニケーションを図ることが可能な車両用エージェント装置に関する。
自動車などの車両においては、乗員(特にドライバー)の運転環境を整える(例えば、眠気防止を図る)ことで、より安全性を向上させることが継続的な課題であり、このような運転環境を整える手法として、様々な手法が提案されている。
例えば、乗員と、擬人化されたキャラクタ(いわゆるエージェント)とが、コミュニケーションを図ることが可能な車両用エージェント装置も上記手法の1つとして提案されており、このような車両用エージェント装置として、特許文献1では、擬人化されたエージェントを車両内に出現させ、当該エージェントが状況に合わせた行為をすることで、乗員とのコミュニケーションを図ることが提案されている。
特開平11−37766号公報
上記特許文献1によれば、乗員を飽きさせることなく運転させることができるといった利点は得られるものの、その反面、乗員が擬人化されたエージェントと過度にコミュニケーションを図ってしまい、運転に集中できなくなる、といった問題を抱えていた。
本発明は、このような従来の問題を解決するためになされたもので、擬人化されたキャラクタと乗員とのコミュニケーションが過度になることを防ぎ、乗員に集中して運転させることを可能とする車両用エージェント装置を提供することを目的とする。
本発明に係る車両用エージェント装置は、キャラクタと乗員との双方向のコミュニケーションが可能な車両用エージェント装置であって、前記キャラクタを制御するエージェント制御手段と、車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、前記エージェント制御手段は、視覚または聴覚的に擬人化された擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、前記識別手段により前記特定の状況に相当すると識別された場合、前記擬人化キャラクタを、視覚または聴覚的に擬人化されたものと乗員が認識できない非擬人化キャラクタに変更させることを特徴とする。
また、前記エージェント制御手段は、前記非擬人化キャラクタを制御しているときは、前記擬人化キャラクタを制御しているときよりも、キャラクタからのコミュニケーションの実行頻度が低下するようにしてもよい。
また、前記エージェント制御手段は、前記擬人化キャラクタから前記非擬人化キャラクタへ変更する過程を報知するようにしてもよい。
さらに、前記エージェント制御手段は、キャラクタと乗員との双方向のコミュニケーションの制御手段として、乗員からの会話の入力があった場合に、入力した会話の内容を乗員に返答する他律型会話制御手段と、乗員からの会話の入力の有無にかかわらず、所定の乗員情報に基づいて、乗員に会話をする自律型会話制御手段と、を有し、前記非擬人化キャラクタを制御しているときは、前記自律型会話制御手段による会話を規制するようにしてもよい。
さらに、前記エージェント制御手段は、前記擬人化キャラクタを前記非擬人化キャラクタに変更させた後、前記識別手段により前記特定の状況に相当すると識別されない場合は、前記擬人化キャラクタに復帰させるようにしてもよい。
本発明によれば、擬人化されたキャラクタと乗員とのコミュニケーションが過度になることを防ぎ、乗員に集中して運転させることを可能とする車両用エージェント装置を提供することができる。
本発明の実施の一形態に係る車両の車室内を示す斜視図である。 第1表示用パネル及び第2表示用パネルを運転席側から視た状態を示す正面図である。 車両用エージェント装置を説明するためのブロック図である。 車両用エージェント装置の制御部によって行われるメインフローチャート図である。 車両用エージェント装置の制御部によって行われる報知制御処理を示すフローチャート図である。 車両用エージェント装置の報知例を示すアニメーション図である。
以下、本発明の実施の形態について、図面を参照して説明する。
以下、本発明の実施形態を、図1は本発明の実施の一形態に係る車両の車室内を示す斜視図、図2は第1表示用パネル30及び第2表示用パネル40を運転席側から視た状態を示す正面図、図3は車両用エージェント装置を説明するためのブロック図、図4は車両用エージェント装置の制御部によって行われるメインフローチャート図、図5は車両用エージェント装置の制御部によって行われる報知制御処理を示すフローチャート図、図6は車両用エージェント装置の報知例を示すアニメーション図である。なお、図中FRは車両前方を、UPは車両上方をそれぞれ示している。また、以下の説明における左右方向は、車両に着座した乗員が車両前方を向いた状態での左右方向を意味する。
(車室内における各構成)
図1、図2に示すように、車両1は、運転席2の車両前方側に設けられるインストルメントパネル3と、運転席2とインストルメントパネル3との間に配置されるステアリングホイール4とを有している。ステアリングホイール4は、ステアリングシャフト(図示省略)を介してステアリングコラム(図示省略)に回転自在に取り付けられている。また、ステアリングホイール4の内部には、車両1が衝突等した際に、ドライバーHに向けて展開するエアバック8が格納されている。
図1に示すように、車両1の車室内には、第1表示用パネル30と、第2表示用パネル40と、第3表示用パネル50との3つの表示パネルが設けられている。これら第1表示用パネル30と、第2表示用パネル40とは、運転席2の前方側のインストルメントパネル3にそれぞれ離間して配置され、第3表示用パネル50は、運転席2の左前方側のインストルメントパネル3に配置されている。
(第1表示用パネル30)
図1、図2に示すように、第1表示用パネル30は、アナログ時計のように構成された指針式メータと、液晶パネルとバックライトとが一体的に設けられたいわゆる液晶ディスプレイ装置とを備えて構成されている。ドライバー(運転者)H(以下、ドライバーH)は、第1表示用パネル30の第1表示領域30aに表示される各種情報を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。
図2に示すように、第1表示用パネル30には、第1表示領域30aが設けられており、この第1表示領域30aの左右には、車両1の走行速度(スピードメータ)や、エンジンの単位時間当たりの回転数(タコメータ)などの情報を表示する2つの指針式メータと、2つの指針式メータの間であって第1表示用パネル30の中央部には、一般的な車両情報を示す画像を表示する小型の液晶ディスプレイ装置とが配置される。なお、第1表示用パネル30は、指針式メータを備えずに、全体を1つの液晶ディスプレイ装置で構成してもよい。
(第2表示用パネル40)
図1、図2に示すように、第2表示用パネル40は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されており、その下端部の左右方向の両端部には、それぞれ、相反する方向に突出する一対の回動軸41が取り付けられている。この回動軸41が支持部材(図示省略)によって軸支されることによって、上方に向けて起立する起立位置と、車両前方へ向けて倒伏する倒伏位置との間で可変自在に取り付けられている。ドライバーHは、第2表示用パネル40の第2表示領域40aに表示される各種画像を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。なお、第2表示用パネル40は、起立位置と倒伏位置との間で可変自在に構成したが、支持部材から起立したまま突出する突出位置と支持部材の内部に格納される格納位置との間で上下に可変自在に構成してもよいし、可変不能に固定されていてもよい。
図2に示すように、第2表示用パネル40には、第2表示領域40aが設けられており、この第2表示領域40aに、擬人化キャラクタ画像I1や、擬人化キャラクタ画像I1から発せられるセリフ画像I2(図6参照)が表示される。第2表示領域40aは、上述のスピードメータと、タコメータとの間に位置するので、ドライバーHは、視線を大きく移動させることなく、スピードメータの確認、タコメータの確認、擬人化キャラクタ画像I1およびセリフ画像I2、および非擬人化キャラクタ画像I3の確認ができるようになっている。なお、擬人化キャラクタ画像I1や非擬人化キャラクタ画像I3を用いた特徴部については図6で後述する。
(第3表示用パネル50)
図1に示すように、第3表示用パネル50は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されている。なお、第3表示用パネル50には地図情報等が表示され、いわゆるカーナビゲーションシステムを担っている。
なお、第1表示用パネル30、第2表示用パネル40及び第3表示用パネル50において構成されている液晶ディスプレイ装置を、プラズマディスプレイや有機EL等の自発光型の表示デバイス、投影型のプロジェクタ等の表示装置で構成してもよい。
(操作ボタン60)
図2に示すように、操作ボタン60は、上下左右の4方向のキーが設けられた操作デバイスであって、本発明の車両用エージェント装置の制御部110(図3参照)に対して、操作信号を入力可能となっている。これにより、例えば、擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声の音量値の変更や、擬人化キャラクタ画像I1の表示位置の変更等ができるようになっている。
次に、本発明における車両用エージェント装置100の構成について、図3のブロック図を参照して説明する。
図3に示すように、車両用エージェント装置100は、制御部110と、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、第2表示用パネル40と、操作ボタン60と、スピーカ150と、マイク160と、記憶部170と、送受信機180と、で構成されている。
なお、図3に示す車両用エージェント装置100は一例にすぎず、車両用エージェント装置100の構成要素は適宜変更ができる。例えば、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、は少なくともいずれか1つを備えていれば、本発明の車両用エージェント装置100を実現できるし、操作ボタン60と、記憶部170と、送受信機180と、は備えなくても、本発明の車両用エージェント装置100を実現できる。また、少なくともスピーカ150と、マイク160とを備えていれば、第2表示用パネル40は備えなくても、本発明の車両用エージェント装置100を実現できる。
また、本発明における車両用エージェント装置100は、例えば、マイク160を介してドライバーHから音声入力(例えば、問いかけ)が行われた場合に、それに対する返答をスピーカ150や第2表示用パネル40(擬人化キャラクタ画像I1)を介して行う、受動的なスタイルでの対話と、例えば、後述のマイク160を介してドライバーHから音声入力が行われていなくても、ドライバーHの趣味嗜好に併せた話題等をスピーカ150や第2表示用パネル40(擬人化キャラクタ画像I1)を介して車両用エージェント装置100側から行う、能動的なスタイルでの対話と、の両方が可能である。特に、能動的なスタイルでの対話を可能とすることで、積極的な語りかけにより、ドライバーHの眠気防止や運転ストレスの解消に寄与できる。
(制御部110)
制御部110は、図示しないCPU、ROM、RAM(例えば、リングバッファ)、入出力ポート等を備えており、例えば、入力ポートより情報入力が行われると、ROMから読み出した制御プログラムに基づいて、出力ポートを介して各種デバイス(第2表示用パネル40やスピーカ150)を制御するようになっている。
なお、制御部110のROMには、擬人化キャラクタ画像I1や、非擬人化キャラクタ画像I3から発せられるセリフのデータテーブル(図示省略)が記憶されている。制御部110のCPUは、後述する各認識部から取得した情報や、マイク160から取得した情報に基づいて、擬人化キャラクタ画像I1や、非擬人化キャラクタ画像I3から発するセリフをデータテーブルから決定する。例えば、BGMをかけて欲しいとの情報をマイク160から取得したら、データテーブルから「了解しました」といった擬人化キャラクタ画像I1のセリフを決定する。
(周辺環境認識部120)
周辺環境認識部120は、車両1(自車両)の周辺環境を認識するために設けられている。また、周辺環境認識部120は、車外撮影用カメラ120aと、レーダ120bとを備えており、これらのデバイスによって車両1の周辺環境を認識することができるようになっている。
(車外撮影用カメラ120a)
車外撮影用カメラ120aは、例えば、図示しないルームミラーに取り付けられており、車両1の前方、および、車両1の後方を撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、車両1の前方、車両1の後方の状況をリアルタイムおよび事後的に認識することができる。
(レーダ120b)
レーダ120bは、例えば、電波を飛ばして障害物等を検知するミリ波レーダが用いられており、当該ミリ波レーダが車両1のフロントバンパやリアバンパに取り付けられ、車両1の前方監視、車両1の前側方監視、車両1の後側方監視ができるようになっている。そして、監視情報が制御部110に入力されて、制御部110がRAMに監視情報を記憶する。これにより、制御部110は、車両1の前方、車両1の前側方の状況、車両1の後側方の状況をリアルタイムおよび事後的に認識することができる。なお、本実施形態においてはミリ波レーダを用いているが、他のレーダを用いてもよい。例えば、赤外線レーダでもよい。
以上のようにして、制御部110は、車両1の周辺環境をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の周辺環境の認識に基づいて、第2表示用パネル40の擬人化キャラクタ画像I1と、スピーカ150とを制御して、車両1の周辺環境の情報をドライバーHに対して報知することができる。例えば、車両1の前方に落下物があれば、「前方に落下物があります」といった画像および音声による報知ができる。これにより、安全性を向上させることができる。
なお、本実施形態においては、周辺環境認識部120として、車外撮影用カメラ120aと、レーダ120bとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
(乗員状態認識部130)
乗員状態認識部130は、ドライバーHの状態を認識するために設けられている。また、乗員状態認識部130は、乗員撮影用カメラ130aと、バイタルセンサ130bとを備えており、これらのデバイスによってドライバーHの状態を認識することができるようになっている。
(乗員撮影用カメラ130a)
乗員撮影用カメラ130aは、例えば、インストルメントパネル3に取り付けられており、ドライバーHを撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。なお、ここでいう、ドライバーHの状態とは、具体的には、ドライバーHの目蓋の状態や、瞬きの回数、視線の方向、顔の向きなどが想定される。
(バイタルセンサ130b)
バイタルセンサ130bは、例えば、ステアリングホイール4のドライバーHにより把持される部位に取り付けられ、ドライバーHの心拍数や血圧等のバイタル情報を取得できるようになっている。そして、取得したバイタル情報が制御部110に入力されて、制御部110がRAMにバイタル情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。
以上のようにして、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、ドライバーHの状態の認識に基づいて、第2表示用パネル40の擬人化キャラクタ画像I1と、スピーカ150とを制御して、所定の情報をドライバーHに対して報知することができる。例えば、「目蓋が下がっておりますが、休憩しませんか?」といった画像および音声による報知や、「いつもより心拍数が速いですが、休憩しませんか?」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。
乗員状態認識部130は、乗員撮影用カメラ130aやバイタルセンサ130bから取得した情報や、マイク160から入力した情報に基づいて、ある程度の範囲でドライバーHの思考感情を認識することができる。例えば、乗員撮影用カメラ130aよりドライバーHの顔の表情を取得し、バイタルセンサ130bよりドライバーHの心拍数や血圧を取得し、マイク160より声量や入力内容を取得し、これらの取得した情報からドライバーHが通常の思考感情にあるか、通常とは異なる思考感情(例えば、驚いている、怒っているなど)にあるかを認識することができる。
なお、本実施形態においては、乗員状態認識部130として、乗員撮影用カメラ130aと、バイタルセンサ130bとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
(車両状態認識部140)
車両状態認識部140は、車両1の状態を認識するために設けられている。また、車両状態認識部140は、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを備えており、これらのデバイスによって車両1の状態を認識することができるようになっている。
(車速センサ140a)
車速センサ140aは、車両1の車速を検出するためのセンサであって、検出された車速が車速信号として制御部110に入力されて、制御部110がRAMに車速情報を記憶する。これにより、制御部110は、車両1の車速をリアルタイムおよび事後的に認識することができる。
(ハンドル角センサ140b)
ハンドル角センサ140bは、車両1のハンドル角(ステアリングホイール4の角度)を検出するためのセンサであって、検出されたハンドル角が角度信号として制御部110に入力されて、制御部110がRAMに角度情報を記憶する。これにより、制御部110は、車両1のハンドル角(ステアリングホイール4の角度)をリアルタイムおよび事後的に認識することができる。
(アクセルペダルセンサ140c)
アクセルペダルセンサ140cは、図示しないアクセルペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のアクセルペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(ブレーキペダルセンサ140d)
ブレーキペダルセンサ140dは、図示しないブレーキペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のブレーキペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(Gセンサ140e)
Gセンサ140eは、車両1の加速度、減速度及び傾斜を検出するためのセンサであって、加速度が検出された場合は加速度量が、減速度が検出された場合は減速度量が、傾斜が検出された場合は傾斜角度量が、それぞれ加速度量信号、減速度量信号、傾斜角度信号として制御部110に入力されて、制御部110がRAMに加速度情報、減速度情報及び傾斜情報を記憶する。これにより、制御部110は、車両1の加速度、減速度及び傾斜をリアルタイムおよび事後的に認識することができる。
以上のようにして、制御部110は、車両1の状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の状態の認識に基づいて、第2表示用パネル40の擬人化キャラクタ画像I1と、スピーカ150とを制御して、車両1の状態の情報をドライバーHに対して報知することができる。例えば、適切な速度で走行していれば、「適切な速度で走行されていますね」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。
なお、本実施形態においては、車両状態認識部140として、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
(スピーカ150)
スピーカ150は、例えば、インストルメントパネル3に取り付けられており、擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声が出力される。なお、スピーカ150を設けずに、車両1に内蔵されているオーディオスピーカを用いてもよい。
(マイク160)
マイク160は、例えば、インストルメントパネル3に取り付けられており、ドライバーH、その他乗員から発せられる音声が入力される。
(記憶部170)
記憶部170は、上述した各認識部から取得した情報や、ドライバーHと制御部110とで行われた対話等を記憶することが可能である。制御部110は、これらの情報を記憶部170に蓄積していくことで、ドライバーHの運転傾向(例えば、どのような運転を行うドライバーであるのか)や、ドライバーHの趣味嗜好(例えば、どのようなBGMが好みであるのか)等を認識することができる。また、これらを認識することで、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(擬人化キャラクタ画像I1)から能動的に行うこともできる。
(送受信機180)
送受信機180は、例えば、車載用の無線LANを用いた情報の取得や、衛星測位システムを用いた位置情報の取得などが可能である。制御部110は、これら取得した情報や、上述の記憶部170に蓄積した情報に基づいて、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(擬人化キャラクタ画像I1)から能動的に行うこともできる。
次に、上述した受動的なスタイルでの対話、および、能動的なスタイルでの対話や、後述する危険因子の有無に応じたキャラクタ画像の変更等を実現するにあたり、制御部110によって行われる制御処理を図4、図5を用いて行う。なお、図4、図5で示す制御フローは制御部110のROMに記憶されており、制御部110のCPUがROMから読み出して各種処理を行う。
はじめに、図4は制御部110によって行われるメイン処理である。当該メイン処理は、制御部110によって所定の周期毎に定期的に行われる処理である。
(ステップS10)
ステップS10において、制御部110のCPUは、車両状態認識処理を行う。具体的には、車両状態認識部140から入力した情報に基づいて、車両1における状態を認識する。そして、車両状態認識処理を終えると、ステップS20に処理を移行する。
(ステップS20)
ステップS20において、制御部110のCPUは、周辺環境認識処理を行う。具体的には、周辺環境認識部120から入力した情報に基づいて、車両1における周辺環境を認識する。そして、周辺環境認識処理を終えると、ステップS30に処理を移行する。
(ステップS30)
ステップS30において、制御部110のCPUは、乗員状態認識処理を行う。具体的には、乗員状態認識部130から入力した情報に基づいて、ドライバーHの状態を認識する。そして、乗員状態認識処理を終えると、ステップS40に処理を移行する。
(ステップS40)
ステップS40において、制御部110のCPUは、危険因子抽出処理を行う。具体的には、ステップS10〜ステップS30にて各種情報を認識した結果、危険因子が含まれているかを抽出する処理を行う。
ここで、本実施形態における「危険因子」とは、ドライバーHが車両用エージェント装置と過度にコミュニケーションを図ってしまい、運転に集中していない危険因子を意味し、ドライバーHのコミュニケーション依存推定値(キャラクタへの視線の保持秒数、キャラクタとの単位時間当たりの会話回数・会話時間、心拍数、血圧等)が挙げられる。
各認識部から取得する各情報には、所定の閾値を設けており、取得した各情報が所定の閾値を超えている場合に、危険因子が含まれていると判断する。乗員状態認識部130による認識により、例えば、ドライバーHの視線が擬人化キャラクタ画像I1に3秒以上向いていると、所定の閾値を超え、危険因子が含まれていると判断される。そして、危険因子抽出処理を終えると、ステップS50に処理を移行する。
(ステップS50)
ステップS50において、制御部110のCPUは、特定の状況であるか、を判定する。なお、特定の状況とは、各認識部から取得した情報が、所定の閾値を超え、危険因子が含まれている状況をいう。すなわち、ステップS40で危険因子抽出処理を行った結果、危険因子が含まれているかを判定する。そして、特定の状況であると判定した場合は、ステップS60に処理を移行し、特定の状況ではないと判定した場合は、ステップS70に処理を移行する。
(ステップS60)
ステップS60において、制御部110のCPUは、危険因子のレベルに対応した特定のキャラクタへの変更処理を行う。この特定のキャラクタとは、非擬人化キャラクタ及び非擬人化キャラクタに変更する前の特殊な擬人化キャラクタが意味し、危険因子があり、その危険因子のレベルが低いときには、特殊な擬人化キャラクタ(例えば、図6(b)で示す特殊な擬人化キャラクタ画像I2)に変更し、危険因子のレベルが高いときには、非擬人化キャラクタ(例えば、図6(c)で示す非擬人化キャラクタ画像I3)に変更する。
そして、当該処理においては、制御部110のCPUがRAMにおいて、擬人化キャラクタに対応する識別フラグ「0」に代えて、非擬人化キャラクタを含む特定のキャラクタに対応する識別フラグ「1」をセットする。そして、危険因子のレベルに対応した特定キャラクタへの変更処理を終えると、ステップS70に処理を移行する。
ここで、擬人化キャラクタとは、視覚上であれば、人間を想起できるキャラクタ画像が想定され、聴覚上であれば、人間の表現力や言語能力を想起できるキャラクタ音声が想定される。一方、非擬人化キャラクタとは、視覚上であれば、人間を想起できないキャラクタ画像が想定され、聴覚上であれば、人間の表現力や言語能力を想起できないキャラクタ音声が想定される。
なお、非擬人化キャラクタは、1種類備えていてもよいし、複数種類備えていてもよい。非擬人化キャラクタを複数種類備える場合には、当該処理において、危険因子のレベルを判断した上で、変更する非擬人化キャラクタを決定してもよい。さらには、危険因子があると判定した場合には、危険因子のレベルによらずに、非擬人化キャラクタに変更させてもよい。すなわち、特殊な擬人化キャラクタに変更しなくてもよい。
(ステップS70)
ステップS70において、制御部110のCPUは、特定の状況なしか、を判定する。具体的には、ステップS40で危険因子を抽出した結果、危険因子が抽出されなかったか、すなわち、特定の状況になかったかを判定する。そして、特定の状況になかったと判定した場合は、ステップS80に処理を移行し、特定の状況にあったと判定した場合は、ステップS100に処理を移行する。
(ステップS80)
ステップS80において、制御部110のCPUは、非擬人化キャラクタを含む特定のキャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「0」がセットされていれば、擬人化キャラクタをセット中であると認識し、「1」がセットされていれば、非擬人化キャラクタを含む特定のキャラクタをセット中であると認識する。すなわち、当該処理においては、RAMの識別フラグに「1」がセットされているかを判定する。そして、非擬人化キャラクタを含む特定のキャラクタをセット中であると判定した場合は、ステップS90に処理を移行し、非擬人化キャラクタを含む特定のキャラクタをセット中ではないと判定した場合は、ステップS100に処理を移行する。
(ステップS90)
ステップS90において、制御部110のCPUは、擬人化されたキャラクタへの変更処理を行う。具体的には、RAMの識別フラグ「1」に代えて、「0」をセットする。このように、危険因子が抽出されなかった場合は、非擬人化キャラクタを含む特定のキャラクタから通常の擬人化キャラクタに変更する。これにより、車両用エージェント装置100側からの能動的なスタイルでの対話(後述の自律的対話)が可能となる。そして、擬人化されたキャラクタへの変更処理を終えると、ステップS100に処理を移行する。
(ステップS100)
ステップS100において、制御部110のCPUは、報知制御処理を行う。なお、報知制御処理は、後に図5を用いて詳述する。そして、報知制御処理を終えると、メイン処理を終了する。
次に、図5を用いて、制御部110のCPUにより行われる報知制御処理について説明を行う。図5は、図4のステップS100のサブルーチンである。
(ステップS101)
ステップS101において、制御部110のCPUは、非擬人化キャラクタを含む特定のキャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「1」がセットされているかを判定する。そして、非擬人化キャラクタを含む特定のキャラクタをセット中であると判定した場合は、ステップS102に処理を移行し、非擬人化キャラクタを含む特定のキャラクタをセット中ではないと判定した場合は、ステップS103に処理を移行する。
(ステップS102)
ステップS102において、制御部110のCPUは、自律型対話規制処理を行う。具体的には、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話を規制するための処理を行う。これにより、車両用エージェント装置100側からの画像および音声による語りかけは行われなくなり、乗員からの会話入力があった場合にのみ、画像おより音声により応答することになる。そして、自律型対話規制処理を終えると、ステップS104に処理を移行する。
なお、自律型対話規制処理が行われると、車両用エージェント装置100側からの画像および音声による語りかけを「0」(全く行われない)にしてもよいし、自律型対話規制処理が行われていない場合よりも語りかけの実行頻度を下げてもよい。いずれにしても、自律型対話規制処理が行われていない場合に比べて、車両用エージェント装置100側からの画像および音声による語りかけの実行頻度が低下していればよい。これにより、危険因子が抽出された際は、ドライバーHを運転に集中させることができる。
(ステップS103)
ステップS103において、制御部110のCPUは、自律型対話制御処理を行う。具体的には、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話を行うための処理を行う。例えば、ドライバーHが乗車して、直線道路を走行している状態になったときなどにおいて、擬人化キャラクタ画像I1から「昨日は、○○様が応援している△△チームが負けてしまいました・・・」などといったことが音声および画像で報知(語りかけ)される。なお、当該語りかけにドライバーHが応答すれば、話題は継続される(後述のステップS105〜ステップS107)。例えば、ドライバーHがマイク160を介して、「今日は、□□選手が出るから勝つよ」などと応答すれば、擬人化キャラクタ画像I1が「そうですね!□□選手は頼もしいですからね!」などといった双方向での対話が可能である。一方、ドライバーHが応答しなければ、所定時間後に別の話題を持ち出して、再度擬人化キャラクタ画像I1から報知(語りかけ)が行われる。なお、複数回語りかけを行ったものの、ドライバーHからの応答がない場合は、ドライバーHが会話を行いたくない状態にあると認識して、語りかけの実行頻度を下げることもできる。そして、自律型対話制御処理を終えると、ステップS104に処理を移行する。
(ステップS104)
ステップS104において、制御部110のCPUは、乗員の会話入力があったかを判定する。具体的には、マイク160の入力ポートより音声入力が行われたかを判定する。なお、制御部110には、図示しない公知の音声認識部が設けられており、当該音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断するようになっている。また、ここでいう乗員とは、ドライバーHに限らず、他の乗員であってもよい。また、マイク160による音声入力に限らず、操作ボタン60による操作入力によって会話入力ができてもよい。ただし、安全性を鑑みて、ワンタッチ操作での会話入力ができることが好ましい。また、当該処理における乗員の会話入力は、上述した受動的なスタイルでの対話も含む。そして、乗員の会話入力があったと判定した場合は、ステップS105に処理を移行し、乗員の会話入力がなかったと判定した場合は、ステップS106に処理を移行する。
(ステップS105)
ステップS105において、制御部110のCPUは、対応する会話内容の応答制御処理を行う。具体的には、上述の音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断して、応答内容を決定し、セリフの表示データ、およびセリフの音声データを生成する。そして、対応する会話内容の応答制御処理を終えると、ステップS106に処理を移行する。
なお、対応する会話内容の応答制御処理においては、上述の自律型対話規制処理が行われた場合であっても、対応する会話内容の応答は可能としている。つまり、危険因子が抽出され、非擬人化キャラクタがセットされ、車両用エージェント装置100の自律型対話が規制された場合であっても、ドライバーHから音声入力があれば、当該入力内容の応答は行うようになっている。例えば、危険因子が抽出され、非擬人化キャラクタがセットされ、車両用エージェント装置100の自律型対話が規制された場合、ドライバーHから「渋滞はどれくらい?」という音声入力があれば、「約20kmです」といった応答が行われる。これにより、危険因子が抽出された場合であっても、ドライバーHは、必要情報を車両用エージェント装置100から取得することができる。
なお、危険因子が抽出され、非擬人化キャラクタがセットされ、車両用エージェント装置100の自律型対話が規制された場合は、応答も規制してもよい。また、抽出した危険因子や危険因子のレベルに応じて、応答を規制または許容してもよい。
(ステップS106)
ステップS106において、制御部110のCPUは、画像表示処理を行う。具体的には、ステップS103において決定されたセリフの表示データや、ステップS105で生成したセリフの表示データを出力し、第2表示用パネル40に当該セリフを表示する処理を行う。そして、画像表示処理を終えると、ステップS107に処理を移行する。
(ステップS107)
ステップS107において、制御部110のCPUは、音出力処理を行う。具体的には、ステップS103において決定されたセリフの音声データや、ステップS105で生成したセリフの音声データを出力し、スピーカ150より当該セリフを出力する処理を行う。そして、音出力処理を終えると、メイン処理を終了する。以上のような処理によって、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話や、受動的なスタイルでの対話や、危険因子の有無に応じたキャラクタ画像の変更等が実現される。
次に、図6を用いて、上述した制御処理によって行われる報知例を説明する。なお、図6においては、第2表示用パネル40の表示画面を表しており、スピーカ150は図示を省略しているが、セリフに対応した音声はスピーカ150より出力されているものとして説明する。
図6(a)は、例えば、能動的なスタイルでの対話を示しており、車両用エージェント装置100側(擬人化キャラクタ画像I1)から天気の話題に関する語りかけ(セリフ画像I2)が行われていることを示している。なお、図示では省略するが、図6(a)の後、ドライバーHと車両用エージェント装置100との対話が数回行われ、ドライバーHが対話に夢中になるあまり、ドライバーHの視線が擬人化キャラクタ画像I1に3秒以上向いた、と仮定している。
この場合、図6(b)に示すように、擬人化キャラクタ画像I1が段階的に崩れていく表示態様(キャラクタ画像I1にひびが生じる表示態様)となり、セリフ画像I2も「・・・」となり、擬人化キャラクタ画像I1が失われていく表示態様になる。つまり、ドライバーHが対話に夢中になるあまり、例えば、ドライバーHの視線が安全性を欠いていると制御部110が認識した場合は、図6(a)で示す擬人化キャラクタ画像I1から図6(b)で示す特殊な擬人化キャラクタ画像I2に変化させる。これにより、キャラクタが変化したこと(過程)をドライバーHに強く認識させることができる。なお、このときBGMを流している場合は、BGMを停止することで特殊な擬人化キャラクタ画像I2に変化したことを報知するようにしてもよい。また、BGMを流している場合は、BGMの音量値を低下させることで特殊な擬人化キャラクタ画像I2に変化したことを報知するようにしてもよい。また、BGMを流していない場合は、音を出力して特殊な擬人化キャラクタ画像I2に変化したことを報知するようにしてもよい。
図6(c)は、図6(b)からさらに段階的に変化し、非擬人化キャラクタ画像I3に変化した様子を示している。すなわち、図6(b)で示す特殊な擬人化キャラクタ画像I2に変化したにも関わらず、例えば、ドライバーHの視線がなおも特殊な擬人化キャラクタ画像I2に所定時間(例えば、2秒)ある場合は、特殊な擬人化キャラクタ画像I2から非擬人化キャラクタ画像I3に変化させる。非擬人化キャラクタ画像I3は、例えば、ロボットを模した画像であり、ドライバーHは、視覚上、人間を想起できないキャラクタ画像が表示されていると認識する。これにより、キャラクタが変化したこと(過程)をドライバーHに強く認識させることができる。なお、上述の特殊な擬人化キャラクタ画像I2へ変化したタイミングでBGMを停止させずに、非擬人化キャラクタ画像I3へ変化したタイミングでBGMを停止させてもよい。また、特殊な擬人化キャラクタ画像I2へ変化したタイミングでBGMの音量値を低下させ、非擬人化キャラクタ画像I3へ変化したタイミングでBGMを停止させてもよい。また、BGMを流していない場合は、音を出力して非擬人化キャラクタ画像I3に変化したことを報知するようにしてもよい。
そして、人間を想起できないキャラクタ画像(非擬人化キャラクタ画像I3)が表示されていると認識したドライバーHは、車両用エージェント装置100とこれ以上のコミュニケーションを図ることは困難である、と考えるようになる。これにより、例えば、ドライバーHの視線を車両1の前方に向けさせて、運転に集中させることができる。
また、図6(b)で示す特殊な擬人化キャラクタ画像I2に変化させた後、ドライバーHの視線が車両1の前方にあること(安全性が保たれていること)を制御部110が認識した場合は、非擬人化キャラクタ画像I3に変化させずに、擬人化キャラクタ画像I1に変化(復帰)させる。このように、擬人化キャラクタ画像I1から一旦、特殊な擬人化キャラクタ画像I2に変化させて、その後のドライバーHの視線によって、擬人化キャラクタ画像I1に戻したり、非擬人化キャラクタ画像I3にさらに変化させたりする。これにより、特殊な擬人化キャラクタ画像I2によって、ドライバーHに一旦注意を促すことができる。
なお、上記実施形態においては、危険因子があり、その危険因子のレベルが低い期間は、特殊な擬人化キャラクタ画像I2の表示を保持するように構成したが、特殊な擬人化キャラクタ画像I2を表示せずに、いきなり非擬人化キャラクタ画像I3に変更させてもよい。さらには、危険因子があると判定した場合に、通常の擬人化キャラクタ画像I1から非擬人化キャラクタ画像I3に変更するときに、非擬人化キャラクタ画像I3に変更する前のアニメーション(動画)として、特殊な擬人化キャラクタ画像I2を表示させてもよい。
(変形例)
以下に、想定される変形例を追記する。
上記実施形態においては、第2表示用パネル40を第1表示用パネル30と別個に設けて、当該第2表示用パネル40に擬人化キャラクタ画像I1等を表示したが、第2表示用パネル40は設けずに、第1表示用パネル30に擬人化キャラクタ画像I1等を表示するようにしてもよい。
また、第2表示用パネル40は設けずに、第3表示用パネル(カーナビゲーションシステムを担う表示装置)に擬人化キャラクタ画像I1等を表示するようにしてもよい。
また、第2表示用パネル40に代えて、例えば、フロントガラスに情報を投影するヘッドアップディスプレイを用いて、フロントガラスに擬人化キャラクタ画像I1等を表示してもよい。
また、擬人化キャラクタ画像I1等は表示せずに、スピーカ150と、マイク160とを用いて、音のみで対話を行うようにしてもよい。この場合、聴覚上、擬人化キャラクタ画像I1に代えて、人間の表現力や言語能力を想起できるキャラクタ音声を用いればよく、非擬人化キャラクタ画像I3に代えて、人間の表現力や言語能力を想起できないキャラクタ音声(例えば、機械的な音声)を用いればよい。
また、周辺環境認識部120、乗員状態認識部130、車両状態認識部140を設けて、いずれもの認識部から情報を取得し、認識するようにしたが、いずれか1の認識部のみを設けても本発明を実現できるし、いずれか2の認識部を設けても本発明を実現できる。
例えば、乗員状態認識部130のみを設ける場合は、乗員撮影用カメラ130aを用いて、乗員の視線や顔の向き等を測定し、さらに測定した値が所定の閾値を超えたかどうかを判定し、超えた場合には、危険因子に対応した非擬人化キャラクタへの変更処理を行うようにすればよい。
(対応関係について)
本実施形態において、制御部110は、本発明の、キャラクタを制御するエージェント制御手段を構成する。
また、本実施形態において、周辺環境認識部120、乗員状態認識部130、車両状態認識部140は、本発明の、車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段を構成する。
また、本実施形態において、制御部110は、本発明の、状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段を構成する。
また、本実施形態において、擬人化キャラクタ画像I1は、本発明の、視覚または聴覚的に擬人化された擬人化キャラクタを構成する。
また、本実施形態において、非擬人化キャラクタ画像I3は、本発明の、視覚または聴覚的に擬人化されたものと乗員が認識できない非擬人化キャラクタを構成する。
また、本実施形態において、乗員の会話入力があった場合に対応する会話内容の応答制御処理を行う制御部110は、本発明の、キャラクタと乗員との双方向のコミュニケーションの制御手段としての他律型会話制御手段を構成する。
また、本実施形態において、乗員からの会話入力の有無に関わらず、自律的対話制御処理を行う制御部110は、本発明の、キャラクタと乗員との双方向のコミュニケーションの制御手段としての自律型会話制御手段を構成する。
また、本実施形態において、ドライバーHの運転傾向や、ドライバーHの趣味嗜好は、本発明の、所定の乗員情報を構成する。
1:車両、40:第2表示用パネル、110:制御部、120:周辺環境認識部、130:乗員状態認識部、140:車両状態認識部、150:スピーカ、160:マイク

Claims (5)

  1. キャラクタと乗員との双方向のコミュニケーションが可能な車両用エージェント装置であって、
    前記キャラクタを制御するエージェント制御手段と、
    車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、
    前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、
    前記エージェント制御手段は、
    視覚または聴覚的に擬人化された擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、
    前記識別手段により前記特定の状況に相当すると識別された場合、前記擬人化キャラクタを、視覚または聴覚的に擬人化されたものと乗員が認識できない非擬人化キャラクタに変更させる、
    ことを特徴とする車両用エージェント装置。
  2. 前記エージェント制御手段は、
    前記非擬人化キャラクタを制御しているときは、前記擬人化キャラクタを制御しているときよりも、キャラクタからのコミュニケーションの実行頻度が低下する、
    ことを特徴とする請求項1に記載の車両用エージェント装置。
  3. 前記エージェント制御手段は、
    前記擬人化キャラクタから前記非擬人化キャラクタへ変更する過程を報知する、
    ことを特徴とする請求項1または請求項2に記載の車両用エージェント装置。
  4. 前記エージェント制御手段は、
    キャラクタと乗員との双方向のコミュニケーションの制御手段として、
    乗員からの会話の入力があった場合に、入力した会話の内容を乗員に返答する他律型会話制御手段と、
    乗員からの会話の入力の有無にかかわらず、所定の乗員情報に基づいて、乗員に会話をする自律型会話制御手段と、を有し、
    前記非擬人化キャラクタを制御しているときは、前記自律型会話制御手段による会話を規制する、
    ことを特徴とする請求項1乃至請求項3のいずれか一項に記載の車両用エージェント装置。
  5. 前記エージェント制御手段は、
    前記擬人化キャラクタを前記非擬人化キャラクタに変更させた後、前記識別手段により前記特定の状況に相当すると識別されない場合は、前記擬人化キャラクタに復帰させる、
    ことを特徴とする請求項1乃至請求項4のいずれか一項に記載の車両用エージェント装置。
JP2018185748A 2018-09-28 2018-09-28 車両用エージェント装置 Active JP7181743B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018185748A JP7181743B2 (ja) 2018-09-28 2018-09-28 車両用エージェント装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018185748A JP7181743B2 (ja) 2018-09-28 2018-09-28 車両用エージェント装置

Publications (2)

Publication Number Publication Date
JP2020056607A true JP2020056607A (ja) 2020-04-09
JP7181743B2 JP7181743B2 (ja) 2022-12-01

Family

ID=70106973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018185748A Active JP7181743B2 (ja) 2018-09-28 2018-09-28 車両用エージェント装置

Country Status (1)

Country Link
JP (1) JP7181743B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11968352B2 (en) 2020-11-30 2024-04-23 Honda Motor Co., Ltd. Display method and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137766A (ja) * 1997-07-22 1999-02-12 Aqueous Res:Kk エージェント装置
JP2001307298A (ja) * 2000-04-24 2001-11-02 Kenwood Corp 車載用ナビゲーション装置及び表示装置
JP2013078969A (ja) * 2011-10-03 2013-05-02 Yupiteru Corp 運転支援システムおよび運転支援プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137766A (ja) * 1997-07-22 1999-02-12 Aqueous Res:Kk エージェント装置
JP2001307298A (ja) * 2000-04-24 2001-11-02 Kenwood Corp 車載用ナビゲーション装置及び表示装置
JP2013078969A (ja) * 2011-10-03 2013-05-02 Yupiteru Corp 運転支援システムおよび運転支援プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11968352B2 (en) 2020-11-30 2024-04-23 Honda Motor Co., Ltd. Display method and system

Also Published As

Publication number Publication date
JP7181743B2 (ja) 2022-12-01

Similar Documents

Publication Publication Date Title
JP6372388B2 (ja) ドライバの運転不能状態検出装置
US10430676B2 (en) Apparatus detecting driving incapability state of driver
CN106663377B (zh) 驾驶员的驾驶不能状态检测装置
JP4894300B2 (ja) 車載装置調整装置
JP6555647B2 (ja) 車両運転支援システム及び車両運転支援方法
WO2016027412A1 (ja) 車載制御装置
JP6379720B2 (ja) ドライバの運転不能状態検出装置
JP6593712B2 (ja) 車両運転支援システム
JP2017124735A (ja) 運転支援装置
JP2016137871A (ja) 車両用乗員感情対応制御装置
JP6075577B2 (ja) 運転支援装置
JP7181744B2 (ja) 車両用エージェント装置
JP7358040B2 (ja) 車両用報知装置
JP7181743B2 (ja) 車両用エージェント装置
JP6631545B2 (ja) 依存度推定装置
JP6428376B2 (ja) 情報表示装置
CN115139898A (zh) 一种交互的方法和装置
JP2018173996A (ja) ドライバの運転不能状態検出装置
JP7393739B2 (ja) ドライバ状態推定装置
JP7095337B2 (ja) 表示制御装置および表示制御方法
JP6607287B2 (ja) ドライバの運転不能状態検出装置
WO2022239642A1 (ja) 車両用情報提供装置、車両用情報提供方法、及び車両用情報提供プログラム
KR20150103478A (ko) 차량용 대화 보조 장치
JP2023019248A (ja) エージェント装置
JP2023019245A (ja) エージェント装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221118

R150 Certificate of patent or registration of utility model

Ref document number: 7181743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150