JP7181744B2 - Vehicle agent device - Google Patents
Vehicle agent device Download PDFInfo
- Publication number
- JP7181744B2 JP7181744B2 JP2018185749A JP2018185749A JP7181744B2 JP 7181744 B2 JP7181744 B2 JP 7181744B2 JP 2018185749 A JP2018185749 A JP 2018185749A JP 2018185749 A JP2018185749 A JP 2018185749A JP 7181744 B2 JP7181744 B2 JP 7181744B2
- Authority
- JP
- Japan
- Prior art keywords
- situation
- vehicle
- specific
- character
- personified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、乗員と、擬人化されたキャラクタとが、コミュニケーションを図ることが可能な車両用エージェント装置に関する。 The present invention relates to a vehicle agent device that enables communication between an occupant and an anthropomorphic character.
自動車などの車両においては、乗員(特にドライバー)の運転環境を整える(例えば、眠気防止を図る)ことで、より安全性を向上させることが継続的な課題であり、このような運転環境を整える手法として、様々な手法が提案されている。
例えば、乗員と、擬人化されたキャラクタ(いわゆるエージェント)とが、コミュニケーションを図ることが可能な車両用エージェント装置も上記手法の1つとして提案されており、このような車両用エージェント装置として、特許文献1では、乗員の顔の向きまたは視線を検出して、エージェント像を表示制御することが提案されている。
In vehicles such as automobiles, it is an ongoing challenge to further improve safety by improving the driving environment for passengers (especially drivers) (for example, to prevent drowsiness). Various methods have been proposed as methods.
For example, a vehicular agent device has been proposed as one of the above-described techniques, which enables communication between a passenger and an anthropomorphic character (a so-called agent).
また、特許文献1における車両用エージェント装置においては、乗員の視線が前方を向いていない場合、エージェント像が警告報知を行うことで乗員に注意喚起を促して、安全性の向上を図ることが提案されている。
Further, in the vehicle agent device disclosed in
上記特許文献1によれば、乗員とエージェントとの間で快適なコミュニケーションを実現できるといった利点は得られるものの、過度なコミュニケーションを図るあまり、エージェントから警告報知が発せられているにも関わらず、当該警告報知を見落とし、または聞き逃してしまうおそれがあった。
According to
本発明は、このような従来の問題を解決するためになされたもので、擬人化されたキャラクタから警告報知が発せられた場合、当該警告報知を乗員に的確に認識させることを可能とする車両用エージェント装置を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve such conventional problems. An object of the present invention is to provide an agent device for
本発明に係る車両用エージェント装置は、キャラクタと乗員との双方向のコミュニケーションが可能な車両用エージェント装置であって、前記キャラクタを制御するエージェント制御手段と、車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、前記エージェント制御手段は、視覚または聴覚的に擬人化された通常の擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、前記通常の擬人化キャラクタを制御しているときに前記識別手段により前記特定の状況に相当すると識別された場合、特定の擬人化キャラクタを制御し、当該特定の擬人化キャラクタにより、前記特定の状況に係る警告報知を行わせることを特徴とする。 A vehicle agent device according to the present invention is a vehicle agent device capable of two-way communication between a character and an occupant, comprising: agent control means for controlling the character; a situation acquiring means for acquiring at least one of the occupant's physical or thinking situation; and an identification means for identifying whether the situation acquired by the situation acquiring means corresponds to a specific situation; The agent control means controls two-way communication between a visually or aurally anthropomorphic normal personified character and a passenger, and controls the normal personified character by means of the identification means. The method is characterized in that when a specific situation is identified, a specific personified character is controlled, and the specific personified character issues a warning regarding the specific situation.
また、前記エージェント制御手段は、前記特定の擬人化キャラクタにより前記特定の状況に係る警告報知を行わせているときには、キャラクタからのコミュニケーションを不能とするようにしてもよい。 Further, the agent control means may disable communication from the character when the specific personified character is giving warning information regarding the specific situation.
さらに、前記エージェント制御手段は、キャラクタと乗員との双方向のコミュニケーションの制御手段として、乗員からの会話の入力があった場合に、入力した会話の内容を乗員に返答する他律型会話制御手段と、乗員からの会話の入力の有無にかかわらず、所定の乗員情報に基づいて、乗員に会話をする自律型会話制御手段と、を有し、前記特定の擬人化キャラクタを制御しているときは、前記自律型会話制御手段による会話または前記他律型会話制御手段による返答を規制するようにしてもよい。 Further, the agent control means is heteronomous conversation control means for controlling two-way communication between the character and the passenger, and responding to the passenger with the contents of the input conversation when the passenger inputs the conversation. and autonomous conversation control means for conversing with the occupant based on predetermined occupant information irrespective of the presence or absence of conversation input from the occupant, and when controlling the specific anthropomorphic character. may regulate the conversation by the autonomous conversation control means or the reply by the heteronomous conversation control means.
さらに、前記エージェント制御手段は、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知を行わせた後、前記コミュニケーションが可能な前記通常の擬人化キャラクタを制御し、前記特定の状況に係る警告報知のサポート報知を行わせるようにしてもよい。 Further, the agent control means controls the normal personified character capable of communication after causing the specific personified character to issue a warning regarding the specific situation, and controls the normal personified character capable of communication. You may make it perform the support alerting|reporting of warning alerting|reporting.
さらに、前記エージェント制御手段は、前記特定の状況に相当すると識別された場合、前記特定の状況が第1のレベルにあると、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知のみを行わせ、前記特定の状況が前記第1のレベルよりも危険度の高い第2のレベルにあると、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知と当該特定の状況に係る警告報知のサポート報知とを行わせるようにしてもよい。 Further, when the agent control means is identified as corresponding to the specific situation and the specific situation is at the first level, the agent control means only issues a warning to the specific personified character concerning the specific situation. and if the specific situation is at a second level with a higher degree of danger than the first level, the specific personified character is given a warning about the specific situation and a warning about the specific situation. You may make it perform the support notification of notification.
本発明によれば、擬人化されたキャラクタから警告報知が発せられた場合、当該警告報知を乗員に的確に認識させることを可能とする車両用エージェント装置を提供することができる。 According to the present invention, it is possible to provide a vehicle agent device that enables a passenger to accurately recognize a warning when an anthropomorphic character issues a warning.
以下、本発明の実施の形態について、図面を参照して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
以下、本発明の実施形態を、図1は本発明の実施の一形態に係る車両の車室内を示す斜視図、図2は第1表示用パネル30及び第2表示用パネル40を運転席側から視た状態を示す正面図、図3は車両用エージェント装置を説明するためのブロック図、図4は車両用エージェント装置の制御部によって行われるメインフローチャート図、図5は車両用エージェント装置の制御部によって行われる報知制御処理を示すフローチャート図、図6は車両用エージェント装置の報知例1を示すアニメーション図、図7は車両用エージェント装置の報知例2を示すアニメーション図である。なお、図中FRは車両前方を、UPは車両上方をそれぞれ示している。また、以下の説明における左右方向は、車両に着座した乗員が車両前方を向いた状態での左右方向を意味する。 1 is a perspective view showing the interior of a vehicle according to one embodiment of the present invention, and FIG. FIG. 3 is a block diagram for explaining the vehicle agent device, FIG. 4 is a main flow chart performed by the controller of the vehicle agent device, and FIG. 5 is a control of the vehicle agent device. FIG. 6 is an animation diagram showing notification example 1 of the vehicle agent device, and FIG. 7 is an animation diagram showing notification example 2 of the vehicle agent device. In the drawing, FR indicates the front of the vehicle, and UP indicates the upper side of the vehicle. Further, the left-right direction in the following description means the left-right direction when an occupant seated in the vehicle faces the front of the vehicle.
(車室内における各構成)
図1、図2に示すように、車両1は、運転席2の車両前方側に設けられるインストルメントパネル3と、運転席2とインストルメントパネル3との間に配置されるステアリングホイール4とを有している。ステアリングホイール4は、ステアリングシャフト(図示省略)を介してステアリングコラム(図示省略)に回転自在に取り付けられている。また、ステアリングホイール4の内部には、車両1が衝突等した際に、ドライバーHに向けて展開するエアバック8が格納されている。
(Each configuration in the passenger compartment)
As shown in FIGS. 1 and 2, a
図1に示すように、車両1の車室内には、第1表示用パネル30と、第2表示用パネル40と、第3表示用パネル50との3つの表示パネルが設けられている。これら第1表示用パネル30と、第2表示用パネル40とは、運転席2の前方側のインストルメントパネル3にそれぞれ離間して配置され、第3表示用パネル50は、運転席2の左前方側のインストルメントパネル3に配置されている。
As shown in FIG. 1 , the interior of the
(第1表示用パネル30)
図1、図2に示すように、第1表示用パネル30は、アナログ時計のように構成された指針式メータと、液晶パネルとバックライトとが一体的に設けられたいわゆる液晶ディスプレイ装置とを備えて構成されている。ドライバー(運転者)H(以下、ドライバーH)は、第1表示用パネル30の第1表示領域30aに表示される各種情報を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。
(First display panel 30)
As shown in FIGS. 1 and 2, the
図2に示すように、第1表示用パネル30には、第1表示領域30aが設けられており、この第1表示領域30aの左右には、車両1の走行速度(スピードメータ)や、エンジンの単位時間当たりの回転数(タコメータ)などの情報を表示する2つの指針式メータと、2つの指針式メータの間であって第1表示用パネル30の中央部には、一般的な車両情報を示す画像を表示する小型の液晶ディスプレイ装置とが配置される。なお、第1表示用パネル30は、指針式メータを備えずに、全体を1つの液晶ディスプレイ装置で構成してもよい。
As shown in FIG. 2, the
(第2表示用パネル40)
図1、図2に示すように、第2表示用パネル40は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されており、その下端部の左右方向の両端部には、それぞれ、相反する方向に突出する一対の回動軸41が取り付けられている。この回動軸41が支持部材(図示省略)によって軸支されることによって、上方に向けて起立する起立位置と、車両前方へ向けて倒伏する倒伏位置との間で可変自在に取り付けられている。ドライバーHは、第2表示用パネル40の第2表示領域40aに表示される各種画像を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。なお、第2表示用パネル40は、起立位置と倒伏位置との間で可変自在に構成したが、支持部材から起立したまま突出する突出位置と支持部材の内部に格納される格納位置との間で上下に可変自在に構成してもよいし、可変不能に固定されていてもよい。
(Second display panel 40)
As shown in FIGS. 1 and 2, the
図2に示すように、第2表示用パネル40には、第2表示領域40aが設けられており、この第2表示領域40aに、後述する通常の擬人化キャラクタ画像I1や、通常の擬人化キャラクタ画像I1から発せられるセリフ画像I2や、後述する特定の擬人化キャラクタ画像I3や、特定の擬人化キャラクタ画像I3から発せられる警告報知画像I4(図6、図7参照)が表示される。第2表示領域40aは、上述のスピードメータと、タコメータとの間に位置するので、ドライバーHは、視線を大きく移動させることなく、スピードメータの確認、タコメータの確認、通常の擬人化キャラクタ画像I1およびセリフ画像I2、および特定の擬人化キャラクタ画像I3および警告報知画像I4の確認ができるようになっている。なお、通常の擬人化キャラクタ画像I1や特定の擬人化キャラクタ画像I3を用いた特徴部については図6、図7で後述する。
As shown in FIG. 2, the
(第3表示用パネル50)
図1に示すように、第3表示用パネル50は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されている。なお、第3表示用パネル50には地図情報等が表示され、いわゆるカーナビゲーションシステムを担っている。
(Third display panel 50)
As shown in FIG. 1, the
なお、第1表示用パネル30、第2表示用パネル40及び第3表示用パネル50において構成されている液晶ディスプレイ装置を、プラズマディスプレイや有機EL等の自発光型の表示デバイス、投影型のプロジェクタ等の表示装置で構成してもよい。
The liquid crystal display device constituted by the
(操作ボタン60)
図2に示すように、操作ボタン60は、上下左右の4方向のキーが設けられた操作デバイスであって、本発明の車両用エージェント装置の制御部110(図3参照)に対して、操作信号を入力可能となっている。これにより、例えば、通常の擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声の音量値の変更や、通常の擬人化キャラクタ画像I1の表示位置の変更等ができるようになっている。
(Operation button 60)
As shown in FIG. 2, the
次に、本発明における車両用エージェント装置100の構成について、図3のブロック図を参照して説明する。
Next, the configuration of the
図3に示すように、車両用エージェント装置100は、制御部110と、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、第2表示用パネル40と、操作ボタン60と、スピーカ150と、マイク160と、記憶部170と、送受信機180と、で構成されている。
As shown in FIG. 3, the
なお、図3に示す車両用エージェント装置100は一例にすぎず、車両用エージェント装置100の構成要素は適宜変更ができる。例えば、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、は少なくともいずれか1つを備えていれば、本発明の車両用エージェント装置100を実現できるし、操作ボタン60と、記憶部170と、送受信機180と、は備えなくても、本発明の車両用エージェント装置100を実現できる。また、少なくともスピーカ150と、マイク160とを備えていれば、第2表示用パネル40は備えなくても、本発明の車両用エージェント装置100を実現できる。
The
また、本発明における車両用エージェント装置100は、例えば、マイク160を介してドライバーHから音声入力(例えば、問いかけ)が行われた場合に、それに対する返答をスピーカ150や第2表示用パネル40(通常の擬人化キャラクタ画像I1)を介して行う、受動的なスタイルでの対話と、例えば、後述のマイク160を介してドライバーHから音声入力が行われていなくても、ドライバーHの趣味嗜好に併せた話題等をスピーカ150や第2表示用パネル40(通常の擬人化キャラクタ画像I1)を介して車両用エージェント装置100側から行う、能動的なスタイルでの対話と、の両方が可能である。特に、能動的なスタイルでの対話を可能とすることで、積極的な語りかけにより、ドライバーHの眠気防止や運転ストレスの解消に寄与できる。
In addition, for example, when a voice input (for example, a question) is made by the driver H through the
(制御部110)
制御部110は、図示しないCPU、ROM、RAM(例えば、リングバッファ)、入出力ポート等を備えており、例えば、入力ポートより情報入力が行われると、ROMから読み出した制御プログラムに基づいて、出力ポートを介して各種デバイス(第2表示用パネル40やスピーカ150)を制御するようになっている。
(control unit 110)
The
なお、制御部110のROMには、通常の擬人化キャラクタ画像I1や、特定の擬人化キャラクタ画像I3から発せられるセリフのデータテーブル(図示省略)が記憶されている。制御部110のCPUは、後述する各認識部から取得した情報や、マイク160から取得した情報に基づいて、通常の擬人化キャラクタ画像I1から発するセリフや、特定の擬人化キャラクタ画像I3から発するセリフをデータテーブルから決定する。例えば、BGMをかけて欲しいとの情報をマイク160から取得したら、データテーブルから「了解しました」といった通常の擬人化キャラクタ画像I1のセリフを決定する。
It should be noted that the ROM of the
(周辺環境認識部120)
周辺環境認識部120は、車両1(自車両)の周辺環境を認識するために設けられている。また、周辺環境認識部120は、車外撮影用カメラ120aと、レーダ120bとを備えており、これらのデバイスによって車両1の周辺環境を認識することができるようになっている。
(Surrounding environment recognition unit 120)
The surrounding
(車外撮影用カメラ120a)
車外撮影用カメラ120aは、例えば、図示しないルームミラーに取り付けられており、車両1の前方、および、車両1の後方を撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、車両1の前方、車両1の後方の状況をリアルタイムおよび事後的に認識することができる。
(
The
(レーダ120b)
レーダ120bは、例えば、電波を飛ばして障害物等を検知するミリ波レーダが用いられており、当該ミリ波レーダが車両1のフロントバンパやリアバンパに取り付けられ、車両1の前方監視、車両1の前側方監視、車両1の後側方監視ができるようになっている。そして、監視情報が制御部110に入力されて、制御部110がRAMに監視情報を記憶する。これにより、制御部110は、車両1の前方、車両1の前側方の状況、車両1の後側方の状況をリアルタイムおよび事後的に認識することができる。なお、本実施形態においてはミリ波レーダを用いているが、他のレーダを用いてもよい。例えば、赤外線レーダでもよい。
(
The
以上のようにして、制御部110は、車両1の周辺環境をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の周辺環境の認識に基づいて、第2表示用パネル40の通常の擬人化キャラクタ画像I1と、スピーカ150とを制御して、車両1の周辺環境の情報をドライバーHに対して報知することができる。例えば、車両1の前方に落下物があれば、「前方に落下物があります」といった画像および音声による報知ができる。これにより、安全性を向上させることができる。
As described above, the
なお、本実施形態においては、周辺環境認識部120として、車外撮影用カメラ120aと、レーダ120bとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
In this embodiment, the
(乗員状態認識部130)
乗員状態認識部130は、ドライバーHの状態を認識するために設けられている。また、乗員状態認識部130は、乗員撮影用カメラ130aと、バイタルセンサ130bとを備えており、これらのデバイスによってドライバーHの状態を認識することができるようになっている。
(Occupant state recognition unit 130)
The occupant
(乗員撮影用カメラ130a)
乗員撮影用カメラ130aは、例えば、インストルメントパネル3に取り付けられており、ドライバーHを撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。なお、ここでいう、ドライバーHの状態とは、具体的には、ドライバーHの目蓋の状態や、瞬きの回数、視線の方向、顔の向きなどが想定される。
(Passenger photographing camera 130a)
The occupant imaging camera 130a is attached to the
(バイタルセンサ130b)
バイタルセンサ130bは、例えば、ステアリングホイール4のドライバーHにより把持される部位に取り付けられ、ドライバーHの心拍数や血圧等のバイタル情報を取得できるようになっている。そして、取得したバイタル情報が制御部110に入力されて、制御部110がRAMにバイタル情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。
(
The
以上のようにして、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、ドライバーHの状態の認識に基づいて、第2表示用パネル40の通常の擬人化キャラクタ画像I1と、スピーカ150とを制御して、所定の情報をドライバーHに対して報知することができる。例えば、「目蓋が下がっておりますが、休憩しませんか?」といった画像および音声による報知や、「いつもより心拍数が速いですが、休憩しませんか?」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。
As described above, the
乗員状態認識部130は、乗員撮影用カメラ130aやバイタルセンサ130bから取得した情報や、マイク160から入力した情報に基づいて、ある程度の範囲でドライバーHの思考感情を認識することができる。例えば、乗員撮影用カメラ130aよりドライバーHの顔の表情を取得し、バイタルセンサ130bよりドライバーHの心拍数や血圧を取得し、マイク160より声量や入力内容を取得し、これらの取得した情報からドライバーHが通常の思考感情にあるか、通常とは異なる思考感情(例えば、驚いている、怒っているなど)にあるかを認識することができる。
The occupant
なお、本実施形態においては、乗員状態認識部130として、乗員撮影用カメラ130aと、バイタルセンサ130bとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
In the present embodiment, the occupant photographing camera 130a and the
(車両状態認識部140)
車両状態認識部140は、車両1の状態を認識するために設けられている。また、車両状態認識部140は、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを備えており、これらのデバイスによって車両1の状態を認識することができるようになっている。
(Vehicle state recognition unit 140)
Vehicle
(車速センサ140a)
車速センサ140aは、車両1の車速を検出するためのセンサであって、検出された車速が車速信号として制御部110に入力されて、制御部110がRAMに車速情報を記憶する。これにより、制御部110は、車両1の車速をリアルタイムおよび事後的に認識することができる。
(
The
(ハンドル角センサ140b)
ハンドル角センサ140bは、車両1のハンドル角(ステアリングホイール4の角度)を検出するためのセンサであって、検出されたハンドル角が角度信号として制御部110に入力されて、制御部110がRAMに角度情報を記憶する。これにより、制御部110は、車両1のハンドル角(ステアリングホイール4の角度)をリアルタイムおよび事後的に認識することができる。
(Handle
The steering
(アクセルペダルセンサ140c)
アクセルペダルセンサ140cは、図示しないアクセルペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のアクセルペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(
The
(ブレーキペダルセンサ140d)
ブレーキペダルセンサ140dは、図示しないブレーキペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のブレーキペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(
The
(Gセンサ140e)
Gセンサ140eは、車両1の加速度、減速度及び傾斜を検出するためのセンサであって、加速度が検出された場合は加速度量が、減速度が検出された場合は減速度量が、傾斜が検出された場合は傾斜角度量が、それぞれ加速度量信号、減速度量信号、傾斜角度信号として制御部110に入力されて、制御部110がRAMに加速度情報、減速度情報及び傾斜情報を記憶する。これにより、制御部110は、車両1の加速度、減速度及び傾斜をリアルタイムおよび事後的に認識することができる。
(
The
以上のようにして、制御部110は、車両1の状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の状態の認識に基づいて、第2表示用パネル40の通常の擬人化キャラクタ画像I1と、スピーカ150とを制御して、車両1の状態の情報をドライバーHに対して報知することができる。例えば、適切な速度で走行していれば、「適切な速度で走行されていますね」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。
As described above, the
なお、本実施形態においては、車両状態認識部140として、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
In this embodiment, the
(スピーカ150)
スピーカ150は、例えば、インストルメントパネル3に取り付けられており、通常の擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声が出力される。なお、スピーカ150を設けずに、車両1に内蔵されているオーディオスピーカを用いてもよい。
(Speaker 150)
The
(マイク160)
マイク160は、例えば、インストルメントパネル3に取り付けられており、ドライバーH、その他乗員から発せられる音声が入力される。
(mic 160)
The
(記憶部170)
記憶部170は、上述した各認識部から取得した情報や、ドライバーHと制御部110とで行われた対話等を記憶することが可能である。制御部110は、これらの情報を記憶部170に蓄積していくことで、ドライバーHの運転傾向(例えば、どのような運転を行うドライバーであるのか)や、ドライバーHの趣味嗜好(例えば、どのようなBGMが好みであるのか)等を認識することができる。また、これらを認識することで、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から能動的に行うこともできる。
(storage unit 170)
The
(送受信機180)
送受信機180は、例えば、車載用の無線LANを用いた情報の取得や、衛星測位システムを用いた位置情報の取得などが可能である。制御部110は、これら取得した情報や、上述の記憶部170に蓄積した情報に基づいて、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から能動的に行うこともできる。
(Transceiver 180)
The transmitter/
次に、上述した受動的なスタイルでの対話、および、能動的なスタイルでの対話や、後述の危険因子が生じた際に行う警告報知等を実現するにあたり、制御部110によって行われる制御処理を図4、図5を用いて行う。なお、図4、図5で示す制御フローは制御部110のROMに記憶されており、制御部110のCPUがROMから読み出して各種処理を行う。
Next, control processing performed by the
はじめに、図4は制御部110によって行われるメイン処理である。当該メイン処理は、制御部110によって所定の周期毎に定期的に行われる処理である。
First, FIG. 4 shows main processing performed by the
(ステップS10)
ステップS10において、制御部110のCPUは、車両状態認識処理を行う。具体的には、車両状態認識部140から入力した情報に基づいて、車両1における状態を認識する。そして、車両状態認識処理を終えると、ステップS20に処理を移行する。
(Step S10)
In step S10, the CPU of the
(ステップS20)
ステップS20において、制御部110のCPUは、周辺環境認識処理を行う。具体的には、周辺環境認識部120から入力した情報に基づいて、車両1における周辺環境を認識する。そして、周辺環境認識処理を終えると、ステップS30に処理を移行する。
(Step S20)
In step S20, the CPU of the
(ステップS30)
ステップS30において、制御部110のCPUは、乗員状態認識処理を行う。具体的には、乗員状態認識部130から入力した情報に基づいて、ドライバーHの状態を認識する。そして、乗員状態認識処理を終えると、ステップS40に処理を移行する。
(Step S30)
At step S30, the CPU of the
(ステップS40)
ステップS40において、制御部110のCPUは、危険因子抽出処理を行う。具体的には、ステップS10~ステップS30にて各種情報を認識した結果、危険因子が含まれているかを抽出する処理を行う。
(Step S40)
In step S40, the CPU of
ここで、本実施形態における「危険因子」とは、車両事故が起こり得る危険因子を意味し、自己の車両から他の車両・障害物までの接近した近接距離等、ドライバーHの運転内容(ハンドルのきりすぎ、急発進、急ブレーキ、逆走等)、ドライバーHの眠気推定値や運転ストレス値(目蓋の状態や、瞬きの回数、視線の方向、顔の向き、心拍数、血圧等)が挙げられる。 Here, the "risk factor" in this embodiment means a risk factor that may cause a vehicle accident, such as the close proximity distance from one's own vehicle to another vehicle/obstacle, etc. Excessive driving, sudden start, sudden braking, reverse driving, etc.), drowsiness estimate value and driving stress value of driver H (condition of eyelids, number of blinks, direction of gaze, direction of face, heart rate, blood pressure, etc.) is mentioned.
各認識部から取得する各情報には、所定の閾値を設けており、取得した各情報が所定の閾値を超えている場合に、危険因子が含まれていると判断する。周辺環境認識部120による認識であれば、例えば、前方車との車間距離が10m未満となると、所定の閾値を超え、危険因子が含まれていると判断される。また、乗員状態認識部130による認識であれば、例えば、時間当たりのドライバーHの瞬きの回数が所定回数を満たしていないと、所定の閾値を超え、危険因子が含まれていると判断される。また、車両状態認識部140による認識であれば、例えば、加速度量が一定値を超えると所定の閾値を超え、危険因子が含まれていると判断される。そして、危険因子抽出処理を終えると、ステップS50に処理を移行する。
Each piece of information acquired from each recognition unit is provided with a predetermined threshold value, and when each piece of information acquired exceeds the predetermined threshold value, it is determined that a risk factor is included. In the case of recognition by the surrounding
(ステップS50)
ステップS50において、制御部110のCPUは、特定の状況であるか、を判定する。なお、特定の状況とは、各認識部から取得した情報が、所定の閾値を超え、危険因子が含まれている状況をいう。すなわち、ステップS40で危険因子抽出処理を行った結果、危険因子が含まれているかを判定する。そして、特定の状況であると判定した場合は、ステップS60に処理を移行し、特定の状況ではないと判定した場合は、ステップS70に処理を移行する。
(Step S50)
In step S50, the CPU of
(ステップS60)
ステップS60において、制御部110のCPUは、特定の擬人化キャラクタ(図6(b)で示す擬人化キャラクタ画像I3)への変更処理を行う。具体的には、制御部110のCPUがRAMにおいて、通常の擬人化キャラクタ(図6(a)で示す擬人化キャラクタ画像I1)に対応する識別フラグ「0」に代えて、特定の擬人化キャラクタに対応する識別フラグ「1」をセットする。そして、特定の擬人化キャラクタへの変更処理を終えると、ステップS61に処理を移行する。
(Step S60)
In step S60, the CPU of the
なお、上述のステップS40で抽出される危険因子は複数種類想定され、危険因子は種類に応じて危険度合いが相違するものであるが、いずれの危険因子が抽出された場合でも、ステップS60で変更される特定の擬人化キャラクタは単一のキャラクタ(図6(b-1)等参照)であることが望ましい。これにより、危険因子の内容や危険度合いによって警告報知を行うキャラクタが変化するものではなく、単一のキャラクタとすることで、警告報知を行うキャラクタが表示された場合には、何かしらの危険因子が生じている、とドライバーHに強く認識させることができる。 It should be noted that a plurality of types of risk factors are assumed to be extracted in step S40 described above, and the degree of risk differs depending on the type of risk factor. The specific anthropomorphic character to be used is preferably a single character (see FIG. 6(b-1), etc.). As a result, the character that gives the warning does not change depending on the content of the risk factor or the degree of danger, but by using a single character, when the character that gives the warning is displayed, some kind of risk factor is displayed. It is possible to make the driver H strongly recognize that it is occurring.
(ステップS61)
ステップS61において、制御部110のCPUは、危険因子の危険度合いの相違に応じて、サポート報知を行うキャラクタ及び報知内容を決定するサポート報知態様作成処理を行う。具体的には、危険因子の危険度合いが低いものは、通常の擬人化キャラクタを決定して、その危険因子を解消するための報知内容の出力データを作成し、危険因子の危険度合いが高いものは、特定の擬人化キャラクタを決定して、その危険因子を解消するための報知内容の出力データを作成する。そして、サポート報知態様作成処理を終えると、ステップS70に処理を移行する。このように、サポート報知(図6(c)、図7(c)参照)を行う場面では、危険度合いの相違に応じて、サポート報知を行うキャラクタを異ならせるようにしている。
(Step S61)
In step S61, the CPU of the
(ステップS70)
ステップS70において、制御部110のCPUは、特定の状況なしか、を判定する。具体的には、ステップS40で危険因子を抽出した結果、危険因子が抽出されなかったか、すなわち、特定の状況になかったかを判定する。そして、特定の状況になかったと判定した場合は、ステップS80に処理を移行し、特定の状況にあったと判定した場合は、ステップS100に処理を移行する。
(Step S70)
In step S70, the CPU of
(ステップS80)
ステップS80において、制御部110のCPUは、特定の擬人化キャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「0」がセットされていれば、通常の擬人化キャラクタをセット中であると認識し、「1」がセットされていれば、特定の擬人化キャラクタをセット中であると認識する。すなわち、当該処理においては、RAMの識別フラグに「1」がセットされているかを判定する。そして、特定の擬人化キャラクタをセット中であると判定した場合は、ステップS90に処理を移行し、特定の擬人化キャラクタをセット中ではないと判定した場合は、ステップS100に処理を移行する。
(Step S80)
In step S80, the CPU of
(ステップS90)
ステップS90において、制御部110のCPUは、通常の擬人化されたキャラクタへの変更処理を行う。具体的には、RAMの識別フラグ「1」に代えて、「0」をセットする。このように、危険因子が抽出されなかった場合は、特定の擬人化キャラクタから通常の擬人化キャラクタに変更する。これにより、乗員から会話入力が行われた場合に、車両用エージェント装置100側から応答することが可能となる。そして、通常の擬人化されたキャラクタへの変更処理を終えると、ステップS100に処理を移行する。
(Step S90)
In step S90, the CPU of the
(ステップS100)
ステップS100において、制御部110のCPUは、報知制御処理を行う。なお、報知制御処理は、後に図5を用いて詳述する。そして、報知制御処理を終えると、メイン処理を終了する。
(Step S100)
In step S100, the CPU of the
次に、図5を用いて、制御部110のCPUにより行われる報知制御処理について説明を行う。図5は、図4のステップS100のサブルーチンである。
Next, the notification control process performed by the CPU of the
(ステップS101)
ステップS101において、制御部110のCPUは、特定の擬人化キャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「1」がセットされているかを判定する。そして、特定の擬人化キャラクタをセット中であると判定した場合は、ステップS105に処理を移行し、特定の擬人化キャラクタをセット中ではないと判定した場合は、ステップS102に処理を移行する。
(Step S101)
In step S101, the CPU of the
(ステップS102)
ステップS102において、制御部110のCPUは、自律型対話制御処理を行う。具体的には、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話を行うための処理を行う。例えば、ドライバーHが乗車して、直線道路を走行している状態になったときなどにおいて、通常の擬人化キャラクタ画像I1から「昨日は、○○様が応援している△△チームが負けてしまいました・・・」などといったことが音声および画像で報知(語りかけ)される。なお、当該語りかけにドライバーHが応答すれば、話題は継続される(後述のステップS103~ステップS106)。例えば、ドライバーHがマイク160を介して、「今日は、□□選手が出るから勝つよ」などと応答すれば、通常の擬人化キャラクタ画像I1が「そうですね!□□選手は頼もしいですからね!」などといった双方向での対話が可能である。一方、ドライバーHが応答しなければ、所定時間後に別の話題を持ち出して、再度、通常の擬人化キャラクタ画像I1から報知(語りかけ)が行われる。なお、複数回語りかけを行ったものの、ドライバーHからの応答がない場合は、ドライバーHが会話を行いたくない状態にあると認識して、語りかけの頻度を下げることもできる。そして、自律型対話制御処理を終えると、ステップS103に処理を移行する。
(Step S102)
In step S102, the CPU of the
(ステップS103)
ステップS103において、制御部110のCPUは、乗員の会話入力があったかを判定する。具体的には、マイク160の入力ポートより音声入力が行われたかを判定する。なお、制御部110には、図示しない公知の音声認識部が設けられており、当該音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断するようになっている。また、ここでいう乗員とは、ドライバーHに限らず、他の乗員であってもよい。また、マイク160による音声入力に限らず、操作ボタン60による操作入力によって会話入力ができてもよい。ただし、安全性を鑑みて、ワンタッチ操作での会話入力ができることが好ましい。また、当該処理における乗員の会話入力は、上述した受動的なスタイルでの対話も含む。そして、乗員の会話入力があったと判定した場合は、ステップS104に処理を移行し、乗員の会話入力がなかったと判定した場合は、ステップS105に処理を移行する。
(Step S103)
In step S103, the CPU of
(ステップS104)
ステップS104において、制御部110のCPUは、対応する会話内容の応答制御処理を行う。具体的には、上述の音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断して、応答内容を決定し、セリフの表示データ、およびセリフの音声データを生成する。そして、対応する会話内容の応答制御処理を終えると、ステップS105に処理を移行する。
(Step S104)
In step S104, the CPU of the
ここで、特定の擬人化キャラクタをセット中でないと判定した場合には、上記ステップS102の自律型対話制御処理やステップS104の応答制御処理が行われるものの、特定の擬人化キャラクタをセット中であると判定した場合には、上記ステップS102の自律型対話制御処理やステップS104の応答制御処理が行われない(規制される)ように構成されている。このため、後述の図6(a)で示す通常の擬人化キャラクタ画像I1が表示されている場合は、能動的なスタイルでの会話や乗員が会話した応答が行われるが、後述の図6(b)で示す特定の擬人化キャラクタ画像I3が表示されている場合は、能動的なスタイルでの会話や乗員が会話した応答も行われないことになる。すなわち、乗員が特定の擬人化キャラクタとはコミュニケーションが不能に構成されている。これにより、乗員は、特定の擬人化キャラクタ画像I3を、通常の擬人化キャラクタ画像I1とは異なる特別な画像として認識することになる。 Here, when it is determined that the specific personified character is not being set, the autonomous dialogue control process of step S102 and the response control process of step S104 are performed, but the specific personified character is being set. If so, the autonomous dialogue control process in step S102 and the response control process in step S104 are not performed (restricted). For this reason, when a normal anthropomorphic character image I1 shown in FIG. When the specific anthropomorphic character image I3 shown in b) is displayed, neither active-style conversations nor responses to conversations by passengers are performed. That is, the passenger is configured to be unable to communicate with a specific personified character. As a result, the passenger recognizes the specific anthropomorphic character image I3 as a special image different from the normal anthropomorphic character image I1.
(ステップS105)
ステップS105において、制御部110のCPUは、画像表示処理を行う。具体的には、ステップS102において決定されたセリフの表示データや、ステップS104で生成したセリフの表示データを出力し、第2表示用パネル40に当該セリフを表示する処理を行う。そして、画像表示処理を終えると、ステップS106に処理を移行する。
(Step S105)
In step S105, the CPU of the
(ステップS106)
ステップS106において、制御部110のCPUは、音出力処理を行う。具体的には、ステップS102において決定されたセリフの音声データや、ステップS104で生成したセリフの音声データを出力し、スピーカ150より当該セリフを出力する処理を行う。そして、音出力処理を終えると、メイン処理を終了する。以上のような処理によって、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話や、受動的なスタイルでの対話や、危険因子が生じた際の警告報知等が実現される。
(Step S106)
In step S106, the CPU of the
次に、図6、図7を用いて、上述した制御処理によって行われる報知例を説明する。なお、図6、図7においては、第2表示用パネル40の表示画面を表しており、スピーカ150は図示を省略しているが、セリフに対応した音声はスピーカ150より出力されているものとして説明する。
Next, an example of notification performed by the control process described above will be described with reference to FIGS. 6 and 7. FIG. 6 and 7 show the display screen of the
はじめに、通常の擬人化キャラクタ画像I1は、女性を模したキャラクタ画像であって、当該通常の擬人化キャラクタ画像I1からは、女性のセリフおよび音声が出力される。一方、特定の擬人化キャラクタ画像I3は、男性を模したキャラクタ画像であって、当該特定の擬人化キャラクタ画像I3からは、男性のセリフおよび音声が出力される。そして、危険因子が抽出されていない場合は、第2表示用パネル40に通常の擬人化キャラクタ画像I1が表示されており、危険因子が抽出された場合は、第2表示用パネル40に通常の擬人化キャラクタ画像I1に代わり特定の擬人化キャラクタ画像I3が表示されて、当該特定の擬人化キャラクタ画像I3より、危険因子に係る警告情報を画像および音声により報知するようにしている。以下、具体例を説明する。
First, the normal anthropomorphic character image I1 is a character image simulating a woman, and from the normal anthropomorphic character image I1, the words and voice of a woman are output. On the other hand, the specific anthropomorphic character image I3 is a character image simulating a man, and from the specific anthropomorphic character image I3, the lines and voice of the man are output. When the risk factor is not extracted, the normal personified character image I1 is displayed on the
図6(a-1)は、例えば、能動的なスタイルでの対話を示しており、車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から天気の話題に関する語りかけ(セリフ画像I2)が行われていることを示している。なお、図示では省略するが、図6(a-1)の後、ドライバーHと車両用エージェント装置100との対話が数回行われている、と仮定している。
FIG. 6(a-1) shows, for example, a dialogue in an active style, in which the
また、このとき車両1は、図6(a-2)に示すように、片側二車線道路の左側車線Lを走行しており、左側車線Lの適正位置を走行している、と仮定している。
Also, at this time, as shown in FIG. 6(a-2), it is assumed that the
そして、図6(b-2)では、ドライバーHと車両用エージェント装置100との対話が数回行われている最中に、右側車線Rを所定速度以上で走行する後続車Bが現われ、相互の距離が所定の閾値を超えた、と仮定している。この場合、制御部110は、周辺環境認識部120(後続車Bの存在、速度等)や、車両状態認識部140(車両1の速度等)によって後続車Bの急接近を認識(危険因子ありと認識)する。
In FIG. 6(b-2), while the driver H and the
そして、制御部110は、後続車Bの急接近を認識すると、図6(b-1)で示すように、通常の擬人化キャラクタ画像I1を消去して、特定の擬人化キャラクタ画像I3を表示して、当該特定の擬人化キャラクタ画像I3より、後続車Bの急接近を警告報知する警告報知画像I4および警告報知画像I4に対応する音声を出力する。これにより、ドライバーHが車両用エージェント装置100との対話に夢中になっていても、異なるキャラクタ画像が出現して、そのキャラクタ画像から警告報知が行われるので、警告報知に気づき易くすることができる。
When the
そして、図6の事象では、左側車線Lの適正位置を走行している、と仮定しているので、制御部110は、危険因子(危険度合い)が第1のレベルにあると判断して、図6(c)に示すように、特定の擬人化キャラクタ画像I3を消去して、通常の擬人化キャラクタ画像I1を表示して、当該通常の擬人化キャラクタ画像I1より、現走行車線を保つことを報知するサポート報知画像I5およびサポート報知画像I5に対応する音声を出力する(サポート報知を行う)。これにより、危険因子が生じても、危険因子にその後どう対応すればよいか、といったことをドライバーHに認識させることができるので、安全性の向上に寄与できる。
In the event of FIG. 6, it is assumed that the vehicle is traveling in the proper position of the left lane L, so the
次に、図7は、図6とは別の事象が生じた際の報知例を示しており、図7(a-1)は、図6(a-1)と同様に、車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から天気の話題に関する語りかけ(セリフ画像I2)が行われ、その後、ドライバーHと車両用エージェント装置100との対話が数回行われている、と仮定している。
Next, FIG. 7 shows an example of notification when an event different from that in FIG. 6 occurs. It is assumed that the 100 side (normal anthropomorphic character image I1) speaks about the topic of the weather (words image I2), and then the driver H and the
そして、図7(b-2)では、ドライバーHが車両用エージェント装置100との対話に夢中になるあまり、車両1が分離線C上(適正ではない位置)を走行し、その際に右側車線Rを所定速度以上で走行する後続車Bが現われ、相互の距離が所定の閾値を超えた、と仮定している。この場合、制御部110は、周辺環境認識部120(車両1の走行位置、後続車Bの存在、速度等)や、車両状態認識部140(車両1の速度等)によって、後続車Bの急接近と、車両1の走行位置が適正でないことを認識(危険因子ありと認識)する。
In FIG. 7(b-2), the driver H is so absorbed in the dialogue with the
そして、制御部110は、後続車Bの急接近と、車両1の走行位置が適正でないことを認識すると、図7(b-1)で示すように、通常の擬人化キャラクタ画像I1を消去して、特定の擬人化キャラクタ画像I3を表示して、当該特定の擬人化キャラクタ画像I3より、後続車Bの急接近を警告報知する警告報知画像I4および警告報知画像I4に対応する音声を出力する。これにより、図6(b-1)で述べた効果と同様の効果が得られる。
Then, when the
そして、図7の事象では、車両1が分離線C上(適正ではない位置)を走行している、と仮定しているので、制御部110は、危険因子(危険度合い)が上述の第1のレベルよりも高い第2のレベルにあると判断して、図7(c)に示すように、特定の擬人化キャラクタ画像I3の表示を維持して、当該特定の擬人化キャラクタ画像I3より、左側車線L側に寄った方がよいことを報知するサポート報知画像I6およびサポート報知画像I6に対応する音声を出力する(サポート報知を行う)。このように、危険因子(危険度合い)が高い場合は、特定の擬人化キャラクタ画像I3の表示を維持して、当該特定の擬人化キャラクタ画像I3より、危険因子にその後どう対応すればよいか、というサポート報知を行うことで、ドライバーHに危険因子への対応を強く認識させることができる。これにより、速やかに危険因子への対応を行わせることも可能となるので、安全性の向上に寄与できる。
In the event of FIG. 7, it is assumed that the
(変形例)
以下に、想定される変形例を追記する。
(Modification)
The assumed modified examples are added below.
上記実施形態においては、第2表示用パネル40を第1表示用パネル30と別個に設けて、当該第2表示用パネル40に通常の擬人化キャラクタ画像I1等を表示したが、第2表示用パネル40は設けずに、第1表示用パネル30に通常の擬人化キャラクタ画像I1等を表示するようにしてもよい。
In the above embodiment, the
また、第2表示用パネル40は設けずに、第3表示用パネル(カーナビゲーションシステムを担う表示装置)に通常の擬人化キャラクタ画像I1等を表示するようにしてもよい。
Alternatively, the normal anthropomorphic character image I1 or the like may be displayed on the third display panel (the display device serving as the car navigation system) without providing the
また、第2表示用パネル40に代えて、例えば、フロントガラスに情報を投影するヘッドアップディスプレイを用いて、フロントガラスに通常の擬人化キャラクタ画像I1等を表示してもよい。
Further, instead of the
また、通常の擬人化キャラクタ画像I1等は表示せずに、スピーカ150と、マイク160とを用いて、音のみで対話を行うようにしてもよい。
Alternatively, the
また、危険因子の内容や危険度合いによって警告報知を行う特定の擬人化キャラクタが変化するものではなく、単一のキャラクタとしたが、これに限られず、危険因子の内容や危険度合いによって警告報知を行う特定の擬人化キャラクタを変化させてもよい。 In addition, although the specific personified character that issues the warning does not change depending on the content of the risk factor and the degree of danger, and a single character is used, this is not the only option. The particular anthropomorphic character performed may vary.
また、危険度合いによってサポート報知を行うキャラクタを異ならせるとしたが、警告報知を行った特定の擬人化キャラクタにそのままサポート報知を行わせてもよいし、サポート報知を行わせなくてもよい。 In addition, although the character to which the support notification is given is differentiated according to the degree of danger, the specific personified character that gave the warning notification may directly give the support notification, or the support notification may not be performed.
また、特定の擬人化キャラクタ画像I3から発せられるセリフの出力音量は、通常の擬人化キャラクタ画像I1から発せられるセリフの出力音量と同じ出力値であってもよいし、通常の擬人化キャラクタ画像I1から発せられるセリフの出力音量より大きくしてもよい。特に、通常の擬人化キャラクタ画像I1から発せられるセリフの出力音量より大きくする場合は、警告報知に気づきやすくすることができる。 Further, the output volume of the dialogue emitted from the specific anthropomorphic character image I3 may be the same output value as the output volume of the dialogue emitted from the normal anthropomorphic character image I1. It may be louder than the output volume of the dialogue emitted from. In particular, when the output volume of the words emitted from the normal anthropomorphic character image I1 is increased, it is possible to easily notice the warning notification.
また、操作ボタン60による音量値の調整は、通常の擬人化キャラクタ画像I1から発せられるセリフのみ反映されるようにしてもよい。例えば、通常の擬人化キャラクタ画像I1から発せられるセリフは、「0~9」の範囲の音量値で調整可能であるが、特定の擬人化キャラクタ画像I3から発せられるセリフは、調整不能であって、常に「10」の音量値で出力されてもよい。このように構成しても、警告報知に気づきやすくすることができる。
Further, the adjustment of the volume value by the
また、第2表示用パネル40に表示される通常の擬人化キャラクタ画像I1の大きさと、特定の擬人化キャラクタ画像I3の大きさは、略同一であってもよいし、特定の擬人化キャラクタ画像I3の方が大きく表示されてもよい。このように構成しても、警告報知に気づきやすくすることができる。
Further, the size of the normal personified character image I1 displayed on the
また、危険因子が発生して警告報知を行うときにBGMが出力されている場合は、BGMを停止して、警告報知を行うようにしてもよい。このように構成しても、警告報知に気づきやすくすることができる。 Also, if BGM is being output when a risk factor occurs and a warning is issued, the BGM may be stopped and the warning may be issued. Even with this configuration, it is possible to make it easier to notice the warning information.
また、特定の擬人化キャラクタをセット中である場合、自律型対話制御処理や応答制御処理が行われないように構成したが、自律型対話制御処理のみが行われないように構成してもよいし、応答制御処理のみ行われないように構成してもよい。さらには、自律型対話制御処理と応答制御処理との両方が行われ、特定の擬人化キャラクタとも双方向でのコミュニケーションを可能としてよい。 Also, when a specific anthropomorphic character is being set, the autonomous dialogue control processing and the response control processing are configured not to be performed, but it may be configured such that only the autonomous dialogue control processing is not performed. However, the configuration may be such that only the response control process is not performed. Furthermore, both an autonomous dialogue control process and a response control process may be performed to enable two-way communication with a specific anthropomorphic character.
また、周辺環境認識部120、乗員状態認識部130、車両状態認識部140を設けて、いずれもの認識部から情報を取得し、認識するようにしたが、いずれか1の認識部のみを設けても本発明を実現できるし、いずれか2の認識部を設けても本発明を実現できる。
Also, the surrounding
例えば、周辺環境認識部120のみを設ける場合は、車外撮影用カメラ120aや、レーダ120bを用いて、車両1の半径100m圏内に緊急車両を認識したら、所定の閾値を超えたと判定して、特定の擬人化キャラクタ画像I3に緊急車両の存在を示す警告報知を行わせればよい。
For example, when only the surrounding
また、例えば、乗員状態認識部130のみを設ける場合は、乗員撮影用カメラ130aを用いて、乗員の瞬きの回数等を測定し、さらに測定した値が所定の閾値を超えたかどうかを判定し、超えた場合には、特定の擬人化キャラクタ画像I3に眠気を防ぐ警告報知を行わせればよい。
Further, for example, when only the occupant
また、例えば、車両状態認識部140のみを設ける場合は、車速センサ140aや、ブレーキペダルセンサ140dを用いて、図示しないサイドブレーキのセンサがON(サイドブレーキがかかっている状態)であるにも関わらず、車速センサ140aが車速を検出したら、所定の閾値を超えたと判定して、特定の擬人化キャラクタ画像I3にサイドブレーキがかかっている状態であることを示す警告報知を行わせればよい。
Further, for example, in the case where only the vehicle
(対応関係について)
本実施形態において、制御部110は、本発明の、キャラクタを制御するエージェント制御手段を構成する。
(Regarding correspondence)
In this embodiment, the
また、本実施形態において、周辺環境認識部120、乗員状態認識部130、車両状態認識部140は、本発明の、車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段を構成する。
Further, in the present embodiment, the surrounding
また、本実施形態において、制御部110は、本発明の、状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段を構成する。
Further, in the present embodiment, the
また、本実施形態において、通常の擬人化キャラクタ画像I1は、本発明の、視覚または聴覚的に擬人化された通常の擬人化キャラクタを構成する。 In addition, in this embodiment, the ordinary anthropomorphic character image I1 constitutes an ordinary anthropomorphic character visually or aurally anthropomorphized according to the present invention.
また、本実施形態において、特定の擬人化キャラクタ画像I3は、本発明の、特定の擬人化キャラクタを構成する。 Also, in this embodiment, the specific personified character image I3 constitutes the specific personified character of the present invention.
また、本実施形態において、警告報知画像I4および対応する音声は、本発明の、特定の状況に係る警告報知を構成する。 Also, in this embodiment, the alert annunciation image I4 and the corresponding sound constitute the particular situational alert annunciation of the present invention.
また、本実施形態において、乗員の会話入力があった場合に対応する会話内容の応答制御処理を行う制御部110は、本発明の、キャラクタと乗員との双方向のコミュニケーションの制御手段としての他律型会話制御手段を構成する。
In addition, in this embodiment, the
また、本実施形態において、乗員からの会話入力の有無に関わらず、自律的対話制御処理を行う制御部110は、本発明の、キャラクタと乗員との双方向のコミュニケーションの制御手段としての自律型会話制御手段を構成する。
Further, in the present embodiment, the
また、本実施形態において、ドライバーHの運転傾向や、ドライバーHの趣味嗜好は、本発明の、所定の乗員情報を構成する。 Further, in the present embodiment, the driving tendency of the driver H and the hobbies and preferences of the driver H constitute the predetermined occupant information of the present invention.
また、本実施形態において、サポート報知画像I5および対応する音声と、サポート報知画像I6および対応する音声は、本発明の、特定の状況に係る警告報知のサポート報知を構成する。 Also, in this embodiment, the support notification image I5 and corresponding sound and the support notification image I6 and corresponding sound constitute the support notification of the warning notification for the specific situation of the present invention.
1:車両、40:第2表示用パネル、110:制御部、120:周辺環境認識部、130:乗員状態認識部、140:車両状態認識部、150:スピーカ、160:マイク 1: vehicle, 40: second display panel, 110: control unit, 120: surrounding environment recognition unit, 130: occupant state recognition unit, 140: vehicle state recognition unit, 150: speaker, 160: microphone
Claims (4)
前記キャラクタを制御するエージェント制御手段と、
車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、
前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、
前記エージェント制御手段は、
視覚または聴覚的に擬人化された通常の擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、
前記通常の擬人化キャラクタを制御しているときに前記識別手段により前記特定の状況に相当すると識別された場合、特定の擬人化キャラクタを制御し、
前記特定の擬人化キャラクタに前記特定の状況に係る警告報知を行わせた後、前記コミュニケーションが可能な前記通常の擬人化キャラクタを制御し、前記特定の状況に係る警告報知のサポート報知を行わせる、
ことを特徴とする車両用エージェント装置。 A vehicle agent device capable of two-way communication between a character and an occupant,
agent control means for controlling the character;
a situation acquisition means for acquiring at least one of the situation of the driving of the vehicle or the situation of the surrounding environment, or the situation of the body or mind of the occupant;
identification means for identifying whether the situation acquired by the situation acquisition means corresponds to a specific situation;
The agent control means is
Controls two-way communication between an ordinary anthropomorphic character that is visually or audibly anthropomorphized and a passenger,
controlling a specific personified character when the identification means identifies that the specific situation corresponds to the situation while controlling the normal personified character;
After causing the specific personified character to issue a warning regarding the specific situation, the normal personified character capable of communication is controlled to support the warning about the specific situation. ,
A vehicle agent device characterized by:
前記キャラクタを制御するエージェント制御手段と、
車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、
前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、
前記エージェント制御手段は、
視覚または聴覚的に擬人化された通常の擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、
前記通常の擬人化キャラクタを制御しているときに前記識別手段により前記特定の状況に相当すると識別された場合、特定の擬人化キャラクタを制御し、
前記特定の状況が第1のレベルにあると、前記通常の擬人化キャラクタに前記特定の状況に係るサポート報知を行わせ、
前記特定の状況が前記第1のレベルよりも危険度の高い第2のレベルにあると、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知と当該特定の状況に係る警告報知のサポート報知とを行わせる、
ことを特徴とする車両用エージェント装置。 A vehicle agent device capable of two-way communication between a character and an occupant,
agent control means for controlling the character;
a situation acquisition means for acquiring at least one of the situation of the driving of the vehicle or the situation of the surrounding environment, or the situation of the body or mind of the occupant;
identification means for identifying whether the situation acquired by the situation acquisition means corresponds to a specific situation;
The agent control means is
Controls two-way communication between an ordinary anthropomorphic character that is visually or audibly anthropomorphized and a passenger,
controlling a specific personified character when the identification means identifies that the specific situation corresponds to the situation while controlling the normal personified character;
causing the normal anthropomorphic character to make a support notification regarding the specific situation when the specific situation is at the first level;
When the specific situation is at a second level with a higher degree of danger than the first level, the specific personified character is notified of the warning regarding the specific situation and the warning about the specific situation is supported. to inform and
A vehicle agent device characterized by:
前記特定の擬人化キャラクタにより前記特定の状況に係る警告報知を行わせているときには、キャラクタからのコミュニケーションを不能とする、
ことを特徴とする請求項1または2に記載の車両用エージェント装置。 The agent control means is
Disabling communication from the character when the specific personified character is performing a warning notification regarding the specific situation;
3. The vehicle agent device according to claim 1 or 2 , characterized in that:
キャラクタと乗員との双方向のコミュニケーションの制御手段として、
乗員からの会話の入力があった場合に、入力した会話の内容を乗員に返答する他律型会話制御手段と、
乗員からの会話の入力の有無にかかわらず、所定の乗員情報に基づいて、乗員に会話をする自律型会話制御手段と、を有し、
前記特定の擬人化キャラクタを制御しているときは、前記自律型会話制御手段による会話または前記他律型会話制御手段による返答を規制する、
ことを特徴とする請求項1または2に記載の車両用エージェント装置。 The agent control means is
As a means of controlling two-way communication between characters and passengers,
heteronomous conversation control means for responding to the passenger with the content of the input conversation when there is an input of conversation from the passenger;
autonomous conversation control means for conversing with the occupant based on predetermined occupant information, regardless of whether the occupant has input a conversation;
When controlling the specific anthropomorphic character, restricting the conversation by the autonomous conversation control means or the reply by the heteronomous conversation control means;
3. The vehicle agent device according to claim 1 or 2 , characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018185749A JP7181744B2 (en) | 2018-09-28 | 2018-09-28 | Vehicle agent device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018185749A JP7181744B2 (en) | 2018-09-28 | 2018-09-28 | Vehicle agent device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020057080A JP2020057080A (en) | 2020-04-09 |
JP7181744B2 true JP7181744B2 (en) | 2022-12-01 |
Family
ID=70107246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018185749A Active JP7181744B2 (en) | 2018-09-28 | 2018-09-28 | Vehicle agent device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7181744B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022119496A (en) | 2021-02-04 | 2022-08-17 | 本田技研工業株式会社 | Seat belt device for vehicle |
JP2022175359A (en) * | 2021-05-13 | 2022-11-25 | 株式会社デンソー | Vehicle information providing device, information providing method, and information providing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003157489A (en) | 2002-06-03 | 2003-05-30 | Equos Research Co Ltd | Operation control device |
JP2005258820A (en) | 2004-03-11 | 2005-09-22 | Toyota Motor Corp | Emotion guidance device and emotion guidance method |
JP2012242187A (en) | 2011-05-17 | 2012-12-10 | Yupiteru Corp | System and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3873386B2 (en) * | 1997-07-22 | 2007-01-24 | 株式会社エクォス・リサーチ | Agent device |
-
2018
- 2018-09-28 JP JP2018185749A patent/JP7181744B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003157489A (en) | 2002-06-03 | 2003-05-30 | Equos Research Co Ltd | Operation control device |
JP2005258820A (en) | 2004-03-11 | 2005-09-22 | Toyota Motor Corp | Emotion guidance device and emotion guidance method |
JP2012242187A (en) | 2011-05-17 | 2012-12-10 | Yupiteru Corp | System and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020057080A (en) | 2020-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108205731B (en) | Situation assessment vehicle system | |
US10317900B2 (en) | Controlling autonomous-vehicle functions and output based on occupant position and attention | |
US9539944B2 (en) | Systems and methods of improving driver experience | |
US9734699B2 (en) | System for providing alerts to vehicle occupants | |
JP4380541B2 (en) | Vehicle agent device | |
US11059421B2 (en) | Vehicle proximity system using heads-up display augmented reality graphics elements | |
WO2014083738A1 (en) | Text-reading device and text-reading method | |
US20160214531A1 (en) | Method and system for a warning message in a vehicle | |
US20150310287A1 (en) | Gaze detection and workload estimation for customized content display | |
US10674003B1 (en) | Apparatus and system for identifying occupants in a vehicle | |
JP2017124735A (en) | Driving support device | |
JP7181744B2 (en) | Vehicle agent device | |
JP7358040B2 (en) | Vehicle notification device | |
JP7181743B2 (en) | Vehicle agent device | |
JP6631545B2 (en) | Dependency estimator | |
JP2020020987A (en) | In-car system | |
JP6428376B2 (en) | Information display device | |
JP7095337B2 (en) | Display control device and display control method | |
WO2022239642A1 (en) | Information providing device for vehicle, information providing method for vehicle, and information providing program for vehicle | |
US12054049B2 (en) | Agent apparatus | |
JP2023019248A (en) | Agent device | |
JP2023019245A (en) | Agent device | |
JP2000155894A (en) | Driving environment adaptive communication controller | |
JP2005308645A (en) | Navigation system and its control method | |
KR102419727B1 (en) | Vehicle and method for controlling thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181744 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |