JP7181744B2 - Vehicle agent device - Google Patents

Vehicle agent device Download PDF

Info

Publication number
JP7181744B2
JP7181744B2 JP2018185749A JP2018185749A JP7181744B2 JP 7181744 B2 JP7181744 B2 JP 7181744B2 JP 2018185749 A JP2018185749 A JP 2018185749A JP 2018185749 A JP2018185749 A JP 2018185749A JP 7181744 B2 JP7181744 B2 JP 7181744B2
Authority
JP
Japan
Prior art keywords
situation
vehicle
specific
character
personified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018185749A
Other languages
Japanese (ja)
Other versions
JP2020057080A (en
Inventor
愛美 相川
勇 長澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2018185749A priority Critical patent/JP7181744B2/en
Publication of JP2020057080A publication Critical patent/JP2020057080A/en
Application granted granted Critical
Publication of JP7181744B2 publication Critical patent/JP7181744B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、乗員と、擬人化されたキャラクタとが、コミュニケーションを図ることが可能な車両用エージェント装置に関する。 The present invention relates to a vehicle agent device that enables communication between an occupant and an anthropomorphic character.

自動車などの車両においては、乗員(特にドライバー)の運転環境を整える(例えば、眠気防止を図る)ことで、より安全性を向上させることが継続的な課題であり、このような運転環境を整える手法として、様々な手法が提案されている。
例えば、乗員と、擬人化されたキャラクタ(いわゆるエージェント)とが、コミュニケーションを図ることが可能な車両用エージェント装置も上記手法の1つとして提案されており、このような車両用エージェント装置として、特許文献1では、乗員の顔の向きまたは視線を検出して、エージェント像を表示制御することが提案されている。
In vehicles such as automobiles, it is an ongoing challenge to further improve safety by improving the driving environment for passengers (especially drivers) (for example, to prevent drowsiness). Various methods have been proposed as methods.
For example, a vehicular agent device has been proposed as one of the above-described techniques, which enables communication between a passenger and an anthropomorphic character (a so-called agent). Document 1 proposes detecting the direction of the face or line of sight of an occupant to control the display of an agent image.

また、特許文献1における車両用エージェント装置においては、乗員の視線が前方を向いていない場合、エージェント像が警告報知を行うことで乗員に注意喚起を促して、安全性の向上を図ることが提案されている。 Further, in the vehicle agent device disclosed in Patent Document 1, when the line of sight of the occupant is not directed forward, the agent image issues a warning notification to call the occupant's attention, thereby improving safety. It is

特開2006-189394号公報JP 2006-189394 A

上記特許文献1によれば、乗員とエージェントとの間で快適なコミュニケーションを実現できるといった利点は得られるものの、過度なコミュニケーションを図るあまり、エージェントから警告報知が発せられているにも関わらず、当該警告報知を見落とし、または聞き逃してしまうおそれがあった。 According to Patent Literature 1, although there is an advantage that comfortable communication can be realized between the passenger and the agent, excessive communication is attempted, and the agent issues a warning notification. There is a possibility that the warning information may be overlooked or missed.

本発明は、このような従来の問題を解決するためになされたもので、擬人化されたキャラクタから警告報知が発せられた場合、当該警告報知を乗員に的確に認識させることを可能とする車両用エージェント装置を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve such conventional problems. An object of the present invention is to provide an agent device for

本発明に係る車両用エージェント装置は、キャラクタと乗員との双方向のコミュニケーションが可能な車両用エージェント装置であって、前記キャラクタを制御するエージェント制御手段と、車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、前記エージェント制御手段は、視覚または聴覚的に擬人化された通常の擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、前記通常の擬人化キャラクタを制御しているときに前記識別手段により前記特定の状況に相当すると識別された場合、特定の擬人化キャラクタを制御し、当該特定の擬人化キャラクタにより、前記特定の状況に係る警告報知を行わせることを特徴とする。 A vehicle agent device according to the present invention is a vehicle agent device capable of two-way communication between a character and an occupant, comprising: agent control means for controlling the character; a situation acquiring means for acquiring at least one of the occupant's physical or thinking situation; and an identification means for identifying whether the situation acquired by the situation acquiring means corresponds to a specific situation; The agent control means controls two-way communication between a visually or aurally anthropomorphic normal personified character and a passenger, and controls the normal personified character by means of the identification means. The method is characterized in that when a specific situation is identified, a specific personified character is controlled, and the specific personified character issues a warning regarding the specific situation.

また、前記エージェント制御手段は、前記特定の擬人化キャラクタにより前記特定の状況に係る警告報知を行わせているときには、キャラクタからのコミュニケーションを不能とするようにしてもよい。 Further, the agent control means may disable communication from the character when the specific personified character is giving warning information regarding the specific situation.

さらに、前記エージェント制御手段は、キャラクタと乗員との双方向のコミュニケーションの制御手段として、乗員からの会話の入力があった場合に、入力した会話の内容を乗員に返答する他律型会話制御手段と、乗員からの会話の入力の有無にかかわらず、所定の乗員情報に基づいて、乗員に会話をする自律型会話制御手段と、を有し、前記特定の擬人化キャラクタを制御しているときは、前記自律型会話制御手段による会話または前記他律型会話制御手段による返答を規制するようにしてもよい。 Further, the agent control means is heteronomous conversation control means for controlling two-way communication between the character and the passenger, and responding to the passenger with the contents of the input conversation when the passenger inputs the conversation. and autonomous conversation control means for conversing with the occupant based on predetermined occupant information irrespective of the presence or absence of conversation input from the occupant, and when controlling the specific anthropomorphic character. may regulate the conversation by the autonomous conversation control means or the reply by the heteronomous conversation control means.

さらに、前記エージェント制御手段は、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知を行わせた後、前記コミュニケーションが可能な前記通常の擬人化キャラクタを制御し、前記特定の状況に係る警告報知のサポート報知を行わせるようにしてもよい。 Further, the agent control means controls the normal personified character capable of communication after causing the specific personified character to issue a warning regarding the specific situation, and controls the normal personified character capable of communication. You may make it perform the support alerting|reporting of warning alerting|reporting.

さらに、前記エージェント制御手段は、前記特定の状況に相当すると識別された場合、前記特定の状況が第1のレベルにあると、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知のみを行わせ、前記特定の状況が前記第1のレベルよりも危険度の高い第2のレベルにあると、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知と当該特定の状況に係る警告報知のサポート報知とを行わせるようにしてもよい。 Further, when the agent control means is identified as corresponding to the specific situation and the specific situation is at the first level, the agent control means only issues a warning to the specific personified character concerning the specific situation. and if the specific situation is at a second level with a higher degree of danger than the first level, the specific personified character is given a warning about the specific situation and a warning about the specific situation. You may make it perform the support notification of notification.

本発明によれば、擬人化されたキャラクタから警告報知が発せられた場合、当該警告報知を乗員に的確に認識させることを可能とする車両用エージェント装置を提供することができる。 According to the present invention, it is possible to provide a vehicle agent device that enables a passenger to accurately recognize a warning when an anthropomorphic character issues a warning.

本発明の実施の一形態に係る車両の車室内を示す斜視図である。1 is a perspective view showing the interior of a vehicle according to one embodiment of the present invention; FIG. 第1表示用パネル及び第2表示用パネルを運転席側から視た状態を示す正面図である。FIG. 4 is a front view showing a state in which the first display panel and the second display panel are viewed from the driver's seat side; 車両用エージェント装置を説明するためのブロック図である。1 is a block diagram for explaining a vehicle agent device; FIG. 車両用エージェント装置の制御部によって行われるメインフローチャート図である。FIG. 4 is a main flow chart diagram performed by a control unit of the vehicle agent device; 車両用エージェント装置の制御部によって行われる報知制御処理を示すフローチャート図である。FIG. 4 is a flow chart diagram showing notification control processing performed by a control unit of the vehicle agent device; 車両用エージェント装置の報知例1を示すアニメーション図である。FIG. 11 is an animation diagram showing a notification example 1 of the vehicle agent device; 車両用エージェント装置の報知例2を示すアニメーション図である。FIG. 11 is an animation diagram showing a notification example 2 of the vehicle agent device;

以下、本発明の実施の形態について、図面を参照して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

以下、本発明の実施形態を、図1は本発明の実施の一形態に係る車両の車室内を示す斜視図、図2は第1表示用パネル30及び第2表示用パネル40を運転席側から視た状態を示す正面図、図3は車両用エージェント装置を説明するためのブロック図、図4は車両用エージェント装置の制御部によって行われるメインフローチャート図、図5は車両用エージェント装置の制御部によって行われる報知制御処理を示すフローチャート図、図6は車両用エージェント装置の報知例1を示すアニメーション図、図7は車両用エージェント装置の報知例2を示すアニメーション図である。なお、図中FRは車両前方を、UPは車両上方をそれぞれ示している。また、以下の説明における左右方向は、車両に着座した乗員が車両前方を向いた状態での左右方向を意味する。 1 is a perspective view showing the interior of a vehicle according to one embodiment of the present invention, and FIG. FIG. 3 is a block diagram for explaining the vehicle agent device, FIG. 4 is a main flow chart performed by the controller of the vehicle agent device, and FIG. 5 is a control of the vehicle agent device. FIG. 6 is an animation diagram showing notification example 1 of the vehicle agent device, and FIG. 7 is an animation diagram showing notification example 2 of the vehicle agent device. In the drawing, FR indicates the front of the vehicle, and UP indicates the upper side of the vehicle. Further, the left-right direction in the following description means the left-right direction when an occupant seated in the vehicle faces the front of the vehicle.

(車室内における各構成)
図1、図2に示すように、車両1は、運転席2の車両前方側に設けられるインストルメントパネル3と、運転席2とインストルメントパネル3との間に配置されるステアリングホイール4とを有している。ステアリングホイール4は、ステアリングシャフト(図示省略)を介してステアリングコラム(図示省略)に回転自在に取り付けられている。また、ステアリングホイール4の内部には、車両1が衝突等した際に、ドライバーHに向けて展開するエアバック8が格納されている。
(Each configuration in the passenger compartment)
As shown in FIGS. 1 and 2, a vehicle 1 includes an instrument panel 3 provided in front of a driver's seat 2 and a steering wheel 4 disposed between the driver's seat 2 and the instrument panel 3. have. The steering wheel 4 is rotatably attached to a steering column (not shown) via a steering shaft (not shown). An airbag 8 that deploys toward the driver H when the vehicle 1 collides is stored inside the steering wheel 4 .

図1に示すように、車両1の車室内には、第1表示用パネル30と、第2表示用パネル40と、第3表示用パネル50との3つの表示パネルが設けられている。これら第1表示用パネル30と、第2表示用パネル40とは、運転席2の前方側のインストルメントパネル3にそれぞれ離間して配置され、第3表示用パネル50は、運転席2の左前方側のインストルメントパネル3に配置されている。 As shown in FIG. 1 , the interior of the vehicle 1 is provided with three display panels, a first display panel 30 , a second display panel 40 and a third display panel 50 . The first display panel 30 and the second display panel 40 are arranged separately on the instrument panel 3 in front of the driver's seat 2 , and the third display panel 50 is located on the left of the driver's seat 2 . It is arranged on the instrument panel 3 on the front side.

(第1表示用パネル30)
図1、図2に示すように、第1表示用パネル30は、アナログ時計のように構成された指針式メータと、液晶パネルとバックライトとが一体的に設けられたいわゆる液晶ディスプレイ装置とを備えて構成されている。ドライバー(運転者)H(以下、ドライバーH)は、第1表示用パネル30の第1表示領域30aに表示される各種情報を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。
(First display panel 30)
As shown in FIGS. 1 and 2, the first display panel 30 includes a pointer-type meter configured like an analog clock, and a so-called liquid crystal display device in which a liquid crystal panel and a backlight are integrally provided. configured with. A driver H (hereafter referred to as driver H) can view various information displayed in the first display area 30a of the first display panel 30 through the upper space 4a of the steering wheel 4. It has become.

図2に示すように、第1表示用パネル30には、第1表示領域30aが設けられており、この第1表示領域30aの左右には、車両1の走行速度(スピードメータ)や、エンジンの単位時間当たりの回転数(タコメータ)などの情報を表示する2つの指針式メータと、2つの指針式メータの間であって第1表示用パネル30の中央部には、一般的な車両情報を示す画像を表示する小型の液晶ディスプレイ装置とが配置される。なお、第1表示用パネル30は、指針式メータを備えずに、全体を1つの液晶ディスプレイ装置で構成してもよい。 As shown in FIG. 2, the first display panel 30 is provided with a first display area 30a. Two pointer type meters that display information such as the number of revolutions per unit time (tachometer), and general vehicle information in the central part of the first display panel 30 between the two pointer type meters and a small liquid crystal display device for displaying an image showing It should be noted that the first display panel 30 may be entirely composed of one liquid crystal display device without including a needle-type meter.

(第2表示用パネル40)
図1、図2に示すように、第2表示用パネル40は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されており、その下端部の左右方向の両端部には、それぞれ、相反する方向に突出する一対の回動軸41が取り付けられている。この回動軸41が支持部材(図示省略)によって軸支されることによって、上方に向けて起立する起立位置と、車両前方へ向けて倒伏する倒伏位置との間で可変自在に取り付けられている。ドライバーHは、第2表示用パネル40の第2表示領域40aに表示される各種画像を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。なお、第2表示用パネル40は、起立位置と倒伏位置との間で可変自在に構成したが、支持部材から起立したまま突出する突出位置と支持部材の内部に格納される格納位置との間で上下に可変自在に構成してもよいし、可変不能に固定されていてもよい。
(Second display panel 40)
As shown in FIGS. 1 and 2, the second display panel 40 is composed of, for example, a so-called liquid crystal display device in which a liquid crystal panel and a backlight are integrally provided. A pair of rotating shafts 41 protruding in opposite directions are attached to both ends of each. The rotating shaft 41 is pivotally supported by a support member (not shown) so that it can be freely changed between an upright position in which it stands up and a down position in which it folds down toward the front of the vehicle. . The driver H can see various images displayed in the second display area 40 a of the second display panel 40 through the upper space 4 a of the steering wheel 4 . Although the second display panel 40 is configured to be freely variable between the standing position and the laid-down position, the second display panel 40 can be moved between the protruded position where it protrudes from the support member while being erected and the retracted position where it is stored inside the support member. may be configured to be vertically variable, or may be fixed so as not to be variable.

図2に示すように、第2表示用パネル40には、第2表示領域40aが設けられており、この第2表示領域40aに、後述する通常の擬人化キャラクタ画像I1や、通常の擬人化キャラクタ画像I1から発せられるセリフ画像I2や、後述する特定の擬人化キャラクタ画像I3や、特定の擬人化キャラクタ画像I3から発せられる警告報知画像I4(図6、図7参照)が表示される。第2表示領域40aは、上述のスピードメータと、タコメータとの間に位置するので、ドライバーHは、視線を大きく移動させることなく、スピードメータの確認、タコメータの確認、通常の擬人化キャラクタ画像I1およびセリフ画像I2、および特定の擬人化キャラクタ画像I3および警告報知画像I4の確認ができるようになっている。なお、通常の擬人化キャラクタ画像I1や特定の擬人化キャラクタ画像I3を用いた特徴部については図6、図7で後述する。 As shown in FIG. 2, the second display panel 40 is provided with a second display area 40a. In this second display area 40a, a normal anthropomorphic character image I1 and a normal anthropomorphic character image I1 to be described later. A dialogue image I2 emitted from the character image I1, a specific anthropomorphic character image I3, which will be described later, and a warning notification image I4 (see FIGS. 6 and 7) emitted from the specific anthropomorphic character image I3 are displayed. Since the second display area 40a is located between the speedometer and the tachometer, the driver H can check the speedometer, the tachometer, and the normal anthropomorphic character image I1 without moving the line of sight significantly. and dialogue image I2, and a specific personified character image I3 and warning notification image I4. Characteristic portions using the normal anthropomorphic character image I1 and the specific anthropomorphic character image I3 will be described later with reference to FIGS.

(第3表示用パネル50)
図1に示すように、第3表示用パネル50は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されている。なお、第3表示用パネル50には地図情報等が表示され、いわゆるカーナビゲーションシステムを担っている。
(Third display panel 50)
As shown in FIG. 1, the third display panel 50 is composed of, for example, a so-called liquid crystal display device in which a liquid crystal panel and a backlight are integrally provided. Note that the third display panel 50 displays map information and the like, and serves as a so-called car navigation system.

なお、第1表示用パネル30、第2表示用パネル40及び第3表示用パネル50において構成されている液晶ディスプレイ装置を、プラズマディスプレイや有機EL等の自発光型の表示デバイス、投影型のプロジェクタ等の表示装置で構成してもよい。 The liquid crystal display device constituted by the first display panel 30, the second display panel 40, and the third display panel 50 may be replaced by a self-luminous display device such as a plasma display or organic EL, or a projection type projector. or the like.

(操作ボタン60)
図2に示すように、操作ボタン60は、上下左右の4方向のキーが設けられた操作デバイスであって、本発明の車両用エージェント装置の制御部110(図3参照)に対して、操作信号を入力可能となっている。これにより、例えば、通常の擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声の音量値の変更や、通常の擬人化キャラクタ画像I1の表示位置の変更等ができるようになっている。
(Operation button 60)
As shown in FIG. 2, the operation button 60 is an operation device provided with keys for four directions of up, down, left, and right. A signal can be input. As a result, for example, it is possible to change the volume value of the voice corresponding to the dialogue image I2 emitted from the normal anthropomorphic character image I1, and to change the display position of the normal anthropomorphic character image I1.

次に、本発明における車両用エージェント装置100の構成について、図3のブロック図を参照して説明する。 Next, the configuration of the vehicle agent device 100 according to the present invention will be described with reference to the block diagram of FIG.

図3に示すように、車両用エージェント装置100は、制御部110と、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、第2表示用パネル40と、操作ボタン60と、スピーカ150と、マイク160と、記憶部170と、送受信機180と、で構成されている。 As shown in FIG. 3, the vehicle agent device 100 includes a control unit 110, a surrounding environment recognition unit 120, an occupant state recognition unit 130, a vehicle state recognition unit 140, a second display panel 40, and operation buttons. 60, a speaker 150, a microphone 160, a storage unit 170, and a transceiver 180.

なお、図3に示す車両用エージェント装置100は一例にすぎず、車両用エージェント装置100の構成要素は適宜変更ができる。例えば、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、は少なくともいずれか1つを備えていれば、本発明の車両用エージェント装置100を実現できるし、操作ボタン60と、記憶部170と、送受信機180と、は備えなくても、本発明の車両用エージェント装置100を実現できる。また、少なくともスピーカ150と、マイク160とを備えていれば、第2表示用パネル40は備えなくても、本発明の車両用エージェント装置100を実現できる。 The vehicle agent device 100 shown in FIG. 3 is merely an example, and the constituent elements of the vehicle agent device 100 can be changed as appropriate. For example, if at least one of the surrounding environment recognition unit 120, the occupant state recognition unit 130, and the vehicle state recognition unit 140 is provided, the vehicle agent device 100 of the present invention can be realized. 60, storage unit 170, and transmitter/receiver 180, the vehicle agent device 100 of the present invention can be realized. Further, if at least the speaker 150 and the microphone 160 are provided, the vehicle agent device 100 of the present invention can be realized without the second display panel 40 .

また、本発明における車両用エージェント装置100は、例えば、マイク160を介してドライバーHから音声入力(例えば、問いかけ)が行われた場合に、それに対する返答をスピーカ150や第2表示用パネル40(通常の擬人化キャラクタ画像I1)を介して行う、受動的なスタイルでの対話と、例えば、後述のマイク160を介してドライバーHから音声入力が行われていなくても、ドライバーHの趣味嗜好に併せた話題等をスピーカ150や第2表示用パネル40(通常の擬人化キャラクタ画像I1)を介して車両用エージェント装置100側から行う、能動的なスタイルでの対話と、の両方が可能である。特に、能動的なスタイルでの対話を可能とすることで、積極的な語りかけにより、ドライバーHの眠気防止や運転ストレスの解消に寄与できる。 In addition, for example, when a voice input (for example, a question) is made by the driver H through the microphone 160, the vehicle agent device 100 according to the present invention responds to the input by the speaker 150 or the second display panel 40 ( Dialogue in a passive style performed via a normal anthropomorphic character image I1) and, for example, even if the voice input from the driver H is not performed via a microphone 160 described later, the tastes and preferences of the driver H It is possible to have both an active style of dialogue in which the vehicle agent device 100 talks about topics, etc., through the speaker 150 and the second display panel 40 (normal anthropomorphic character image I1). . In particular, by enabling dialogue in an active style, active talking can contribute to preventing drowsiness of the driver H and alleviating driving stress.

(制御部110)
制御部110は、図示しないCPU、ROM、RAM(例えば、リングバッファ)、入出力ポート等を備えており、例えば、入力ポートより情報入力が行われると、ROMから読み出した制御プログラムに基づいて、出力ポートを介して各種デバイス(第2表示用パネル40やスピーカ150)を制御するようになっている。
(control unit 110)
The control unit 110 includes a CPU, a ROM, a RAM (for example, a ring buffer), and an input/output port (not shown). Various devices (the second display panel 40 and the speaker 150) are controlled via the output port.

なお、制御部110のROMには、通常の擬人化キャラクタ画像I1や、特定の擬人化キャラクタ画像I3から発せられるセリフのデータテーブル(図示省略)が記憶されている。制御部110のCPUは、後述する各認識部から取得した情報や、マイク160から取得した情報に基づいて、通常の擬人化キャラクタ画像I1から発するセリフや、特定の擬人化キャラクタ画像I3から発するセリフをデータテーブルから決定する。例えば、BGMをかけて欲しいとの情報をマイク160から取得したら、データテーブルから「了解しました」といった通常の擬人化キャラクタ画像I1のセリフを決定する。 It should be noted that the ROM of the control unit 110 stores a data table (not shown) of lines emitted from a normal anthropomorphic character image I1 and a specific anthropomorphic character image I3. The CPU of the control unit 110, based on information obtained from each recognition unit (to be described later) and information obtained from the microphone 160, selects the lines emitted from the normal anthropomorphic character image I1 and the lines emitted from the specific anthropomorphic character image I3. is determined from the data table. For example, when information requesting that BGM be played is obtained from the microphone 160, a normal line of the personified character image I1 such as "I understand" is determined from the data table.

(周辺環境認識部120)
周辺環境認識部120は、車両1(自車両)の周辺環境を認識するために設けられている。また、周辺環境認識部120は、車外撮影用カメラ120aと、レーダ120bとを備えており、これらのデバイスによって車両1の周辺環境を認識することができるようになっている。
(Surrounding environment recognition unit 120)
The surrounding environment recognition unit 120 is provided to recognize the surrounding environment of the vehicle 1 (own vehicle). In addition, the surrounding environment recognition unit 120 includes an exterior camera 120a and a radar 120b, and can recognize the surrounding environment of the vehicle 1 by means of these devices.

(車外撮影用カメラ120a)
車外撮影用カメラ120aは、例えば、図示しないルームミラーに取り付けられており、車両1の前方、および、車両1の後方を撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、車両1の前方、車両1の後方の状況をリアルタイムおよび事後的に認識することができる。
(External photography camera 120a)
The exterior photographing camera 120 a is attached to, for example, a rearview mirror (not shown), and is capable of photographing the front of the vehicle 1 and the rear of the vehicle 1 . Then, the captured image information is input to the control unit 110, and the control unit 110 stores the image information in the RAM. Thereby, the control unit 110 can recognize the situation in front of the vehicle 1 and in the rear of the vehicle 1 both in real time and after the fact.

(レーダ120b)
レーダ120bは、例えば、電波を飛ばして障害物等を検知するミリ波レーダが用いられており、当該ミリ波レーダが車両1のフロントバンパやリアバンパに取り付けられ、車両1の前方監視、車両1の前側方監視、車両1の後側方監視ができるようになっている。そして、監視情報が制御部110に入力されて、制御部110がRAMに監視情報を記憶する。これにより、制御部110は、車両1の前方、車両1の前側方の状況、車両1の後側方の状況をリアルタイムおよび事後的に認識することができる。なお、本実施形態においてはミリ波レーダを用いているが、他のレーダを用いてもよい。例えば、赤外線レーダでもよい。
(Radar 120b)
The radar 120b uses, for example, a millimeter-wave radar that emits radio waves to detect obstacles and the like. Front side monitoring and rear side monitoring of the vehicle 1 can be performed. Then, the monitoring information is input to the control section 110, and the control section 110 stores the monitoring information in the RAM. Thereby, the control unit 110 can recognize the situation in front of the vehicle 1, the situation in the front side of the vehicle 1, and the situation in the rear side of the vehicle 1 both in real time and after the fact. In addition, although the millimeter wave radar is used in this embodiment, other radars may be used. For example, infrared radar may be used.

以上のようにして、制御部110は、車両1の周辺環境をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の周辺環境の認識に基づいて、第2表示用パネル40の通常の擬人化キャラクタ画像I1と、スピーカ150とを制御して、車両1の周辺環境の情報をドライバーHに対して報知することができる。例えば、車両1の前方に落下物があれば、「前方に落下物があります」といった画像および音声による報知ができる。これにより、安全性を向上させることができる。 As described above, the control unit 110 can recognize the surrounding environment of the vehicle 1 both in real time and after the fact. Accordingly, the control unit 110 controls the normal anthropomorphic character image I1 on the second display panel 40 and the speaker 150 based on the recognition of the surrounding environment of the vehicle 1 to generate information on the surrounding environment of the vehicle 1. can be notified to the driver H. For example, if there is a falling object in front of the vehicle 1, it is possible to notify the vehicle 1 by means of an image and sound such as "There is a falling object ahead". Thereby, safety can be improved.

なお、本実施形態においては、周辺環境認識部120として、車外撮影用カメラ120aと、レーダ120bとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。 In this embodiment, the camera 120a for photographing outside the vehicle and the radar 120b are used as the surrounding environment recognition unit 120, but these are merely examples, and other devices may of course be used.

(乗員状態認識部130)
乗員状態認識部130は、ドライバーHの状態を認識するために設けられている。また、乗員状態認識部130は、乗員撮影用カメラ130aと、バイタルセンサ130bとを備えており、これらのデバイスによってドライバーHの状態を認識することができるようになっている。
(Occupant state recognition unit 130)
The occupant state recognition unit 130 is provided for recognizing the state of the driver H. As shown in FIG. The occupant state recognizing unit 130 includes an occupant photographing camera 130a and a vital sensor 130b, and can recognize the state of the driver H by means of these devices.

(乗員撮影用カメラ130a)
乗員撮影用カメラ130aは、例えば、インストルメントパネル3に取り付けられており、ドライバーHを撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。なお、ここでいう、ドライバーHの状態とは、具体的には、ドライバーHの目蓋の状態や、瞬きの回数、視線の方向、顔の向きなどが想定される。
(Passenger photographing camera 130a)
The occupant imaging camera 130a is attached to the instrument panel 3, for example, so that the driver H can be photographed. Then, the captured image information is input to the control unit 110, and the control unit 110 stores the image information in the RAM. Thereby, the control part 110 can recognize the state of the driver H in real time and after the fact. The state of the driver H mentioned here specifically includes the state of the eyelids of the driver H, the number of blinks, the direction of the line of sight, the direction of the face, and the like.

(バイタルセンサ130b)
バイタルセンサ130bは、例えば、ステアリングホイール4のドライバーHにより把持される部位に取り付けられ、ドライバーHの心拍数や血圧等のバイタル情報を取得できるようになっている。そして、取得したバイタル情報が制御部110に入力されて、制御部110がRAMにバイタル情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。
(Vital sensor 130b)
The vital sensor 130b is attached, for example, to a portion of the steering wheel 4 that is gripped by the driver H, so that vital information such as heart rate and blood pressure of the driver H can be obtained. Then, the acquired vital information is input to the control unit 110, and the control unit 110 stores the vital information in the RAM. Thereby, the control part 110 can recognize the state of the driver H in real time and after the fact.

以上のようにして、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、ドライバーHの状態の認識に基づいて、第2表示用パネル40の通常の擬人化キャラクタ画像I1と、スピーカ150とを制御して、所定の情報をドライバーHに対して報知することができる。例えば、「目蓋が下がっておりますが、休憩しませんか?」といった画像および音声による報知や、「いつもより心拍数が速いですが、休憩しませんか?」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。 As described above, the control unit 110 can recognize the state of the driver H in real time and after the fact. Accordingly, the control unit 110 controls the normal anthropomorphic character image I1 on the second display panel 40 and the speaker 150 based on the recognition of the state of the driver H to transmit predetermined information to the driver H. can be notified. For example, it is possible to provide an image and voice notification such as ``Your eyelids are drooping, would you like to take a break?'' and an image and voice notification such as ``Your heart rate is faster than usual. . This leads to an improvement in safety.

乗員状態認識部130は、乗員撮影用カメラ130aやバイタルセンサ130bから取得した情報や、マイク160から入力した情報に基づいて、ある程度の範囲でドライバーHの思考感情を認識することができる。例えば、乗員撮影用カメラ130aよりドライバーHの顔の表情を取得し、バイタルセンサ130bよりドライバーHの心拍数や血圧を取得し、マイク160より声量や入力内容を取得し、これらの取得した情報からドライバーHが通常の思考感情にあるか、通常とは異なる思考感情(例えば、驚いている、怒っているなど)にあるかを認識することができる。 The occupant state recognition unit 130 can recognize the thoughts and feelings of the driver H to some extent based on the information acquired from the occupant photographing camera 130a and the vital sensor 130b and the information input from the microphone 160. FIG. For example, the driver H's facial expression is acquired from the passenger camera 130a, the heart rate and blood pressure of the driver H are acquired from the vital sensor 130b, the voice volume and input content are acquired from the microphone 160, and from these acquired information It can be recognized whether the driver H is in a normal thinking feeling or a different thinking feeling (for example, surprised, angry, etc.).

なお、本実施形態においては、乗員状態認識部130として、乗員撮影用カメラ130aと、バイタルセンサ130bとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。 In the present embodiment, the occupant photographing camera 130a and the vital sensor 130b are used as the occupant state recognition unit 130, but this is merely an example, and other devices may of course be used.

(車両状態認識部140)
車両状態認識部140は、車両1の状態を認識するために設けられている。また、車両状態認識部140は、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを備えており、これらのデバイスによって車両1の状態を認識することができるようになっている。
(Vehicle state recognition unit 140)
Vehicle state recognition unit 140 is provided to recognize the state of vehicle 1 . The vehicle state recognition unit 140 includes a vehicle speed sensor 140a, a steering wheel angle sensor 140b, an accelerator pedal sensor 140c, a brake pedal sensor 140d, and a G sensor 140e. can be recognized.

(車速センサ140a)
車速センサ140aは、車両1の車速を検出するためのセンサであって、検出された車速が車速信号として制御部110に入力されて、制御部110がRAMに車速情報を記憶する。これにより、制御部110は、車両1の車速をリアルタイムおよび事後的に認識することができる。
(Vehicle speed sensor 140a)
The vehicle speed sensor 140a is a sensor for detecting the vehicle speed of the vehicle 1. The detected vehicle speed is input to the control unit 110 as a vehicle speed signal, and the control unit 110 stores the vehicle speed information in RAM. Thereby, the control part 110 can recognize the vehicle speed of the vehicle 1 in real time and after the fact.

(ハンドル角センサ140b)
ハンドル角センサ140bは、車両1のハンドル角(ステアリングホイール4の角度)を検出するためのセンサであって、検出されたハンドル角が角度信号として制御部110に入力されて、制御部110がRAMに角度情報を記憶する。これにより、制御部110は、車両1のハンドル角(ステアリングホイール4の角度)をリアルタイムおよび事後的に認識することができる。
(Handle angle sensor 140b)
The steering wheel angle sensor 140b is a sensor for detecting the steering wheel angle of the vehicle 1 (the angle of the steering wheel 4). to store the angle information. Thereby, the control unit 110 can recognize the steering wheel angle (the angle of the steering wheel 4) of the vehicle 1 both in real time and after the fact.

(アクセルペダルセンサ140c)
アクセルペダルセンサ140cは、図示しないアクセルペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のアクセルペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(Accelerator pedal sensor 140c)
The accelerator pedal sensor 140c is a sensor for detecting the amount of depression of an accelerator pedal (not shown). memorize Thereby, the control part 110 can recognize the depression amount of the accelerator pedal of the vehicle 1 in real time and after the fact.

(ブレーキペダルセンサ140d)
ブレーキペダルセンサ140dは、図示しないブレーキペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のブレーキペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(Brake pedal sensor 140d)
The brake pedal sensor 140d is a sensor for detecting the amount of depression of a brake pedal (not shown). memorize Thereby, the control part 110 can recognize the depression amount of the brake pedal of the vehicle 1 in real time and after the fact.

(Gセンサ140e)
Gセンサ140eは、車両1の加速度、減速度及び傾斜を検出するためのセンサであって、加速度が検出された場合は加速度量が、減速度が検出された場合は減速度量が、傾斜が検出された場合は傾斜角度量が、それぞれ加速度量信号、減速度量信号、傾斜角度信号として制御部110に入力されて、制御部110がRAMに加速度情報、減速度情報及び傾斜情報を記憶する。これにより、制御部110は、車両1の加速度、減速度及び傾斜をリアルタイムおよび事後的に認識することができる。
(G sensor 140e)
The G sensor 140e is a sensor for detecting the acceleration, deceleration and tilt of the vehicle 1, and detects the acceleration amount when acceleration is detected, the deceleration amount when deceleration is detected, and the tilt. In this case, the tilt angle amount is input to the control unit 110 as an acceleration amount signal, a deceleration amount signal, and a tilt angle signal, respectively, and the control unit 110 stores the acceleration information, deceleration information, and tilt information in the RAM. Thereby, the control part 110 can recognize the acceleration, deceleration, and inclination of the vehicle 1 in real time and after the fact.

以上のようにして、制御部110は、車両1の状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の状態の認識に基づいて、第2表示用パネル40の通常の擬人化キャラクタ画像I1と、スピーカ150とを制御して、車両1の状態の情報をドライバーHに対して報知することができる。例えば、適切な速度で走行していれば、「適切な速度で走行されていますね」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。 As described above, the control unit 110 can recognize the state of the vehicle 1 both in real time and after the fact. As a result, the control unit 110 controls the normal personified character image I1 on the second display panel 40 and the speaker 150 based on the recognition of the state of the vehicle 1 to transmit the information on the state of the vehicle 1 to the driver. H can be notified. For example, if the vehicle is traveling at an appropriate speed, it can be notified by an image and sound that "You are traveling at an appropriate speed." This leads to an improvement in safety.

なお、本実施形態においては、車両状態認識部140として、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。 In this embodiment, the vehicle speed sensor 140a, the steering wheel angle sensor 140b, the accelerator pedal sensor 140c, the brake pedal sensor 140d, and the G sensor 140e are mentioned as the vehicle state recognition unit 140, but this is only an example. Of course, other devices may be used instead.

(スピーカ150)
スピーカ150は、例えば、インストルメントパネル3に取り付けられており、通常の擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声が出力される。なお、スピーカ150を設けずに、車両1に内蔵されているオーディオスピーカを用いてもよい。
(Speaker 150)
The speaker 150 is attached to the instrument panel 3, for example, and outputs a sound corresponding to the dialogue image I2 emitted from the normal anthropomorphic character image I1. An audio speaker built in the vehicle 1 may be used without providing the speaker 150 .

(マイク160)
マイク160は、例えば、インストルメントパネル3に取り付けられており、ドライバーH、その他乗員から発せられる音声が入力される。
(mic 160)
The microphone 160 is attached to the instrument panel 3, for example, and receives voices from the driver H and other passengers.

(記憶部170)
記憶部170は、上述した各認識部から取得した情報や、ドライバーHと制御部110とで行われた対話等を記憶することが可能である。制御部110は、これらの情報を記憶部170に蓄積していくことで、ドライバーHの運転傾向(例えば、どのような運転を行うドライバーであるのか)や、ドライバーHの趣味嗜好(例えば、どのようなBGMが好みであるのか)等を認識することができる。また、これらを認識することで、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から能動的に行うこともできる。
(storage unit 170)
The storage unit 170 can store information acquired from each of the recognition units described above, dialogue between the driver H and the control unit 110, and the like. By accumulating such information in the storage unit 170, the control unit 110 can determine the driving tendency of the driver H (for example, how the driver drives) and the hobbies and preferences of the driver H (for example, which Do you like such BGM?), etc., can be recognized. In addition, by recognizing these, it is possible to actively engage in conversations that match the driving tendencies of the driver H and the tastes and preferences of the driver H from the side of the vehicle agent device 100 (normal anthropomorphic character image I1).

(送受信機180)
送受信機180は、例えば、車載用の無線LANを用いた情報の取得や、衛星測位システムを用いた位置情報の取得などが可能である。制御部110は、これら取得した情報や、上述の記憶部170に蓄積した情報に基づいて、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から能動的に行うこともできる。
(Transceiver 180)
The transmitter/receiver 180 can, for example, acquire information using a vehicle-mounted wireless LAN, acquire position information using a satellite positioning system, and the like. Based on the acquired information and the information accumulated in the storage unit 170, the control unit 110 communicates with the vehicle agent device 100 side (normal This can also be done actively from the anthropomorphic character image I1).

次に、上述した受動的なスタイルでの対話、および、能動的なスタイルでの対話や、後述の危険因子が生じた際に行う警告報知等を実現するにあたり、制御部110によって行われる制御処理を図4、図5を用いて行う。なお、図4、図5で示す制御フローは制御部110のROMに記憶されており、制御部110のCPUがROMから読み出して各種処理を行う。 Next, control processing performed by the control unit 110 in realizing the above-described passive-style dialogue, active-style dialogue, and warning notification when a risk factor occurs, which will be described later. is performed using FIGS. 4 and 5. FIG. The control flows shown in FIGS. 4 and 5 are stored in the ROM of the control unit 110, and the CPU of the control unit 110 reads them from the ROM and performs various processes.

はじめに、図4は制御部110によって行われるメイン処理である。当該メイン処理は、制御部110によって所定の周期毎に定期的に行われる処理である。 First, FIG. 4 shows main processing performed by the control unit 110 . The main process is a process that is periodically performed by the control unit 110 every predetermined cycle.

(ステップS10)
ステップS10において、制御部110のCPUは、車両状態認識処理を行う。具体的には、車両状態認識部140から入力した情報に基づいて、車両1における状態を認識する。そして、車両状態認識処理を終えると、ステップS20に処理を移行する。
(Step S10)
In step S10, the CPU of the control unit 110 performs vehicle state recognition processing. Specifically, the state of the vehicle 1 is recognized based on the information input from the vehicle state recognition section 140 . After completing the vehicle state recognition process, the process proceeds to step S20.

(ステップS20)
ステップS20において、制御部110のCPUは、周辺環境認識処理を行う。具体的には、周辺環境認識部120から入力した情報に基づいて、車両1における周辺環境を認識する。そして、周辺環境認識処理を終えると、ステップS30に処理を移行する。
(Step S20)
In step S20, the CPU of the control unit 110 performs surrounding environment recognition processing. Specifically, the surrounding environment of the vehicle 1 is recognized based on the information input from the surrounding environment recognition section 120 . Then, when the peripheral environment recognition processing is completed, the processing proceeds to step S30.

(ステップS30)
ステップS30において、制御部110のCPUは、乗員状態認識処理を行う。具体的には、乗員状態認識部130から入力した情報に基づいて、ドライバーHの状態を認識する。そして、乗員状態認識処理を終えると、ステップS40に処理を移行する。
(Step S30)
At step S30, the CPU of the control unit 110 performs passenger state recognition processing. Specifically, the state of the driver H is recognized based on the information input from the passenger state recognition section 130 . When the occupant state recognition process is completed, the process proceeds to step S40.

(ステップS40)
ステップS40において、制御部110のCPUは、危険因子抽出処理を行う。具体的には、ステップS10~ステップS30にて各種情報を認識した結果、危険因子が含まれているかを抽出する処理を行う。
(Step S40)
In step S40, the CPU of control unit 110 performs risk factor extraction processing. Specifically, as a result of recognizing various kinds of information in steps S10 to S30, a process of extracting whether risk factors are included is performed.

ここで、本実施形態における「危険因子」とは、車両事故が起こり得る危険因子を意味し、自己の車両から他の車両・障害物までの接近した近接距離等、ドライバーHの運転内容(ハンドルのきりすぎ、急発進、急ブレーキ、逆走等)、ドライバーHの眠気推定値や運転ストレス値(目蓋の状態や、瞬きの回数、視線の方向、顔の向き、心拍数、血圧等)が挙げられる。 Here, the "risk factor" in this embodiment means a risk factor that may cause a vehicle accident, such as the close proximity distance from one's own vehicle to another vehicle/obstacle, etc. Excessive driving, sudden start, sudden braking, reverse driving, etc.), drowsiness estimate value and driving stress value of driver H (condition of eyelids, number of blinks, direction of gaze, direction of face, heart rate, blood pressure, etc.) is mentioned.

各認識部から取得する各情報には、所定の閾値を設けており、取得した各情報が所定の閾値を超えている場合に、危険因子が含まれていると判断する。周辺環境認識部120による認識であれば、例えば、前方車との車間距離が10m未満となると、所定の閾値を超え、危険因子が含まれていると判断される。また、乗員状態認識部130による認識であれば、例えば、時間当たりのドライバーHの瞬きの回数が所定回数を満たしていないと、所定の閾値を超え、危険因子が含まれていると判断される。また、車両状態認識部140による認識であれば、例えば、加速度量が一定値を超えると所定の閾値を超え、危険因子が含まれていると判断される。そして、危険因子抽出処理を終えると、ステップS50に処理を移行する。 Each piece of information acquired from each recognition unit is provided with a predetermined threshold value, and when each piece of information acquired exceeds the predetermined threshold value, it is determined that a risk factor is included. In the case of recognition by the surrounding environment recognition unit 120, for example, when the inter-vehicle distance to the vehicle in front is less than 10 m, it exceeds a predetermined threshold value and is determined to include a risk factor. Further, in the case of recognition by the occupant state recognition unit 130, for example, if the number of times the driver H blinks per hour does not meet a predetermined number of times, it exceeds a predetermined threshold value and is determined to include a risk factor. . In the case of recognition by the vehicle state recognition unit 140, for example, when the acceleration amount exceeds a certain value, it exceeds a predetermined threshold value, and it is determined that a risk factor is included. When the risk factor extraction process is completed, the process proceeds to step S50.

(ステップS50)
ステップS50において、制御部110のCPUは、特定の状況であるか、を判定する。なお、特定の状況とは、各認識部から取得した情報が、所定の閾値を超え、危険因子が含まれている状況をいう。すなわち、ステップS40で危険因子抽出処理を行った結果、危険因子が含まれているかを判定する。そして、特定の状況であると判定した場合は、ステップS60に処理を移行し、特定の状況ではないと判定した場合は、ステップS70に処理を移行する。
(Step S50)
In step S50, the CPU of control unit 110 determines whether a specific situation exists. Note that the specific situation means a situation in which the information obtained from each recognition unit exceeds a predetermined threshold and contains risk factors. That is, as a result of performing the risk factor extraction process in step S40, it is determined whether a risk factor is included. Then, when it is determined that the specific situation exists, the process proceeds to step S60, and when it is determined that the specific situation does not exist, the process proceeds to step S70.

(ステップS60)
ステップS60において、制御部110のCPUは、特定の擬人化キャラクタ(図6(b)で示す擬人化キャラクタ画像I3)への変更処理を行う。具体的には、制御部110のCPUがRAMにおいて、通常の擬人化キャラクタ(図6(a)で示す擬人化キャラクタ画像I1)に対応する識別フラグ「0」に代えて、特定の擬人化キャラクタに対応する識別フラグ「1」をセットする。そして、特定の擬人化キャラクタへの変更処理を終えると、ステップS61に処理を移行する。
(Step S60)
In step S60, the CPU of the control unit 110 performs a change process to a specific personified character (personified character image I3 shown in FIG. 6B). Specifically, the CPU of the control unit 110 replaces the identification flag "0" corresponding to the normal anthropomorphic character (the anthropomorphic character image I1 shown in FIG. 6A) in the RAM with the specific anthropomorphic character set the identification flag "1" corresponding to Then, after finishing the process of changing to a specific personified character, the process proceeds to step S61.

なお、上述のステップS40で抽出される危険因子は複数種類想定され、危険因子は種類に応じて危険度合いが相違するものであるが、いずれの危険因子が抽出された場合でも、ステップS60で変更される特定の擬人化キャラクタは単一のキャラクタ(図6(b-1)等参照)であることが望ましい。これにより、危険因子の内容や危険度合いによって警告報知を行うキャラクタが変化するものではなく、単一のキャラクタとすることで、警告報知を行うキャラクタが表示された場合には、何かしらの危険因子が生じている、とドライバーHに強く認識させることができる。 It should be noted that a plurality of types of risk factors are assumed to be extracted in step S40 described above, and the degree of risk differs depending on the type of risk factor. The specific anthropomorphic character to be used is preferably a single character (see FIG. 6(b-1), etc.). As a result, the character that gives the warning does not change depending on the content of the risk factor or the degree of danger, but by using a single character, when the character that gives the warning is displayed, some kind of risk factor is displayed. It is possible to make the driver H strongly recognize that it is occurring.

(ステップS61)
ステップS61において、制御部110のCPUは、危険因子の危険度合いの相違に応じて、サポート報知を行うキャラクタ及び報知内容を決定するサポート報知態様作成処理を行う。具体的には、危険因子の危険度合いが低いものは、通常の擬人化キャラクタを決定して、その危険因子を解消するための報知内容の出力データを作成し、危険因子の危険度合いが高いものは、特定の擬人化キャラクタを決定して、その危険因子を解消するための報知内容の出力データを作成する。そして、サポート報知態様作成処理を終えると、ステップS70に処理を移行する。このように、サポート報知(図6(c)、図7(c)参照)を行う場面では、危険度合いの相違に応じて、サポート報知を行うキャラクタを異ならせるようにしている。
(Step S61)
In step S61, the CPU of the control unit 110 performs support notification mode creation processing for determining the character and notification content for which the support notification is to be given, depending on the difference in the degree of risk of the risk factors. Specifically, for those with a low degree of risk factor, an ordinary anthropomorphic character is determined, and output data for notification content for eliminating the risk factor is created, and for those with a high degree of risk factor. determines a specific anthropomorphic character and creates output data of notification contents for eliminating the risk factor. Then, when the support notification mode creating process is completed, the process proceeds to step S70. In this manner, when the support notification (see FIGS. 6(c) and 7(c)) is performed, the character to which the support notification is performed is changed according to the difference in the degree of danger.

(ステップS70)
ステップS70において、制御部110のCPUは、特定の状況なしか、を判定する。具体的には、ステップS40で危険因子を抽出した結果、危険因子が抽出されなかったか、すなわち、特定の状況になかったかを判定する。そして、特定の状況になかったと判定した場合は、ステップS80に処理を移行し、特定の状況にあったと判定した場合は、ステップS100に処理を移行する。
(Step S70)
In step S70, the CPU of control unit 110 determines whether there is a specific situation. Specifically, as a result of extracting the risk factor in step S40, it is determined whether the risk factor was not extracted, that is, whether the vehicle was in a specific situation. If it is determined that the specific situation has not occurred, the process proceeds to step S80, and if it is determined that the specific situation has occurred, the process proceeds to step S100.

(ステップS80)
ステップS80において、制御部110のCPUは、特定の擬人化キャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「0」がセットされていれば、通常の擬人化キャラクタをセット中であると認識し、「1」がセットされていれば、特定の擬人化キャラクタをセット中であると認識する。すなわち、当該処理においては、RAMの識別フラグに「1」がセットされているかを判定する。そして、特定の擬人化キャラクタをセット中であると判定した場合は、ステップS90に処理を移行し、特定の擬人化キャラクタをセット中ではないと判定した場合は、ステップS100に処理を移行する。
(Step S80)
In step S80, the CPU of control unit 110 determines whether or not a specific personified character is being set. Specifically, the identification flag of the RAM is referred to, and if "0" is set, it is recognized that a normal anthropomorphic character is being set, and if "1" is set, a specific Recognize that an anthropomorphic character is being set. That is, in this process, it is determined whether or not the identification flag of the RAM is set to "1". When it is determined that the specific personified character is being set, the process proceeds to step S90, and when it is determined that the specific personified character is not being set, the process is moved to step S100.

(ステップS90)
ステップS90において、制御部110のCPUは、通常の擬人化されたキャラクタへの変更処理を行う。具体的には、RAMの識別フラグ「1」に代えて、「0」をセットする。このように、危険因子が抽出されなかった場合は、特定の擬人化キャラクタから通常の擬人化キャラクタに変更する。これにより、乗員から会話入力が行われた場合に、車両用エージェント装置100側から応答することが可能となる。そして、通常の擬人化されたキャラクタへの変更処理を終えると、ステップS100に処理を移行する。
(Step S90)
In step S90, the CPU of the control unit 110 performs normal change processing to an anthropomorphic character. Specifically, "0" is set instead of the RAM identification flag "1". Thus, if no risk factor is extracted, the specific personified character is changed to a normal personified character. As a result, when a conversation input is made by the passenger, it is possible to respond from the vehicle agent device 100 side. Then, when the change process to the normal personified character is completed, the process proceeds to step S100.

(ステップS100)
ステップS100において、制御部110のCPUは、報知制御処理を行う。なお、報知制御処理は、後に図5を用いて詳述する。そして、報知制御処理を終えると、メイン処理を終了する。
(Step S100)
In step S100, the CPU of the control unit 110 performs notification control processing. Note that the notification control process will be described in detail later with reference to FIG. After finishing the notification control process, the main process ends.

次に、図5を用いて、制御部110のCPUにより行われる報知制御処理について説明を行う。図5は、図4のステップS100のサブルーチンである。 Next, the notification control process performed by the CPU of the control unit 110 will be described with reference to FIG. FIG. 5 is a subroutine of step S100 in FIG.

(ステップS101)
ステップS101において、制御部110のCPUは、特定の擬人化キャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「1」がセットされているかを判定する。そして、特定の擬人化キャラクタをセット中であると判定した場合は、ステップS105に処理を移行し、特定の擬人化キャラクタをセット中ではないと判定した場合は、ステップS102に処理を移行する。
(Step S101)
In step S101, the CPU of the control unit 110 determines whether or not a specific personified character is being set. Specifically, the identification flag in the RAM is referenced to determine whether "1" is set. When it is determined that the specific personified character is being set, the process proceeds to step S105, and when it is determined that the specific personified character is not being set, the process proceeds to step S102.

(ステップS102)
ステップS102において、制御部110のCPUは、自律型対話制御処理を行う。具体的には、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話を行うための処理を行う。例えば、ドライバーHが乗車して、直線道路を走行している状態になったときなどにおいて、通常の擬人化キャラクタ画像I1から「昨日は、○○様が応援している△△チームが負けてしまいました・・・」などといったことが音声および画像で報知(語りかけ)される。なお、当該語りかけにドライバーHが応答すれば、話題は継続される(後述のステップS103~ステップS106)。例えば、ドライバーHがマイク160を介して、「今日は、□□選手が出るから勝つよ」などと応答すれば、通常の擬人化キャラクタ画像I1が「そうですね!□□選手は頼もしいですからね!」などといった双方向での対話が可能である。一方、ドライバーHが応答しなければ、所定時間後に別の話題を持ち出して、再度、通常の擬人化キャラクタ画像I1から報知(語りかけ)が行われる。なお、複数回語りかけを行ったものの、ドライバーHからの応答がない場合は、ドライバーHが会話を行いたくない状態にあると認識して、語りかけの頻度を下げることもできる。そして、自律型対話制御処理を終えると、ステップS103に処理を移行する。
(Step S102)
In step S102, the CPU of the control unit 110 performs autonomous dialogue control processing. Specifically, a process for performing a dialogue in an active style, which is performed from the side of the vehicle agent device 100 described above, is performed. For example, when the driver H gets into the car and is driving on a straight road, the normal anthropomorphic character image I1 may be displayed as follows: I'm sorry..." is reported (spoken) by voice and image. If the driver H responds to the speech, the topic is continued (steps S103 to S106, which will be described later). For example, if the driver H responds through the microphone 160, such as "I will win today because xx will be playing", the normal anthropomorphic character image I1 will respond "Yes! xx is a reliable player!" Two-way dialogue is possible. On the other hand, if the driver H does not respond, another subject is brought up after a predetermined period of time, and the normal anthropomorphic character image I1 informs (talks to) the driver again. If there is no response from the driver H after speaking to the driver a plurality of times, it can be recognized that the driver H does not want to have a conversation, and the frequency of speaking can be reduced. After completing the autonomous dialogue control process, the process proceeds to step S103.

(ステップS103)
ステップS103において、制御部110のCPUは、乗員の会話入力があったかを判定する。具体的には、マイク160の入力ポートより音声入力が行われたかを判定する。なお、制御部110には、図示しない公知の音声認識部が設けられており、当該音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断するようになっている。また、ここでいう乗員とは、ドライバーHに限らず、他の乗員であってもよい。また、マイク160による音声入力に限らず、操作ボタン60による操作入力によって会話入力ができてもよい。ただし、安全性を鑑みて、ワンタッチ操作での会話入力ができることが好ましい。また、当該処理における乗員の会話入力は、上述した受動的なスタイルでの対話も含む。そして、乗員の会話入力があったと判定した場合は、ステップS104に処理を移行し、乗員の会話入力がなかったと判定した場合は、ステップS105に処理を移行する。
(Step S103)
In step S103, the CPU of control unit 110 determines whether or not there has been a passenger's conversation input. Specifically, it is determined whether voice input is performed from the input port of the microphone 160 . The control unit 110 is provided with a known voice recognition unit (not shown), and the voice recognition unit determines what the input voice (conversation content) is. ing. Further, the passenger here is not limited to the driver H, and may be another passenger. In addition, it is possible to input a conversation by operating the operation button 60 instead of the voice input by the microphone 160 . However, in view of safety, it is preferable to be able to input a conversation with a one-touch operation. In addition, the passenger's conversational input in this process also includes the above-described passive-style interaction. Then, when it is determined that there is an input of conversation by the passenger, the process proceeds to step S104, and when it is determined that there is no input of conversation by the passenger, the process proceeds to step S105.

(ステップS104)
ステップS104において、制御部110のCPUは、対応する会話内容の応答制御処理を行う。具体的には、上述の音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断して、応答内容を決定し、セリフの表示データ、およびセリフの音声データを生成する。そして、対応する会話内容の応答制御処理を終えると、ステップS105に処理を移行する。
(Step S104)
In step S104, the CPU of the control unit 110 performs response control processing for the corresponding conversation content. Specifically, the above-mentioned speech recognition unit judges what kind of content the input voice (conversation content) is, determines the content of the response, and determines the display data of the lines and the voice data of the lines. to generate When the response control process for the corresponding conversation content is completed, the process proceeds to step S105.

ここで、特定の擬人化キャラクタをセット中でないと判定した場合には、上記ステップS102の自律型対話制御処理やステップS104の応答制御処理が行われるものの、特定の擬人化キャラクタをセット中であると判定した場合には、上記ステップS102の自律型対話制御処理やステップS104の応答制御処理が行われない(規制される)ように構成されている。このため、後述の図6(a)で示す通常の擬人化キャラクタ画像I1が表示されている場合は、能動的なスタイルでの会話や乗員が会話した応答が行われるが、後述の図6(b)で示す特定の擬人化キャラクタ画像I3が表示されている場合は、能動的なスタイルでの会話や乗員が会話した応答も行われないことになる。すなわち、乗員が特定の擬人化キャラクタとはコミュニケーションが不能に構成されている。これにより、乗員は、特定の擬人化キャラクタ画像I3を、通常の擬人化キャラクタ画像I1とは異なる特別な画像として認識することになる。 Here, when it is determined that the specific personified character is not being set, the autonomous dialogue control process of step S102 and the response control process of step S104 are performed, but the specific personified character is being set. If so, the autonomous dialogue control process in step S102 and the response control process in step S104 are not performed (restricted). For this reason, when a normal anthropomorphic character image I1 shown in FIG. When the specific anthropomorphic character image I3 shown in b) is displayed, neither active-style conversations nor responses to conversations by passengers are performed. That is, the passenger is configured to be unable to communicate with a specific personified character. As a result, the passenger recognizes the specific anthropomorphic character image I3 as a special image different from the normal anthropomorphic character image I1.

(ステップS105)
ステップS105において、制御部110のCPUは、画像表示処理を行う。具体的には、ステップS102において決定されたセリフの表示データや、ステップS104で生成したセリフの表示データを出力し、第2表示用パネル40に当該セリフを表示する処理を行う。そして、画像表示処理を終えると、ステップS106に処理を移行する。
(Step S105)
In step S105, the CPU of the control unit 110 performs image display processing. Specifically, the display data of the words determined in step S102 and the display data of the words generated in step S104 are output, and the process of displaying the words on the second display panel 40 is performed. Then, when the image display process is completed, the process proceeds to step S106.

(ステップS106)
ステップS106において、制御部110のCPUは、音出力処理を行う。具体的には、ステップS102において決定されたセリフの音声データや、ステップS104で生成したセリフの音声データを出力し、スピーカ150より当該セリフを出力する処理を行う。そして、音出力処理を終えると、メイン処理を終了する。以上のような処理によって、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話や、受動的なスタイルでの対話や、危険因子が生じた際の警告報知等が実現される。
(Step S106)
In step S106, the CPU of the control unit 110 performs sound output processing. Specifically, the voice data of the lines determined in step S102 and the voice data of the lines generated in step S104 are output, and the lines are output from the speaker 150. FIG. Then, when the sound output processing ends, the main processing ends. Through the above-described processing, active-style dialogue, passive-style dialogue, and warning notification when a risk factor occurs are realized from the side of the vehicle agent device 100 described above. .

次に、図6、図7を用いて、上述した制御処理によって行われる報知例を説明する。なお、図6、図7においては、第2表示用パネル40の表示画面を表しており、スピーカ150は図示を省略しているが、セリフに対応した音声はスピーカ150より出力されているものとして説明する。 Next, an example of notification performed by the control process described above will be described with reference to FIGS. 6 and 7. FIG. 6 and 7 show the display screen of the second display panel 40, and the speaker 150 is not shown. explain.

はじめに、通常の擬人化キャラクタ画像I1は、女性を模したキャラクタ画像であって、当該通常の擬人化キャラクタ画像I1からは、女性のセリフおよび音声が出力される。一方、特定の擬人化キャラクタ画像I3は、男性を模したキャラクタ画像であって、当該特定の擬人化キャラクタ画像I3からは、男性のセリフおよび音声が出力される。そして、危険因子が抽出されていない場合は、第2表示用パネル40に通常の擬人化キャラクタ画像I1が表示されており、危険因子が抽出された場合は、第2表示用パネル40に通常の擬人化キャラクタ画像I1に代わり特定の擬人化キャラクタ画像I3が表示されて、当該特定の擬人化キャラクタ画像I3より、危険因子に係る警告情報を画像および音声により報知するようにしている。以下、具体例を説明する。 First, the normal anthropomorphic character image I1 is a character image simulating a woman, and from the normal anthropomorphic character image I1, the words and voice of a woman are output. On the other hand, the specific anthropomorphic character image I3 is a character image simulating a man, and from the specific anthropomorphic character image I3, the lines and voice of the man are output. When the risk factor is not extracted, the normal personified character image I1 is displayed on the second display panel 40, and when the risk factor is extracted, the normal image is displayed on the second display panel 40. A specific personified character image I3 is displayed in place of the personified character image I1, and the specific personified character image I3 notifies the user of warning information related to the risk factors by means of images and sounds. A specific example will be described below.

図6(a-1)は、例えば、能動的なスタイルでの対話を示しており、車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から天気の話題に関する語りかけ(セリフ画像I2)が行われていることを示している。なお、図示では省略するが、図6(a-1)の後、ドライバーHと車両用エージェント装置100との対話が数回行われている、と仮定している。 FIG. 6(a-1) shows, for example, a dialogue in an active style, in which the vehicular agent device 100 side (normal anthropomorphic character image I1) talks about the topic of weather (word image I2). shows what is being done. Although not shown, it is assumed that the driver H and the vehicle agent device 100 have had several conversations after FIG. 6(a-1).

また、このとき車両1は、図6(a-2)に示すように、片側二車線道路の左側車線Lを走行しており、左側車線Lの適正位置を走行している、と仮定している。 Also, at this time, as shown in FIG. 6(a-2), it is assumed that the vehicle 1 is traveling in the left lane L of a two-lane road and is traveling in an appropriate position in the left lane L. there is

そして、図6(b-2)では、ドライバーHと車両用エージェント装置100との対話が数回行われている最中に、右側車線Rを所定速度以上で走行する後続車Bが現われ、相互の距離が所定の閾値を超えた、と仮定している。この場合、制御部110は、周辺環境認識部120(後続車Bの存在、速度等)や、車両状態認識部140(車両1の速度等)によって後続車Bの急接近を認識(危険因子ありと認識)する。 In FIG. 6(b-2), while the driver H and the vehicle agent device 100 are having a conversation several times, the following vehicle B, which is traveling in the right lane R at a speed higher than a predetermined speed, appears. exceeds a predetermined threshold. In this case, the control unit 110 uses the surrounding environment recognition unit 120 (existence, speed, etc. of the following vehicle B) and the vehicle state recognition unit 140 (vehicle 1 speed, etc.) to recognize the rapid approach of the following vehicle B (there is a risk factor). and recognize).

そして、制御部110は、後続車Bの急接近を認識すると、図6(b-1)で示すように、通常の擬人化キャラクタ画像I1を消去して、特定の擬人化キャラクタ画像I3を表示して、当該特定の擬人化キャラクタ画像I3より、後続車Bの急接近を警告報知する警告報知画像I4および警告報知画像I4に対応する音声を出力する。これにより、ドライバーHが車両用エージェント装置100との対話に夢中になっていても、異なるキャラクタ画像が出現して、そのキャラクタ画像から警告報知が行われるので、警告報知に気づき易くすることができる。 When the control unit 110 recognizes the rapid approach of the following vehicle B, the control unit 110 erases the normal personified character image I1 and displays the specific personified character image I3 as shown in FIG. Then, from the specific personified character image I3, a warning notification image I4 for warning of the rapid approach of the following vehicle B and a sound corresponding to the warning notification image I4 are output. As a result, even if the driver H is preoccupied with the dialogue with the vehicle agent device 100, a different character image appears and the warning is issued from the character image, so that the warning can be easily noticed. .

そして、図6の事象では、左側車線Lの適正位置を走行している、と仮定しているので、制御部110は、危険因子(危険度合い)が第1のレベルにあると判断して、図6(c)に示すように、特定の擬人化キャラクタ画像I3を消去して、通常の擬人化キャラクタ画像I1を表示して、当該通常の擬人化キャラクタ画像I1より、現走行車線を保つことを報知するサポート報知画像I5およびサポート報知画像I5に対応する音声を出力する(サポート報知を行う)。これにより、危険因子が生じても、危険因子にその後どう対応すればよいか、といったことをドライバーHに認識させることができるので、安全性の向上に寄与できる。 In the event of FIG. 6, it is assumed that the vehicle is traveling in the proper position of the left lane L, so the control unit 110 determines that the risk factor (degree of risk) is at the first level, As shown in FIG. 6(c), the specific anthropomorphic character image I3 is erased, the normal anthropomorphic character image I1 is displayed, and the current driving lane is maintained by the normal anthropomorphic character image I1. A support notification image I5 and a sound corresponding to the support notification image I5 are output (support notification is performed). As a result, even if a risk factor occurs, the driver H can be made aware of how to deal with the risk factor afterward, which contributes to an improvement in safety.

次に、図7は、図6とは別の事象が生じた際の報知例を示しており、図7(a-1)は、図6(a-1)と同様に、車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から天気の話題に関する語りかけ(セリフ画像I2)が行われ、その後、ドライバーHと車両用エージェント装置100との対話が数回行われている、と仮定している。 Next, FIG. 7 shows an example of notification when an event different from that in FIG. 6 occurs. It is assumed that the 100 side (normal anthropomorphic character image I1) speaks about the topic of the weather (words image I2), and then the driver H and the vehicle agent device 100 have a dialogue several times. ing.

そして、図7(b-2)では、ドライバーHが車両用エージェント装置100との対話に夢中になるあまり、車両1が分離線C上(適正ではない位置)を走行し、その際に右側車線Rを所定速度以上で走行する後続車Bが現われ、相互の距離が所定の閾値を超えた、と仮定している。この場合、制御部110は、周辺環境認識部120(車両1の走行位置、後続車Bの存在、速度等)や、車両状態認識部140(車両1の速度等)によって、後続車Bの急接近と、車両1の走行位置が適正でないことを認識(危険因子ありと認識)する。 In FIG. 7(b-2), the driver H is so absorbed in the dialogue with the vehicle agent device 100 that the vehicle 1 travels on the separation line C (inappropriate position). It is assumed that a following vehicle B, traveling on R at a predetermined speed or higher, appears and the mutual distance exceeds a predetermined threshold. In this case, the control unit 110 uses the surrounding environment recognition unit 120 (driving position of the vehicle 1, presence of the following vehicle B, speed, etc.) and the vehicle state recognition unit 140 (speed of the vehicle 1, etc.) to It recognizes that the vehicle 1 is approaching and that the running position of the vehicle 1 is not appropriate (recognizes that there is a risk factor).

そして、制御部110は、後続車Bの急接近と、車両1の走行位置が適正でないことを認識すると、図7(b-1)で示すように、通常の擬人化キャラクタ画像I1を消去して、特定の擬人化キャラクタ画像I3を表示して、当該特定の擬人化キャラクタ画像I3より、後続車Bの急接近を警告報知する警告報知画像I4および警告報知画像I4に対応する音声を出力する。これにより、図6(b-1)で述べた効果と同様の効果が得られる。 Then, when the control unit 110 recognizes that the following vehicle B is approaching rapidly and that the vehicle 1 is not in a proper running position, the control unit 110 erases the normal personified character image I1 as shown in FIG. 7(b-1). Then, a specific personified character image I3 is displayed, and from the specific personified character image I3, a warning notification image I4 for notifying a rapid approach of the following vehicle B and a sound corresponding to the warning notification image I4 are output. . As a result, an effect similar to that described with reference to FIG. 6(b-1) can be obtained.

そして、図7の事象では、車両1が分離線C上(適正ではない位置)を走行している、と仮定しているので、制御部110は、危険因子(危険度合い)が上述の第1のレベルよりも高い第2のレベルにあると判断して、図7(c)に示すように、特定の擬人化キャラクタ画像I3の表示を維持して、当該特定の擬人化キャラクタ画像I3より、左側車線L側に寄った方がよいことを報知するサポート報知画像I6およびサポート報知画像I6に対応する音声を出力する(サポート報知を行う)。このように、危険因子(危険度合い)が高い場合は、特定の擬人化キャラクタ画像I3の表示を維持して、当該特定の擬人化キャラクタ画像I3より、危険因子にその後どう対応すればよいか、というサポート報知を行うことで、ドライバーHに危険因子への対応を強く認識させることができる。これにより、速やかに危険因子への対応を行わせることも可能となるので、安全性の向上に寄与できる。 In the event of FIG. 7, it is assumed that the vehicle 1 is traveling on the separation line C (inappropriate position). Then, as shown in FIG. 7(c), the display of the specific personified character image I3 is maintained, and from the specific personified character image I3, A support notification image I6 notifying that it is better to move to the left lane L side and a sound corresponding to the support notification image I6 are output (support notification is performed). Thus, when the risk factor (degree of risk) is high, the display of the specific personified character image I3 is maintained, and how to deal with the risk factor from the specific personified character image I3. By providing this support notification, it is possible to make the driver H strongly recognize how to deal with the risk factor. As a result, it is possible to promptly respond to risk factors, which contributes to the improvement of safety.

(変形例)
以下に、想定される変形例を追記する。
(Modification)
The assumed modified examples are added below.

上記実施形態においては、第2表示用パネル40を第1表示用パネル30と別個に設けて、当該第2表示用パネル40に通常の擬人化キャラクタ画像I1等を表示したが、第2表示用パネル40は設けずに、第1表示用パネル30に通常の擬人化キャラクタ画像I1等を表示するようにしてもよい。 In the above embodiment, the second display panel 40 is provided separately from the first display panel 30, and the normal anthropomorphic character image I1 and the like are displayed on the second display panel 40. The panel 40 may not be provided, and the normal anthropomorphic character image I1 or the like may be displayed on the first display panel 30. FIG.

また、第2表示用パネル40は設けずに、第3表示用パネル(カーナビゲーションシステムを担う表示装置)に通常の擬人化キャラクタ画像I1等を表示するようにしてもよい。 Alternatively, the normal anthropomorphic character image I1 or the like may be displayed on the third display panel (the display device serving as the car navigation system) without providing the second display panel 40 .

また、第2表示用パネル40に代えて、例えば、フロントガラスに情報を投影するヘッドアップディスプレイを用いて、フロントガラスに通常の擬人化キャラクタ画像I1等を表示してもよい。 Further, instead of the second display panel 40, for example, a head-up display that projects information onto the windshield may be used to display a normal anthropomorphic character image I1 or the like on the windshield.

また、通常の擬人化キャラクタ画像I1等は表示せずに、スピーカ150と、マイク160とを用いて、音のみで対話を行うようにしてもよい。 Alternatively, the speaker 150 and the microphone 160 may be used to perform a dialogue using only sound without displaying the normal anthropomorphic character image I1 or the like.

また、危険因子の内容や危険度合いによって警告報知を行う特定の擬人化キャラクタが変化するものではなく、単一のキャラクタとしたが、これに限られず、危険因子の内容や危険度合いによって警告報知を行う特定の擬人化キャラクタを変化させてもよい。 In addition, although the specific personified character that issues the warning does not change depending on the content of the risk factor and the degree of danger, and a single character is used, this is not the only option. The particular anthropomorphic character performed may vary.

また、危険度合いによってサポート報知を行うキャラクタを異ならせるとしたが、警告報知を行った特定の擬人化キャラクタにそのままサポート報知を行わせてもよいし、サポート報知を行わせなくてもよい。 In addition, although the character to which the support notification is given is differentiated according to the degree of danger, the specific personified character that gave the warning notification may directly give the support notification, or the support notification may not be performed.

また、特定の擬人化キャラクタ画像I3から発せられるセリフの出力音量は、通常の擬人化キャラクタ画像I1から発せられるセリフの出力音量と同じ出力値であってもよいし、通常の擬人化キャラクタ画像I1から発せられるセリフの出力音量より大きくしてもよい。特に、通常の擬人化キャラクタ画像I1から発せられるセリフの出力音量より大きくする場合は、警告報知に気づきやすくすることができる。 Further, the output volume of the dialogue emitted from the specific anthropomorphic character image I3 may be the same output value as the output volume of the dialogue emitted from the normal anthropomorphic character image I1. It may be louder than the output volume of the dialogue emitted from. In particular, when the output volume of the words emitted from the normal anthropomorphic character image I1 is increased, it is possible to easily notice the warning notification.

また、操作ボタン60による音量値の調整は、通常の擬人化キャラクタ画像I1から発せられるセリフのみ反映されるようにしてもよい。例えば、通常の擬人化キャラクタ画像I1から発せられるセリフは、「0~9」の範囲の音量値で調整可能であるが、特定の擬人化キャラクタ画像I3から発せられるセリフは、調整不能であって、常に「10」の音量値で出力されてもよい。このように構成しても、警告報知に気づきやすくすることができる。 Further, the adjustment of the volume value by the operation button 60 may reflect only the lines emitted from the normal anthropomorphic character image I1. For example, the dialogue emitted from the normal anthropomorphic character image I1 can be adjusted with a volume value in the range of "0 to 9", but the dialogue emitted from the specific anthropomorphic character image I3 cannot be adjusted. , may always be output with a volume value of "10". Even with this configuration, it is possible to make it easier to notice the warning information.

また、第2表示用パネル40に表示される通常の擬人化キャラクタ画像I1の大きさと、特定の擬人化キャラクタ画像I3の大きさは、略同一であってもよいし、特定の擬人化キャラクタ画像I3の方が大きく表示されてもよい。このように構成しても、警告報知に気づきやすくすることができる。 Further, the size of the normal personified character image I1 displayed on the second display panel 40 and the size of the specific personified character image I3 may be substantially the same, or the size of the specific personified character image I3 may be the same. I3 may be displayed larger. Even with this configuration, it is possible to make it easier to notice the warning notification.

また、危険因子が発生して警告報知を行うときにBGMが出力されている場合は、BGMを停止して、警告報知を行うようにしてもよい。このように構成しても、警告報知に気づきやすくすることができる。 Also, if BGM is being output when a risk factor occurs and a warning is issued, the BGM may be stopped and the warning may be issued. Even with this configuration, it is possible to make it easier to notice the warning information.

また、特定の擬人化キャラクタをセット中である場合、自律型対話制御処理や応答制御処理が行われないように構成したが、自律型対話制御処理のみが行われないように構成してもよいし、応答制御処理のみ行われないように構成してもよい。さらには、自律型対話制御処理と応答制御処理との両方が行われ、特定の擬人化キャラクタとも双方向でのコミュニケーションを可能としてよい。 Also, when a specific anthropomorphic character is being set, the autonomous dialogue control processing and the response control processing are configured not to be performed, but it may be configured such that only the autonomous dialogue control processing is not performed. However, the configuration may be such that only the response control process is not performed. Furthermore, both an autonomous dialogue control process and a response control process may be performed to enable two-way communication with a specific anthropomorphic character.

また、周辺環境認識部120、乗員状態認識部130、車両状態認識部140を設けて、いずれもの認識部から情報を取得し、認識するようにしたが、いずれか1の認識部のみを設けても本発明を実現できるし、いずれか2の認識部を設けても本発明を実現できる。 Also, the surrounding environment recognition unit 120, the passenger state recognition unit 130, and the vehicle state recognition unit 140 are provided, and information is acquired and recognized from all of them. The present invention can also be realized by providing any two recognition units.

例えば、周辺環境認識部120のみを設ける場合は、車外撮影用カメラ120aや、レーダ120bを用いて、車両1の半径100m圏内に緊急車両を認識したら、所定の閾値を超えたと判定して、特定の擬人化キャラクタ画像I3に緊急車両の存在を示す警告報知を行わせればよい。 For example, when only the surrounding environment recognition unit 120 is provided, when an emergency vehicle is recognized within a radius of 100 m of the vehicle 1 using the camera 120a for photographing outside the vehicle or the radar 120b, it is determined that the vehicle exceeds a predetermined threshold value, and the vehicle is identified. The personified character image I3 may be made to issue a warning indicating the presence of an emergency vehicle.

また、例えば、乗員状態認識部130のみを設ける場合は、乗員撮影用カメラ130aを用いて、乗員の瞬きの回数等を測定し、さらに測定した値が所定の閾値を超えたかどうかを判定し、超えた場合には、特定の擬人化キャラクタ画像I3に眠気を防ぐ警告報知を行わせればよい。 Further, for example, when only the occupant state recognition unit 130 is provided, the occupant photographing camera 130a is used to measure the number of times the occupant blinks, etc., and it is determined whether the measured value exceeds a predetermined threshold value. If it exceeds, the specific personified character image I3 may be made to issue a warning to prevent drowsiness.

また、例えば、車両状態認識部140のみを設ける場合は、車速センサ140aや、ブレーキペダルセンサ140dを用いて、図示しないサイドブレーキのセンサがON(サイドブレーキがかかっている状態)であるにも関わらず、車速センサ140aが車速を検出したら、所定の閾値を超えたと判定して、特定の擬人化キャラクタ画像I3にサイドブレーキがかかっている状態であることを示す警告報知を行わせればよい。 Further, for example, in the case where only the vehicle state recognition unit 140 is provided, the vehicle speed sensor 140a and the brake pedal sensor 140d are used to determine whether the side brake sensor (not shown) is ON (the side brake is applied). First, when the vehicle speed sensor 140a detects the vehicle speed, it is determined that the vehicle speed has exceeded a predetermined threshold value, and a warning notification indicating that the handbrake is being applied to the specific personified character image I3 is performed.

(対応関係について)
本実施形態において、制御部110は、本発明の、キャラクタを制御するエージェント制御手段を構成する。
(Regarding correspondence)
In this embodiment, the control unit 110 constitutes agent control means for controlling a character of the present invention.

また、本実施形態において、周辺環境認識部120、乗員状態認識部130、車両状態認識部140は、本発明の、車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段を構成する。 Further, in the present embodiment, the surrounding environment recognition unit 120, the occupant state recognition unit 130, and the vehicle state recognition unit 140 recognize at least one of the driving conditions of the vehicle or the conditions of the surrounding environment, or the condition of the occupant's body or thoughts. A status acquisition means for acquiring the status is configured.

また、本実施形態において、制御部110は、本発明の、状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段を構成する。 Further, in the present embodiment, the control unit 110 constitutes identification means for identifying whether the situation acquired by the situation acquisition means corresponds to a specific situation.

また、本実施形態において、通常の擬人化キャラクタ画像I1は、本発明の、視覚または聴覚的に擬人化された通常の擬人化キャラクタを構成する。 In addition, in this embodiment, the ordinary anthropomorphic character image I1 constitutes an ordinary anthropomorphic character visually or aurally anthropomorphized according to the present invention.

また、本実施形態において、特定の擬人化キャラクタ画像I3は、本発明の、特定の擬人化キャラクタを構成する。 Also, in this embodiment, the specific personified character image I3 constitutes the specific personified character of the present invention.

また、本実施形態において、警告報知画像I4および対応する音声は、本発明の、特定の状況に係る警告報知を構成する。 Also, in this embodiment, the alert annunciation image I4 and the corresponding sound constitute the particular situational alert annunciation of the present invention.

また、本実施形態において、乗員の会話入力があった場合に対応する会話内容の応答制御処理を行う制御部110は、本発明の、キャラクタと乗員との双方向のコミュニケーションの制御手段としての他律型会話制御手段を構成する。 In addition, in this embodiment, the control unit 110 that performs response control processing of the content of the conversation corresponding to the input of conversation by the passenger is used as control means for two-way communication between the character and the passenger of the present invention. It constitutes a rule-type conversation control means.

また、本実施形態において、乗員からの会話入力の有無に関わらず、自律的対話制御処理を行う制御部110は、本発明の、キャラクタと乗員との双方向のコミュニケーションの制御手段としての自律型会話制御手段を構成する。 Further, in the present embodiment, the control unit 110, which performs autonomous dialogue control processing regardless of the presence or absence of conversational input from the passenger, is an autonomous type control unit as control means for two-way communication between the character and the passenger of the present invention. Configure conversation control means.

また、本実施形態において、ドライバーHの運転傾向や、ドライバーHの趣味嗜好は、本発明の、所定の乗員情報を構成する。 Further, in the present embodiment, the driving tendency of the driver H and the hobbies and preferences of the driver H constitute the predetermined occupant information of the present invention.

また、本実施形態において、サポート報知画像I5および対応する音声と、サポート報知画像I6および対応する音声は、本発明の、特定の状況に係る警告報知のサポート報知を構成する。 Also, in this embodiment, the support notification image I5 and corresponding sound and the support notification image I6 and corresponding sound constitute the support notification of the warning notification for the specific situation of the present invention.

1:車両、40:第2表示用パネル、110:制御部、120:周辺環境認識部、130:乗員状態認識部、140:車両状態認識部、150:スピーカ、160:マイク 1: vehicle, 40: second display panel, 110: control unit, 120: surrounding environment recognition unit, 130: occupant state recognition unit, 140: vehicle state recognition unit, 150: speaker, 160: microphone

Claims (4)

キャラクタと乗員との双方向のコミュニケーションが可能な車両用エージェント装置であって、
前記キャラクタを制御するエージェント制御手段と、
車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、
前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、
前記エージェント制御手段は、
視覚または聴覚的に擬人化された通常の擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、
前記通常の擬人化キャラクタを制御しているときに前記識別手段により前記特定の状況に相当すると識別された場合、特定の擬人化キャラクタを制御し、
前記特定の擬人化キャラクタに前記特定の状況に係る警告報知を行わせた後、前記コミュニケーションが可能な前記通常の擬人化キャラクタを制御し、前記特定の状況に係る警告報知のサポート報知を行わせる、
ことを特徴とする両用エージェント装置。
A vehicle agent device capable of two-way communication between a character and an occupant,
agent control means for controlling the character;
a situation acquisition means for acquiring at least one of the situation of the driving of the vehicle or the situation of the surrounding environment, or the situation of the body or mind of the occupant;
identification means for identifying whether the situation acquired by the situation acquisition means corresponds to a specific situation;
The agent control means is
Controls two-way communication between an ordinary anthropomorphic character that is visually or audibly anthropomorphized and a passenger,
controlling a specific personified character when the identification means identifies that the specific situation corresponds to the situation while controlling the normal personified character;
After causing the specific personified character to issue a warning regarding the specific situation, the normal personified character capable of communication is controlled to support the warning about the specific situation. ,
A vehicle agent device characterized by:
キャラクタと乗員との双方向のコミュニケーションが可能な車両用エージェント装置であって、
前記キャラクタを制御するエージェント制御手段と、
車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、
前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、
前記エージェント制御手段は、
視覚または聴覚的に擬人化された通常の擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、
前記通常の擬人化キャラクタを制御しているときに前記識別手段により前記特定の状況に相当すると識別された場合、特定の擬人化キャラクタを制御し、
前記特定の状況が第1のレベルにあると、前記通常の擬人化キャラクタに前記特定の状況に係るサポート報知を行わせ、
前記特定の状況が前記第1のレベルよりも危険度の高い第2のレベルにあると、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知と当該特定の状況に係る警告報知のサポート報知とを行わせる、
ことを特徴とする両用エージェント装置。
A vehicle agent device capable of two-way communication between a character and an occupant,
agent control means for controlling the character;
a situation acquisition means for acquiring at least one of the situation of the driving of the vehicle or the situation of the surrounding environment, or the situation of the body or mind of the occupant;
identification means for identifying whether the situation acquired by the situation acquisition means corresponds to a specific situation;
The agent control means is
Controls two-way communication between an ordinary anthropomorphic character that is visually or audibly anthropomorphized and a passenger,
controlling a specific personified character when the identification means identifies that the specific situation corresponds to the situation while controlling the normal personified character;
causing the normal anthropomorphic character to make a support notification regarding the specific situation when the specific situation is at the first level;
When the specific situation is at a second level with a higher degree of danger than the first level, the specific personified character is notified of the warning regarding the specific situation and the warning about the specific situation is supported. to inform and
A vehicle agent device characterized by:
前記エージェント制御手段は、
前記特定の擬人化キャラクタにより前記特定の状況に係る警告報知を行わせているときには、キャラクタからのコミュニケーションを不能とする、
ことを特徴とする請求項1または2に記載の車両用エージェント装置。
The agent control means is
Disabling communication from the character when the specific personified character is performing a warning notification regarding the specific situation;
3. The vehicle agent device according to claim 1 or 2 , characterized in that:
前記エージェント制御手段は、
キャラクタと乗員との双方向のコミュニケーションの制御手段として、
乗員からの会話の入力があった場合に、入力した会話の内容を乗員に返答する他律型会話制御手段と、
乗員からの会話の入力の有無にかかわらず、所定の乗員情報に基づいて、乗員に会話をする自律型会話制御手段と、を有し、
前記特定の擬人化キャラクタを制御しているときは、前記自律型会話制御手段による会話または前記他律型会話制御手段による返答を規制する、
ことを特徴とする請求項1または2に記載の車両用エージェント装置。
The agent control means is
As a means of controlling two-way communication between characters and passengers,
heteronomous conversation control means for responding to the passenger with the content of the input conversation when there is an input of conversation from the passenger;
autonomous conversation control means for conversing with the occupant based on predetermined occupant information, regardless of whether the occupant has input a conversation;
When controlling the specific anthropomorphic character, restricting the conversation by the autonomous conversation control means or the reply by the heteronomous conversation control means;
3. The vehicle agent device according to claim 1 or 2 , characterized in that:
JP2018185749A 2018-09-28 2018-09-28 Vehicle agent device Active JP7181744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018185749A JP7181744B2 (en) 2018-09-28 2018-09-28 Vehicle agent device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018185749A JP7181744B2 (en) 2018-09-28 2018-09-28 Vehicle agent device

Publications (2)

Publication Number Publication Date
JP2020057080A JP2020057080A (en) 2020-04-09
JP7181744B2 true JP7181744B2 (en) 2022-12-01

Family

ID=70107246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018185749A Active JP7181744B2 (en) 2018-09-28 2018-09-28 Vehicle agent device

Country Status (1)

Country Link
JP (1) JP7181744B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022119496A (en) 2021-02-04 2022-08-17 本田技研工業株式会社 Seat belt device for vehicle
JP2022175359A (en) * 2021-05-13 2022-11-25 株式会社デンソー Vehicle information providing device, information providing method, and information providing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003157489A (en) 2002-06-03 2003-05-30 Equos Research Co Ltd Operation control device
JP2005258820A (en) 2004-03-11 2005-09-22 Toyota Motor Corp Emotion guidance device and emotion guidance method
JP2012242187A (en) 2011-05-17 2012-12-10 Yupiteru Corp System and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3873386B2 (en) * 1997-07-22 2007-01-24 株式会社エクォス・リサーチ Agent device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003157489A (en) 2002-06-03 2003-05-30 Equos Research Co Ltd Operation control device
JP2005258820A (en) 2004-03-11 2005-09-22 Toyota Motor Corp Emotion guidance device and emotion guidance method
JP2012242187A (en) 2011-05-17 2012-12-10 Yupiteru Corp System and program

Also Published As

Publication number Publication date
JP2020057080A (en) 2020-04-09

Similar Documents

Publication Publication Date Title
CN108205731B (en) Situation assessment vehicle system
US10317900B2 (en) Controlling autonomous-vehicle functions and output based on occupant position and attention
US9539944B2 (en) Systems and methods of improving driver experience
US9734699B2 (en) System for providing alerts to vehicle occupants
JP4380541B2 (en) Vehicle agent device
US11059421B2 (en) Vehicle proximity system using heads-up display augmented reality graphics elements
WO2014083738A1 (en) Text-reading device and text-reading method
US20160214531A1 (en) Method and system for a warning message in a vehicle
US20150310287A1 (en) Gaze detection and workload estimation for customized content display
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
JP2017124735A (en) Driving support device
JP7181744B2 (en) Vehicle agent device
JP7358040B2 (en) Vehicle notification device
JP7181743B2 (en) Vehicle agent device
JP6631545B2 (en) Dependency estimator
JP2020020987A (en) In-car system
JP6428376B2 (en) Information display device
JP7095337B2 (en) Display control device and display control method
WO2022239642A1 (en) Information providing device for vehicle, information providing method for vehicle, and information providing program for vehicle
US12054049B2 (en) Agent apparatus
JP2023019248A (en) Agent device
JP2023019245A (en) Agent device
JP2000155894A (en) Driving environment adaptive communication controller
JP2005308645A (en) Navigation system and its control method
KR102419727B1 (en) Vehicle and method for controlling thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221118

R150 Certificate of patent or registration of utility model

Ref document number: 7181744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150