JP2023085752A - Information provision support method, information provision support device, information provision support program and information provision system - Google Patents

Information provision support method, information provision support device, information provision support program and information provision system Download PDF

Info

Publication number
JP2023085752A
JP2023085752A JP2021199961A JP2021199961A JP2023085752A JP 2023085752 A JP2023085752 A JP 2023085752A JP 2021199961 A JP2021199961 A JP 2021199961A JP 2021199961 A JP2021199961 A JP 2021199961A JP 2023085752 A JP2023085752 A JP 2023085752A
Authority
JP
Japan
Prior art keywords
information
action
driver
information provision
provision support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021199961A
Other languages
Japanese (ja)
Inventor
沙織 小野
Saori Ono
敦 高松
Atsushi Takamatsu
拓良 柳
Hiroyoshi Yanagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2021199961A priority Critical patent/JP2023085752A/en
Publication of JP2023085752A publication Critical patent/JP2023085752A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information provision support method, information provision support device, information provision support program and information provision support system which can induce a prescribed operation that should be performed by a driver in order to obtain information provided from a vehicle or on the basis of the information provided from the vehicle.SOLUTION: An information provision support method provides information to a driver 10 by using an information provision support device 101 that supports information provision from a vehicle 100 to the driver 10. In the information provision support method, information to be provided to the driver 10 is acquired from the vehicle 100, the operation of the driver 10 is recognized, and a response operation that has been executed by the information provision support device 101 according to a prescribed operation when the driver 10 performs the prescribed operation in order to obtain the information or on the basis of the information is executed by the information provision support device 101 before the driver 10 performs the prescribed operation after the information is acquired.SELECTED DRAWING: Figure 2

Description

本発明は、運転者に対する車両からの情報提供を支援する情報提供支援方法、情報提供支援装置、情報提供支援プログラム、及び、情報提供システムに関する。 The present invention relates to an information provision support method, an information provision support device, an information provision support program, and an information provision system for supporting information provision from a vehicle to a driver.

特許文献1には、遊戯者の動作を認識し、遊戯者の動作を反映した動作をする玩具が記載されている。 Patent Literature 1 describes a toy that recognizes a player's motion and performs a motion that reflects the player's motion.

特開2003-080484号公報JP 2003-080484 A

近年の車両は、車内外の状況に応じて運転者に様々な情報を提供することにより、快適な体験が得られるように運転者を支援する。運転者に対して車両が提供する情報の内容は多岐にわたっており、中には、例えば安全確保等のために、その情報を知得するために、あるいは、その情報に基づいて、運転者が所定動作を行うことが望ましい場合がある。この場合、車両は、行うべき所定動作を運転者が直感的にあるいはごく自然に認識できる態様で情報を提供することにより、運転者の所定動作を誘発させることが望ましい。 Vehicles in recent years assist the driver in providing a comfortable experience by providing various information to the driver according to the conditions inside and outside the vehicle. The content of the information provided by the vehicle to the driver is diverse, and some of them are for the purpose of ensuring safety, for example, in order to obtain the information, or for the driver to perform a predetermined action based on the information. It may be desirable to In this case, it is desirable for the vehicle to induce the predetermined action of the driver by providing information in such a manner that the driver can intuitively or naturally recognize the predetermined action to be performed.

一方、車両あるいは車両が搭載する機器が運転者の動作を認識し、運転者の動作に応じた柔軟な動作をすることが可能であるとしても、特許文献1に記載の玩具のように、受動的な動作をするだけでは、運転者が行うべき所定動作を誘発することはできない。 On the other hand, even if the vehicle or the device mounted on the vehicle can recognize the motion of the driver and can perform flexible motions according to the motion of the driver, the toy described in Patent Literature 1 does not have a passive function. It is not possible to induce the predetermined action that the driver should perform only by performing a sensible action.

本発明は、車両から提供される情報を知得するために、または、車両から提供された情報に基づいて、運転者が行うべき所定動作を誘発することができる情報提供支援方法、情報提供支援装置、情報提供支援プログラム、及び、情報提供システムを提供することを目的とする。 The present invention provides an information provision support method and information provision support device capable of inducing a predetermined action to be performed by a driver in order to obtain information provided by a vehicle or based on information provided by the vehicle. , an information provision support program, and an information provision system.

本発明のある態様は、運転者に対する車両からの情報提供を支援する情報提供支援装置を用いて運転者に情報提供をする情報提供支援方法である。この情報提供支援方法では、運転者に提供すべき情報を車両から取得する。また、運転者の動作が認識される。そして、情報を知得するために、または、情報に基づいて、運転者が行うべき所定動作を行ったときに、その所定動作に応じて情報提供支援装置が実行したことがある応答動作が、情報の取得後、運転者が所定動作を行う前に、情報提供支援装置によって実行される。 One aspect of the present invention is an information provision support method for providing information to a driver using an information provision support device that supports information provision from a vehicle to the driver. In this information provision support method, information to be provided to the driver is acquired from the vehicle. Also, the motion of the driver is recognized. Then, when the driver performs a predetermined action that should be performed in order to obtain the information or based on the information, the response action that the information provision support device has performed in response to the predetermined action is the information is obtained, and before the driver performs a predetermined action, the information provision support device executes.

本発明によれば、運転者が行うべき所定動作を誘発することができる情報提供支援方法、情報提供支援装置、情報提供支援プログラム、及び、情報提供システムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the information provision assistance method, information provision assistance apparatus, information provision assistance program, and information provision system which can induce a predetermined operation|movement which a driver|operator should perform can be provided.

図1は、車両及び情報提供支援装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a vehicle and an information provision support device. 図2は、エージェントコントローラの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the agent controller. 図3は、エージェントの応答動作を運転者に認知させるユーザ学習のフローチャートである。FIG. 3 is a flow chart of user learning for allowing the driver to recognize the response action of the agent. 図4は、ユーザ学習の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of user learning. 図5は、ユーザ学習の別の例を示す説明図である。FIG. 5 is an explanatory diagram showing another example of user learning. 図6は、行動誘発のフローチャートである。FIG. 6 is a flow chart of action induction. 図7は、行動誘発動作と、行動誘発成功後の動作例を示す説明図である。FIG. 7 is an explanatory diagram showing an action inducing action and an example of action after the action inducing is successful. 図8は、行動誘発失敗後の動作例を示す説明図である。FIG. 8 is an explanatory diagram showing an operation example after failure of action induction. 図9は、行動誘発失敗後における別の動作例を示す説明図である。FIG. 9 is an explanatory diagram showing another operation example after failure of behavior induction. 図10は、別の行動誘発動作とその作用を示す説明図である。FIG. 10 is an explanatory diagram showing another action inducing action and its action.

以下、図面を参照しながら本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
図1は、車両100及び情報提供支援装置101の概略構成を示すブロック図である。車両100は、前方を走行する他の車両を自動的に追従する等、本来、運転者10が行うべき運転操作を支援することができる。また、車両100は、情報提供支援装置101を用いて、運転者10に対して情報を提供することにより、運転を支援する。
[First embodiment]
FIG. 1 is a block diagram showing a schematic configuration of a vehicle 100 and an information provision support device 101. As shown in FIG. The vehicle 100 can assist the driver 10 in driving operations that should be performed by the driver 10, such as automatically following other vehicles traveling ahead. In addition, the vehicle 100 supports driving by providing information to the driver 10 using the information provision support device 101 .

図1に示すように、車両100は、運転操作部11、カーナビゲーションシステム12、エージェント13、エージェントコントローラ14、車両コントローラ15、及び、センサ16等を備える。 As shown in FIG. 1, the vehicle 100 includes a driving operation unit 11, a car navigation system 12, an agent 13, an agent controller 14, a vehicle controller 15, sensors 16, and the like.

運転操作部11は、車両100の運転操作のために運転者10が操作する操作部である。運転操作部11は、例えば、ステアリングホイール42(図5等参照)、アクセルペダル、及び、ブレーキペダル等である。 The driving operation unit 11 is an operation unit operated by the driver 10 to operate the vehicle 100 . The driving operation unit 11 is, for example, a steering wheel 42 (see FIG. 5, etc.), an accelerator pedal, a brake pedal, and the like.

カーナビゲーションシステム12は、運転者10に対して、目的地までの経路等を案内する案内装置である。カーナビゲーションシステム12は、固有のディスプレイ及び操作キーを備える。運転者10は、カーナビゲーションシステム12の操作キーを用いて、目的地の設定等、経路案内等に必要な操作を行う。また、運転者10は、カーナビゲーションシステム12のディスプレイ、及び/または、カーナビゲーションシステム12または車両100が搭載するスピーカから出力される音もしくは音声によって、経路案内等を内容とする情報の提供を受けることができる。 The car navigation system 12 is a guidance device that guides the driver 10 on a route to a destination and the like. The car navigation system 12 has its own display and operation keys. The driver 10 uses the operation keys of the car navigation system 12 to perform operations necessary for route guidance, such as setting a destination. In addition, the driver 10 receives information including route guidance and the like through the display of the car navigation system 12 and/or the sound or voice output from the speaker mounted in the car navigation system 12 or the vehicle 100. be able to.

エージェント13は、車両100から運転者10への情報提供を支援するユーザインタフェースである。すなわち、エージェント13は、車両100が運転者10に提供すべき情報を、車両100とともに、または車両100に代わって、運転者10に提供する情報提供用アシスタントである。 The agent 13 is a user interface that assists in providing information from the vehicle 100 to the driver 10 . In other words, the agent 13 is an information providing assistant that provides the driver 10 with information that the vehicle 100 should provide to the driver 10 together with the vehicle 100 or on behalf of the vehicle 100 .

エージェント13は、例えば、人、動物、植物、物、またはその他のシンボル等、マスコット(マスコットキャラクタあるいは単にキャラクタとも称される)の形態で、実体的または仮想的に表される。したがって、エージェント13は擬人的であり、感情、及び、感情の変化である情動を、その“表情”等によって表現することができる。また、エージェント13は、色、音もしくは音声、または、ジェスチャ等の動作によって、感情及び情動を表現することができる。すなわち、エージェント13は、表情、色、音もしくは音声、または、動作によって、その疑似的な感情及び情動を表現する。 The agent 13 is physically or virtually represented in the form of a mascot (also called a mascot character or simply a character), such as a person, animal, plant, object, or other symbol. Therefore, the agent 13 is anthropomorphic and can express emotions and emotions, which are changes in emotions, by means of its "facial expression" and the like. In addition, the agent 13 can express feelings and emotions by actions such as colors, sounds or voices, or gestures. That is, the agent 13 expresses its pseudo-feelings and emotions with facial expressions, colors, sounds or voices, or actions.

エージェント13は、上記の感情及び情動を表現する表情等によって、例えば、応答動作または行動誘発動作を行う。応答動作は、運転者10の動作に応じて行う動作である。本実施形態における「行動誘発」とは、間接的な表現形態あるいは直感に訴える表現形態で運転者10が行うべき動作(行動)を教示することにより、運転者10が行うべき動作を誘発することをいう。例えば、エージェント13は、行動誘発動作によって、運転者10が行うべき動作を示唆し、暗示し、または、黙示する。すなわち、エージェント13が実行する行動誘発動作は、運転者10の動作を誘発するために行う動作であり、運転者10が行うべき動作の前に実行される。特に、本実施形態においては、運転者10の動作に応じて実行したことがある「応答動作」を、運転者10が行うべき動作の前に実行することにより、エージェント13は運転者10の動作を誘発する。すなわち、応答動作と行動誘発動作は同じ形態の動作であるが、実行されるタイミングが異なる。応答動作は、関連付けられた運転者10の動作の後に実行され、行動誘発動作は、関連付けられた運転者10の動作の前に実行される。 The agent 13 performs, for example, a response action or an action-inducing action by means of facial expressions or the like that express emotions and emotions. A response action is an action performed in response to an action of the driver 10 . In the present embodiment, "induction of action" means to induce the action that the driver 10 should perform by teaching the action (behavior) that the driver 10 should perform in an indirect expression form or an expression form that appeals to intuition. Say. For example, the agent 13 suggests, suggests, or implies the action that the driver 10 should take by using the behavior-inducing action. That is, the behavior-inducing action executed by the agent 13 is an action performed to induce an action of the driver 10, and is executed before the action that the driver 10 should perform. In particular, in this embodiment, the agent 13 executes the "response action" that has been executed in response to the action of the driver 10 before the action that the driver 10 should perform, so that the agent 13 provoke In other words, the response action and the behavior-inducing action are actions of the same form, but are executed at different timings. Responsive actions are performed after the associated driver 10 actions, and behavior inducing actions are performed before the associated driver 10 actions.

本実施形態においては、エージェント13は、実体的な形態を有するロボットによって構成され、例えば運転席の近傍等、運転状態における運転者の視界内に配置される。但し、車両100がヘッドアップディスプレイを採用しているときには、エージェント13は、ヘッドアップディスプレイの表示によって仮想的に構成されることができる。また、スマートフォン等、運転者10が所持するデバイスが車両100と連携するときには、エージェント13は、スマートフォン等のデバイスによって仮想的に表示等され得る。 In this embodiment, the agent 13 is composed of a robot having a substantial form, and is placed within the driver's field of vision during driving, such as near the driver's seat. However, when the vehicle 100 employs a head-up display, the agent 13 can be virtually configured by the display of the head-up display. Further, when a device such as a smartphone possessed by the driver 10 cooperates with the vehicle 100, the agent 13 can be virtually displayed by the device such as the smartphone.

エージェントコントローラ14は、エージェント13の動作等を制御する制御ユニットである。より具体的には、エージェントコントローラ14は、車両100が運転者10に提供する情報や運転者10の動作等に応じたエージェント13の表情、色、音もしくは音声、または、動作がプログラムされたコンピュータである。エージェント13とエージェントコントローラ14は、運転者10に対する車両100からの情報提供を支援する情報提供支援装置101を構成する。また、情報提供支援装置101は、車両100の全体または車両100のうち情報提供に関連する構成部分とともに、情報提供システム102を構成する。エージェントコントローラ14の具体的構成については、詳細を後述する。 The agent controller 14 is a control unit that controls operations of the agent 13 and the like. More specifically, the agent controller 14 is a computer programmed with the expression, color, sound or voice of the agent 13 according to the information provided by the vehicle 100 to the driver 10, the action of the driver 10, or the action. is. The agent 13 and the agent controller 14 constitute an information provision support device 101 that supports the provision of information from the vehicle 100 to the driver 10 . Further, the information provision support device 101 constitutes an information provision system 102 together with the vehicle 100 as a whole or components of the vehicle 100 related to information provision. A specific configuration of the agent controller 14 will be described in detail later.

なお、本実施形態においては、エージェントコントローラ14は、車両コントローラ15とは別個に構成されているが、エージェントコントローラ14を構成する各部のうち、一部または全部は車両コントローラ15と一体に構成され得る。また、本実施形態においては、エージェント13が、車両100が搭載する機器の1つとして形成されているので、これを制御するエージェントコントローラ14も車両100に設けられている。しかし、スマートフォン等、車両100から独立した連携デバイスがエージェント13であるときには、そのデバイスがエージェントコントローラ14を構成することができる。 In this embodiment, the agent controller 14 is configured separately from the vehicle controller 15 , but some or all of the components that make up the agent controller 14 can be configured integrally with the vehicle controller 15 . . Further, in this embodiment, the agent 13 is formed as one of the devices mounted on the vehicle 100 , so the agent controller 14 for controlling this is also provided in the vehicle 100 . However, when the agent 13 is a cooperative device independent of the vehicle 100 , such as a smart phone, the device can constitute the agent controller 14 .

車両コントローラ15は、車両100の動作を統括的に制御する制御部である。車両コントローラ15は、運転操作部11からの入力に基づいて、車両100を駆動する電動モータ及び/またはエンジン、並びに、ブレーキ等を制御する。車両コントローラ15は、例えば、車両100を構成する各部の動作がプログラムされた1または複数のコンピュータによって構成される。車両コントローラ15は、車両100の制御のために、センサ16が出力する信号等を参照する場合がある。車両コントローラ15は、車両100に対する操作、及び、車両100に搭載された各種機器に対する操作(以下、機器操作情報33という。図2参照)を取得する。この他、車両コントローラ15は、センサ16から取得する信号等を用いた演算等により、車両100から運転者10に提供すべき情報を得る。 The vehicle controller 15 is a control unit that controls the operation of the vehicle 100 in an integrated manner. The vehicle controller 15 controls an electric motor and/or an engine that drives the vehicle 100, a brake, and the like, based on an input from the driving operation unit 11. FIG. The vehicle controller 15 is configured by, for example, one or a plurality of computers in which the operation of each unit that configures the vehicle 100 is programmed. In order to control the vehicle 100, the vehicle controller 15 may refer to the signal output by the sensor 16 and the like. The vehicle controller 15 acquires operations on the vehicle 100 and operations on various devices mounted on the vehicle 100 (hereinafter referred to as device operation information 33; see FIG. 2). In addition, the vehicle controller 15 obtains information to be provided to the driver 10 from the vehicle 100 by calculation using signals obtained from the sensor 16 and the like.

車両100が運転者10に対して提供する情報は、交通標識や通行人等の注目すべき対象に対する注意喚起を内容とする情報、経路案内を内容とする情報、車両100または車両100が搭載する機器の操作を要求する情報等、様々である。いずれにしても、車両100が運転者10に対して提供する情報は、車内及び/または車外のシチュエーションに応じて提供される。したがって、車両100が運転者10に対して提供する情報を、シチュエーション情報32(図2参照)という。 The information provided by the vehicle 100 to the driver 10 includes information that calls attention to objects to be noticed such as traffic signs and passers-by, information that provides route guidance, information that the vehicle 100 or the vehicle 100 carries. There are various types of information, such as information requesting operation of equipment. In any case, the information provided by the vehicle 100 to the driver 10 is provided according to situations inside and/or outside the vehicle. Therefore, information provided by the vehicle 100 to the driver 10 is called situation information 32 (see FIG. 2).

本実施形態においては、車両100が運転者10に対して提供するシチュエーション情報32は、運転者10の動作が必要な情報と、それ以外(すなわち運転者10の動作が不要である情報)と、の2種類に分類される。様々なシチュエーション情報32が、運転者10の動作が必要な情報であるか否かは、その種類及び性質等に応じて予め定められる。 In the present embodiment, the situation information 32 provided by the vehicle 100 to the driver 10 includes information that requires the action of the driver 10 and other information (that is, information that does not require the action of the driver 10). are classified into two types. Whether or not the various situation information 32 is information that requires an action by the driver 10 is determined in advance according to the type, nature, and the like.

車両100が提供する情報を知得するために、または、車両100が提供した情報に基づいて、運転者10が行うべき所定の動作がある場合、その情報は、運転者10の動作が必要な情報である。また、車両100が提供する情報を知得するために、または、車両100が提供した情報に基づいて行うべき運転者10の動作を、以下では、単に所定動作という。運転者10が行うべき所定動作には、運転者10が手足等を動かすことの他、単に運転者10が視線を移動させることが含まれる。 If there is a predetermined action that the driver 10 should perform in order to know the information provided by the vehicle 100 or based on the information provided by the vehicle 100, the information is information that requires the action of the driver 10. is. Further, an action of the driver 10 that should be performed in order to know the information provided by the vehicle 100 or based on the information provided by the vehicle 100 is hereinafter simply referred to as a predetermined action. The predetermined actions to be performed by the driver 10 include movement of the limbs of the driver 10 and simply movement of the line of sight of the driver 10 .

運転者10の動作が必要な情報としては、例えば、車外または車内の注目すべき対象(以下、単に注目対象41という。図4等参照)に対する注意喚起、ステアリングホイール42を把持すべき旨の指示または要求、及び、カーナビゲーションシステム12等、車両100が搭載する各種機器の操作すべき旨の示唆、等である。そして、注目対象41への視線移動、ステアリングホイール42の把持、及び、各種機器の操作等が、それぞれ運転者10が行うべき所定動作である。 The information that requires the action of the driver 10 includes, for example, a call for attention to an object of interest outside or inside the vehicle (hereinafter simply referred to as an object of interest 41; see FIG. 4, etc.) and an instruction to grasp the steering wheel 42. Alternatively, it is a request and a suggestion that various devices mounted on the vehicle 100 such as the car navigation system 12 should be operated. Movement of the line of sight to the object of interest 41, gripping the steering wheel 42, operating various devices, and the like are predetermined actions that the driver 10 should perform.

センサ16は、車両100を構成する各部の状況や車両100の内部または外部の状況を計測等する1または複数のセンサである。センサ16は、例えば、加速度センサ、車内を撮影するための車内カメラ17、車外を撮影するカメラ、車内または車外の音を収集するマイクロフォン、GNN(Global Navigation Satellite System)センサ、及び、LiDAR(Light Detection and Ranging)センサ等である。本実施形態においては、センサ16は少なくとも車内カメラ17を含むものとする。 The sensor 16 is one or a plurality of sensors that measure the condition of each part constituting the vehicle 100 and the condition inside or outside the vehicle 100 . The sensor 16 includes, for example, an acceleration sensor, an in-vehicle camera 17 for photographing the interior of the vehicle, a camera for photographing the exterior of the vehicle, a microphone for collecting sounds inside or outside the vehicle, a GNN (Global Navigation Satellite System) sensor, and a LiDAR (Light Detection and Ranging) sensor. In this embodiment, the sensor 16 includes at least the in-vehicle camera 17 .

車内カメラ17は、車両100の車内、特に、運転者10を含む範囲を継続的または断続的に撮影する。車内カメラ17で撮影した画像または映像(以下、車内画像31という。図2参照)は、エージェントコントローラ14において、運転者10の動作を認識するために用いられる。 The in-vehicle camera 17 continuously or intermittently captures the interior of the vehicle 100 , especially the range including the driver 10 . An image or video captured by the in-vehicle camera 17 (hereinafter referred to as an in-vehicle image 31 , see FIG. 2) is used by the agent controller 14 to recognize the actions of the driver 10 .

図2は、エージェントコントローラ14の構成を示すブロック図である。図2に示すように、情報取得部21、運転者動作認識部22、行動誘発判定部23、エージェント動作制御部24、及び、動作パターン記憶部25を備える。エージェントコントローラ14をこれらの各部として機能させるプログラムは、情報提供支援装置101及び情報提供システム102を動作させる情報提供支援プログラムを構成する。情報提供支援プログラムは、情報提供支援装置101または情報提供システム102に予め記憶される。また、情報提供支援プログラムは、例えば、情報提供支援装置101、情報提供システム102、またはその他のコンピュータで読み取る記録媒体の形態で提供され得る。さらに、記録媒体を用いて、または、いわゆるOTA(Over The Air)技術によって、情報提供支援装置101または情報提供システム102に実装された後、情報提供支援プログラムは、その一部または全部が更新され得る。 FIG. 2 is a block diagram showing the configuration of the agent controller 14. As shown in FIG. As shown in FIG. 2, an information acquisition unit 21, a driver motion recognition unit 22, a behavior induction determination unit 23, an agent motion control unit 24, and a motion pattern storage unit 25 are provided. A program that causes the agent controller 14 to function as these units constitutes an information provision support program that causes the information provision support device 101 and the information provision system 102 to operate. The information provision support program is stored in advance in the information provision support device 101 or the information provision system 102 . Further, the information provision support program may be provided, for example, in the form of the information provision support device 101, the information provision system 102, or other computer-readable recording media. Furthermore, after being installed in the information providing support device 101 or the information providing system 102 using a recording medium or by so-called OTA (Over The Air) technology, the information providing support program is partly or wholly updated. obtain.

情報取得部21は、車内画像31、シチュエーション情報32、及び、機器操作情報33を取得する。情報取得部21は、車内画像31を、車内カメラ17から直接に、または、車両コントローラ15を介して間接的に、取得する。また、情報取得部21は、車両コントローラ15からシチュエーション情報32及び機器操作情報33を取得する。なお、情報取得部21は、センサ16から出力される信号等を取得し、車両コントローラ15に代わって自らシチュエーション情報32を生成することができる。 The information acquisition unit 21 acquires an in-vehicle image 31 , situation information 32 , and device operation information 33 . The information acquisition unit 21 acquires the in-vehicle image 31 directly from the in-vehicle camera 17 or indirectly via the vehicle controller 15 . The information acquisition unit 21 also acquires situation information 32 and device operation information 33 from the vehicle controller 15 . Note that the information acquisition unit 21 can acquire a signal or the like output from the sensor 16 and generate the situation information 32 by itself instead of the vehicle controller 15 .

運転者動作認識部22は、運転者10の動作を認識する。また、運転者動作認識部22は、継続的または断続的に運転者10の動作を認識することによって、運転者10の動作を監視する運転者動作監視部として機能する。本実施形態においては、運転者動作認識部22は、車内画像31を用いて、及び/または、車両100に搭載された機器の操作状況に基づいて、運転者10の動作を認識する。具体的には、運転者動作認識部22は、動作検出部34、視線検出部35、及び、機器操作検出部36を含む。 The driver motion recognition unit 22 recognizes the motion of the driver 10 . Further, the driver's motion recognition unit 22 functions as a driver's motion monitoring unit that monitors the motion of the driver 10 by continuously or intermittently recognizing the motion of the driver 10 . In the present embodiment, the driver's motion recognition unit 22 recognizes the motion of the driver 10 using the in-vehicle image 31 and/or based on the operation status of equipment mounted on the vehicle 100 . Specifically, the driver's motion recognition unit 22 includes a motion detection unit 34 , a line-of-sight detection unit 35 , and a device operation detection unit 36 .

動作検出部34は、運転者10の手や顔等の大局的な動作を検出する。例えば、動作検出部34は、車内画像31から運転者10を認識し、その形状の時間的変化等に基づいて、運転者10の身体的動作を検出する。 The motion detection unit 34 detects global motions of the driver's 10 such as hands and face. For example, the motion detection unit 34 recognizes the driver 10 from the in-vehicle image 31 and detects the physical motion of the driver 10 based on temporal changes in the shape thereof.

視線検出部35は、運転者10の視線を検出する。例えば、視線検出部35は、車内画像31から運転者10の眼球(瞳)及びその運動を認識することによって、運転者10の視線及びその遷移(以下、視線動作という)を検出する。 The line-of-sight detection unit 35 detects the line of sight of the driver 10 . For example, the line-of-sight detection unit 35 detects the driver's 10 line of sight and its transition (hereinafter referred to as line-of-sight movement) by recognizing the driver's 10 eyeball (pupil) and its movement from the in-vehicle image 31 .

機器操作検出部36は、機器操作情報33に基づいて、車両100に対する操作または車両100が搭載する各種機器に対する操作を行う動作(以下、機器等操作動作という)を検出する。例えば、カーナビゲーションシステム12が操作されたときには、機器操作情報33によってその機器等操作動作を検出する。 Based on the device operation information 33, the device operation detection unit 36 detects an operation of the vehicle 100 or an operation of various devices mounted on the vehicle 100 (hereinafter referred to as device operation operation). For example, when the car navigation system 12 is operated, the device operation information 33 is used to detect the operation of the device.

以下では、特別に言及する場合を除き、運転者10の身体的動、視線動作、及び、機器等操作動作を単に運転者10の動作と総称する。運転者10の身体的動作、視線動作、及び/または、機器等操作動作のうち、シチュエーション情報32を知得するために、または、シチュエーション情報32に基づいて行われるものは、前述のとおり、所定動作である。 Hereinafter, the physical movement, line-of-sight movement, and device operation movement of the driver 10 are collectively referred to simply as the movement of the driver 10 unless otherwise specified. Of the physical motions, line-of-sight motions, and/or device operation motions of the driver 10, those performed in order to obtain the situation information 32 or based on the situation information 32 are predetermined motions, as described above. is.

行動誘発判定部23は、シチュエーション情報32に基づいて、そのシチュエーション情報32を運転者10に提供するときに運転者10の所定動作を誘発する必要があるか否かを判定する。行動誘発判定部23は、シチュエーション情報32の種類及び性質等に応じて、運転者10の所定動作を誘発する必要があるか否かを、例えばデータテーブル等を用いて予め定めている。このため、行動誘発判定部23は、個別具体的なシチュエーション情報32の種類及び性質等に応じて、運転者10の所定動作を誘発する必要があるか否かを判定する。 Based on the situation information 32, the action inducement determination unit 23 determines whether or not it is necessary to induce a predetermined action of the driver 10 when the situation information 32 is provided to the driver 10. FIG. The action inducement determination unit 23 determines in advance whether or not it is necessary to induce a predetermined action of the driver 10 according to the type and nature of the situation information 32 using, for example, a data table. Therefore, the action inducement determination unit 23 determines whether or not it is necessary to induce a predetermined action of the driver 10 according to the type and nature of the individual specific situation information 32 .

また、行動誘発判定部23は、運転者10の所定動作を誘発する必要があるときに、運転者10の所定動作を誘発する具体的なエージェント13の動作態様を定めるためのパラメータを設定する。そのために、行動誘発判定部23は、重要度判定部37及び学習状況判定部38を備える。 Further, the action inducement determination unit 23 sets parameters for defining a specific action mode of the agent 13 that induces the predetermined action of the driver 10 when it is necessary to induce the predetermined action of the driver 10 . For this purpose, the behavior induction determination unit 23 includes an importance determination unit 37 and a learning situation determination unit 38 .

重要度判定部37は、シチュエーション情報32の重要度を判定する。シチュエーション情報32の重要度は、そのシチュエーション情報32の緊急性、及び/または、そのシチュエーション情報32に基づいた所定動作を行わない場合の危険度等に基づいて予め設定される。すなわち、シチュエーション情報32の重要度は、シチュエーション情報32の種類及び性質等に応じて予め設定される。特に、シチュエーション情報32が車両100の運転操作に関わる情報であるときには、その重要度は高いと判定される。一方、シチュエーション情報32が車両100の運転操作に関わる情報以外の情報であるときには、その重要度は低いと判定される。より具体的な例を挙げれば、シチュエーション情報32が、交通標識や通行人等を注目対象41とし、安全確保のために必要な注意喚起を内容とする場合、そのシチュエーション情報32の重要度は「高い」と判定される。一方、シチュエーション情報32が、具体的に、車両100が搭載する機器等を注目対象41とし、その操作を促すための注意喚起を内容とする場合、そのシチュエーション情報32の重要度は「低い」と判定される。また、例えば、シチュエーション情報32が、ステアリングホイール42の把持を要求する情報である場合、そのシチュエーション情報32の重要度は「高い」と判定される。重要度判定部37が判定したシチュエーション情報32の重要度は、エージェント13の動作態様を決定するパラメータの1つである。 The importance determination unit 37 determines the importance of the situation information 32 . The importance of the situation information 32 is set in advance based on the urgency of the situation information 32 and/or the degree of danger when the predetermined action based on the situation information 32 is not performed. That is, the importance of the situation information 32 is set in advance according to the type and nature of the situation information 32 and the like. In particular, when the situation information 32 is information related to the driving operation of the vehicle 100, it is determined that its importance is high. On the other hand, when the situation information 32 is information other than information related to the driving operation of the vehicle 100, it is determined that its importance is low. To give a more specific example, when the situation information 32 includes traffic signs, passers-by, and the like as attention objects 41, and has content that calls attention necessary for ensuring safety, the importance of the situation information 32 is " high”. On the other hand, when the situation information 32 specifically designates the device or the like mounted on the vehicle 100 as the object of attention 41 and has the contents of a warning for prompting the operation thereof, the importance of the situation information 32 is “low”. be judged. Also, for example, if the situation information 32 is information that requires the driver to grip the steering wheel 42, the importance of the situation information 32 is determined to be "high". The importance of the situation information 32 determined by the importance determination unit 37 is one of the parameters that determine the action mode of the agent 13 .

学習状況判定部38は、エージェント13の動作に対する運転者10の学習(認知)状況を判定する。 The learning state determination unit 38 determines the learning (cognition) state of the driver 10 with respect to the action of the agent 13 .

具体的には、学習状況判定部38は、運転者動作認識部22から運転者10の動作を取得する。また、シチュエーション情報32に応じて運転者10が所定動作を行った場合、エージェント13はそのシチュエーション情報32に応じた応答動作を行うので、学習状況判定部38は、エージェント動作制御部24からエージェント13が応答動作を行った旨の通知を受ける。これらの情報に基づいて、学習状況判定部38は、エージェント13が実行した応答動作を運転者10が認識したか否かを判定する。例えば、運転者10の所定動作に応じてエージェント13が対応する応答動作を実行した後、運転者10がエージェント13を視認したときに、学習状況判定部38は、所定動作に応じたエージェント13の応答動作を運転者10が認識したと判定する。 Specifically, the learning status determination unit 38 acquires the motion of the driver 10 from the driver motion recognition unit 22 . Further, when the driver 10 performs a predetermined action in accordance with the situation information 32, the agent 13 performs a response action in accordance with the situation information 32. receives a notification that has performed a response operation. Based on these pieces of information, the learning status determination unit 38 determines whether or not the driver 10 has recognized the response action performed by the agent 13 . For example, when the driver 10 visually recognizes the agent 13 after the agent 13 executes a response action corresponding to a predetermined action of the driver 10, the learning status determination unit 38 determines whether the agent 13 has responded to the predetermined action. It is determined that the driver 10 has recognized the response action.

また、学習状況判定部38は、所定動作に応じたエージェント13の応答動作を、運転者10が認識した回数(以下、応答動作認識回数という)を計数する。そして、応答動作認識回数が予め定める所定の閾値以上であるときに、学習状況判定部38は、所定動作に応じたエージェント13の応答動作について、運転者10の学習(以下、ユーザ学習という)が完了したものと判定する。ユーザ学習が完了しているか否かの上記判定結果は、エージェント13の動作態様を決定するパラメータの1つである。 In addition, the learning status determination unit 38 counts the number of times the driver 10 recognizes the response motion of the agent 13 corresponding to the predetermined motion (hereinafter referred to as the number of times of response motion recognition). Then, when the number of response motion recognition times is equal to or greater than a predetermined threshold value, the learning status determination unit 38 determines whether the driver 10 has learned (hereinafter referred to as user learning) about the response motion of the agent 13 corresponding to the predetermined motion. Determined as complete. The determination result as to whether or not user learning has been completed is one of the parameters that determine the behavior of the agent 13 .

なお、本実施形態においては、学習状況判定部38は、応答動作が認識された回数を応答動作認識回数として計数しているが、これに限らない。学習状況判定部38は、応答動作認識回数の代わりに、応答動作を行った試行回数を計数することができる。この場合、学習状況判定部38は、応答動作の試行回数が所定の閾値以上となったときに、ユーザ学習が完了したと判定する。 Note that in the present embodiment, the learning status determination unit 38 counts the number of times the response action is recognized as the number of times the response action is recognized, but the present invention is not limited to this. The learning status determination unit 38 can count the number of trials of performing the response motion instead of the number of times of recognition of the response motion. In this case, the learning status determination unit 38 determines that the user learning has been completed when the number of times the response action has been tried is greater than or equal to a predetermined threshold.

エージェント動作制御部24は、エージェント13の動作を制御する。エージェント動作制御部24は、シチュエーション情報32等に基づいて、エージェント13に応答動作、行動誘発動作、及び、その他の動作を実行させる。このため、エージェント動作制御部24は、少なくとも、応答動作制御部39と行動誘発動作制御部40を含む。 The agent operation control unit 24 controls operations of the agent 13 . The agent action control unit 24 causes the agent 13 to perform a response action, an action inducing action, and other actions based on the situation information 32 and the like. Therefore, the agent action control section 24 includes at least a response action control section 39 and an action inducing action control section 40 .

応答動作制御部39は、エージェント13の応答動作を制御する。応答動作制御部39は、シチュエーション情報32と、運転者動作認識部22から取得する運転者10の動作と、に基づいて、運転者10がシチュエーション情報32に応じた所定動作を行ったときに、これに対応する応答動作をエージェント13に実行させる。所定動作に対応する応答動作及びその他のエージェント13の動作態様は、シチュエーション情報32の種類及び性質等に応じて予め定められており、動作パターン記憶部25に記憶されている。このため、応答動作制御部39は、運転者10が所定動作を行ったときに、動作パターン記憶部25を参照することにより、その所定動作に対応する応答動作をリアルタイムにエージェント13に実行させることができる。 The response operation control unit 39 controls the response operation of the agent 13 . Based on the situation information 32 and the motion of the driver 10 acquired from the driver motion recognition unit 22, the response motion control unit 39 performs a predetermined motion according to the situation information 32 by the driver 10. The agent 13 is made to perform a response operation corresponding to this. Response actions corresponding to predetermined actions and other action modes of the agent 13 are predetermined according to the type and nature of the situation information 32 and stored in the action pattern storage unit 25 . Therefore, when the driver 10 performs a predetermined action, the response action control section 39 refers to the action pattern storage section 25 to cause the agent 13 to execute a response action corresponding to the predetermined action in real time. can be done.

行動誘発動作制御部40は、行動誘発判定部23が運転者10の所定動作を誘発する必要があると判定したときに、エージェント13の行動誘発動作を制御する。また、行動誘発動作制御部40は、シチュエーション情報32と、学習状況判定部38の判定結果と、に基づいて、シチュエーション情報32に対応する行動誘発動作をエージェント13に実行させる。具体的には、学習状況判定部38の判定結果によってユーザ学習が完了してると判断されている場合、行動誘発動作制御部40は、運転者10がシチュエーション情報32に対応する所定動作を行うのを待たずに、動作パターン記憶部25を参照して、シチュエーション情報32に対応する応答動作を行動誘発動作としてエージェント13に実行させる。このため、実質的に、運転者10がシチュエーション情報32に応じた所定動作を行う前に、エージェント13は行動誘発動作を実行する。 The behavior inducing motion control unit 40 controls the behavior inducing motion of the agent 13 when the behavior inducing determination unit 23 determines that it is necessary to induce the predetermined motion of the driver 10 . Also, the action inducing operation control unit 40 causes the agent 13 to execute an action inducing operation corresponding to the situation information 32 based on the situation information 32 and the determination result of the learning situation determination unit 38 . Specifically, when it is determined by the determination result of the learning status determination unit 38 that the user learning has been completed, the behavior inducing motion control unit 40 controls whether the driver 10 performs a predetermined motion corresponding to the situation information 32. Without waiting for , the action pattern storage unit 25 is referred to and the agent 13 is made to execute a response action corresponding to the situation information 32 as an action inducing action. Therefore, substantially before the driver 10 performs a predetermined action according to the situation information 32, the agent 13 executes the action inducing action.

エージェント13が行動誘発動作を実行すると、その行動誘発動作についてユーザ学習が完了してる運転者10は、直感的に所定動作を行うべきことを認知することができる。また、ユーザ学習が完了してる運転者10は、エージェント13が行動誘発動作を実行すると、これに応じてほぼ反射的に所定動作を行うことができる。 When the agent 13 executes the action-inducing action, the driver 10 who has completed the user learning about the action-inducing action can intuitively recognize that the predetermined action should be performed. Further, when the agent 13 executes an action inducing action, the driver 10 who has completed the user learning can almost reflexively perform the predetermined action in response.

なお、行動誘発動作制御部40がエージェント13に行動誘発動作を実行させる場合、応答動作制御部39はエージェント13に応答動作を実行させない。すなわち、エージェント13は、1回のシチュエーション情報32の提供において、行動誘発動作または応答動作を択一的に実行する。運転者10による車両100の使用経験が浅いときには、エージェント13は概ね応答動作を実行し、運転者10による車両100の使用経験がある程度豊富になると、エージェント13は概ね行動誘発動作を実行する。 It should be noted that when the action inducing action control unit 40 causes the agent 13 to perform the action inducing action, the response action control unit 39 does not cause the agent 13 to perform the response action. In other words, the agent 13 alternatively executes the behavior-inducing action or the response action in providing the situation information 32 once. When the driver 10 has little experience in using the vehicle 100, the agent 13 generally performs a response action, and when the driver 10 has a certain amount of experience in using the vehicle 100, the agent 13 generally performs an action-inducing action.

また、行動誘発動作制御部40は、上記のように、エージェント13に行動誘発動作を実行させた後、運転者10が所定動作を行ったか否かを判定する。すなわち、行動誘発動作制御部40は、エージェント13による行動誘発の成否を判定する行動誘発成否判定部として機能する。行動誘発動作制御部40は、少なくともエージェント13が行動誘発動作を実行した後の運転者10の動作を監視することによって、行動誘発の成否を判定する。例えば、行動誘発動作制御部40は、エージェント13が行動誘発動作を実行した後の経過時間(以下、単に経過時間という)を計測する。そして、経過時間が予め定める所定時間(閾値)を経過する以前に、運転者10が所定動作を行ったときに、行動誘発動作制御部40は、行動誘発が成功したと判定する。一方、経過時間が所定時間を超過した場合、行動誘発動作制御部40は、行動誘発が失敗したと判定する。 Further, the action inducing motion control unit 40 determines whether or not the driver 10 has performed the predetermined motion after causing the agent 13 to execute the action inducing motion as described above. In other words, the action inducement operation control unit 40 functions as an action inducement success/failure determination unit that determines the success or failure of the action inducement by the agent 13 . The action inducing action control unit 40 determines whether the action inducing action is successful or not by monitoring the action of the driver 10 at least after the agent 13 executes the action inducing action. For example, the action-inducing motion control unit 40 measures the elapsed time (hereinafter simply referred to as elapsed time) after the agent 13 executes the action-inducing motion. Then, when the driver 10 performs a predetermined action before the elapsed time elapses a predetermined time (threshold value), the action inducing action control unit 40 determines that the action inducing has succeeded. On the other hand, when the elapsed time exceeds the predetermined time, the behavior induction operation control unit 40 determines that the behavior induction has failed.

その後、行動誘発動作制御部40は、行動誘発の成否に応じて、エージェント13に追加動作を実行させる。本実施形態においては、行動誘発動作後の追加動作は、エージェント13の感情または情動を表現する動作(以下、エモーションという)、または、行動誘発動作の強調である。 After that, the action inducing operation control unit 40 causes the agent 13 to perform an additional action depending on whether the action inducing is successful or not. In the present embodiment, the additional action after the action-inducing action is the action expressing the feeling or emotion of the agent 13 (hereinafter referred to as emotion) or the emphasis of the action-inducing action.

行動誘発動作制御部40がエージェント13に追加的に実行させるエモーションには、例えば、第1エモーションと第2エモーションがある。第1エモーションは、エージェント13が肯定的な感情または情動(以下、肯定的情動という)を、エージェント13の表情等によって表現する動作である。例えば、エージェント13が、喜びを表現する表情やジェスチャをする、相対的に高い音または音声を発報する、もしくは、暖色系の色を呈する等、エージェント13が概ね喜びを表現していると一般に感得され得るエモーションが第1エモーションである。第2エモーションは、エージェント13が否定的な感情または情動(以下、否定的情動という)を、エージェント13の表情等によって表現する動作である。例えば、エージェント13が、哀しみを表現する表情やジェスチャをする、相対的に低い音または音声を発報する、もしくは、寒色系の色を呈する等、エージェント13が概ね哀しみを表現していると一般に感得され得るエモーションが、第2エモーションである。 The emotions that the action-inducing motion control unit 40 causes the agent 13 to additionally perform include, for example, a first emotion and a second emotion. The first emotion is an action in which the agent 13 expresses a positive feeling or emotion (hereinafter referred to as positive emotion) by means of facial expressions or the like of the agent 13 . For example, it is generally assumed that the agent 13 generally expresses joy, such as making a facial expression or gesture expressing joy, emitting a relatively high-pitched sound or voice, or exhibiting a warm color. The emotion that can be felt is the primary emotion. The second emotion is an action in which the agent 13 expresses a negative feeling or emotion (hereinafter referred to as negative emotion) by means of facial expressions or the like of the agent 13 . For example, it is generally assumed that the agent 13 generally expresses sadness, such as making a facial expression or gesture expressing sadness, emitting a relatively low tone or voice, or exhibiting a cool color. The emotion that can be felt is the secondary emotion.

エージェント13に行動誘発動作を実行させた後、運転者10が所定動作を行ったときに、行動誘発動作制御部40は、肯定的な第1エモーションをエージェント13に実行させる。すなわち、行動誘発が成功した場合、エージェント13は第1エモーションを実行する。運転者10は、エージェント13の肯定的な第1エモーションを感得することにより、エージェント13の行動誘発動作によって運転者10が行うべき所定動作を示唆または教示したことを認知し、エージェント13に対して、感謝その他の肯定的な感情を抱きやすくなる。このため、次回以降の行動誘発がさらに成功しやすくなる。 After causing the agent 13 to perform the action inducing action, the action inducing action control unit 40 causes the agent 13 to perform a positive first emotion when the driver 10 performs a predetermined action. That is, when the action induction is successful, the agent 13 executes the first emotion. By perceiving the positive first emotion of the agent 13, the driver 10 recognizes that the action inducing action of the agent 13 suggests or teaches the predetermined action that the driver 10 should perform. , gratitude and other positive emotions. For this reason, the next and subsequent action inducements are more likely to succeed.

一方、エージェント13に行動誘発動作を実行させた後、運転者10が所定動作を行わなかったときには、行動誘発動作制御部40は、シチュエーション情報32の重要度に応じて、エージェント13に行わせる追加動作を変更する。すなわち、行動誘発が失敗した場合、エージェント13は、シチュエーション情報32の重要度に応じた追加動作を実行する。 On the other hand, when the driver 10 does not perform the predetermined action after causing the agent 13 to perform the action inducing action, the action inducing action control unit 40 causes the agent 13 to perform an additional action according to the importance of the situation information 32. Change behavior. That is, when the action induction fails, the agent 13 performs an additional action according to the importance of the situation information 32. FIG.

具体的には、行動誘発が失敗し、かつ、シチュエーション情報32の重要度が低いときには、行動誘発動作制御部40は、否定的な第2エモーションをエージェント13に実行させる。運転者10は、エージェント13の否定的な第2エモーションを感得することにより、運転者10が行うべき動作があったことを認知することができる。その結果、運転者10は、自然にエージェント13の動作に気を配るようになるので、次回以降の行動誘発が成功しやすくなる。 Specifically, when the action induction fails and the importance of the situation information 32 is low, the action induction operation control unit 40 causes the agent 13 to perform a negative second emotion. By feeling the negative second emotion of the agent 13, the driver 10 can perceive that the driver 10 should perform the action. As a result, the driver 10 naturally comes to pay attention to the action of the agent 13, so that the next and subsequent actions are likely to succeed.

一方、行動誘発が失敗し、かつ、シチュエーション情報32の重要度が高いときには、行動誘発動作制御部40は、強調した行動誘発動作をエージェント13に実行させる。行動誘発動作の強調とは、行動誘発動作に関連するエージェント13の表情、色、音もしくは音声、または、動作を、変更及び/または追加し、相対的に大袈裟な表現形態にすることをいう。例えば、行動誘発動作は、エージェント13が発する音もしくは音声の音量を大きくすることによって、あるいは、エージェント13の表情やジェスチャの変化を大きく表現することによって、強調される。運転者10はエージェント13の行動誘発動作を認知しやすくなるので、行動誘発動作は、特に、行動誘発動作で運転者10に知覚させる五感の種類(いわゆるモダリティ)を追加する形態で強調されることが好ましい。例えば、表情の変化という視覚情報のみで表されていた行動誘発動作は、例えば、さらに音もしくは音声を発報することにより、視覚に加えて聴覚に訴える形態で強調される。 On the other hand, when the action inducement fails and the importance of the situation information 32 is high, the action inducement operation control unit 40 causes the agent 13 to execute the emphasized action inducement operation. Emphasizing the action-inducing motion means changing and/or adding the facial expression, color, sound or voice, or action of the agent 13 related to the action-inducing motion to make it a relatively exaggerated form of expression. For example, the behavior-inducing action is emphasized by increasing the volume of the sound or voice produced by the agent 13, or by expressing the change in the facial expression or gesture of the agent 13 in a large manner. Since it becomes easier for the driver 10 to perceive the behavior-inducing motion of the agent 13, the behavior-inducing motion should be particularly emphasized in the form of adding the types of the five senses (so-called modalities) that the driver 10 perceives in the behavior-inducing motion. is preferred. For example, an action-inducing action represented only by visual information such as a change in facial expression is emphasized in a form that appeals not only to the sense of sight but also to the sense of hearing, for example, by issuing a sound or voice.

動作パターン記憶部25は、シチュエーション情報32の種類及び性質等に応じたエージェント13の動作パターンを記憶する。動作パターン記憶部25は、例えば、シチュエーション情報32ごとに、対応する応答動作及び行動誘発動作を記憶する。また、動作パターン記憶部25は、シチュエーション情報32ごとに、第1エモーション、第2エモーション、及び、行動誘発動作の強調形態等を予め記憶している。 The action pattern storage unit 25 stores action patterns of the agent 13 corresponding to the types and properties of the situation information 32 . The motion pattern storage unit 25 stores, for example, corresponding response motions and behavior inducing motions for each situation information 32 . Further, the motion pattern storage unit 25 stores in advance, for each situation information 32, the first emotion, the second emotion, and the emphasized mode of the behavior-inducing motion.

以下、上記のように構成される車両100の作用、すなわち、情報提供支援装置101及び情報提供システム102におけるユーザ学習及び行動誘発に関する作用を説明する。 The operation of the vehicle 100 configured as described above, that is, the operation of the information providing support device 101 and the information providing system 102 regarding user learning and behavior induction will be described below.

<ユーザ学習>
図3は、エージェント13の応答動作を運転者10に認知させるユーザ学習のフローチャートである。図3に示すように、ステップS101において、運転者動作認識部22が運転者10の動作を認識する。ステップS102においては、応答動作制御部39が動作パターン記憶部25を参照し、認識された運転者10の動作に対応する応答動作を決定する。また、ステップS103においては、応答動作制御部39が、エージェント13にその応答動作を実行させる。
<User learning>
FIG. 3 is a flow chart of user learning for making the driver 10 recognize the response action of the agent 13 . As shown in FIG. 3, in step S101, the driver's motion recognition unit 22 recognizes the motion of the driver 10. As shown in FIG. In step S102, the response motion control unit 39 refers to the motion pattern storage unit 25 and determines a response motion corresponding to the recognized motion of the driver 10. FIG. Further, in step S103, the response operation control unit 39 causes the agent 13 to perform the response operation.

その後、ステップS104においては、学習状況判定部38は、運転者10がエージェント13の応答動作を認識したか否かを判定する。運転者10がエージェント13の応答動作を認識したと判定したときには、ステップS105において学習状況判定部38は応答動作認識回数をインクリメントする。 After that, in step S<b>104 , the learning status determination unit 38 determines whether or not the driver 10 has recognized the response action of the agent 13 . When it is determined that the driver 10 has recognized the response motion of the agent 13, the learning status determination unit 38 increments the response motion recognition count in step S105.

図4は、ユーザ学習の一例を示す説明図である。図4に示すように、時刻t1のシーンa1は、注目対象41が発生し、運転者10が自らこれに気が付き、視線を遷移させたシーンである。このように運転者10が注目対象41に視線を遷移させると、ユーザ学習の段階では、時刻t2のシーンa2に示すように、エージェント13は、運転者10の視線遷移に追従して、発生した注目対象41の方向を向き、注目対象41を見る応答動作を実行する。そして、時刻t3のシーンa3のように、「注目対象41を見る」というエージェント13の応答動作を運転者10が認知すると、運転者10がこの応答動作を学習したものとして、応答動作認識回数がインクリメントされる。そして、応答動作認識回数が閾値以上となり、ユーザ学習が完了したと判定されるまで、この応答動作に係るユーザ学習が繰り返される。 FIG. 4 is an explanatory diagram showing an example of user learning. As shown in FIG. 4, the scene a1 at the time t1 is a scene in which the target 41 occurs, the driver 10 notices it, and shifts the line of sight. When the driver 10 shifts the line of sight to the attention target 41 in this way, in the stage of user learning, the agent 13 follows the line of sight transition of the driver 10 as shown in scene a2 at time t2. Turn to the direction of the target 41 and perform a response action of looking at the target 41 . Then, as in scene a3 at time t3, when the driver 10 recognizes the response action of the agent 13 to "look at the object of interest 41", it is assumed that the driver 10 has learned this response action. Incremented. Then, the user learning related to the response motion is repeated until it is determined that the number of times of recognition of the response motion reaches or exceeds the threshold value and the user learning is completed.

図5は、ユーザ学習の別の例を示す説明図である。図5に示すように、時刻t1のシーンb1は、運転者10がステアリングホイール42から手を離してるシーンである。シーンb1では、エージェント13はスリープしているよう表情を表現している。そして、時刻t2のシーンb2において、運転者10がステアリングホイール42を把持すると、これに応じてエージェント13は例えば目を見開き、起動あるいは覚醒したことを表す表情を表現する応答動作を実行する。その後、時刻t3のシーンb3において、「ステアリングホイール42を把持するとエージェント13が覚醒する」という応答動作を運転者10が認知すると、運転者10がこの応答動作を学習したものとして、応答動作認識回数がインクリメントされる。そして、応答動作認識回数が閾値以上となり、ユーザ学習が完了したと判定されるまで、この応答動作に係るユーザ学習が繰り返される。 FIG. 5 is an explanatory diagram showing another example of user learning. As shown in FIG. 5, a scene b1 at time t1 is a scene in which the driver 10 takes his or her hand off the steering wheel 42 . In scene b1, agent 13 expresses a sleeping expression. Then, in scene b2 at time t2, when the driver 10 grips the steering wheel 42, the agent 13, for example, widens its eyes in response to this and performs a response action expressing a facial expression indicating activation or awakening. After that, in scene b3 at time t3, when the driver 10 recognizes the response motion of "holding the steering wheel 42, the agent 13 wakes up." is incremented. Then, the user learning related to the response motion is repeated until it is determined that the number of times of recognition of the response motion reaches or exceeds the threshold value and the user learning is completed.

以下では、注目対象41が発生したときに、エージェント13がこれを見るという応答動作と、ステアリングホイール42が把持されたときに、エージェント13が覚醒するという応答動作について、ユーザ学習が完了しているものとする。 In the following, user learning has been completed for the response action of the agent 13 looking at the object of interest 41 when it occurs and the response action of the agent 13 waking up when the steering wheel 42 is gripped. shall be

<行動誘発>
図6は、行動誘発のフローチャートである。図6に示すように、ステップS201において、情報取得部21が、車両100が運転者10に対して提供すべきシチュエーション情報32を取得する。また、ステップS202においては、行動誘発判定部23が、取得されたシチュエーション情報32の具体的な種類や性質等に基づいて、運転者10の所定動作を誘発する行動誘発の必要があるか否かを判定する。
<Action inducement>
FIG. 6 is a flow chart of action induction. As shown in FIG. 6 , in step S<b>201 , the information acquisition unit 21 acquires situation information 32 that the vehicle 100 should provide to the driver 10 . Further, in step S202, the action inducement determination unit 23 determines whether or not the action inducement for inducing a predetermined action of the driver 10 is necessary based on the specific type, nature, etc. of the acquired situation information 32. judge.

行動誘発の必要があると判定されると、ステップS203において、学習状況判定部38が、シチュエーション情報32に対応する応答動作についてユーザ学習が完了しているか否かを判定する。ユーザ学習が完了していなときには、前述の応答動作が実行される。一方、ユーザ学習が完了しているときには、ステップS204において、行動誘発動作制御部40が動作パターン記憶部25を参照し、シチュエーション情報32に対応する行動誘発動作を決定する。そして、ステップS205において、行動誘発動作制御部40は、決定した行動誘発動作をエージェント13に実行させる。 If it is determined that behavior induction is necessary, the learning situation determination unit 38 determines whether or not user learning of the response action corresponding to the situation information 32 has been completed in step S203. When user learning has not been completed, the response actions described above are performed. On the other hand, when the user learning is completed, the action inducing motion control unit 40 refers to the action pattern storage unit 25 and determines the action inducing motion corresponding to the situation information 32 in step S204. Then, in step S205, the action inducing action control unit 40 causes the agent 13 to execute the determined action inducing action.

その後、ステップS206においては、行動誘発動作制御部40は、エージェント13の行動誘発動作によって運転者10の所定動作を誘発できたか否かを判定する。そして、エージェント13の行動誘発動作によって運転者10の所定動作が誘発されたと判定された場合、ステップS107において、行動誘発動作制御部40は、肯定的な第1エモーションをエージェント13に実行させる。 After that, in step S206, the action inducing action control unit 40 determines whether or not the action inducing action of the agent 13 has induced the predetermined action of the driver 10 or not. Then, when it is determined that the predetermined action of the driver 10 has been induced by the action inducing action of the agent 13, the action inducing action control unit 40 causes the agent 13 to execute a positive first emotion in step S107.

一方、エージェント13の行動誘発動作によって運転者10の所定動作が誘発できなかったと判定された場合、ステップS208において、行動誘発動作制御部40は、シチュエーション情報32の重要度を参照する。シチュエーション情報32の重要度が高い場合、ステップS209において、行動誘発動作制御部40は、強調した行動誘発動作をエージェント13に実行させる。一方、シチュエーション情報32の重要度が低い場合、ステップS210において、行動誘発動作制御部40は、否定的な第2エモーションをエージェント13に実行させる。 On the other hand, when it is determined that the predetermined action of the driver 10 could not be induced by the action inducing action of the agent 13, the action inducing action control unit 40 refers to the importance of the situation information 32 in step S208. When the importance of the situation information 32 is high, in step S209, the action inducing motion control unit 40 causes the agent 13 to execute the emphasized action inducing motion. On the other hand, when the importance of the situation information 32 is low, the action inducing motion control unit 40 causes the agent 13 to perform a negative second emotion in step S210.

図7は、行動誘発動作と、行動誘発成功後の動作例を示す説明図である。図7に示すように、時刻T1のシーンA1は、車両100が運転者10に情報提供すべき注目対象41が発生した瞬間のシーンである。シーンA1では、運転者10はまだこれに気が付いておらず、別のことを考えている。時刻T2のシーンA2は、時刻T1と実質的にほぼ同時刻のシーンである。シーンA2においては、運転者10が注目対象41に気が付くよりも前に、エージェント13が注目対象41を見るという行動誘発動作を実行する。エージェント13は運転者10の視界内にいるので、運転者10は殆ど否応なくエージェント13の行動誘発動作を認知する。また、この行動誘発動作に係るユーザ学習が完了しているので、運転者10は、エージェント13の行動誘発動作が運転者10の行うべき所定動作を示唆していることを、直感的かつほぼ反射的に理解する。このため、直後の時刻T3のシーンA3では、エージェント13の行動誘発動作の影響を受け、エージェント13の行動誘発動作に釣られるように、運転者10は反射的に注目対象41に視線を遷移させる。 FIG. 7 is an explanatory diagram showing an action inducing action and an example of action after the action inducing is successful. As shown in FIG. 7, a scene A1 at time T1 is a scene at the moment when an object of interest 41 for which the vehicle 100 should provide information to the driver 10 occurs. In scene A1, the driver 10 has not yet noticed this and is thinking of something else. Scene A2 at time T2 is a scene at substantially the same time as time T1. In scene A2, before the driver 10 notices the target 41, the agent 13 performs a behavior-inducing action of looking at the target 41. FIG. Since the agent 13 is within the field of view of the driver 10, the driver 10 perceives the behavior-inducing motion of the agent 13 almost unwillingly. In addition, since the user learning related to this action-inducing action has been completed, the driver 10 intuitively and substantially reflects that the action-inducing action of the agent 13 suggests a predetermined action that the driver 10 should perform. to understand Therefore, in scene A3 at time T3 immediately thereafter, the driver 10 reflexively shifts his/her line of sight to the attention target 41 as if being lured by the action-inducing action of the agent 13 under the influence of the action-inducing action of the agent 13 . .

こうして、エージェント13の行動誘発動作によって「注目対象41を見る」という運転者10の所定動作が行われると、時刻T4に示すシーンA4のように、エージェント13は例えば笑みを浮かべる等の第1エモーションを実行する。 Thus, when the driver 10 performs the predetermined action of "looking at the object of interest 41" by the action inducing action of the agent 13, the agent 13 shows a first emotion such as a smile as shown in scene A4 shown at time T4. to run.

図8は、行動誘発失敗後の動作例を示す説明図である。図8に示すように、時刻T1のシーンA1は、図7の場合と同様に、注目対象41が発生した瞬間のシーンである。そして、時刻T2のシーンA2′では、時刻T1と実質的にほぼ同時刻のシーンであり、エージェント13が注目対象41を見るという行動誘発動作を実行する。但し、シーンA2′では、運転者10はエージェント13の行動誘発動作に気が付かついておらず、所定動作を行っていない。 FIG. 8 is an explanatory diagram showing an operation example after failure of action induction. As shown in FIG. 8, the scene A1 at time T1 is the scene at the instant when the object of interest 41 occurs, as in the case of FIG. In the scene A2' at the time T2, which is a scene substantially at the same time as the time T1, the agent 13 performs an action-inducing action of looking at the target 41 of interest. However, in the scene A2', the driver 10 is not aware of the action inducing action of the agent 13 and does not perform the predetermined action.

ここで、例えば安全確保等のために注目対象41を視認して早急に臨機応変な運転操作を行わなければならない等、シチュエーション情報32の重要度が高いときには、時刻T3のシーンA3′において、エージェント13は、行動誘発動作を強調する。ここでは、「注目対象41を見る」という行動誘発動作の本質的態様を維持しつつ、エージェント13は顔の一部及び目の色を変化させることによって表情を変え、行動誘発動作を強調している。その結果、運転者10は、エージェント13による強調された行動誘発動作に気が付き、かつ、その行動誘発動作が示唆する所定動作を直感的かつほぼ反射的に理解する。したがってエージェント13の行動誘発動作の影響を受け、エージェント13の行動誘発動作に釣られるように、運転者10は反射的に注目対象41に視線を遷移させる。 Here, for example, when the importance of the situation information 32 is high, for example, when the attention target 41 must be visually recognized and a flexible driving operation must be performed as soon as possible in order to ensure safety, etc., in scene A3' at time T3, the agent 13 emphasizes action-induced actions. Here, the agent 13 changes its facial expression by changing a part of the face and the color of the eyes to emphasize the action-inducing action, while maintaining the essential mode of the action-inducing action of "looking at the object of interest 41". there is As a result, the driver 10 notices the action-inducing action emphasized by the agent 13 and intuitively and almost reflexively understands the predetermined action suggested by the action-inducing action. Therefore, the driver 10 reflexively shifts the line of sight to the target 41 as if being influenced by the agent 13's action-inducing action and lured by the agent 13's action-inducing action.

図9は、行動誘発失敗後における別の動作例を示す説明図である。図9に示すように、時刻T1のシーンA1は、図7及び図8の場合と同様に、注目対象41が発生した瞬間のシーンである。また、時刻T2のシーンA2′では、図8の場合と同様に、エージェント13が注目対象41を見るという行動誘発動作を実行するが、運転者10はエージェント13の行動誘発動作に気が付かついておらず、所定動作を行っていない。 FIG. 9 is an explanatory diagram showing another operation example after failure of behavior induction. As shown in FIG. 9, the scene A1 at time T1 is the scene at the instant when the object of interest 41 occurs, as in the case of FIGS. In scene A2' at time T2, as in the case of FIG. 8, the agent 13 performs an action-inducing action of looking at the object of interest 41, but the driver 10 does not notice the action-inducing action of the agent 13. , the specified action is not performed.

ここで、例えば注目対象41がカーナビゲーションシステム12等の車内機器であって、シチュエーション情報32がその車内機器の操作を推奨する内容である等、シチュエーション情報32の重要度が低いとする。この場合、時刻T3のシーンA3″において、エージェント13は、例えば泣き顔を見せる等、哀しい表情を浮かべる等の第2エモーションを実行する。そして、運転者10は、エージェント13の第2エモーションを認知すると、何らかの所定動作が求められていたことを察することができるので、その後、注目対象41に気が付きやすくなる。また、運転者10がエージェント13の第2エモーションを認知すると、擬人的なエージェント13に対する潜在的な罪悪感等が生じるために、その後、少なくともエージェント13の動作に気が付きやすくなる。その結果、次回以降の行動誘発が成功しやすくなる。 Here, it is assumed that the importance of the situation information 32 is low, for example, the object of interest 41 is an in-vehicle device such as the car navigation system 12 and the situation information 32 recommends operating the in-vehicle device. In this case, in scene A3″ at time T3, the agent 13 performs a second emotion such as showing a crying face or showing a sad expression. , it can be inferred that some kind of predetermined action was requested, and after that, it becomes easier for the driver to notice the target of interest 41. Further, when the driver 10 recognizes the second emotion of the agent 13, the potential for the anthropomorphic agent 13 is detected. guilt, etc., after that, it becomes easier to notice at least the action of the agent 13. As a result, it becomes easier to succeed in inducing behavior from the next time onward.

図10は、別の行動誘発動作とその作用を示す説明図である。図10のケース1及びケース2では、車両100が前方の車両を追従して自動的に走行しており、運転者10がステアリングホイール42から手を離しているとする。 FIG. 10 is an explanatory diagram showing another action inducing action and its action. In case 1 and case 2 of FIG. 10 , it is assumed that the vehicle 100 automatically follows the vehicle ahead and the driver 10 releases the steering wheel 42 .

図10のケース1は、行動誘発の成功例である。まず、時刻T1のシーンB1において、前方車両に対する追従走行機能が切れそうになり、運転者10がステアリングホイール42を把持すべき旨、車両100が運転者10に情報提供をする必要が生じたとする。このとき、運転者10は「ステアリングホイール42を把持するとエージェント13が覚醒する」というユーザ学習を完了しているので、エージェント13は、時刻T2のシーンB2に示すように、覚醒する表情を表す行動誘発動作を実行する。そして、運転者10は、視界内において、急に覚醒した表情を呈したエージェント13を認知すると、ステアリングホイール42を握るべきであることを直感的かつほぼ反射的に理解する。このため、時刻T3のシーンB3において、運転者10はほぼ反射的にステアリングホイール42を把持する。こうして運転者10がステアリングホイール42を把持するという所定動作が行われると、時刻T4のシーンB4のように、エージェント13は例えば笑みを浮かべる等の第1エモーションを実行する。 Case 1 in FIG. 10 is a successful example of behavior induction. First, in scene B1 at time T1, it is assumed that the follow-up running function for the preceding vehicle is about to run out, and the vehicle 100 needs to provide information to the driver 10 that the driver 10 should grip the steering wheel 42. . At this time, the driver 10 has completed the user learning that "the agent 13 wakes up when the driver 10 grips the steering wheel 42." Execute the provoked action. Then, when the driver 10 recognizes the agent 13 with a suddenly aroused expression within the field of vision, the driver 10 intuitively and almost reflexively understands that the driver 10 should grip the steering wheel 42 . Therefore, in scene B3 at time T3, the driver 10 grips the steering wheel 42 almost reflexively. When the driver 10 performs the predetermined action of gripping the steering wheel 42 in this manner, the agent 13 performs a first emotion such as smiling, as in scene B4 at time T4.

一方、図10のケース2は、行動誘発失敗時の動作例である。まず、時刻T2のシーンB1′は、シーンB1と同様に、前方車両に対する追従走行機能が切れそうになり、運転者10がステアリングホイール42を把持すべき旨、車両100が運転者10に情報提供をする必要が生じたシーンである。そして、時刻T2のシーンB2′では、エージェント13が覚醒する表情を表す行動誘発動作を実行する。但し、ここでは、ステアリングホイール42を把持するという運転操作に関わる重要度が高いシチュエーションであるにもかかわらず、運転者10はエージェント13の行動誘発動作に気が付かなかったとする。この場合、続く時刻T3のシーンB3′においては、エージェント13は、例えば、覚醒した表情という行動誘発動作の本質的態様を維持しつつ、さらに顔色を変える等することによって行動誘発動作を強調する。その結果、運転者10は、エージェント13の行動誘発動作に気が付き、時刻T4のシーンB4′において、ステアリングホイール42を把持するという所定動作を行うことができる。 On the other hand, case 2 in FIG. 10 is an operation example when action induction fails. First, in scene B1′ at time T2, similar to scene B1, the vehicle 100 provides information to the driver 10 that the follow-up function for the preceding vehicle is about to run out and that the driver 10 should grip the steering wheel 42. This is the scene where it was necessary to Then, in scene B2' at time T2, the agent 13 performs an action-inducing action showing an aroused expression. However, here, it is assumed that the driver 10 did not notice the action inducing action of the agent 13 even though the driver 10 grips the steering wheel 42, which is a highly important situation related to the driving operation. In this case, in the subsequent scene B3' at time T3, the agent 13 emphasizes the action-inducing action by, for example, changing the complexion while maintaining the essential aspect of the action-inducing action, which is an aroused facial expression. As a result, the driver 10 notices the behavior-inducing action of the agent 13, and can perform the predetermined action of gripping the steering wheel 42 in scene B4' at time T4.

以上のように、本実施形態に係る情報提供支援方法は、運転者10に対する車両100からの情報提供を支援する情報提供支援装置101を用いて運転者10に情報提供をする情報提供支援方法である。この情報提供支援方法では、運転者10に提供すべき情報がシチュエーション情報32として車両100から取得される。また、運転者10の動作が認識される。そして、シチュエーション情報32を知得するために、または、シチュエーション情報32に基づいて、運転者10が行うべき所定動作を行ったときに、その所定動作に応じて情報提供支援装置101が行ったことがある応答動作が、シチュエーション情報32の取得後、運転者10が所定動作を行う前に、情報提供支援装置101によって行動誘発動作として実行される。 As described above, the information provision support method according to the present embodiment is an information provision support method for providing information to the driver 10 using the information provision support device 101 that supports information provision from the vehicle 100 to the driver 10. be. In this information provision support method, information to be provided to the driver 10 is acquired from the vehicle 100 as the situation information 32 . Also, the motion of the driver 10 is recognized. Then, in order to know the situation information 32, or when the driver 10 performs a predetermined action that should be performed based on the situation information 32, information provided by the information provision support device 101 in accordance with the predetermined action. A certain response action is executed by the information provision support device 101 as an action inducing action after the situation information 32 is acquired and before the driver 10 performs a predetermined action.

このように、応答動作が、運転者10が所定動作を行う前に行動誘発動作として実行されると、運転者10は、シチュエーション情報32に対応付けられた所定動作を直感的かつほぼ反射的に感得し得る。したがって、本実施形態に係る情報提供支援方法によれば、運転者10の所定動作が誘発される。すなわち、本実施形態の情報提供支援方法によれば、情報提供支援装置101は、運転者10が所定動作を自然に行いたくなるように、運転者10に働きかけることができる。その結果、本実施形態の情報提供支援方法によれば、情報提供支援装置101は、個別具体的なシチュエーションに応じて、運転者10の必要な行動をごく自然に誘発することができる。 In this way, when the response action is executed as the action inducing action before the driver 10 performs the predetermined action, the driver 10 intuitively and almost reflexively performs the predetermined action associated with the situation information 32. You can feel it. Therefore, according to the information provision support method according to the present embodiment, the predetermined action of the driver 10 is induced. That is, according to the information provision support method of the present embodiment, the information provision support device 101 can encourage the driver 10 to naturally want to perform the predetermined action. As a result, according to the information provision support method of the present embodiment, the information provision support device 101 can quite naturally induce the driver 10 to take necessary actions in accordance with individual specific situations.

例えば、運転者10が車両100から多くの情報提供を受ける場合、直接的な情報提供は煩わしく感じられ、重要な情報提供に対しても運転者10の反応が遅れる場合がある。しかし、上記の行動誘発による情報提供によれば、直接的な情報提供をする場合よりも早く、かつ、確実に、運転者10が行うべき所定動作を引き出すことができる。 For example, when the driver 10 receives a large amount of information provided by the vehicle 100, the direct provision of information may feel cumbersome, and the response of the driver 10 to the provision of important information may be delayed. However, according to the provision of information by means of behavior induction as described above, it is possible to elicit the predetermined action that the driver 10 should perform more quickly and reliably than in the case of direct provision of information.

本実施形態に係る情報提供支援方法では、前提として、運転者10が所定動作を行ったときに、情報提供支援装置101によって応答動作が実行される。また、情報提供支援装置101が実行した応答動作を運転者10が認識したか否かが判定され、情報提供支援装置101が実行した応答動作を運転者10が認識した応答動作認識回数が計数される。そして、応答動作認識回数が閾値以上であるときに、運転者10が所定動作を行う前に、情報提供支援装置101によってその応答動作が行動誘発動作として実行される。 In the information provision support method according to the present embodiment, it is assumed that the information provision support device 101 performs a response action when the driver 10 performs a predetermined action. Further, it is determined whether or not the driver 10 has recognized the response action executed by the information provision support device 101, and the number of times the driver 10 has recognized the response action executed by the information provision support device 101 is counted. be. Then, when the number of response motion recognition times is equal to or greater than the threshold, the response motion is executed by the information provision support device 101 as an action inducing motion before the driver 10 performs the predetermined motion.

このように、応答動作についてユーザである運転者10の学習(ユーザ学習)が完了しているときに、その応答動作を行動誘発動作として実行することにより、特に確実に運転者10の所定動作が誘発される。これは、ユーザ学習が完了していることにより、運転者10は、情報提供支援装置101の行動誘発動作に困惑することなく、行動誘発動作によって示唆される所定動作を直感的に感得して反射的にこれを行うことができるからである。 In this manner, when the learning (user learning) of the driver 10 who is the user about the response motion is completed, the response motion is executed as the action-inducing motion, so that the predetermined motion of the driver 10 is particularly reliably performed. induced. This is because the user learning has been completed, so that the driver 10 can intuitively perceive the predetermined action suggested by the action-inducing action without being confused by the action-inducing action of the information provision support device 101. Because you can do this reflexively.

本実施形態に係る情報提供支援方法では、情報提供支援装置101による行動誘発動作としての応答動作の実行後に、運転者10が所定動作を行ったときに、情報提供支援装置101は、肯定的情動を表現する動作である第1エモーションを実行する。このように、行動誘発の成功後、肯定的な第1エモーションを実行すると、行動誘発動作によって運転者10が行うべき所定動作を示唆等されたことを認知して、情報提供支援装置101に肯定的感情を抱きやすくなる。その結果、次回以降の行動誘発がさらに成功しやすくなる。 In the information provision support method according to the present embodiment, when the driver 10 performs the predetermined action after the information provision support apparatus 101 executes the response action as the behavior inducing action, the information provision support apparatus 101 responds to the positive emotion Executes the first emotion, which is an action that expresses In this way, when the positive first emotion is executed after the action inducement is successful, the information providing support device 101 recognizes that the action inducement action suggests a predetermined action to be performed by the driver 10, and the affirmative action is given to the information provision support device 101. It becomes easier to hold emotional feelings. As a result, the next and subsequent action inducements are more likely to succeed.

上記実施形態においては、情報提供支援装置101は、特に、マスコットであるエージェント13によって応答動作及び行動誘発動作を実行し、第1エモーションは、表情、色、音もしくは音声、または、動作等によって表現される。このため、第1エモーションによって、エージェント13に対する肯定的感情を抱きやすく、行動誘発の成功率が特に向上しやすい。 In the above-described embodiment, the information provision support device 101 particularly executes the response action and the action inducing action by the agent 13, which is the mascot, and the first emotion is expressed by facial expression, color, sound or voice, action, or the like. be done. For this reason, the first emotion tends to make the agent 13 feel positive, and the success rate of action induction is particularly likely to improve.

本実施形態に係る情報提供方法では、運転者10に提供すべきシチュエーション情報32の重要度が判定される。そして、情報提供支援装置101による行動誘発動作としての応答動作の実行後に、運転者10が所定動作を行わないときには、重要度に応じて情報提供支援装置101の動作を変更する。これにより、行動誘発が失敗した場合には、行動誘発を成功に導く、あるいは、次回の行動誘発の成功率を高める等、シチュエーション情報32の重要度に応じた適切な動作を行うことができる。 In the information providing method according to this embodiment, the importance of the situation information 32 to be provided to the driver 10 is determined. When the driver 10 does not perform the predetermined action after the information providing support device 101 executes the response action as the action inducing action, the operation of the information providing support device 101 is changed according to the importance. As a result, when the action inducement fails, it is possible to perform an appropriate action according to the importance of the situation information 32, such as making the action inducement successful or increasing the success rate of the next action inducement.

上記実施形態においては、特に、シチュエーション情報32の重要度が高いと判定されたときに、情報提供支援装置101は、行動誘発動作として強調した応答動作を実行する。このため、シチュエーション情報32が運転操作に関わる場合等、その重要度が高いときには、情報提供支援装置101は特に積極的に運転者10に働きかけて所定動作の誘発を成功に導くことができる。 In the above-described embodiment, the information provision support device 101 executes the response action emphasized as the behavior inducing action, particularly when the importance of the situation information 32 is determined to be high. Therefore, when the situation information 32 is highly important, such as when the situation information 32 is related to the driving operation, the information provision support device 101 can actively work on the driver 10 to successfully induce the predetermined action.

また、上記実施形態においては、特に、シチュエーション情報32の重要度が低いと判定されたときに、情報提供支援装置101は、脾摘的情動を表現する動作である第2エモーションを実行する。運転者10は、情報提供支援装置101による否定的な第2エモーションを感得することにより、自然にエージェント13の動作に気を配るようになるので、次回以降の行動誘発が成功しやすくなる。また、情報提供支援装置101は、シチュエーション情報32の重要度が低いときには、第2エモーションを実行することで控えめに運転者10に働きかけるので、情報提供に係る煩わしさが低減される。 Further, in the above-described embodiment, the information provision support device 101 performs the second emotion, which is the action expressing the splenectomy emotion, particularly when the importance of the situation information 32 is determined to be low. By sensing the negative second emotion by the information provision support device 101, the driver 10 naturally pays attention to the action of the agent 13, so that the next and subsequent action inducements are more likely to succeed. In addition, when the importance of the situation information 32 is low, the information provision support device 101 modestly encourages the driver 10 by executing the second emotion, so that the troublesomeness of providing information is reduced.

さらに、上記実施形態においては、情報提供支援装置101は、特に、マスコットであるエージェント13によって応答動作及び行動誘発動作を実行し、第2エモーションは、表情、色、音もしくは音声、または、動作等によって表現される。このため、第2エモーションを認知することによって、運転者10はエージェント13の動作をさらに気にかけるようになるので、次回以降の行動誘発の成功率が特に向上しやすい。 Furthermore, in the above-described embodiment, the information provision support device 101 particularly executes the response action and the action inducing action by the agent 13, which is the mascot, and the second emotion is the facial expression, color, sound or voice, action, or the like. is represented by For this reason, by recognizing the second emotion, the driver 10 becomes more concerned about the action of the agent 13, so that the success rate of the next action inducement is especially likely to be improved.

なお、上記実施形態においては、シチュエーション情報32が車両100の運転操作に関わる情報であるときはその重要度は高いと判定され、それ以外の情報であるときには重要度は低いと判定される。このように、運転操作に関わるシチュエーション情報32の重要度を高いと判定すると、運転操作に関わるシチュエーション情報32の提供に関して、より確実に運転者10の所定動作を誘発することができる。その結果、特に安全性が確保されやすい。 In the above-described embodiment, when the situation information 32 is information related to the driving operation of the vehicle 100, the importance is determined to be high, and when the situation information 32 is other information, the importance is determined to be low. In this way, when the situation information 32 related to the driving operation is determined to be highly important, it is possible to more reliably induce the predetermined action of the driver 10 in relation to the provision of the situation information 32 related to the driving operation. As a result, it is particularly easy to ensure safety.

以上、本発明の実施形態について説明したが、上記実施形態で説明した構成は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を限定する趣旨ではない。 Although the embodiments of the present invention have been described above, the configurations described in the above embodiments merely show a part of application examples of the present invention, and are not intended to limit the technical scope of the present invention.

例えば、例えば、車両100が運転者10に対して提供する情報は、上記実施形態の例に限らない。また、車両100が提供する情報を知得するために、または、車両100が提供する情報に基づいて、運転者10が行うべき動作は、上記実施形態の例に限らない。したがって、本発明は、車両100が運転者10に対して提供する様々な情報と、運転者10が行うべき様々な動作と、の組み合わせについて適用することができる。 For example, the information provided by the vehicle 100 to the driver 10 is not limited to the example of the above embodiment. In addition, the actions that the driver 10 should perform in order to know the information provided by the vehicle 100 or based on the information provided by the vehicle 100 are not limited to the example of the above embodiment. Therefore, the present invention can be applied to combinations of various information provided by the vehicle 100 to the driver 10 and various actions to be performed by the driver 10 .

この他、車内カメラ17は、車両100が、センサ16の1つとして、車両100が備えてられいるが、これに限らない。情報提供支援装置101が独自にカメラを備えており、このカメラによって、運転者10の動作認識が可能な程度に車両100の車内を撮影し得る場合がある。この場合、情報提供支援装置101は、車両100が備える車内カメラ17の代わりに、情報提供支援装置101が独自に備えるカメラを用いて車内画像31を取得することができる。 In addition, the in-vehicle camera 17 is provided in the vehicle 100 as one of the sensors 16, but the present invention is not limited to this. The information provision support device 101 has its own camera, and the camera may capture an image of the inside of the vehicle 100 to the extent that the motion of the driver 10 can be recognized. In this case, the information provision support device 101 can acquire the in-vehicle image 31 using a camera uniquely provided in the information provision support device 101 instead of the in-vehicle camera 17 provided in the vehicle 100 .

上記実施形態のシチュエーション情報32と、これに対応する応答動作及び行動誘発動作は一例に過ぎない。このため、本発明の情報提供支援方法等は、上記実施形態で説明したシーン以外の様々なシーンに適用可能である。 The situation information 32 of the above-described embodiment and the corresponding response action and action inducing action are merely examples. Therefore, the information provision support method and the like of the present invention can be applied to various scenes other than the scenes described in the above embodiments.

例えば、運転者10がエアコンディショナを操作しているときに、エージェント13がエアコンディショナを見るという応答動作をする場合、運転者10もしくは助手席または後部座席にいる同乗者が寒そうまたは暑そうなときに、エージェント13がエアコンディショナを見るという行動誘発動作を行うことができる。運転者10がカーナビゲーションシステム12を操作しているときに、エージェント13がカーナビゲーションシステム12を見るという応答動作をする場合、エージェント13は、カーナビゲーションシステム12を見てほしいとき、あるいは、操作してほしいときに、カーナビゲーションシステム12を見る行動誘発動作を行うことができる。車両100のドアをロックするとエージェント13が例えばワンと吠える応答動作をする場合、エージェント13は、車両100のドアをロックしてほしいときにワンと吠える行動誘発動作を行うことができる。また、車両100の自動的な追従走行を行っているか否かに限らず、ステアリングホイール42を把持すべきシーンにおいて、エージェント13は覚醒する等の反応をすることができる。 For example, when the driver 10 is operating the air conditioner and the agent 13 responds by looking at the air conditioner, the driver 10 or the passenger in the front passenger seat or the rear seat looks cold or hot. When this happens, the agent 13 can perform a behavior-inducing action of looking at the air conditioner. When the driver 10 operates the car navigation system 12 and the agent 13 looks at the car navigation system 12 in response, the agent 13 asks the driver to look at the car navigation system 12 or operates the car navigation system 12. An action-inducing action to look at the car navigation system 12 can be performed when desired. When the door of the vehicle 100 is locked, the agent 13 can respond by barking, for example, when the door of the vehicle 100 is to be locked. In addition, regardless of whether the vehicle 100 is automatically following the vehicle 100 or not, the agent 13 can react such as waking up in a scene where the steering wheel 42 should be gripped.

上記実施形態の情報提供支援装置101は、いわゆるAI(Artificial Intelligence)プログラムによって実装することができる。AIプログラムは、学習済みモデルと称される場合がある。また、上記実施形態の情報提供支援装置101は、車両100と明確に区別されているが、情報提供支援装置101は、車両100の一部として、車両100と一体的に実装され得る。すなわち、エージェントコントローラ14の一部または全部の機能は、車両コントローラ15によって実現され得る。 The information provision support device 101 of the above embodiment can be implemented by a so-called AI (Artificial Intelligence) program. AI programs are sometimes referred to as trained models. Further, although the information provision support device 101 of the above embodiment is clearly distinguished from the vehicle 100 , the information provision support device 101 can be mounted integrally with the vehicle 100 as part of the vehicle 100 . That is, some or all of the functions of agent controller 14 can be implemented by vehicle controller 15 .

10:運転者,11:運転操作部,12:カーナビゲーションシステム,13:エージェント,14:エージェントコントローラ,15:車両コントローラ,16:センサ,17:車内カメラ,21:情報取得部,22:運転者動作認識部,23:行動誘発判定部,24:エージェント動作制御部,25:動作パターン記憶部,31:車内画像,32:シチュエーション情報,33:機器操作情報,34:動作検出部,35:視線検出部,36:機器操作検出部,37:重要度判定部,38:学習状況判定部,39:応答動作制御部,40:行動誘発動作制御部,41:注目対象,42:ステアリングホイール,100:車両,101:情報提供支援装置,102:情報提供システム 10: driver, 11: driving operation unit, 12: car navigation system, 13: agent, 14: agent controller, 15: vehicle controller, 16: sensor, 17: in-vehicle camera, 21: information acquisition unit, 22: driver Action recognition unit 23: Action induction determination unit 24: Agent action control unit 25: Action pattern storage unit 31: In-vehicle image 32: Situation information 33: Device operation information 34: Action detection unit 35: Line of sight detector, 36: device operation detector, 37: importance determination unit, 38: learning situation determination unit, 39: response operation control unit, 40: behavior inducing operation control unit, 41: attention target, 42: steering wheel, 100 : vehicle, 101: information provision support device, 102: information provision system

Claims (12)

運転者に対する車両からの情報提供を支援する情報提供支援装置を用いて前記運転者に情報提供をする情報提供支援方法であって、
前記運転者に提供すべき情報を前記車両から取得し、
前記運転者の動作を認識し、
前記情報を知得するために、または、前記情報に基づいて、前記運転者が行うべき所定動作を行ったときに、前記所定動作に応じて前記情報提供支援装置が実行したことがある応答動作を、前記情報の取得後、前記運転者が前記所定動作を行う前に、前記情報提供支援装置によって実行する、
情報提供支援方法。
An information provision support method for providing information to a driver using an information provision support device for supporting information provision from a vehicle to the driver,
obtaining from the vehicle information to be provided to the driver;
recognizing the movement of the driver;
In order to know the information, or when the driver performs a predetermined action to be performed based on the information, a response action that the information provision support device has performed in response to the predetermined action is performed. , performed by the information provision support device after the information is acquired and before the driver performs the predetermined action;
Information provision support method.
請求項1に記載の情報提供支援方法であって、
前記運転者が前記所定動作を行ったときに、前記情報提供支援装置によって前記応答動作を実行し、
前記情報提供支援装置が実行した前記応答動作を前記運転者が認識したか否かを判定し、
前記情報提供支援装置が実行した前記応答動作を前記運転者が認識した回数を計数し、
前記回数が所定の閾値以上であるときに、前記運転者が前記所定動作を行う前に、前記情報提供支援装置によって前記応答動作を実行する、
情報提供支援方法。
The information provision support method according to claim 1,
when the driver performs the predetermined action, the information provision support device executes the response action;
determining whether the driver has recognized the response action executed by the information provision support device;
counting the number of times the driver recognizes the response action executed by the information provision support device;
When the number of times is equal to or greater than a predetermined threshold, the response action is performed by the information provision support device before the driver performs the predetermined action.
Information provision support method.
請求項1または2に記載の情報提供支援方法であって、
前記情報提供支援装置による前記応答動作の実行後に、前記運転者が前記所定動作を行ったときに、前記情報提供支援装置によって、肯定的情動を表現する動作である第1エモーションを実行する、
情報提供支援方法。
The information provision support method according to claim 1 or 2,
After execution of the response action by the information provision support device, when the driver performs the predetermined action, the information provision support device executes a first emotion that is a motion expressing a positive emotion;
Information provision support method.
請求項3に記載の情報提供支援方法であって、
前記情報提供支援装置は、マスコットによって前記応答動作を実行し、
前記第1エモーションは、前記マスコットの表情、色、音もしくは音声、または、動作によって表現される、
情報提供支援方法。
The information provision support method according to claim 3,
The information provision support device executes the response operation by means of a mascot,
The first emotion is expressed by the facial expression, color, sound or voice, or action of the mascot,
Information provision support method.
請求項1~3のいずれか1項に記載の情報提供支援方法であって、
前記情報の重要度を判定し、
前記情報提供支援装置による前記応答動作の実行後に、前記運転者が前記所定動作を行わないときに、前記重要度に応じて前記情報提供支援装置の動作を変更する、
情報提供支援方法。
The information provision support method according to any one of claims 1 to 3,
determining the importance of the information;
changing the operation of the information provision support device according to the degree of importance when the driver does not perform the predetermined action after execution of the response action by the information provision support device;
Information provision support method.
請求項5に記載の情報提供支援方法であって、
前記重要度が高いと判定したときに、前記情報提供支援装置によって、強調した前記応答動作を実行する、
情報提供支援方法。
The information provision support method according to claim 5,
When the importance is determined to be high, the information provision support device executes the emphasized response action;
Information provision support method.
請求項5に記載の情報提供支援方法であって、
前記重要度が低いと判定したときに、前記情報提供支援装置によって、否定的情動を表現する動作である第2エモーションを実行する、
情報提供支援方法。
The information provision support method according to claim 5,
When the importance is determined to be low, the information provision support device executes a second emotion, which is an action expressing a negative emotion.
Information provision support method.
請求項7に記載の情報提供支援方法であって、
前記情報提供支援装置は、マスコットによって前記応答動作を実行し、
前記第2エモーションは、前記マスコットの表情、色、音もしくは音声、または、動作によって表現される、
情報提供支援方法。
The information provision support method according to claim 7,
The information provision support device executes the response operation by means of a mascot,
The second emotion is expressed by the facial expression, color, sound or voice, or action of the mascot,
Information provision support method.
請求項5~8のいずれか1項に記載の情報提供支援方法であって、
前記情報が前記車両の運転操作に関わる情報であるときに前記重要度が高いと判定され、前記情報が前記車両の運転操作に関わる情報以外の情報であるときに前記重要度が低いと判定される、
情報提供支援方法。
The information provision support method according to any one of claims 5 to 8,
The importance is determined to be high when the information is information related to the driving operation of the vehicle, and the importance is determined to be low when the information is information other than the information related to the driving operation of the vehicle. Ru
Information provision support method.
運転者に対する車両からの情報提供を支援する情報提供支援装置であって、
前記運転者に提供すべき情報を前記車両から取得する情報取得部と、
前記運転者の動作を認識する運転者動作認識部と、
前記情報を知得するために、または、前記情報に基づいて、前記運転者が行うべき所定動作を行ったときに、前記所定動作に応じて実行したことがある応答動作を、前記情報の取得後、前記運転者が前記所定動作を行う前に実行する、
情報提供支援装置。
An information provision support device for supporting information provision from a vehicle to a driver,
an information acquisition unit that acquires information to be provided to the driver from the vehicle;
a driver action recognition unit that recognizes the action of the driver;
In order to know the information, or when the driver performs a predetermined action to be performed based on the information, the response action that has been performed in response to the predetermined action is performed after obtaining the information. , executed before the driver performs the predetermined action;
Information provision support device.
運転者に対する車両からの情報提供を支援する情報提供支援装置を動作させる情報提供支援プログラムであって、
前記情報提供支援装置に、前記運転者に提供すべき情報を前記車両から取得させ、
前記情報提供支援装置に、前記運転者の動作を認識させ、
前記情報を知得するために、または、前記情報に基づいて、前記運転者が行うべき所定動作を行ったときに、前記所定動作に応じて前記情報提供支援装置に実行させたことがある応答動作を、前記情報の取得後、前記運転者が前記所定動作を行う前に前記情報提供支援装置に実行させる、
情報提供支援プログラム。
An information provision support program for operating an information provision support device for supporting information provision from a vehicle to a driver,
causing the information provision support device to acquire information to be provided to the driver from the vehicle;
causing the information provision support device to recognize the operation of the driver;
A response action that has been executed by the information providing support device in response to the predetermined action performed by the driver in order to obtain the information or based on the information. is executed by the information provision support device after the information is acquired and before the driver performs the predetermined action.
Informational support program.
車両と、運転者に対する前記車両からの情報提供を支援する情報提供支援装置と、を備え、前記情報提供支援装置を用いて前記運転者に情報提供をする情報提供システムであって、
前記情報提供支援装置が、前記運転者に提供すべき情報を前記車両から取得し、
前記情報提供支援装置が、前記運転者の動作を認識し、
前記情報を取得するために、または、前記情報に基づいて、前記運転者が行うべき所定動作を行ったときに、前記所定動作に応じて前記情報提供支援装置が実行したことがある応答動作を、前記運転者が前記所定動作を行う前に実行する、
情報提供システム。
An information providing system that includes a vehicle and an information provision support device that supports information provision from the vehicle to a driver, and provides information to the driver using the information provision support device,
The information provision support device acquires information to be provided to the driver from the vehicle,
The information provision support device recognizes the operation of the driver,
In order to acquire the information, or when the driver performs a predetermined action to be performed based on the information, a response action that the information provision support device has performed in response to the predetermined action is performed. , executed before the driver performs the predetermined action;
information system.
JP2021199961A 2021-12-09 2021-12-09 Information provision support method, information provision support device, information provision support program and information provision system Pending JP2023085752A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021199961A JP2023085752A (en) 2021-12-09 2021-12-09 Information provision support method, information provision support device, information provision support program and information provision system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021199961A JP2023085752A (en) 2021-12-09 2021-12-09 Information provision support method, information provision support device, information provision support program and information provision system

Publications (1)

Publication Number Publication Date
JP2023085752A true JP2023085752A (en) 2023-06-21

Family

ID=86775873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021199961A Pending JP2023085752A (en) 2021-12-09 2021-12-09 Information provision support method, information provision support device, information provision support program and information provision system

Country Status (1)

Country Link
JP (1) JP2023085752A (en)

Similar Documents

Publication Publication Date Title
US10908677B2 (en) Vehicle system for providing driver feedback in response to an occupant&#39;s emotion
JP7329755B2 (en) Support method and support system and support device using the same
US11042766B2 (en) Artificial intelligence apparatus and method for determining inattention of driver
US10466800B2 (en) Vehicle information processing device
JP6353383B2 (en) Driver support system control method
KR20180090644A (en) Device and mehtod for interaction between driver and vehicle
KR20160072621A (en) Artificial intelligence robot service system
KR102625398B1 (en) Vehicle and control method for the same
JP6702832B2 (en) Simulated driving device and simulated driving method
JP2010009484A (en) Onboard equipment control device and onboard equipment control method
GB2578766A (en) Apparatus and method for controlling vehicle system operation
JP6419134B2 (en) Vehicle emotion display device, vehicle emotion display method, and vehicle emotion display program
JP2023085752A (en) Information provision support method, information provision support device, information provision support program and information provision system
JP2018120352A (en) Dependency estimation device
KR20210017357A (en) Robot and contolling method thereof
US20230404456A1 (en) Adjustment device, adjustment system, and adjustment method
CN114760417A (en) Image shooting method and device, electronic equipment and storage medium
JP7173811B2 (en) Occupant monitoring device, occupant monitoring method, and occupant monitoring program
JP2020130502A (en) Information processing device and information processing method
JP7108716B2 (en) Image display device, image display system and image display method
CN111783550B (en) Monitoring and adjusting method and system for emotion of driver
JP2023084966A (en) Method, device, program, and system for supporting information recording
CN116161050A (en) Control method and device of suspension type multifunctional vehicle-mounted interactive robot
WO2023156036A1 (en) A computer-implemented method for providing a function recommendation in a vehicle, a vehicle and a system for implementing the method
JP2023172303A (en) Vehicle control method and vehicle control device