JP2018083583A - Vehicle emotion display device, vehicle emotion display method and vehicle emotion display program - Google Patents

Vehicle emotion display device, vehicle emotion display method and vehicle emotion display program Download PDF

Info

Publication number
JP2018083583A
JP2018083583A JP2016229202A JP2016229202A JP2018083583A JP 2018083583 A JP2018083583 A JP 2018083583A JP 2016229202 A JP2016229202 A JP 2016229202A JP 2016229202 A JP2016229202 A JP 2016229202A JP 2018083583 A JP2018083583 A JP 2018083583A
Authority
JP
Japan
Prior art keywords
emotion
vehicle
image
basic
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016229202A
Other languages
Japanese (ja)
Other versions
JP6419134B2 (en
Inventor
智子 新谷
Tomoko Shinya
智子 新谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016229202A priority Critical patent/JP6419134B2/en
Publication of JP2018083583A publication Critical patent/JP2018083583A/en
Application granted granted Critical
Publication of JP6419134B2 publication Critical patent/JP6419134B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle emotion display device by which a vehicle emotion can be easily and correctly recognized by even an operator who is concentrating on driving.SOLUTION: A vehicle emotion display device 1 comprises: a vehicle state detection part 2 which detects a vehicle state; a vehicle emotion generation part 12 which generates a vehicle emotion according to the detected vehicle state; an image generation part 14 which generates an image signal of a vehicle emotion image including an emotion image of a vehicle corresponding to the generated vehicle emotion and a background image which becomes a background thereof; and a monitor 6 which displays a vehicle emotion image based on the generated image signal. A vehicle emotion includes a basic emotion and a practical emotion. The image generation part 14 generates the image signal of the background image corresponding to the basic emotion by a first hue corresponding to the basic emotion, and on the other hand, generates the image signal of the background image corresponding to the practical emotion by combining the first hue and a second hue.SELECTED DRAWING: Figure 1

Description

本発明は、車両が有すると想定される仮想の感情を表示する車両感情表示装置、車両感情表示方法および車両感情表示プログラムに関する。   The present invention relates to a vehicle emotion display device, a vehicle emotion display method, and a vehicle emotion display program that display virtual emotions assumed to be possessed by a vehicle.

この種の装置として、従来、車両の操作情報と挙動情報とに基づいて、車両が人格を有すると仮定したときの車両の仮想の感情を生成し、この車両感情を所定のキャラクタの表情により表示するようにした装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、キャラクタの表情と連動させて、キャラクタの背景色を変化させる。   As this type of device, conventionally, based on vehicle operation information and behavior information, a virtual emotion of the vehicle when it is assumed that the vehicle has a personality is generated, and this vehicle emotion is displayed by the expression of a predetermined character An apparatus configured to do this is known (see, for example, Patent Document 1). In the device described in Patent Literature 1, the background color of the character is changed in conjunction with the facial expression of the character.

特開2003−72488号公報JP 2003-72488 A

しかしながら、上記特許文献1記載の装置では、キャラクタの背景が単色で表示されるため、いくつかの異なる車両感情は互いに同一の色彩で表示される。したがって、乗員が車両感情を正しく認識するためには、背景色と同時にキャラクタの表情を目視で認識する必要があり、運転に集中している乗員(運転者)にとって、車両感情を正しく認識することが困難な場合がある。   However, since the background of the character is displayed in a single color in the device described in Patent Document 1, several different vehicle emotions are displayed in the same color. Therefore, in order for the occupant to correctly recognize the vehicle emotion, it is necessary to visually recognize the expression of the character as well as the background color, and for the occupant (driver) who is concentrating on driving, to correctly recognize the vehicle emotion. May be difficult.

本発明の一態様は、擬人化した車両が有すると想定される車両感情を表示する車両感情表示装置であって、車両状態を検出する車両状態検出部と、車両状態検出部により検出された車両状態に応じて車両感情を生成する車両感情生成部と、車両感情生成部により生成された車両感情に対応する車両の表情画像と、表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成する画像生成部と、画像生成部により生成された画像信号に基づき車両感情画像を表示する表示部と、を備える。車両感情は、基本感情と、基本感情から派生した応用感情とを含み、画像生成部は、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成する一方、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成する。   One aspect of the present invention is a vehicle emotion display device that displays vehicle emotions assumed to be possessed by an anthropomorphic vehicle, the vehicle state detection unit detecting a vehicle state, and the vehicle detected by the vehicle state detection unit An image of a vehicle emotion image including a vehicle emotion generation unit that generates a vehicle emotion according to a state, a vehicle facial expression image corresponding to the vehicle emotion generated by the vehicle emotion generation unit, and a background image as a background of the facial expression image An image generation unit that generates a signal, and a display unit that displays a vehicle emotion image based on the image signal generated by the image generation unit. The vehicle emotion includes a basic emotion and an applied emotion derived from the basic emotion, and the image generation unit generates an image signal of a background image corresponding to the basic emotion with a first color corresponding to the basic emotion, An image signal of a background image corresponding to the applied emotion is generated by a combination of the first color and the second color.

本発明の他の態様は、擬人化した車両が有すると想定される車両感情を表示させる車両感情表示方法であって、車両状態を検出し、検出した車両状態に応じて、基本感情と、基本感情から派生した応用感情とを含む車両感情を生成し、生成した車両感情に対応する車両の表情画像と、表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成し、生成した画像信号に基づき車両感情画像を表示部に表示させる。車両感情画像を生成するときには、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成し、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成する。   Another aspect of the present invention is a vehicle emotion display method for displaying a vehicle emotion assumed to be possessed by an anthropomorphic vehicle, the vehicle state being detected, and the basic emotion and the basic being determined according to the detected vehicle state. Generates vehicle emotions that include applied emotions derived from emotions, generates and generates vehicle emotion image image signals that include vehicle facial expression images corresponding to the generated vehicle emotions and background images that are the background of facial expression images. The vehicle emotion image is displayed on the display unit based on the image signal. When generating a vehicle emotion image, an image signal of a background image corresponding to the basic emotion is generated from the first color corresponding to the basic emotion, and a background corresponding to the applied emotion is combined by combining the first color and the second color. An image signal of an image is generated.

本発明のさらなる他の態様である車両感情表示プログラムは、車両状態を特定する手順と、特定した車両状態に応じて、擬人化した車両が有すると想定される基本感情と該基本感情から派生した応用感情とを含む車両感情を生成する手順と、生成した車両感情に対応する車両の表情画像と、表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成する手順であって、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成する一方、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成する手順と、生成した画像信号に基づき車両感情画像を表示部に表示させる手順と、をコンピュータに実行させる。   A vehicle emotion display program according to still another aspect of the present invention is derived from a procedure for specifying a vehicle state, a basic emotion assumed to be possessed by an anthropomorphic vehicle, and the basic emotion according to the specified vehicle state. A procedure for generating a vehicle emotion including an applied emotion, a procedure for generating an image signal of a vehicle emotion image including a vehicle facial expression image corresponding to the generated vehicle emotion, and a background image as a background of the facial expression image. The image signal of the background image corresponding to the basic emotion is generated by the first color corresponding to the basic emotion, while the image signal of the background image corresponding to the applied emotion is generated by the combination of the first color and the second color. And a procedure for displaying a vehicle emotion image on the display unit based on the generated image signal.

本発明によれば、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成し、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成するので、運転に集中している運転者であっても、表示部の表示を一見するだけで、車両感情を容易かつ正しく認識することができる。   According to the present invention, the image signal of the background image corresponding to the basic emotion is generated by the first color corresponding to the basic emotion, and the background image corresponding to the applied emotion is combined by the combination of the first color and the second color. Since the image signal is generated, even a driver who is concentrating on driving can easily and correctly recognize the vehicle emotion by simply looking at the display on the display unit.

本発明の実施形態に係る車両感情表示装置の概略構成を示すブロック図。The block diagram which shows schematic structure of the vehicle emotion display apparatus which concerns on embodiment of this invention. 車両状態および乗員感情に対する車両の基本感情の対応関係を、車両感情画像の一例とともに示す図。The figure which shows the correspondence of the basic emotion of the vehicle with respect to a vehicle state and a passenger | crew feeling with an example of a vehicle emotion image. 図2の基本感情から派生した応用感情の一例を示す図。The figure which shows an example of the applied emotion derived from the basic emotion of FIG. 図3の応用感情の車両感情画像の一例を示す図。The figure which shows an example of the vehicle emotion image of the applied emotion of FIG. 応用感情に対応する応用背景画像の配色パターンの一例を示す図。The figure which shows an example of the color scheme of the applied background image corresponding to applied emotion. 図5Aとは異なる応用感情に対応する応用背景画像の配色パターンの一例を示す図。The figure which shows an example of the color scheme of the application background image corresponding to the application emotion different from FIG. 5A. 図1の制御装置のCPUで実行される処理の一例を示すフローチャート。The flowchart which shows an example of the process performed by CPU of the control apparatus of FIG. 図1の変形例を示す図。The figure which shows the modification of FIG. 図1の別の変形例を示す図。The figure which shows another modification of FIG.

以下、図1〜図8を参照して本発明の実施形態について説明する。図1は、本発明の実施形態に係る車両感情表示装置の概略構成を示すブロック図である。この車両感情表示装置1は、車両を擬人化したときに車両が有すると想定される車両感情を、車内の乗員に対して表示することが可能な装置であり、例えば車両に搭載されるナビゲーション装置をベースとして構成される。なお、以下では、擬人化された車両をエージェントと呼ぶことがある。   Hereinafter, embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a schematic configuration of a vehicle emotion display device according to an embodiment of the present invention. The vehicle emotion display device 1 is a device capable of displaying vehicle emotions assumed to be possessed by the vehicle when the vehicle is anthropomorphic to an occupant in the vehicle, for example, a navigation device mounted on the vehicle. Based on Hereinafter, an anthropomorphic vehicle may be referred to as an agent.

図1に示すように、車両感情表示装置1は、制御装置(ECU)10を有する。制御装置10には、車両状態検出部2と、操作検出部3と、カメラ4と、マイク5と、モニタ6と、スピーカ7と、通信ユニット8と、ナビゲーションユニット9とがそれぞれ接続される。   As shown in FIG. 1, the vehicle emotion display device 1 includes a control device (ECU) 10. Connected to the control device 10 are a vehicle state detection unit 2, an operation detection unit 3, a camera 4, a microphone 5, a monitor 6, a speaker 7, a communication unit 8, and a navigation unit 9.

車両状態検出部2は、車両に設けられて車両の走行状況や燃費状態等の車両状態を検出する各種センサを含む。例えば、車速を検出する車速センサ、車両の進行方向に対する角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、GPS衛星から測位信号を受信して車両の現在位置を測定するGPSセンサ、燃料タンク内の燃料の残量を検出する残燃料センサ、バッテリの残容量を検出する残容量センサ等、車両状態を検出する各種センサを含む。   The vehicle state detection unit 2 includes various sensors that are provided in the vehicle and detect a vehicle state such as a traveling state of the vehicle and a fuel consumption state. For example, a vehicle speed sensor that detects a vehicle speed, a gyro sensor that detects an angular velocity with respect to the traveling direction of the vehicle, an acceleration sensor that detects vehicle acceleration, a GPS sensor that receives a positioning signal from a GPS satellite and measures the current position of the vehicle, fuel Various sensors for detecting the vehicle state are included, such as a remaining fuel sensor for detecting the remaining amount of fuel in the tank and a remaining capacity sensor for detecting the remaining capacity of the battery.

車両状態検出部2は、CAN(Controller Area Network)やLIN(Local Interconnect Network)等の車載通信ネットワークを介して他のECUから取得した情報により、車両状態を検出することもできる。この場合の取得情報には、例えば、車両のエンジン始動情報、エアバッグやABS(Antilock Brake System)等の安全装置系の作動情報、ワイパや燈火類の作動情報等が含まれる。車両状態検出部2の信号は、後述するように車両感情を生成するために用いることができる。   The vehicle state detection unit 2 can also detect a vehicle state based on information acquired from another ECU via an in-vehicle communication network such as a CAN (Controller Area Network) or a LIN (Local Interconnect Network). The acquisition information in this case includes, for example, vehicle engine start information, operation information of safety devices such as airbags and ABS (Antilock Brake System), operation information of wipers and fires, and the like. The signal of the vehicle state detection unit 2 can be used to generate a vehicle emotion as will be described later.

操作検出部3は、乗員(運転者など)によって操作される操作部材の操作の有無および操作量を検出する。例えば、エアコンのオンオフスイッチや窓の開閉スイッチ等の各種スイッチの操作の有無を検出する。このような乗員の快適性に影響を与える操作部材の操作の検出信号は、後述するように乗員の感情(乗員感情)を推定するために用いることができる。なお、モニタをタッチパネルにより構成する場合、操作検出部3はタッチパネルの入力操作も検出する。   The operation detection unit 3 detects the presence / absence and operation amount of an operation member operated by an occupant (such as a driver). For example, it detects whether or not various switches such as an air conditioner on / off switch and a window open / close switch are operated. The detection signal of the operation of the operation member that affects the comfort of the occupant can be used to estimate the occupant's emotion (occupant emotion) as described later. When the monitor is configured by a touch panel, the operation detection unit 3 also detects an input operation on the touch panel.

操作検出部3は、乗員によって操作されるステアリング、アクセルペダル、ブレーキペダル等の操作部材の操作量を検出するセンサを含む。これら操作部材の操作に応じて車両状態が変化するため、操作検出部3により車両状態を間接的に検出することができる。すなわち、車両状態検出部2は、操作検出部3からの信号により車両状態を検出することもできる。このため、操作検出部3の信号は、後述するように車両感情を生成するために用いることもできる。   The operation detection unit 3 includes a sensor that detects an operation amount of an operation member such as a steering, an accelerator pedal, and a brake pedal operated by an occupant. Since the vehicle state changes according to the operation of these operation members, the operation detection unit 3 can indirectly detect the vehicle state. That is, the vehicle state detection unit 2 can also detect the vehicle state based on a signal from the operation detection unit 3. For this reason, the signal of the operation detection part 3 can also be used in order to produce | generate a vehicle emotion so that it may mention later.

カメラ4は、CCDセンサやCMOSセンサ等の撮像素子を有し、乗員の顔を含む上半身を撮像する。すなわち、カメラ4は、乗員の表情や姿勢を撮像する。カメラ4からの画像信号は、後述するように乗員感情を推定するために用いることができる。   The camera 4 has an image sensor such as a CCD sensor or a CMOS sensor, and images the upper body including the occupant's face. That is, the camera 4 images the passenger's facial expression and posture. The image signal from the camera 4 can be used to estimate the occupant emotion as will be described later.

マイク5は、乗員の発話した音声を取得する。マイク5からの音声信号は、例えばA/D変換器を介し音声データとして制御装置10に入力される。マイク5からの音声信号は、後述するように乗員感情を推定するために用いることができる。   The microphone 5 acquires the voice spoken by the occupant. The audio signal from the microphone 5 is input to the control device 10 as audio data via an A / D converter, for example. The audio signal from the microphone 5 can be used to estimate the occupant emotion as will be described later.

モニタ6は、例えば液晶パネルにより構成される。液晶パネル上にタッチパネルを設けることもできる。モニタ6は、目的地設定に関する情報、目的地までの経路案内情報、および経路上の現在位置情報等を表示する。さらに、モニタ6は、後述するように車両感情を表示することもできる。   The monitor 6 is constituted by a liquid crystal panel, for example. A touch panel can be provided on the liquid crystal panel. The monitor 6 displays information related to destination setting, route guidance information to the destination, current position information on the route, and the like. Furthermore, the monitor 6 can also display vehicle emotions as will be described later.

スピーカ7は、車載オーディオユニットの一部であり、乗員の操作指令により音声出力の要求があったとき、あるいはマイク5を介して乗員から音声出力の要求があったとき、その要求に応答して乗員に音声を出力する。スピーカ7は、乗員からの音声出力の要求がなくても、制御装置10からの指令により自動的に音声を出力することもできる。スピーカ7は、車両感情に応じた音声を出力することができる。   The speaker 7 is a part of the in-vehicle audio unit. When a voice output is requested by an occupant's operation command or when a voice output is requested from the occupant via the microphone 5, the speaker 7 responds to the request. Output sound to the passenger. The speaker 7 can also automatically output a sound in response to a command from the control device 10 without a request for sound output from the occupant. The speaker 7 can output a sound corresponding to the vehicle emotion.

通信ユニット8は、地上に設定された電話網やインターネット回線等の無線公衆回線との間で通信を行うものであり、通信ユニット8を介して制御装置10が車両の外部機器と通信することができる。通信ユニット8は、車内に存在するスマートフォン等の携帯端末との間で短距離無線通信を行うこともできる。   The communication unit 8 performs communication with a wireless public line such as a telephone network or an Internet line set on the ground, and the control device 10 can communicate with an external device of the vehicle via the communication unit 8. it can. The communication unit 8 can also perform short-range wireless communication with a mobile terminal such as a smartphone present in the vehicle.

ナビゲーションユニット9は、乗員の要求に応じて、車両の現在地や目的地を検索し、現在地から目的地までの経路誘導や経路検索を行う、いわゆるナビゲーションシステムを搭載したユニットである。ナビゲーションユニット9は、ナビゲーション情報に関する画像信号および音声信号を生成し、これらをモニタ6およびスピーカ7に出力することができる。   The navigation unit 9 is a unit equipped with a so-called navigation system that searches for the current location and destination of a vehicle in response to a passenger's request, and performs route guidance and route search from the current location to the destination. The navigation unit 9 can generate an image signal and an audio signal related to navigation information and output them to the monitor 6 and the speaker 7.

制御装置10は、CPU,ROM,RAMその他の周辺回路を有する演算処理装置を含むコンピュータにより構成される。制御装置10は、機能的構成として、記憶部11と、乗員感情推定部12と、車両感情生成部13と、画像生成部14と、画像出力部15とを有する。   The control device 10 is configured by a computer including an arithmetic processing unit having a CPU, ROM, RAM, and other peripheral circuits. The control device 10 includes a storage unit 11, an occupant emotion estimation unit 12, a vehicle emotion generation unit 13, an image generation unit 14, and an image output unit 15 as functional configurations.

記憶部11は、道路地図データや施設データなどを含む地図情報、マイク5から入力された音声を認識する音声認識処理を行うときに用いられる音声認識辞書、およびスピーカ7から出力する音声に対応する音声情報を記憶する。さらに記憶部11は、乗員感情を推定するために用いられるデータ(例えば乗員感情と乗員の表情や音声との対応関係)、車両感情を生成するために用いられるデータ(例えば車両感情と車両状態との対応関係)、および車両感情に応じてモニタに表示される車両感情画像を生成するために用いられるデータ(例えば車両感情と車両感情画像との対応関係)等を記憶する。   The storage unit 11 corresponds to map information including road map data and facility data, a voice recognition dictionary used when voice recognition processing for recognizing voice input from the microphone 5, and voice output from the speaker 7. Audio information is stored. The storage unit 11 further includes data used for estimating the occupant emotion (for example, the correspondence between the occupant emotion and the occupant's facial expression and voice), and data used for generating the vehicle emotion (for example, the vehicle emotion and the vehicle state). ), Data used for generating a vehicle emotion image displayed on the monitor in accordance with the vehicle emotion (for example, a correspondence relationship between the vehicle emotion and the vehicle emotion image), and the like are stored.

乗員感情推定部12は、カメラ4からの画像信号とマイク5からの音声信号とに基づいて乗員感情を推定する。すなわち、乗員の顔の表情と乗員の発した音声とに基づき、予め記憶部11に記憶された乗員感情と乗員の表情および音声との対応関係を用いて、乗員感情を推定する。   The occupant emotion estimation unit 12 estimates the occupant emotion based on the image signal from the camera 4 and the audio signal from the microphone 5. That is, based on the facial expression of the occupant and the voice uttered by the occupant, the occupant emotion is estimated using the correspondence relationship between the occupant emotion stored in the storage unit 11 in advance and the occupant's facial expression and voice.

具体的には、例えばPlutchikの感情の輪を用いて、乗員感情を8つの基本感情(期待、喜び、受容、不安、驚き、悲しみ、嫌悪、怒り)と、隣り合う2つの感情の組み合わせによる応用感情とに分類し、感情の輪のいずれかのパターンに当てはめることで乗員感情を推定する。なお、カメラ4からの画像信号とマイク5からの音声信号のいずれか一方に基づいて乗員感情を推定してもよい。操作検出部3により乗員感情に影響を及ぼす所定の操作(例えばエアコンのオンオフ操作や窓の開閉操作等)が検出されたか否かを判定し、その判定結果に基づいて乗員感情を推定してもよい。図示は省略するが、ウェアラブル端末を乗員に装着して乗員の脈拍、血圧、体温、血中酸素濃度等の生体情報を取得し、これら生体情報に応じて乗員感情を推定することもできる。   Specifically, for example, using the circle of emotions of Plutchik, the occupant emotions are applied by combining eight basic emotions (expectation, joy, acceptance, anxiety, surprise, sadness, disgust, anger) and two adjacent emotions. Categorized as emotions, and occupant emotions are estimated by applying them to one of the patterns of emotional circles. The occupant emotion may be estimated based on one of the image signal from the camera 4 and the audio signal from the microphone 5. Even if it is determined whether or not a predetermined operation (for example, an air conditioner on / off operation or a window opening / closing operation) affecting the occupant emotion is detected by the operation detection unit 3, and the occupant emotion is estimated based on the determination result Good. Although illustration is omitted, it is also possible to wear a wearable terminal to an occupant to acquire biological information such as the occupant's pulse, blood pressure, body temperature, blood oxygen concentration and the like, and to estimate the occupant emotion according to the biological information.

車両感情生成部13は、車両状態と乗員感情推定部12により推定された乗員感情とに基づき、予め記憶部11に記憶された所定の対応関係を用いて車両感情を生成する。図2は、この場合の対応関係を示す図である。図2の横軸の値は車両状態によって定まり、縦軸の値は乗員感情によって定まる。車両感情生成部13は、まず、車両状態を数値化した車両状態値αおよび乗員感情を数値化した乗員感情値βをそれぞれ算出する。   The vehicle emotion generation unit 13 generates a vehicle emotion using a predetermined correspondence stored in advance in the storage unit 11 based on the vehicle state and the occupant emotion estimated by the occupant emotion estimation unit 12. FIG. 2 is a diagram showing a correspondence relationship in this case. The value on the horizontal axis in FIG. 2 is determined by the vehicle state, and the value on the vertical axis is determined by the occupant emotion. The vehicle emotion generation unit 13 first calculates a vehicle state value α obtained by quantifying the vehicle state and an occupant emotion value β obtained by quantifying the occupant emotion.

車両状態値αの算出は例えば以下のように行う。車両状態値αは、車両に作用する負荷が小さい場合等、車両にとって好ましい状態(正の状態)をプラスの値で、車両にとって好ましくない状態(負の状態)をマイナスの値で表す。車両状態値αは、車両状態検出部2により検出されたデータを用いて算出され、車両を擬人化したエージェントが車両の耐久性や安全性等の点から好ましいと判断する運転が行われるときに、プラスの値として算出される。反対に、エージェントが苦痛と判断するような運転が行われるとき、車両状態値αはマイナスの値として算出される。   For example, the vehicle state value α is calculated as follows. The vehicle state value α represents a favorable state (positive state) for the vehicle by a positive value and a negative state (negative state) for the vehicle by a negative value, such as when the load acting on the vehicle is small. The vehicle state value α is calculated using the data detected by the vehicle state detection unit 2, and when an agent who anthropomorphizes the vehicle determines that it is preferable from the viewpoint of vehicle durability and safety, etc. , Calculated as a positive value. On the contrary, when the driving is performed such that the agent determines that the pain is suffering, the vehicle state value α is calculated as a negative value.

例えば加速度センサにより検出された車両の加速度や減速度をパラメータとし、加速度や減速度が所定値以上のとき、エージェントが苦痛に感じると思われるため、算出される車両状態値αはマイナスの値となる。反対に、加速度や減速度が所定値未満のとき、エージェントにとって苦痛は小さいと思われるため、算出される車両状態値αはプラスの値となる。この場合、加速度や減速度が小さいほど、算出される車両状態値αを大きくし、反対に加速度や減速度が大きいほど、算出される車両状態値αを小さく(車両状態値αがマイナスの場合はその絶対値を大きく)してもよい。   For example, if the acceleration or deceleration of the vehicle detected by the acceleration sensor is used as a parameter and the acceleration or deceleration is more than a predetermined value, the agent seems to be in pain, so the calculated vehicle state value α is a negative value. Become. On the other hand, when the acceleration or deceleration is less than a predetermined value, since it seems that the pain is small for the agent, the calculated vehicle state value α is a positive value. In this case, the smaller the acceleration or deceleration, the larger the calculated vehicle state value α, and conversely, the larger the acceleration or deceleration, the smaller the calculated vehicle state value α (when the vehicle state value α is negative). May increase its absolute value).

なお、車両状態検出部2により検出されたデータとともに、あるいは車両状態検出部2により検出されたデータの代わりに、操作検出部3により検出されたデータを用いて車両状態値αを算出することもできる。例えば、アクセルペダルやブレーキペダルの踏み込み速度をパラメータとし、これが所定値以下のとき、車両状態値αがプラスであるとしてもよい。またはステアリングハンドルの操作速度をパラメータとし、これが所定値以下のとき車両状態値αがプラスであるとしてもよい。この場合も、アクセルペダルやブレーキペダルの踏み込み速度が遅いほど、あるいはステアリングハンドルの操作速度が遅いほど、算出される車両状態値αを大きくし、反対にこれらの速度が遅いほど、算出される車両状態値αを小さく(車両状態値αがマイナスの場合はその絶対値を大きく)してもよい。   The vehicle state value α may be calculated using the data detected by the operation detection unit 3 together with the data detected by the vehicle state detection unit 2 or instead of the data detected by the vehicle state detection unit 2. it can. For example, the depression speed of an accelerator pedal or a brake pedal may be used as a parameter, and the vehicle state value α may be positive when this is below a predetermined value. Alternatively, the operation speed of the steering wheel may be used as a parameter, and the vehicle state value α may be positive when this is below a predetermined value. In this case as well, the slower the accelerator pedal or brake pedal depressing speed, or the slower the steering wheel operating speed, the larger the calculated vehicle state value α. Conversely, the slower the speed, the calculated vehicle The state value α may be decreased (when the vehicle state value α is negative, the absolute value is increased).

車両状態値αは、燃料の残量や、バッテリの残容量等によっても影響を受ける。すなわち、残燃料や残容量が多いほど、エージェントは車両状態が好ましいと判断する。そこで、例えば残燃料センサにより検出された燃料の残量や、残容量センサによって検出されたバッテリの残容量をパラメータとし、残燃料や残容量が所定値以上のとき、車両状態値αをプラスとしてもよい。GPSセンサからの信号に基づいて車両の走行履歴を記憶部に記憶し、記憶された走行履歴を参照しつつ車両の現在地または目的地から車両状態値αを算出してもよい。例えば車両がある地域内を初めて走行している場合、車両が高揚した状態にあるとして車両状態値αをプラスにする、あるいは車両が不安な状態にあるとして車両状態値αをマイナスとしてもよい。   The vehicle state value α is also affected by the remaining amount of fuel, the remaining battery capacity, and the like. That is, the agent determines that the vehicle state is preferable as the remaining fuel and the remaining capacity increase. Therefore, for example, the remaining amount of fuel detected by the remaining fuel sensor or the remaining capacity of the battery detected by the remaining capacity sensor is used as a parameter, and when the remaining fuel or remaining capacity is a predetermined value or more, the vehicle state value α is set as a plus. Also good. The vehicle traveling history may be stored in the storage unit based on the signal from the GPS sensor, and the vehicle state value α may be calculated from the current location or the destination of the vehicle with reference to the stored traveling history. For example, when the vehicle is traveling in a certain area for the first time, the vehicle state value α may be positive if the vehicle is in an elevated state, or the vehicle state value α may be negative if the vehicle is in an uneasy state.

以上の車両状態値αを算出する複数のパラメータを総合的に勘案して、車両状態値αを算出してもよい。例えば、車両の加速度、減速度、残燃料等のパラメータを用いて算出されたそれぞれの車両状態値αに、車両状態値αがプラスであるときは+1、マイナスであるときは−1等のポイントを付与し、これらポイントの合計により全体の車両状態値αを算出してもよい。検出された車両の加速度、減速度、残燃料等の大きさに応じて+1より大きい、あるいは−1より小さいポイントを付与するようにしてもよい。   The vehicle state value α may be calculated by comprehensively considering the plurality of parameters for calculating the vehicle state value α. For example, each vehicle state value α calculated using parameters such as vehicle acceleration, deceleration, remaining fuel, and the like is +1 when the vehicle state value α is positive, and −1 when the vehicle state value α is negative. And the overall vehicle state value α may be calculated from the sum of these points. A point larger than +1 or smaller than −1 may be given according to the detected acceleration, deceleration, remaining fuel and the like of the vehicle.

乗員感情値βの算出は例えば以下のように行う。乗員感情値βは、上述したようにPlutchikの感情の輪等を用いて類型化された乗員感情のうち、例えば喜びなどの好ましい感情(正の感情)をプラスの値で、悲しみなどの好ましからぬ感情(負の感情)をマイナスの値で表す。この場合、例えばそれぞれの感情が強いほど(感情の輪の内側に行くほど)、乗員感情値βの絶対値を大きくする。   The occupant emotion value β is calculated as follows, for example. The occupant emotion value β is a positive value of positive emotions such as joy among the occupant emotions categorized using Plutchik's emotional ring as described above, and is unfavorable such as sadness. Emotions (negative emotions) are expressed as negative values. In this case, the absolute value of the occupant emotion value β is increased as, for example, each emotion is stronger (as it goes inside the emotion circle).

図2に示すように、車両感情は、車両状態値αと乗員感情値βとに応じて4つの基本感情に分類することができる。車両感情生成部13は、算出された車両状態値αと乗員感情値βとに基づき、図2の対応関係を用いて、まず基本感情としての車両感情を生成する。すなわち、車両状態値αがプラスかつ乗員感情値βがプラスのとき、「好き」の車両感情を生成し、車両状態値αがプラスかつ乗員感情値βがマイナスのとき、「平穏」の車両感情を生成し、車両状態値αがマイナスかつ乗員感情値βがプラスのとき、「嫌い」の車両感情を生成し、車両状態値αがマイナスかつ乗員感情値βがマイナスのとき、「耐える」の車両感情を生成する。車両感情が「好き」「平穏」「嫌い」「耐える」と変化するに従い、車両感情が徐々に悪化する。   As shown in FIG. 2, the vehicle emotions can be classified into four basic emotions according to the vehicle state value α and the occupant emotion value β. Based on the calculated vehicle state value α and occupant emotion value β, the vehicle emotion generation unit 13 first generates a vehicle emotion as a basic emotion using the correspondence relationship of FIG. That is, when the vehicle state value α is positive and the occupant emotion value β is positive, a “like” vehicle emotion is generated, and when the vehicle state value α is positive and the occupant emotion value β is negative, the vehicle emotion of “tranquility” is generated. When the vehicle state value α is negative and the occupant emotion value β is positive, a “dislike” vehicle emotion is generated, and when the vehicle state value α is negative and the occupant emotion value β is negative, Generate vehicle emotions. As the vehicle emotion changes to “Like”, “Peace”, “Hate”, “Endurance”, the vehicle emotion gradually deteriorates.

車両感情は、上記4つの基本感情に加え、各基本感情から派生した応用感情を含む。図3は、応用感情の一例を示す図である。図3に示すように、「好き」の基本感情から「愛しい」と「楽しい」の応用感情が派生し、「平穏」の基本感情から「機嫌がいい」と「安心」の応用感情が派生し、「嫌い」の基本感情から「悲しい」と「怒り」の応用感情が派生し、「耐える」の基本感情から「苦しい」と「辛い」の応用感情が派生する。   In addition to the above four basic emotions, the vehicle emotion includes applied emotions derived from each basic emotion. FIG. 3 is a diagram illustrating an example of applied emotion. As shown in Fig. 3, the applied emotions of “love” and “fun” are derived from the basic emotion of “like”, and the applied emotions of “feel good” and “safe” are derived from the basic emotion of “peace”. , "Sad" and "anger" applied emotions are derived from the basic emotion of "dislike", and "stressed" and "spicy" applied emotions are derived from the basic emotion of "tolerate".

車両感情生成部13は、基本感情を生成する際に算出した車両状態値αと乗員感情値βとに応じて、あるいは車両状態値αと乗員感情値βのいずれか一方の値に応じて、基本感情とは別に応用感情を生成する。すなわち、車両状態値αと乗員感情値βのプラスマイナスの符号だけでなく、それらの値の大きさを考慮して応用感情を生成する。具体的には、車両感情生成部13は、車両状態値αや乗員感情値βの大きさ(絶対値)が所定値以上になると、各基本感情から派生したいずれかの応用感情を生成する。   The vehicle emotion generation unit 13 according to the vehicle state value α and the occupant emotion value β calculated when generating the basic emotion, or according to one of the vehicle state value α and the occupant emotion value β, Generate applied emotions separately from basic emotions. That is, the applied emotion is generated in consideration of not only the plus / minus sign of the vehicle state value α and the occupant emotion value β but also the magnitude of those values. Specifically, when the magnitude (absolute value) of the vehicle state value α and the occupant emotion value β exceeds a predetermined value, the vehicle emotion generation unit 13 generates any applied emotion derived from each basic emotion.

これにより、例えば車両状態値αがプラスかつ乗員感情値βがプラスである図2の第1象限には、「好き」「愛しい」「楽しい」の3つの車両感情が含まれ、全体で12個の車両感情(4個の基本感情と8個の応用感情)に分類することができる。なお、基本感情を細分化したものが応用感情であるとして、応用感情を生成するためだけに基本感情を生成するようにしてもよい。この場合、全体で8個の車両感情(応用感情)に分類することができる。   Thus, for example, in the first quadrant of FIG. 2 in which the vehicle state value α is positive and the occupant emotion value β is positive, three vehicle emotions of “like”, “love”, and “fun” are included, 12 in total. Vehicle emotions (4 basic emotions and 8 applied emotions). Note that it is also possible to generate basic emotions only for generating applied emotions, assuming that applied emotions are subdivided basic emotions. In this case, it can be classified into 8 vehicle emotions (applied emotions) as a whole.

図1に示すように、画像生成部14は、表情画像生成部14Aと背景画像生成部14Bとを有する。表情画像生成部14Aは、記憶部11に記憶された車両感情と車両感情画像との対応関係を用いて、車両感情生成部13により生成された車両感情に対応する車両(エージェント)の表情画像の画像信号を生成する。背景画像生成部14Bは、記憶部11に記憶された車両感情と車両感情画像との対応関係を用いて、表情画像の背景となる背景画像の画像信号を生成する。   As shown in FIG. 1, the image generation unit 14 includes a facial expression image generation unit 14A and a background image generation unit 14B. The facial expression image generation unit 14A uses the correspondence relationship between the vehicle emotion and the vehicle emotion image stored in the storage unit 11, and the facial expression image of the vehicle (agent) corresponding to the vehicle emotion generated by the vehicle emotion generation unit 13 is used. An image signal is generated. The background image generation unit 14B generates an image signal of a background image serving as a background of the expression image using the correspondence relationship between the vehicle emotion and the vehicle emotion image stored in the storage unit 11.

図2は、基本感情の分類とともに、各基本感情に対応する車両感情画像21〜24の一例を示す。車両感情画像21〜24は、エージェントが人と同様の顔を有するものと仮定して、エージェントの顔を模式的に表したものである。すなわち、図2に示すように、基本表情の画像(基本表情画像21a〜24a)は、エージェントの目を模式化した目画像G1a〜G4aと、眉毛を模式化した眉画像G1b〜G4bとを含む。各基本表情画像21a〜24aは、エージェントの基本感情をイメージ化した所定の形態で表示される。すなわち、乗員が基本表情画像21a〜24aから車両状態を直感的に認識できるように、基本感情に応じて画像表示される目と眉毛の形状が定められ、各基本表情画像21a〜24aは互いに別々の形態を有する。なお、目画像G1a〜G4aおよび眉画像G1b〜G4bは所定の色で表示される。   FIG. 2 shows an example of the vehicle emotion images 21 to 24 corresponding to each basic emotion together with the basic emotion classification. The vehicle emotion images 21 to 24 schematically represent the agent's face on the assumption that the agent has a face similar to a person. That is, as shown in FIG. 2, basic facial expression images (basic facial expression images 21 a to 24 a) include eye images G <b> 1 a to G <b> 4 a that model the eyes of the agent and eyebrow images G <b> 1 b to G <b> 4 b that model the eyebrows. . Each of the basic facial expression images 21a to 24a is displayed in a predetermined form that visualizes the basic emotion of the agent. That is, the shape of the eyes and eyebrows displayed according to the basic emotion is determined so that the occupant can intuitively recognize the vehicle state from the basic facial expression images 21a to 24a, and the basic facial expression images 21a to 24a are separated from each other. It has the form. The eye images G1a to G4a and the eyebrow images G1b to G4b are displayed in a predetermined color.

図4は、各基本感情から派生した応用感情に対応する車両感情画像31〜38の一例を示す図である。図4に示すように、応用表情の画像(応用表情画像31a〜38a)は、図2の基本表情画像21a〜24aをベースとし、これにエージェントの表情を補う、あるいは強調する所定のアクセント画像G1c〜G8cを付加して構成される。すなわち、応用表情画像31a〜38aは、基本表情画像21a〜24aと同一の目画像G1a〜G4aおよび眉画像G1b〜G4bと、基本表情画像21a〜24aにはないアクセント画像G1c〜G8cとを含む。   FIG. 4 is a diagram illustrating an example of vehicle emotion images 31 to 38 corresponding to applied emotions derived from each basic emotion. As shown in FIG. 4, the applied facial expression images (applied facial expression images 31a to 38a) are based on the basic facial expression images 21a to 24a shown in FIG. 2, and a predetermined accent image G1c that supplements or emphasizes the facial expression of the agent. To G8c. That is, the applied facial expression images 31a to 38a include eye images G1a to G4a and eyebrow images G1b to G4b that are the same as the basic facial expression images 21a to 24a, and accent images G1c to G8c that are not present in the basic facial expression images 21a to 24a.

アクセント画像G1c〜G8cは、ハート型や星型等のマーク状の模様によって表され、このアクセント画像G1c〜G8cが基本表情画像21a〜24a上の所定位置(例えば目画像G1a〜G4aの斜め下等)に配置されて、応用表情画像31a〜38aが生成される。アクセント画像G1c〜G8cは、乗員が応用表情画像31a〜38aから車両状態を直感的に認識できるように、形状および配置が定められる。アクセント画像G1c〜G8cを用いることで、各応用表情画像31a〜38aは、エージェントの応用感情のイメージを表す所定の形態で表示される。なお、図4では、応用感情毎に別々のアクセント画像G1c〜G8cを用いているが、全体の表情画像が互いに異なるのであれば、同一のアクセント画像を用いてもよい。アクセント画像G1c〜G8cは目画像G1a〜G4aおよび眉画像G1b〜G4bと同一または異なる所定の色で表示される。   The accent images G1c to G8c are represented by a mark-like pattern such as a heart shape or a star shape, and the accent images G1c to G8c are located at predetermined positions on the basic facial expression images 21a to 24a (for example, obliquely below the eye images G1a to G4a). ), Applied facial expression images 31a to 38a are generated. The accent images G1c to G8c are determined in shape and arrangement so that the occupant can intuitively recognize the vehicle state from the applied facial expression images 31a to 38a. By using the accent images G1c to G8c, the applied facial expression images 31a to 38a are displayed in a predetermined form representing an image of the agent's applied emotion. In FIG. 4, separate accent images G1c to G8c are used for each applied emotion, but the same accent image may be used as long as the overall facial expression images are different from each other. The accent images G1c to G8c are displayed in a predetermined color that is the same as or different from the eye images G1a to G4a and the eyebrow images G1b to G4b.

基本表情画像21a〜24aおよび応用表情画像31a〜38aは、所定の色彩を有する背景画像21b〜24b,31b〜38bとともに表示される。すなわち、図2に示す基本感情に対応する4つの車両感情画像21〜24、および図4に示す応用感情に対応する8つの車両感情画像31〜38は、それぞれ互いに異なる背景画像21b〜24b,31b〜38bを含む。このうち、基本感情に対応する背景画像(基本背景画像21b〜24b)は、基本表情画像21a〜24aとは異なる色の単一の色彩によって生成され、基本背景画像21b〜24bは全体がムラなく単色で表示される。   Basic facial expression images 21a to 24a and applied facial expression images 31a to 38a are displayed together with background images 21b to 24b and 31b to 38b having predetermined colors. That is, the four vehicle emotion images 21 to 24 corresponding to the basic emotion shown in FIG. 2 and the eight vehicle emotion images 31 to 38 corresponding to the applied emotion shown in FIG. 4 are respectively different background images 21b to 24b and 31b. ~ 38b included. Among these, the background images (basic background images 21b to 24b) corresponding to the basic emotion are generated by a single color different from the basic facial expression images 21a to 24a, and the basic background images 21b to 24b are entirely uniform. Displayed in a single color.

例えば、「好き」の車両感情に対応する基本背景画像21bは暖色系(橙色など)の画像により生成され、「平穏」の車両感情に対応する基本背景画像22bは暖色系または中性系(緑色など)の画像により生成され、「嫌い」の車両感情に対応する基本背景画像23bは中性系または寒色系(紫色など)の画像により生成され、「耐える」の車両感情に対応する基本背景画像24bは中性系または寒色系(灰色など)の画像により生成される。すなわち、車両感情が悪化するに従い、暖色系から中性系または寒色系の色へと基本背景画像21b〜24bの色彩が変化する。   For example, the basic background image 21b corresponding to the “like” vehicle emotion is generated by a warm-colored (e.g. orange) image, and the basic background image 22b corresponding to the “calm” vehicle emotion is warm-colored or neutral (green) The basic background image 23b corresponding to the vehicle emotion of “dislike” is generated from an image of a neutral system or a cold color system (such as purple), and the basic background image corresponding to the vehicle emotion of “tolerant” 24b is generated by a neutral or cold-colored (eg gray) image. That is, as the vehicle emotions deteriorate, the colors of the basic background images 21b to 24b change from warm colors to neutral or cold colors.

一方、応用感情に対応する背景画像(応用背景画像31b〜38b)は、各応用背景画像31b〜38bに対応する基本背景画像21b〜24bで用いられる色彩(第1の色彩)と、応用表情画像31a〜38aの色彩とは異なる第2の色彩とを組み合わせた画像により生成される。このとき、第2の色彩は第1の色彩と同色系であるとより好ましい。例えば、「愛しい」の応用感情に対応する応用背景画像31bは、共に暖色系の橙色(第1の色彩)と赤色(第2の色彩)とを組み合わせた画像によって生成される。「楽しい」の応用感情に対応する応用背景画像32bは、共に暖色系の橙色(第1の色彩)と黄色(第2の色彩)とを組み合わせた画像によって生成される。   On the other hand, the background images (applied background images 31b to 38b) corresponding to the applied emotion are the colors (first colors) used in the basic background images 21b to 24b corresponding to the applied background images 31b to 38b, and the applied facial expression images. It is generated by an image obtained by combining a second color different from the colors 31a to 38a. At this time, the second color is more preferably the same color system as the first color. For example, the applied background image 31b corresponding to the “loved” applied emotion is generated by an image in which both warm orange (first color) and red (second color) are combined. The applied background image 32b corresponding to the applied emotion of “fun” is generated by an image that is a combination of both warm orange (first color) and yellow (second color).

なお、第2の色彩を第1の色彩と同色系の色とする代わりに、予め色彩が徐々に変化する所定数の色からなる配色パターンを設定し、この配色パターンの隣り合った色同士、すなわち互いに類似する色同士を、第1の色彩および第2の色彩に設定してもよい。   Instead of setting the second color to be the same color as the first color, a color arrangement pattern consisting of a predetermined number of colors whose colors gradually change is set in advance, and adjacent colors of this color arrangement pattern, That is, colors similar to each other may be set as the first color and the second color.

図5Aは、「愛しい」の応用感情に対応する応用背景画像31bの配色パターンの一例を示す図であり、図5Bは、「楽しい」の応用感情に対応する応用背景画像32bの配色パターンの一例を示す図である。図5A,図5Bに示すように、背景画像31b,32bは全体が矩形によって構成され、その対角線(境界線)AR0を境にして便宜上、全体を対角線の左上の領域AR1と対角線の右下の領域AR2とに区画する。   FIG. 5A is a diagram illustrating an example of a color scheme of the applied background image 31b corresponding to the “loved” applied emotion, and FIG. 5B is an example of a color scheme of the applied background image 32b corresponding to the “fun” applied emotion. FIG. As shown in FIGS. 5A and 5B, the background images 31b and 32b are entirely constituted by rectangles, and for the sake of convenience, the entire diagonal image (boundary line) AR0 is defined as the upper left area AR1 of the diagonal line and the lower right of the diagonal line. It is partitioned into an area AR2.

このとき、図5Aにおいては、領域AR1が主に第2の色彩(赤色)で表示され、領域AR2が主に第1の色彩(橙色)で表示される。さらに、各領域AR1,AR2の境界線AR0の近傍領域(例えば境界線AR0から所定範囲内の境界部AR3)は、赤色から橙色へと徐々に色が変化するようにグラデーション表示される。すなわち、画像31bの左上から右下にかけて赤色から橙色へと徐々に色彩が変化するように表示される。   At this time, in FIG. 5A, the area AR1 is mainly displayed in the second color (red), and the area AR2 is mainly displayed in the first color (orange). Further, the area near the boundary line AR0 of each of the areas AR1 and AR2 (for example, the boundary part AR3 within the predetermined range from the boundary line AR0) is displayed in gradation so that the color gradually changes from red to orange. That is, the image 31b is displayed so that the color gradually changes from red to orange from the upper left to the lower right.

図5Bにおいては、領域AR1が主に第1の色彩(橙色)で表示され、領域AR2が主に第2の色彩(黄色)で表示される。さらに、各領域AR1,AR2の境界線AR0の近傍領域(境界部AR3)は、橙色から黄色へと徐々に色が変化するようにグラデーション表示される。すなわち、画像32bの左上から右下にかけて橙色から黄色へと徐々に色彩が変化するように表示される。   In FIG. 5B, the area AR1 is mainly displayed in the first color (orange), and the area AR2 is mainly displayed in the second color (yellow). Further, the vicinity area (boundary area AR3) of the boundary line AR0 between the areas AR1 and AR2 is displayed in gradation so that the color gradually changes from orange to yellow. That is, the image 32b is displayed so that the color gradually changes from orange to yellow from the upper left to the lower right.

このように、連続する応用車両感情「愛しい」「楽しい」のうち、一方の応用感情「愛しい」に対応した応用背景画像31bの領域AR2と、他方の応用感情「楽しい」に対応した応用背景画像32bの領域とを、同一の色(例えば橙色)で表示することにより、応用感情が例えば「愛しい」から「楽しい」へと変化した際に、背景色を連続的に変化させることができる。したがって、乗員は車両感情の変化を連続的なものとして捉えることができ、車両感情の変化を把握しやすい。なお、図示は省略するが、連続する他の応用車両感情に対応する応用背景画像同士においても、一方の応用背景画像の第1領域の色彩と他方の応用背景画像の第2領域の色彩とが、同一の色に設定される。   Thus, among the continuous applied vehicle emotions “love” and “fun”, the area AR2 of the applied background image 31b corresponding to one applied emotion “love” and the applied background image corresponding to the other applied emotion “fun” By displaying the region 32b in the same color (for example, orange), the background color can be continuously changed when the applied emotion changes from “love” to “fun”, for example. Therefore, the occupant can grasp the change in the vehicle emotion as a continuous one, and can easily grasp the change in the vehicle emotion. In addition, although illustration is abbreviate | omitted, also in the application background images corresponding to another continuous application vehicle emotion, the color of the 1st area | region of one application background image and the color of the 2nd area | region of the other application background image are the same. Are set to the same color.

以上の車両感情と車両感情画像21〜24,31〜38との対応関係は、予め記憶部11に記憶される。画像生成部14は、この記憶情報に基づいて、車両感情に対応する車両感情画像21〜24,31〜38がモニタ6に表示されるように、画像信号を生成する。   The correspondence between the vehicle emotions and the vehicle emotion images 21 to 24 and 31 to 38 is stored in the storage unit 11 in advance. Based on the stored information, the image generation unit 14 generates an image signal so that the vehicle emotion images 21 to 24 and 31 to 38 corresponding to the vehicle emotion are displayed on the monitor 6.

図1の画像出力部15は、画像生成部14で生成された画像信号をモニタ6に出力する。これによりモニタ6に車両感情に対応したいずれかの車両感情画像21〜24,31〜38が表示される。画像出力部15は、モニタ6の全体または一部に車両感情画像21〜24,31〜38が表示されるようにモニタ6の表示形態を制御する。例えば、ナビゲーションユニット9による目的地までの経路誘導を表示しているときは、その表示を優先し、車両感情画像21〜24,31〜38をモニタ画面の端部に縮小して表示する。一方、経路誘導の表示を行わない場合には、モニタ画面全体に車両感情画像21を拡大して表示する。   The image output unit 15 in FIG. 1 outputs the image signal generated by the image generation unit 14 to the monitor 6. As a result, any of the vehicle emotion images 21 to 24 and 31 to 38 corresponding to the vehicle emotion is displayed on the monitor 6. The image output unit 15 controls the display form of the monitor 6 so that the vehicle emotion images 21 to 24 and 31 to 38 are displayed on the whole or a part of the monitor 6. For example, when the route guidance to the destination by the navigation unit 9 is displayed, the display is prioritized and the vehicle emotion images 21 to 24 and 31 to 38 are reduced and displayed at the end of the monitor screen. On the other hand, when the route guidance is not displayed, the vehicle emotion image 21 is enlarged and displayed on the entire monitor screen.

図6は、予め記憶部11に格納されたプログラムに従って制御装置10のCPUで実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばエンジンキースイッチのオンにより開始され、所定周期で繰り返される。   FIG. 6 is a flowchart illustrating an example of processing executed by the CPU of the control device 10 in accordance with a program stored in the storage unit 11 in advance. The process shown in this flowchart is started, for example, when an engine key switch is turned on, and is repeated at a predetermined cycle.

まず、ステップS1で、車両状態検出部2からの信号を読み込み、この信号に基づき車両状態を特定する。なお、車両状態検出部2と操作検出部3とからの信号に基づき車両状態を特定することもできる。次いで、ステップS2で、カメラ4とマイク5からの信号を読み込み、これらの信号に基づき乗員感情を推定する。なお、操作検出部3からの信号を考慮して乗員感情を推定することもできる。   First, in step S1, a signal from the vehicle state detection unit 2 is read, and the vehicle state is specified based on this signal. The vehicle state can also be specified based on signals from the vehicle state detection unit 2 and the operation detection unit 3. Next, in step S2, signals from the camera 4 and the microphone 5 are read, and passenger feelings are estimated based on these signals. Note that the occupant emotion can also be estimated in consideration of the signal from the operation detection unit 3.

次いで、ステップS3で、ステップS1で特定された車両状態を数値化した車両状態値αと、ステップS2で推定された乗員感情を数値化した乗員感情値βとに基づき、車両が現在有すると想定される車両感情を生成する。例えば、図2の関係を用いて基本感情を生成、あるいは基本感情から派生した応用感情を生成する。   Next, in step S3, it is assumed that the vehicle currently has a vehicle state value α obtained by quantifying the vehicle state specified in step S1 and an occupant emotion value β obtained by quantifying the occupant emotion estimated in step S2. Generate vehicle emotions. For example, a basic emotion is generated using the relationship shown in FIG. 2 or an applied emotion derived from the basic emotion is generated.

次いで、ステップS4で、記憶部11に記憶された対応関係を用いて、ステップS3で生成された車両感情に対応する画像信号を生成する。例えば、ステップS3で生成された車両感情が基本感情であるとき、その基本感情を表す基本表情画像21a〜24a(目画像G1a〜G4a、眉画像G1b〜G4b)と単色の基本背景画像21b〜24bとに対応した画像信号をそれぞれ生成する。一方、ステップS3で生成された車両感情が応用感情であるとき、その応用感情を表す応用表情画像31a〜38a(目画像G1a〜G4a、眉画像G1b〜G4b、アクセント画像G1c〜G8c)と2色のグラデーション表示された応用背景画像31b〜38bとに対応した画像信号をそれぞれ生成する。   Next, in step S4, an image signal corresponding to the vehicle emotion generated in step S3 is generated using the correspondence relationship stored in the storage unit 11. For example, when the vehicle emotion generated in step S3 is a basic emotion, basic facial expression images 21a to 24a (eye images G1a to G4a, eyebrow images G1b to G4b) representing the basic emotion and monochrome basic background images 21b to 24b. The image signals corresponding to are respectively generated. On the other hand, when the vehicle emotion generated in step S3 is applied emotion, applied facial expression images 31a to 38a (eye images G1a to G4a, eyebrow images G1b to G4b, accent images G1c to G8c) representing the applied emotions and two colors The image signals corresponding to the applied background images 31b to 38b displayed in gradation are respectively generated.

次いで、ステップS5で、ステップS4で生成された画像信号をモニタ6に出力する。これによりモニタ6には、車両感情に対応した車両感情画像、すなわち図2のいずれかの画像21〜24または図4のいずれかの画像31〜38がモニタ6に表示される。   Next, in step S5, the image signal generated in step S4 is output to the monitor 6. Thereby, the vehicle emotion image corresponding to the vehicle emotion, that is, any one of the images 21 to 24 in FIG. 2 or any one of the images 31 to 38 in FIG. 4 is displayed on the monitor 6.

本実施形態によれば以下のような作用効果を奏することができる。
(1)車両感情表示装置1は、擬人化した車両が有すると想定される車両感情を表示するものであり、車両状態を検出する車両状態検出部2と、車両状態検出部2により検出された車両状態に応じて車両感情を生成する車両感情生成部13と、車両感情生成部13により生成された車両感情に対応する車両の表情画像21a〜24a,31a〜38aと、表情画像21a〜24a,31a〜38aの背景となる背景画像21b〜24b,31b〜38bとを含む車両感情画像21〜24,31〜38の画像信号を生成する画像生成部14と、画像生成部14により生成された画像信号に基づき車両感情画像21〜24,31〜38を表示するモニタ6と、を備える(図1)。車両感情は、基本感情と、基本感情から派生した応用感情とを含む(図3)。画像生成部14は、基本感情に対応する第1の色彩により基本感情に対応する基本背景画像21b〜24bの画像信号を生成する一方、第1の色彩および第2の色彩(例えば第1の色彩と同系色の第2の色彩)の組み合わせにより応用感情に対応する応用背景画像31b〜38bの画像信号を生成する(図6のステップS4)。
According to this embodiment, the following effects can be obtained.
(1) The vehicle emotion display device 1 displays a vehicle emotion assumed to be possessed by an anthropomorphic vehicle, and is detected by the vehicle state detection unit 2 that detects the vehicle state and the vehicle state detection unit 2. A vehicle emotion generation unit 13 that generates a vehicle emotion according to the vehicle state, vehicle facial expression images 21a to 24a, 31a to 38a corresponding to the vehicle emotion generated by the vehicle emotion generation unit 13, and facial expression images 21a to 24a, An image generation unit 14 that generates image signals of vehicle emotion images 21 to 24 and 31 to 38 including background images 21b to 24b and 31b to 38b as backgrounds of 31a to 38a, and an image generated by the image generation unit 14 And a monitor 6 for displaying vehicle emotion images 21 to 24 and 31 to 38 based on the signals (FIG. 1). Vehicle emotions include basic emotions and applied emotions derived from basic emotions (FIG. 3). The image generation unit 14 generates the image signals of the basic background images 21b to 24b corresponding to the basic emotion using the first color corresponding to the basic emotion, while the first color and the second color (for example, the first color). The image signals of the applied background images 31b to 38b corresponding to the applied emotion are generated by a combination of the same colors (second colors of the same color) (step S4 in FIG. 6).

このように基本背景画像21b〜24bと同一の色(例えば橙色)を含む2色で応用背景画像31b〜38bを表示するので、車両感情を表す各背景画像21b〜24b,31b〜38bの全体を互いに異なった色で表示することができる。このため、乗員はモニタ6を一見するだけで、現在の車両感情を認識することができ、運転に集中している場合であっても車両状態を容易かつ正確に認識可能である。応用背景画像31b〜38bは、基本背景画像21b〜24bと同一の第1の色彩(例えば橙色)と第2の色彩(例えば第1の色彩と同色系の赤色)とを組み合わせて生成されるので、乗員は、車両感情と基本背景画像21b〜24bの色とを対応付けて記憶しておけば、現在の車両感情がどの基本感情から派生した応用感情であるかを容易に認識することができ、車両感情の把握が容易である。   As described above, since the applied background images 31b to 38b are displayed in two colors including the same color (for example, orange) as the basic background images 21b to 24b, the entire background images 21b to 24b and 31b to 38b representing the vehicle emotion are displayed. They can be displayed in different colors. For this reason, the occupant can recognize the current vehicle feelings at a glance at the monitor 6, and can easily and accurately recognize the vehicle state even when he / she concentrates on driving. The applied background images 31b to 38b are generated by combining the same first color (for example, orange) and the second color (for example, red of the same color system as the first color) as the basic background images 21b to 24b. If the occupant stores the vehicle emotion and the colors of the basic background images 21b to 24b in association with each other, the occupant can easily recognize which basic emotion the applied vehicle emotion is derived from. , Vehicle emotions are easy to grasp.

(2)画像生成部14は、基本感情に対応する基本表情により基本感情に対応する基本表情画像21a〜24aの画像信号を生成する一方、基本感情に対応する基本表情画像21a〜24a(目画像G1a〜G4a、眉画像G1b〜G4b)と車両の表情を補うアクセント画像G1c〜G8cとの組み合わせにより応用感情に対応する応用表情画像31a〜38aの画像信号を生成する(図2,4)。このため、各車両感情がそれぞれ異なる表情で表示されることなり、乗員は、例えば停車中等にモニタ6の画像を目視して表情画像21a〜24a,31a〜38aを認識することにより、車両感情を正しく把握できる。 (2) The image generation unit 14 generates image signals of the basic facial expression images 21a to 24a corresponding to the basic emotion based on the basic facial expressions corresponding to the basic emotion, while the basic facial expression images 21a to 24a (eye images) corresponding to the basic emotion G1a to G4a, eyebrow images G1b to G4b) and accent images G1c to G8c that supplement the facial expression of the vehicle generate image signals of applied facial expression images 31a to 38a corresponding to applied emotions (FIGS. 2 and 4). For this reason, each vehicle emotion is displayed with a different facial expression, and the occupant recognizes the facial emotion images 21a-24a, 31a-38a by visually observing the image on the monitor 6 while the vehicle is stopped, for example. You can grasp correctly.

(3)画像生成部14は、モニタ画像を2つの領域AR1,AR2に区画したとき、領域AR1,AR2の一方が第1の色彩で領域AR1,AR2の他方が第2の色彩で表示され、領域AR1,AR2の境界部AR3が第1の色彩から第2の色彩にかけて徐々に色彩が変化して表示されるように応用背景画像31b〜38bの画像信号を生成する。これにより車両感情画像31〜38の背景がグラデーション表示され、乗員は車両感情の変化を違和感なく直感的に認識できる。 (3) When the image generation unit 14 divides the monitor image into two areas AR1 and AR2, one of the areas AR1 and AR2 is displayed in the first color and the other of the areas AR1 and AR2 is displayed in the second color. The image signals of the applied background images 31b to 38b are generated so that the boundary AR3 of the areas AR1 and AR2 is displayed with the colors gradually changing from the first color to the second color. Thereby, the background of the vehicle emotion images 31 to 38 is displayed in gradation, and the occupant can intuitively recognize the change in the vehicle emotion without feeling uncomfortable.

(4)車両感情表示装置1は、乗員の感情を推定する乗員感情推定部12をさらに備える(図1)。車両感情生成部13は、乗員感情推定部12により推定された乗員の感情と車両状態検出部2により検出された車両状態とに応じて、車両感情を生成する(図2)。このため、例えば乗員が喜びの感情を持っているときに、車両(エージェント)にも喜びの感情を与えるように構成することができ、これにより、乗員に寄り添うようなエージェントの気持ち(共感)を演出することができ、乗員がエージェントに愛着を感じるようになる。また、乗員が不安の感情を持っているときには、エージェントには安定の感情を与えるように構成することができ、これにより、乗員の不安の感情を緩和することができる。このように乗員感情を考慮して車両感情を生成することで、車両の付加価値が高まり、乗員の乗車する喜びが大きくなる。 (4) The vehicle emotion display device 1 further includes an occupant emotion estimation unit 12 that estimates an occupant's emotion (FIG. 1). The vehicle emotion generation unit 13 generates vehicle emotions according to the occupant emotion estimated by the occupant emotion estimation unit 12 and the vehicle state detected by the vehicle state detection unit 2 (FIG. 2). For this reason, for example, when the occupant has a feeling of joy, the vehicle (agent) can be configured to give a feeling of joy to the agent. The crew can feel the attachment to the agent. Further, when the occupant has a feeling of anxiety, the agent can be configured to give a stable feeling, thereby relaxing the feeling of anxiety of the occupant. By generating vehicle emotions in consideration of occupant emotions in this way, the added value of the vehicle increases, and the joy of getting on by the occupants increases.

本発明は、上記実施形態に限らず種々の形態に変形することができる。上記実施形態(図1)では、カーナビゲーション装置をベースとして車両感情表示装置1を構成したが、車両感情表示装置の構成はこれに限らない。図7は、図1の変形例を示す図であり、スマートフォン、タブレット端末、携帯電話、各種ウェアラブル端末等の携帯無線端末1Aに車両感情表示装置を適用した例を示す。すなわち、一般に携帯無線端末1A(例えばスマートフォン)は、制御装置10Aと、制御装置10Aに接続されたGPSセンサ、ジャイロセンサ等の車両状態検出部2Aと、カメラ4Aと、マイク5Aと、モニタ6Aと、スピーカ7Aと、通信ユニット8Aとを有する。このため、図1と同様に制御装置10Aを構成することで、車両感情をモニタ6Aに表示することが可能となる。   The present invention is not limited to the above embodiment and can be modified in various forms. In the said embodiment (FIG. 1), although the vehicle emotion display apparatus 1 was comprised based on the car navigation apparatus, the structure of a vehicle emotion display apparatus is not restricted to this. FIG. 7 is a diagram illustrating a modification of FIG. 1 and illustrates an example in which the vehicle emotion display device is applied to a portable wireless terminal 1A such as a smartphone, a tablet terminal, a mobile phone, and various wearable terminals. That is, in general, a portable wireless terminal 1A (for example, a smartphone) includes a control device 10A, a vehicle state detection unit 2A such as a GPS sensor and a gyro sensor connected to the control device 10A, a camera 4A, a microphone 5A, and a monitor 6A. And a speaker 7A and a communication unit 8A. For this reason, it becomes possible to display vehicle emotions on the monitor 6A by configuring the control device 10A in the same manner as in FIG.

図8は、図1のさらに別の変形例を示す図である。図8では、車両感情表示装置1が、通信ユニット8(図1)および無線通信網、インターネット網、電話回線網などの通信ネットワーク101を介してサーバ102から各種情報を取得するように構成される。これにより記憶部11に記憶されたデータの一部(例えば画像データ)をサーバ102から取得することができ、大容量の記憶部11を設けることなく車両感情表示装置1を構成することができる。図8において、車両感情表示装置1の少なくとも一部の機能を、運転者が携帯する携帯無線端末1Bによって実現することもできる。例えば通信ネットワーク101を介して携帯無線端末1Bからサーバ102に位置情報を送信するようにしてもよい。   FIG. 8 is a diagram showing still another modification of FIG. In FIG. 8, the vehicle emotion display device 1 is configured to acquire various types of information from the server 102 via the communication unit 8 (FIG. 1) and a communication network 101 such as a wireless communication network, the Internet network, and a telephone line network. . Thereby, a part of data (for example, image data) memorize | stored in the memory | storage part 11 can be acquired from the server 102, and the vehicle emotion display apparatus 1 can be comprised, without providing the large capacity memory | storage part 11. FIG. In FIG. 8, at least a part of the functions of the vehicle emotion display device 1 can be realized by the portable wireless terminal 1B carried by the driver. For example, the position information may be transmitted from the portable wireless terminal 1 </ b> B to the server 102 via the communication network 101.

なお、上記実施形態では、車両状態を数値化した車両状態値αと乗員感情を数値化した乗員感情値βとに基づいて車両感情生成部13が車両感情を生成するようにしたが、車両状態や乗員感情を数値化せずに特定の車両状態あるいは乗員感情が検出されたときに、その車両状態あるいは乗員感情に基づいて車両感情を生成するようにしてもよい。また、乗員感情を考慮せずに例えば車両状態のみを考慮して車両感情を生成するようにしてもよく、車両感情生成部の構成は上述したものに限らない。   In the above embodiment, the vehicle emotion generation unit 13 generates the vehicle emotion based on the vehicle state value α obtained by quantifying the vehicle state and the occupant emotion value β obtained by quantifying the occupant emotion. Alternatively, when a specific vehicle state or occupant emotion is detected without digitizing the occupant emotion, the vehicle emotion may be generated based on the vehicle state or occupant emotion. Further, for example, the vehicle emotion may be generated in consideration of only the vehicle state without considering the occupant emotion, and the configuration of the vehicle emotion generation unit is not limited to that described above.

上記実施形態では、画像生成部14が、エージェントの基本感情に対応する基本表情画像21a〜24aの画像信号を生成するとともに、表情画像21a〜24aとアクセント画像G1c〜G8cとの組み合わせにより応用表情画像31a〜38aの画像信号を生成するようにしたが、車両感情に対応する表情画像と表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成するのであれば、画像生成部の構成はいかなるものでもよい。例えば基本表情画像を用いずに応用表情画像を生成してもよい。上記実施形態では、エージェントの感情を目と眉を含む顔の表情により表すようにしたが、手や足等を含むエージェントの体全体でエージェントの感情を表すようにしてもよく、車両感情画像の構成は上述したものに限らない。   In the above embodiment, the image generation unit 14 generates image signals of the basic facial expression images 21a to 24a corresponding to the basic emotion of the agent, and the applied facial expression image by combining the facial expression images 21a to 24a and the accent images G1c to G8c. The image signals 31a to 38a are generated. If the image signal of the vehicle emotion image including the expression image corresponding to the vehicle emotion and the background image as the background of the expression image is generated, the image generation unit Any configuration is possible. For example, the applied facial expression image may be generated without using the basic facial expression image. In the above embodiment, the agent's emotion is expressed by facial expressions including eyes and eyebrows. However, the agent's emotion may be expressed by the entire body of the agent including hands and feet. The configuration is not limited to that described above.

上記実施形態では、ナビゲーション装置のモニタ6に車両感情画像21〜24,31〜38を表示するようにしたが、車両感情表示専用のモニタを車内に設け、そこに車両感情画像を表示するようにしてもよく、表示部の構成は上述したものに限らない。   In the above embodiment, the vehicle emotion images 21 to 24 and 31 to 38 are displayed on the monitor 6 of the navigation device. However, a vehicle emotion display dedicated monitor is provided in the vehicle, and the vehicle emotion image is displayed there. The configuration of the display unit is not limited to that described above.

上記実施形態では、応用感情を表示する際に、モニタ6の領域AR1,AR2の一方および他方をそれぞれ第1領域および第2領域として、各領域AR1,AR2がそれぞれ第1の色彩および第1の色彩と同色系の第2の色彩で表示され、かつ、第1領域と第2領域の境界部AR3が第1の色彩から第2の色彩にかけて徐々に色彩が変化して表示されるようにした。すなわち、応用背景画像31b〜38bをグラデーション表示するようにしたが、背景画像の表示形態はこれに限らず、第1の色彩および第2の色彩の組み合わせにより構成されるのであれば、背景画像はいかに構成されてもよい。例えば、第1の色彩と第2の色彩とに加え、第3の色彩等、より多くの色彩を用いてもよい。   In the above embodiment, when the applied emotion is displayed, one and the other of the areas AR1 and AR2 of the monitor 6 are set as the first area and the second area, respectively, and each of the areas AR1 and AR2 has the first color and the first color, respectively. The second color of the same color system as the color is displayed, and the boundary area AR3 between the first region and the second region is displayed with the color gradually changing from the first color to the second color. . In other words, the applied background images 31b to 38b are displayed in gradation, but the display form of the background image is not limited to this, and if the background image is configured by a combination of the first color and the second color, It may be configured in any way. For example, more colors such as a third color may be used in addition to the first color and the second color.

上記実施形態では、擬人化した車両が有すると想定される車両感情を表示させる車両感情表示方法として、車両状態検出部2等により車両状態を検出し、検出した車両状態に応じて、車両感情生成部13が基本感情と基本感情から派生した応用感情とを含む車両感情を生成し、画像生成部14が、生成した車両感情に対応する車両の表情画像21a〜24a,31a〜38aとその背景となる背景画像21b〜24b,31b〜38bとを含む車両感情画像21〜24,31〜38の画像信号を生成し、画像出力部15がモニタ6に画像信号を出力することで、生成した画像信号に基づき車両感情画像21〜24,31〜38をモニタ6に表示させるようにした。そして、車両感情画像21〜24,31〜38を生成するときに、基本感情に対応する第1の色彩(例えば橙色)により基本感情に対応する背景画像21bの画像信号を生成し、第1の色彩および第1の色彩と同系色の第2の色彩(例えば赤色、黄色)の組み合わせにより応用感情に対応する背景画像31b,32bの画像信号を生成するようにした。しかしながら、特に、車両感情画像を生成するときに、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成し、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成するのであれば、車両感情表示方法は上述したものに限定されない。   In the above embodiment, as a vehicle emotion display method for displaying a vehicle emotion that is assumed to be possessed by an anthropomorphic vehicle, a vehicle state is detected by the vehicle state detection unit 2 or the like, and vehicle emotion generation is performed according to the detected vehicle state. The unit 13 generates vehicle emotions including basic emotions and applied emotions derived from the basic emotions, and the image generation unit 14 includes vehicle facial expression images 21a to 24a, 31a to 38a corresponding to the generated vehicle emotions and their backgrounds. Image signals of the vehicle emotion images 21 to 24 and 31 to 38 including the background images 21b to 24b and 31b to 38b to be generated, and the image output unit 15 outputs the image signals to the monitor 6, thereby generating the generated image signals. Based on the above, the vehicle emotion images 21 to 24 and 31 to 38 are displayed on the monitor 6. Then, when generating the vehicle emotion images 21 to 24 and 31 to 38, an image signal of the background image 21b corresponding to the basic emotion is generated with the first color (for example, orange) corresponding to the basic emotion, and the first The image signals of the background images 31b and 32b corresponding to the applied emotion are generated by the combination of the color and the second color (for example, red, yellow) similar to the first color. However, in particular, when generating a vehicle emotion image, an image signal of a background image corresponding to the basic emotion is generated by the first color corresponding to the basic emotion, and applied by a combination of the first color and the second color. As long as the image signal of the background image corresponding to the emotion is generated, the vehicle emotion display method is not limited to that described above.

上記実施形態では、図6に示すように制御装置10のECUが、車両状態を特定する手順(ステップS1)と、特定した車両状態に応じて、擬人化した車両が有すると想定される基本感情と基本感情から派生した応用感情とを含む車両感情を生成する手順と(ステップS2)、生成した車両感情に対応する車両の表情画像21a〜24a,31a〜38aとその背景となる背景画像21b〜24b,31b〜38bとを含む車両感情画像21〜24,31〜38の画像信号を生成する手順であって、基本感情に対応する第1の色彩により基本感情に対応する背景画像21b〜24bの画像信号を生成する一方、第1の色彩および第1の色彩と同系色の第2の色彩の組み合わせにより応用感情に対応する背景画像31b〜38bの画像信号を生成する手順(ステップS4)と、生成した画像信号に基づき車両感情画像をモニタ6に表示させる手順(ステップS5)と、を含むプログラム(車両感情表示プログラム)を実行するようにした。しかしながら、制御装置10で実行される処理は図6に示したものに限らず、したがって、これらの手順をコンピュータに実行させる車両感情表示プログラムの構成も上述したものに限らない。上記実施形態では、車両感情表示プログラムを制御装置10の記憶部11に格納したが、フラッシュメモリ等の外部記憶媒体に格納してもよい。通信ネットワーク101を介して車両外部から車両感情表示プログラムを取得することもできる。   In the above embodiment, as shown in FIG. 6, the basic emotion that the ECU of the control device 10 assumes that the personified vehicle has according to the procedure (step S <b> 1) for specifying the vehicle state and the specified vehicle state. And a procedure for generating vehicle emotions including applied emotions derived from basic emotions (step S2), vehicle facial expression images 21a-24a, 31a-38a corresponding to the generated vehicle emotions, and background images 21b as backgrounds thereof 24b, 31b to 38b, a procedure for generating image signals of the vehicle emotion images 21 to 24 and 31 to 38, and the background colors 21b to 24b corresponding to the basic emotion by the first color corresponding to the basic emotion. While generating the image signal, the image signals of the background images 31b to 38b corresponding to the applied emotion are generated by the combination of the first color and the second color similar to the first color. A procedure (step S4) which, as the procedure (step S5) of displaying the vehicle emotion image based on the generated image signal to the monitor 6, and to execute a program (a vehicle emotion display program) including. However, the processing executed by the control device 10 is not limited to that shown in FIG. 6, and therefore the configuration of the vehicle emotion display program that causes the computer to execute these procedures is not limited to the above. In the above embodiment, the vehicle emotion display program is stored in the storage unit 11 of the control device 10, but may be stored in an external storage medium such as a flash memory. A vehicle emotion display program can also be acquired from outside the vehicle via the communication network 101.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。   The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications unless the features of the present invention are impaired. It is also possible to arbitrarily combine one or more of the above-described embodiments and modifications, and it is also possible to combine modifications.

1,1A 車両感情表示装置、2 車両状態検出部、3 操作検出部、4 カメラ、5 マイク、6 モニタ、10 制御装置、11 記憶部、12 乗員感情推定部、13 車両感情生成部、14 画像生成部、15 画像出力部、21〜24,31〜38 車両感情画像、21a〜24a 基本表情画像、21b〜24b 基本背景画像、31a〜38a 応用表情画像、31b〜38b 応用背景画像 DESCRIPTION OF SYMBOLS 1,1A Vehicle emotion display apparatus, 2 Vehicle state detection part, 3 Operation detection part, 4 Cameras, 5 Microphone, 6 Monitor, 10 Control apparatus, 11 Memory | storage part, 12 Passenger emotion estimation part, 13 Vehicle emotion generation part, 14 images Generation unit, 15 image output unit, 21-24, 31-38 vehicle emotion image, 21a-24a basic facial expression image, 21b-24b basic background image, 31a-38a applied facial expression image, 31b-38b applied background image

Claims (6)

擬人化した車両が有すると想定される車両感情を表示する車両感情表示装置であって、
車両状態を検出する車両状態検出部と、
前記車両状態検出部により検出された車両状態に応じて車両感情を生成する車両感情生成部と、
前記車両感情生成部により生成された車両感情に対応する車両の表情画像と、前記表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成する画像生成部と、
前記画像生成部により生成された画像信号に基づき車両感情画像を表示する表示部と、を備え、
前記車両感情は、基本感情と、該基本感情から派生した応用感情とを含み、
前記画像生成部は、前記基本感情に対応する第1の色彩により前記基本感情に対応する背景画像の画像信号を生成する一方、前記第1の色彩および第2の色彩の組み合わせにより前記応用感情に対応する背景画像の画像信号を生成することを特徴とする車両感情表示装置。
A vehicle emotion display device for displaying a vehicle emotion assumed to be possessed by an anthropomorphic vehicle,
A vehicle state detector for detecting the vehicle state;
A vehicle emotion generation unit that generates a vehicle emotion according to the vehicle state detected by the vehicle state detection unit;
An image generation unit for generating an image signal of a vehicle emotion image including a facial expression image of the vehicle corresponding to the vehicle emotion generated by the vehicle emotion generation unit and a background image serving as a background of the facial expression image;
A display unit that displays a vehicle emotion image based on the image signal generated by the image generation unit,
The vehicle emotion includes a basic emotion and an applied emotion derived from the basic emotion,
The image generation unit generates an image signal of a background image corresponding to the basic emotion by using the first color corresponding to the basic emotion, while applying the applied emotion to the applied emotion by combining the first color and the second color. A vehicle emotion display device that generates an image signal of a corresponding background image.
請求項1に記載の車両感情表示装置において、
前記画像生成部は、前記基本感情に対応する基本表情により前記基本感情に対応する表情画像の画像信号を生成する一方、前記基本感情に対応する表情画像と車両の表情を補うアクセント画像との組み合わせにより前記応用感情に対応する表情画像の画像信号を生成することを特徴とする車両感情表示装置。
The vehicle emotion display device according to claim 1,
The image generation unit generates an image signal of a facial expression image corresponding to the basic emotion based on the basic facial expression corresponding to the basic emotion, and a combination of the facial expression image corresponding to the basic emotion and an accent image that supplements the facial expression of the vehicle A vehicle emotion display device characterized by generating an image signal of a facial expression image corresponding to the applied emotion.
請求項1または2に記載の車両感情表示装置において、
前記画像生成部は、前記表示部の第1領域および第2領域がそれぞれ前記第1の色彩および前記第2の色彩で表示され、前記第1領域と前記第2領域の境界部が前記第1の色彩から前記第2の色彩にかけて徐々に色彩が変化して表示されるように背景画像の画像信号を生成することを特徴とする車両感情表示装置。
The vehicle emotion display device according to claim 1 or 2,
The image generation unit displays the first region and the second region of the display unit in the first color and the second color, respectively, and the boundary between the first region and the second region is the first region. A vehicle emotion display device characterized in that an image signal of a background image is generated so that a color gradually changes from the color of the image to the second color.
請求項1〜3のいずれか1項に記載の車両感情表示装置において、
乗員の感情を推定する乗員感情推定部をさらに備え、
前記車両感情生成部は、前記乗員感情推定部により推定された乗員の感情と前記車両状態検出部により検出された車両状態とに応じて、前記車両感情を生成することを特徴とする車両感情表示装置。
The vehicle emotion display device according to any one of claims 1 to 3,
It further includes an occupant emotion estimation unit that estimates the occupant emotions,
The vehicle emotion generation unit generates the vehicle emotion according to an occupant emotion estimated by the occupant emotion estimation unit and a vehicle state detected by the vehicle state detection unit. apparatus.
擬人化した車両が有すると想定される車両感情を表示させる車両感情表示方法であって、
車両状態を検出し、
検出した車両状態に応じて、基本感情と、該基本感情から派生した応用感情とを含む車両感情を生成し、
生成した車両感情に対応する車両の表情画像と、前記表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成し、
生成した画像信号に基づき車両感情画像を表示部に表示させ、
前記車両感情画像を生成するときには、前記基本感情に対応する第1の色彩により前記基本感情に対応する背景画像の画像信号を生成し、前記第1の色彩および第2の色彩の組み合わせにより前記応用感情に対応する背景画像の画像信号を生成することを含む車両感情表示方法。
A vehicle emotion display method for displaying a vehicle emotion assumed to be possessed by an anthropomorphic vehicle,
Detect vehicle status,
In accordance with the detected vehicle state, a vehicle emotion including a basic emotion and an applied emotion derived from the basic emotion is generated,
Generating an image signal of a vehicle emotion image including a vehicle facial expression image corresponding to the generated vehicle emotion and a background image as a background of the facial expression image;
Based on the generated image signal, the vehicle emotion image is displayed on the display unit,
When generating the vehicle emotion image, an image signal of a background image corresponding to the basic emotion is generated from the first color corresponding to the basic emotion, and the application is performed by combining the first color and the second color. A vehicle emotion display method including generating an image signal of a background image corresponding to an emotion.
車両状態を特定する手順と、
特定した車両状態に応じて、擬人化した車両が有すると想定される基本感情と該基本感情から派生した応用感情とを含む車両感情を生成する手順と、
生成した車両感情に対応する車両の表情画像と、前記表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成する手順であって、前記基本感情に対応する第1の色彩により前記基本感情に対応する背景画像の画像信号を生成する一方、前記第1の色彩および第2の色彩の組み合わせにより前記応用感情に対応する背景画像の画像信号を生成する手順と、
生成した画像信号に基づき車両感情画像を表示部に表示させる手順と、をコンピュータに実行させるための車両感情表示プログラム。
Procedures for identifying vehicle status;
Generating a vehicle emotion including basic emotions assumed to have an anthropomorphic vehicle and applied emotions derived from the basic emotions according to the identified vehicle state;
A procedure for generating an image signal of a vehicle emotion image including a vehicle facial expression image corresponding to the generated vehicle emotion and a background image serving as a background of the facial expression image, the first color corresponding to the basic emotion Generating an image signal of a background image corresponding to the basic emotion, while generating an image signal of a background image corresponding to the applied emotion by a combination of the first color and the second color;
The vehicle emotion display program for making a computer perform the procedure which displays a vehicle emotion image on a display part based on the produced | generated image signal.
JP2016229202A 2016-11-25 2016-11-25 Vehicle emotion display device, vehicle emotion display method, and vehicle emotion display program Active JP6419134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016229202A JP6419134B2 (en) 2016-11-25 2016-11-25 Vehicle emotion display device, vehicle emotion display method, and vehicle emotion display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016229202A JP6419134B2 (en) 2016-11-25 2016-11-25 Vehicle emotion display device, vehicle emotion display method, and vehicle emotion display program

Publications (2)

Publication Number Publication Date
JP2018083583A true JP2018083583A (en) 2018-05-31
JP6419134B2 JP6419134B2 (en) 2018-11-07

Family

ID=62237974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016229202A Active JP6419134B2 (en) 2016-11-25 2016-11-25 Vehicle emotion display device, vehicle emotion display method, and vehicle emotion display program

Country Status (1)

Country Link
JP (1) JP6419134B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200130700A1 (en) * 2017-06-27 2020-04-30 Kawasaki Jukogyo Kabushiki Kaisha Travel evaluation method and pseudo-emotion generation method
JP2020135786A (en) * 2019-02-26 2020-08-31 株式会社日立製作所 Answering device and answering method
US11010594B2 (en) 2018-10-11 2021-05-18 Hyundai Motor Company Apparatus and method for controlling vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612401A (en) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd Emotion simulating device
JP2004301651A (en) * 2003-03-31 2004-10-28 Equos Research Co Ltd Vehicle-mounted device and data preparation device
JP2011248502A (en) * 2010-05-25 2011-12-08 Sony Corp Information processing device, information output method and program
JP2013063747A (en) * 2011-09-20 2013-04-11 Aisin Seiki Co Ltd Vehicle information display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612401A (en) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd Emotion simulating device
JP2004301651A (en) * 2003-03-31 2004-10-28 Equos Research Co Ltd Vehicle-mounted device and data preparation device
JP2011248502A (en) * 2010-05-25 2011-12-08 Sony Corp Information processing device, information output method and program
JP2013063747A (en) * 2011-09-20 2013-04-11 Aisin Seiki Co Ltd Vehicle information display system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200130700A1 (en) * 2017-06-27 2020-04-30 Kawasaki Jukogyo Kabushiki Kaisha Travel evaluation method and pseudo-emotion generation method
US11760357B2 (en) * 2017-06-27 2023-09-19 Kawasaki Motors, Ltd. Travel evaluation method and pseudo-emotion generation method
US11010594B2 (en) 2018-10-11 2021-05-18 Hyundai Motor Company Apparatus and method for controlling vehicle
JP2020135786A (en) * 2019-02-26 2020-08-31 株式会社日立製作所 Answering device and answering method
JP7370531B2 (en) 2019-02-26 2023-10-30 株式会社日立製作所 Response device and response method

Also Published As

Publication number Publication date
JP6419134B2 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6513069B2 (en) Driving support device and driving support method
US10317900B2 (en) Controlling autonomous-vehicle functions and output based on occupant position and attention
JP6499682B2 (en) Information provision system
JP5729345B2 (en) Emotion monitoring system
US20180093673A1 (en) Utterance device and communication device
JP6612707B2 (en) Information provision device
JP6713490B2 (en) Information providing apparatus and information providing method
JP6419134B2 (en) Vehicle emotion display device, vehicle emotion display method, and vehicle emotion display program
EP3889740A1 (en) Affective-cognitive load based digital assistant
JP2008068664A (en) Vehicle control apparatus and vehicle control method
WO2019044427A1 (en) Assist method, and assist system and assist device using same
JP6737875B2 (en) Saddle-type vehicle processing device
JP2008070965A (en) Vehicle control apparatus and vehicle control method
JP6552548B2 (en) Point proposing device and point proposing method
CN112837407A (en) Intelligent cabin holographic projection system and interaction method thereof
US11460309B2 (en) Control apparatus, control method, and storage medium storing program
JP2024041746A (en) information processing equipment
Rong et al. Artificial intelligence methods in in-cabin use cases: a survey
Lu et al. A review of sensory interactions between autonomous vehicles and drivers
WO2021258671A1 (en) Assisted driving interaction method and apparatus based on vehicle-mounted digital human, and storage medium
US11325605B2 (en) Information providing device, information providing method, and storage medium
Choi et al. Conceptual design of driver-adaptive human-machine interface for digital cockpit
CN107888652B (en) Processing result abnormality detection device, storage medium, detection method, and moving object
JP2020130502A (en) Information processing device and information processing method
Karas et al. Audiovisual Affect Recognition for Autonomous Vehicles: Applications and Future Agendas

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R150 Certificate of patent or registration of utility model

Ref document number: 6419134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150