JP2018153570A - Sentiment estimation device - Google Patents

Sentiment estimation device Download PDF

Info

Publication number
JP2018153570A
JP2018153570A JP2017055014A JP2017055014A JP2018153570A JP 2018153570 A JP2018153570 A JP 2018153570A JP 2017055014 A JP2017055014 A JP 2017055014A JP 2017055014 A JP2017055014 A JP 2017055014A JP 2018153570 A JP2018153570 A JP 2018153570A
Authority
JP
Japan
Prior art keywords
emotion
unit
data
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017055014A
Other languages
Japanese (ja)
Other versions
JP7025123B2 (en
Inventor
渉 瀬下
Wataru Seshimo
渉 瀬下
雅規 奥本
Masaki Okumoto
雅規 奥本
大輔 坂本
Daisuke Sakamoto
大輔 坂本
翔 大山
Sho Oyama
翔 大山
拓也 茨木
Takuya IBARAKI
拓也 茨木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
NTT Data Institute of Management Consulting Inc
NTT Data Group Corp
Original Assignee
Honda Motor Co Ltd
NTT Data Corp
NTT Data Institute of Management Consulting Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, NTT Data Corp, NTT Data Institute of Management Consulting Inc filed Critical Honda Motor Co Ltd
Priority to JP2017055014A priority Critical patent/JP7025123B2/en
Publication of JP2018153570A publication Critical patent/JP2018153570A/en
Application granted granted Critical
Publication of JP7025123B2 publication Critical patent/JP7025123B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sentiment estimation device for reflecting information on an outside of a vehicle and information of a drive scene which are recognized by a driver of the vehicle for improving estimation accuracy of a sentiment.SOLUTION: A sentiment estimation device 10 comprises: a model data storage part 26; an on-vehicle camera 12; an image feature amount calculation part 22; and a sentiment estimation part 27. The model data storage part 26 stores a sentiment estimation model or model data in which at least a feature amount vector of the image with information of a sentiment. The on-vehicle camera 12 acquires the picked up image. The image feature amount calculation part 22 calculates an image feature amount vector from the picked up image acquired by the on-vehicle camera 12. The sentiment estimation part 27 uses the sentiment estimation model or the model data stored in the model data storage part 26, for estimating information of the sentiment associated with the image feature amount vector calculated by the image feature amount calculation part 22.SELECTED DRAWING: Figure 1

Description

この発明は、心情推定装置に関する。   The present invention relates to a feeling estimation apparatus.

従来、車両の運転に関する各種の情報、乗員の生体情報、および乗員による入力項目などに基づいて乗員の心象を推定し、複数のコンテンツデータから乗員の心象に応じた再生候補を選択する再生装置が知られている(例えば、特許文献1参照)。この再生装置において、車両の運転に関する各種の情報は、例えば、日時情報、気象情報、位置情報、乗員構成、目的地、乗車目的、運転状況、交通状況、コンテンツデータの再生頻度、およびコンテンツデータに対する嗜好性などである。   2. Description of the Related Art Conventionally, a playback apparatus that estimates an occupant's image based on various information related to vehicle driving, occupant's biological information, and input items by the occupant, and selects a reproduction candidate according to the occupant's image from a plurality of content data. It is known (see, for example, Patent Document 1). In this playback device, various types of information related to driving the vehicle include, for example, date / time information, weather information, location information, occupant configuration, destination, boarding purpose, driving status, traffic status, content data playback frequency, and content data. Such as palatability.

特開2007−108134号公報JP 2007-108134 A

ところで、上記従来技術に係る再生装置によれば、車両に搭載された各種のセンサなどによって検出される車両の運転に関する情報および生体情報に基づいて乗員の心象を推定するだけなので、車両の乗員が知覚する車両外部の情報および運転シーンの情報などに応じた推定を行うことはできない。これにより、乗員の心象の推定精度を向上させることは困難であるというという問題が生じる。   By the way, according to the reproducing apparatus according to the above-described prior art, the occupant of the vehicle can only estimate the occupant's image based on the information related to the driving of the vehicle and the biological information detected by various sensors mounted on the vehicle. The estimation according to the information outside the vehicle to be perceived and the information of the driving scene cannot be performed. This causes a problem that it is difficult to improve the estimation accuracy of the occupant's image.

本発明は上記事情に鑑みてなされたもので、車両の運転者が知覚する車両外部の情報および運転シーンの情報を心情推定に反映させることによって、心情の推定精度を向上させることが可能な心情推定装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and it is possible to improve the estimation accuracy of the emotion by reflecting the information outside the vehicle and the information of the driving scene perceived by the driver of the vehicle in the emotion estimation. An object is to provide an estimation device.

上記課題を解決して係る目的を達成するために、本発明は以下の態様を採用した。
(1)本発明の一態様に係る心情推定装置は、画像の特徴量ベクトルと心情の情報とを関連付けるデータを記憶するデータ記憶部(例えば、実施形態でのモデルデータ記憶部26)と、画像を取得する画像取得部(例えば、実施形態での車外カメラ12)と、前記画像取得部によって取得される前記画像から特徴量ベクトルを算出する画像特徴量算出部(例えば、実施形態での画像特徴量算出部22)と、前記データ記憶部に記憶されている前記データを用いて、前記画像特徴量算出部によって算出される前記特徴量ベクトルに関連する心情の情報を推定する心情推定部(例えば、実施形態での心情推定部27)と、を備える。
In order to solve the above problems and achieve the object, the present invention employs the following aspects.
(1) A emotion estimation apparatus according to an aspect of the present invention includes a data storage unit (for example, the model data storage unit 26 in the embodiment) that stores data that associates a feature vector of an image and emotion information, and an image An image acquisition unit (for example, the vehicle exterior camera 12 in the embodiment) and an image feature amount calculation unit (for example, an image feature in the embodiment) that calculates a feature amount vector from the image acquired by the image acquisition unit. A quantity calculation unit 22) and a heart estimation unit (e.g., estimation of emotion information related to the feature quantity vector calculated by the image feature quantity calculation unit using the data stored in the data storage unit) The emotion estimation unit 27) in the embodiment.

(2)上記(1)に記載の心情推定装置では、前記画像取得部は、移動体に搭載され、前記移動体の進行方向前方の画像を取得してもよい。 (2) In the emotion estimation apparatus according to (1), the image acquisition unit may be mounted on a moving body and acquire an image ahead of the moving body in the traveling direction.

(3)上記(1)または(2)に記載の心情推定装置では、操作者の心情の情報に関する入力操作を検出する入力デバイス(例えば、実施形態でのステアリングスイッチ11)と、前記入力デバイスによって検出される前記入力操作に応じて、前記操作者の心情データを生成する心情データ生成部(例えば、実施形態での心情データ生成部21)と、前記心情データ生成部によって生成される前記心情データと、前記画像特徴量算出部によって算出される前記特徴量ベクトルとを関連付ける推定モデルを作成し、前記推定モデルに関するデータを前記データ記憶部に格納する推定モデル作成部(例えば、実施形態での推定モデル作成部25)と、を備えてもよい。 (3) In the emotion estimation apparatus according to the above (1) or (2), an input device (for example, the steering switch 11 in the embodiment) that detects an input operation related to information on the emotion of the operator, and the input device The emotion data generation unit (for example, the emotion data generation unit 21 in the embodiment) that generates the operator's emotion data according to the detected input operation, and the emotion data generated by the emotion data generation unit An estimation model that associates the feature quantity vector calculated by the image feature quantity calculation unit and stores data related to the estimation model in the data storage unit (for example, estimation in the embodiment) A model creation unit 25).

(4)上記(3)に記載の心情推定装置は、前記操作者の生体情報を取得する生体情報取得部(例えば、実施形態での生体センサ15および生体指標算出部24)を備え、前記推定モデル作成部は、前記推定モデルにおいて、前記生体情報取得部によって取得される前記生体情報と、前記心情データおよび前記特徴量ベクトルの各々とを関連付けてもよい。 (4) The emotion estimation apparatus according to (3) includes a biological information acquisition unit (for example, the biological sensor 15 and the biological index calculation unit 24 in the embodiment) that acquires biological information of the operator, and the estimation The model creation unit may associate the biological information acquired by the biological information acquisition unit with each of the emotional data and the feature quantity vector in the estimated model.

上記(1)に記載の態様に係る心情推定装置によれば、画像の特徴量ベクトルと、画像に対応する実際のシーンを視認する人の心情とが関連付けられているので、生体情報を用いること無しに、心情の推定精度を向上させることができる。   According to the emotion estimation apparatus according to the aspect described in (1) above, since the feature vector of the image is associated with the emotion of the person who visually recognizes the actual scene corresponding to the image, the biological information is used. In addition, the estimation accuracy of the emotion can be improved.

さらに、上記(2)の場合、移動体の乗員が知覚する外部の情報を心情推定に反映させることによって、心情の推定精度を向上させることができる。   Furthermore, in the case of (2), the estimation accuracy of the feeling can be improved by reflecting the external information perceived by the occupant of the moving body in the feeling estimation.

さらに、上記(3)の場合、操作者自身による入力操作に応じて目的変数である心情データを生成するので、推定モデルを精度よく作成することができる。   Furthermore, in the case of (3) above, since the emotional data, which is the objective variable, is generated according to the input operation by the operator himself, the estimation model can be created with high accuracy.

さらに、上記(4)の場合、心情の情報との直接的な関連性が高い生体情報を用いることによって、推定精度を向上させることができる。   Furthermore, in the case of (4) above, the estimation accuracy can be improved by using biological information that is highly directly related to the emotional information.

本発明の実施形態に係る心情推定装置の機能構成のブロック図である。It is a block diagram of the functional structure of the emotion estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る心情推定装置のステアリングスイッチを拡大して示す斜視図である。It is a perspective view which expands and shows the steering switch of the emotion estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る心情推定装置の心情の情報を示すマップデータの一例を示す図である。It is a figure which shows an example of the map data which shows the information of the emotion of the emotion estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る心情推定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the emotion estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る心情推定装置の心情値の実測値および推定値の経時変化の例を示す図である。It is a figure which shows the example of the time-dependent change of the actual value of the emotion value of the emotion estimation apparatus which concerns on embodiment of this invention, and an estimated value. 本発明の実施形態の変形例に係る心情推定装置の機能構成のブロック図である。It is a block diagram of a functional structure of the heart condition estimation apparatus which concerns on the modification of embodiment of this invention. 本発明の実施形態の変形例に係る心情推定装置の説明変数と目的変数との関係を模式的に示す図である。It is a figure which shows typically the relationship between the explanatory variable and objective variable of the emotion estimation apparatus which concerns on the modification of embodiment of this invention.

以下、本発明の一実施形態に係る心情推定装置について添付図面を参照しながら説明する。   Hereinafter, a heart estimator according to an embodiment of the present invention will be described with reference to the accompanying drawings.

本実施形態による心情推定装置10は、例えば車両1などの移動体に搭載され、移動体の乗員の心情を推定する。乗員の心情は、例えば、心理、気持ち、気分、快、および不快などの感情、並びに、眠い、および眠くない(覚醒)などの肉体的な状態を含む。
車両1は、図1に示すように、例えば、ステアリングスイッチ11と、車外カメラ12と、現在位置センサ13と、車両センサ14と、生体センサ15と、車載装置16と、処理ユニット17と、を備えている。
実施形態による心情推定装置10は、例えば、ステアリングスイッチ11と、車外カメラ12と、現在位置センサ13と、車両センサ14と、生体センサ15と、車載装置16と、を備えて構成されている。
The emotion estimation apparatus 10 according to the present embodiment is mounted on a moving body such as the vehicle 1 and estimates the emotion of a passenger of the moving body. The occupant's feelings include, for example, emotions such as psychology, feelings, mood, comfort, and discomfort, and physical states such as sleepiness and non-sleepiness (wakefulness).
As shown in FIG. 1, the vehicle 1 includes, for example, a steering switch 11, a camera 12 outside the vehicle, a current position sensor 13, a vehicle sensor 14, a biosensor 15, an in-vehicle device 16, and a processing unit 17. I have.
The emotion estimation device 10 according to the embodiment includes, for example, a steering switch 11, a camera 12 outside the vehicle, a current position sensor 13, a vehicle sensor 14, a biosensor 15, and an in-vehicle device 16.

ステアリングスイッチ11は、図2に示すように、ステアリングホイール18に配置されている。ステアリングスイッチ11は、車両1を運転するためにステアリングホイール18を把持する運転者の手指により操作可能な位置に配置された入力デバイスである。ステアリングスイッチ11は、操作者の接触および操作を検出する。ステアリングスイッチ11は、例えば、操作者の手指による操作を受け付ける機械式スイッチとして、十字キー19を備えている。十字キー19は、第1キー19aと、第2キー19bと、第3キー19cと、第4キー19dと、を備えている。十字キー19は、操作者の手指による傾動操作を受け付けて、この傾動操作に応じて各キー19a,…,19dから操作信号を出力する。   The steering switch 11 is arranged on the steering wheel 18 as shown in FIG. The steering switch 11 is an input device that is disposed at a position that can be operated by a driver's finger that holds the steering wheel 18 in order to drive the vehicle 1. The steering switch 11 detects an operator's contact and operation. The steering switch 11 includes, for example, a cross key 19 as a mechanical switch that receives an operation with an operator's finger. The cross key 19 includes a first key 19a, a second key 19b, a third key 19c, and a fourth key 19d. The cross key 19 receives a tilting operation with the finger of the operator, and outputs an operation signal from each key 19a, ..., 19d in accordance with the tilting operation.

ステアリングスイッチ11において、十字キー19の第1キー19aおよび第2キー19bは、例えば、操作者の心情のうち覚醒度の高低の情報に関する入力操作を受け付ける。第1キー19aは、覚醒度が高い状態であることを示す操作信号を出力し、第2キー19bは、覚醒度が低い状態であることを示す操作信号を出力する。十字キー19の第3キー19cおよび第4キー19dは、例えば、操作者の心情のうち快および不快の情報に関する入力操作を受け付ける。第3キー19cは、不快であることを示す操作信号を出力し、第4キー19dは、快であることを示す操作信号を出力する。   In the steering switch 11, the first key 19 a and the second key 19 b of the cross key 19 accept an input operation related to information about the level of arousal level among the emotions of the operator, for example. The first key 19a outputs an operation signal indicating that the degree of wakefulness is high, and the second key 19b outputs an operation signal indicating that the degree of wakefulness is low. The third key 19c and the fourth key 19d of the cross key 19 accept, for example, an input operation relating to pleasant and uncomfortable information of the operator's feelings. The third key 19c outputs an operation signal indicating unpleasantness, and the fourth key 19d outputs an operation signal indicating comforting.

車外カメラ12は、例えばCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの固体撮像素子を備えるデジタルカメラである。車外カメラ12は、例えば、車両1の進行方向の前方領域を撮像し、撮像画像のデータを出力する。   The vehicle exterior camera 12 is a digital camera including a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). For example, the vehicle exterior camera 12 captures an image of a front area in the traveling direction of the vehicle 1 and outputs captured image data.

現在位置センサ13は、例えばGPS(Global Positioning System)などの測位システムを含む航法衛星システム(例えば、GNSS:Global Navigation Satellite Systemなど)において人工衛星などから発信されている測位信号を受信し、測位信号を用いて現在位置を検出する。現在位置センサ13は、現在位置の検出値の信号を出力する。   The current position sensor 13 receives a positioning signal transmitted from an artificial satellite or the like in a navigation satellite system (for example, GNSS: Global Navigation Satellite System) including a positioning system such as GPS (Global Positioning System). Is used to detect the current position. The current position sensor 13 outputs a signal of a detected value of the current position.

車両センサ14は、車両1に搭載される各種のセンサであり、各種車両状態量の検出値の信号を出力する。車両センサ14は、例えば、車速センサ、エンジン回転センサ、加速度センサ、ヨーレートセンサ、アクセルセンサ、スロットル開度センサ、ブレーキ圧力センサ、ステアリングセンサなどである。車速センサは、車両1の速度(車速)を検出する。エンジン回転センサは、エンジン回転数を検出する。加速度センサは、車両1の加速度、例えば前後加速度および横加速度などを検出する。ヨーレートセンサは、車両1の上下方向軸周りの角速度を検出する。アクセルセンサは、アクセルペダルの変位量(アクセル開度)を検出する。スロットル開度センサは、スロットルバルブの開度を検出する。ブレーキ圧力センサは、マスターシリンダ、もしくはブレーキキャリパーまたはホイールシリンダーの油圧(ブレーキ圧力)を検出する。ステアリングセンサは、ステアリングホイールの操舵角または操舵トルクを検出する。   The vehicle sensor 14 is a variety of sensors mounted on the vehicle 1 and outputs detection value signals of various vehicle state quantities. The vehicle sensor 14 is, for example, a vehicle speed sensor, an engine rotation sensor, an acceleration sensor, a yaw rate sensor, an accelerator sensor, a throttle opening sensor, a brake pressure sensor, a steering sensor, or the like. The vehicle speed sensor detects the speed (vehicle speed) of the vehicle 1. The engine rotation sensor detects the engine speed. The acceleration sensor detects the acceleration of the vehicle 1, for example, longitudinal acceleration and lateral acceleration. The yaw rate sensor detects an angular velocity around the vertical axis of the vehicle 1. The accelerator sensor detects the amount of displacement (accelerator opening) of the accelerator pedal. The throttle opening sensor detects the opening of the throttle valve. The brake pressure sensor detects the hydraulic pressure (brake pressure) of the master cylinder, the brake caliper, or the wheel cylinder. The steering sensor detects the steering angle or steering torque of the steering wheel.

生体センサ15は、例えば、脳波(EEG)、心電(ECG)、皮膚コンダクタンスレベル(SCL)、皮膚コンダクタンス反応(SCR)、および皮膚電気反射(GSR)などの各々を検出する各センサである。生体センサ15は、各種生体データの検出値を出力する。   The biosensor 15 is a sensor that detects each of, for example, an electroencephalogram (EEG), an electrocardiogram (ECG), a skin conductance level (SCL), a skin conductance response (SCR), and a skin electrical reflex (GSR). The biosensor 15 outputs detection values of various biometric data.

車載装置16は、車両1に搭載される各種装置である。車載装置16は、例えば、駆動力出力装置、ブレーキ装置、ステアリング装置、映像および音響機器、ナビゲーション装置、表示装置、並びに各種装置を制御する制御装置などである。   The in-vehicle device 16 is various devices mounted on the vehicle 1. The in-vehicle device 16 is, for example, a driving force output device, a brake device, a steering device, a video and audio device, a navigation device, a display device, and a control device that controls various devices.

駆動力出力装置は、車両1が走行するための走行駆動力(トルク)を駆動輪に出力する。駆動力出力装置は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、車両1の制御装置から入力される情報、または運転操作子から入力される情報に従って、走行駆動力を制御する。   The driving force output device outputs a driving force (torque) for driving the vehicle 1 to driving wheels. The driving force output device includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU (Electronic Control Unit) that controls them. The ECU controls the driving force according to information input from the control device of the vehicle 1 or information input from the driving operator.

ブレーキ装置は、例えば、ブレーキキャリパーまたはホイールシリンダーと、ブレーキキャリパーまたはホイールシリンダーに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、車両1の制御装置から入力される情報、または運転操作子から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクを各車輪に出力する。ブレーキ装置は、例えば、電動モータが発生させる油圧に加えて、運転操作子のブレーキペダルの操作によって発生する油圧を、マスターシリンダを介してシリンダに伝達する機構を備えている。なお、ブレーキ装置は、上記説明した構成に限らず、制御装置から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をブレーキキャリパーまたはホイールシリンダーに伝達してもよい。   The brake device includes, for example, a brake caliper or wheel cylinder, an electric motor that generates hydraulic pressure in the brake caliper or wheel cylinder, and a brake ECU. The brake ECU controls the electric motor in accordance with information input from the control device of the vehicle 1 or information input from the driving operator, and outputs brake torque corresponding to the braking operation to each wheel. The brake device includes, for example, a mechanism that transmits hydraulic pressure generated by operation of a brake pedal of a driving operator to a cylinder via a master cylinder in addition to hydraulic pressure generated by an electric motor. Note that the brake device is not limited to the configuration described above, and may control the actuator according to information input from the control device to transmit the hydraulic pressure of the master cylinder to the brake caliper or the wheel cylinder.

ステアリング装置は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、制御装置から入力される情報、または運転操作子から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更する。   The steering device includes, for example, a steering ECU and an electric motor. For example, the electric motor changes the direction of the steered wheels by applying a force to a rack and pinion mechanism. The steering ECU drives the electric motor and changes the direction of the steered wheels according to information input from the control device or information input from the driving operator.

処理ユニット17は、例えばCPU(Central Processing Unit)などのプロセッサによって所定のプログラムが実行されることにより機能するソフトウェア機能部である。ソフトウェア機能部は、CPUなどのプロセッサ、プログラムを格納するROM(Read Only Memory)、データを一時的に記憶するRAM(Random Access Memory)、およびタイマーなどの電子回路を備えるECUである。なお、処理ユニット17の少なくとも一部は、LSI(Large Scale Integration)などの集積回路であってもよい。   The processing unit 17 is a software function unit that functions when a predetermined program is executed by a processor such as a CPU (Central Processing Unit). The software function unit is an ECU including a processor such as a CPU, a ROM (Read Only Memory) that stores a program, a RAM (Random Access Memory) that temporarily stores data, and an electronic circuit such as a timer. Note that at least a part of the processing unit 17 may be an integrated circuit such as an LSI (Large Scale Integration).

処理ユニット17は、例えば、心情データ生成部21と、画像特徴量算出部22と、車両情報特徴量算出部23と、生体指標算出部24と、推定モデル作成部25と、モデルデータ記憶部26と、心情推定部27と、車両特性修正部28と、を備えている。   The processing unit 17 includes, for example, a feeling data generation unit 21, an image feature amount calculation unit 22, a vehicle information feature amount calculation unit 23, a biological index calculation unit 24, an estimated model creation unit 25, and a model data storage unit 26. And a feeling estimation unit 27 and a vehicle characteristic correction unit 28.

心情データ生成部21は、ステアリングスイッチ11の十字キー19から出力される操作信号に応じて操作者の心情データを生成して、操作者の心情データを目的変数として推定モデル作成部25に入力する。心情データ生成部21は、例えば図3に示すラッセルの円環感情マップなどのように心情の情報を示すマップデータを用いて、十字キー19から出力される操作信号に応じた操作者の心情を取得する。心情の情報を示すマップデータは、十字キー19から時系列的に出力される操作信号の累積と、心情の情報とを対応付けるマップデータである。例えば図3に示すラッセルの円環感情マップは、第1キー19aおよび第2キー19bに対応付けられている覚醒度の高低と、第3キー19cおよび第4キー19dに対応付けられている快および不快の情報とを、2次元直交座標系の2つの座標軸に設定している。ラッセルの円環感情マップの2次元直交座標系には、覚醒度の高低と快および不快の情報との組み合わせによって異なる複数種類の心情の領域が設定されている。心情データ生成部21は、十字キー19から出力される操作信号の累積に応じて、ラッセルの円環感情マップの2次元直交座標系における座標位置を変位させ、座標位置を含む領域に対応付けられている心情の情報を取得する。心情データ生成部21は、マップデータから取得する心情の情報を操作者の心情データとする。なお、十字キー19から出力される操作信号は、例えば、適宜の時間間隔における過去の時点に比べて現在の時点での覚醒度の高低または快および不快の情報に対する操作者の直感的な認識の変化を示している。   The emotional data generation unit 21 generates operator's emotional data according to an operation signal output from the cross key 19 of the steering switch 11, and inputs the operator's emotional data as an objective variable to the estimated model generation unit 25. . The emotion data generation unit 21 uses the map data indicating the emotion information, such as the Russell's circular emotion map shown in FIG. 3, for example, to calculate the operator's emotion according to the operation signal output from the cross key 19. get. The map data indicating the emotion information is map data that associates the accumulation of operation signals output from the cross key 19 in time series with the emotion information. For example, in the circular emotion map of Russell shown in FIG. 3, the level of arousal associated with the first key 19a and the second key 19b and the pleasure associated with the third key 19c and the fourth key 19d are displayed. And uncomfortable information is set on two coordinate axes of a two-dimensional orthogonal coordinate system. In the two-dimensional Cartesian coordinate system of Russell's ring emotion map, a plurality of types of emotional regions are set that differ depending on the combination of the level of arousal level and information on pleasantness and discomfort. The emotional data generation unit 21 displaces the coordinate position in the two-dimensional orthogonal coordinate system of Russell's annular emotion map in accordance with the accumulation of operation signals output from the cross key 19, and is associated with the region including the coordinate position. Get emotional information. The emotional data generation unit 21 uses the emotional information acquired from the map data as the emotional data of the operator. Note that the operation signal output from the cross key 19 is, for example, an operator's intuitive recognition of the level of arousal level at the current time point or pleasant and uncomfortable information as compared to a past time point at an appropriate time interval. It shows a change.

画像特徴量算出部22は、車外カメラ12から出力される撮像画像のデータから画像特徴量ベクトルを算出して、画像特徴量ベクトルを説明変数として推定モデル作成部25に入力する。画像特徴量算出部22は、例えば畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)などの機械学習によって、画像特徴量ベクトルを算出する。画像特徴量算出部22は、例えば、既存の学習済みのCNNモデルを用いることによって、学習に必要なデータおよび時間を短縮してもよい。   The image feature quantity calculation unit 22 calculates an image feature quantity vector from the captured image data output from the outside camera 12, and inputs the image feature quantity vector as an explanatory variable to the estimation model creation unit 25. The image feature quantity calculation unit 22 calculates an image feature quantity vector by machine learning such as a convolutional neural network (CNN). The image feature amount calculation unit 22 may reduce data and time necessary for learning by using, for example, an existing learned CNN model.

車両情報特徴量算出部23は、現在位置センサ13および車両センサ14から出力される各種車両状態量の検出値の信号を用いて車両情報特徴量を算出して、車両情報特徴量を説明変数として推定モデル作成部25に入力する。車両情報特徴量算出部23は、例えば、車両センサ14から出力される検出値自体を、または車両センサ14から出力される検出値を用いた所定の演算によって得られる二次的な情報を、車両情報特徴量とする。車両情報特徴量算出部23は、例えば、車両センサ14のステアリングセンサから出力されるステアリングホイールの操舵角の検出値を用いて、操舵角速度を算出する。   The vehicle information feature amount calculation unit 23 calculates vehicle information feature amounts using signals of detected values of various vehicle state amounts output from the current position sensor 13 and the vehicle sensor 14, and uses the vehicle information feature amounts as explanatory variables. Input to the estimation model creation unit 25. The vehicle information feature amount calculation unit 23 uses, for example, the detection value itself output from the vehicle sensor 14 or secondary information obtained by a predetermined calculation using the detection value output from the vehicle sensor 14. Information feature amount. The vehicle information feature amount calculation unit 23 calculates the steering angular velocity using, for example, the detected value of the steering angle of the steering wheel output from the steering sensor of the vehicle sensor 14.

生体指標算出部24は、生体センサ15から出力される各種生体データの検出値の信号を用いて生体指標を算出して、生体指標を説明変数として推定モデル作成部25に入力する。生体指標算出部24は、例えば、生体センサ15から出力される検出値自体を、または生体センサ15から出力される検出値を用いた所定の演算によって得られる二次的な情報を、生体指標とする。生体指標算出部24は、例えば、生体センサ15から出力される脳波(EEG)の検出値を用いて、特定周波数帯域(例えば、α波帯、β波帯、およびθ波帯など)の振幅を算出する。生体指標算出部24は、例えば、生体センサ15から出力される心電(ECG)の検出値を用いて、R波の間隔(RRI)を算出する。   The biometric index calculation unit 24 calculates a biometric index using detection value signals of various types of biometric data output from the biometric sensor 15, and inputs the biometric index as an explanatory variable to the estimation model creation unit 25. The biological index calculation unit 24 uses, for example, the detection value itself output from the biological sensor 15 or secondary information obtained by a predetermined calculation using the detection value output from the biological sensor 15 as a biological index. To do. The biometric index calculation unit 24 uses, for example, a detection value of an electroencephalogram (EEG) output from the biosensor 15 to calculate the amplitude of a specific frequency band (for example, α wave band, β wave band, and θ wave band). calculate. The biological index calculation unit 24 calculates an R wave interval (RRI) using, for example, an electrocardiogram (ECG) detection value output from the biological sensor 15.

推定モデル作成部25は、推定モデル生成モードの実行が指示されている場合に、心情推定モデルを作成する。推定モデル作成部25は、心情データ生成部21から出力される操作者の心情データを目的変数とする。推定モデル作成部25は、画像特徴量算出部22から出力される画像特徴量ベクトル、車両情報特徴量算出部23から出力される車両情報特徴量、および生体指標算出部24から出力される生体指標を説明変数とする。推定モデル作成部25は、目的変数である操作者の心情データが、説明変数である画像特徴量ベクトル、車両情報特徴量、および生体指標の少なくとも何れかから一意に決まるように心情推定モデルを作成する。
推定モデル作成部25は、例えば、画像特徴量ベクトルを入力とするとともに、操作者の心情データを出力とする重回帰モデルにおいて、Lasso(Least absolute shrinkage and selection operator)正則化法に基づくスパース推定法を用いることによって、心情推定モデルを作成する。
推定モデル作成部25は、例えば、車両情報特徴量および生体指標を入力とするとともに、操作者の心情データを出力とする重回帰モデルにおいて、ステップワイズ法を用いることによって、心情推定モデルを作成する。
推定モデル作成部25は、例えば、操作者の生理反応および運転特性などの情報に関する類似性に基づいて複数のグループを設定して、複数のグループ毎に心情推定モデルを作成してもよい。
The estimation model creation unit 25 creates a heart estimation model when execution of the estimation model generation mode is instructed. The estimation model creation unit 25 uses the emotional data of the operator output from the emotional data generation unit 21 as an objective variable. The estimated model creating unit 25 includes an image feature amount vector output from the image feature amount calculating unit 22, a vehicle information feature amount output from the vehicle information feature amount calculating unit 23, and a biometric index output from the biometric index calculating unit 24. Is an explanatory variable. The estimation model creation unit 25 creates a mind estimation model so that the emotional data of the operator as the objective variable is uniquely determined from at least one of the image feature quantity vector, the vehicle information feature quantity, and the biological index as the explanatory variables. To do.
The estimation model creation unit 25, for example, uses a sparse estimation method based on a Lasso (Least absolute shrinkage and selection operator) regularization method in a multiple regression model that receives an image feature vector and outputs an operator's emotional data. By using, the emotion estimation model is created.
For example, the estimation model creation unit 25 creates the emotion estimation model by using a stepwise method in a multiple regression model that receives the vehicle information feature amount and the biometric index and outputs the emotion data of the operator. .
For example, the estimation model creation unit 25 may set a plurality of groups based on similarity regarding information such as an operator's physiological reaction and driving characteristics, and create a heart estimation model for each of the plurality of groups.

モデルデータ記憶部26は、推定モデル作成部25によって作成された心情推定モデル、または適宜の入力値と、この入力値に対して心情推定モデルによって推定される心情推定値との組み合わせによるモデルデータを記憶する。   The model data storage unit 26 stores model data obtained by combining the emotion estimation model created by the estimation model creation unit 25 or an appropriate input value and the estimated emotion value estimated by the emotion estimation model with respect to the input value. Remember.

心情推定部27は、推定モデル生成モードの実行が指示されていない場合に、モデルデータ記憶部26に格納されている心情推定モデルまたはモデルデータを用いて、画像特徴量ベクトル、車両情報特徴量、および生体指標の少なくとも何れかに関連する心情の情報を推定する。心情推定部27は、画像特徴量ベクトル、車両情報特徴量、および生体指標の少なくとも何れかに関連する心情推定値を、心情推定モデルによる推定またはモデルデータの検索によって取得する。
心情推定部27は、モデルデータ記憶部26に複数の心情推定モデルまたはモデルデータがグループ毎に格納されている場合には、操作者による選択指示などに応じて適宜の心情推定モデルまたはモデルデータを選択してもよい。
When the execution of the estimated model generation mode is not instructed, the emotion estimation unit 27 uses the emotion estimation model or model data stored in the model data storage unit 26 to generate an image feature vector, vehicle information feature, And emotional information related to at least one of the biological indices. The emotion estimation unit 27 acquires an estimated value of emotion related to at least one of the image feature vector, the vehicle information feature, and the biometric index by estimation using a emotion estimation model or search of model data.
When a plurality of emotion estimation models or model data are stored in the model data storage unit 26 for each group, the emotion estimation unit 27 receives an appropriate emotion estimation model or model data according to a selection instruction from the operator. You may choose.

車両特性修正部28は、心情推定部27によって取得される心情推定値に応じて、車両特性を修正する。車両特性は、例えば、車載装置16の作動状態を特徴付ける情報である。   The vehicle characteristic correction unit 28 corrects the vehicle characteristic according to the estimated emotion value acquired by the emotion estimation unit 27. The vehicle characteristics are information characterizing the operating state of the in-vehicle device 16, for example.

本実施形態による心情推定装置10は上記構成を備えており、次に、心情推定装置10の動作について、図4を参照して説明する。   The emotion estimation apparatus 10 according to the present embodiment has the above-described configuration. Next, the operation of the emotion estimation apparatus 10 will be described with reference to FIG.

先ず、ステップS01において、画像特徴量算出部22は、車外カメラ12によって撮像された撮像画像のデータを取得する。
次に、ステップS02において、画像特徴量算出部22は、撮像画像のデータから画像特徴量ベクトルを算出する。
次に、ステップS03において、車両情報特徴量算出部23は、現在位置センサ13によって検出された現在位置の検出値を取得する。
次に、ステップS04において、車両情報特徴量算出部23は、車両センサ14によって検出された各種車両状態量の検出値を取得する。
次に、ステップS05において、車両情報特徴量算出部23は、現在位置および各種車両状態量の検出値によって車両情報特徴量を算出する。
First, in step S01, the image feature amount calculation unit 22 acquires data of a captured image captured by the vehicle exterior camera 12.
Next, in step S02, the image feature amount calculation unit 22 calculates an image feature amount vector from the captured image data.
Next, in step S <b> 03, the vehicle information feature amount calculation unit 23 acquires the detected value of the current position detected by the current position sensor 13.
Next, in step S <b> 04, the vehicle information feature amount calculation unit 23 acquires detection values of various vehicle state amounts detected by the vehicle sensor 14.
Next, in step S05, the vehicle information feature amount calculation unit 23 calculates the vehicle information feature amount based on the detected values of the current position and various vehicle state amounts.

次に、ステップS06において、推定モデル作成部25は、推定モデル生成モードの実行が指示されているか否かを判定する。
この判定結果が「NO」の場合、推定モデル作成部25は、処理をステップS13に進める。
一方、この判定結果が「YES」の場合、推定モデル作成部25は、処理をステップS07に進める。
次に、ステップS07において、生体指標算出部24は、生体センサ15によって検出された各種生体データの検出値を取得する。
次に、ステップS08において、生体指標算出部24は、各種生体データの検出値によって生体指標を算出する。
次に、ステップS09において、心情データ生成部21は、ステアリングスイッチ11の十字キー19から出力される操作信号を取得する。
次に、ステップS10において、心情データ生成部21は、操作信号に応じて操作者の心情データを生成する。
Next, in step S06, the estimated model creation unit 25 determines whether execution of the estimated model generation mode is instructed.
If the determination result is “NO”, the estimated model creation unit 25 advances the process to step S13.
On the other hand, if the determination result is “YES”, the estimated model creation unit 25 advances the process to step S07.
Next, in step S <b> 07, the biological index calculation unit 24 acquires detection values of various biological data detected by the biological sensor 15.
Next, in step S08, the biometric index calculation unit 24 calculates a biometric index based on detection values of various types of biometric data.
Next, in step S <b> 09, the emotional data generation unit 21 acquires an operation signal output from the cross key 19 of the steering switch 11.
Next, in step S10, the emotional data generation unit 21 generates the emotional data of the operator according to the operation signal.

次に、ステップS11において、推定モデル作成部25は、目的変数である操作者の心情データが、説明変数である画像特徴量ベクトル、車両情報特徴量、および生体指標の少なくとも何れかによって一意に決まるように、心情推定モデルを作成する。
次に、ステップS12において、モデルデータ記憶部26は、推定モデル作成部25によって作成された心情推定モデル、または適宜の入力値と、この入力値に対して心情推定モデルによって推定される心情推定値との組み合わせによるモデルデータを記憶する。そして、処理をエンドに進める。
Next, in step S <b> 11, the estimated model creation unit 25 uniquely determines the operator's emotional data as an objective variable depending on at least one of an image feature vector, a vehicle information feature, and a biological index that are explanatory variables. In this way, the emotion estimation model is created.
Next, in step S12, the model data storage unit 26, the emotion estimation model created by the estimation model creation unit 25, or an appropriate input value, and the estimated emotion value estimated by the emotion estimation model with respect to this input value. Model data in combination with. Then, the process proceeds to the end.

また、ステップS13において、生体指標算出部24は、生体センサ15によって検出された各種生体データの検出値を取得したか否かを判定する。
この判定結果が「NO」の場合、生体指標算出部24は、処理をステップS15に進める。
一方、この判定結果が「YES」の場合、生体指標算出部24は、処理をステップS14に進める。
次に、ステップS14において、生体指標算出部24は、各種生体データの検出値から生体指標を算出する。
次に、ステップS15において、心情推定部27は、画像特徴量ベクトル、車両情報特徴量、および生体指標の少なくとも何れかに関連する心情推定値を、心情推定モデルによる推定またはモデルデータの検索によって取得する。
次に、ステップS16において、車両特性修正部28は、心情推定部27によって取得される心情推定値に応じて、車両特性を修正する。そして、処理をエンドに進める。
In step S <b> 13, the biological index calculation unit 24 determines whether detection values of various biological data detected by the biological sensor 15 have been acquired.
When the determination result is “NO”, the biological index calculation unit 24 advances the process to step S15.
On the other hand, if the determination result is “YES”, the biological index calculation unit 24 advances the process to step S14.
Next, in step S14, the biometric index calculation unit 24 calculates a biometric index from detection values of various types of biometric data.
Next, in step S15, the emotion estimation unit 27 acquires an estimated emotion value related to at least one of the image feature quantity vector, the vehicle information feature quantity, and the biometric index by estimation using the emotion estimation model or search of model data. To do.
Next, in step S <b> 16, the vehicle characteristic correction unit 28 corrects the vehicle characteristic according to the estimated emotion value acquired by the emotion estimation unit 27. Then, the process proceeds to the end.

以下に、車両1の実際の運転中に得られた所定の車両情報特徴量および生体指標のデータを用いて心情推定モデルを作成し、心情推定値(推定値)を推定した実施例について説明する。
この実施例において、説明変数とされる所定の車両情報特徴量および生体指標のデータは、RRI、GSR,車速、エンジン回転数、アクセル開度、ブレーキ圧力、ステアリング角度、ステアリング角速度、横加速度、前後加速度、ヨーレート、脳波シータ帯振幅、脳波アルファ帯振幅、および脳波ベータ帯振幅である。実施例では、所定の時間間隔(例えば、1秒など)で取得される各データの1分間に亘る平均値を1トライアル(試行)のデータとし、総トライアル数を126とすることによって、126分間に亘る126トライアル(試行)のデータを取得した。。実施例では、第1トライアルから第126トライアルまでの間の任意の第Nトライアル(1≦N≦126)のそれぞれにおいて、Leave one out法(1個抜き法)を用いながら、心情推定モデルによって心情推定値を推定した。図5は、126個の心情推定値と、各データの取得と同期した操作者の入力操作に応じた126個の心情実測値(実測値)とを、運転時間に応じて描画した図である。
図5によれば、心情推定値と心情実測値とは、よく一致しており、心情推定値の推定精度は高いことが認められる。
Hereinafter, an embodiment will be described in which a feeling estimation model is created by using predetermined vehicle information feature values and biometric data obtained during actual driving of the vehicle 1 and a feeling estimation value (estimated value) is estimated. .
In this embodiment, predetermined vehicle information feature values and biometric data used as explanatory variables include RRI, GSR, vehicle speed, engine speed, accelerator opening, brake pressure, steering angle, steering angular velocity, lateral acceleration, front and rear Acceleration, yaw rate, EEG theta band amplitude, EEG alpha band amplitude, and EEG beta band amplitude. In the embodiment, the average value over 1 minute of each data acquired at a predetermined time interval (for example, 1 second) is set to 1 trial (trial) data, and the total number of trials is set to 126, thereby 126 minutes. The data of 126 trials (trials) were acquired. . In the embodiment, in each of arbitrary N-th trials (1 ≦ N ≦ 126) from the first trial to the 126th trial, the emotion is estimated by the emotion estimation model while using the Leave one out method (one extraction method). Estimates were estimated. FIG. 5 is a diagram in which 126 estimated emotion values and 126 actual measured values (actual measured values) corresponding to the input operation of the operator synchronized with the acquisition of each data are drawn according to the driving time. .
According to FIG. 5, it is recognized that the estimated emotion value and the actually measured emotion value are in good agreement, and the estimated accuracy of the estimated emotion value is high.

上述したように、本実施の形態による心情推定装置10によれば、車両1の進行方向前方の撮像画像と、撮像画像に対応する実際のシーンを視認する乗員の心情とが関連付けられているので、生体情報を用いること無しに、心情の推定精度を向上させることができる。車両1の乗員が知覚する車両1の外部の情報および運転シーンの情報を心情推定に反映させることによって、心情の推定精度を向上させることができる。
さらに、ステアリングスイッチ11を用いた操作者自身の入力操作に応じて目的変数である心情データを生成するので、心情推定モデルを精度よく作成することができる。
さらに、心情の情報との直接的な関連性が高い各種の生体データを用いることによって、心情推定モデルの推定精度を向上させることができる。
As described above, according to the emotion estimation apparatus 10 according to the present embodiment, the captured image in front of the traveling direction of the vehicle 1 is associated with the emotion of the occupant who visually recognizes the actual scene corresponding to the captured image. It is possible to improve the estimation accuracy of emotion without using biological information. By reflecting information outside the vehicle 1 and information on the driving scene perceived by the occupant of the vehicle 1 in the emotion estimation, the estimation accuracy of the emotion can be improved.
Furthermore, since the emotional data, which is the objective variable, is generated according to the input operation of the operator himself using the steering switch 11, the emotion estimation model can be created with high accuracy.
Furthermore, the estimation accuracy of the emotion estimation model can be improved by using various types of biological data that are highly directly related to the emotion information.

以下、上述した実施形態の変形例について説明する。
上述した実施形態において、心情推定モデルの作成が完了している場合には、図6に示す変形例のように、心情データ生成部21、生体指標算出部24、および推定モデル作成部25は省略されてもよい。
この変形例において心情推定部27は、モデルデータ記憶部26に格納されている心情推定モデルまたはモデルデータを用いて、画像特徴量ベクトルまたは車両情報特徴量に関連する心情推定値を取得すればよい。
この変形例によれば、心情推定モデルの作成が完了していることに伴って、図7に示すように生体指標を省略したとしても、画像特徴量ベクトルまたは車両情報特徴量に関連する心情推定値を精度良く推定することができる。
Hereinafter, modifications of the above-described embodiment will be described.
In the embodiment described above, when the creation of the emotion estimation model has been completed, the emotion data generation unit 21, the biological index calculation unit 24, and the estimation model creation unit 25 are omitted as in the modification shown in FIG. May be.
In this modification, the emotion estimation unit 27 may acquire an estimated value of emotion related to an image feature quantity vector or a vehicle information feature quantity by using the emotion estimation model or model data stored in the model data storage unit 26. .
According to this modification, even if the biometric index is omitted as shown in FIG. 7 as the creation of the emotion estimation model is completed, the emotion estimation related to the image feature quantity vector or the vehicle information feature quantity is performed. The value can be estimated with high accuracy.

なお、上述した実施形態または変形例において、推定モデル作成部25によって作成された心情推定モデルまたはモデルデータは、車両1の外部に設けられるサーバ装置に格納されてもよい。この場合、心情推定装置10は、サーバ装置と通信する通信機器を備え、サーバ装置から取得する心情推定モデルまたはモデルデータを用いて、心情推定値を取得してもよい。   In the above-described embodiment or modification, the emotion estimation model or model data created by the estimation model creation unit 25 may be stored in a server device provided outside the vehicle 1. In this case, the emotion estimation device 10 may include a communication device that communicates with the server device, and may acquire the emotion estimation value using a emotion estimation model or model data acquired from the server device.

なお、上述した実施形態において、心情推定装置10はステアリングスイッチ11の代わりに他の入力デバイスを備えてもよい。他の入力デバイスは、例えば、スイッチ、タッチパネル、キーボード、および音声入力装置などでもよい。   In the above-described embodiment, the emotion estimation apparatus 10 may include another input device instead of the steering switch 11. Other input devices may be, for example, a switch, a touch panel, a keyboard, and a voice input device.

本発明の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   The embodiments of the present invention are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1…車両(移動体)、10…心情推定装置、11…ステアリングスイッチ(入力デバイス)、12…車外カメラ(画像取得部)、13…現在位置センサ、14…車両センサ、15…生体センサ(生体情報取得部)、16…車載装置、17…処理ユニット、19…十字キー、19a…第1キー、19b…第2キー、19c…第3キー、19d…第4キー、21…心情データ生成部、22…画像特徴量算出部、23…車両情報特徴量算出部、24…生体指標算出部(生体情報取得部)、25…推定モデル作成部、26…モデルデータ記憶部(データ記憶部)、27…心情推定部、28…車両特性修正部 DESCRIPTION OF SYMBOLS 1 ... Vehicle (moving body), 10 ... Heart condition estimation apparatus, 11 ... Steering switch (input device), 12 ... Outside camera (image acquisition part), 13 ... Current position sensor, 14 ... Vehicle sensor, 15 ... Biosensor (biological body) (Information acquisition unit), 16 ... vehicle-mounted device, 17 ... processing unit, 19 ... cross key, 19a ... first key, 19b ... second key, 19c ... third key, 19d ... fourth key, 21 ... heart emotion data generation unit , 22 ... image feature value calculation unit, 23 ... vehicle information feature value calculation unit, 24 ... biometric index calculation unit (biological information acquisition unit), 25 ... estimated model creation unit, 26 ... model data storage unit (data storage unit), 27 ... emotion estimation unit, 28 ... vehicle characteristic correction unit

Claims (4)

画像の特徴量ベクトルと心情の情報とを関連付けるデータを記憶するデータ記憶部と、
画像を取得する画像取得部と、
前記画像取得部によって取得される前記画像から特徴量ベクトルを算出する画像特徴量算出部と、
前記データ記憶部に記憶されている前記データを用いて、前記画像特徴量算出部によって算出される前記特徴量ベクトルに関連する心情の情報を推定する心情推定部と、
を備える、
ことを特徴とする心情推定装置。
A data storage unit for storing data associating the feature vector of the image and the emotion information;
An image acquisition unit for acquiring images;
An image feature amount calculation unit that calculates a feature amount vector from the image acquired by the image acquisition unit;
Using the data stored in the data storage unit, a emotion estimation unit that estimates emotion information related to the feature vector calculated by the image feature calculation unit;
Comprising
The emotion estimation apparatus characterized by the above.
前記画像取得部は、移動体に搭載され、前記移動体の進行方向前方の画像を取得する、
ことを特徴とする請求項1に記載の心情推定装置。
The image acquisition unit is mounted on a moving body and acquires an image ahead of the moving body in the traveling direction.
The emotion estimation apparatus according to claim 1.
操作者の心情の情報に関する入力操作を検出する入力デバイスと、
前記入力デバイスによって検出される前記入力操作に応じて、前記操作者の心情データを生成する心情データ生成部と、
前記心情データ生成部によって生成される前記心情データと、前記画像特徴量算出部によって算出される前記特徴量ベクトルとを関連付ける推定モデルを作成し、前記推定モデルに関するデータを前記データ記憶部に格納する推定モデル作成部と、
を備える、
ことを特徴とする請求項1または請求項2に記載の心情推定装置。
An input device for detecting an input operation related to information on the emotion of the operator;
A mind data generation unit that generates mind data of the operator in response to the input operation detected by the input device;
An estimation model that associates the emotional data generated by the emotional data generation unit with the feature amount vector calculated by the image feature amount calculation unit is created, and data relating to the estimation model is stored in the data storage unit An estimation model creation unit;
Comprising
The emotion estimation apparatus according to claim 1 or 2, characterized in that
前記操作者の生体情報を取得する生体情報取得部を備え、
前記推定モデル作成部は、前記推定モデルにおいて、前記生体情報取得部によって取得される前記生体情報と、前記心情データおよび前記特徴量ベクトルの各々とを関連付ける、
ことを特徴とする請求項3に記載の心情推定装置。
A biological information acquisition unit that acquires the operator's biological information;
The estimated model creation unit associates the biological information acquired by the biological information acquisition unit with each of the emotional data and the feature quantity vector in the estimated model.
The emotion estimation apparatus according to claim 3.
JP2017055014A 2017-03-21 2017-03-21 Emotion estimation device Active JP7025123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017055014A JP7025123B2 (en) 2017-03-21 2017-03-21 Emotion estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017055014A JP7025123B2 (en) 2017-03-21 2017-03-21 Emotion estimation device

Publications (2)

Publication Number Publication Date
JP2018153570A true JP2018153570A (en) 2018-10-04
JP7025123B2 JP7025123B2 (en) 2022-02-24

Family

ID=63715377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017055014A Active JP7025123B2 (en) 2017-03-21 2017-03-21 Emotion estimation device

Country Status (1)

Country Link
JP (1) JP7025123B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108134A (en) * 2005-10-17 2007-04-26 Fujitsu Ten Ltd Content data regeneration device
JP2010152524A (en) * 2008-12-24 2010-07-08 Toyota Motor Corp Driver condition estimating device and vehicle
JP2013228847A (en) * 2012-04-25 2013-11-07 Nippon Hoso Kyokai <Nhk> Facial expression analyzing device and facial expression analyzing program
JP2016091166A (en) * 2014-10-31 2016-05-23 カシオ計算機株式会社 Machine learning apparatus, machine learning method, classification apparatus, classification method, and program
JP2016146088A (en) * 2015-02-09 2016-08-12 富士ゼロックス株式会社 Estimation device and program
JP2016152033A (en) * 2015-02-19 2016-08-22 日本電信電話株式会社 Difficulty estimation learning device, difficulty estimation model learning device, and device, method and program for estimating difficulty
JP2016162109A (en) * 2015-02-27 2016-09-05 パイオニア株式会社 Mental condition guidance device, mental condition guidance method, mental condition guidance program, and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108134A (en) * 2005-10-17 2007-04-26 Fujitsu Ten Ltd Content data regeneration device
JP2010152524A (en) * 2008-12-24 2010-07-08 Toyota Motor Corp Driver condition estimating device and vehicle
JP2013228847A (en) * 2012-04-25 2013-11-07 Nippon Hoso Kyokai <Nhk> Facial expression analyzing device and facial expression analyzing program
JP2016091166A (en) * 2014-10-31 2016-05-23 カシオ計算機株式会社 Machine learning apparatus, machine learning method, classification apparatus, classification method, and program
JP2016146088A (en) * 2015-02-09 2016-08-12 富士ゼロックス株式会社 Estimation device and program
JP2016152033A (en) * 2015-02-19 2016-08-22 日本電信電話株式会社 Difficulty estimation learning device, difficulty estimation model learning device, and device, method and program for estimating difficulty
JP2016162109A (en) * 2015-02-27 2016-09-05 パイオニア株式会社 Mental condition guidance device, mental condition guidance method, mental condition guidance program, and recording medium

Also Published As

Publication number Publication date
JP7025123B2 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
JP6264495B1 (en) Driver monitoring device, driver monitoring method, learning device, and learning method
JP5527411B2 (en) Emergency vehicle evacuation device
WO2016047063A1 (en) Onboard system, vehicle control device, and program product for vehicle control device
JP2017136922A (en) Vehicle control device, on-vehicle device controller, map information generation device, vehicle control method, and on-vehicle device control method
JP7329755B2 (en) Support method and support system and support device using the same
CN110871809A (en) Method for controlling a vehicle system in a motor vehicle
JP2019038296A (en) Parking support device and program
JP6417962B2 (en) Information processing apparatus, information processing method, and storage medium
JP2010023629A (en) Operation support device and operation support method
JP7207098B2 (en) Automobile cruise control system
JP7116540B2 (en) Driving advice device and driving advice method
US10748405B2 (en) Driving assistance device
JP7226197B2 (en) vehicle controller
JP6552548B2 (en) Point proposing device and point proposing method
JP7243392B2 (en) Vehicle running control device
JP7251392B2 (en) emotion estimation device
CN111369786A (en) Method, vehicle, server, system and equipment for monitoring riding and traveling
JP7025123B2 (en) Emotion estimation device
JP7207099B2 (en) Arithmetic device for automobile travel control and travel control system using the same
JP7068156B2 (en) Information processing equipment and programs
WO2017217044A1 (en) Viewing direction estimation device
JP6820243B2 (en) Vehicle, judgment method and judgment program
JP5688809B2 (en) Driver state estimation device
JP7434715B2 (en) Vehicle computing system
JP7173811B2 (en) Occupant monitoring device, occupant monitoring method, and occupant monitoring program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220210

R150 Certificate of patent or registration of utility model

Ref document number: 7025123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350