JP2024071249A - Vehicle control device - Google Patents

Vehicle control device Download PDF

Info

Publication number
JP2024071249A
JP2024071249A JP2022182091A JP2022182091A JP2024071249A JP 2024071249 A JP2024071249 A JP 2024071249A JP 2022182091 A JP2022182091 A JP 2022182091A JP 2022182091 A JP2022182091 A JP 2022182091A JP 2024071249 A JP2024071249 A JP 2024071249A
Authority
JP
Japan
Prior art keywords
occupant
vehicle control
emotion
vehicle
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022182091A
Other languages
Japanese (ja)
Inventor
茂樹 中山
智洋 金子
古都瑠 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022182091A priority Critical patent/JP2024071249A/en
Publication of JP2024071249A publication Critical patent/JP2024071249A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】感情に基づく車両制御の衝突、いずれの乗員に対しても対応不可といった事態に陥ることを未然に防止することができる車両制御装置を提供すること。【解決手段】車両制御装置は、プロセッサを備え、プロセッサが、訓練済みモデルを使用して、車両の各乗員の感情を推定し、推定した感情の時系列データに基づいて、各乗員の感情の変化率を算出し、算出した感情の変化率に基づいて、複数の乗員から着目乗員を選択し、選択した着目乗員の感情の推定結果に基づいて、所定の車両制御を実行する。【選択図】図1[Problem] To provide a vehicle control device that can prevent collisions in vehicle control based on emotions and situations where it is not possible to respond to any of the occupants. [Solution] The vehicle control device includes a processor that uses a trained model to estimate the emotions of each occupant of the vehicle, calculates the rate of change in the emotions of each occupant based on time-series data of the estimated emotions, selects a target occupant from multiple occupants based on the calculated rate of change in emotions, and executes a predetermined vehicle control based on the estimation result of the emotion of the selected target occupant. [Selected Figure] Figure 1

Description

本開示は、車両制御装置に関する。 This disclosure relates to a vehicle control device.

特許文献1には、運転者または同乗者の感情を推定し、推定結果に基づいて車両の走行を制御する技術が提案されている。 Patent document 1 proposes a technology that estimates the emotions of the driver or passengers and controls the vehicle's driving based on the estimation results.

特開2017-136922号公報JP 2017-136922 A

特許文献1で提案された技術では、例えば訓練済みの機械学習モデル(訓練済みモデル)を用いて車両制御を行うことも可能である。この特許文献1で提案された技術では、車内に複数の乗員が存在する場合、少なくとも一部の乗員の感情が他の乗員と異なる可能性がある。この場合、感情に基づく車両制御の衝突が発生したり、あるいはいずれの乗員に対しても対応不可といった事態に陥る可能性がある。 In the technology proposed in Patent Document 1, it is possible to control the vehicle using, for example, a trained machine learning model (trained model). In the technology proposed in Patent Document 1, when there are multiple occupants in the vehicle, the emotions of at least some of the occupants may differ from those of the other occupants. In this case, a collision of vehicle control based on emotions may occur, or the vehicle may fall into a situation where it is not possible to respond to any of the occupants.

本開示は、上記に鑑みてなされたものであって、感情に基づく車両制御の衝突、いずれの乗員に対しても対応不可といった事態に陥ることを未然に防止することができる車両制御装置を提供することを目的とする。 The present disclosure has been made in consideration of the above, and aims to provide a vehicle control device that can prevent collisions caused by emotion-based vehicle control, or situations in which the vehicle is unable to respond to any of the occupants.

本開示に係る車両制御装置は、プロセッサを備え、前記プロセッサが、訓練済みモデルを使用して、車両の各乗員の感情を推定し、推定した感情の時系列データに基づいて、各乗員の感情の変化率を算出し、算出した感情の変化率に基づいて、複数の乗員から着目乗員を選択し、選択した着目乗員の感情の推定結果に基づいて、所定の車両制御を実行する。 The vehicle control device according to the present disclosure includes a processor that uses a trained model to estimate the emotions of each occupant of the vehicle, calculates the rate of change in the emotions of each occupant based on time series data of the estimated emotions, selects a target occupant from among multiple occupants based on the calculated rate of change in emotions, and executes a predetermined vehicle control based on the estimation result of the emotion of the selected target occupant.

本開示によれば、車両の各乗員の感情の変化率を算出し、当該変化率が高い乗員に対して優先的に車両制御を実施するため、感情に基づく車両制御の衝突、いずれの乗員に対しても対応不可といった事態に陥ることを未然に防止することができる。 According to the present disclosure, the emotional change rate of each vehicle occupant is calculated, and vehicle control is given priority to occupants with a high emotional change rate, thereby preventing collisions in vehicle control based on emotions and situations where the vehicle cannot respond to any of the occupants.

図1は、実施形態に係る車両制御装置の概略的な構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a vehicle control device according to an embodiment. 図2は、実施形態に係る車両制御装置の各部における情報の流れを示す図である。FIG. 2 is a diagram showing the flow of information in each unit of the vehicle control device according to the embodiment. 図3は、実施形態に係る車両制御装置の制御対象選択部において、感情データの微分値から乗員を選択する場合を説明するためのグラフである。FIG. 3 is a graph for explaining a case where an occupant is selected from a differential value of emotion data in the control target selection unit of the vehicle control device according to the embodiment. 図4は、実施形態に係る車両制御装置の制御対象選択部において、感情データの微分値および積分値から乗員を選択する場合を説明するためのグラフである。FIG. 4 is a graph for explaining a case in which an occupant is selected from the differential value and integral value of emotion data in the control target selection unit of the vehicle control device according to the embodiment. 図5は、実施形態に係る車両制御装置が実行する車両制御方法の処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of a processing procedure of a vehicle control method executed by the vehicle control device according to the embodiment.

本開示の実施形態に係る車両制御装置について、図面を参照しながら説明する。なお、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 A vehicle control device according to an embodiment of the present disclosure will be described with reference to the drawings. Note that the components in the following embodiments include those that are easily replaceable by a person skilled in the art, or those that are substantially identical.

(車両制御装置)
車両制御装置1は、車両を制御するためのものである。車両制御装置1は、車両に搭載されていてもよく、あるいは車両とは別のサーバ装置等によって実現されてもよい。本実施形態では、車両制御装置1が車両に搭載されることを前提に説明を行う。
(Vehicle control device)
The vehicle control device 1 is for controlling a vehicle. The vehicle control device 1 may be mounted on the vehicle, or may be realized by a server device or the like separate from the vehicle. In this embodiment, the description will be given on the assumption that the vehicle control device 1 is mounted on the vehicle.

なお、車両制御装置1がサーバ装置によって実現される場合、例えばインターネット回線網、携帯電話回線網等からなるネットワークによって車両とサーバ装置とが接続されている。そして、車両制御装置1であるサーバ装置が、車両の通信部(Data Communication Module:DCM)を通じて通信することにより、当該車両を遠隔で制御する。 When the vehicle control device 1 is realized by a server device, the vehicle and the server device are connected by a network, such as an Internet network or a mobile phone network. The server device, which is the vehicle control device 1, remotely controls the vehicle by communicating through the vehicle's communication unit (Data Communication Module: DCM).

車両制御装置1は、図1に示すように、制御部10と、記憶部20と、センサ群30と、を備えている。制御部10は、プロセッサと、メモリ(主記憶部)と、を備えている。プロセッサは、具体的にはCPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等から構成される。また、メモリは、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成される。 As shown in FIG. 1, the vehicle control device 1 includes a control unit 10, a storage unit 20, and a sensor group 30. The control unit 10 includes a processor and a memory (main storage unit). Specifically, the processor includes a CPU (Central Processing Unit), a DSP (Digital Signal Processor), an FPGA (Field-Programmable Gate Array), a GPU (Graphics Processing Unit), etc. The memory includes a RAM (Random Access Memory), a ROM (Read Only Memory), etc.

制御部10は、記憶部20に格納されたプログラムを主記憶部の作業領域にロードして実行し、プログラムの実行を通じて各構成部等を制御することにより、所定の目的に合致した機能を実現する。制御部10は、記憶部20に格納されたプログラムの実行を通じて、感情推定部11、制御対象選択部12、乗員行動検知部13および車両制御部14として機能する。 The control unit 10 loads the programs stored in the memory unit 20 into the working area of the main memory unit, executes them, and realizes functions that meet a predetermined purpose by controlling each component part through the execution of the programs. Through the execution of the programs stored in the memory unit 20, the control unit 10 functions as an emotion estimation unit 11, a control target selection unit 12, an occupant behavior detection unit 13, and a vehicle control unit 14.

感情推定部11は、車両に乗車している各乗員の感情を推定する。感情推定部11は、例えばセンサ群30によるセンサデータ(画像データ、生体データ)に基づいて、各乗員の感情を推定する。感情推定部11は、例えば車両に乗車している各乗員について、訓練済みの機械学習モデル(訓練済みモデル)を使用して、上記のセンサデータから各乗員の感情を推定する。 The emotion estimation unit 11 estimates the emotion of each occupant in the vehicle. The emotion estimation unit 11 estimates the emotion of each occupant based on, for example, sensor data (image data, biometric data) from the sensor group 30. The emotion estimation unit 11 estimates the emotion of each occupant in the vehicle from the above sensor data, for example, by using a trained machine learning model (trained model).

感情推定部11が推定する「各乗員の感情」とは、例えば乗員の快不快に関する情報であり、例えば快不快の数値(確率)として示すことができる。この感情推定部11による各乗員の感情の推定は、予め定めた所定の制御周期ごとに繰り返し実行される。 The "emotions of each occupant" estimated by the emotion estimation unit 11 is, for example, information about the comfort or discomfort of the occupant, and can be expressed, for example, as a numerical value (probability) of the comfort or discomfort. The estimation of the emotions of each occupant by the emotion estimation unit 11 is repeatedly performed at a predetermined control cycle.

感情推定部11は、図2に示すように、例えばセンサ群30のうちのカメラから乗員の画像データを取得する。そして、感情推定部11は、取得した画像データに基づいて、乗員の感情を推定する。この場合、感情推定部11は、例えば画像データに含まれる乗員の表情等に基づいて、当該乗員の快不快の数値(確率)を算出する。 As shown in FIG. 2, the emotion estimation unit 11 acquires image data of the occupant, for example, from a camera in the sensor group 30. The emotion estimation unit 11 then estimates the emotion of the occupant based on the acquired image data. In this case, the emotion estimation unit 11 calculates a numerical value (probability) of the comfort or discomfort of the occupant, for example, based on the facial expression of the occupant included in the image data.

また、感情推定部11は、図2に示すように、例えばセンサ群30のうちの生体センサから乗員の生体データを取得する。そして、感情推定部11は、取得した生体データに基づいて、乗員の感情を推定する。この場合、感情推定部11は、例えば生体データに含まれる乗員の体温、心拍、脈拍、血圧、脳波等の情報に基づいて、当該乗員の快不快の数値(確率)を算出する。 As shown in FIG. 2, the emotion estimation unit 11 acquires biometric data of the occupant, for example, from a biosensor in the sensor group 30. The emotion estimation unit 11 then estimates the emotion of the occupant based on the acquired biometric data. In this case, the emotion estimation unit 11 calculates the numerical value (probability) of the comfort or discomfort of the occupant based on information such as the occupant's body temperature, heart rate, pulse rate, blood pressure, and brain waves contained in the biometric data.

感情推定部11は、例えば訓練済みの機械学習モデル(訓練済みモデル)を使用して、上記の感情推定を行うことができる。この場合、感情推定の際に機械学習モデルに入力される入力データは、例えば各乗員の画像データ、生体データ等である。また、機械学習モデルから出力される出力データは、例えば乗員の快不快の数値(確率)である。 The emotion estimation unit 11 can perform the above emotion estimation, for example, by using a trained machine learning model (trained model). In this case, the input data input to the machine learning model during emotion estimation is, for example, image data, biometric data, etc. of each occupant. Moreover, the output data output from the machine learning model is, for example, a numerical value (probability) of the occupant's comfort or discomfort.

感情推定部11で用いる機械学習モデルを構築する際の手法は特に限定されず、例えばニューラルネットワークを用いた深層学習、サポートベクターマシン、決定木、単純ベイズ、k近傍法等の種々の手法を用いることができる。 The method for constructing the machine learning model used in the emotion estimation unit 11 is not particularly limited, and various methods such as deep learning using neural networks, support vector machines, decision trees, naive Bayes, and k-nearest neighbor methods can be used.

制御対象選択部12は、感情推定部11が推定した感情の時系列データ(以下、「感情データ」という)に基づいて、各乗員の感情データの変化率を算出する。そして、制御対象選択部12は、算出した感情データの変化率に基づいて、複数の乗員のうち、車両制御部14による制御対象とする乗員(着目乗員)を選択する。制御対象選択部12は、具体的には、各乗員について感情データの変化率を算出し、各乗員のうち、当該感情データの変化率が最も大きい乗員を、着目乗員として選択する。 The control target selection unit 12 calculates the rate of change in the emotion data of each occupant based on the time series data of emotions (hereinafter referred to as "emotion data") estimated by the emotion estimation unit 11. Then, the control target selection unit 12 selects, from among the multiple occupants, an occupant to be controlled by the vehicle control unit 14 (an occupant of interest) based on the calculated rate of change in the emotion data. Specifically, the control target selection unit 12 calculates the rate of change in the emotion data for each occupant, and selects, from among the occupants, the occupant with the largest rate of change in the emotion data as the occupant of interest.

ここで、「感情データの変化率」とは、例えば乗員の感情の「快⇒不快」の変化率のことである。感情データの変化率は、例えば図3に示すように、各乗員の感情データの微分値で示すことができる。同図は、制御対象選択部12において、感情データの微分値から乗員を選択する場合を説明するためのグラフである。同図において、縦軸は感情推定部11で推定された乗員の快不快の数値(確率)であり、横軸は時間である。 Here, the "change rate of emotion data" refers to, for example, the change rate of the occupant's emotion from "pleasant to unpleasant." The change rate of emotion data can be indicated by the differential value of the emotion data of each occupant, as shown in FIG. 3, for example. This figure is a graph for explaining a case in which the control target selection unit 12 selects an occupant from the differential value of the emotion data. In this figure, the vertical axis represents the numerical value (probability) of the occupant's pleasantness or unpleasantness estimated by the emotion estimation unit 11, and the horizontal axis represents time.

図3の例では、乗員1の感情データが「快」側から「不快」側へと急降下している。そのため、制御対象選択部12は、より不快に感じているのは乗員1であると判断し、当該乗員1を制御対象として選択する。なお、制御対象を選択する際に、同図に示すように、所定の評価期間や閾値を定めて判定してもよい。 In the example of FIG. 3, the emotion data of occupant 1 drops sharply from the "comfortable" side to the "uncomfortable" side. Therefore, the control target selection unit 12 determines that occupant 1 is the one who feels more uncomfortable, and selects this occupant 1 as the control target. Note that when selecting the control target, a predetermined evaluation period and threshold value may be set and used for the judgment, as shown in the figure.

また、感情データの変化率として、例えば図4に示すように、各乗員の感情データの微分値に加えて、積分値を用いてもよい。同図は、制御対象選択部12において、感情データの微分値および積分値から乗員を選択する場合を説明するためのグラフである。同図において、縦軸は感情推定部11で推定された乗員の快不快の数値(確率)であり、横軸は時間である。 As the rate of change of emotion data, for example, as shown in FIG. 4, in addition to the differential value of the emotion data of each occupant, the integral value may be used. This figure is a graph for explaining a case where the control target selection unit 12 selects an occupant from the differential value and integral value of the emotion data. In this figure, the vertical axis represents the numerical value (probability) of the comfort or discomfort of the occupant estimated by the emotion estimation unit 11, and the horizontal axis represents time.

図4の例では、感情データの微分値だけをみると、乗員1の変化率よりも乗員2の変化率のほうが高くなっている。一方、感情データの積分値は、乗員2よりも乗員1のほうが大きい。そのため、制御対象選択部12は、より不快に感じているのは乗員1であると判断し、当該乗員1を制御対象として選択する。 In the example of Figure 4, when looking only at the differential value of the emotion data, the rate of change for occupant 2 is higher than that for occupant 1. On the other hand, the integral value of the emotion data is larger for occupant 1 than for occupant 2. Therefore, the control target selection unit 12 determines that occupant 1 feels more uncomfortable, and selects occupant 1 as the control target.

乗員行動検知部13は、例えばセンサ群30によるセンサデータ(画像データ、センサデータ)に基づいて、各乗員の行動(状況)を検知する。乗員行動検知部13は、例えば車両に乗車している各乗員について、「飲食を開始した」、「眠そう」、「暑そう」、「寒そう」等の状況を検知する。なお、乗員行動検知部13は、感情推定部11と同様に、訓練済みの機械学習モデル(訓練済みモデル)を使用して各乗員の行動を検知してもよい。 The occupant behavior detection unit 13 detects the behavior (situation) of each occupant based on, for example, sensor data (image data, sensor data) from the sensor group 30. For example, the occupant behavior detection unit 13 detects the situation of each occupant in the vehicle, such as "started eating or drinking," "looks sleepy," "looks hot," or "looks cold." Note that, like the emotion estimation unit 11, the occupant behavior detection unit 13 may detect the behavior of each occupant using a trained machine learning model (trained model).

車両制御部14は、制御対象選択部12が選択した乗員(着目乗員)の感情の推定結果に基づいて、所定の車両制御を実行する。「所定の車両制御」とは、選択した乗員の感情に応じた制御のことを示しており、例えば以下のような制御が挙げられる。 The vehicle control unit 14 executes a predetermined vehicle control based on the estimation result of the emotion of the occupant (occupant of interest) selected by the control target selection unit 12. "Predetermined vehicle control" refers to control according to the emotion of the selected occupant, and examples of the control include the following:

(1)選択した乗員の「不快⇒快」の変化率が高い(乗員が快適になるような)車両動作を実施する。この車両動作は予め当該乗員からデータを収集しておく。
(2)選択した乗員の「快⇒不快」の変化率が高い(乗員が不快になるような)車両動作を実施しない(停止する)。この車両動作は予め当該乗員からデータを収集しておく。
(1) Implement a vehicle operation that has a high rate of change from "uncomfortable to comfortable" for the selected occupant (so that the occupant becomes comfortable). Data on this vehicle operation is collected in advance from the occupant.
(2) Do not execute (stop) a vehicle operation that has a high rate of change from "comfortable to uncomfortable" for the selected occupant (a vehicle operation that makes the occupant uncomfortable). Data on this vehicle operation is collected in advance from the occupant.

また、車両制御部14は、制御対象選択部12が選択した乗員について、乗員行動検知部13が検知した行動に応じた車両制御を実行してもよい。この場合、例えば以下のような制御を行うことができる。 The vehicle control unit 14 may also execute vehicle control for the occupant selected by the control target selection unit 12 in response to the behavior detected by the occupant behavior detection unit 13. In this case, for example, the following control can be performed.

(1)選択した乗員が飲食を始めた場合、車両加速度を小さくする、カーブの曲がり具合を調整する、お手洗いの場所を通知する等の車両動作を実施する。
(2)選択した乗員が眠そうな場合、車内の音楽の音量を小さくする等の車両動作を実施する。
(3)選択した乗員が暑そうにしている場合、エアコン(冷房)をオンにする、エアコン(暖房)をオフにする、窓を開ける等の車両動作を実施する。
(4)選択した乗員が寒そうにしている場合、エアコン(冷房)をオフにする、エアコン(暖房)をオンにする、窓を閉める等の車両動作を実施する。
(1) When a selected occupant begins to eat or drink, vehicle operations such as reducing vehicle acceleration, adjusting the curvature of curves, and notifying the driver of the location of restrooms are performed.
(2) If the selected occupant appears sleepy, a vehicle operation such as lowering the volume of music in the vehicle is performed.
(3) If the selected occupant looks hot, a vehicle operation is performed, such as turning on the air conditioner (cooling) or turning off the air conditioner (heating) or opening the windows.
(4) If the selected passenger looks cold, a vehicle operation is performed such as turning off the air conditioner (cooling) or turning on the air conditioner (heating) or closing the windows.

また、車両制御部14は、上記に加えて、選択した乗員の着座位置や個性に合わせた車両動作を実施してもよい。なお、「乗員の個性」とは、例えば当該乗員の年齢、大人/子供の区別、性別等を示している。この場合、乗員の着座位置および個性は、例えばセンサ群30のうちのカメラ等によって検知してもよく、あるいは予め乗員からデータを収集しておいてもよい。 In addition to the above, the vehicle control unit 14 may also perform vehicle operations that are tailored to the seating position and personality of the selected occupant. Note that "personality of the occupant" refers to, for example, the age, adult/child status, and gender of the occupant. In this case, the seating position and personality of the occupant may be detected, for example, by a camera or the like in the sensor group 30, or data may be collected in advance from the occupant.

車両制御部14は、訓練済みの機械学習モデル(訓練済みモデル)を使用して、または予め定められたルールに基づいて、上記の車両制御を行うことができる。機械学習モデルを使用する場合、当該機械学習モデルに入力される入力データは、例えば制御対象選択部12で選択した乗員の感情推定結果、乗員行動検知部13が検知した行動(状況)、乗員の着座位置、乗員の個性等に関する情報である。また、機械学習モデルから出力される出力データは、例えば当該乗員に対する上記の車両動作に関する情報である。 The vehicle control unit 14 can perform the above vehicle control using a trained machine learning model (trained model) or based on predetermined rules. When a machine learning model is used, the input data input to the machine learning model is, for example, information related to the emotion estimation result of the occupant selected by the control target selection unit 12, the behavior (situation) detected by the occupant behavior detection unit 13, the seating position of the occupant, the personality of the occupant, etc. Also, the output data output from the machine learning model is, for example, information related to the above vehicle operation for the occupant.

車両制御部14で用いる機械学習モデルを構築する際の手法は特に限定されず、例えばニューラルネットワークを用いた深層学習、サポートベクターマシン、決定木、単純ベイズ、k近傍法等の種々の手法を用いることができる。 The method for constructing the machine learning model used by the vehicle control unit 14 is not particularly limited, and various methods such as deep learning using neural networks, support vector machines, decision trees, naive Bayes, and k-nearest neighbor methods can be used.

記憶部20は、例えばEPROM(Erasable Programmable ROM)、ハードディスクドライブ(Hard Disk Drive:HDD)およびリムーバブルメディア等の記録媒体によって実現される。リムーバブルメディアとしては、例えばUSB(Universal Serial Bus)メモリ、CD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray(登録商標) Disc)のようなディスク記録媒体が挙げられる。 The storage unit 20 is realized by a recording medium such as an EPROM (Erasable Programmable ROM), a hard disk drive (HDD), and a removable medium. Examples of removable media include disk recording media such as a Universal Serial Bus (USB) memory, a Compact Disc (CD), a Digital Versatile Disc (DVD), and a Blu-ray (registered trademark) Disc (BD).

記憶部20には、オペレーティングシステム(Operating System:OS)、各種プログラム、各種テーブル、各種データベース等が格納可能である。また、記憶部20には、例えば感情推定部11における感情の推定結果、制御対象選択部12で選択した乗員に関する情報、乗員行動検知部13で検知した乗員の行動に関する情報等が格納されてもよい。また、記憶部20には、感情推定部11および車両制御部14で用いられる機械学習モデル(訓練済みモデル)、感情推定部11が推定した感情データ等が格納されてもよい。 The storage unit 20 can store an operating system (OS), various programs, various tables, various databases, and the like. The storage unit 20 may also store, for example, emotion estimation results from the emotion estimation unit 11, information about the occupant selected by the control target selection unit 12, information about the behavior of the occupant detected by the occupant behavior detection unit 13, and the like. The storage unit 20 may also store machine learning models (trained models) used by the emotion estimation unit 11 and the vehicle control unit 14, emotion data estimated by the emotion estimation unit 11, and the like.

センサ群30は、各乗員の状況を検出するためのデータを取得する。センサ群30としては、各乗員の画像を撮影するためのカメラ、各乗員の状況を検出するための温度センサおよび赤外線センサ、各乗員の生体データを取得するための生体センサ等が挙げられる。また、生体センサとしては、例えば温度センサ、心拍センサ、脈拍センサ、血圧センサ、脳波センサ等が挙げられる。 The sensor group 30 acquires data for detecting the status of each occupant. Examples of the sensor group 30 include a camera for capturing an image of each occupant, a temperature sensor and an infrared sensor for detecting the status of each occupant, and a biosensor for acquiring biometric data of each occupant. Examples of biosensors include a temperature sensor, a heart rate sensor, a pulse sensor, a blood pressure sensor, and an electroencephalogram sensor.

(車両制御方法)
実施形態に係る車両制御装置が実行する車両制御方法の処理手順の一例について、図5を参照しながら説明する。
(Vehicle control method)
An example of a processing procedure of a vehicle control method executed by the vehicle control device according to the embodiment will be described with reference to FIG.

まず、感情推定部11は、例えばセンサ群30によるセンサデータ(画像データ、生体データ)に基づいて、各乗員の感情を推定する(ステップS1)。続いて、制御対象選択部12は、ステップS1で推定した各乗員の感情データについて、感情データの変化率(例えば微分値)を算出する(ステップS2)。 First, the emotion estimation unit 11 estimates the emotion of each occupant based on, for example, sensor data (image data, biometric data) from the sensor group 30 (step S1). Next, the control target selection unit 12 calculates the rate of change (e.g., differential value) of the emotion data of each occupant estimated in step S1 (step S2).

続いて、制御対象選択部12は、車両の乗員のうち、感情データの変化率が最も高い乗員を選択する(ステップS3)。続いて、車両制御部14は、ステップS3で選択した乗員に対して、所定の車両制御を実施し(ステップS4)、本処理を完了する。 Next, the control target selection unit 12 selects the occupant with the highest rate of change in emotion data from among the occupants of the vehicle (step S3). Next, the vehicle control unit 14 implements a predetermined vehicle control for the occupant selected in step S3 (step S4), and completes this process.

以上説明した実施形態に係る車両制御装置によれば、車両の各乗員の感情データの変化率を算出し、当該変化率が高い乗員に対して優先的に車両制御を実施する。これにより、明確な優先順に基づいて、各乗員に対して車両制御を実施することができるため、感情に基づく車両制御の衝突、いずれの乗員に対しても対応不可といった事態に陥ることを未然に防止することができる。 According to the vehicle control device of the embodiment described above, the rate of change in the emotion data of each vehicle occupant is calculated, and vehicle control is given priority to occupants with a high rate of change. This allows vehicle control to be performed for each occupant based on a clear priority order, making it possible to prevent collisions in emotion-based vehicle control and situations in which it is not possible to respond to any occupant.

すなわち、実施形態に係る車両制御装置では、訓練済みモデルを使用して、各乗員の感情を推定し、推定結果を時系列で記録する。続いて、時系列の記録から感情データの変化率を算出し、算出される感情データの変化率に基づいて、複数の乗員から着目乗員を決定する。このように、実施形態に係る車両制御装置では、感情データの変化率に基づいて、各乗員の優先順位を適正に決定することができるため、感情に基づく車両制御の衝突、複数の乗員に対する対応不可等の不具合を抑制することができる。 That is, the vehicle control device according to the embodiment uses a trained model to estimate the emotions of each occupant and records the estimation results in a time series. Next, the rate of change of the emotion data is calculated from the time series records, and an occupant of interest is selected from the multiple occupants based on the calculated rate of change of the emotion data. In this way, the vehicle control device according to the embodiment can appropriately determine the priority of each occupant based on the rate of change of the emotion data, thereby suppressing problems such as collisions in vehicle control based on emotions and an inability to respond to multiple occupants.

また、実施形態に係る車両制御装置では、感情データの変化率を用いることにより、例えば「快⇒不快」または「不快⇒快」への急速な変動に起因する車両制御を特定することができる。例えば「快⇒不快」であれば、そのような車両制御を抑制する方向に修正し、「不快⇒快」であれば、そのような車両制御を促進する方向に修正することで、乗員全員が大きく不快に陥らないようにすることができる。その結果、乗員全体に快適な車両制御を期待することができる。 In addition, in the vehicle control device according to the embodiment, by using the rate of change of emotion data, it is possible to identify vehicle control caused by, for example, a rapid change from "pleasant to unpleasant" or "unpleasant to pleasant." For example, if the change is "pleasant to unpleasant," the vehicle control is corrected in a direction that suppresses such vehicle control, and if the change is "unpleasant to pleasant," the vehicle control is corrected in a direction that promotes such vehicle control, thereby preventing all occupants from becoming excessively uncomfortable. As a result, it is possible to expect comfortable vehicle control for all occupants.

更なる効果や変形例は、当業者によって容易に導き出すことができる。よって、本発明のより広範な態様は、以上のように表わし、かつ記述した特定の詳細および代表的な実施形態に限定されるものではない。従って、添付のクレームおよびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further advantages and modifications may readily occur to those skilled in the art. Thus, the invention in its broader aspects is not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and equivalents thereof.

1 車両制御装置
10 制御部
11 感情推定部
12 制御対象選択部
13 乗員行動検知部
14 車両制御部
20 記憶部
30 センサ群
REFERENCE SIGNS LIST 1 vehicle control device 10 control unit 11 emotion estimation unit 12 control target selection unit 13 occupant behavior detection unit 14 vehicle control unit 20 storage unit 30 sensor group

Claims (1)

プロセッサを備え、
前記プロセッサは、
訓練済みモデルを使用して、車両の各乗員の感情を推定し、
推定した感情の時系列データに基づいて、各乗員の感情の変化率を算出し、
算出した感情の変化率に基づいて、複数の乗員から着目乗員を選択し、
選択した着目乗員の感情の推定結果に基づいて、所定の車両制御を実行する、
車両制御装置。
A processor is provided.
The processor,
Use the trained model to estimate the emotions of each occupant in the vehicle,
Calculate the rate of change of each passenger's emotion based on the estimated emotion time series data,
Selecting a target occupant from the plurality of occupants based on the calculated change rate of emotion;
Executing a predetermined vehicle control based on the estimation result of the emotion of the selected occupant of interest.
Vehicle control device.
JP2022182091A 2022-11-14 2022-11-14 Vehicle control device Pending JP2024071249A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022182091A JP2024071249A (en) 2022-11-14 2022-11-14 Vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022182091A JP2024071249A (en) 2022-11-14 2022-11-14 Vehicle control device

Publications (1)

Publication Number Publication Date
JP2024071249A true JP2024071249A (en) 2024-05-24

Family

ID=91129316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022182091A Pending JP2024071249A (en) 2022-11-14 2022-11-14 Vehicle control device

Country Status (1)

Country Link
JP (1) JP2024071249A (en)

Similar Documents

Publication Publication Date Title
US10173667B2 (en) Occupant based vehicle control
US11155141B2 (en) Facilitating personalized vehicle occupant comfort
JP7020156B2 (en) Evaluation device, motion control device, evaluation method, and evaluation program
US9463805B2 (en) System and method for dynamic vehicle control affecting sleep states of vehicle occupants
CN107554528B (en) Fatigue grade detection method and device for driver and passenger, storage medium and terminal
US11430231B2 (en) Emotion estimation device and emotion estimation method
JP2011118831A (en) Awakening support device
JP2024071249A (en) Vehicle control device
US20240227496A9 (en) Air-conditioning control device and computer-readable recording medium
US20240131895A1 (en) Air-conditioning control device and computer-readable recording medium
US20240227832A9 (en) Vehicle controller and recording medium
US20240132090A1 (en) Vehicle controller and recording medium
KR102002304B1 (en) Healthcare Method and Apparatus for Vehicle
EP4061665A1 (en) Apparatus and method for controlling vehicle functions
US20240149874A1 (en) Driving support apparatus
JP2024084568A (en) Vehicle control device
JP2024078278A (en) Vehicle control device
KR102613180B1 (en) Vehicle and control method for the same
EP4177852A1 (en) Method for automatically controlling in-cabin environment for passenger and system therefor
JP2024066808A (en) In-vehicle systems
JP2023000407A (en) Occupant's discomfort degree estimation device
JP2024063481A (en) Estimation device, estimation method, and program
JP2024076257A (en) In-vehicle systems
JP2024067160A (en) In-vehicle systems
JP2024089232A (en) Driving Support Devices