JP2021113041A - Automatic operation assistance device - Google Patents

Automatic operation assistance device Download PDF

Info

Publication number
JP2021113041A
JP2021113041A JP2020148989A JP2020148989A JP2021113041A JP 2021113041 A JP2021113041 A JP 2021113041A JP 2020148989 A JP2020148989 A JP 2020148989A JP 2020148989 A JP2020148989 A JP 2020148989A JP 2021113041 A JP2021113041 A JP 2021113041A
Authority
JP
Japan
Prior art keywords
occupant
vehicle
emotion
control parameter
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020148989A
Other languages
Japanese (ja)
Inventor
育郎 後藤
Ikuro Goto
育郎 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to CN202011375039.3A priority Critical patent/CN113135190A/en
Priority to US17/118,122 priority patent/US11697431B2/en
Publication of JP2021113041A publication Critical patent/JP2021113041A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide an automatic operation assistance device that is able to specifically and sequentially calculate automatic operation control parameters for a vehicle in order to bring emotion of an occupant such as a driver or a passenger close to an ideal state.SOLUTION: An automatic drive assistance device comprises: an occupant feeling learning unit that constructs an occupant feeling model for estimating an emotion of an occupant from an operating state of a vehicle, based on information on the operating state of the vehicle and information on the emotion of the occupant; and a control parameter setting unit that calculates an ideal operating state of the vehicle, in which the emotion of the occupant approaches a target emotion, based on the occupant feeling model and sets a control parameter for automatic operation control, based on the ideal operating state. The control parameter setting unit inputs a plurality of input values relating to an operating state of the vehicle into the occupant feeling model and sets the control parameter so that, among the input values input to the occupant feeling model, an input value at which the emotion of the occupant is closer to the target emotion than the current emotion is the ideal operating state of the vehicle.SELECTED DRAWING: Figure 3

Description

本発明は、自動運転支援装置に関する。 The present invention relates to an automatic driving support device.

自動運転車両において、ドライバや同乗者等の乗員の運転特性を車両の走行制御へ反映することで、不安や違和感などのネガティブな感情を抑制する技術が提案されている。例えば、特許文献1には、運転者の運転データに基づいて運転者に固有の個人ドライバモデルを学習する個人サーバと、運転者の車両に設けられ、所定の車両制御処理を実行する車載コントローラとを備え、個人サーバは、車載コントローラに推奨処理の実行を指示するリコメンドエンジンを備え、リコメンドエンジンは、運転データに含まれる運転者の音声データに基づいて現在の運転者の感情状態を分析し、個人ドライバモデルに基づいて、分析された感情状態に応じた推奨処理を判断する車両運転支援システムが開示されている。 In autonomous vehicles, a technique has been proposed in which negative emotions such as anxiety and discomfort are suppressed by reflecting the driving characteristics of occupants such as drivers and passengers in the driving control of the vehicle. For example, Patent Document 1 describes an individual server that learns a driver-specific individual driver model based on the driver's driving data, and an in-vehicle controller that is provided in the driver's vehicle and executes a predetermined vehicle control process. The personal server is equipped with a recommendation engine that instructs the in-vehicle controller to execute the recommended processing, and the recommendation engine analyzes the current driver's emotional state based on the driver's voice data included in the driving data. A vehicle driving support system that determines recommended processing according to the analyzed emotional state based on an individual driver model is disclosed.

また、特許文献2には、車両の運転者又は同乗者の生体情報を測定する生体センサから取得した生体情報を用いて運転者又は同乗者の感情を推定し、推定した感情に基づいて車両の走行を制御する電子制御装置が開示されている。 Further, in Patent Document 2, the emotion of the driver or the passenger is estimated by using the biological information acquired from the biological sensor that measures the biological information of the driver or the passenger of the vehicle, and the emotion of the vehicle is estimated based on the estimated emotion. An electronic control device for controlling traveling is disclosed.

特開2018−169704号公報JP-A-2018-169704 特開2017−136922号公報JP-A-2017-136922

しかしながら、特許文献1には、リコメンドエンジンが適切な推奨処理を導出し、車室空間リコメンド信号、走行ルートリコメンド信号、情報提示リコメンド信号の中から状況に応じて適宜なリコメンド信号を選択して出力することが記載されているものの、制御パラメタを具体的に算出する手順は記載されていない。特許文献2においても、推定した感情に基づいて車両の走行を制御するためのパラメタを具体的に算出する手順は記載されていない。車両の自動運転制御を実行するには、制御パラメタを逐次的に算出しなければならず、制御パラメタを具体的にかつ逐次的に算出する手法が必要とされる。 However, in Patent Document 1, the recommendation engine derives an appropriate recommended process, and selects and outputs an appropriate recommendation signal from the vehicle interior space recommendation signal, the traveling route recommendation signal, and the information presentation recommendation signal according to the situation. Although it is described that the control parameters are to be calculated, the procedure for specifically calculating the control parameters is not described. Patent Document 2 also does not describe a procedure for specifically calculating parameters for controlling the running of a vehicle based on an estimated emotion. In order to execute the automatic driving control of the vehicle, the control parameters must be calculated sequentially, and a method of specifically and sequentially calculating the control parameters is required.

本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ドライバや同乗者等の乗員の感情を理想の状態に近づけるための車両の自動運転制御パラメタを具体的にかつ逐次的に算出可能な自動運転支援装置を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to specifically set automatic driving control parameters of a vehicle for bringing the emotions of a occupant such as a driver or a passenger closer to an ideal state. The purpose is to provide an automatic driving support device that can be calculated sequentially.

上記課題を解決するために、本発明のある観点によれば、車両の運転状態及び乗員の感情の情報に基づいて、車両の運転状態から乗員の感情を推定する乗員感情モデルを構築する乗員感情学習部と、乗員感情モデルに基づいて、乗員の感情が目標とする感情に近づく車両の理想運転状態を算出し、理想運転状態に基づいて自動運転制御用の制御パラメタを設定する制御パラメタ設定部と、を備え、制御パラメタ設定部は、車両の運転状態に関する複数の入力値をそれぞれ乗員感情モデルへ入力し、乗員感情モデルに入力された入力値のうち、乗員の感情が現在の感情よりも目標とする感情に近づく入力値を車両の理想運転状態として制御パラメタを設定する自動運転支援装置が提供される。 In order to solve the above problem, according to a certain viewpoint of the present invention, the occupant emotion model for estimating the occupant's emotion from the driving condition of the vehicle is constructed based on the information of the driving condition of the vehicle and the emotion of the occupant. Based on the learning unit and the occupant emotion model, the ideal driving state of the vehicle in which the occupant's emotion approaches the target emotion is calculated, and the control parameter setting unit for setting the control parameter for automatic driving control based on the ideal driving state. The control parameter setting unit inputs a plurality of input values related to the driving state of the vehicle into the occupant emotion model, and among the input values input to the occupant emotion model, the occupant's emotion is higher than the current emotion. An automatic driving support device is provided that sets control parameters with an input value approaching the target emotion as the ideal driving state of the vehicle.

また、乗員感情モデルは、車両の周囲環境の情報と、車両の運転状態の情報と、に基づいて乗員の感情を推定する乗員感情モデルであり、制御パラメタ設定部は、現在の車両の周囲環境に対応する周囲環境における車両の理想運転状態を求めて制御パラメタを設定してもよい。 The occupant emotion model is an occupant emotion model that estimates the occupant's emotions based on the information on the surrounding environment of the vehicle and the information on the driving state of the vehicle, and the control parameter setting unit is the current surrounding environment of the vehicle. The control parameter may be set by finding the ideal driving state of the vehicle in the surrounding environment corresponding to.

また、乗員感情学習部は、推定される乗員の感情の情報と、車両の周囲環境の情報と、車両の運転状態の情報と、を紐づけたデータセットを蓄積し、制御パラメタ設定部は、蓄積されたデータセットの中から、現在の車両の周囲環境に対応する周囲環境において目標とする感情に近づく車両の運転状態を抽出し、抽出した車両の運転状態の情報に基づいて複数の入力値を作成してもよい。 In addition, the occupant emotion learning unit accumulates a data set that links the estimated occupant emotion information, the information on the surrounding environment of the vehicle, and the information on the driving state of the vehicle. From the accumulated data set, the driving state of the vehicle approaching the target emotion in the surrounding environment corresponding to the current surrounding environment of the vehicle is extracted, and a plurality of input values are input based on the extracted vehicle driving state information. May be created.

また、制御パラメタ設定部は、抽出した車両の運転状態における所定のデータ項目の値と現在の車両の運転状態における所定のデータ項目の値との間で複数の入力値を設定してもよい。 Further, the control parameter setting unit may set a plurality of input values between the value of the predetermined data item in the driving state of the extracted vehicle and the value of the predetermined data item in the driving state of the current vehicle.

また、車両の運転状態における所定のデータ項目は複数のデータ項目を含み、複数のデータ項目のうちの少なくとも一つは、ユーザにより優先項目として設定可能であり、制御パラメタ設定部は、ユーザにより設定された優先項目がある場合には、乗員感情モデルに入力する複数の入力値のデータ項目のうちの当該優先項目の値を、現在の車両の周囲環境に対応する周囲環境において目標とする感情に近づく車両の運転状態として抽出された値に固定するとともに他のデータ項目について複数の入力値を作成してもよい。 Further, a predetermined data item in the driving state of the vehicle includes a plurality of data items, at least one of the plurality of data items can be set as a priority item by the user, and the control parameter setting unit is set by the user. If there is a priority item, the value of the priority item among the data items of multiple input values to be input to the occupant emotion model is set to the target emotion in the surrounding environment corresponding to the current surrounding environment of the vehicle. It may be fixed to the value extracted as the driving state of the approaching vehicle, and a plurality of input values may be created for other data items.

また、制御パラメタ設定部は、優先項目の値を固定して求めた制御パラメタにより自動運転制御を実行したときの乗員の感情が、乗員感情モデルを用いて算出した乗員の感情よりも悪化した場合には、乗員の感情に与える影響の大きい少なくとも一つのデータ項目を、現在の車両の周囲環境に対応する周囲環境において目標とする感情に近づく車両の運転状態として抽出された値に固定するようにユーザに提示してもよい。 In addition, when the control parameter setting unit determines that the occupant's emotions when the automatic driving control is executed by the control parameters obtained by fixing the priority item values are worse than the occupant's emotions calculated using the occupant emotion model. To fix at least one data item that has a large effect on the emotions of the occupant to the value extracted as the driving state of the vehicle approaching the target emotion in the surrounding environment corresponding to the current surrounding environment of the vehicle. It may be presented to the user.

また、車両の運転状態における所定のデータ項目は複数のデータ項目を含み、乗員感情学習部は、蓄積したデータセットに基づいて、乗員の感情に与える影響の大きい少なくとも一つのデータ項目を抽出し、制御パラメタ設定部は、乗員の感情に与える影響の大きい少なくとも一つのデータ項目を、現在の車両の周囲環境に対応する周囲環境において目標とする感情に近づく車両の運転状態として抽出された値に固定して複数の入力値を求め、制御パラメタを設定してもよい。 Further, a predetermined data item in the driving state of the vehicle includes a plurality of data items, and the occupant emotion learning unit extracts at least one data item having a large influence on the occupant's emotion based on the accumulated data set. The control parameter setting unit fixes at least one data item that has a large effect on the emotions of the occupants to the value extracted as the driving state of the vehicle that approaches the target emotion in the surrounding environment corresponding to the current surrounding environment of the vehicle. You may obtain a plurality of input values and set control parameters.

また、制御パラメタ設定部は、演算を行う演算処理装置の処理速度及び制御パラメタの更新頻度のうちの少なくとも一方に基づいて、乗員感情モデルへ入力する複数の入力値の数を設定してもよい。 Further, the control parameter setting unit may set the number of a plurality of input values to be input to the occupant emotion model based on at least one of the processing speed of the arithmetic processing unit that performs the calculation and the update frequency of the control parameters. ..

以上説明したように本発明によれば、ドライバや同乗者等の乗員の感情を理想の状態に近づけるための車両の自動運転制御パラメタを具体的に算出することができ、乗員の感情を理想の状態に近づけることが可能な自動運転制御を実現することができる。 As described above, according to the present invention, it is possible to specifically calculate the automatic driving control parameters of the vehicle for bringing the emotions of the occupants such as the driver and passengers closer to the ideal state, and the emotions of the occupants are ideal. It is possible to realize automatic operation control that can approach the state.

本発明の実施の形態に係る自動運転支援装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the automatic driving support device which concerns on embodiment of this invention. 乗員感情モデルの一例を示す説明図である。It is explanatory drawing which shows an example of an occupant feeling model. 乗員感情モデルを用いて車両の制御パラメタを設定するアルゴリズムを示す説明図である。It is explanatory drawing which shows the algorithm which sets the control parameter of a vehicle using an occupant feeling model. 同実施形態に係る自動運転支援装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the automatic driving support device which concerns on this embodiment. 同実施形態に係る自動運転支援装置による乗員感情モデル学習処理を示すフローチャートである。It is a flowchart which shows the occupant emotion model learning process by the automatic driving support device which concerns on the same embodiment. 同実施形態に係る自動運転支援装置による乗員感情に基づく走行制御処理を示すフローチャートである。It is a flowchart which shows the driving control processing based on the occupant feeling by the automatic driving support device which concerns on the same embodiment.

以下、添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

<1.自動運転支援装置の構成例>
まず、本発明の実施の形態に係る自動運転支援装置の構成例を説明する。図1は、本実施形態に係る自動運転支援装置10の構成例を示すブロック図である。
<1. Configuration example of automatic driving support device>
First, a configuration example of the automatic driving support device according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of the automatic driving support device 10 according to the present embodiment.

自動運転支援装置10は、車両に搭載され、車両の乗員、車両の運転状態、並びに車両の周囲環境の情報を検出するとともに、検出された各種情報を用いて車両の運転を支援する制御を実行するように構成されている。自動運転支援装置10は、乗員検出部41、車両情報検出部43、入力部45、周囲環境検出部47、生体情報検出部49、電子制御装置50、通信装置31及び車両走行制御装置35を備えている。 The automatic driving support device 10 is mounted on the vehicle, detects information on the occupants of the vehicle, the driving state of the vehicle, and the surrounding environment of the vehicle, and executes control to support the driving of the vehicle using the various detected information. It is configured to do. The automatic driving support device 10 includes an occupant detection unit 41, a vehicle information detection unit 43, an input unit 45, an ambient environment detection unit 47, a biological information detection unit 49, an electronic control device 50, a communication device 31, and a vehicle travel control device 35. ing.

(1−1.乗員検出部)
乗員検出部41は、車内に設けられて、ドライバや同乗者等の車両の乗員を検出する。電子制御装置50は、乗員検出部41で検出された情報を取得可能に構成される。乗員検出部41は、少なくとも車両に乗員が存在することを検出してもよく、個々の乗員を特定してもよい。本実施形態において、乗員検出部41は、車室内を撮影するカメラと、当該カメラにより取得される撮像データに基づいて個々の乗員を特定する画像処理装置とを含んで構成されている。画像処理装置は、撮像データを画像処理することにより人物の顔の特徴量を算出し、個々の人物を特定する。乗員検出部41は、検出した乗員が座る位置を特定してもよい。電子制御装置50は、取得した乗員の情報を、個々の乗員の感情の学習に用いる。
(1-1. Crew detection unit)
The occupant detection unit 41 is provided inside the vehicle and detects occupants of the vehicle such as a driver and a passenger. The electronic control device 50 is configured to be able to acquire the information detected by the occupant detection unit 41. The occupant detection unit 41 may at least detect the presence of an occupant in the vehicle, or may identify individual occupants. In the present embodiment, the occupant detection unit 41 includes a camera that photographs the interior of the vehicle and an image processing device that identifies individual occupants based on the image pickup data acquired by the camera. The image processing device calculates the feature amount of the face of a person by performing image processing on the captured data, and identifies each person. The occupant detection unit 41 may specify the position where the detected occupant sits. The electronic control device 50 uses the acquired occupant information for learning the emotions of individual occupants.

(1−2.車両情報検出部)
車両情報検出部43は、車両の運転状態の情報を検出する。車両の運転状態とは、車両の操作状態及び挙動を含む。電子制御装置50は、車両情報検出部43で検出された情報を取得可能に構成される。車両情報検出部43は、車速、加速度、ヨーレート等の車両の挙動の情報を検出する。車両情報検出部43は、例えば、エンジン回転数センサ、車速センサ、加速度センサ、角速度センサのうちの少なくとも一つを含んでいてもよい。また、車両情報検出部43は、アクセル操作量、ブレーキ操作量、ステアリング舵角等の車両の操作状態の情報を検出する。車両情報検出部43は、例えば、アクセルポジションセンサ、ブレーキストロークセンサ、舵角センサのうちの少なくとも一つを含んでいてもよい。電子制御装置50は、取得した車両情報を、個々の乗員の感情の学習に用いる。
(1-2. Vehicle information detection unit)
The vehicle information detection unit 43 detects information on the driving state of the vehicle. The driving state of the vehicle includes the operating state and behavior of the vehicle. The electronic control device 50 is configured to be able to acquire the information detected by the vehicle information detection unit 43. The vehicle information detection unit 43 detects information on vehicle behavior such as vehicle speed, acceleration, and yaw rate. The vehicle information detection unit 43 may include, for example, at least one of an engine speed sensor, a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor. Further, the vehicle information detection unit 43 detects information on the operation state of the vehicle such as the accelerator operation amount, the brake operation amount, and the steering steering angle. The vehicle information detection unit 43 may include, for example, at least one of an accelerator position sensor, a brake stroke sensor, and a steering angle sensor. The electronic control device 50 uses the acquired vehicle information for learning the emotions of individual occupants.

(1−3.入力部)
入力部45は、ドライバや同乗者その他のユーザの入力操作を受け付ける。本実施形態において、入力部45は、運転モードを手動運転モード又は自動運転モードに切り替える入力操作を受け付ける。また、入力部45は、運転モードが自動運転モードに設定されている場合に、乗員感情モデル63を利用して制御パラメタを設定する際の目標とする乗員の感情を設定する入力操作を受け付ける。後述のとおり、本実施形態において、ポジティブ及びネガティブの感情がそれぞれ4段階に規定され、乗員の感情はその中間のニュートラルの感情を含めて計9段階に規定されている。このため、ドライバ等の乗員は、9段階のうちのいずれかのレベルの感情を目標とする感情に設定する。
(1-3. Input section)
The input unit 45 accepts input operations of the driver, passengers, and other users. In the present embodiment, the input unit 45 accepts an input operation for switching the operation mode to the manual operation mode or the automatic operation mode. Further, the input unit 45 accepts an input operation for setting a target occupant's emotion when setting a control parameter using the occupant's emotion model 63 when the operation mode is set to the automatic operation mode. As will be described later, in the present embodiment, positive and negative emotions are defined in four stages, and the emotions of the occupants are defined in a total of nine stages including the neutral emotions in between. Therefore, the occupant such as the driver sets the emotion of any level of the nine stages as the target emotion.

入力部45は、特に限定されるものではなく、タッチパネル、ダイヤルスイッチ、ボタンスイッチ等の適宜の入力装置であってよい。あるいは、入力部45は、音声又はジェスチャによる入力を受け付ける装置であってもよい。 The input unit 45 is not particularly limited, and may be an appropriate input device such as a touch panel, a dial switch, or a button switch. Alternatively, the input unit 45 may be a device that accepts input by voice or gesture.

(1−4.周囲環境検出部)
周囲環境検出部47は、車両の周囲環境の情報を検出する。電子制御装置50は、周囲環境検出部47で検出された情報を取得可能に構成される。周囲環境検出部47は、車両の周囲環境の情報として、車両の周囲に存在する人物や他車両、自転車、建造物、その他障害物等を検出する。また、周囲環境検出部47は、車両の走行位置あるいは走行エリアの天候や路面状態、日照条件等を検出する。周囲環境検出部47は、例えば、車両の周囲を撮像するカメラや、車両の周囲の物体を検出するレーダ、車両の周囲の物体までの距離や方位等を検出するLiDAR等の検出器のうちの少なくとも一つを含む。また、周囲環境検出部47は、車車間通信又は路車間通信等の車両の外部の装置から情報を取得する通信装置を含んでいてもよい。さらに、周囲環境検出部47は、路面摩擦に関連する情報を検出する検出器を含んでいてもよい。電子制御装置50は、取得した周囲環境の情報を用いて周囲環境を判定する。
(1-4. Surrounding environment detection unit)
The surrounding environment detection unit 47 detects information on the surrounding environment of the vehicle. The electronic control device 50 is configured to be able to acquire the information detected by the ambient environment detection unit 47. The surrounding environment detection unit 47 detects a person, another vehicle, a bicycle, a building, other obstacles, etc. existing around the vehicle as information on the surrounding environment of the vehicle. In addition, the surrounding environment detection unit 47 detects the traveling position of the vehicle, the weather in the traveling area, the road surface condition, the sunshine condition, and the like. The ambient environment detection unit 47 is among detectors such as a camera that images the surroundings of the vehicle, a radar that detects an object around the vehicle, and a LiDAR that detects the distance and direction to an object around the vehicle. Includes at least one. Further, the surrounding environment detection unit 47 may include a communication device that acquires information from an external device of the vehicle such as vehicle-to-vehicle communication or road-to-vehicle communication. Further, the ambient environment detection unit 47 may include a detector that detects information related to road surface friction. The electronic control device 50 determines the surrounding environment using the acquired information on the surrounding environment.

(1−5.生体情報検出部)
生体情報検出部49は、乗員の感情や感性を推定するための情報を検出する一つ又は複数の検出機器からなる。電子制御装置50は、乗員検出部41で検出された情報を取得可能に構成される。乗員検出部41を構成するカメラ及び画像処理装置が生体情報検出部49として機能してもよい。例えば、画像処理装置は、カメラにより取得された顔画像の色の変化に基づいて、乗員の心拍や脈拍、体温等の生体情報を検出することができる。この他、生体情報検出部49は、例えば、乗員の心拍を検出するための電波式ドップラーセンサ、乗員の脈拍を検出するための非装着型の脈拍センサ、ドライバの心拍又は心電図を計測するためにステアリングホイールに埋設された電極、乗員が座席に着座している間の座圧分布を計測するために運転席のシートに埋設された圧力計測器、乗員の心拍又は呼吸を計測するためにシートベルトの位置の変化を検出する機器、乗員の位置(生体位置)の情報を検出するためのTOF(Time of Flight)センサ、又は、乗員の皮膚の表面温度を計測するためのサーモグラフィのうちの少なくとも一つを含んでいてもよい。また、乗員検出部41は、乗員に装着されて乗員の生体情報を検出すウェアラブル機器等の装着型の検出器を含んでいてもよい。
(1-5. Biological information detection unit)
The biological information detection unit 49 includes one or a plurality of detection devices that detect information for estimating the emotions and sensibilities of the occupants. The electronic control device 50 is configured to be able to acquire the information detected by the occupant detection unit 41. The camera and image processing device constituting the occupant detection unit 41 may function as the biological information detection unit 49. For example, the image processing device can detect biological information such as the occupant's heartbeat, pulse, and body temperature based on the color change of the face image acquired by the camera. In addition, the biometric information detection unit 49 is used, for example, to measure a radio wave Doppler sensor for detecting the occupant's heartbeat, a non-wearable pulse sensor for detecting the occupant's pulse, and a driver's heartbeat or electrocardiogram. Electrodes embedded in the steering wheel, pressure measuring instruments embedded in the driver's seat to measure the seat pressure distribution while the occupant is seated, seat belt to measure the occupant's heart rate or breathing At least one of a device that detects changes in the position of the occupant, a TOF (Time of Flight) sensor that detects information on the position of the occupant (living body position), or a thermography that measures the surface temperature of the occupant's skin. May include one. Further, the occupant detection unit 41 may include a wearable detector such as a wearable device that is attached to the occupant and detects the biological information of the occupant.

(1−6.通信装置)
通信装置31は、電子制御装置50が、外部のサーバ20との間で情報を送受信するためのインタフェースである。例えば、通信装置31は、移動体通信ネットワークを介してサーバ20にアクセス可能な通信インタフェースであってもよい。通信装置31は、ある車両で蓄積された走行感情データベース61を複数の車両で共有するために外部のサーバ20と通信するために備えられるものであり、走行感情データベース61を共有しない場合には省略されていてもよい。
(1-6. Communication device)
The communication device 31 is an interface for the electronic control device 50 to send and receive information to and from the external server 20. For example, the communication device 31 may be a communication interface that can access the server 20 via the mobile communication network. The communication device 31 is provided for communicating with an external server 20 in order to share the driving emotion database 61 accumulated in a certain vehicle with a plurality of vehicles, and is omitted when the driving emotion database 61 is not shared. It may have been done.

(1−7.車両走行制御装置)
車両走行制御装置35は、車両の走行制御を実行する。車両走行制御装置35は、車両の走行制御を実行する一つ又は複数の制御装置を含む、例えば、車両走行制御装置35は、エンジンや、一つ又は複数の駆動用モータ及び変速機を含む動力伝達機構、ステアリングシステム、ブレーキシステム等の駆動を制御する制御装置を含む。本実施形態において、車両走行制御装置35は、車両の自動運転制御を実行可能に構成されている。運転モードが自動運転モードに設定されている場合、車両走行制御装置35は、車両の走行制御の少なくとも一部をドライバの操作によらずに自動で制御し、設定された走行経路を経由して車両を目的地まで走行させる。
(1-7. Vehicle running control device)
The vehicle travel control device 35 executes vehicle travel control. The vehicle travel control device 35 includes one or more control devices that perform vehicle travel control, for example, the vehicle travel control device 35 includes an engine and power including one or more drive motors and transmissions. It includes a control device that controls the drive of a transmission mechanism, a steering system, a braking system, and the like. In the present embodiment, the vehicle travel control device 35 is configured to be capable of executing automatic driving control of the vehicle. When the driving mode is set to the automatic driving mode, the vehicle driving control device 35 automatically controls at least a part of the driving control of the vehicle without the driver's operation, and via the set driving route. Drive the vehicle to its destination.

また、車両走行制御装置35は、自動運転モード中、電子制御装置50からの指令を受信して車両の走行制御を実行する。具体的に、車両走行制御装置35は、電子制御装置50から送信される制御パラメタを用いて、車両の自動運転制御を実行する。 Further, the vehicle travel control device 35 receives a command from the electronic control device 50 and executes vehicle travel control during the automatic driving mode. Specifically, the vehicle travel control device 35 executes automatic driving control of the vehicle by using the control parameters transmitted from the electronic control device 50.

(1−8.電子制御装置)
電子制御装置50は、例えば、CPU(Central Processing Unit)又はMPU(Micro Processing Unit)等の演算処理装置、及び、RAM(Random Access Memory)やROM(Read Only Memory)等の記憶素子を備えて構成される。演算処理装置は、記憶素子に記憶されたプログラムを実行することにより種々の演算処理を実行する。電子制御装置50は、記憶素子と併せて、あるいは、記憶素子に代えて、HDD(Hard Disk Drive)やCD(Compact Disc)、DVD(Digital Versatile Disc)、SSD(Solid State Drive)、USB(Universal Serial Bus)フラッシュ、ストレージ装置等の記憶媒体を備えていてもよい。なお、電子制御装置50の一部又は全部は、ファームウェア等の更新可能なもので構成されてもよく、また、CPU等からの指令によって実行されるプログラムモジュール等であってもよい。
(1-8. Electronic control device)
The electronic control device 50 includes, for example, an arithmetic processing device such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), and a storage element such as a RAM (Random Access Memory) or a ROM (Read Only Memory). Will be done. The arithmetic processing unit executes various arithmetic processing by executing a program stored in the storage element. The electronic control device 50 is used in combination with a storage element or in place of a storage element, such as an HDD (Hard Disk Drive), a CD (Compact Disc), a DVD (Digital Versatile Disc), an SSD (Solid State Drive), or a USB (Universal). Serial Bus) A storage medium such as a flash or a storage device may be provided. A part or all of the electronic control device 50 may be configured by an updatable device such as firmware, or may be a program module or the like executed by a command from a CPU or the like.

電子制御装置50は、直接的に、又は、CAN(Controller Area Network)やLIN(Local Inter-Net)等の通信ラインを介して、乗員検出部41、車両情報検出部43、入力部45、周囲環境検出部47、生体情報検出部49及び車両走行制御装置35と接続されている。 The electronic control device 50 includes the occupant detection unit 41, the vehicle information detection unit 43, the input unit 45, and the surroundings directly or via a communication line such as CAN (Controller Area Network) or LIN (Local Inter-Net). It is connected to the environment detection unit 47, the biological information detection unit 49, and the vehicle travel control device 35.

本実施形態において、電子制御装置50は、運転モード設定部51、周囲環境特定部53、乗員感情推定部55、乗員感情学習部57、感情悪化判定部59、走行感情データベース61、乗員感情モデル63及び制御パラメタ設定部65を備える。このうち、運転モード設定部51、周囲環境特定部53、乗員感情推定部55、乗員感情学習部57、感情悪化判定部59及び制御パラメタ設定部65は、演算処理装置によるプログラムの実行により実現される機能であってもよい。また、走行感情データベース61及び乗員感情モデル63は、記憶部に記憶されたデータからなる。 In the present embodiment, the electronic control device 50 includes an operation mode setting unit 51, an ambient environment identification unit 53, an occupant emotion estimation unit 55, an occupant emotion learning unit 57, an emotion deterioration determination unit 59, a driving emotion database 61, and an occupant emotion model 63. And a control parameter setting unit 65 is provided. Of these, the operation mode setting unit 51, the surrounding environment identification unit 53, the occupant emotion estimation unit 55, the occupant emotion learning unit 57, the emotion deterioration determination unit 59, and the control parameter setting unit 65 are realized by executing a program by the arithmetic processing unit. It may be a function. Further, the driving emotion database 61 and the occupant emotion model 63 are composed of data stored in the storage unit.

(1−8−1.運転モード設定部)
運転モード設定部51は、入力部45から送信される操作入力の信号に基づいて、車両の運転モードを手動運転モード又は自動運転モードに切り換える。運転モード設定部51は、自動運転モードのレベルを設定可能に構成されていてもよい。本実施形態に係る自動運転支援装置10において、電子制御装置50は、車両が手動運転モードで走行している間に乗員の感情を学習して乗員感情モデル63を構築する。一方、電子制御装置50は、車両が自動運転モードで走行している間に乗員感情モデル63を用いて乗員の感情を推定し、乗員の感情が現在の感情よりも目標とする感情に近づく車両の理想運転状態を算出し、当該理想運転状態に基づいて自動運転制御用の制御パラメタを設定する。
(1-8-1. Operation mode setting unit)
The driving mode setting unit 51 switches the driving mode of the vehicle to the manual driving mode or the automatic driving mode based on the operation input signal transmitted from the input unit 45. The operation mode setting unit 51 may be configured so that the level of the automatic operation mode can be set. In the automatic driving support device 10 according to the present embodiment, the electronic control device 50 learns the emotions of the occupant while the vehicle is traveling in the manual driving mode, and constructs the occupant emotion model 63. On the other hand, the electronic control device 50 estimates the occupant's emotion using the occupant emotion model 63 while the vehicle is traveling in the automatic driving mode, and the occupant's emotion is closer to the target emotion than the current emotion. The ideal operating state of is calculated, and the control parameters for automatic operation control are set based on the ideal operating state.

(1−8−2.周囲環境特定部)
周囲環境特定部53は、周囲環境検出部47から送信される周囲環境の情報に基づいて、車両の周囲環境を特定する。具体的に、周囲環境特定部53は、地図上の車両の位置や対向車を含む他車両、自転車、歩行者、建造物、その他の障害物等の位置や大きさ、これらの障害物等と自車両との間の距離や、障害物等と自車両との相対速度等を特定する。周囲環境特定部53は、電子制御装置50の処理速度に応じた所定の時間間隔で周囲環境を特定する。
(1-8-2. Surrounding environment identification part)
The surrounding environment specifying unit 53 identifies the surrounding environment of the vehicle based on the information on the surrounding environment transmitted from the surrounding environment detecting unit 47. Specifically, the surrounding environment identification unit 53 includes the position and size of the vehicle on the map, the position and size of other vehicles including oncoming vehicles, bicycles, pedestrians, buildings, and other obstacles, and these obstacles. Specify the distance between the vehicle and the relative speed between obstacles and the vehicle. The ambient environment specifying unit 53 identifies the ambient environment at predetermined time intervals according to the processing speed of the electronic control device 50.

(1−8−3.乗員感情推定部)
乗員感情推定部55は、生体情報検出部49から送信される生体情報に基づいて、乗員の感情を推定する。例えば、乗員感情推定部55は、生体情報検出部49から送信される心拍や脳波等のそれぞれの生体情報を、「怖い」や「心地よい」等のあらかじめ設定された感情それぞれの指標に変換するように構成されていてもよい。具体的に、乗員感情推定部55は、それぞれの生体情報を、あらかじめ設定された感情それぞれの二次元座標上に対応付けるように構成されていてもよい。それぞれの感情は、ポジティブ又はネガティブの二段階に規定されていてもよく、ポジティブ側及びネガティブ側それぞれについて複数段階のレベルに規定されていてもよい。本実施形態において、それぞれの感情がそれぞれ4段階に規定され、その中間にニュートラルの感情を含めて計9段階に規定されている。
(1-8-3. Crew Emotion Estimate Department)
The occupant emotion estimation unit 55 estimates the occupant's emotion based on the biometric information transmitted from the biometric information detection unit 49. For example, the occupant emotion estimation unit 55 converts each biological information such as a heartbeat and an electroencephalogram transmitted from the biological information detection unit 49 into preset emotional indexes such as "scary" and "comfortable". It may be configured in. Specifically, the occupant emotion estimation unit 55 may be configured to associate each biometric information with preset two-dimensional coordinates of each emotion. Each emotion may be defined in two levels, positive or negative, and may be defined in multiple levels for each of the positive and negative sides. In the present embodiment, each emotion is defined in four stages, and a total of nine stages including neutral emotions are defined in the middle.

なお、本明細書において、「ポジティブ」とは、それぞれの感情について安全側あるいは安心側等の「良い感情」の状態であることを意味し、「ネガティブ」とは、「悪い感情」の状態であることを意味する。 In the present specification, "positive" means a state of "good feelings" such as a safe side or a safe side for each emotion, and "negative" means a state of "bad feelings". It means that there is.

(1−8−4.乗員感情学習部)
乗員感情学習部57は、運転モードが手動運転モードに設定されている間に乗員感情モデル63を学習する。乗員感情学習部57は、乗員感情推定部55で推定された乗員の感情の情報、車両情報検出部43で検出された車両の運転状態の情報及び周囲環境特定部53で特定された車両の周囲環境の情報に基づいて乗員感情モデル63を構築する。具体的に、乗員感情学習部57は、乗員の感情の情報と、当該乗員の感情の情報に時間的に紐づけられた車両の運転状態の情報及び周囲環境の情報とからなるデータセットを走行感情データベース61に蓄積するとともに、当該データセットを用いて乗員感情モデル63を構築する。
(1-8-4. Crew Emotion Learning Department)
The occupant emotion learning unit 57 learns the occupant emotion model 63 while the operation mode is set to the manual operation mode. The occupant emotion learning unit 57 includes information on the occupant's emotions estimated by the occupant emotion estimation unit 55, information on the driving state of the vehicle detected by the vehicle information detection unit 43, and the surroundings of the vehicle specified by the surrounding environment identification unit 53. The occupant emotion model 63 is constructed based on the information of the environment. Specifically, the occupant emotion learning unit 57 runs a data set including information on the occupant's emotions, information on the driving state of the vehicle time-linked to the information on the occupant's emotions, and information on the surrounding environment. While accumulating in the emotion database 61, the occupant emotion model 63 is constructed using the data set.

図2は、乗員感情モデル63の一例を示す。乗員感情モデル63は、車両の運転状態の情報及び周囲環境の情報を入力とし、出力として乗員感情を推定するための学習モデルである。乗員感情モデル63の構築に用いられるデータセットが時系列のデータセットであることから、入力として車両の運転状態の情報及び周囲環境の情報の時系列のデータを乗員感情モデル63に入力することにより、逐次的に乗員の感情を推定することができる。 FIG. 2 shows an example of the occupant emotion model 63. The occupant emotion model 63 is a learning model for estimating the occupant emotion as an output by inputting information on the driving state of the vehicle and information on the surrounding environment. Since the data set used for constructing the occupant emotion model 63 is a time-series data set, by inputting the time-series data of the vehicle driving state information and the surrounding environment information into the occupant emotion model 63 as input. , The emotions of the occupants can be estimated sequentially.

入力データとする車両の運転状態の情報としては、車両の前後、左右及び上下それぞれの方向の加速度、ヨー角、ピッチ角及びロール角それぞれの角速度、車速、操舵角、アクセル操作量並びにブレーキ操作量の時系列データを含むことが好ましい。さらに、車両の運転状態の情報として、エンジン回転数、方向指示器出力、乗員数及び個々の乗員の属性等の情報を含んでもよい。また、入力データとする周囲環境の情報としては、自車両の走行車線、他車両や歩行者などの交通参加者に関する属性、相対距離、相対速度及び進行方向、並びに走行中の道路の車線数、信号機情報、制限速度などの交通ルール及び交通規制のデータを含むことが好ましい。さらに、周囲環境の情報として、天候、路面状態及び建造物の属性等の情報を含んでいてもよい。 The information on the driving state of the vehicle as input data includes acceleration in each of the front-rear, left-right, and up-down directions of the vehicle, angular velocity of each of the yaw angle, pitch angle, and roll angle, vehicle speed, steering angle, accelerator operation amount, and brake operation amount. It is preferable to include the time series data of. Further, the information on the driving state of the vehicle may include information such as engine speed, turn signal output, number of occupants, and attributes of individual occupants. In addition, as input data, information on the surrounding environment includes the driving lane of the own vehicle, attributes related to traffic participants such as other vehicles and pedestrians, relative distance, relative speed and traveling direction, and the number of lanes on the road on which the vehicle is traveling. It is preferable to include traffic rule information such as traffic light information and speed limit, and traffic regulation data. Further, as the information of the surrounding environment, information such as the weather, the road surface condition, and the attributes of the building may be included.

また、乗員感情モデル63は、上記の時系列のデータの時間順序を保ったまま、入力データに対応する数の入力を受け取ってもよい。あるいは、乗員感情モデル63は、上記の時系列のデータから、例えば時間窓を規定して特徴量を抽出、例えば時間窓内の最大値、最小値及び平均値等を抽出し、入力データとして受け取ってもよい。この場合、入力データ数は、時系列のデータから抽出される特徴量の数に比例する。また、乗員感情モデル63は、乗員感情の推定値(1つの値)を出力する。 Further, the occupant emotion model 63 may receive a number of inputs corresponding to the input data while maintaining the time order of the above time series data. Alternatively, the occupant emotion model 63 extracts, for example, a feature amount by defining a time window from the above time series data, for example, extracts a maximum value, a minimum value, an average value, etc. in the time window, and receives them as input data. You may. In this case, the number of input data is proportional to the number of features extracted from the time series data. Further, the occupant emotion model 63 outputs an estimated value (one value) of the occupant emotion.

なお、乗員感情モデル63を構築する手法は特に限定されるものではなく、例えば、サポートベクタマシン、近傍法、ディープラーニング等のニューラルネットワーク又はベイジアンネットワーク等の公知の手法を適宜採用することができる。 The method for constructing the occupant emotion model 63 is not particularly limited, and for example, a known method such as a support vector machine, a neighbor method, a neural network such as deep learning, or a Bayesian network can be appropriately adopted.

(1−8−5.感情悪化判定部)
感情悪化判定部59は、運転モードが自動運転モードに設定されている間に、乗員の感情が悪化したか否かを判定する。本実施形態において、感情悪化判定部59は、乗員感情推定部55により推定された感情のレベルが、入力部45を介して設定された感情の目標レベルよりもネガティブ側にあるか否かを判定する。
(1-8-5. Emotional deterioration judgment unit)
The emotional deterioration determination unit 59 determines whether or not the occupant's emotions have deteriorated while the driving mode is set to the automatic driving mode. In the present embodiment, the emotion deterioration determination unit 59 determines whether or not the emotion level estimated by the occupant emotion estimation unit 55 is on the negative side of the emotion target level set via the input unit 45. do.

(1−8−6.制御パラメタ設定部)
制御パラメタ設定部65は、運転モードが自動運転モードに設定されている間、車両走行制御装置35による自動運転制御に用いられる制御パラメタを設定する。制御パラメタ設定部65は、乗員感情モデル63に基づいて、乗員の感情が目標レベルに近づく車両の理想運転状態を算出し、理想運転状態に基づいて自動運転制御用の制御パラメタを設定する。本実施形態において、制御パラメタ設定部65は、車速や加減速度、舵角等の車両の運転状態に関する複数の入力値をそれぞれ乗員感情モデル63へ入力し、乗員感情モデル63に入力された入力値のうち、乗員の感情が現在の感情よりも目標レベルに近づく入力値を車両の理想運転状態として制御パラメタを設定する。
(1-8-6. Control parameter setting unit)
The control parameter setting unit 65 sets the control parameters used for the automatic driving control by the vehicle driving control device 35 while the driving mode is set to the automatic driving mode. The control parameter setting unit 65 calculates the ideal driving state of the vehicle in which the emotion of the occupant approaches the target level based on the occupant emotion model 63, and sets the control parameter for automatic driving control based on the ideal driving state. In the present embodiment, the control parameter setting unit 65 inputs a plurality of input values related to the driving state of the vehicle such as the vehicle speed, acceleration / deceleration, and steering angle to the occupant emotion model 63, respectively, and the input values input to the occupant emotion model 63. Among them, the control parameter is set with the input value in which the occupant's emotion is closer to the target level than the current emotion as the ideal driving state of the vehicle.

制御パラメタは、車両走行制御装置35が車両の自動運転制御を実行する際に、それぞれの制御対象の制御量を算出するために用いられる変数である。例えば、制御パラメタは、車速や加減速度、操舵率等の値を含む。 The control parameter is a variable used for calculating the control amount of each control target when the vehicle travel control device 35 executes the automatic driving control of the vehicle. For example, the control parameters include values such as vehicle speed, acceleration / deceleration, and steering rate.

感情の目標レベルは、例えば、入力部45を介して設定される。ドライバ等の乗員は、あらかじめ入力部45の操作入力を行い、感情の目標レベルを設定してもよい。あるいは、制御パラメタ設定部65は、常時、乗員感情推定部55により推定される乗員の感情レベルよりも1段階あるいは複数段階ポジティブ側の感情レベルを目標レベルに設定してもよい。また、制御パラメタ設定部65は、常時、ポジティブ側の最上位の感情レベルを目標レベルに設定してもよい。また、制御パラメタ設定部65は、乗員感情推定部55により推定される乗員の感情レベルがネガティブ側であった場合に、ニュートラルの感情レベルを目標レベルに設定してもよい。 The emotional target level is set, for example, via the input unit 45. An occupant such as a driver may set an emotional target level by inputting an operation of the input unit 45 in advance. Alternatively, the control parameter setting unit 65 may always set the emotion level on the positive side of one step or a plurality of steps from the emotion level of the occupant estimated by the occupant emotion estimation unit 55 as the target level. Further, the control parameter setting unit 65 may always set the highest emotion level on the positive side as the target level. Further, the control parameter setting unit 65 may set the neutral emotion level as the target level when the emotion level of the occupant estimated by the occupant emotion estimation unit 55 is on the negative side.

さらに、車両が所定の状況下で走行した際に乗員感情推定部55により推定された乗員の感情がネガティブとなった場合、制御パラメタ設定部65が、類似の状況下での感情の目標レベルを乗員に問いかけ、その反応に基づいて設定してもよい。例えば、車両の右折時に、対向車と近いにもかかわらず車両が右折したときに、乗員感情推定部55によって乗員の生体情報から推定された乗員の感情が右折前の感情状態と比較してネガティブ側に変化した場合、制御パラメタ設定部65が、同じ状況での感情の目標レベルを問いかける。問いかける内容は事前に設定しておき、前記ネガティブ側に変化した際に、車載スピーカーなどを通じて再生する。 Further, when the occupant's emotion estimated by the occupant emotion estimation unit 55 becomes negative when the vehicle travels under a predetermined situation, the control parameter setting unit 65 sets the target level of emotion under a similar situation. You may ask the occupants and set based on the reaction. For example, when the vehicle turns right even though it is close to the oncoming vehicle, the occupant's emotions estimated from the occupant's biometric information by the occupant emotion estimation unit 55 are negative compared to the emotional state before the right turn. When it changes to the side, the control parameter setting unit 65 asks the target level of emotion in the same situation. The content to be asked is set in advance, and when it changes to the negative side, it is played back through an in-vehicle speaker or the like.

具体的には、制御パラメタ設定部65は、乗員に対して「今の状況では怖くない運転がよいですか?」と問いかけたり、「今の状況では多少不安があってもタイミングを重視した運転がよいですか?」と問いかけたりする。乗員が、「今の状況では怖くない運転がよい」に肯定的な反応をした場合、制御パラメタ設定部65は、感情の目標レベルをニュートラルに設定する。また、乗員が、「今の状況では多少不安があってもタイミングを重視した運転がよい」に肯定的な反応をした場合、制御パラメタ設定部65は、そのときに推定された感情レベルの1段階あるいは複数段階上の感情レベルを目標レベルに設定する。 Specifically, the control parameter setting unit 65 asks the occupant, "Is it better to drive without fear in the current situation?" Or "Driving with an emphasis on timing even if there is some anxiety in the current situation?" Is it okay? " When the occupant responds positively to "driving is not scary in the current situation", the control parameter setting unit 65 sets the emotional target level to neutral. In addition, when the occupant gives a positive reaction to "Driving with an emphasis on timing is good even if there is some anxiety in the current situation", the control parameter setting unit 65 is set to 1 of the emotion level estimated at that time. Set the emotional level above one or more levels to the target level.

また、制御パラメタ設定部65は、乗員感情モデル63へ入力する入力値の候補を複数用意し、当該複数の入力値を順次乗員感情モデル63へ入力する。制御パラメタ設定部65は、複数の入力値に基づいて乗員感情モデル63から出力される複数の感情レベルのうち、目標レベルに最も近づく感情レベルに対応する入力値を選択する。そして、制御パラメタ設定部65は、当該入力値を理想運転状態として、選択した入力値に基づいて制御パラメタを設定する。これにより、乗員の感情が目標レベルに近づくように車両の自動運転制御が実行される。なお、目標レベルに最も近づく前記複数の入力値が存在する場合、それらの入力値のうち、現在の制御パラメタに最も近い入力値を選択してもよい。 Further, the control parameter setting unit 65 prepares a plurality of input value candidates to be input to the occupant emotion model 63, and sequentially inputs the plurality of input values to the occupant emotion model 63. The control parameter setting unit 65 selects an input value corresponding to the emotion level closest to the target level among the plurality of emotion levels output from the occupant emotion model 63 based on the plurality of input values. Then, the control parameter setting unit 65 sets the input value as an ideal operating state, and sets the control parameter based on the selected input value. As a result, automatic driving control of the vehicle is executed so that the emotions of the occupants approach the target level. When the plurality of input values closest to the target level exist, the input value closest to the current control parameter may be selected from those input values.

図3は、乗員感情モデル63を用いて車両の制御パラメタを設定するアルゴリズムの一例を示す。制御パラメタを求める際の入力値は、自動運転制御中の車両の操作状態及び挙動に関する入力値からなる。周囲環境の入力値は、制御することのできない情報(固定値)であるため、周囲環境検出部47により検出される周囲環境の情報(固定値)が用いられる。 FIG. 3 shows an example of an algorithm for setting vehicle control parameters using the occupant emotion model 63. The input value when obtaining the control parameter consists of the input value related to the operating state and behavior of the vehicle during the automatic driving control. Since the input value of the surrounding environment is information that cannot be controlled (fixed value), the information of the surrounding environment (fixed value) detected by the surrounding environment detection unit 47 is used.

用意される入力値の候補数は、電子制御装置50を構成する演算処理装置の処理速度及び制御パラメタの更新頻度のうちの少なくとも一方に基づいて適宜設定される。例えば、以下のようにして、用意される複数の入力値の候補数が事前に設定される。まず、乗員感情モデル63に必要とされるデータ処理量、及び、乗員感情モデル63を用いた演算処理を行う演算処理装置の処理能力から、単位時間あたりに乗員感情モデル63に入力値を入力して乗員の感情が出力される演算回数を算出する。算出された演算回数及び制御パラメタの更新速度に基づいて、制御パラメタを更新するごとに演算処理が可能な演算数を算出する。この演算数が、入力値の候補数として設定される。自動運転制御を緻密に実行するには、演算処理装置の処理速度及び制御パラメタの更新頻度を考慮して設定し得る最大数とすることが好ましい。 The number of candidates for the input value to be prepared is appropriately set based on at least one of the processing speed of the arithmetic processing unit constituting the electronic control device 50 and the update frequency of the control parameters. For example, the number of candidates for a plurality of input values to be prepared is set in advance as follows. First, from the amount of data processing required for the occupant emotion model 63 and the processing capacity of the arithmetic processing device that performs arithmetic processing using the occupant emotion model 63, an input value is input to the occupant emotion model 63 per unit time. The number of calculations that the occupant's emotions are output is calculated. Based on the calculated number of operations and the update speed of the control parameter, the number of operations that can be processed is calculated each time the control parameter is updated. This number of operations is set as the number of input value candidates. In order to execute the automatic operation control precisely, it is preferable to set the maximum number that can be set in consideration of the processing speed of the arithmetic processing unit and the update frequency of the control parameters.

制御パラメタ設定部65は、複数の入力値を順次乗員感情モデル63へ入力してそれぞれの感情レベルを求め、目標レベルに最も近づく入力値を選択する。そして、制御パラメタ設定部65は、当該入力値を理想運転状態として、選択した入力値に基づいて制御パラメタを設定する。具体的に、制御パラメタ設定部65は、走行感情データベース61に蓄積されているデータセットの中から、周囲環境検出部47により検出される現在の周囲環境の情報に一致又は類似し、かつ、設定されている感情の目標レベルに最も近い感情レベルであったときの車両の運転状態のデータセットを抽出する。制御パラメタ設定部65は、抽出された車両の運転状態のデータセットを、基準操作目標値に設定する。 The control parameter setting unit 65 sequentially inputs a plurality of input values into the occupant emotion model 63, obtains each emotion level, and selects the input value closest to the target level. Then, the control parameter setting unit 65 sets the input value as an ideal operating state, and sets the control parameter based on the selected input value. Specifically, the control parameter setting unit 65 matches or resembles and sets the current surrounding environment information detected by the surrounding environment detection unit 47 from the data set stored in the driving emotion database 61. Extract the data set of the driving state of the vehicle when the emotion level is closest to the target level of the emotion being performed. The control parameter setting unit 65 sets the extracted data set of the driving state of the vehicle as the reference operation target value.

制御パラメタ設定部65は、舵角や加速度等の車両の運転状態の情報を対象として、現在値と上記の基準操作目標値との間で、上記の演算数に相当する複数の入力値候補を作成する。例えば、車速データについて、現在の車速が40km/hで基準操作目標値が30km/h、演算数が3である場合、車速の入力値の候補は、30km/h、35km/h、40km/hとなる。制御パラメタ設定部65は、同様の処理を、他のデータすべてについて実行し、複数の入力値候補を作成する。なお、入力値候補を複数用意するのは、基準操作目標値に設定されたデータセットの周囲環境の情報が現在の周囲環境に完全に一致していない場合、基準操作目標値が、必ずしも感情の目標レベルを実現可能な車両の運転状態であるとは限らないからである。 The control parameter setting unit 65 sets a plurality of input value candidates corresponding to the above-mentioned number of operations between the current value and the above-mentioned reference operation target value for information on the driving state of the vehicle such as the steering angle and acceleration. create. For example, for vehicle speed data, when the current vehicle speed is 40 km / h, the reference operation target value is 30 km / h, and the number of operations is 3, the candidate vehicle speed input values are 30 km / h, 35 km / h, and 40 km / h. It becomes. The control parameter setting unit 65 executes the same process for all other data and creates a plurality of input value candidates. It should be noted that the reason why multiple input value candidates are prepared is that if the information of the surrounding environment of the data set set as the reference operation target value does not completely match the current surrounding environment, the reference operation target value is not necessarily emotional. This is because it is not always the driving state of the vehicle that can achieve the target level.

制御パラメタ設定部65は、作成した複数の入力値を順次乗員感情モデル63へ入力し、出力される乗員の感情が目標レベルに最も近づく車両の運転状態のデータセットを選択する。そして、制御パラメタ設定部65は、選択したデータセットに基づいて、車速や加減速度、操舵率等の自動運転制御における制御パラメタを設定する。入力値候補の数は、上述のとおり、演算処理装置の処理速度及び制御パラメタの更新頻度の少なくとも一方に基づいて設定されているため、制御パラメタ設定部65は、演算処理装置の処理サイクルごとに制御パラメタを逐次更新することができる。制御パラメタ設定部65は、乗員感情モデル63を用いた制御パラメタの設定を、演算処理装置の処理サイクルごとに実行し、設定した制御パラメタの情報を車両走行制御装置35へ送信する。これにより、乗員の感情が目標レベルとなるような自動運転制御用の制御パラメタが逐次的に求められ、乗員にとって心地よい自動運転制御を実行することができる。 The control parameter setting unit 65 sequentially inputs a plurality of created input values to the occupant emotion model 63, and selects a data set of the driving state of the vehicle in which the output occupant emotion is closest to the target level. Then, the control parameter setting unit 65 sets control parameters in automatic driving control such as vehicle speed, acceleration / deceleration, and steering rate based on the selected data set. As described above, the number of input value candidates is set based on at least one of the processing speed of the arithmetic processing unit and the update frequency of the control parameters. Therefore, the control parameter setting unit 65 is set for each processing cycle of the arithmetic processing unit. Control parameters can be updated sequentially. The control parameter setting unit 65 executes the setting of the control parameter using the occupant emotion model 63 for each processing cycle of the arithmetic processing unit, and transmits the set control parameter information to the vehicle travel control device 35. As a result, control parameters for automatic driving control are sequentially obtained so that the emotions of the occupant become the target level, and automatic driving control that is comfortable for the occupant can be executed.

<2.動作例>
ここまで、本実施形態に係る自動運転支援装置10の構成例を説明した。次に、図4〜図6に示すフローチャートに基づいて、本実施形態に係る自動運転支援装置10の動作例を説明する。以下の説明においては、上述の構成例ですでに説明した内容についての説明を省略する場合がある。
<2. Operation example>
Up to this point, a configuration example of the automatic driving support device 10 according to the present embodiment has been described. Next, an operation example of the automatic driving support device 10 according to the present embodiment will be described based on the flowcharts shown in FIGS. 4 to 6. In the following description, the description of the contents already described in the above configuration example may be omitted.

まず、自動運転支援装置10の電子制御装置50がシステムの起動を検知すると(ステップS11)、乗員検出部41は、車両の乗員を認識する(ステップS13)。また、運転モード設定部51は、入力部45を介して入力された運転モードにしたがって、車両の運転モードを手動運転モード又は自動運転モードに設定する(ステップS15)。 First, when the electronic control device 50 of the automatic driving support device 10 detects the activation of the system (step S11), the occupant detection unit 41 recognizes the occupant of the vehicle (step S13). Further, the driving mode setting unit 51 sets the driving mode of the vehicle to the manual driving mode or the automatic driving mode according to the driving mode input via the input unit 45 (step S15).

次いで、運転モード設定部51は、運転モードが自動運転モードであるか否かを判別する(ステップS17)。運転モードが自動運転モードでない場合(S17/No)、つまり、運転モードが手動運転モードに設定されている場合、乗員感情推定部55は、生体情報検出部49から送信される生体情報に基づいて、乗員の感情を推定する(ステップS27)。本実施形態においては、複数段階に規定された乗員の感情のレベルを推定する。このときに推定された乗員の感情は、走行開始時の感情の情報として記憶される。次いで、車両走行制御装置35は、ドライバの運転操作にしたがって車両の走行制御を開始して車両の走行を開始させる(ステップS29)。手動運転モードで車両の走行を開始させた後、電子制御装置50は、乗員感情学習部57による乗員感情モデル63の学習処理を実行する(ステップS31)。システムが停止されるまでの間(ステップS25が肯定判定されるまでの間)、車両が手動運転モードに設定されている状態で、電子制御装置50は、乗員感情モデル63の学習処理を繰り返し実行する。 Next, the operation mode setting unit 51 determines whether or not the operation mode is the automatic operation mode (step S17). When the driving mode is not the automatic driving mode (S17 / No), that is, when the driving mode is set to the manual driving mode, the occupant emotion estimation unit 55 is based on the biometric information transmitted from the biometric information detection unit 49. , Estimate the emotions of the occupants (step S27). In this embodiment, the emotional level of the occupant defined in a plurality of stages is estimated. The emotions of the occupants estimated at this time are stored as emotional information at the start of traveling. Next, the vehicle travel control device 35 starts the vehicle travel control according to the driver's driving operation to start the vehicle travel (step S29). After starting the running of the vehicle in the manual driving mode, the electronic control device 50 executes the learning process of the occupant emotion model 63 by the occupant emotion learning unit 57 (step S31). Until the system is stopped (until step S25 is determined affirmatively), the electronic control device 50 repeatedly executes the learning process of the occupant emotion model 63 while the vehicle is set to the manual driving mode. do.

図5は、自動運転支援装置10による乗員感情モデル学習処理の一例を示すフローチャートである。まず、周囲環境特定部53は、周囲環境検出部47から送信される周囲環境の情報に基づいて車両の現在の周囲環境の情報を特定する(ステップS41)。次いで、車両情報検出部43は、現在の車両の運転状態を検出する(ステップS43)。次いで、乗員感情推定部55は、生体情報検出部49から送信される生体情報に基づいて乗員の感情を推定する(ステップS45)。 FIG. 5 is a flowchart showing an example of the occupant emotion model learning process by the automatic driving support device 10. First, the surrounding environment specifying unit 53 identifies the current surrounding environment information of the vehicle based on the surrounding environment information transmitted from the surrounding environment detecting unit 47 (step S41). Next, the vehicle information detection unit 43 detects the current driving state of the vehicle (step S43). Next, the occupant emotion estimation unit 55 estimates the occupant's emotion based on the biometric information transmitted from the biometric information detection unit 49 (step S45).

次いで、乗員感情学習部57は、乗員の感情の情報、周囲環境の情報及び車両の運転状態の情報を取得し、乗員の感情の情報と、当該乗員の感情の情報に時間的に紐づけられた周囲環境の情報及び車両の運転状態の情報とを走行感情データベース61に蓄積する(ステップS47)。次いで、乗員感情学習部57は、乗員の感情の情報と、当該乗員の感情の情報に時間的に紐づけられた周囲環境の情報及び車両の運転状態の情報とを用いて、ディープラーニング等の公知の手法を用いて乗員感情モデル63を構築あるいは更新する(ステップS49)。乗員感情学習部57は、演算処理装置の処理サイクルごとに、これらのステップS41〜ステップS49までの処理を繰り返し実行し、乗員感情モデル63を構築する。 Next, the occupant emotion learning unit 57 acquires information on the occupant's emotions, information on the surrounding environment, and information on the driving state of the vehicle, and is temporally linked to the occupant's emotional information and the occupant's emotional information. The information on the surrounding environment and the information on the driving state of the vehicle are stored in the driving emotion database 61 (step S47). Next, the occupant emotion learning unit 57 uses information on the occupant's emotions, information on the surrounding environment time-linked to the information on the occupant's emotions, and information on the driving state of the vehicle to perform deep learning or the like. The occupant emotion model 63 is constructed or updated using a known method (step S49). The occupant emotion learning unit 57 repeatedly executes these processes from steps S41 to S49 for each processing cycle of the arithmetic processing unit to construct the occupant emotion model 63.

一方、上記のステップS17において、運転モードが自動運転モードである場合(S17/Yes)、乗員感情推定部55は、生体情報検出部49から送信される生体情報に基づいて、乗員の感情を推定する(ステップS19)。このときに推定された乗員の感情は、走行開始時の感情の情報として記憶される。次いで、車両走行制御装置35は、自動運転モードで車両の走行制御を開始して車両の走行を開始させる(ステップS21)。自動運転モードで車両の走行を開始させた後、電子制御装置50は、乗員の感情に基づく車両の走行制御を実行する(ステップS23)。システムが停止されるまでの間(ステップS25が肯定判定されるまでの間)、車両が自動運転モードに設定されている状態で、電子制御装置50は、乗員の感情に基づく車両の走行制御を継続する。 On the other hand, in step S17 described above, when the driving mode is the automatic driving mode (S17 / Yes), the occupant emotion estimation unit 55 estimates the occupant's emotions based on the biological information transmitted from the biological information detection unit 49. (Step S19). The emotions of the occupants estimated at this time are stored as emotional information at the start of traveling. Next, the vehicle travel control device 35 starts traveling control of the vehicle in the automatic driving mode to start traveling of the vehicle (step S21). After starting the running of the vehicle in the automatic driving mode, the electronic control device 50 executes the running control of the vehicle based on the emotions of the occupants (step S23). Until the system is stopped (until step S25 is affirmed), the electronic control device 50 controls the running of the vehicle based on the emotions of the occupants while the vehicle is set to the automatic driving mode. continue.

図6は、自動運転支援装置10による走行感情に基づく走行制御処理のフローチャートの一例を示す。まず、周囲環境特定部53は、周囲環境検出部47から送信される周囲環境の情報に基づいて車両の現在の周囲環境の情報を特定する(ステップS51)。次いで、乗員感情推定部55は、生体情報検出部49から送信される生体情報に基づいて乗員の感情を推定する(ステップS53)。次いで、感情悪化判定部59は、推定された乗員の感情が悪化したか否かを判別する(ステップS55)。本実施形態において、感情悪化判定部59は、推定された乗員の感情のレベルが、前回に比べてネガティブ側に変化したか否かを判別する。 FIG. 6 shows an example of a flowchart of driving control processing based on driving emotions by the automatic driving support device 10. First, the surrounding environment specifying unit 53 identifies the current surrounding environment information of the vehicle based on the surrounding environment information transmitted from the surrounding environment detecting unit 47 (step S51). Next, the occupant emotion estimation unit 55 estimates the occupant's emotion based on the biometric information transmitted from the biometric information detection unit 49 (step S53). Next, the emotion deterioration determination unit 59 determines whether or not the estimated emotion of the occupant has deteriorated (step S55). In the present embodiment, the emotion deterioration determination unit 59 determines whether or not the estimated emotional level of the occupant has changed to the negative side as compared with the previous time.

乗員の感情が悪化していない場合(S55/No)、自動運転支援装置10は、ステップS51に戻って、ステップS51〜ステップS55の処理を繰り返す。一方、乗員の感情が悪化した場合(S55/Yes)、制御パラメタ設定部65は、設定されている目標感情値を参照する(ステップS57)。本実施形態においては、設定されている感情の目標レベルの情報を参照する。 When the occupant's emotions have not deteriorated (S55 / No), the automatic driving support device 10 returns to step S51 and repeats the processes of steps S51 to S55. On the other hand, when the emotion of the occupant deteriorates (S55 / Yes), the control parameter setting unit 65 refers to the set target emotion value (step S57). In this embodiment, information on the set emotional target level is referred to.

次いで、制御パラメタ設定部65は、走行感情データベース61を参照して、乗員感情モデル63に入力する複数の入力値の候補を作成する(ステップS59)。具体的に、制御パラメタ設定部65は、走行感情データベース61を参照して、現在の周囲環境に一致又は類似する周囲環境のデータセットの中から、乗員の感情が目標レベルに最も近い車両の運転状態のデータセットを抽出する。次いで、制御パラメタ設定部65は、抽出された車両の運転状態のデータセットを、基準操作目標値に設定し、現在の車両の運転状態の値と基準操作目標値との間で、あらかじめ設定された演算数に相当する複数の入力値の候補を作成する。 Next, the control parameter setting unit 65 refers to the driving emotion database 61 and creates candidates for a plurality of input values to be input to the occupant emotion model 63 (step S59). Specifically, the control parameter setting unit 65 refers to the driving emotion database 61 and drives a vehicle in which the emotions of the occupants are closest to the target level from the data set of the surrounding environment that matches or is similar to the current surrounding environment. Extract the state dataset. Next, the control parameter setting unit 65 sets the extracted data set of the driving state of the vehicle as the reference operation target value, and sets in advance between the value of the current driving state of the vehicle and the reference operation target value. Create multiple input value candidates corresponding to the number of operations.

次いで、制御パラメタ設定部65は、入力値の候補のいずれかを乗員感情モデル63へ入力し、出力される乗員の感情の情報を取得する(ステップS61)。次いで、制御パラメタ設定部65は、乗員感情モデル63から出力された乗員の感情の値と目標感情値との差分を算出する(ステップS63)。本実施形態において、制御パラメタ設定部65は、乗員感情モデル63から出力された感情レベルと、感情の目標レベルとの差分を算出する。次いで、制御パラメタ設定部65は、乗員感情モデル63へのすべての入力値の候補の入力が完了したか否かを判別する(ステップS65)。すべての入力値の候補の入力が完了していない場合(S65/No)、制御パラメタ設定部65は、ステップS61に戻って次の入力値の候補を乗員感情モデル63へ入力する。制御パラメタ設定部65は、すべての入力値の候補の入力が完了するまで、ステップS61〜ステップS65の処理を繰り返し実行する。 Next, the control parameter setting unit 65 inputs one of the input value candidates into the occupant emotion model 63, and acquires the output occupant emotion information (step S61). Next, the control parameter setting unit 65 calculates the difference between the occupant emotion value and the target emotion value output from the occupant emotion model 63 (step S63). In the present embodiment, the control parameter setting unit 65 calculates the difference between the emotion level output from the occupant emotion model 63 and the emotion target level. Next, the control parameter setting unit 65 determines whether or not the input of all the input value candidates to the occupant emotion model 63 is completed (step S65). When the input of all the input value candidates is not completed (S65 / No), the control parameter setting unit 65 returns to step S61 and inputs the next input value candidate to the occupant emotion model 63. The control parameter setting unit 65 repeatedly executes the processes of steps S61 to S65 until the input of all the input value candidates is completed.

すべての入力値の候補の入力が完了した場合(S65/Yes)、制御パラメタ設定部65は、乗員感情モデル63から出力された感情レベルと感情の目標レベルとの差分が最小となる入力値を選択する(ステップS67)。ここで選択される入力値は、乗員の感情レベルが目標レベルに最も近づく入力値である。次いで、制御パラメタ設定部65は、選択した入力値を自動運転制御の制御パラメタに変換する(ステップS69)。次いで、制御パラメタ設定部65は、算出した制御パラメタを車両走行制御装置35へ送信し、自動運転制御へ反映させる(ステップS71)。 When the input of all the input value candidates is completed (S65 / Yes), the control parameter setting unit 65 sets the input value that minimizes the difference between the emotion level output from the occupant emotion model 63 and the emotion target level. Select (step S67). The input value selected here is the input value at which the emotional level of the occupant is closest to the target level. Next, the control parameter setting unit 65 converts the selected input value into a control parameter for automatic operation control (step S69). Next, the control parameter setting unit 65 transmits the calculated control parameter to the vehicle travel control device 35 and reflects it in the automatic driving control (step S71).

自動運転モード中に乗員感情に基づく走行制御が実行される場合(ステップS23)、あるいは、手動運転モード中に乗員感情モデル63の学習処理が実行される場合(ステップS31)、いずれの場合においても、自動運転支援装置10は、システムが停止したか否かを判別する(ステップS25)。システムが停止していない場合(S25/No)、自動運転支援装置10は、上述したステップS17〜ステップS31までの処理を繰り返す。一方、システムが停止した場合(S25/Yes)、自動運転支援装置10は、制御処理を終了する。 In either case, when the driving control based on the occupant emotion is executed during the automatic driving mode (step S23), or when the learning process of the occupant emotion model 63 is executed during the manual driving mode (step S31). , The automatic driving support device 10 determines whether or not the system has stopped (step S25). When the system is not stopped (S25 / No), the automatic driving support device 10 repeats the processes from step S17 to step S31 described above. On the other hand, when the system is stopped (S25 / Yes), the automatic driving support device 10 ends the control process.

以上説明したように、本実施形態に係る自動運転支援装置10は、運転モードが手動運転モードに設定されている間、乗員の感情の情報と、当該乗員の感情の情報と時間的に紐づけされた車両の運転状態の情報及び周囲環境の情報とを走行感情データベース61に蓄積するとともに、これらの情報を用いて乗員感情モデル63を構築する。さらに、自動運転支援装置10は、運転モードが自動運転モードに設定されている間、走行感情データベース61を参照して、乗員感情モデル63に入力する車両の運転状態の入力値の複数の候補を作成し、乗員感情モデル63から出力される感情レベルが目標レベルに最も近づく入力値に基づいて自動運転制御の制御パラメタを設定する。 As described above, the automatic driving support device 10 according to the present embodiment temporally links the emotional information of the occupant with the emotional information of the occupant while the driving mode is set to the manual driving mode. The information on the driving state of the vehicle and the information on the surrounding environment are stored in the driving emotion database 61, and the occupant emotion model 63 is constructed by using this information. Further, the automatic driving support device 10 refers to the driving emotion database 61 and selects a plurality of candidates for the input value of the driving state of the vehicle to be input to the occupant emotion model 63 while the driving mode is set to the automatic driving mode. The control parameter of the automatic driving control is set based on the input value created and the emotion level output from the occupant emotion model 63 is closest to the target level.

走行感情データベース61が、時間的に紐づけられた情報のデータセットであり、制御パラメタ設定部65は、所定の処理サイクルごとに、車両の運転状態の入力値の複数の候補の中から乗員の感情レベルが目標レベルに近づく入力値に基づいて制御パラメタを設定する。このため、乗員の感情を目標とする感情に近づけることが可能な制御パラメタを具体的にかつ逐次的に設定することができる。 The driving emotion database 61 is a data set of information linked in time, and the control parameter setting unit 65 sets the occupant from among a plurality of candidates for the input value of the driving state of the vehicle for each predetermined processing cycle. Control parameters are set based on the input value at which the emotional level approaches the target level. Therefore, it is possible to specifically and sequentially set control parameters that can bring the emotions of the occupant closer to the target emotions.

また、制御パラメタ設定部65は、走行感情データベース61の中から、現在の車両の周囲環境に一致するか又は類似する周囲環境のデータセットを用いて制御パラメタを設定する。このため、周囲環境が一致するデータセットが走行感情データベース61にない場合であっても、目標とする感情に近い状態に導く走行制御を実現することができる。 Further, the control parameter setting unit 65 sets the control parameter from the driving emotion database 61 by using the data set of the surrounding environment that matches or is similar to the current surrounding environment of the vehicle. Therefore, even when there is no data set in the driving emotion database 61 that matches the surrounding environment, it is possible to realize driving control that leads to a state close to the target emotion.

<3.変形例>
ここまで、本実施形態に係る自動運転支援装置10を説明したが、本実施形態に係る自動運転支援装置10は種々の変形が可能である。以下、制御パラメタ設定部65が、さらに個々の乗員に適合させて制御パラメタを設定する変形例を説明する。
<3. Modification example>
Up to this point, the automatic driving support device 10 according to the present embodiment has been described, but the automatic driving support device 10 according to the present embodiment can be variously modified. Hereinafter, a modified example in which the control parameter setting unit 65 sets the control parameters in accordance with each occupant will be described.

第1の変形例は、乗員感情モデル63に入力する複数の入力値の候補について、それぞれの入力値のデータ項目のうち優先する一つ又は複数のデータ項目の値を乗員が事前に決定しておく例である。例えば、ある乗員が、自動運転制御において車速を重視する場合、乗員は、車速を優先項目としてあらかじめ設定する。制御パラメタ設定部65は、複数の入力値の候補を作成する際に、車速のデータについては走行感情データベース61から抽出された基準操作目標値を構成する車速に固定し、その他のデータ項目について入力値の候補を作成する。これにより、車両の運転状態に関する乗員の嗜好を反映しつつ、乗員の感情を目標とする感情に近づける制御パラメタを設定することができる。 In the first modification, for a plurality of input value candidates to be input to the occupant emotion model 63, the occupant determines in advance the value of one or more data items having priority among the data items of the respective input values. This is an example. For example, when a certain occupant attaches importance to the vehicle speed in the automatic driving control, the occupant sets the vehicle speed as a priority item in advance. When creating a plurality of input value candidates, the control parameter setting unit 65 fixes the vehicle speed data to the vehicle speed constituting the reference operation target value extracted from the driving emotion database 61, and inputs other data items. Create value candidates. This makes it possible to set control parameters that bring the occupant's emotions closer to the target emotions while reflecting the occupant's preferences regarding the driving state of the vehicle.

第2の変形例は、制御パラメタ設定部65が、個々の乗員ごとに、感情に与える影響の大きい車両の運転状態のデータ項目を走行感情データベース61に基づいて抽出し、当該乗員については、当該データ項目を固定して入力値の候補を作成する例である。例えば、乗員検出部41が個々の乗員を識別して認識し、個々の乗員ごとにデータセットを蓄積した走行感情データベース61を作成する。そして、乗員感情学習部57は、乗員感情モデル63に対する感度を分析し、感情に与える影響の大きいデータ項目を抽出する。感度の分析は、例えば、入力するデータ項目のうち、一つの項目を除いたり、あるいは、一つの項目の数値を変化させたりした場合に、出力される感情レベルが大きく変化するデータ項目を解析する方法であってもよい。制御パラメタ設定部65は、特定されたデータ項目については走行感情データベース61から抽出された基準操作目標値を構成する入力値に固定し、その他のデータ項目について入力値の候補を作成する。これにより、個々の乗員の感情に与える影響が大きいデータ項目について優先的に入力値を設定しつつ、乗員の感情を目標とする感情に近づける制御パラメタを設定することができる。 In the second modification, the control parameter setting unit 65 extracts the data item of the driving state of the vehicle having a large influence on the emotion for each occupant based on the driving emotion database 61, and the occupant is the subject. This is an example of fixing data items and creating input value candidates. For example, the occupant detection unit 41 identifies and recognizes each occupant, and creates a driving emotion database 61 in which a data set is accumulated for each occupant. Then, the occupant emotion learning unit 57 analyzes the sensitivity to the occupant emotion model 63 and extracts data items having a large influence on the emotion. Sensitivity analysis analyzes data items whose output emotional level changes significantly when, for example, one item is excluded from the input data items or the numerical value of one item is changed. It may be a method. The control parameter setting unit 65 fixes the specified data item to the input value constituting the reference operation target value extracted from the driving emotion database 61, and creates input value candidates for other data items. As a result, it is possible to set control parameters that bring the emotions of the occupants closer to the target emotions while preferentially setting the input values for the data items that have a large influence on the emotions of the individual occupants.

さらに、上記の第1の変形例の方法を用いて算出した制御パラメタを自動運転制御に反映させた場合に、生体情報検出部49で検出された生体情報に基づいて推定される乗員の感情レベルが、乗員感情モデル63を用いて算出された感情レベルよりもネガティブな場合に、第2の変形例の方法において求められた感情に与える影響の大きい項目について、優先するデータ項目として設定するよう乗員に提案してもよい。 Further, when the control parameters calculated by using the method of the first modification described above are reflected in the automatic driving control, the emotional level of the occupant estimated based on the biological information detected by the biological information detection unit 49. However, when the emotion level is negative than the emotion level calculated by using the occupant emotion model 63, the occupant is set as the priority data item for the item having a large influence on the emotion obtained by the method of the second modification. You may propose to.

これらの変形例によれば、乗員感情モデル63を用いた自動運転制御に、乗員の嗜好、又は、蓄積された走行感情データベース61に基づく客観的な傾向のうちの少なくとも一方を反映させることができ、個々の乗員の意向や特性を反映させた自動運転制御を実行することができる。 According to these modified examples, the automatic driving control using the occupant emotion model 63 can reflect at least one of the occupant's preference and the objective tendency based on the accumulated driving emotion database 61. , It is possible to execute automatic driving control that reflects the intentions and characteristics of individual occupants.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person having ordinary knowledge in the field of technology to which the present invention belongs can come up with various modifications or modifications within the scope of the technical ideas described in the claims. , These are also naturally understood to belong to the technical scope of the present invention.

例えば、上記実施形態において、乗員感情学習部57は、運転モードが手動運転モードである場合に走行感情データベース61にデータセットを蓄積し、乗員感情モデル63を更新したが、本発明はかかる例に限定されない。乗員感情学習部57は、運転モードが自動運転モードである場合であっても、走行感情データベース61にデータセットを蓄積し、乗員感情モデル63を更新してもよい。 For example, in the above embodiment, the occupant emotion learning unit 57 accumulates a data set in the driving emotion database 61 and updates the occupant emotion model 63 when the driving mode is the manual driving mode. Not limited. The occupant emotion learning unit 57 may accumulate the data set in the driving emotion database 61 and update the occupant emotion model 63 even when the driving mode is the automatic driving mode.

10…自動運転支援装置、35…車両走行制御装置、50…電子制御装置、51…運転モード設定部、53…周囲環境特定部、55…乗員感情推定部、57…乗員感情学習部、59…感情悪化判定部、61…走行感情データベース、63…乗員感情モデル、65…制御パラメタ設定部
10 ... Automatic driving support device, 35 ... Vehicle driving control device, 50 ... Electronic control device, 51 ... Driving mode setting unit, 53 ... Surrounding environment identification unit, 55 ... Crew emotion estimation unit, 57 ... Crew emotion learning unit, 59 ... Emotion deterioration judgment unit, 61 ... Driving emotion database, 63 ... Crew emotion model, 65 ... Control parameter setting unit

Claims (8)

車両の運転状態及び乗員の感情の情報に基づいて、前記車両の運転状態から前記乗員の感情を推定する乗員感情モデルを構築する乗員感情学習部と、
前記乗員感情モデルに基づいて、前記乗員の感情が目標とする感情に近づく前記車両の理想運転状態を算出し、前記理想運転状態に基づいて自動運転制御用の制御パラメタを設定する制御パラメタ設定部と、を備え、
前記制御パラメタ設定部は、前記車両の運転状態に関する複数の入力値をそれぞれ前記乗員感情モデルへ入力し、前記乗員感情モデルに入力された入力値のうち、前記乗員の感情が現在の感情よりも前記目標とする感情に近づく入力値を前記車両の理想運転状態として前記制御パラメタを設定する、自動運転支援装置。
An occupant emotion learning unit that builds an occupant emotion model that estimates the occupant's emotion from the vehicle's driving condition based on information on the vehicle's driving condition and the occupant's emotion.
A control parameter setting unit that calculates the ideal driving state of the vehicle in which the emotion of the occupant approaches the target emotion based on the occupant emotion model, and sets control parameters for automatic driving control based on the ideal driving state. And with
The control parameter setting unit inputs a plurality of input values related to the driving state of the vehicle into the occupant emotion model, and among the input values input to the occupant emotion model, the occupant's emotion is higher than the current emotion. An automatic driving support device that sets the control parameters with an input value approaching the target emotion as the ideal driving state of the vehicle.
前記乗員感情モデルは、前記車両の周囲環境の情報と、前記車両の運転状態の情報と、
に基づいて前記乗員の感情を推定する前記乗員感情モデルであり、
前記制御パラメタ設定部は、現在の前記車両の周囲環境に対応する周囲環境における前記車両の理想運転状態を求めて前記制御パラメタを設定する、請求項1に記載の自動運転支援装置。
The occupant emotion model includes information on the surrounding environment of the vehicle, information on the driving state of the vehicle, and the like.
It is the occupant emotion model that estimates the occupant's emotion based on
The automatic driving support device according to claim 1, wherein the control parameter setting unit sets the control parameters by obtaining the ideal driving state of the vehicle in the surrounding environment corresponding to the current surrounding environment of the vehicle.
前記乗員感情学習部は、推定される前記乗員の感情の情報と、前記車両の周囲環境の情報と、前記車両の運転状態の情報と、を紐づけたデータセットを蓄積し、
前記制御パラメタ設定部は、蓄積されたデータセットの中から、現在の前記車両の周囲環境に対応する周囲環境において目標とする感情に近づく前記車両の運転状態を抽出し、
前記抽出した前記車両の運転状態の情報に基づいて前記複数の入力値を作成する、請求項2に記載の自動運転支援装置。
The occupant emotion learning unit accumulates a data set in which the estimated emotional information of the occupant, the information on the surrounding environment of the vehicle, and the information on the driving state of the vehicle are linked.
The control parameter setting unit extracts from the accumulated data set the driving state of the vehicle that approaches the target emotion in the surrounding environment corresponding to the current surrounding environment of the vehicle.
The automatic driving support device according to claim 2, wherein the plurality of input values are created based on the extracted information on the driving state of the vehicle.
前記制御パラメタ設定部は、前記抽出した前記車両の運転状態における所定のデータ項目の値と現在の前記車両の運転状態における前記所定のデータ項目の値との間で前記複数の入力値を設定する、請求項3に記載の自動運転支援装置。 The control parameter setting unit sets the plurality of input values between the extracted values of the predetermined data items in the driving state of the vehicle and the values of the predetermined data items in the current driving state of the vehicle. , The automatic driving support device according to claim 3. 前記車両の運転状態における所定のデータ項目は複数のデータ項目を含み、
前記複数のデータ項目のうちの少なくとも一つは、ユーザにより優先項目として設定可能であり、
前記制御パラメタ設定部は、前記ユーザにより設定された前記優先項目がある場合には、前記乗員感情モデルに入力する複数の入力値の前記データ項目のうちの当該優先項目の値を、現在の前記車両の周囲環境に対応する周囲環境において目標とする感情に近づく前記車両の運転状態として抽出された値に固定するとともに他のデータ項目について前記複数の入力値を作成する、請求項3又は4に記載の自動運転支援装置。
The predetermined data item in the driving state of the vehicle includes a plurality of data items.
At least one of the plurality of data items can be set as a priority item by the user.
When there is the priority item set by the user, the control parameter setting unit sets the value of the priority item among the data items of the plurality of input values to be input to the occupant emotion model to the current value of the priority item. 3. The described automatic driving support device.
前記制御パラメタ設定部は、前記優先項目の値を固定して求めた前記制御パラメタにより前記自動運転制御を実行したときの前記乗員の感情が、前記乗員感情モデルを用いて算出した前記乗員の感情よりも悪化した場合には、前記乗員の感情に与える影響の大きい少なくとも一つのデータ項目を、現在の前記車両の周囲環境に対応する周囲環境において前記目標とする感情に近づく前記車両の運転状態として抽出された値に固定するようにユーザに提示する、請求項5に記載の自動運転支援装置。 In the control parameter setting unit, the emotion of the occupant when the automatic driving control is executed by the control parameter obtained by fixing the value of the priority item is the emotion of the occupant calculated by using the occupant emotion model. When it becomes worse than The automatic driving support device according to claim 5, which is presented to the user so as to be fixed to the extracted value. 前記車両の運転状態における所定のデータ項目は複数のデータ項目を含み、
前記乗員感情学習部は、前記蓄積したデータセットに基づいて、前記乗員の感情に与える影響の大きい少なくとも一つのデータ項目を抽出し、
前記制御パラメタ設定部は、前記乗員の感情に与える影響の大きい少なくとも一つのデータ項目を、現在の前記車両の周囲環境に対応する周囲環境において前記目標とする感情に近づく前記車両の運転状態として抽出された値に固定して前記複数の入力値を求め、前記制御パラメタを設定する、請求項3に記載の自動運転支援装置。
The predetermined data item in the driving state of the vehicle includes a plurality of data items.
The occupant emotion learning unit extracts at least one data item having a large influence on the occupant's emotion based on the accumulated data set.
The control parameter setting unit extracts at least one data item having a large influence on the emotions of the occupant as the driving state of the vehicle approaching the target emotions in the surrounding environment corresponding to the current surrounding environment of the vehicle. The automatic driving support device according to claim 3, wherein the plurality of input values are fixed to the specified values, the plurality of input values are obtained, and the control parameters are set.
前記制御パラメタ設定部は、演算を行う演算処理装置の処理速度及び前記制御パラメタの更新頻度のうちの少なくとも一方に基づいて、前記乗員感情モデルへ入力する前記複数の入力値の数を設定する、請求項1〜7のいずれか1項に記載の自動運転支援装置。
The control parameter setting unit sets the number of the plurality of input values to be input to the occupant emotion model based on at least one of the processing speed of the arithmetic processing unit that performs the calculation and the update frequency of the control parameter. The automatic driving support device according to any one of claims 1 to 7.
JP2020148989A 2020-01-17 2020-09-04 Automatic operation assistance device Pending JP2021113041A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011375039.3A CN113135190A (en) 2020-01-17 2020-11-30 Automatic driving assistance device
US17/118,122 US11697431B2 (en) 2020-01-17 2020-12-10 Automated driving assistance apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020005795 2020-01-17
JP2020005795 2020-01-17

Publications (1)

Publication Number Publication Date
JP2021113041A true JP2021113041A (en) 2021-08-05

Family

ID=77076560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020148989A Pending JP2021113041A (en) 2020-01-17 2020-09-04 Automatic operation assistance device

Country Status (1)

Country Link
JP (1) JP2021113041A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023170767A1 (en) * 2022-03-08 2023-09-14 三菱電機株式会社 Parameter determination device, automatic driving system, and parameter determination method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023170767A1 (en) * 2022-03-08 2023-09-14 三菱電機株式会社 Parameter determination device, automatic driving system, and parameter determination method

Similar Documents

Publication Publication Date Title
EP3339126B1 (en) Method and system to recognize individual driving preference for autonomous vehicles
US9786192B2 (en) Assessing driver readiness for transition between operational modes of an autonomous vehicle
CN108240819B (en) Driving support device and driving support method
KR102669020B1 (en) Information processing devices, mobile devices, and methods, and programs
US20210064030A1 (en) Driver assistance for a vehicle and method for operating the same
JP7329755B2 (en) Support method and support system and support device using the same
US20190337521A1 (en) Method and control unit for operating a self-driving car
US20170217445A1 (en) System for intelligent passenger-vehicle interactions
JP7073880B2 (en) Career decision device
JP6575932B2 (en) Vehicle driving support system
CN111587197A (en) Adjusting a powertrain of an electric vehicle using driving pattern recognition
WO2016035268A1 (en) Travel control system for vehicle
KR102539286B1 (en) Autonomous driving apparatus and method
EP4057252A1 (en) Information processing device, information processing method, and information processing program
US20230067615A1 (en) Systems and methods for communicating with vision and hearing impaired vehicle occupants
KR20190027657A (en) Apparatus and method for assisting driving of a vehicle
CN113135190A (en) Automatic driving assistance device
JP2022047580A (en) Information processing device
JP7226197B2 (en) vehicle controller
JP2021113041A (en) Automatic operation assistance device
US11345354B2 (en) Vehicle control device, vehicle control method and computer-readable medium containing program
JP2022123925A (en) Driving posture determination device
JP2021107801A (en) Automatic driving vehicle, image display method and program
KR102648603B1 (en) Autonomous driving apparatus and method
JP2022054279A (en) Driving support control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240920