JP4791874B2 - Driving support device and driving action determination device - Google Patents

Driving support device and driving action determination device Download PDF

Info

Publication number
JP4791874B2
JP4791874B2 JP2006101053A JP2006101053A JP4791874B2 JP 4791874 B2 JP4791874 B2 JP 4791874B2 JP 2006101053 A JP2006101053 A JP 2006101053A JP 2006101053 A JP2006101053 A JP 2006101053A JP 4791874 B2 JP4791874 B2 JP 4791874B2
Authority
JP
Japan
Prior art keywords
driving
driver
driver model
information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006101053A
Other languages
Japanese (ja)
Other versions
JP2007272834A (en
Inventor
一彰 藤井
洋一 野本
誠一 鈴木
一哉 武田
千代美 宮島
晃史 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Equos Research Co Ltd
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Equos Research Co Ltd
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Equos Research Co Ltd, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2006101053A priority Critical patent/JP4791874B2/en
Priority to CN2006800499780A priority patent/CN101389521B/en
Priority to US12/087,130 priority patent/US8140241B2/en
Priority to PCT/JP2006/326041 priority patent/WO2007077867A1/en
Priority to EP06843423A priority patent/EP1997705B1/en
Publication of JP2007272834A publication Critical patent/JP2007272834A/en
Application granted granted Critical
Publication of JP4791874B2 publication Critical patent/JP4791874B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance

Description

本発明は、ドライバモデル作成装置及び運転支援装置に係り、例えば、運転状態の評価基準となるドライバモデルの作成装置、及びドライバモデルを使用した運転状態の評価と運転支援を行う装置に関する。   The present invention relates to a driver model creation device and a driving support device, and relates to, for example, a driver model creation device that serves as an evaluation criterion for a driving state, and a device that performs driving state evaluation and driving support using a driver model.

車両運転者(ドライバ)の運転操作のモデル化、及びその応用について種々の提案がされている。
例えば、特許文献1記載技術では、ファジールールやニューラルネットワークを使用したドライバモデルにより、交差点道路の危険度を評価する技術について提案されている。
特開2002−140786
Various proposals have been made on the modeling of the driving operation of a vehicle driver (driver) and its application.
For example, the technique described in Patent Document 1 proposes a technique for evaluating the risk of an intersection road by a driver model using fuzzy rules or a neural network.
JP 2002-140786

このようなドライバモデルを使用することで、ドライバモデルから推定される運転操作等の運転状態を正常な運転状態として推定し、これと現在の運転状態とを比較することで、現在の運転に対する評価を行うことができる。
しかし、ドライバモデルから推定される運転状態は、必ずしもその運転者にとっての正常な運転状態であるとは限らなかった。
また、特定の運転者が実際に車両を運転することで運転状態のデータを収集し、これに基づいて予めドライバモデルを作成したとしても、必ずしも正常状態での運転が行われているとは限らなかった。
By using such a driver model, the driving state estimated from the driver model is estimated as a normal driving state, and the current driving state is compared with this to evaluate the current driving state. It can be performed.
However, the driving state estimated from the driver model is not always a normal driving state for the driver.
Even if a specific driver actually drives the vehicle and collects driving state data and creates a driver model in advance based on this data, driving in a normal state is not always performed. There wasn't.

そこで本発明は、運転状態の評価基準となる、より精度の高いドライバモデルを作成することを第1の目的とする。
また、該ドライバモデルを使用した、より精度の高い運転状態の評価と運転支援を行う運転支援装置を提供することを第2の目的とする。
また、ドライバの運転行動に対して、より精度の高い運転状態の評価を行うことを第3の目的とする。
Accordingly, a first object of the present invention is to create a driver model with higher accuracy that serves as an evaluation criterion for driving conditions.
It is a second object of the present invention to provide a driving support device that uses the driver model to perform more accurate driving state evaluation and driving support.
A third object is to evaluate the driving state with higher accuracy with respect to the driving behavior of the driver.

(1)請求項記載の発明では、正常状態における運転操作の複数種類の特徴量からなる走行データをEM(Expectation Maximization)アルゴリズムにより算出したガウス混合モデルをドライバモデルとして取得するドライバモデル取得手段と、前記取得したドライバモデルを使用し、正常状態で通常運転される運転操作を推定する運転操作推定手段と、前記推定した運転操作と、現在の運転操作情報に基づく運転操作とから、ドライバの運転行動を判定する運転行動判定手段と、前記判定した運転行動に応じた運転支援を行う運転支援手段と、を具備し、前記運転操作推定手段が、前記ドライバモデル取得手段が取得した複数種類の特徴量のうち、特定の特徴量を除く走行データを測定し、この走行データに対するドライバモデルにおける最大事後確率を算出することで、前記特定の特徴量を推定する運転支援装置により前記第2の目的を達成する。
(2)請求項2記載の発明では、請求項1記載の運転支援装置において、前記ドライバモデル取得手段が取得する運転操作の複数種類の特徴量が、アクセル操作量、車速、ブレーキ操作量、ステアリングの操作量、車間距離、加速度の複数種類の特徴量からなる走行データであることを特徴とする。
(3)請求項記載の発明では、請求項1または請求項2に記載の運転支援装置において、前記ドライバモデル取得手段は、走行環境毎に作成された正常状態における運転操作のドライバモデルから、現在の走行環境に対応するドライバモデルを取得する、ことを特徴とする。
(4)請求項記載の発明では、請求項1、請求項2又は請求項に記載の運転支援装置において、運転者の生体情報から運転者の状態を判定する運転者状態判定手段を備え、前記運転支援手段は、前記判定した運転行動と前記判定した運転者状態とに応じた運転支援を行うことを特徴とする。
(5)請求項記載の発明では、請求項、請求項2、請求項3又は請求項に記載の運転支援装置において、運転支援手段は、判定内容に応じて、音声又は画像による注意喚起、情報提供、振動、休憩所の案内のうちの少なくとも1以上の運転支援を行う、ことを特徴とする。
(6)請求項記載の発明では、正常状態における運転操作の複数種類の特徴量からなる走行データをEM(Expectation Maximization)アルゴリズムにより算出したガウス混合モデルをドライバモデルとして取得するドライバモデル取得手段と、前記取得したドライバモデルを使用し、正常状態で通常運転される運転操作を推定する運転操作推定手段と、前記推定した運転操作と、現在の運転操作情報に基づく運転操作とから、ドライバの運転行動を判定する運転行動判定手段と、を具備し、前記運転操作推定手段が、前記ドライバモデル取得手段が取得した複数種類の特徴量のうち、特定の特徴量を除く走行データを測定し、この走行データに対するドライバモデルにおける最大事後確率を算出することで、前記特定の特徴量を推定する運転行動判定装置により、前記第3の目的を達成する。
(7)請求項7記載の発明では、請求項6記載の運転行動判定装置において、前記ドライバモデル取得手段が取得する運転操作の複数種類の特徴量が、アクセル操作量、車速、ブレーキ操作量、ステアリングの操作量、車間距離、加速度の複数種類の特徴量からなる走行データであることを特徴とする。
(1) In the first aspect of the invention, a driver model acquisition unit that acquires, as a driver model, a Gaussian mixture model obtained by calculating travel data including a plurality of types of feature values of a driving operation in a normal state by an EM (Expectation Maximization) algorithm ; Using the acquired driver model, the driving operation estimating means for estimating a driving operation that is normally operated in a normal state, the estimated driving operation, and the driving operation based on the current driving operation information, A plurality of characteristics obtained by the driver model acquisition means, the driving behavior estimation means comprising: driving behavior determination means for determining behavior; and driving assistance means for performing driving assistance according to the determined driving behavior. Measure travel data excluding specific features out of the quantity, and measure against this travel data By calculating the maximum posterior probability in the driver model, the second object is achieved by the driving support device that estimates the specific feature amount .
(2) In the invention according to claim 2, in the driving support device according to claim 1, the plurality of types of feature values of the driving operation acquired by the driver model acquiring means are an accelerator operating amount, a vehicle speed, a brake operating amount, a steering Travel data comprising a plurality of types of feature amounts such as an operation amount, an inter-vehicle distance, and an acceleration.
(3) In the third aspect of the present invention, in the driving support apparatus according to claim 1 or claim 2, wherein the driver model obtaining means, from the driver model of the driving operation in a normal state created for each traveling environment, A driver model corresponding to the current driving environment is acquired.
(4) In the invention according to claim 4 , in the driving support apparatus according to claim 1, claim 2 or claim 3 , further comprising a driver state determining means for determining the state of the driver from the biological information of the driver. The driving support means performs driving support according to the determined driving behavior and the determined driver state.
(5) In the invention according to claim 5 , in the driving support apparatus according to claim 1 , claim 2, claim 3 or claim 4 , the driving support means is caution by voice or image according to the determination contents. At least one of driving assistance among arousal, information provision, vibration, and rest area guidance is provided.
(6) In the invention described in claim 6, a driver model acquisition unit that acquires, as a driver model, a Gaussian mixture model obtained by calculating travel data including a plurality of types of feature values of a driving operation in a normal state by an EM (Expectation Maximization) algorithm ; Using the acquired driver model, the driving operation estimating means for estimating a driving operation that is normally operated in a normal state, the estimated driving operation, and the driving operation based on the current driving operation information, Driving behavior determining means for determining an action, wherein the driving operation estimating means measures driving data excluding a specific feature quantity among a plurality of types of feature quantities acquired by the driver model acquisition means, and By calculating the maximum posterior probability in the driver model for the driving data, The third object is achieved by a driving behavior determination device that estimates a specific feature amount .
(7) In the invention according to claim 7, in the driving behavior determination device according to claim 6, a plurality of types of feature values of the driving operation acquired by the driver model acquisition means are an accelerator operation amount, a vehicle speed, a brake operation amount, The present invention is characterized in that it is travel data composed of a plurality of types of feature amounts of steering operation amount, inter-vehicle distance, and acceleration.

請求項から請求項記載の本発明では、正常状態における運転操作のドライバモデル
を使用して推定した正常状態で通常運転される運転操作と、現在の運転操作情報に基づく
運転操作とから、ドライバの運転行動を判定し、判定した運転行動に応じた運転支援を行
うので、より精度の高い運転状態の評価と運転支援を行うことができる。
請求項6及び請求項7記載の発明では、正常状態における運転操作のドライバモデルを使用し推定した正常状態で通常運転される運転操作と、現在の運転操作情報に基づく運転操作とから、ドライバの運転行動を判定するので、より精度の高い運転状態の評価を行うことができる。
In the present invention of claim 1 to claim 5, from the driving operation that is normally operated in the normal state estimated using the driver model of the driving operation in the normal state, and the driving operation based on the current driving operation information, Since the driving behavior of the driver is determined and driving assistance is performed according to the determined driving behavior, it is possible to evaluate the driving state with higher accuracy and perform driving assistance.
In the inventions according to claim 6 and claim 7 , from the driving operation that is normally operated in the normal state estimated using the driving model of the driving operation in the normal state, and the driving operation based on the current driving operation information, Since the driving behavior is determined, it is possible to evaluate the driving state with higher accuracy.

以下、本発明のドライバモデル作成装置及び運転支援装置における好適な実施の形態について、図1から図23を参照して詳細に説明する。
(1)実施形態の概要
本実施形態では、ドライバの生体情報を検出することで、ドライバの平常状態か否かをを認識する。そしてドライバの運転中に運転状態のデータ(自車両情報、例えば、アクセル、ブレーキ、ステアリングの操作量、車速、車間距離、加速度など)を収集し、その運転状態データのうち、ドライバが平常状態で運転している部分を抽出してドライバモデルを作成する。
これにより、ドライバに意識させることなく、正常時のドライバモデルを自動的に作成することができる。
また、ドライバの生体情報を元に正常状態で運転している場合のみを正常時の運転行動としてドライバモデルを作成するので、より精度の高いニュートラルなドライバモデルとすることができる。
Hereinafter, preferred embodiments of the driver model creation device and the driving support device of the present invention will be described in detail with reference to FIGS. 1 to 23.
(1) Outline of Embodiment In this embodiment, it is recognized whether or not the driver is in a normal state by detecting the biological information of the driver. And while driving, the driver collects driving state data (own vehicle information such as accelerator, brake, steering operation amount, vehicle speed, inter-vehicle distance, acceleration, etc.). A driver model is created by extracting the driving part.
This makes it possible to automatically create a normal driver model without making the driver aware of it.
In addition, since the driver model is created only when the driver is driving in a normal state based on the driver's biological information as a normal driving behavior, a more accurate neutral driver model can be obtained.

本実施形態では、例えば、片道3車線の国道で、信号が青の交差点を右折専用車線から右折する場合で、対向車があり、横断歩道に歩行者がいる場合、というように、走行中における自車両周辺環境の各場面(シチュエーション)毎にドライバモデルが作成される。   In this embodiment, for example, on a three-lane one-way national road, when the signal turns blue from the right turn exclusive lane, there is an oncoming vehicle, and there are pedestrians on the pedestrian crossing, A driver model is created for each scene (situation) in the surrounding environment of the vehicle.

また、作成したドライバモデルから推定される正常時の運転行動と、現在のドライバの運転行動とをリアルタイムに比較することで、現在のドライバの運転行動が「いつもどおり」であるか、又は逸脱しているかを監視する。
「いつもの」運転と現在の運転の比較を行う際の指標として、例えばドライバの「反応速度」と「ふらつき」を用いる。
Also, by comparing in real time the normal driving behavior estimated from the created driver model with the current driver's driving behavior, the current driver's driving behavior is “as usual” or deviates. To monitor.
As an index for comparing the “normal” driving with the current driving, for example, the “reaction speed” and “flicker” of the driver are used.

更に、本実施形態では、ドライバモデルに基づく運転行動の変化を評価するだけでなく、生体情報の変化も加味することで、ドライバの状態を示す情報を複合的に判断し、より高精度にドライバの疲労や注意力の低下を検知する。   Furthermore, in this embodiment, not only the change in driving behavior based on the driver model is evaluated, but also the change in biological information is taken into account, so that information indicating the driver's state is determined in a composite manner, and the driver is more accurately detected. Detects fatigue and reduced attention.

その結果、ドライバ本来の運転行動から逸脱があった場合、これについて注意喚起、警告や情報提示を行うことで、その人に合った安全運転支援を行うことができる。
また、明らかな疲労や注意力の低下を発現する前の前兆段階でのドライバ状態の検知を可能とし、予め疲労がピークに達する前に休憩を促すなどの高度な案内が可能となる。
As a result, when there is a deviation from the driver's original driving behavior, a safe driving support suitable for the person can be provided by alerting, warning and presenting information.
In addition, it is possible to detect the driver state at a precursor stage before the obvious fatigue or a reduction in attention, and it is possible to provide advanced guidance such as prompting a break before fatigue reaches a peak.

本実施形態では、ドライバモデルにGMM(ガウス混合モデル)を用いることで、各ドライバ毎のドライバモデルを簡便に生成することができ、さらに、条件付き確率を最大化する計算により、運転操作行動を容易に推定し出力する。   In the present embodiment, by using a GMM (Gaussian mixture model) as a driver model, a driver model for each driver can be easily generated, and further, driving operation behavior is calculated by calculation that maximizes a conditional probability. Easily estimate and output.

すなわち、本実施形態のドライバモデル作成装置、運転支援装置、及び運転行動判定装置では、アクセル操作量、車速、ブレーキ操作量、ステアリングの操作量、車間距離、加速度等の複数種類の特徴量からなる走行データを学習データとしてEM(Expectation Maximization)アルゴリズムにより算出したガウス混合モデルをドライバモデルとして採用する。
このガウス混合モデルは、EMアルゴリズムにより、同時確率密度分布を計算することで得られる同時確率密度関数のパラメータで構成され、必要に応じて各ドライバ毎、更にドライバのアクセル操作用、ブレーキ操作用、車間距離維持範囲用等の推定する特徴量毎に生成される。
That is, the driver model creation device, the driving support device, and the driving behavior determination device according to the present embodiment include a plurality of types of feature amounts such as an accelerator operation amount, a vehicle speed, a brake operation amount, a steering operation amount, an inter-vehicle distance, and an acceleration. A Gaussian mixture model calculated by an EM (Expectation Maximization) algorithm using travel data as learning data is adopted as a driver model.
This Gaussian mixture model is composed of the parameters of the joint probability density function obtained by calculating the joint probability density distribution by the EM algorithm, and for each driver as necessary, for the driver's accelerator operation, for brake operation, It is generated for each estimated feature amount for the inter-vehicle distance maintenance range.

そして、ドライバモデルに使用した複数の特徴量のうちの特定の特徴量xを除く走行データY(=y1、y2、…)を測定し、この走行データYに対するドライバモデルにおける最大事後確率を算出することで、特徴量xを推定する。   Then, travel data Y (= y1, y2,...) Excluding a specific feature amount x among a plurality of feature amounts used in the driver model is measured, and a maximum posterior probability in the driver model for the travel data Y is calculated. Thus, the feature quantity x is estimated.

例えば、車両周辺の走行環境(シチュエーション)と同一のシチュエーションにおけるドライバモデルを用い、現在の自車状態をドライバモデルに入力し、それ以降の運転状態(例えば、特徴量x=アクセル操作量)の時間変化を推定し、実際の運転状態と比較することで、操作の遅れや操作のふらつき等の有無が判定される。   For example, the driver model in the same situation as the driving environment (situation) around the vehicle is used, the current own vehicle state is input to the driver model, and the subsequent driving state (for example, feature amount x = accelerator operation amount) By estimating the change and comparing it with the actual driving state, it is determined whether or not there is an operation delay, an operation fluctuation, or the like.

(2)実施形態の詳細
図1は、ドライバモデル作成装置を適用した運転支援装置の構成を表したものである。
運転支援装置は、ECU(電子制御装置)10、自車両情報取得部11、自車両周辺環境情報取得部12、生体情報取得部13、情報提供部14、ドライバモデル処理部15、データ記憶部16を備えている。
なお、図1により説明する運転支援装置の構成については、その全てが必要ということではなく、本実施形態にけるドライバモデルの作成及び運転支援を行う為に使用可能な各部や装置について説明するものであり、採用する運転支援装置の機能等に応じて適宜選択して運転支援装置を構成することが可能であり、また、同様な機能を有する他の機器、装置を追加使用することが可能である。
(2) Details of Embodiment FIG. 1 shows a configuration of a driving support device to which a driver model creation device is applied.
The driving support device includes an ECU (electronic control unit) 10, a host vehicle information acquisition unit 11, a host vehicle surrounding environment information acquisition unit 12, a biological information acquisition unit 13, an information provision unit 14, a driver model processing unit 15, and a data storage unit 16. It has.
Note that the configuration of the driving support apparatus described with reference to FIG. 1 is not all necessary, but describes each unit and apparatus that can be used to create a driver model and perform driving support in this embodiment. It is possible to configure the driving support device by appropriately selecting according to the function of the driving support device to be adopted, and it is possible to additionally use other devices and devices having similar functions. is there.

ECU10は、CPU、ROM、RAM、インターフェイスの各部を備えたコンピュータシステムで構成されている。
ECU10は、自車両情報取得部11の取得情報に基づくドライバ運転行動の監視、生体情報取得部13の取得情報に基づくドライバ生体情報の監視、運転支援としてのドライバアシスト内容の情報提供部14への指示、を行うようになっている。ECU10は、また、ドライバモデルの作成、出力に必要なデータをドライバモデル処理部15に供給するようになっている。
The ECU 10 is composed of a computer system including CPU, ROM, RAM, and interface units.
The ECU 10 monitors the driver driving behavior based on the acquired information of the host vehicle information acquiring unit 11, monitors the driver biological information based on the acquired information of the biological information acquiring unit 13, and provides the driver assist content information providing unit 14 as driving assistance to the information providing unit 14. Instructions. The ECU 10 also supplies the driver model processing unit 15 with data necessary for creating and outputting the driver model.

自車両情報取得部11は、ハンドル舵角センサ111、アクセルペダルセンサ112、ブレーキペダルセンサ113、速度計114、加速度センサ115、エレキ動作状況取得部116、タイマー117、その他のセンサを備えている。
図2は、自車両情報取得部11で取得する、運転操作情報としての自車両情報を例示したものである。
図2に示されるように、ハンドル舵角センサ111はハンドル操作量(角度)、アクセルペダルセンサ112はアクセル操作量、ブレーキペダルセンサ113はブレーキ操作量を、速度計114は車速を検出する。
加速度センサ115は、ヨー軸加速度、ピッチ軸加速度、ロール軸加速度を検出する。
The own vehicle information acquisition unit 11 includes a steering wheel steering angle sensor 111, an accelerator pedal sensor 112, a brake pedal sensor 113, a speedometer 114, an acceleration sensor 115, an electric operation state acquisition unit 116, a timer 117, and other sensors.
FIG. 2 exemplifies host vehicle information as driving operation information acquired by the host vehicle information acquiring unit 11.
As shown in FIG. 2, the steering angle sensor 111 detects a steering operation amount (angle), the accelerator pedal sensor 112 detects an accelerator operation amount, the brake pedal sensor 113 detects a brake operation amount, and the speedometer 114 detects a vehicle speed.
The acceleration sensor 115 detects yaw axis acceleration, pitch axis acceleration, and roll axis acceleration.

エレキ動作状況取得部116は、ウィンカー動作状況、ライト動作状況、ワイパー動作状況を検出する。
タイマー117は、運転時刻、運転時間等の各種時間を計測する。
The electric operation status acquisition unit 116 detects a winker operation status, a light operation status, and a wiper operation status.
The timer 117 measures various times such as operation time and operation time.

自車両周辺環境情報取得部12は、車両周辺情報取得部121、道路情報取得部122、及びネットワーク部123を備えている。
車両周辺情報取得部121は、赤外線センサ、ミリ波センサ、超音波センサ、画像認識装置、車間距離センサ等の各種センサを備えている。画像認識装置は、画像入力装置で撮像された車外画像の画像処理を行い、車両周辺の障害物や、歩行者、車両等の存在対象を認識する。
The own vehicle surrounding environment information acquisition unit 12 includes a vehicle surrounding information acquisition unit 121, a road information acquisition unit 122, and a network unit 123.
The vehicle surrounding information acquisition unit 121 includes various sensors such as an infrared sensor, a millimeter wave sensor, an ultrasonic sensor, an image recognition device, and an inter-vehicle distance sensor. The image recognition device performs image processing of an outside image captured by the image input device, and recognizes obstacles around the vehicle, existence objects such as pedestrians and vehicles.

図3は、車両周辺情報取得部121で取得する車両周辺環境情報を例示したものである。
この図3に示されるように、車両周辺情報取得部121により、車両、歩行者、障害物、その他各種情報が取得される。
具体的に取得される情報としては、例えば、検出した周辺に存在する車両の種類(乗用車、バイク、自転車等)、車間距離、相対速度、属性(対向車、並走車、直行(左、右)車、等が各車両毎に取得される。
同様に、歩行者、障害物に対しても、その各々に対する情報が取得される。
FIG. 3 illustrates vehicle surrounding environment information acquired by the vehicle surrounding information acquisition unit 121.
As shown in FIG. 3, the vehicle peripheral information acquisition unit 121 acquires a vehicle, a pedestrian, an obstacle, and other various information.
Specific information to be acquired includes, for example, the type of vehicle (passenger car, motorcycle, bicycle, etc.) existing in the detected vicinity, the inter-vehicle distance, the relative speed, and the attributes (oncoming vehicle, parallel vehicle, direct (left, right) ) Cars, etc. are acquired for each vehicle.
Similarly, information on each of pedestrians and obstacles is acquired.

道路情報取得部122は、車両の現在位置を検出するGPS装置や、検出した現在位置に対応する道路情報や信号の有無等の周辺情報を取得するための地図情報を備えている。
また、道路情報取得部122は、標識や道路環境を認識する画像認識装置を備えているが、この画像認識装置は車両周辺情報取得部121の画像認識と共有されている。
The road information acquisition unit 122 includes a GPS device that detects the current position of the vehicle, and map information that acquires road information corresponding to the detected current position and peripheral information such as the presence or absence of a signal.
Further, the road information acquisition unit 122 includes an image recognition device that recognizes a sign and a road environment. This image recognition device is shared with the image recognition of the vehicle surrounding information acquisition unit 121.

図4は、道路情報取得部122で取得する車両周辺環境情報を例示したものである。
道路情報取得部122では図4に示されるように、道路種別、道路形状、道路幅、自車位置、路面状況、道の明るさ、信号の有無と状態、道路属性(交通規則)、その他の各種情報が取得される。
FIG. 4 illustrates vehicle surrounding environment information acquired by the road information acquisition unit 122.
As shown in FIG. 4, in the road information acquisition unit 122, the road type, road shape, road width, own vehicle position, road surface condition, road brightness, presence / absence of signal, road attributes (traffic rules), other Various information is acquired.

ネットワーク部123は、VICS等の交通情報網や気象情報センタと接続して、交通情報や気象情報を取得する。
図5は、ネットワーク部123で取得する車両周辺環境情報を例示したものである。
図5に示されるように、VICS等で取得する渋滞情報には、渋滞の距離、混雑の距離、事故の有無、通行止めの有無、チェーン規制の有無等がある。
また、気象情報センタで取得する気象情報には、晴れ、曇り、雨等の天候情報、降水確率、気温、その他の情報がある。
The network unit 123 is connected to a traffic information network such as VICS and a weather information center, and acquires traffic information and weather information.
FIG. 5 illustrates vehicle surrounding environment information acquired by the network unit 123.
As shown in FIG. 5, the congestion information acquired by VICS includes the distance of congestion, the distance of congestion, the presence / absence of an accident, the presence / absence of traffic closure, the presence / absence of chain regulation, and the like.
In addition, the weather information acquired by the weather information center includes weather information such as sunny, cloudy, and rain, precipitation probability, temperature, and other information.

自車両周辺環境情報取得部12で取得した自車両周辺環境情報は、上記した自車両情報取得部11で取得した自車両情報の一部(例えば、ハンドル操作量に基づく、直進、右折、左折等の情報)と共に、後述するシチュエーションテーブル163に従って、シチュエーションの設定に使用される。   The own vehicle surrounding environment information acquired by the own vehicle surrounding environment information acquisition unit 12 is a part of the own vehicle information acquired by the own vehicle information acquisition unit 11 (for example, straight ahead, right turn, left turn, etc. based on the amount of steering operation) The information is used for setting a situation according to a situation table 163 described later.

生体情報取得部13は、車両の運転中におけるドライバが正常状態か異常状態かを判断するための生体情報を取得し、そのためのセンサとして、心電計、血圧計、心拍センサ、発汗センサその他の各種センサを備えている。
生体情報取得部13は、車両が走行を開始すると、所定時間間隔で心拍数と発汗量を検出してECU10に供給するようになっている。
心拍センサは、例えば、ステアリングに配置された電極により、運転中の運転者の手から心拍信号を採取することで心拍数を検出するようになっている。なお、心拍センサは、専用のセンサを手首等の運転者の身体に配置するようにしてもよい。
発汗センサは、ステアリングに配置され、発汗状態によって流れる電流値の変化から発汗状態を検出する。
The biometric information acquisition unit 13 acquires biometric information for determining whether the driver during driving of the vehicle is in a normal state or an abnormal state, and as such a sensor, an electrocardiograph, a sphygmomanometer, a heart rate sensor, a perspiration sensor, or the like Various sensors are provided.
When the vehicle starts running, the biological information acquisition unit 13 detects the heart rate and the amount of sweat at predetermined time intervals and supplies the detected amount to the ECU 10.
For example, the heart rate sensor detects a heart rate by collecting a heart rate signal from the hand of a driver who is driving by an electrode disposed on a steering wheel. Note that the heart rate sensor may be provided with a dedicated sensor on the driver's body such as a wrist.
The sweat sensor is disposed on the steering and detects a sweat state from a change in a current value flowing depending on the sweat state.

図6は、生体情報取得部13で取得する生体情報を例示したものである。
生体情報取得部13では、心電位、R−R間隔、心拍、呼吸数、体温、血圧、皮膚電位、失水分量(発汗量)、筋電位、脳波電位等が取得対象となる。
FIG. 6 illustrates biometric information acquired by the biometric information acquisition unit 13.
In the biometric information acquisition unit 13, cardiac potential, RR interval, heart rate, respiratory rate, body temperature, blood pressure, skin potential, moisture loss (sweat volume), myoelectric potential, brain wave potential, and the like are acquisition targets.

情報提供部14は、ドライバの運転状態に応じた運転操作アシストや警告を行うための運転操作アシスト部、音声出力部、画面出力部を備えている。
図7は、情報提供部14で提供する情報、アシストの内容を例示したものである。
この図7に示されるように、運転操作アシスト部は、ドライバによる運転操作を補正するアシストとして、ハンドル操作アシスト、アクセル操作アシスト、ブレーキ操作アシスト等を行うため、各操作部のトルク値の出力を制御する。例えば、運転者によるハンドル操作にふらつきがある場合にはステアリングが重くなるようにトルク操作をし、ブレーキの踏み力が弱い場合にブレーキの踏み込み量に対する出力が大きくなるようにアシストする。
また、運転者の状態に応じて、音声出力部は警告音声を出力し、画面出力部は警告画面を表示する。
The information providing unit 14 includes a driving operation assist unit, a voice output unit, and a screen output unit for performing a driving operation assist or warning according to the driving state of the driver.
FIG. 7 illustrates information provided by the information providing unit 14 and the contents of assist.
As shown in FIG. 7, the driving operation assist unit performs the steering operation assist, the accelerator operation assist, the brake operation assist, and the like as the assist for correcting the driving operation by the driver. Control. For example, when there is a wobble in the steering wheel operation by the driver, a torque operation is performed so that the steering becomes heavy, and when the braking force of the brake is weak, an assist is made so that the output with respect to the depression amount of the brake becomes large.
Further, the voice output unit outputs a warning voice and the screen output unit displays a warning screen according to the state of the driver.

ドライバモデル処理部15は、ドライバモデル作成部151、ドライバモデル記憶部152、ドライバモデル出力部153を備えている。
ドライバモデル作成部151は、ドライバモデル作成装置として機能し、自車両情報取得部11で取得した自車両情報のうち、運転者の状態が正常状態である場合の自車両情報を蓄積し、該正常状態の自車両情報からドライバモデルを作成する。
正常状態の自車両情報は、該情報を取得した際に自車両周辺環境情報取得部12で取得した自車両周辺環境情報から決定されるシチュエーション毎に蓄積され、各シチュエーション毎にドライバモデルが作成される。
The driver model processing unit 15 includes a driver model creation unit 151, a driver model storage unit 152, and a driver model output unit 153.
The driver model creation unit 151 functions as a driver model creation device, accumulates own vehicle information when the driver's state is normal among the own vehicle information acquired by the own vehicle information acquisition unit 11, and the normal A driver model is created from the vehicle information of the state.
The own vehicle information in the normal state is accumulated for each situation determined from the own vehicle surrounding environment information acquired by the own vehicle surrounding environment information acquisition unit 12 when the information is acquired, and a driver model is created for each situation. The

ドライバモデル記憶部152は、ドライバモデル作成部151で作成されたドライバモデルが各シチュエーション毎に保存される。
ドライバモデル作成部151では、各シチュエーションに対する自車両情報が所定量蓄積されると、そのシチュエーションのドライバモデルを作成し、ドライバモデル記憶部152に記憶する。そして、新たな自車両情報が取得される毎に、対応するシチュエーションのドライバモデルがそれ以前に蓄積済みの自車両情報と併せて新たにドライバモデルを作成し、ドライバモデルを更新する。なお、ドライバモデルの更新は、対応するシチュエーションの新たな自車両情報を取得する毎ではなく、所定量の追加蓄積がある毎に作成、更新を行うようにしてもよい。
The driver model storage unit 152 stores the driver model created by the driver model creation unit 151 for each situation.
When a predetermined amount of the own vehicle information for each situation is accumulated, the driver model creation unit 151 creates a driver model for the situation and stores it in the driver model storage unit 152. Each time new own vehicle information is acquired, the driver model of the corresponding situation creates a new driver model together with the own vehicle information accumulated before then, and updates the driver model. The driver model may be updated or updated every time a predetermined amount of additional accumulation is made, not every time new vehicle information of the corresponding situation is acquired.

図8はドライバモデル記憶部152の記憶内容を概念的に表したものである。
この図8に示されるように、ドライバモデルは、シチュエーション毎に分類されている。記憶される各ドライバモデルa、b、c、…は、対応するシチュエーションデータ(シチュエーションa、b、c、…)に紐付けされており、システムがドライバモデルを引用する為のタグとして機能する。
こうすることでドライバモデルの検索時に、「ドライバがあるレベルでの疲労具合」のケースのドライバモデルを一括取得しておくなどのキャッシュ操作が可能になる。
FIG. 8 conceptually shows the contents stored in the driver model storage unit 152.
As shown in FIG. 8, the driver model is classified for each situation. Each stored driver model a, b, c,... Is associated with corresponding situation data (situations a, b, c,...), And functions as a tag for the system to cite the driver model.
In this way, when searching for a driver model, it becomes possible to perform a cache operation such as acquiring driver models in a case of “the driver is fatigued at a certain level” in a batch.

ドライバモデル出力部153は、特定のシチュエーションnに対応するドライバモデルnに基づいて、正常状態におけるドライバの操作量、すなわち、シチュエーションnに対するいつもの(正常時の)運転操作量を推定し、出力する。
この推定運転操作量と、現在の自車両情報とを比較することで、後述する運転行動の状態(反応遅れ、ふらつき等)を判断するための基礎データである、運転行動逸脱データが所定時間間隔毎に得られる。
Based on the driver model n corresponding to the specific situation n, the driver model output unit 153 estimates and outputs the driver's operation amount in the normal state, that is, the usual (normal) driving operation amount for the situation n. .
By comparing this estimated driving operation amount with the current host vehicle information, driving behavior deviation data, which is basic data for determining a driving behavior state (reaction delay, wobbling, etc.) described later, is a predetermined time interval. Obtained every time.

なお、ドライバモデル処理部15におけるドライバモデル作成部151とドライバモデル出力部153の両機能をECU10で実現し、ドライバモデル記憶部152をデータ記憶部16に保存するようにしてもよい。   Note that both functions of the driver model creation unit 151 and the driver model output unit 153 in the driver model processing unit 15 may be realized by the ECU 10, and the driver model storage unit 152 may be stored in the data storage unit 16.

データ記憶部16には、本実施形態によるドライバモデル作成処理、及び運転操作アシスト処理に必要な各種データやテーブルが格納される。
データ記憶部16は、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、メモリチップやICカード等の半導体記録媒体、CD−ROMやMO、PD(相変化書換型光ディスク)等の光学的に情報が読み取られる記録媒体、その他各種方法でデータやコンピュータプログラムが記録される記録媒体が含まれる。
記録媒体には、記録内容に応じて異なる媒体を使用するようにしてもよい。
The data storage unit 16 stores various data and tables necessary for the driver model creation process and the driving operation assist process according to the present embodiment.
The data storage unit 16 is optical information such as a magnetic recording medium such as a flexible disk, a hard disk, and a magnetic tape, a semiconductor recording medium such as a memory chip and an IC card, and a CD-ROM, MO, and PD (phase change rewritable optical disk). And other recording media on which data and computer programs are recorded by various methods.
Different recording media may be used depending on the recording contents.

データ記憶部16には、運転行動逸脱データ161、自車両情報162が保存され、また、シチュエーションテーブル163が格納されている。
運転行動逸脱データ161は、現在走行中のシチュエーションnに対してドライバモデルnから推定される正常時の運転操作量と、実際の自車両情報に基づく操作量との差分データであり、現在走行中のシチュエーションnに対して所定時間間隔毎に算出され、保存される。
自車両情報162は、正常状態で走行した際の自車両情報が各シチュエーション毎に蓄積される。この自車両情報が所定量蓄積された次点で、そのシチュエーションに対するドライバモデルが作成される。ドライバモデルは、一度作成された以後は、対応するシチュエーションの自車両情報を取得する毎に更新される。
The data storage unit 16 stores driving behavior deviation data 161 and host vehicle information 162, and also stores a situation table 163.
The driving behavior deviation data 161 is difference data between a normal driving operation amount estimated from the driver model n with respect to the current driving situation n and an operation amount based on actual own vehicle information. Is calculated and stored at predetermined time intervals for the situation n.
In the host vehicle information 162, host vehicle information when the vehicle travels in a normal state is accumulated for each situation. A driver model for the situation is created at the next point where the vehicle information is accumulated by a predetermined amount. Once the driver model is created, it is updated each time the own vehicle information of the corresponding situation is acquired.

シチュエーションテーブル163は、取得した自車両情報と自車両周辺環境情報から、対応するシチュエーションa、b、c、…を決定するためのテーブルである。
図9は、シチュエーションデータの内容を概念的に表したものである。
この図9に示されるように、ドライバモデルa、b、c、…に対応する各シチュエーションa、b、c、…毎に、そのシチュエーションとなるためのシチュエーションフラグが設定されている。
シチュエーションフラグは、自車両情報と自車両周辺環境情報における各小項目毎に1つのデータが選択されている。
The situation table 163 is a table for determining the corresponding situations a, b, c,... From the acquired own vehicle information and own vehicle surrounding environment information.
FIG. 9 conceptually shows the contents of situation data.
As shown in FIG. 9, a situation flag is set for each situation a, b, c,... Corresponding to the driver models a, b, c,.
As the situation flag, one data is selected for each small item in the host vehicle information and the host vehicle surrounding environment information.

次に、以上のように構成された運転支援装置による各種処理動作について説明する。
図10は、ドライバの「普段の運転行動」(正常時)のドライバモデルを作成するドライバモデル作成処理の処理動作を表したフローチャートである。
本実施形態において、ドライバモデルの作成は、車両走行中において実行されるが、ドライバの生体情報、自車両情報、自車両周辺環境情報の収集と蓄積を走行中に行い、シチュエーションフラグの設定及びドライバモデルの作成については、車両走行中以外に行うようにしてもよい。
Next, various processing operations performed by the driving support apparatus configured as described above will be described.
FIG. 10 is a flowchart showing the processing operation of the driver model creation process for creating a driver model of “normal driving behavior” (normal) of the driver.
In the present embodiment, the driver model is created while the vehicle is running. However, the driver's biometric information, own vehicle information, and surrounding environment information of the own vehicle are collected and accumulated during the running, and the setting of the situation flag and the driver are performed. The model may be created when the vehicle is not traveling.

ドライバモデル作成部151は、車両走行中において生体情報取得部13から各時点における生体情報を収集、蓄積する(ステップ10)。なお、生体情報等の各種情報はECU10を介して収集する(以下同じ)。
次いでドライバモデル作成部151は、収集、蓄積した生体情報からその変化状態を監視することで、現在のドライバの状態が正常状態か否かを判断する(ステップ11)。
The driver model creation unit 151 collects and accumulates biological information at each time point from the biological information acquisition unit 13 while the vehicle is traveling (step 10). Various information such as biological information is collected via the ECU 10 (the same applies hereinafter).
Next, the driver model creation unit 151 determines whether or not the current driver state is normal by monitoring the change state from the collected and accumulated biometric information (step 11).

図11〜図13は、ドライバが正常状態か否かを判断する方法について概念的に表したものである。
図11は、ドライバの心拍数の変動から動揺や焦りに起因する精神的(メンタル)な変化を監視する状態について表したものである。
図11(a)に示されるように、所定の上下の閾値h1とh2間に心拍の測定値が入っている場合には正常な状態(安定している状態)と判断する。
一方、図11(b)に示されるように、心拍の測定値が下側閾値h1以下、又は上側閾値h2以上を検出した場合には動揺や焦りに起因した異常な状態(不安定な状態)と判断する。
なお、本実施形態では図11(b)に示されるように、所定時間内に上下閾値h1、h2間の両側から外れた場合に異常状態と判断するが、いずれか一方の閾値を所定時間超えている場合も異常と判断するようにしてもよい。
11 to 13 conceptually show a method of determining whether or not the driver is in a normal state.
FIG. 11 shows a state in which a mental change due to fluctuation or impatience is monitored from fluctuations in the heart rate of the driver.
As shown in FIG. 11A, when the measured value of the heartbeat is between the predetermined upper and lower threshold values h1 and h2, it is determined that the state is normal (stable state).
On the other hand, as shown in FIG. 11B, when the measured value of the heartbeat is lower than the lower threshold value h1 or higher than the upper threshold value h2, an abnormal state (unstable state) due to shaking or impatience is detected. Judge.
In this embodiment, as shown in FIG. 11 (b), an abnormal state is determined when it deviates from both sides of the upper and lower thresholds h1 and h2 within a predetermined time, but either threshold is exceeded for a predetermined time. It may be determined that there is an abnormality.

図12は、心電図のローレンツプロット解析からメンタルな変化を監視する状態について表したものである。
ローレンツプロット解析では、任意の時刻nにおける心電位のR−R間隔をRRnとし、次の時刻n+1における心電位のR−R間隔をRRn+1とした場合に、横軸をRRnの値、縦軸をRRn+1の値に取ったグラフが作成される。ここで、R−R間隔は、心電位のピーク値から次のピーク値までの時間間隔で、心拍の間隔が該当する。
FIG. 12 shows a state in which a mental change is monitored from Lorentz plot analysis of an electrocardiogram.
In Lorentz plot analysis, when the RR interval of the cardiac potential at an arbitrary time n is RRn and the RR interval of the cardiac potential at the next time n + 1 is RRn + 1, the horizontal axis is the value of RRn, and the vertical axis is A graph taking the value of RRn + 1 is created. Here, the RR interval is a time interval from the peak value of the electrocardiogram to the next peak value, and corresponds to the interval of heartbeats.

このローレンツプロット解析によると、極度の緊張状態である場合には、図12(a)に示されるように、心拍間隔が同一間隔となり、プロット点の集合はy=x線の一カ所に集中する。
また適度な緊張状態(適度な注意力がある状態)では、心拍間隔が適度のゆれをもって観測され、図12(b)に示されるように、プロット点の集合はy=x線上に細長くプロットされる。
また、注意力が散漫な状態では、心拍間隔の揺れが大きくなり、図12(c)に示されるように、プロット点の集合もy=x線上で原点方向及びこれと直角方向にも膨らむような集合が観測される。
また、眠気がある状態では、図12(d)に示されるように、プロット点の集合は、心拍間隔はy=x線方向のプロット領域が広がるが、原点側の幅が狭く原点から離れるに従って広くなる傾向がある。
According to this Lorentz plot analysis, in the case of an extreme tension state, as shown in FIG. 12A, the heartbeat intervals are the same interval, and the set of plot points is concentrated at one place of the y = x line. .
Further, in a moderate tension state (a state with moderate attention), the heartbeat interval is observed with a moderate fluctuation, and as shown in FIG. 12B, the set of plot points is plotted elongated on the y = x line. The
When the attention is distracted, the heartbeat interval fluctuates, and as shown in FIG. 12C, the set of plot points also swells in the direction of the origin and the direction perpendicular to the y = x line. A large set is observed.
Further, in the state of drowsiness, as shown in FIG. 12 (d), the set of plot points has a heartbeat interval in which the plot area in the y = x-ray direction is widened, but the width on the origin side is narrow and the distance from the origin is increased. There is a tendency to become wide.

このローレンツプロット解析により、正常な状態(適度な緊張状態)と、正常でない状態(極度の緊張状態、注意力が散漫な状態、眠気がある状態)が判断される。   By this Lorentz plot analysis, a normal state (moderate tension state) and an abnormal state (extreme tension state, state of distraction, and sleepiness) are determined.

図13は、取得した生体情報から、交感神経系優位の状態か、副交感神経系優位の状態かによって正常状態か否かを判断する場合について表したものである。
この図13に示されるように、例えば、ドライバの撮像画像から瞳孔の大きさを測定し、その大きさが散大である場合には、交換神経系が最も優位であり極度の緊張状態で注意力が低い可能性があると判断される。逆に、瞳孔の大きさが収縮状態である場合には、副交感神経系が優位な弛緩状態であり、収縮の程度に応じて、注意力が低い、注意力が極めて低い可能性があると判断される。
一方、交換神経系が適度に優位である瞳孔サイズの場合に、適度の緊張状態で注意力が高い正常状態と判断される。
FIG. 13 shows a case where it is determined from the acquired biological information whether the state is normal or not based on whether the sympathetic nervous system is dominant or the parasympathetic nervous system is dominant.
As shown in FIG. 13, for example, when the size of the pupil is measured from the captured image of the driver and the size is divergent, the exchange nervous system is the most dominant and attention is paid to the extreme tension state. It is judged that the power may be low. Conversely, if the pupil size is in a contracted state, the parasympathetic nervous system is in a relaxed state, and it is determined that the attention level may be low or the attention level may be very low depending on the degree of contraction. Is done.
On the other hand, in the case of a pupil size in which the exchange nervous system is moderately dominant, it is determined that the normal state is high in attention with moderate tension.

瞳孔のサイズを含め、図13に示した作用項目(心拍数、心臓収縮力等)の各測定項目毎に、極度の緊張、適度の緊張、弛緩状態(注意力が低い)、弛緩状態(注意力が極めて低い)の4状態に区分する為の値が予め決められている。
なお、ドライバモデルの作成においては、正常状態か正常状態でないかについて判断されるが、後述するドライバ生体情報監視処理(図20参照)におけるドライバ生体情報ケース判定(ステップ42)では、極度の緊張状態、適度の緊張状態、注意力が散漫な状態、弛緩状態、眠気がある状態の5つの状態が、図11〜図13で説明した方法に基づいて判定される。
For each measurement item of action items (heart rate, cardiac contraction force, etc.) shown in FIG. 13 including the size of the pupil, extreme tension, moderate tension, relaxed state (low attention), relaxed state (caution) The value for classifying into four states (the force is extremely low) is determined in advance.
In creating the driver model, it is determined whether the driver model is in a normal state or not in a normal state. However, in the driver biometric information case determination (step 42) in the driver biometric information monitoring process (see FIG. 20) described later, an extreme tension state Five states are determined based on the method described with reference to FIGS. 11 to 13, a moderate tension state, a state where attention is diffused, a relaxation state, and a drowsiness state.

以上のように、生体情報からドライバが正常状態か否かを判断し、正常であれば(ステップ11;Y)、ドライバモデル作成部151は、正常ドライバモデル作成用の情報として、正常時の自車両情報と自車両周辺環境情報を、自車両情報取得部11と自車両周辺環境情報取得部12から収集する(ステップ12)。   As described above, it is determined whether or not the driver is in a normal state from the biometric information. If the driver is normal (step 11; Y), the driver model creating unit 151 uses the normal driver model information as normal driver model information. Vehicle information and host vehicle surrounding environment information are collected from the host vehicle information acquiring unit 11 and host vehicle surrounding environment information acquiring unit 12 (step 12).

図14は、交差点を右折する際に自車両情報取得部11と自車両周辺環境情報取得部12で取得される自車両情報と自車両周辺環境情報について例示したものである。
この図14に示されるような交差点を右折する場合には、取得される情報として、道路種別、道路状況、自車速度、自車位置、進行方向、自車側の信号の状態(赤、青、黄等)、前方車両の有無、前方車両の種類、前方車両相対位置、前方車両相対速度、対向車の有無、対向車車種、対向車相対位置、対向車相対速度、歩行者の有無、歩行者の種類、歩行者の位置、歩行者の進行方向、天気、等が取得される。
なお、本実施形態ではこれらの情報について取得し後述のシチュエーションの設定に使用されるが、必ずしもその全てを使用する必要はなく、いずれか一部の情報に基づくシチュエーションの設定を行ってもよく、逆に、より詳細な情報によるシチュエーションの設定を行うようにしてもよい。
FIG. 14 illustrates the host vehicle information and host vehicle surrounding environment information acquired by the host vehicle information acquiring unit 11 and host vehicle surrounding environment information acquiring unit 12 when making a right turn at an intersection.
When making a right turn at an intersection as shown in FIG. 14, the acquired information includes road type, road condition, own vehicle speed, own vehicle position, traveling direction, and signal state of the own vehicle (red, blue , Yellow, etc.), presence / absence of preceding vehicle, type of preceding vehicle, relative position of forward vehicle, relative speed of forward vehicle, presence / absence of oncoming vehicle, oncoming vehicle type, relative position of oncoming vehicle, relative speed of oncoming vehicle, presence / absence of pedestrians, walking The type of the person, the position of the pedestrian, the traveling direction of the pedestrian, the weather, etc. are acquired.
In this embodiment, these information is acquired and used to set the situation described later, but it is not always necessary to use all of them, and the situation may be set based on any part of the information. Conversely, situations may be set based on more detailed information.

ドライバモデル作成部151は、収集した自車両情報と自車両周辺環境情報から、シチュエーションテーブル163(図9参照)に従ってシチュエーションフラグを設定し、収集した正常時の自車両情報を、該当するシチュエーションの自車両情報162に蓄積する(ステップ13)。   The driver model creation unit 151 sets a situation flag according to the situation table 163 (see FIG. 9) from the collected own vehicle information and the own vehicle surrounding environment information, and collects the own vehicle information at the normal time in the corresponding situation. The vehicle information 162 is accumulated (step 13).

次いで、ドライバモデル作成部151は、収集及び蓄積した正常時の自車両情報162に従って、ステップ13で設定したシチュエーションに対応する正常時用の正常ドライバモデルを作成し(ステップ14)、メインルーチンにリターンする。   Next, the driver model creation unit 151 creates a normal driver model for normal operation corresponding to the situation set in step 13 in accordance with the collected and accumulated vehicle information 162 for normal operation (step 14), and returns to the main routine. To do.

一方、生体情報からドライバが正常状態か否かを判断し、正常でなければ(ステップ11;N)、ドライバモデル作成部151は、正常時と同様に、異常ドライバモデル作成用の情報として、異常時の自車両情報と自車両周辺環境情報を、自車両情報取得部11と自車両周辺環境情報取得部12から収集する(ステップ15)。   On the other hand, it is determined whether or not the driver is in a normal state from the biometric information. If the driver is not normal (step 11; N), the driver model creating unit 151 uses the abnormal driver model creation information as abnormal information as in the normal state. The own vehicle information and the own vehicle surrounding environment information are collected from the own vehicle information acquiring unit 11 and the own vehicle surrounding environment information acquiring unit 12 (step 15).

ドライバモデル作成部151は、収集した自車両情報と自車両周辺環境情報から、シチュエーションテーブル163(図9参照)に従ってシチュエーションフラグを設定し、収集した異常時の自車両情報を、該当するシチュエーションの自車両情報162に蓄積する(ステップ16)。   The driver model creation unit 151 sets a situation flag according to the situation table 163 (see FIG. 9) from the collected own vehicle information and the surrounding environment information of the own vehicle, and collects the own vehicle information at the time of abnormality in the collected situation. The vehicle information 162 is accumulated (step 16).

次いで、ドライバモデル作成部151は、収集及び蓄積した異常時の自車両情報162に従って、ステップ16で設定したシチュエーションに対応する異常時用の異常ドライバモデルを作成し(ステップ17)、メインルーチンにリターンする。   Next, the driver model creating unit 151 creates an abnormal driver model for an abnormal time corresponding to the situation set in Step 16 in accordance with the collected and accumulated own vehicle information 162 at the abnormal time (Step 17), and returns to the main routine. To do.

なお、本実施形態では生体情報が正常か異常かに応じて正常ドライバモデルと異常ドライバモデルを作成する場合について説明したが、例えば、異常状態として、生体情報が所定の上下の閾値よりも高い、低いのように、生体情報の状態に応じたドライバモデルをそれぞれ作成するようにしてもよい。   In this embodiment, the case where the normal driver model and the abnormal driver model are created according to whether the biological information is normal or abnormal has been described. For example, as an abnormal state, the biological information is higher than a predetermined upper and lower threshold value. A driver model corresponding to the state of the biological information may be created so as to be low.

ここで、ドライバモデル作成部151によるドライバモデルの作成について説明する。
本実施形態では、ドライバモデルをGMMにより作成する。
図15は、本実施形態における運転支援装置(ドライバモデル作成装置)による、正常時のドライバモデルの作成と、作成したドライバモデルに基づく運転操作量の推定に関する原理を表したものである。
なお、ドライバモデルの作成と運転行動の推定については、特徴量として車速V、前方車両との車間距離Fと、これらの1次の動的特徴量ΔV、ΔF(1階微分値)、2次の動的特徴量ΔΔV、ΔΔF(2階微分値)、及びアクセル操作のドライバモデルとしてアクセル操作量Gと1次の動的特徴量ΔG、ブレーキ操作のドライバモデルとしてブレーキ操作量Bと1次の動的特徴量ΔBを使用する場合について説明するが、特徴量については、自車両情報取得部11で取得した全ての情報のうちの他の情報の組合せを使用して作成するようにしてもよい。
Here, creation of a driver model by the driver model creation unit 151 will be described.
In this embodiment, the driver model is created by GMM.
FIG. 15 shows the principle regarding the creation of a normal driver model and the estimation of the driving operation amount based on the created driver model by the driving support device (driver model creation device) in the present embodiment.
As for the creation of the driver model and the estimation of the driving behavior, the vehicle speed V, the inter-vehicle distance F with the preceding vehicle, and the first order dynamic feature amounts ΔV and ΔF (first-order differential values), second order Dynamic feature amounts ΔΔV and ΔΔF (second-order differential value), accelerator operation amount G and primary dynamic feature amount ΔG as a driver model for accelerator operation, and brake operation amount B and primary order as a driver model for brake operation. Although the case where the dynamic feature amount ΔB is used will be described, the feature amount may be created using a combination of other information among all pieces of information acquired by the own vehicle information acquisition unit 11. .

本実施形態の運転支援装置では、アクセル操作量、車速、車間距離等から構成される各シチュエーション毎の走行データ1(自車両情報)を学習データとして、各シチュエーションに対応するGMMによるドライバモデル2をEMアルゴリズムにより予め作成する。
なお、ドライバモデルは各ドライバ毎に作成するようにしてもよい。
In the driving support device of this embodiment, the driving data 1 (own vehicle information) for each situation, which includes the accelerator operation amount, the vehicle speed, the inter-vehicle distance, etc., is used as learning data, and the driver model 2 by GMM corresponding to each situation is obtained. Prepared in advance by EM algorithm.
The driver model may be created for each driver.

そして、ドライバの運転行動(例えば、アクセル操作量)を推定する場合、対応するドライバモデル2を使用し、時刻tにおける走行データ1の測定値(V、F、ΔV、…)3に対する最大事後確率4を計算することで、該ドライバが操作するであろうアクセル操作量5を推定するようになっている。
このようにして推定した各操作量を走行データとして次の操作量を推定し、各時刻毎の実測値(自車両情報)と比較することで運転行動逸脱データが算出される。
When estimating the driver's driving behavior (for example, accelerator operation amount), the corresponding driver model 2 is used, and the maximum posterior probability for the measured values (V, F, ΔV,...) 3 of the travel data 1 at time t. By calculating 4, the accelerator operation amount 5 that the driver will operate is estimated.
Driving behavior deviation data is calculated by estimating the next operation amount using each operation amount estimated in this way as travel data and comparing it with an actual measurement value (vehicle information) at each time.

この例の運転支援装置では、ドライバは現在の車速、車間距離、及びそれらの1次、2次の動的特徴量に基づいてアクセルペダルとブレーキペダルの操作量を決めているとの仮定に基づいている。   In the driving support device of this example, based on the assumption that the driver determines the amount of operation of the accelerator pedal and the brake pedal based on the current vehicle speed, the inter-vehicle distance, and their primary and secondary dynamic feature amounts. ing.

以下、ドライバモデルの作成と運転行動の推定の原理について詳細に説明する。
(A)ドライバモデルの学習
GMMを用いたドライバモデル2では、学習データを必要とし、特徴量として走行データ1(自車両情報)を使用した。
走行データ1は、所定の測定間隔s(sは任意であるが本実施形態ではs=0.1秒)毎の時系列データを使用する。
走行データ1は、ドライバモデル作成の対象となるドライバが実際に運転したデータであり、実際にドライバが運転している際にリアルタイムで測定、収集した走行データ1を使用する。また、予め測定し蓄積しておいた走行データ1を使用することで、オフラインの学習を行うようにしてもよい。
Hereinafter, the principle of driver model creation and driving behavior estimation will be described in detail.
(A) Learning of Driver Model In the driver model 2 using the GMM, learning data is required, and traveling data 1 (own vehicle information) is used as a feature amount.
The travel data 1 uses time-series data for every predetermined measurement interval s (s is arbitrary, but s = 0.1 seconds in this embodiment).
The travel data 1 is data that is actually driven by the driver for which the driver model is created, and the travel data 1 measured and collected in real time when the driver is actually driving is used. Further, offline learning may be performed by using the travel data 1 measured and accumulated in advance.

本実施形態の運転支援装置では、各ドライバごとにGMMを作成することで、各ドライバの特性に合ったモデル化が可能となる。
ドライバモデルの特徴量(走行データ1)としては、上述したように、車速、車間距離、及びそれらの1次、2次の動的特徴量とアクセルペダル操作量、及びアクセルペダル操作量の1次の動的特徴量が使用される。
このように、特徴量に動的特徴量を加えてモデル化することで、前後の時間関係を考慮することになり、滑らかで自然性の高い推定結果を得ることができる。
なお、説明では、1次及び2次の動的特徴量を使用した場合について説明するが、1次の動的特徴量だけ使用するようにしてもよい。
In the driving support device according to the present embodiment, by creating a GMM for each driver, modeling that matches the characteristics of each driver is possible.
As described above, the driver model feature amount (running data 1) includes the vehicle speed, the inter-vehicle distance, and their primary and secondary dynamic feature amounts, the accelerator pedal operation amount, and the primary amount of the accelerator pedal operation amount. Of dynamic features are used.
In this way, by adding the dynamic feature amount to the feature amount and modeling, the time relationship before and after is taken into consideration, and a smooth and highly natural estimation result can be obtained.
In the description, the case where the primary and secondary dynamic feature quantities are used will be described. However, only the primary dynamic feature quantity may be used.

同様に、ブレーキペダルの操作量、その他の各種操作量に関するドライバモデル化も行われる。
なお、アクセルペダル用、ブレーキペダル用等の複数のドライバモデルを作成する場合には、アクセルペダル操作量、ブレーキペダル操作量等以外のデータ(V、F、ΔV、ΔF、…)は同一のデータを使用してもよい。
Similarly, a driver model for the operation amount of the brake pedal and other various operation amounts is also performed.
When creating a plurality of driver models for the accelerator pedal, the brake pedal, etc., the data other than the accelerator pedal operation amount, the brake pedal operation amount, etc. (V, F, ΔV, ΔF,...) Are the same data. May be used.

本実施形態において、走行データ1のうち動的特徴量についてはアクセル操作量、車速、車間距離の測定値から計算により求めているが、実際に測定するようにしてもよい。   In the present embodiment, the dynamic feature amount of the travel data 1 is calculated from the measured values of the accelerator operation amount, the vehicle speed, and the inter-vehicle distance, but may be actually measured.

そして、本実施形態では、走行データ1に対する混合ガウス分布(GMM)を計算することで、ドライバモデル2を作成する。
すなわち、走行データ1に対する同時確率密度分布をEMアルゴリズムを使用して算出し、算出した同時確率密度関数のパラメータ={λi,→μi,Σi|i=1,2,3,…M}をGMMによるドライバモデル2としてデータベース等の記憶手段に記憶しておく。
ここで、λiは重みを、→μiは平均ベクトル群を、Σiは分散共分散行列群を、Mは混合数を表す。また、→μiのように前に→を表示したものはベクトルを意味する。
このように、本実施形態のGMMでは特徴次元間の相関も考慮して、全共分散行列を用いている。
In this embodiment, the driver model 2 is created by calculating a mixed Gaussian distribution (GMM) for the travel data 1.
That is, the joint probability density distribution for the running data 1 is calculated using the EM algorithm, and the parameters of the calculated joint probability density function = {λi, → μi, Σi | i = 1,2,3,. The driver model 2 is stored in a storage means such as a database.
Here, λi represents a weight, → μi represents an average vector group, Σi represents a variance-covariance matrix group, and M represents the number of mixtures. In addition, a symbol that is previously displayed as → μi means a vector.
As described above, the GMM according to the present embodiment uses the total covariance matrix in consideration of the correlation between the feature dimensions.

なお、EMアルゴリズムとしては、例えば、中川聖一著、「確率モデルによる音声認識」(電子情報通信学会 1988、P51〜P54)に従って、混合ガウス分布のEMアルゴリズムによる推定を行う。   As the EM algorithm, the mixed Gaussian distribution is estimated by the EM algorithm in accordance with, for example, Seiichi Nakagawa, “Voice Recognition by Probability Model” (The Institute of Electronics, Information and Communication Engineers 1988, P51 to P54).

(B)運転行動(アクセルペダル操作量、ブレーキペダル操作量等の各種操作量)の推定
ドライバは現在の車速、車間距離、及びそれらの1次、2次の動的特徴量に基づいてアクセルペダルとブレーキペダルの操作量を決めているという仮定に基づき、ペダルの操作量等の運動行動を推定する。
すなわち、特徴量の同時分布から、与えられた条件下において最も確率の高いアクセルペダル操作量等の運動行動を推定する。
(B) Estimation of driving behavior (various operation amounts such as accelerator pedal operation amount and brake pedal operation amount) The driver uses the accelerator pedal based on the current vehicle speed, the inter-vehicle distance, and their primary and secondary dynamic feature amounts. Based on the assumption that the operation amount of the brake pedal is determined, the movement behavior such as the operation amount of the pedal is estimated.
That is, from the simultaneous distribution of the feature amount, the motion behavior such as the accelerator pedal operation amount having the highest probability under the given condition is estimated.

これは、条件付確率の最大化の問題であり、最大事後確率の計算による。
例えば、アクセルペダル操作量∧G(t)と、ブレーキペダル操作量∧B(t)は、y(t)が与えられた条件で条件付き確率を最大にする値x(t)の推定であり、最大事後確率として、それぞれ次の式(1)、(2)で計算される。
This is a problem of maximizing conditional probability, and is based on the calculation of maximum posterior probability.
For example, the accelerator pedal operation amount ∧G (t) and the brake pedal operation amount ∧B (t) are estimates of the value x (t) that maximizes the conditional probability under the condition where y (t) is given. The maximum posterior probabilities are calculated by the following equations (1) and (2), respectively.

∧G(t)=arg max p(G|ΔG,V(t),F(t),ΔV(t),ΔF(t),ΔΔV(t),ΔΔF(t)) 式(1)
∧B(t)=arg max p(B|ΔB,V(t),F(t),ΔV(t),ΔF(t),ΔΔV(t),ΔΔF(t)) 式(2)
∧G (t) = arg max p (G | ΔG, V (t), F (t), ΔV (t), ΔF (t), ΔΔV (t), ΔΔF (t)) Equation (1)
∧B (t) = arg max p (B | ΔB, V (t), F (t), ΔV (t), ΔF (t), ΔΔV (t), ΔΔF (t)) Equation (2)

ここで、∧G(t)のように、前に∧を表示したものは推定値であることを意味する。
また、
p(G|ΔG,V,F,ΔV,ΔF,ΔΔV,ΔΔF)
={p(G,V,F,ΔV,ΔF,ΔΔV,ΔΔF,ΔG)}/{∫∫…∫p(G,V,F,ΔV,ΔF,ΔΔV,ΔΔF,ΔG)dΔG,dV,dF,dΔV,dΔF,dΔΔV,dΔΔF}
p(B|ΔB,V,F,ΔV,ΔF,ΔΔV,ΔΔF)
={p(B,V,F,ΔV,ΔF,ΔΔV,ΔΔF,ΔB)}/{∫∫…∫p(B,V,F,ΔV,ΔF,ΔΔV,ΔΔF,ΔB)dΔB,dV,dF,dΔV,dΔF,dΔΔV,dΔΔF}
である。
Here, like ∧G (t), the one displaying ∧ before means an estimated value.
Also,
p (G | ΔG, V, F, ΔV, ΔF, ΔΔV, ΔΔF)
= {P (G, V, F, ΔV, ΔF, ΔΔV, ΔΔF, ΔG)} / {∫∫ ... ∫p (G, V, F, ΔV, ΔF, ΔΔV, ΔΔF, ΔG) dΔG, dV, dF , dΔV, dΔF, dΔΔV, dΔΔF}
p (B | ΔB, V, F, ΔV, ΔF, ΔΔV, ΔΔF)
= {P (B, V, F, ΔV, ΔF, ΔΔV, ΔΔF, ΔB)} / {∫∫ ... ∫p (B, V, F, ΔV, ΔF, ΔΔV, ΔΔF, ΔB) dΔB, dV, dF , dΔV, dΔF, dΔΔV, dΔΔF}
It is.

式(1)、(2)において、tは時刻、G,B,V,F,Δはそれぞれ、アクセルペダル操作量、ブレーキペダル操作量、車速、車間距離、及び動的特徴量を表す。   In equations (1) and (2), t represents time, and G, B, V, F, and Δ represent accelerator pedal operation amount, brake pedal operation amount, vehicle speed, inter-vehicle distance, and dynamic feature amount, respectively.

ただし、条件付確率を最大にするアクセルペダル及びブレーキペダルの値は、最小値から最大値までの区間において、ある刻み幅(例えば、0から10000まで100刻み)で数値積分を行うことにより確率を算出し、その確率が最大となったときのアクセルペダル及びブレーキペダルの値を推定結果としてもよい。   However, the value of the accelerator pedal and the brake pedal that maximizes the conditional probability is obtained by performing numerical integration with a certain step size (for example, 100 steps from 0 to 10,000) in the interval from the minimum value to the maximum value. The value of the accelerator pedal and the brake pedal when the probability is calculated and the probability becomes the maximum may be used as the estimation result.

図16は、最大事後確率による運転行動の推定に関する概略を表したものである。
この図16では、簡単のため、ある時刻tの特徴量y(t)が与えられたときに→x(t)を推定する場合を示している。
FIG. 16 shows an outline of driving behavior estimation based on the maximum posterior probability.
For simplicity, FIG. 16 shows a case where → x (t) is estimated when a feature value y (t) at a certain time t is given.

以上のようにして各シチュエーション毎に作成されたドライバモデルを使用して、ドライバの運転行動の状態を特定するドライバ運転行動監視処理について説明する。
図17は、ドライバ運転行動監視処理の処理動作を表したフローチャートである。
ECU10は、自車両情報と自車両周辺環境情報を、自車両情報取得部11と自車両周辺環境情報取得部12から収集する(ステップ20)。
The driver driving behavior monitoring process for specifying the driving behavior state of the driver using the driver model created for each situation as described above will be described.
FIG. 17 is a flowchart showing the processing operation of the driver driving behavior monitoring process.
The ECU 10 collects host vehicle information and host vehicle surrounding environment information from the host vehicle information acquiring unit 11 and host vehicle surrounding environment information acquiring unit 12 (step 20).

次に、ECU10は、図18(a)に示されるように、取得した自車両情報と自車両周辺環境情報を元に、シチュエーションフラグを設定する(ステップ21)。
そしてECU10は、設定したシチュエーションフラグを元に、シチュエーションテーブル163とマッチング処理を行い、取得した自車両周辺環境情報等の現状に適合するシチュエーションを検索することで、対応するドライバモデルが存在するか否かを判断する(ステップ22)。
対応するドライバモデルが存在しない場合には(ステップ22;N)メインルーチンにリターンする。
Next, as shown in FIG. 18 (a), the ECU 10 sets a situation flag based on the acquired own vehicle information and own vehicle surrounding environment information (step 21).
Then, the ECU 10 performs matching processing with the situation table 163 based on the set situation flag, and searches for a situation that matches the current situation such as the acquired surrounding environment information of the host vehicle, thereby determining whether a corresponding driver model exists. Is determined (step 22).
If there is no corresponding driver model (step 22; N), the process returns to the main routine.

一方、図18(b)に示されるように、現状に適合するシチュエーションが検索され、対応するドライバモデルが存在する場合(ステップ22;Y)、ECU10は、適合するシチュエーションに紐付けされたドライバモデルをドライバモデル記憶部152から読み出し、ドライバモデル出力部153に出力する(ステップ23)。   On the other hand, as shown in FIG. 18B, when a situation that matches the current situation is searched and a corresponding driver model exists (step 22; Y), the ECU 10 associates the driver model linked with the matching situation. Is read from the driver model storage unit 152 and output to the driver model output unit 153 (step 23).

次に、ECU10は、自車両情報取得部11で時刻tにおいて取得した自車両情報(実測値)を初期値(t)としてドライバモデル出力部153に入力する(ステップ24)。
すると、ドライバモデル出力部153は、時刻tにおける自車両情報(t)をドライバモデルに入力し、最大事後確率を計算することで時刻t+1における運転行動データ(操作量)の推定値「t+1」をECU10に出力する(ステップ25)。
Next, the ECU 10 inputs the own vehicle information (actual value) acquired at the time t by the own vehicle information acquisition unit 11 to the driver model output unit 153 as an initial value (t) (step 24).
Then, the driver model output unit 153 inputs the own vehicle information (t) at time t to the driver model, and calculates the maximum posterior probability to obtain the estimated value “t + 1” of the driving action data (operation amount) at time t + 1. It outputs to ECU10 (step 25).

ついでECU10は、現在(時刻t+1)における自車両情報(t+1)を取得し(ステップ26)、時刻t+1における運転行動逸脱データ(「t+1」−(t+1))を算出して運転行動逸脱データ161に記憶する(ステップ27)。
そしてECU10は、記憶した運転行動逸脱データ161が所定数蓄積したか否かを判断し(ステップ28)、所定数未満であれば(ステップ28;N)、ステップ25で推定した操作量の推定値「t+1」を(t)としてドライバモデルに入力し(ステップ29)、ステップ25に移行することで、更に次時刻の運転行動逸脱データ161の蓄積を継続する(ステップ25〜27)。
Next, the ECU 10 acquires the own vehicle information (t + 1) at the current time (time t + 1) (step 26), calculates driving behavior deviation data (“t + 1” − (t + 1)) at time t + 1, and outputs the driving behavior deviation data 161 as driving behavior deviation data 161. Store (step 27).
Then, the ECU 10 determines whether or not the stored driving behavior deviation data 161 has accumulated a predetermined number (step 28). If it is less than the predetermined number (step 28; N), the estimated value of the operation amount estimated in step 25 “T + 1” is input to the driver model as (t) (step 29), and the process proceeds to step 25 to further continue to accumulate driving behavior deviation data 161 at the next time (steps 25 to 27).

一方、所定数の運転行動逸脱データ161が蓄積されると(ステップ28;Y)、ECU10は、運転行動逸脱データ161の状態から運転行動逸脱傾向を判断し、出力して(ステップ30)、メインルーチンにリターンする。
本実施形態では、運転行動の逸脱傾向としては、「反応速度の遅れ」の有無と、「操作のふらつき」の有無の2項目について判断する。
On the other hand, when the predetermined number of driving behavior deviation data 161 is accumulated (step 28; Y), the ECU 10 determines the driving behavior deviation tendency from the state of the driving behavior deviation data 161 and outputs it (step 30). Return to routine.
In the present embodiment, as the tendency to deviate from driving behavior, two items, the presence / absence of “reaction speed delay” and the presence / absence of “operation fluctuation”, are determined.

図19は、ドライバモデル出力部153から出力された正常状態における運転操作量(いつもの運転)の推定値と、現在の運転の操作量(自車両情報)とを概念的に比較したものである。
この図19において、ドライバモデルから出力された運転操作量(いつもの運転)は、ドライバモデルに現在の運転操作量の初期値を入力し、ドライバが正常時において普段取る運転行動として最も確率の高い操作量の出力値を表したもので、正常時であれば通常このような運転をするはず(操作量であるはず)である、という仮想の操作量を表している。
FIG. 19 conceptually compares the estimated value of the driving operation amount (normal driving) in the normal state output from the driver model output unit 153 with the operating amount of the current driving (own vehicle information). .
In FIG. 19, the driving operation amount (ordinary driving) output from the driver model has the highest probability as the driving behavior that the driver normally takes when the driver inputs the initial value of the current driving operation amount in the normal state. It represents the output value of the manipulated variable, and represents a virtual manipulated variable that should normally be operated (should be the manipulated variable) during normal operation.

この仮想の操作量に対して、現在の運転の操作量を照らし合わせて反応速度の遅れと操作のふらつきの傾向を判断する。
例えば、図19(a)に示すように、ドライバモデルで推定した操作量は時間経過と共に増加する場合において、所定時間経過後に自車両情報による操作量が自車両情報取得部11で取得される場合には、反応速度の遅れ傾向があると判断される。
また、図19(b)に示すように、ドライバモデルで推定した操作量と比較して、取得される自車両情報による操作量が時間経過と共に増加したり、減少したりする場合で増加、減少量(運転行動逸脱データの絶対値)が所定値以上である場合には、運転操作にふらつきがあるものと判断される。
The virtual operation amount is compared with the operation amount of the current driving to determine the tendency of reaction speed delay and operation fluctuation.
For example, as shown in FIG. 19A, when the operation amount estimated by the driver model increases with time, the operation amount based on the own vehicle information is acquired by the own vehicle information acquisition unit 11 after a predetermined time has elapsed. It is judged that there is a tendency for the reaction rate to be delayed.
Further, as shown in FIG. 19B, compared to the operation amount estimated by the driver model, the operation amount based on the acquired own vehicle information increases or decreases as time passes, or decreases. When the amount (absolute value of the driving behavior deviation data) is equal to or greater than a predetermined value, it is determined that the driving operation has fluctuation.

一方、ドライバモデルで推定した操作量と、取得される自車両情報による操作量とがほぼ一致する場合、すなわち、運転行動逸脱データの絶対値が所定値以下の状態が継続する場合には、反応遅れ、ふらつき共にない正常状態と判断される。   On the other hand, when the operation amount estimated by the driver model and the operation amount based on the acquired own vehicle information substantially coincide with each other, that is, when the absolute value of the driving behavior deviation data continues to be a predetermined value or less, the reaction It is judged that there is no delay and no wobbling.

次に、走行中におけるドライバの生体情報の監視処理について図20のフローチャートに従って説明する。
まず、ECU10は、車両走行中において生体情報取得部13から各時点における生体情報を収集、蓄積する(ステップ41)
次いでECU10は、収集、蓄積した生体情報からその変化状態を監視することで、図11〜図13で説明した方法と同様の方法により、現在のドライバ生体情報の状態(ケース)を判定し(ステップ42)、メインルーチンにリターンする。
Next, the driver's biometric information monitoring process during traveling will be described with reference to the flowchart of FIG.
First, the ECU 10 collects and accumulates biological information at each time point from the biological information acquisition unit 13 while the vehicle is traveling (step 41).
Next, the ECU 10 monitors the change state from the collected and accumulated biometric information, and determines the current state (case) of the driver biometric information by the same method as the method described with reference to FIGS. 42) Return to the main routine.

なお、以上説明したドライバ生体情報監視処理は、図10で説明した走行中におけるドライバモデル作成処理におけるドライバ生体情報収集(ステップ10)と、ドライバ生体情報の変化が正常化否かの判断(ステップ11)で兼用することが可能である。
この場合、ドライバモデル作成処理では、ステップ11でドライバの状態が正常状態であることを監視しているのに対して、図10において説明したように、正常状態でない場合にどの状態に該当しているのかについても図11〜図13に従って判定し、出力する。
The driver biometric information monitoring process described above includes the driver biometric information collection (step 10) in the driver model creation process during travel described in FIG. 10 and the determination of whether or not the change in the driver biometric information is normalized (step 11). ).
In this case, in the driver model creation process, it is monitored in step 11 that the driver is in the normal state, but as described with reference to FIG. It is also determined according to FIGS. 11 to 13 and output.

なお、該判定を兼用する場合には、ドライバモデル作成部151、ECU10のいずれかがその判定を行う。   In the case where the determination is also used, either the driver model creation unit 151 or the ECU 10 performs the determination.

また、図21(a)、(b)に示されるように、ドライバの目の状態から正常状態と、眠気、疲労状態を判定するようにしてもよい。
この目の状態からの判定は、ドライバモデル作成処理(ステップ11)、及びドライバ生体情報監視処理(ステップ42)の何れか一方、又は双方において使用するようにしてもよい。
Further, as shown in FIGS. 21A and 21B, the normal state, sleepiness and fatigue state may be determined from the eye state of the driver.
This determination from the eye state may be used in one or both of the driver model creation process (step 11) and the driver biometric information monitoring process (step 42).

具体的には、図21(a)に示すように、ドライバの状態として、瞬き回数、瞬き時間、瞼の開度、視線の動きを画像処理により検出し、その値や状態に応じて眠気の状態を判定する。
また、図21(b)に示すように、瞬き回数が増大している場合や、瞼の動きが痙攣している場合、目をこすっている場合、目頭をもんでいる場合に、疲労していると判定する。
Specifically, as shown in FIG. 21 (a), the number of blinks, the blink time, the eyelid opening, and the movement of the line of sight are detected by image processing as the driver state, and drowsiness is detected according to the value and state. Determine the state.
In addition, as shown in FIG. 21 (b), when the number of blinks is increased, when the movement of the eyelid is convulsed, when the eyes are rubbed, when the eyes are blurred, It is determined that

図22は、ドライバの運転状態及び生体情報ケースに基づく運転支援処理の動作を表したフローチャートである。
ECU10は、ドライバの状態として、ドライバ運転行動監視処理(図17)のステップ30で判断され出力された運転行動逸脱傾向を取得する(ステップ51)と共に、ドライバ生体情報監視処理(図20)のステップ42で判定され出力されたドライバ生体情報ケースを取得する(ステップ52)。
そして、ECU10は、取得した運転行動逸脱傾向と生体情報ケースとから、運転支援の内容を決定しドライバへのアプローチを行い(ステップ53)、メインルーチンにリターンする。
FIG. 22 is a flowchart showing the operation of the driving support process based on the driving state of the driver and the biological information case.
The ECU 10 obtains the driving behavior departure tendency determined and output in step 30 of the driver driving behavior monitoring process (FIG. 17) as the driver state (step 51) and the step of the driver biological information monitoring processing (FIG. 20). The driver biometric information case determined and output in 42 is acquired (step 52).
Then, the ECU 10 determines the content of driving support from the acquired driving behavior deviation tendency and the biological information case, approaches the driver (step 53), and returns to the main routine.

図23は、取得した運転行動と生体情報ケースとから推定されるドライバの状態(a)と、推定されるドライバの状態に対応して行う運転支援の内容を表にしたものである。
なお、図23(b)の表は、ECU10のROMに格納されている。
図23(a)に示すように、各運転行動(反応遅れ、ふらつき、反応遅れ+ふらつき、両者なし)と、各生体情報ケース(極度の緊張状態、適度な緊張状態、注意力が散漫な状態、弛緩状態、眠気がある状態)との組合せに応じて、何かに気を取られていた、疲れてきた、漫然運転、眠気、焦り、よそ見等といったドライバの状態が推定される。
そして、これら各組合せから推定される各状態に対応して、図23(b)に示されるように、ECU10は、音声や振動による注意喚起、施設情報を提供して休憩を勧める、注意喚起+α1、情報を提供して気分を紛らわす、等の運転支援を情報提供部14から行う。
FIG. 23 is a table showing the driver state (a) estimated from the acquired driving behavior and the biometric information case, and the contents of driving assistance performed in accordance with the estimated driver state.
Note that the table of FIG. 23B is stored in the ROM of the ECU 10.
As shown in FIG. 23 (a), each driving action (reaction delay, wandering, reaction delay + wobbling, neither) and each biological information case (extreme tension state, moderate tension state, state of distraction) , Relaxed state, sleepy state), the driver's state is estimated such as being distracted, tired, casual driving, sleepiness, impatience, looking away, etc.
Then, corresponding to each state estimated from each of these combinations, as shown in FIG. 23 (b), the ECU 10 provides attention by voice or vibration, provides facility information, and recommends a break. The information providing unit 14 provides driving assistance such as providing information and distracting.

なお、図23における運転支援のうち、ECU10は+α1に対して、運転以外に集中して危険なため、注意の喚起を促すと共に前方車両との車間距離を自動的に大きく開ける制御などを行う。
また、ECU10は、+α2に対して、運転に集中するよう注意喚起を行うと共に、ドライバが何に対して運転が疎かになるほど負荷を感じているのか、会話機能やセンサを用いてリサーチし、一服させるための休憩を案内したり、悩み相談に乗ったり、ドライバが抱える問題を改善する動作を行う。
またECU10は、+α3に対して、目を覚ますよう注意喚起を行うと共に、すぐに休憩を取らせるなどの案内を行う。
また、ECU10は、注意喚起の内容として、運転操作や生体情報の何がどう問題であったから警告している、などのドライバの納得を得やすくするための具体的な説明を行っても良い。
Of the driving assistance shown in FIG. 23, the ECU 10 controls + α1 because it concentrates on other than driving and is dangerous. Therefore, the ECU 10 urges attention and automatically increases the inter-vehicle distance from the preceding vehicle.
In addition, the ECU 10 alerts + α2 to concentrate on driving, and researches using the conversation function and sensors to determine what the driver feels so heavy that driving is negligible. To take a break to help them, get on a troubled consultation, and improve the problems the driver has.
In addition, the ECU 10 alerts + α3 to wake up and provides guidance such as taking a break immediately.
In addition, the ECU 10 may give a specific explanation for making it easy to obtain the driver's consent, such as a warning about what the driving operation or biometric information was, as a problem, as the content of the alert.

以上、本発明のドライバモデル作成装置及び運転支援装置における1実施形態について説明したが、本発明は説明した実施形態に限定されるものではなく、各請求項に記載した範囲において各種の変形を行うことが可能である。
例えば、説明した実施形態では、判定した運転行動と生体情報ケースとから運転支援の内容を決定する場合について説明したが、判定した運転行動から運転支援内容を決定するようにしてもよい。
Although one embodiment of the driver model creation device and the driving support device of the present invention has been described above, the present invention is not limited to the described embodiment, and various modifications are made within the scope described in each claim. It is possible.
For example, in the described embodiment, the case where the content of the driving support is determined from the determined driving behavior and the biological information case has been described, but the driving support content may be determined from the determined driving behavior.

本願発明の1実施形態におけるドライバモデル作成装置を適用した運転支援装置の構成図である。It is a block diagram of the driving assistance device to which the driver model creation device in one embodiment of the present invention is applied. 自車両情報取得部で取得する自車両情報を例示した説明図である。It is explanatory drawing which illustrated the own vehicle information acquired by the own vehicle information acquisition part. 車両周辺情報取得部で取得する車両周辺環境情報を例示した説明図である。It is explanatory drawing which illustrated vehicle surrounding environment information acquired in a vehicle surrounding information acquisition part. 道路情報取得部で取得する車両周辺環境情報を例示した説明図である。It is explanatory drawing which illustrated the vehicle surrounding environment information acquired in a road information acquisition part. ネットワーク部で取得する車両周辺環境情報を例示した説明図である。It is explanatory drawing which illustrated the vehicle surrounding environment information acquired in a network part. 生体情報取得部で取得する生体情報を例示した説明図である。It is explanatory drawing which illustrated the biometric information acquired in a biometric information acquisition part. 情報提供部で提供する情報、アシストの内容を例示した説明図である。It is explanatory drawing which illustrated the information provided in an information provision part, and the content of assistance. ドライバモデル記憶部の記憶内容を概念的に表した説明図である。It is explanatory drawing which represented the memory content of the driver model memory | storage part notionally. シチュエーションデータの内容を概念的に表した説明図である。It is explanatory drawing which represented the content of situation data notionally. ドライバの「普段の運転行動」(正常時)のドライバモデルを作成するドライバモデル作成処理の処理動作を表したフローチャートである。It is a flowchart showing the processing operation of a driver model creation process for creating a driver model of “ordinary driving behavior” (normal) of a driver. ドライバの心拍数の変動からメンタルな変化を監視する状態について表した説明図である。It is explanatory drawing showing the state which monitors a mental change from the fluctuation | variation of the heart rate of a driver. 心電図のローレンツプロット解析からメンタルな変化を監視する状態について表した説明図である。It is explanatory drawing showing the state which monitors a mental change from the Lorentz plot analysis of an electrocardiogram. 取得した生体情報から、正常状態か否かを判断する場合について表した説明図である。It is explanatory drawing showing the case where it is judged from the acquired biometric information whether it is a normal state. 交差点を右折する際に自車両情報取得部と自車両周辺環境情報取得部で取得される自車両情報と自車両周辺環境情報について例示した説明図である。It is explanatory drawing which illustrated the own vehicle information acquired by the own vehicle information acquisition part and the own vehicle surrounding environment information acquisition part, and the own vehicle surrounding environment information when making a right turn at an intersection. ドライバモデルの生成と、生成したドライバモデルに基づく運転行動の推定に関する原理を表した説明図である。It is explanatory drawing showing the principle regarding the production | generation of a driver model, and the estimation of the driving action based on the produced | generated driver model. 最大事後確率による運転行動の推定に関する概略を表した説明図である。It is explanatory drawing showing the outline regarding the estimation of the driving action by the maximum posterior probability. ドライバ運転行動監視処理の処理動作を表したフローチャートである。It is a flowchart showing the processing operation of the driver driving action monitoring process. 自車両情報と自車両周辺環境情報からシチュエーションフラグの設定と、適合するシチュエーションの検索についての説明図である。It is explanatory drawing about the setting of a situation flag from the own vehicle information and own vehicle surrounding environment information, and the search of a suitable situation. ドライバモデル出力部から出力された正常状態における運転操作量(いつもの運転)の推定値と、現在の運転の操作量(自車両情報)とを概念的に比較した説明図である。It is explanatory drawing which compared notionally the estimated value of the driving operation amount (normal driving | operation) in the normal state output from the driver model output part, and the operating amount (own vehicle information) of the present driving | operation. 走行中におけるドライバの生体情報の監視処理についてのフローチャートである。It is a flowchart about the monitoring process of the biometric information of the driver during driving | running | working. ドライバの目の状態から正常状態と、眠気、疲労状態を判定する場合の説明図である。It is explanatory drawing in the case of determining a normal state, drowsiness, and a fatigue state from the eye state of a driver. ドライバ運転状態及び生体情報ケースに基づく運転支援処理の動作を表したフローチャートである。It is a flowchart showing operation | movement of the driving assistance process based on a driver driving | running state and a biometric information case. 取得した運転行動と生体情報ケースとから推定されるドライバの状態と、推定されるドライバの状態に対応して行う運転支援の内容を表にした説明図である。It is explanatory drawing which represented the content of the driving assistance performed corresponding to the state of the driver estimated from the acquired driving action and the biometric information case, and the estimated state of the driver.

符号の説明Explanation of symbols

10 ECU
11 自車両情報取得部
12 自車両周辺環境情報取得部
121 車両周辺情報取得部
122 道路情報取得部
123 ネットワーク部
13 生体情報取得部
14 情報提供部
15 ドライバモデル処理部
151 ドライバモデル作成部
152 ドライバモデル記憶部
153 ドライバモデル出力部
16 データ記憶部
10 ECU
DESCRIPTION OF SYMBOLS 11 Own vehicle information acquisition part 12 Own vehicle surrounding environment information acquisition part 121 Vehicle periphery information acquisition part 122 Road information acquisition part 123 Network part 13 Biometric information acquisition part 14 Information provision part 15 Driver model process part 151 Driver model creation part 152 Driver model Storage unit 153 Driver model output unit 16 Data storage unit

Claims (7)

正常状態における運転操作の複数種類の特徴量からなる走行データをEM(Expectation Maximization)アルゴリズムにより算出したガウス混合モデルをドライバモデルとして取得するドライバモデル取得手段と、
前記取得したドライバモデルを使用し、正常状態で通常運転される運転操作を推定する
運転操作推定手段と、
前記推定した運転操作と、現在の運転操作情報に基づく運転操作とから、ドライバの運
転行動を判定する運転行動判定手段と、
前記判定した運転行動に応じた運転支援を行う運転支援手段と、
を具備し、
前記運転操作推定手段が、前記ドライバモデル取得手段が取得した複数種類の特徴量のうち、特定の特徴量を除く走行データを測定し、この走行データに対するドライバモデルにおける最大事後確率を算出することで、前記特定の特徴量を推定することを特徴とする運転支援装置。
Driver model acquisition means for acquiring, as a driver model, a Gaussian mixture model obtained by calculating driving data including a plurality of types of feature amounts of driving operation in a normal state by an EM (Expectation Maximization) algorithm ;
Using the acquired driver model, driving operation estimation means for estimating a driving operation that is normally operated in a normal state;
Driving action determination means for determining the driving action of the driver from the estimated driving operation and the driving operation based on the current driving operation information;
Driving support means for providing driving support according to the determined driving behavior;
Comprising
The driving operation estimation means measures driving data excluding a specific feature quantity from among a plurality of types of feature quantities acquired by the driver model acquisition means, and calculates a maximum posterior probability in the driver model for the driving data. A driving support apparatus that estimates the specific feature amount .
前記ドライバモデル取得手段が取得する運転操作の複数種類の特徴量が、アクセル操作量、車速、ブレーキ操作量、ステアリングの操作量、車間距離、加速度の複数種類の特徴量からなる走行データであることを特徴とする請求項1に記載の運転支援装置。The plurality of types of feature values of the driving operation acquired by the driver model acquisition means are travel data including a plurality of types of feature values of an accelerator operation amount, a vehicle speed, a brake operation amount, a steering operation amount, an inter-vehicle distance, and an acceleration. The driving support apparatus according to claim 1, wherein:
前記ドライバモデル取得手段は、走行環境毎に作成された正常状態における運転操作の
ドライバモデルから、現在の走行環境に対応するドライバモデルを取得する、
ことを特徴とする請求項1または請求項2に記載の運転支援装置。
The driver model acquisition means acquires a driver model corresponding to the current driving environment from a driver model of a driving operation in a normal state created for each driving environment.
The driving support apparatus according to claim 1 , wherein the driving support apparatus is configured as described above.
運転者の生体情報から運転者の状態を判定する運転者状態判定手段を備え、
前記運転支援手段は、前記判定した運転行動と前記判定した運転者状態とに応じた運転
支援を行うことを特徴とする請求項1、請求項2又は請求項に記載の運転支援装置。
Driver state determination means for determining the state of the driver from the driver's biometric information,
The driving support unit, the driving support apparatus according to claim 1, claim 2 or claim 3, characterized in that the driving support corresponding to the driver's state of the judgment and the judgment was driving behavior.
運転支援手段は、判定内容に応じて、音声又は画像による注意喚起、情報提供、振動、
休憩所の案内のうちの少なくとも1以上の運転支援を行う、ことを特徴とする請求項
請求項2、請求項3又は請求項に記載の運転支援装置。
Driving support means, depending on the determination content, alert by voice or image, information provision, vibration,
Performing at least one or more driving support of the guide resting place, characterized in that claim 1,
The driving support device according to claim 2, claim 3, or claim 4 .
正常状態における運転操作の複数種類の特徴量からなる走行データをEM(Expectation Maximization)アルゴリズムにより算出したガウス混合モデルをドライバモデルとして取得するドライバモデル取得手段と、
前記取得したドライバモデルを使用し、正常状態で通常運転される運転操作を推定する
運転操作推定手段と、
前記推定した運転操作と、現在の運転操作情報に基づく運転操作とから、ドライバの運
転行動を判定する運転行動判定手段と、
を具備し、
前記運転操作推定手段が、前記ドライバモデル取得手段が取得した複数種類の特徴量のうち、特定の特徴量を除く走行データを測定し、この走行データに対するドライバモデルにおける最大事後確率を算出することで、前記特定の特徴量を推定することを特徴とする運転行動判定装置。
Driver model acquisition means for acquiring, as a driver model, a Gaussian mixture model obtained by calculating driving data including a plurality of types of feature amounts of driving operation in a normal state by an EM (Expectation Maximization) algorithm ;
Using the acquired driver model, driving operation estimation means for estimating a driving operation that is normally operated in a normal state;
Driving action determination means for determining the driving action of the driver from the estimated driving operation and the driving operation based on the current driving operation information;
Comprising
The driving operation estimation means measures driving data excluding a specific feature quantity from among a plurality of types of feature quantities acquired by the driver model acquisition means, and calculates a maximum posterior probability in the driver model for the driving data. A driving behavior determination device that estimates the specific feature amount .
前記ドライバモデル取得手段が取得する運転操作の複数種類の特徴量が、アクセル操作量、車速、ブレーキ操作量、ステアリングの操作量、車間距離、加速度の複数種類の特徴量からなる走行データであることを特徴とする請求項6に記載の運転行動判定装置。The plurality of types of feature values of the driving operation acquired by the driver model acquisition means are travel data including a plurality of types of feature values of an accelerator operation amount, a vehicle speed, a brake operation amount, a steering operation amount, an inter-vehicle distance, and an acceleration. The driving behavior determination device according to claim 6.
JP2006101053A 2005-12-28 2006-03-31 Driving support device and driving action determination device Active JP4791874B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006101053A JP4791874B2 (en) 2006-03-31 2006-03-31 Driving support device and driving action determination device
CN2006800499780A CN101389521B (en) 2005-12-28 2006-12-27 Drive behavior estimating device, drive supporting device, vehicle evaluating system
US12/087,130 US8140241B2 (en) 2005-12-28 2006-12-27 Driving action estimating device, driving support device, vehicle evaluating system, driver model creating device, and driving action determining device
PCT/JP2006/326041 WO2007077867A1 (en) 2005-12-28 2006-12-27 Drive behavior estimating device, drive supporting device, vehicle evaluating system, driver model making device, and drive behavior judging device
EP06843423A EP1997705B1 (en) 2005-12-28 2006-12-27 Drive behavior estimating device, drive supporting device, vehicle evaluating system, driver model making device, and drive behavior judging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006101053A JP4791874B2 (en) 2006-03-31 2006-03-31 Driving support device and driving action determination device

Publications (2)

Publication Number Publication Date
JP2007272834A JP2007272834A (en) 2007-10-18
JP4791874B2 true JP4791874B2 (en) 2011-10-12

Family

ID=38675539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006101053A Active JP4791874B2 (en) 2005-12-28 2006-03-31 Driving support device and driving action determination device

Country Status (1)

Country Link
JP (1) JP4791874B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862864A (en) * 2017-10-18 2018-03-30 南京航空航天大学 Driving cycle intelligent predicting method of estimation based on driving habit and traffic

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4943808B2 (en) * 2006-10-24 2012-05-30 テルモ株式会社 Heart rate fluctuation detection system and information processing method
JP2009205646A (en) * 2008-02-29 2009-09-10 Equos Research Co Ltd Driving support device
JP5041160B2 (en) * 2008-02-29 2012-10-03 株式会社エクォス・リサーチ Driving assistance device
JP2009234442A (en) * 2008-03-27 2009-10-15 Equos Research Co Ltd Driving operation support device
JP2009251814A (en) * 2008-04-03 2009-10-29 Xanavi Informatics Corp In-vehicle driving evaluation device and method of evaluating driving
JP4947028B2 (en) * 2008-10-10 2012-06-06 株式会社デンソー Driving support apparatus and driving support method for automobile
JP5267203B2 (en) * 2009-02-23 2013-08-21 日産自動車株式会社 Driving state determination device and driving state determination method
JP5385056B2 (en) * 2009-08-31 2014-01-08 株式会社デンソー Driving status estimation device, driving support device
EP2289754B1 (en) * 2009-08-31 2015-04-29 Toyota Motor Europe NV/SA Vehicle or traffic control method and system
JP5366248B2 (en) * 2009-09-08 2013-12-11 国立大学法人信州大学 Car driving cognitive behavior evaluation device
WO2011087927A1 (en) * 2010-01-14 2011-07-21 Venture Gain LLC Multivariate residual-based health index for human health monitoring
KR20140002373A (en) * 2012-06-29 2014-01-08 현대자동차주식회사 Apparatus and method for monitoring driver state by driving pattern learning
EP2885151B1 (en) * 2012-08-14 2022-10-12 Volvo Lastvagnar AB Method for determining the operational state of a driver
JP5688810B2 (en) * 2012-11-16 2015-03-25 本田技研工業株式会社 Driver state estimation device
EP2733037B1 (en) 2012-11-16 2016-09-21 Honda Motor Co., Ltd. Driver state estimation device
JP5688811B2 (en) * 2012-11-16 2015-03-25 本田技研工業株式会社 Driver state estimation device
KR101490919B1 (en) * 2013-05-30 2015-02-12 현대자동차 주식회사 System and method of determining short term driving tendency of driver
KR101519217B1 (en) * 2013-09-13 2015-05-11 현대자동차주식회사 Apparatus for judging driver inattention and method thereof
JP6375873B2 (en) * 2014-10-29 2018-08-22 株式会社デンソー Driver status diagnosis device
JP6449699B2 (en) * 2015-01-30 2019-01-09 本田技研工業株式会社 Environment recognition system
JP2016215658A (en) * 2015-05-14 2016-12-22 アルパイン株式会社 Automatic driving device and automatic driving system
FR3048542A1 (en) * 2016-03-01 2017-09-08 Valeo Comfort & Driving Assistance DEVICE AND METHOD FOR PERSONALIZED MONITORING OF A DRIVER OF A MOTOR VEHICLE
JP6477665B2 (en) * 2016-11-04 2019-03-06 マツダ株式会社 Vehicle operation period estimation device
JP6489447B2 (en) * 2016-11-04 2019-03-27 マツダ株式会社 Vehicle control device
JP6489446B2 (en) * 2016-11-04 2019-03-27 マツダ株式会社 Vehicle control device
JP6895634B2 (en) * 2016-12-16 2021-06-30 パナソニックIpマネジメント株式会社 Information processing systems, information processing methods, and programs
JP6575933B2 (en) * 2017-03-29 2019-09-18 マツダ株式会社 Vehicle driving support system
JP6683163B2 (en) * 2017-03-29 2020-04-15 マツダ株式会社 Vehicle driving support system
JP7016351B2 (en) * 2017-03-31 2022-02-14 本田技研工業株式会社 In-vehicle devices, information management servers, information management systems, and methods
JP7100471B2 (en) * 2018-03-14 2022-07-13 フォルシアクラリオン・エレクトロニクス株式会社 In-vehicle device, driving state estimation method, server device, information processing method, and driving state estimation system
JP7262584B2 (en) 2019-06-18 2023-04-21 三菱電機株式会社 Driver state estimation device
CN110300175B (en) 2019-07-02 2022-05-17 腾讯科技(深圳)有限公司 Message pushing method and device, storage medium and server
CN112550298B (en) * 2019-09-26 2022-10-25 上海汽车集团股份有限公司 Driving behavior evaluation method, device and storage medium

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036155B2 (en) * 1991-10-01 2000-04-24 日産自動車株式会社 Vehicle approach determination device
JPH08132931A (en) * 1994-11-14 1996-05-28 Toyota Motor Corp Travel control device for vehicle
JP4069481B2 (en) * 1997-09-30 2008-04-02 日産自動車株式会社 Vehicle behavior estimation device
JP3824784B2 (en) * 1998-06-30 2006-09-20 富士通株式会社 Driving support device, lane change permission determination device, method and recording medium
JP2002140786A (en) * 2000-11-01 2002-05-17 Nec Corp Degree-of-risk evaluation device
JP3475240B2 (en) * 2000-11-22 2003-12-08 国土交通省国土技術政策総合研究所長 Road traffic evaluation system
JP2002331850A (en) * 2001-05-07 2002-11-19 Nissan Motor Co Ltd Driving behavior intention detector
JP4165168B2 (en) * 2002-09-27 2008-10-15 日産自動車株式会社 Driving assistance device for vehicle
JP4529394B2 (en) * 2003-09-12 2010-08-25 株式会社豊田中央研究所 Driver's vehicle driving characteristic estimation device
JP4186785B2 (en) * 2003-10-21 2008-11-26 トヨタ自動車株式会社 Driver model construction method, operation prediction method, and operation prediction apparatus
JP2005178628A (en) * 2003-12-19 2005-07-07 Toyota Motor Corp Integrated control system for vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862864A (en) * 2017-10-18 2018-03-30 南京航空航天大学 Driving cycle intelligent predicting method of estimation based on driving habit and traffic

Also Published As

Publication number Publication date
JP2007272834A (en) 2007-10-18

Similar Documents

Publication Publication Date Title
JP4791874B2 (en) Driving support device and driving action determination device
US8140241B2 (en) Driving action estimating device, driving support device, vehicle evaluating system, driver model creating device, and driving action determining device
JP7032966B2 (en) Vehicle safety support devices and methods
EP3657457B1 (en) Arousal level assessment system and arousal level assessment method
EP3779921A1 (en) Information processing device, moving apparatus, method, and program
US20130135092A1 (en) Driving behavior analysis and warning system and method thereof
CN106462027B (en) Method for controlling a vehicle system in a motor vehicle
JP4803490B2 (en) Driver state estimation device and driving support device
JP7324716B2 (en) Information processing device, mobile device, method, and program
EP3220368A1 (en) System and method for providing context-specific vehicular driver interactions
JP5041160B2 (en) Driving assistance device
JP7459634B2 (en) Driver Abnormality Judgment System
US20240000354A1 (en) Driving characteristic determination device, driving characteristic determination method, and recording medium
US10077055B2 (en) System and method for determining the information transfer rate between a driver and vehicle
Baccour et al. Camera-based driver drowsiness state classification using logistic regression models
KR101993537B1 (en) Method and apparatus for determining drowsy state of vehicle driver
JP7459633B2 (en) Driver abnormality determination device
Ponomarev et al. Adaptation and personalization in driver assistance systems
JP6772775B2 (en) Driving support device and driving support method
Ahir et al. Driver inattention monitoring system: A review
Schindler et al. Drivers’ comfort boundaries when overtaking a cyclist-Set-up and verification of a methodology for field data collection and analysis
JP2021167163A (en) Driver abnormality determination device
Dababneh et al. Driver vigilance level detection systems: A literature survey
WO2024062769A1 (en) Driver assistance device, driver assistance system, and driver assist method
CN117775006A (en) Vehicle driving behavior prediction method and device based on human factor intelligence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110722

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140729

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4791874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350