JP6772775B2 - Driving support device and driving support method - Google Patents

Driving support device and driving support method Download PDF

Info

Publication number
JP6772775B2
JP6772775B2 JP2016225068A JP2016225068A JP6772775B2 JP 6772775 B2 JP6772775 B2 JP 6772775B2 JP 2016225068 A JP2016225068 A JP 2016225068A JP 2016225068 A JP2016225068 A JP 2016225068A JP 6772775 B2 JP6772775 B2 JP 6772775B2
Authority
JP
Japan
Prior art keywords
information
vehicle
feature vector
driving support
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016225068A
Other languages
Japanese (ja)
Other versions
JP2018081622A (en
Inventor
正雄 山中
正雄 山中
西島 敏文
敏文 西島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016225068A priority Critical patent/JP6772775B2/en
Publication of JP2018081622A publication Critical patent/JP2018081622A/en
Application granted granted Critical
Publication of JP6772775B2 publication Critical patent/JP6772775B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の運転を支援する装置に関する。 The present invention relates to a device that assists the driving of a vehicle.

漫然運転などの危険な運転を検知する方法として、たとえば、特許文献1に記載されたような方法が提案されている。特許文献1に記載の装置では、あらかじめ、漫然運転時における車両運転者の注視情報の統計的分布を定義し、評価時に得られた車両運転者の注視情報の統計的分布との類似性を評価することで、漫然運転の可能性を推定している。 As a method for detecting dangerous driving such as involuntary driving, for example, a method as described in Patent Document 1 has been proposed. In the device described in Patent Document 1, the statistical distribution of the gaze information of the vehicle driver during casual driving is defined in advance, and the similarity with the statistical distribution of the gaze information of the vehicle driver obtained at the time of evaluation is evaluated. By doing so, the possibility of casual driving is estimated.

また、危険な運転を検知する方法として、たとえば、特許文献2に記載されたような方法が提案されている。特許文献2に記載の装置では、車両運転者の視線方向を所定時間検出して、視線方向の分布を示す視線分布情報を生成し、得られた視線分布情報によって示される分布の所定位置が、あらかじめ定義した基準情報により示される、漫然運転でない状態の視線方向の標準的な位置よりも上方向に所定閾値以上離れている場合に、危険な運転であると判定している。 Further, as a method for detecting dangerous driving, for example, a method as described in Patent Document 2 has been proposed. In the apparatus described in Patent Document 2, the line-of-sight direction of the vehicle driver is detected for a predetermined time, line-of-sight distribution information indicating the distribution in the line-of-sight direction is generated, and the predetermined position of the distribution indicated by the obtained line-of-sight distribution information is determined. When the vehicle is separated from the standard position in the line-of-sight direction in a non-involuntary driving state by a predetermined threshold value or more, which is indicated by the reference information defined in advance, it is judged to be dangerous driving.

また、危険な運転を検知する方法として、たとえば、特許文献3に記載されたような方法が提案されている。特許文献3に記載の装置では、車両運転者の心電図(R波形)から、心拍間隔RRIを求め、各時刻の心拍間隔RRIを記憶するとともに、その時系列データから異常パターンを検出することで、危険な運転を検知している。 Further, as a method for detecting dangerous driving, for example, a method as described in Patent Document 3 has been proposed. The device described in Patent Document 3 obtains the heartbeat interval RRI from the electrocardiogram (R waveform) of the vehicle driver, stores the heartbeat interval RRI at each time, and detects an abnormal pattern from the time series data, which is dangerous. Driving is detected.

また、危険な運転を検知する方法として、たとえば、特許文献4に記載されたような方法が提案されている。特許文献4に記載の装置では、車両位置、道路状況、車両挙動、車両運転者の精神状態などの関係性に基づいて危険度レベルを定義し、その危険度レベルが、あらかじめ定めた閾値以上である場合に、危険な運転であると判定している。 Further, as a method for detecting dangerous driving, for example, a method as described in Patent Document 4 has been proposed. In the device described in Patent Document 4, the risk level is defined based on the relationship such as vehicle position, road condition, vehicle behavior, and mental state of the vehicle driver, and the risk level is equal to or higher than a predetermined threshold value. In some cases, it is determined that the driving is dangerous.

特開平08−178712号公報Japanese Unexamined Patent Publication No. 08-178712 特開2008−243031号公報Japanese Unexamined Patent Publication No. 2008-243031 特開2010−162282号公報Japanese Unexamined Patent Publication No. 2010-162282 特開2014−206906号公報Japanese Unexamined Patent Publication No. 2014-206906 特開2008−058459号公報Japanese Unexamined Patent Publication No. 2008-058459 特開2008−139553号公報Japanese Unexamined Patent Publication No. 2008-139553 特開平03−165737号公報Japanese Unexamined Patent Publication No. 03-165737

車載カメラによる運転者の完全自動視線計測手法 Vol.2013-CVIM-185 No.39Driver's fully automatic line-of-sight measurement method using an in-vehicle camera Vol.2013-CVIM-185 No.39 高田 晴子,高田 幹夫,金山 愛,心拍変動周波数解析のLF成分・HF成分と心拍変動係数の意義:加速度脈波測定システムによる自律神経機能評価総合検診,Vol. 32,No. 6,pp.504-512 (2005).Haruko Takada, Mikio Takada, Ai Kanayama, Significance of LF and HF components of heart rate variability frequency analysis and heart rate variability coefficient: Autonomic nervous function evaluation comprehensive examination by acceleration pulse wave measurement system, Vol. 32, No. 6, pp. 504 -512 (2005). 山中 正雄,斎藤 俊太,青木 義満,人体の部位の位置の大域的構造に基づく車両内乗員の行動認識手法,画像センシングシンポジウム2016Masao Yamanaka, Shunta Saito, Yoshimitsu Aoki, Behavior recognition method for occupants in the vehicle based on the global structure of the position of human body parts, Image Sensing Symposium 2016 森永 啓詩,花塚 泰史,若尾 泰通,小林 克宏,タイヤセンサを使った路面状態判定システムの開発,自動車技術 65(12) ,97-98,2011-12-01sHiroshi Morinaga, Yasushi Hanatsuka, Yasumichi Wakao, Katsuhiro Kobayashi, Development of Road Surface Condition Judgment System Using Tire Sensor, Automotive Technology 65 (12), 97-98, 2011-12-01s Kanamori, T., Hido, S., & Sugiyama, M., A least-squares approach to direct importance estimation, Journal of Machine Learning Research, vol.10 (Jul.), pp.1391-1445, 2009.Kanamori, T., Hido, S., & Sugiyama, M., A least-squares approach to direct importance estimation, Journal of Machine Learning Research, vol.10 (Jul.), Pp.1391-1445, 2009. Yamada, M., Suzuki, T., Kanamori, T., Hachiya, H., & Sugiyama, M., Relative density-ratio estimation for robust distribution comparison, Neural Computation, vol.25, no.5, pp.1324-1370, 2013.Yamada, M., Suzuki, T., Kanamori, T., Hachiya, H., & Sugiyama, M., Relative density-ratio estimation for robust distribution comparison, Neural Computation, vol.25, no.5, pp.1324 -1370, 2013. Sugiyama, M., Kanamori, T., Suzuki, T., du Plessis, M. C., Liu, S., & Takeuchi, I., Density difference estimation, IEICE Technical Report IBISML2012-8, pp.49-56, Kyoto, Japan, Jun. 19-20, 2012.Sugiyama, M., Kanamori, T., Suzuki, T., du Plessis, MC, Liu, S., & Takeuchi, I., Density difference estimation, IEICE Technical Report IBISML2012-8, pp.49-56, Kyoto, Japan, Jun. 19-20, 2012.

しかしながら、前述した各特許文献に開示される技術は、次のような問題を有している。 However, the techniques disclosed in the above-mentioned patent documents have the following problems.

例えば、特許文献1に記載の発明では、漫然運転時における車両運転者の注視情報の統計的分布としてあらかじめ定義していないものに対して、推定精度が低下してしまう。 For example, in the invention described in Patent Document 1, the estimation accuracy is lower than that which is not defined in advance as the statistical distribution of the gaze information of the vehicle driver during casual driving.

また、特許文献2に記載の発明では、漫然運転時と漫然運転時でない状態との視線分布情報の相違が標準的な位置ではなく、統計的分布の相違(たとえば、尖度、歪度、分散など)に表れる場合において、推定精度が低下してしまう。 Further, in the invention described in Patent Document 2, the difference in the line-of-sight distribution information between the state of involuntary driving and the state of not involuntarily driving is not a standard position, but a difference in statistical distribution (for example, kurtosis, skewness, dispersion). Etc.), the estimation accuracy will decrease.

また、特許文献3に記載の発明では、車両運転者のバイタル変化として表出しない、車両挙動(たとえば、速度や加速度など)や車両外環境(たとえば、天候や路面状況など)に起因するものに対して、推定精度が低下してしまう。 Further, in the invention described in Patent Document 3, the invention is caused by vehicle behavior (for example, speed, acceleration, etc.) or external environment (for example, weather, road surface condition, etc.), which is not expressed as a vital change of the vehicle driver. On the other hand, the estimation accuracy is lowered.

また、特許文献4に記載の発明では、人があらかじめ定義することが困難な潜在的危険(上記複数の要因が複雑に絡んだ状況)に対して、推定精度が低下してしまう。 Further, in the invention described in Patent Document 4, the estimation accuracy is lowered for a potential danger (a situation in which the above-mentioned plurality of factors are complicatedly involved) that is difficult for a person to define in advance.

本発明は上記の課題を考慮してなされたものであり、危険な運転状態を精度よく検知する技術を提供することを目的とする。 The present invention has been made in consideration of the above problems, and an object of the present invention is to provide a technique for accurately detecting a dangerous driving state.

本発明に係る運転支援装置は、車両の危険な運転状態を検知する運転支援装置である。危険な運転状態とは、安全な運転ができていない状態を指し、例えば、漫然運転、居眠り運転、過労運転などが発生している状態である。また、危険な運転状態は、運転者本人に起因するものでなくてもよい。例えば、車両や環境の状態に起因して安全に車両を運行できない環境下における運転状態も含まれる。 The driving support device according to the present invention is a driving support device that detects a dangerous driving state of a vehicle. The dangerous driving state refers to a state in which safe driving is not possible, for example, a state in which involuntary driving, dozing driving, overworked driving, or the like occurs. Further, the dangerous driving state does not have to be caused by the driver himself / herself. For example, it also includes a driving state in an environment where the vehicle cannot be operated safely due to the state of the vehicle or the environment.

本発明に係る運転支援装置は、車両の運転者に関する情報である乗員情報を取得する乗員情報取得手段と、前記車両の外部環境に関する情報である環境情報を取得する環境情報取得手段と、前記車両に関する情報である車両情報を取得する車両情報取得手段と、前記乗員情報と、前記環境情報と、前記車両情報と、に基づいて、評価対象の運転に対応する特徴ベクトルである第一の特徴ベクトルを取得する第一の特徴ベクトル取得手段と、正常な運転に対応する前記特徴ベクトルである第二の特徴ベクトルを取得する第二の特徴ベクトル取得手段と、前記第一の特徴ベクトルと、第二の特徴ベクトルとの統計的分布の相違に基づいて、前記評価対象の運転に対する危険度を算出する危険度算出手段と、を有する。 The driving support device according to the present invention includes a occupant information acquisition means for acquiring occupant information which is information about a vehicle driver, an environmental information acquisition means for acquiring environmental information which is information about the external environment of the vehicle, and the vehicle. The first feature vector, which is a feature vector corresponding to the driving to be evaluated, based on the vehicle information acquisition means for acquiring the vehicle information which is information about the vehicle, the occupant information, the environmental information, and the vehicle information. The first feature vector acquisition means for acquiring the above, the second feature vector acquisition means for acquiring the second feature vector which is the feature vector corresponding to normal operation, the first feature vector, and the second. Based on the difference in the statistical distribution from the feature vector of the above, the vehicle has a risk calculation means for calculating the risk to the driving of the evaluation target.

乗員情報とは、運転者をセンシングして得られる情報であり、典型的には、視線情報、顔の向き、生体情報、運転行動の分類結果などであるが、これらに限られない。
また、環境情報とは、車両外部の環境をセンシングして得られる情報であり、典型的には、天候、路面の状態、障害物の位置や距離などであるが、これらに限られない。
また、車両情報とは、車両をセンシングして得られる情報であり、典型的には、速度、位置情報、エンジン回転数、舵角、ブレーキ力、前後加速度、左右加速度、ヨーレートなどであるが、これらに限られない。
The occupant information is information obtained by sensing the driver, and typically includes, but is not limited to, line-of-sight information, face orientation, biological information, and classification results of driving behavior.
Further, the environmental information is information obtained by sensing the environment outside the vehicle, and typically includes, but is not limited to, the weather, the condition of the road surface, the position and distance of obstacles, and the like.
Further, the vehicle information is information obtained by sensing the vehicle, and typically includes speed, position information, engine speed, steering angle, braking force, front-rear acceleration, left-right acceleration, yaw rate, and the like. Not limited to these.

また、第一の特徴ベクトル取得手段は、取得した乗員情報、環境情報、車両情報に基づいて、評価対象の運転に対応する特徴ベクトル(第一の特徴ベクトル)を取得する。取得された特徴ベクトルは、正常な運転に対応する特徴ベクトルである第二の特徴ベクトルと比較され、双方の統計的分布(例えば確率密度など)の相違に基づいて危険度が算出される。
かかる構成によると、運転者、周辺環境、車両状態の三つに基づいて危険な状態であるか否かを判定することができるため、危険運転の判定精度を向上させることができる。
Further, the first feature vector acquisition means acquires a feature vector (first feature vector) corresponding to the driving to be evaluated based on the acquired occupant information, environmental information, and vehicle information. The acquired feature vector is compared with the second feature vector, which is a feature vector corresponding to normal operation, and the degree of risk is calculated based on the difference in the statistical distributions (for example, probability density) of both.
According to such a configuration, it is possible to determine whether or not the vehicle is in a dangerous state based on the driver, the surrounding environment, and the vehicle condition, so that the accuracy of determining dangerous driving can be improved.

また、前記乗員情報、前記環境情報、前記車両情報は、それぞれ時系列データで表された複数の特徴量を要素に持つ多次元ベクトルであることを特徴としてもよい。 Further, the occupant information, the environmental information, and the vehicle information may each be a multidimensional vector having a plurality of feature quantities represented by time series data as elements.

複数の特徴量を時系列形式で保持することで、状態の時間変化を考慮して判定を行うことができる。 By holding a plurality of feature quantities in a time series format, it is possible to make a judgment in consideration of the time change of the state.

また、前記乗員情報は、乗員の視線位置、顔の向き、バイタル値、運転行動を分類した行動ラベル、のうち少なくとも一つを要素に持つ多次元ベクトルであることを特徴としてもよい。 Further, the occupant information may be characterized by being a multidimensional vector having at least one of the occupant's line-of-sight position, face orientation, vital value, and action label that classifies driving behavior as elements.

バイタル値とは、運転者の生体情報である。バイタル値は、例えば、心拍数や呼吸数など、生体を直接センシングして得られる情報であってもよいし、ストレスレベルや覚醒度など、センシング結果に基づいて間接的に得られる情報であってもよい。また、行動ラベルとは、運転者が行っている動作や運転行動を分類した結果を表す値である。 The vital value is the biological information of the driver. The vital value may be, for example, information obtained by directly sensing the living body such as heart rate and respiratory rate, or information indirectly obtained based on the sensing result such as stress level and alertness. May be good. The action label is a value representing the result of classifying the actions performed by the driver and the driving actions.

また、前記環境情報は、車両外の天気、路面状況、障害物の位置に関する情報、のうち少なくとも一つを要素に持つ多次元ベクトルであることを特徴としてもよい。 Further, the environmental information may be characterized as a multidimensional vector having at least one of information on the weather outside the vehicle, the road surface condition, and the position of an obstacle as an element.

障害物の位置に関する情報とは、例えば、障害物の絶対位置や自車に対する相対位置、自車との距離などである。また、障害物とは、他の自動車であってもよいし、自転車や歩行者などであってもよい。また、建築物や構造物などの固定された物体であってもよい。 The information regarding the position of the obstacle is, for example, the absolute position of the obstacle, the relative position with respect to the own vehicle, the distance to the own vehicle, and the like. Further, the obstacle may be another automobile, a bicycle, a pedestrian, or the like. Further, it may be a fixed object such as a building or a structure.

また、前記車両情報は、車両の速度、加速度、舵角、ヨーレート、のうち少なくとも一つを要素に持つ多次元ベクトルであることを特徴としてもよい。 Further, the vehicle information may be characterized by being a multidimensional vector having at least one of the speed, acceleration, steering angle, and yaw rate of the vehicle as an element.

これらの情報は、CAN(Controller Area Network)などの車内ネットワークから取
得することができる。
This information can be obtained from an in-vehicle network such as CAN (Controller Area Network).

また、前記危険度算出手段は、前記第一の特徴ベクトルと、前記第二の特徴ベクトルとの確率密度の比に基づいて前記統計的分布の相違を算出することを特徴としてもよく、前記危険度算出手段は、前記第一の特徴ベクトルと、前記第二の特徴ベクトルとの確率密度の差に基づいて前記統計的分布の相違を算出することを特徴としてもよい。 Further, the risk calculation means may be characterized in that the difference in the statistical distribution is calculated based on the ratio of the probability densities of the first feature vector and the second feature vector, and the risk may be calculated. The degree calculation means may be characterized in that the difference in the statistical distribution is calculated based on the difference in probability density between the first feature vector and the second feature vector .

確率密度の比または差を利用することで、統計的分布の相違を正確に取得することができる。 By using the ratio or difference of probability densities, the difference in statistical distribution can be obtained accurately.

また、本発明に係る運転支援装置は、前記統計的分布の相違の大きさを可視化し、前記運転者に提示する表示手段をさらに備えることを特徴としてもよい。 Further, the driving support device according to the present invention may be further provided with a display means for visualizing the magnitude of the difference in the statistical distribution and presenting the difference to the driver.

例えば、相違が大きいほど目立つ表示を行うようにしてもよい。かかる構成によると、現在の運転状態が、正常な運転状態からどれだけ乖離しているかを運転者に直感的に伝達することができる。 For example, the larger the difference, the more conspicuous the display may be. According to such a configuration, it is possible to intuitively convey to the driver how much the current driving state deviates from the normal driving state.

また、本発明に係る運転支援装置は、前記統計的分布の相違の大きさに基づいて、前記運転者に刺激を与える刺激発生手段をさらに備えることを特徴としてもよい。
また、前記刺激発生手段は、前記統計的分布の相違の大きさに基づいて運転席の少なくとも一部を振動させることを特徴としてもよい。
また、前記刺激発生手段は、前記統計的分布の相違の大きさに基づいて警告音を発することを特徴としてもよい。
Further, the driving support device according to the present invention may further include a stimulus generating means for stimulating the driver based on the magnitude of the difference in the statistical distribution.
Further, the stimulus generating means may be characterized in that at least a part of the driver's seat is vibrated based on the magnitude of the difference in the statistical distribution.
Further, the stimulus generating means may be characterized in that a warning sound is emitted based on the magnitude of the difference in the statistical distribution.

このように、振動や音声によって相違の大きさを伝達することで、現在の運転状態が、正常な運転状態からどれだけ乖離しているかを運転者に直感的に伝達することができる。なお、振動させる対象は、運転席が着座しているシート自体であってもよいし、シートベルト、ステアリングホイールの一部などであってもよい。 In this way, by transmitting the magnitude of the difference by vibration or voice, it is possible to intuitively convey to the driver how much the current driving state deviates from the normal driving state. The object to be vibrated may be the seat itself on which the driver's seat is seated, a seat belt, a part of the steering wheel, or the like.

なお、本発明は、上記手段の少なくとも一部を含む運転支援装置として特定することができる。また、前記運転支援装置が行う運転支援方法として特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。 The present invention can be specified as a driving support device including at least a part of the above means. It can also be specified as a driving support method performed by the driving support device. The above processes and means can be freely combined and carried out as long as there is no technical contradiction.

本発明によれば、危険な運転を精度よく検知する技術を提供することができる。 According to the present invention, it is possible to provide a technique for accurately detecting dangerous driving.

実施形態に係る運転支援装置のシステム構成図である。It is a system block diagram of the driving support device which concerns on embodiment. 時系列形式で表される乗員情報を説明する図である。It is a figure explaining the occupant information represented in the time series format. 運転者の視線検出を説明する図である。It is a figure explaining the line-of-sight detection of a driver. 障害物の位置検出を説明する図である。It is a figure explaining the position detection of an obstacle. 統計的分布の相違を視覚的に表示する例である。This is an example of visually displaying the difference in statistical distribution. 実施形態に係る運転支援装置の処理フローチャート図である。It is a processing flowchart figure of the driving support device which concerns on embodiment.

以下、本発明の好ましい実施形態について図面を参照しながら説明する。
本実施形態に係る運転支援装置は、収集した情報に基づいて危険な運転状態が発生していることを検出し、自動車の運転者に対して警告を行う装置である。なお、危険な運転状態とは、危険な状態を生じさせている運転状態を指し、運転者本人に起因するものでなくてもよい。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
The driving support device according to the present embodiment is a device that detects that a dangerous driving state has occurred based on the collected information and warns the driver of the automobile. The dangerous driving state refers to a driving state that causes a dangerous state, and does not have to be caused by the driver himself / herself.

図1は、本実施形態に係る運転支援装置1のシステム構成図である。本実施形態に係る運転支援装置1は、乗員情報取得部11、環境情報取得部12、車両情報取得部13、特徴ベクトル算出部14、正常データ記憶部15、比較部16、画像表示部17、刺激発生部18を有する。 FIG. 1 is a system configuration diagram of the driving support device 1 according to the present embodiment. The driving support device 1 according to the present embodiment includes an occupant information acquisition unit 11, an environment information acquisition unit 12, a vehicle information acquisition unit 13, a feature vector calculation unit 14, a normal data storage unit 15, a comparison unit 16, and an image display unit 17. It has a stimulus generator 18.

運転支援装置1は、CPU、主記憶装置、補助記憶装置を有する情報処理装置として構成することができる。補助記憶装置に記憶されたプログラムが主記憶装置にロードされ、CPUによって実行されることで、図1に図示した各手段が機能する。なお、図示した機
能の全部または一部は、専用に設計された回路(半導体集積回路など)を用いて実行されてもよい。
The driving support device 1 can be configured as an information processing device having a CPU, a main storage device, and an auxiliary storage device. When the program stored in the auxiliary storage device is loaded into the main storage device and executed by the CPU, each means shown in FIG. 1 functions. In addition, all or a part of the illustrated functions may be executed by using a circuit (semiconductor integrated circuit or the like) specially designed.

乗員情報取得部11は、車両に備えられた第一のセンサ(不図示)から、運転者に関する情報を収集し、特徴量に変換したうえで、時系列形式で出力する手段である。本実施形態では、乗員情報取得部11は、収集した情報を、複数の特徴量を持つ多次元ベクトル(乗員情報と称する)に変換して出力する。 The occupant information acquisition unit 11 is a means for collecting information about the driver from a first sensor (not shown) provided in the vehicle, converting it into a feature amount, and then outputting it in a time series format. In the present embodiment, the occupant information acquisition unit 11 converts the collected information into a multidimensional vector (referred to as occupant information) having a plurality of feature quantities and outputs the information.

環境情報取得部12は、車両に備えられた第二のセンサ(不図示)から、車両外の環境に関する情報を収集し、特徴量に変換したうえで、時系列形式で出力する手段である。本実施形態では、環境情報取得部12は、収集した情報を、複数の特徴量を持つ多次元ベクトル(環境情報と称する)に変換して出力する。 The environmental information acquisition unit 12 is a means for collecting information on the environment outside the vehicle from a second sensor (not shown) provided in the vehicle, converting it into a feature amount, and then outputting it in a time series format. In the present embodiment, the environmental information acquisition unit 12 converts the collected information into a multidimensional vector (referred to as environmental information) having a plurality of feature quantities and outputs the information.

車両情報取得部13は、車両に備えられた第三のセンサ(不図示)から、車両の状態に関する情報を収集し、特徴量に変換したうえで、時系列形式で出力する手段である。本実施形態では、車両情報取得部13は、収集した情報を、複数の特徴量を持つ多次元ベクトル(車両情報と称する)に変換して出力する。 The vehicle information acquisition unit 13 is a means for collecting information on the state of the vehicle from a third sensor (not shown) provided in the vehicle, converting it into a feature amount, and then outputting it in a time series format. In the present embodiment, the vehicle information acquisition unit 13 converts the collected information into a multidimensional vector (referred to as vehicle information) having a plurality of feature quantities and outputs the information.

ここで、乗員情報、環境情報、車両情報の具体例について説明する。
乗員情報は、時刻tにおける運転者の視線位置P1(t)、顔向きP2(t)、バイタル
値P3(t)、行動ラベルP4(t)を要素にもつ多次元ベクトルP(t)={P1(t)
,P2(t),P3(t),P4(t)}によって表される。
Here, specific examples of occupant information, environmental information, and vehicle information will be described.
The occupant information is a multidimensional vector P (with elements of the driver's line-of-sight position P 1 (t), face orientation P 2 (t), vital value P 3 (t), and action label P 4 (t) at time t. t) = {P 1 (t)
, P 2 (t), P 3 (t), P 4 (t)}.

P(t)は、図2に示したように、時間的に連続したT個の情報を持つ多次元ベクトルである。例えば、T=3である場合、t=0における乗員情報P(0)は、{P1(0)
,P2(0),P3(0),P4(0),P1(1),P2(1),P3(1),P4(1),
1(2),P2(2),P3(2),P4(2)}の、4×3次元のベクトルで与えられる。
また、t=1における乗員情報P(1)は、{P1(1),P2(1),P3(1),P4(1),P1(2),P2(2),P3(2),P4(2),P1(3),P2(3),P3
3),P4(2)}で与えられる。
As shown in FIG. 2, P (t) is a multidimensional vector having T pieces of information that are continuous in time. For example, when T = 3, the occupant information P (0) at t = 0 is {P 1 (0).
, P 2 (0), P 3 (0), P 4 (0), P 1 (1), P 2 (1), P 3 (1), P 4 (1),
It is given as a 4 × 3 dimensional vector of P 1 (2), P 2 (2), P 3 (2), P 4 (2)}.
The occupant information P (1) at t = 1 is {P 1 (1), P 2 (1), P 3 (1), P 4 (1), P 1 (2), P 2 (2). , P 3 (2), P 4 (2), P 1 (3), P 2 (3), P 3 (
3), P 4 (2)}.

ここで、Tの数は、試行錯誤的に決定すればよい。例えば、システム全体に要求される危険運転の識別性能に応じて決定してもよいし、システム全体に要求される処理時間に応じて決定してもよい。 Here, the number of T may be determined by trial and error. For example, it may be determined according to the identification performance of dangerous driving required for the entire system, or may be determined according to the processing time required for the entire system.

乗員情報Pn(t)を構成する各特徴量について説明する。
視線位置P1(t)は、車両に備えられたカメラによって運転者の眼を撮影し、得られ
た画像(以下、眼画像)に基づいて取得することができる。例えば、図3は、時刻tにおける運転者の視線位置が、(xe(t),ye(t))にあると判定している例である。なお、XY座標は、同時に取得した、車両の前方方向を撮影した画像(以下、前方画像)に対応する座標であるものとする。
Each feature amount constituting the occupant information P n (t) will be described.
The line-of-sight position P 1 (t) can be obtained by photographing the driver's eyes with a camera provided in the vehicle and based on the obtained image (hereinafter, eye image). For example, FIG. 3 shows an example in which it is determined that the line-of-sight position of the driver at time t is (x e (t), y e (t)). It is assumed that the XY coordinates are the coordinates corresponding to the images taken in the front direction of the vehicle (hereinafter referred to as the front image) acquired at the same time.

ここで、車両運転者の視線方向は、たとえば、可視光感知カメラと赤外光感知カメラによって撮影された二つの眼画像の差分画像を、適当な閾値と比較することによって虹彩部分を抽出することで取得することができる。そして、眼画像を撮影するカメラと前方画像を撮影するカメラの位置関係等に基づいて、時刻tにおける車両運転者の視線位置(xe
(t),ye(t))を取得することができる。
Here, the line-of-sight direction of the vehicle driver is, for example, to extract the iris portion by comparing the difference image of the two eye images taken by the visible light sensing camera and the infrared light sensing camera with an appropriate threshold value. You can get it at. Then, based on the positional relationship between the camera that captures the eye image and the camera that captures the front image, the line-of-sight position (x e) of the vehicle driver at time t.
(T), y e (t)) can be obtained.

運転者の顔向きP2(t)は、車両に備えられたカメラによって運転者の顔画像を撮影
し、当該顔画像に基づいて取得することができる。顔向きとは、例えば、X軸,Y軸,Z軸にそれぞれ対する傾き(θx(t),θy(t),θz(t))によって表すことができ
る。
運転者の顔向きは、例えば、非特許文献1に開示されているように、顔画像から目頭、目じり、鼻などの特徴点を抽出し、得られた特徴点によって構成される幾何学的形状に基づいて推定することができる。なお、運転者の顔向きを取得するためのカメラは、運転者の視線位置を取得するためのカメラを兼ねていてもよい。
The driver's face orientation P 2 (t) can be obtained by taking a photograph of the driver's face with a camera provided in the vehicle and based on the face image. The face orientation can be expressed by, for example, the inclinations (θ x (t), θ y (t), θ z (t)) with respect to the X-axis, Y-axis, and Z-axis, respectively.
As disclosed in Non-Patent Document 1, for example, the driver's face orientation is a geometric shape composed of the obtained feature points by extracting feature points such as the inner corner of the eye, the corner of the eye, and the nose from the face image. Can be estimated based on. The camera for acquiring the driver's face orientation may also serve as a camera for acquiring the driver's line-of-sight position.

バイタル値P3(t)とは、運転者の生体的情報を表す値である。バイタル値には、例
えば、ストレスレベル、覚醒度、疲労度などの、運転に影響する指標を用いることができる。また、バイタル値は、例えば、市販されているリストバンド型端末を着用することで取得することができる(非特許文献2参照)。
The vital value P 3 (t) is a value representing the biological information of the driver. For the vital value, for example, an index affecting driving such as stress level, alertness, and fatigue can be used. Further, the vital value can be obtained by wearing, for example, a commercially available wristband type terminal (see Non-Patent Document 2).

行動ラベルP4(t)とは、運転者が行っている動作や運転行動を分類した結果を表す
値である。行動ラベルは、例えば、着座している運転者の全身画像を取得し、得られた全身画像に基づいて推定することができる。
例えば、非特許文献3に開示されているように、深層学習を用いて車両内乗員の人体の部位を検出し、得られた人体の部位の大域的構造に基づいて行動ラベルを推定する技術が知られている。
The action label P 4 (t) is a value representing the result of classifying the actions and driving actions performed by the driver. The behavior label can be estimated, for example, by acquiring a full-body image of the seated driver and based on the obtained full-body image.
For example, as disclosed in Non-Patent Document 3, there is a technique of detecting a part of the human body of an in-vehicle occupant using deep learning and estimating an action label based on the obtained global structure of the human body part. Are known.

次に、環境情報について説明する。
環境情報は、時刻tにおける天気E1(t)、路面状況E2(t)、周辺車両の位置E3(t)、周辺車両との相対距離E4(t)、歩行者の位置E5(t)、歩行者との相対距離E6(t)、自転車の位置E7(t)、自転車との相対距離E8(t)を要素にもつ多次元ベ
クトルE(t)={E1(t),E2(t),E3(t),E4(t),E5(t),E6(t),E7(t),E8(t)}によって表される。
環境情報E(t)も、乗員情報P(t)と同様に、時間的に連続したT個の情報を持つ多次元ベクトルである。
Next, the environmental information will be described.
Environmental information includes weather E 1 (t) at time t, road surface condition E 2 (t), position E 3 (t) of surrounding vehicles, relative distance E 4 (t) with surrounding vehicles, and position E 5 of pedestrians. (T), a multidimensional vector E (t) = {E 1 having elements of a relative distance E 6 (t) to a pedestrian, a position E 7 (t) of the bicycle, and a relative distance E 8 (t) to the bicycle. Represented by (t), E 2 (t), E 3 (t), E 4 (t), E 5 (t), E 6 (t), E 7 (t), E 8 (t)} ..
The environmental information E (t) is also a multidimensional vector having T pieces of information that are continuous in time, like the occupant information P (t).

天気E1(t)は、時刻tにおける車両位置の天気(たとえば、晴れ、曇り、雨、雪、
濃霧など)を表す値である。天気E1(t)は、例えば、ネットワークを経由して、車両
位置における現在の気象情報を取得することで得ることができる。
Weather E 1 (t) is the weather at the vehicle position at time t (eg, sunny, cloudy, rainy, snowy,
It is a value representing thick fog, etc.). The weather E 1 (t) can be obtained, for example, by acquiring the current weather information at the vehicle position via the network.

路面状況E2(t)は、時刻tにおける路面状況(たとえば、乾燥,半湿,湿潤,積雪
,圧雪,凍結,シャーベットなど)を表す値である。路面状況E2(t)は、例えば、非
特許文献4に開示されているように、車両に設置したセンサを用いて取得することができる。
The road surface condition E 2 (t) is a value representing the road surface condition (for example, dry, semi-humid, wet, snow cover, compressed snow, freezing, sherbet, etc.) at time t. The road surface condition E 2 (t) can be obtained by using a sensor installed in the vehicle, for example, as disclosed in Non-Patent Document 4.

周辺車両の位置E3(t)は、図4のように、車両に対して横方向をX軸、進行方向を
Y軸とした場合における、時刻tにおける周辺車両の座標(xc(t),yc(t))を表
す値である。周辺車両の座標は、例えば、車両外に設置したLIDARセンサを用いて取得することができる。
As shown in FIG. 4, the position E 3 (t) of the peripheral vehicle is the coordinates of the peripheral vehicle at time t when the lateral direction is the X axis and the traveling direction is the Y axis with respect to the vehicle (x c (t)). , Y c (t)). The coordinates of the surrounding vehicles can be obtained, for example, by using a LIDAR sensor installed outside the vehicle.

また、周辺車両との相対距離E4(t)は、図4のように、車両に対して横方向をX軸
、進行方向をY軸とした場合における、時刻tにおける周辺車両までのユークリッド距離
cを表す値である。
Further, the relative distance E 4 (t) with the surrounding vehicle is the Euclidean distance to the surrounding vehicle at time t when the lateral direction is the X axis and the traveling direction is the Y axis with respect to the vehicle as shown in FIG. It is a value representing r c .

なお、歩行者の位置E5(t)、歩行者との相対距離E6(t)、自転車の位置E7(t
)、自転車との相対距離E8についても、周辺車両と同様の方法によって取得を行えばよ
いため、詳細な説明は省略する。
The pedestrian position E 5 (t), the relative distance to the pedestrian E 6 (t), and the bicycle position E 7 (t).
), The relative distance E 8 to the bicycle may be acquired by the same method as for the surrounding vehicles, so detailed description thereof will be omitted.

次に、車両情報について説明する。
車両情報は、時刻tにおける車速C1(t)、車両の位置C2(t)、エンジン回転数C3(t)、ステアリング角度C4(t)、ブレーキ油圧C5(t)、前後加速度C6(t)、
横加速度C7(t)、ヨーレートC8(t)を要素にもつ多次元ベクトルC(t)={C1
(t),C2(t),C3(t),C4(t),C5(t),C6(t),C7(t),C8
t)}によって表される。これらの情報は、CAN(Controller Area Network)から取
得することができる。
車両情報C(t)も、乗員情報P(t)および環境情報E(t)と同様に、時間的に連続したT個の情報を持つ多次元ベクトルである。
Next, vehicle information will be described.
Vehicle information includes vehicle speed C 1 (t) at time t, vehicle position C 2 (t), engine speed C 3 (t), steering angle C 4 (t), brake oil pressure C 5 (t), and forward / backward acceleration. C 6 (t),
Multidimensional vector C (t) = {C 1 with lateral acceleration C 7 (t) and yaw rate C 8 (t) as elements
(T), C 2 (t), C 3 (t), C 4 (t), C 5 (t), C 6 (t), C 7 (t), C 8 (
It is represented by t)}. This information can be obtained from CAN (Controller Area Network).
The vehicle information C (t) is also a multidimensional vector having T pieces of information that are continuous in time, like the occupant information P (t) and the environmental information E (t).

運転支援装置1を構成する各要素の説明に戻る。
特徴ベクトル算出部14は、乗員情報取得部11が出力した乗員情報と、環境情報取得部12が出力した環境情報と、車両情報取得部13が出力した車両情報とを統合する手段である。
具体的には、乗員情報P(t)と、環境情報E(t)と、車両情報C(t)とを連結し、時刻tにおける特徴ベクトルF(t)=(P(t),E(t),C(t))(t=1,2,…,T)を算出する。
なお、乗員情報、環境情報、車両情報は、複数のタイムステップを含んでいるため、統合によって得られた特徴ベクトルも、タイムステップの数に応じた多次元ベクトルとなる。以降、統合によって得られる特徴ベクトルF(t)を評価データ(本発明における第一の特徴ベクトル)と称する。
Returning to the description of each element constituting the driving support device 1.
The feature vector calculation unit 14 is a means for integrating the occupant information output by the occupant information acquisition unit 11, the environmental information output by the environmental information acquisition unit 12, and the vehicle information output by the vehicle information acquisition unit 13.
Specifically, the occupant information P (t), the environmental information E (t), and the vehicle information C (t) are connected, and the feature vector F (t) = (P (t), E (P (t), E) at time t. t), C (t)) (t = 1, 2, ..., T) are calculated.
Since the occupant information, the environmental information, and the vehicle information include a plurality of time steps, the feature vector obtained by the integration is also a multidimensional vector according to the number of time steps. Hereinafter, the feature vector F (t) obtained by the integration will be referred to as evaluation data (first feature vector in the present invention).

正常データ記憶部15は、優良運転者が行った運転(危険な事象が含まれていない運転。以下、平常運転と称する)に基づいて生成された特徴ベクトルF’(t)(t=1,2,…,T’)を記憶する手段である。なお、ここで用いるT’は、評価データF(t)の算出に用いた値Tと同じであってもよいし、異なってもよい。以降、平常運転に基づいて生成した特徴ベクトルF’(t)を正常データ(本発明における第二の特徴ベクトル)と称する。 The normal data storage unit 15 has a feature vector F'(t) (t = 1,) generated based on a driving performed by a good driver (driving that does not include a dangerous event; hereinafter referred to as normal driving). 2, ..., T') is a means of memorizing. The T'used here may be the same as or different from the value T used for calculating the evaluation data F (t). Hereinafter, the feature vector F'(t) generated based on the normal operation will be referred to as normal data (second feature vector in the present invention).

なお、正常データ記憶部15が記憶する正常データF’(t)は、一人の運転者に平常運転をさせることで生成してもよいが、年齢や性別など、様々なタイプの複数人に平常運転をさせることで生成するようにしてもよい。
また、正常データは、外部装置を用いて生成してもよいし、運転支援装置1を用いて生成してもよい。運転支援装置1を用いて正常データを生成する場合、特徴ベクトル算出部14が算出した特徴ベクトルを、正常データとして正常データ記憶部15に記憶させるようにすればよい(図1の点線)。
The normal data F'(t) stored in the normal data storage unit 15 may be generated by having one driver perform normal operation, but it is normal for a plurality of people of various types such as age and gender. It may be generated by driving.
Further, the normal data may be generated by using an external device or may be generated by using the driving support device 1. When the normal data is generated by using the driving support device 1, the feature vector calculated by the feature vector calculation unit 14 may be stored in the normal data storage unit 15 as normal data (dotted line in FIG. 1).

また、正常データを生成するための運転を行う運転者と、運転支援装置1によって評価を受ける運転者は同一人物であってもよい。例えば、ある運転者が平常運転を行うことで正常データを生成した後で、同一の運転者が、運転支援装置1によって評価を受けてもよい。また、正常データを、ネットワーク経由で取得ないし更新できるようにしてもよい。 Further, the driver who performs the driving for generating normal data and the driver who is evaluated by the driving support device 1 may be the same person. For example, after a certain driver performs normal operation to generate normal data, the same driver may be evaluated by the driving support device 1. Further, normal data may be acquired or updated via the network.

特徴ベクトル算出部14が算出した評価データ(すなわち、評価対象である運転に対応する特徴ベクトル)と、正常データ記憶部15に記憶された正常データ(すなわち、平常運転に対応する特徴ベクトル)は、比較部16へ送信され、比較が行われる。 The evaluation data calculated by the feature vector calculation unit 14 (that is, the feature vector corresponding to the operation to be evaluated) and the normal data stored in the normal data storage unit 15 (that is, the feature vector corresponding to the normal operation) are It is transmitted to the comparison unit 16 and the comparison is performed.

比較部16は、正常データ記憶部15に記憶された特徴ベクトル(正常データ)と、特徴ベクトル算出部14が算出した特徴ベクトル(評価データ)との統計的分布の相違Dを算出する手段である。
本実施形態では、T個の時系列特徴量F(0),F(1),F(2),…,F(T)からなる標本が従う確率密度と、T’個の時系列特徴量F’(0),F’(1),F’(2),…,F’(T’)からなる標本が従う確率密度と、に基づいて、二つの特徴ベクトルの統計的分布の相違Dを推定する。
The comparison unit 16 is a means for calculating the difference D in the statistical distribution between the feature vector (normal data) stored in the normal data storage unit 15 and the feature vector (evaluation data) calculated by the feature vector calculation unit 14. ..
In this embodiment, the probability density followed by a sample consisting of T time-series features F (0), F (1), F (2), ..., F (T) and T'time-series features Difference in statistical distribution of two feature vectors based on the probability density followed by a sample consisting of F'(0), F'(1), F'(2), ..., F'(T') D To estimate.

例えば、非特許文献5および6に記載されているような密度比推定法を用いて、T個の特徴ベクトルF(0),…,F(T)に対する確率密度と、T’個の特徴ベクトルF’(0),…,F’(T’)に対する確率密度の比(密度比)を推定し、得られた密度の比に基づいて相違Dを算出すればよい。確率密度比は、例えば、非特許文献5に記載の相対密度比推定法、非特許文献6に記載の最小二乗密度比適合法、確率的分類法、積率適合法などによって算出することができる。
あるいは、相違Dは、たとえば、T個の特徴ベクトルF(0),…,F(T)に対する確率密度と、T’個の特徴ベクトルF’(0),…,F’(T’)に対する確率密度の差(密度差)を推定し、得られた密度差に基づいて算出してもよい。確率密度差は、たとえば、非特許文献7に記載の確率密度差推定法によって算出することができる。
For example, using the density ratio estimation method as described in Non-Patent Documents 5 and 6, the probability densities for T feature vectors F (0), ..., F (T) and T'feature vectors. The ratio of the probability densities to F'(0), ..., F'(T') (density ratio) may be estimated, and the difference D may be calculated based on the obtained density ratio. The probability density ratio can be calculated by, for example, the relative density ratio estimation method described in Non-Patent Document 5, the minimum square density ratio matching method described in Non-Patent Document 6, the probabilistic classification method, the product factor matching method, or the like. ..
Alternatively, the difference D is, for example, the probability density for T feature vectors F (0), ..., F (T) and for T'feature vectors F'(0), ..., F'(T'). The difference in probability density (density difference) may be estimated and calculated based on the obtained density difference. The probability density difference can be calculated by, for example, the probability density difference estimation method described in Non-Patent Document 7.

画像表示部17は、比較部16が算出した相違Dを、直感的かつ分かりやすい図形で描写し、車両運転者に提示する手段である。ここで、比較部16が算出した相違Dが大きければ大きいほど危険運転の可能性が高く、小さければ小さいほど平常運転である可能性が高いことが推定できる。よって、図5に示したように、相違Dの大きさによって変化(アニメーション)する図形を描画してもよい。このようにすることで、車両運転者に対して危険な状態が発生していることを通知し、注意を促すことができる。なお、画像表示部17は、図形以外にも、文字(テキスト)出力によって相違Dを車両運転者に提示してもよい。 The image display unit 17 is a means for drawing the difference D calculated by the comparison unit 16 in an intuitive and easy-to-understand figure and presenting it to the vehicle driver. Here, it can be estimated that the larger the difference D calculated by the comparison unit 16, the higher the possibility of dangerous driving, and the smaller the difference D, the higher the possibility of normal driving. Therefore, as shown in FIG. 5, a figure that changes (animates) depending on the magnitude of the difference D may be drawn. By doing so, it is possible to notify the vehicle driver that a dangerous state has occurred and call attention to it. In addition to the graphic, the image display unit 17 may present the difference D to the vehicle driver by outputting characters (text).

なお、ここでは、相違Dを常に提示する例を挙げたが、相違Dの大きさが所定の閾値よりも大きい場合にのみ、表示を行うようにしてもよい。すなわち、危険運転の可能性が高い状況が発生している場合のみ、視覚情報による提示を行うようにしてもよい。ここで用いる閾値は、たとえば、交差確認法を用いて算出することができる。 Although the example in which the difference D is always presented is given here, the display may be performed only when the magnitude of the difference D is larger than a predetermined threshold value. That is, the presentation by visual information may be performed only when a situation in which there is a high possibility of dangerous driving occurs. The threshold value used here can be calculated using, for example, the intersection confirmation method.

刺激発生部18は、比較部16で得られた相違Dの大きさに基づいて、車両運転者に刺激(例えば、振動や音声による警告)を与える手段である。例えば、相違Dの大きさに応じて座席やステアリングホイールを振動(バイブレーション)させてもよい。また、シートベルトの締め付け強さを制御することで振動を発生させてもよい。
あるいは、相違Dの大きさに応じて警告音を発してもよい。または、相違Dの大きさに応じて「安全運転ですね。その調子。」「注意力が散漫のようです。気を付けて。」「お疲れではないですか?次のサービスエリアで休憩してみてはいかがですか?」といった音声で注意を促してもよい。
なお、刺激についても、相違Dの大きさが所定の閾値よりも大きい場合にのみ発生させるようにしてもよい。
The stimulus generation unit 18 is a means for giving a stimulus (for example, vibration or voice warning) to the vehicle driver based on the magnitude of the difference D obtained in the comparison unit 16. For example, the seat or steering wheel may be vibrated according to the magnitude of the difference D. Further, vibration may be generated by controlling the tightening strength of the seat belt.
Alternatively, a warning sound may be emitted depending on the magnitude of the difference D. Or, depending on the size of the difference D, "It's safe driving. That's how it is.""It seems that you are distracted. Be careful.""Are you tired? Take a break in the next service area. You may call your attention with a voice such as "Why don't you try it?"
It should be noted that the stimulus may be generated only when the magnitude of the difference D is larger than a predetermined threshold value.

次に、本実施形態に係る運転支援装置1が行う処理の流れについて説明する。
図6(A)は、正常データの生成を説明するフローチャートである。
まず、ステップS11において、乗員情報取得部11、環境情報取得部12、車両情報取得部13が、平常運転(危険運転でない状態)における乗員情報、環境情報、車両情報をそれぞれ収集する。
次に、ステップS12において、特徴ベクトル算出部14が、収集された情報を用いて特徴ベクトルを算出する。
次に、ステップS13において、特徴ベクトル算出部14が、ステップS12で算出した特徴ベクトルを正常データとして正常データ記憶部15に格納する。
Next, the flow of processing performed by the driving support device 1 according to the present embodiment will be described.
FIG. 6A is a flowchart illustrating the generation of normal data.
First, in step S11, the occupant information acquisition unit 11, the environmental information acquisition unit 12, and the vehicle information acquisition unit 13 collect occupant information, environmental information, and vehicle information in normal driving (not dangerous driving), respectively.
Next, in step S12, the feature vector calculation unit 14 calculates the feature vector using the collected information.
Next, in step S13, the feature vector calculation unit 14 stores the feature vector calculated in step S12 as normal data in the normal data storage unit 15.

図6(B)は、運転の評価を行う処理を説明するフローチャートである。図6(B)に記載された処理は、たとえば車両の走行中において周期的に実行される。
まず、ステップS21において、乗員情報取得部11、環境情報取得部12、車両情報取得部13が、乗員情報、環境情報、車両情報をそれぞれ収集する。
次に、ステップS22において、特徴ベクトル算出部14が、収集された情報を用いて特徴ベクトルを算出する。
次に、ステップS23において、比較部16が、ステップS22で算出された特徴ベクトル(評価データ)と、正常データ記憶部15に格納されている平常運転時の特徴ベクトル(正常データ)との統計的分布の相違Dを算出する。
そして、ステップS24において、画像表示部17および刺激発生部18が、ステップS23で算出された相違Dの大きさに応じて、画像出力や刺激の付与を行うことで車両運転者に対して注意喚起を行う。
FIG. 6B is a flowchart illustrating a process of evaluating the operation. The process described in FIG. 6B is periodically executed, for example, while the vehicle is running.
First, in step S21, the occupant information acquisition unit 11, the environment information acquisition unit 12, and the vehicle information acquisition unit 13 collect occupant information, environment information, and vehicle information, respectively.
Next, in step S22, the feature vector calculation unit 14 calculates the feature vector using the collected information.
Next, in step S23, the comparison unit 16 statistically obtains the feature vector (evaluation data) calculated in step S22 and the feature vector (normal data) during normal operation stored in the normal data storage unit 15. Calculate the difference D in the distribution.
Then, in step S24, the image display unit 17 and the stimulus generation unit 18 alert the vehicle driver by outputting an image or giving a stimulus according to the magnitude of the difference D calculated in step S23. I do.

以上説明したように、本実施形態に係る運転支援装置は、乗員情報、環境情報、車両情報の3つの情報に基づいて特徴ベクトルを算出する。このような多角的な複数の情報に基づいて特徴ベクトルを算出することで、複雑な要因の絡んだ危険を検知することができる。
また、本実施形態に係る運転支援装置は、優良運転者から抽出した特徴ベクトルの統計的分布と、評価対象運転者から抽出した特徴ベクトルの統計的分布との相違に基づいて、危険度を算出する。このようなアプローチによれば、容易に定義できる顕在的な危険だけでなく、人が直接定義することが困難な潜在的な危険を検知することができる。
また、車両運転者に刺激を与えることで、危険な状態に陥ることを未然に防止することができる。
As described above, the driving support device according to the present embodiment calculates the feature vector based on the three pieces of information of the occupant information, the environmental information, and the vehicle information. By calculating the feature vector based on such a plurality of multifaceted information, it is possible to detect a danger involving complicated factors.
Further, the driving support device according to the present embodiment calculates the degree of risk based on the difference between the statistical distribution of the feature vector extracted from the excellent driver and the statistical distribution of the feature vector extracted from the evaluation target driver. To do. With such an approach, it is possible to detect not only overt dangers that can be easily defined, but also potential dangers that are difficult for humans to define directly.
In addition, by stimulating the vehicle driver, it is possible to prevent a dangerous state from occurring.

従来技術では、複数の要因が複雑に絡んだパターンを検知することが難しかった。これに対して、本実施形態に係る運転支援装置は、統計的分布の相違を、先進的な機械学習手法である密度比推定法、あるいは、密度差推定法を用いて算出する。これにより、複数の要因が複雑に絡んだ異常パターンを検知することができ、危険運転を精度良く検出することができる。 With the prior art, it has been difficult to detect a pattern in which a plurality of factors are intricately entwined. On the other hand, the driving support device according to the present embodiment calculates the difference in the statistical distribution by using the density ratio estimation method or the density difference estimation method, which is an advanced machine learning method. As a result, it is possible to detect an abnormal pattern in which a plurality of factors are complicatedly entwined, and it is possible to accurately detect dangerous driving.

(変形例)
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、実施形態の説明では、評価時と正常運転時の時系列特徴量の統計的分布の相違に基づいて画像表示や刺激の発生を行っているが、危険運転を検知した場合に、通知を他の装置に対して出力するようにしてもよい。
(Modification example)
The above embodiment is merely an example, and the present invention can be appropriately modified and implemented without departing from the gist thereof.
For example, in the description of the embodiment, the image is displayed and the stimulus is generated based on the difference in the statistical distribution of the time-series features during the evaluation and the normal operation, but when a dangerous driving is detected, a notification is sent. The output may be made to another device.

また、実施形態の説明では、運転支援装置1が正常データを生成するものとしたが、正常データを、他の装置によって生成し、運転支援装置1の正常データ記憶部に格納するようにしてもよい。 Further, in the description of the embodiment, it is assumed that the driving support device 1 generates normal data, but the normal data may be generated by another device and stored in the normal data storage unit of the driving support device 1. Good.

また、実施形態の説明では、正常データを装置内に保持するものとしたが、正常データを装置の外部からその都度取得するようにしてもよい。また、運転支援装置1は、必ずしも車載されている必要はない。例えば、車載端末から情報を取得し、比較を行った結果を当該車載端末に送信するように構成されたサーバ装置として実施することもできる。 Further, in the description of the embodiment, the normal data is held in the device, but the normal data may be acquired from the outside of the device each time. Further, the driving support device 1 does not necessarily have to be mounted on the vehicle. For example, it can be implemented as a server device configured to acquire information from an in-vehicle terminal and transmit the result of comparison to the in-vehicle terminal.

1・・・運転支援装置
11・・・乗員情報取得部
12・・・環境情報取得部
13・・・車両情報取得部
14・・・特徴ベクトル算出部
15・・・正常データ記憶部
16・・・比較部
17・・・画像表示部
18・・・刺激発生部
1 ... Driving support device 11 ... Crew information acquisition unit 12 ... Environmental information acquisition unit 13 ... Vehicle information acquisition unit 14 ... Feature vector calculation unit 15 ... Normal data storage unit 16 ...・ Comparison unit 17 ・ ・ ・ Image display unit 18 ・ ・ ・ Stimulation generation unit

Claims (11)

車両の危険な運転状態を検知する運転支援装置であって、
前記車両の運転者に関する情報である乗員情報を取得する乗員情報取得手段と、
前記車両の外部環境に関する情報である環境情報を取得する環境情報取得手段と、
前記車両に関する情報である車両情報を取得する車両情報取得手段と、
前記乗員情報と、前記環境情報と、前記車両情報と、に基づいて、評価対象の運転に対応する特徴ベクトルである第一の特徴ベクトルを取得する第一の特徴ベクトル取得手段と、
正常な運転に対応する前記特徴ベクトルである第二の特徴ベクトルを取得する第二の特徴ベクトル取得手段と、
前記第一の特徴ベクトルと、第二の特徴ベクトルとの統計的分布の相違に基づいて、前記評価対象の運転に対する危険度を算出する危険度算出手段と、
を有し、
前記危険度算出手段は、前記第一の特徴ベクトルと、前記第二の特徴ベクトルとの確率密度の比または差に基づいて前記統計的分布の相違を算出する、
運転支援装置。
A driving support device that detects dangerous driving conditions of a vehicle.
Crew information acquisition means for acquiring occupant information, which is information about the driver of the vehicle, and
Environmental information acquisition means for acquiring environmental information, which is information on the external environment of the vehicle, and
Vehicle information acquisition means for acquiring vehicle information which is information about the vehicle, and
A first feature vector acquisition means for acquiring a first feature vector, which is a feature vector corresponding to the driving to be evaluated, based on the occupant information, the environmental information, and the vehicle information.
A second feature vector acquisition means for acquiring the second feature vector, which is the feature vector corresponding to normal operation, and
A risk calculation means for calculating the risk to the driving of the evaluation target based on the difference in the statistical distribution between the first feature vector and the second feature vector.
Have a,
The risk calculation means calculates the difference in the statistical distribution based on the ratio or difference of the probability densities between the first feature vector and the second feature vector.
Driving support device.
前記乗員情報、前記環境情報、前記車両情報は、それぞれ時系列データで表された複数の特徴量を要素に持つ多次元ベクトルである、
請求項1に記載の運転支援装置。
The occupant information, the environmental information, and the vehicle information are multidimensional vectors each having a plurality of feature quantities represented by time series data as elements.
The driving support device according to claim 1.
前記乗員情報は、乗員の視線位置、顔の向き、バイタル値、運転行動を分類した行動ラベル、のうち少なくとも一つを要素に持つ多次元ベクトルである、
請求項2に記載の運転支援装置。
The occupant information is a multidimensional vector having at least one of the occupant's line-of-sight position, face orientation, vital value, and behavior label that classifies driving behavior as elements.
The driving support device according to claim 2.
前記環境情報は、車両外の天気、路面状況、障害物の位置に関する情報、のうち少なくとも一つを要素に持つ多次元ベクトルである、
請求項2または3に記載の運転支援装置。
The environmental information is a multidimensional vector having at least one of information on the weather outside the vehicle, the road surface condition, and the position of an obstacle as an element.
The driving support device according to claim 2 or 3.
前記車両情報は、車両の速度、加速度、舵角、ヨーレート、のうち少なくとも一つを要素に持つ多次元ベクトルである、
請求項2から4のいずれかに記載の運転支援装置。
The vehicle information is a multidimensional vector having at least one of the vehicle speed, acceleration, steering angle, and yaw rate as an element.
The driving support device according to any one of claims 2 to 4.
前記統計的分布の相違の大きさを可視化し、前記運転者に提示する表示手段をさらに備える、
請求項1からのいずれか1項に記載の運転支援装置。
Further provided with a display means for visualizing the magnitude of the difference in the statistical distribution and presenting it to the driver.
The driving support device according to any one of claims 1 to 5 .
前記統計的分布の相違の大きさに基づいて、前記運転者に刺激を与える刺激発生手段をさらに備える、
請求項1からのいずれか1項に記載の運転支援装置。
Further provided with a stimulus generating means for stimulating the driver based on the magnitude of the difference in the statistical distribution.
The driving support device according to any one of claims 1 to 6 .
前記刺激発生手段は、前記統計的分布の相違の大きさに基づいて運転席の少なくとも一部を振動させる、
請求項に記載の運転支援装置。
The stimulus generating means vibrates at least a part of the driver's seat based on the magnitude of the difference in the statistical distribution.
The driving support device according to claim 7 .
前記刺激発生手段は、前記統計的分布の相違の大きさに基づいて警告音を発する、
請求項またはに記載の運転支援装置。
The stimulus generating means emits a warning sound based on the magnitude of the difference in the statistical distribution.
The driving support device according to claim 7 or 8 .
車両の危険な運転状態を検知する運転支援装置が行う運転支援方法であって、
前記車両の運転者に関する情報である乗員情報を取得する乗員情報取得ステップと、
前記車両の外部環境に関する情報である環境情報を取得する環境情報取得ステップと、
前記車両に関する情報である車両情報を取得する車両情報取得ステップと、
前記乗員情報と、前記環境情報と、前記車両情報と、に基づいて、評価対象の運転に対応する特徴ベクトルである第一の特徴ベクトルを取得する第一の特徴ベクトル取得ステップと、
正常な運転に対応する前記特徴ベクトルである第二の特徴ベクトルを取得する第二の特徴ベクトル取得ステップと、
前記第一の特徴ベクトルと、第二の特徴ベクトルとの統計的分布の相違に基づいて、前記評価対象の運転に対する危険度を算出する危険度算出ステップと、
を含み、
前記危険度算出ステップでは、前記第一の特徴ベクトルと、前記第二の特徴ベクトルとの確率密度の比または差に基づいて前記統計的分布の相違を算出する、
運転支援方法。
It is a driving support method performed by a driving support device that detects a dangerous driving state of a vehicle.
The occupant information acquisition step for acquiring occupant information, which is information about the driver of the vehicle, and
An environmental information acquisition step for acquiring environmental information, which is information on the external environment of the vehicle, and
A vehicle information acquisition step for acquiring vehicle information, which is information about the vehicle, and
A first feature vector acquisition step for acquiring a first feature vector, which is a feature vector corresponding to the driving to be evaluated, based on the occupant information, the environmental information, and the vehicle information.
A second feature vector acquisition step for acquiring the second feature vector, which is the feature vector corresponding to normal operation, and
A risk calculation step for calculating the risk to the driving of the evaluation target based on the difference in the statistical distribution between the first feature vector and the second feature vector.
Only including,
In the risk calculation step, the difference in the statistical distribution is calculated based on the ratio or difference of the probability densities between the first feature vector and the second feature vector.
Driving support method.
請求項10に記載の運転支援方法をコンピュータに実行させるプログラム。 A program that causes a computer to execute the driving support method according to claim 10 .
JP2016225068A 2016-11-18 2016-11-18 Driving support device and driving support method Active JP6772775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016225068A JP6772775B2 (en) 2016-11-18 2016-11-18 Driving support device and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016225068A JP6772775B2 (en) 2016-11-18 2016-11-18 Driving support device and driving support method

Publications (2)

Publication Number Publication Date
JP2018081622A JP2018081622A (en) 2018-05-24
JP6772775B2 true JP6772775B2 (en) 2020-10-21

Family

ID=62198942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016225068A Active JP6772775B2 (en) 2016-11-18 2016-11-18 Driving support device and driving support method

Country Status (1)

Country Link
JP (1) JP6772775B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022119498A (en) * 2021-02-04 2022-08-17 本田技研工業株式会社 Seat belt device for vehicle
CN114084154B (en) * 2021-09-30 2024-03-15 广州文远知行科技有限公司 Automatic driving system parameter configuration method, device and system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002331850A (en) * 2001-05-07 2002-11-19 Nissan Motor Co Ltd Driving behavior intention detector
JP4277081B2 (en) * 2004-03-17 2009-06-10 株式会社デンソー Driving assistance device
JP5854133B2 (en) * 2012-06-05 2016-02-09 トヨタ自動車株式会社 Driving characteristic estimation device and driving support system

Also Published As

Publication number Publication date
JP2018081622A (en) 2018-05-24

Similar Documents

Publication Publication Date Title
CN108394414B (en) Wakefulness determination system and wakefulness determination method
US10848913B2 (en) Method for smartphone-based accident detection
JP6497915B2 (en) Driving support system
JP4803490B2 (en) Driver state estimation device and driving support device
US8593519B2 (en) Field watch apparatus
JP4791874B2 (en) Driving support device and driving action determination device
EP2201496B1 (en) Inattentive state determination device and method of determining inattentive state
JP5521893B2 (en) Driving support system, in-vehicle device
US9662977B2 (en) Driver state monitoring system
JP4867215B2 (en) Physiological / psychological state determination device, physiological / psychological state determination method, reference data generation device, and reference data generation method.
JP5045492B2 (en) Awakening level estimation device
JP6323510B2 (en) Driver condition detection apparatus and method
JP2019195377A (en) Data processing device, monitoring system, awakening system, data processing method, and data processing program
JP2012084068A (en) Image analyzer
JP2008140118A (en) Hazard motion detection device and hazard motion detection method
JP6772775B2 (en) Driving support device and driving support method
JP6459856B2 (en) Vehicle driving support device, vehicle driving support method, and program
JP2020021409A (en) Information collection method, information collection system, and information collection program
US20180357494A1 (en) Method and system for automatic calibration of an operator monitor
US20200391754A1 (en) Driver assistance device that can be mounted on a vehicle
JP6731481B2 (en) Method and apparatus for classifying at least one eye opening data of a vehicle occupant, and method and apparatus for detecting drowsiness and/or microsleep of a vehicle occupant
US10945651B2 (en) Arousal level determination device
NAREJO et al. Development of vehicle driver drowsiness detection system using eye aspect ratio
JP2011086186A (en) Sleepiness determination apparatus
CN115320626B (en) Danger perception capability prediction method and device based on human-vehicle state and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R151 Written notification of patent or utility model registration

Ref document number: 6772775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151