JP6459856B2 - Vehicle driving support device, vehicle driving support method, and program - Google Patents
Vehicle driving support device, vehicle driving support method, and program Download PDFInfo
- Publication number
- JP6459856B2 JP6459856B2 JP2015168638A JP2015168638A JP6459856B2 JP 6459856 B2 JP6459856 B2 JP 6459856B2 JP 2015168638 A JP2015168638 A JP 2015168638A JP 2015168638 A JP2015168638 A JP 2015168638A JP 6459856 B2 JP6459856 B2 JP 6459856B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- vehicle
- difference
- vehicle driver
- series feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Eye Examination Apparatus (AREA)
Description
本発明は車両運転支援装置に係り、特に、車両運転者が漫然運転を行う可能性を推定するうえで好適な車両運転支援装置に関する。 The present invention relates to a vehicle driving support device, and more particularly to a vehicle driving support device that is suitable for estimating the possibility that a vehicle driver will perform random driving.
車両運転者の漫然運転を検知する方法として、たとえば、特許文献1のような方法が提
案されている。特許文献1では、あらかじめ、漫然運転時における車両運転者の注視情報
の統計的分布を定義し、評価時に得られた車両運転者の注視情報の統計的分布との類似性を評価することで、漫然運転の可能性を推定する。
For example, a method as disclosed in
また、車両運転者の漫然運転を検知する方法として、たとえば、特許文献2のような方
法が提案されている。特許文献2では、車両運転者の視線方向を所定時間検出して、視線
方向の分布を示す視線分布情報を生成する。そして、得られた視線分布情報によって示される分布の所定位置(例えば中心位置)が、あらかじめ定義した基準情報により示される漫然運転でない状態の視線方向の標準的な位置よりも上方向に所定閾値以上離れている場合、漫然運転であると判定する。
Further, for example, a method as disclosed in
また、車両運転者の漫然運転を防止するための方法として、たとえば、特許文献3のよ
うな方法が提案されている。特許文献3では、あらかじめ用意した注意モデルとその時々
で検出される特定情報とに基づいて、オブジェクト、画像情報、各特定情報に基づく注意分布である個別分布を生成する。また、これら個別分布を、同じ重みまたは個々に重み付けして統合した注意分布である統合分布を生成することにより、車両運転者の注意が向けられている位置(注視点)を確率的に推定する。さらに、前方画像から抽出した各オブジェクトに対する車両運転者の注意量を前記統合分布に従って算出する。最終的に、前記注意量に基づいて、車両運転者が認識すべき物体に関する情報を表示や音声、振動等によって提供する。
Further, as a method for preventing the vehicle driver from driving freely, for example, a method as disclosed in
しかしながら、上記の特許文献1-3に開示される技術は次のような問題を有する。 However, the techniques disclosed in the above Patent Documents 1-3 have the following problems.
特許文献1は、あらかじめ、漫然運転時における車両運転者の注視情報の統計的分布を
定義し、評価時に得られた車両運転者の注視情報の統計的分布との類似性を評価することで、漫然運転である可能性を推定している。したがって、特許文献1のような手法には、
漫然運転時における車両運転者の注視情報の統計的分布としてあらかじめ定義していないものに対しては推定精度が低下する問題というがある。
There is a problem that the estimation accuracy is reduced for a statistical distribution of the gaze information of the vehicle driver at the time of casual driving.
また、特許文献2は、車両運転者の視線分布情報によって示される分布の所定位置と、
あらかじめ記憶された基準情報により示される漫然運転でない状態の視線方向の標準的な位置との相違に基づいて、漫然運転である可能性を推定している。特許文献2のような手
法には、漫然運転時と漫然運転時でない状態との視線分布情報の相違が標準的な位置ではなく、統計的分布の相違(たとえば、尖度、歪度、分散など)に表れる場合に推定精度が低下する問題というがある。
Based on the difference from the standard position in the line-of-sight direction in the state that is not the random driving indicated by the reference information stored in advance, the possibility of the random driving is estimated. In the technique such as
また、特許文献3は、あらかじめ用意した注意モデルとその時々で検出される特定情報
とに基づいて、オブジェクト、画像情報、各特定情報に基づく注意分布である個別分布し、同じ重み又は個々に重み付けして統合した注意分布を生成している。特許文献3のよう
な手法には、個別分布に対する最適な重みを設定できない場合に推定精度が低下する問題というがある。
Further,
上記の問題点を考慮して、本発明は、漫然運転を精度良く推定可能な技術を提供することを目的とする。 In view of the above-described problems, an object of the present invention is to provide a technique capable of accurately estimating a rough driving.
本発明の第1の態様は、車両運転者の漫然運転を検知する車両運転支援装置であって、
車両の前方方向の画像を取得する画像取得手段と、車両運転者の注視情報を抽出する注視情報抽出手段と、前記車両運転者の評価時における注視情報に基づいて時系列特徴量を算出する時系列特徴量算出手段と、正常運転時における注視情報に基づく時系列特徴量を格納する正常データ格納手段と、前記正常運転時と前記評価時における前記時系列特徴量の相違を算出する相違算出手段と、前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知手段と、を備える。
A first aspect of the present invention is a vehicle driving support device for detecting a vague driving of a vehicle driver,
An image acquisition means for acquiring an image in the forward direction of the vehicle, a gaze information extraction means for extracting gaze information of the vehicle driver, and a time series feature amount based on the gaze information at the time of evaluation of the vehicle driver Series feature quantity calculation means, normal data storage means for storing time series feature quantities based on gaze information during normal operation, and difference calculation means for calculating differences between the time series feature quantities during the normal operation and during the evaluation And a rough driving detection means for detecting the rough driving of the vehicle driver based on the magnitude of the difference.
本発明の第2の態様は、車両運転者の漫然運転を検知する車両運転支援方法であって、
車両の前方方向の画像を取得する画像取得ステップと、車両運転者の注視情報を抽出する注視情報抽出ステップと、前記車両運転者の評価時における注視情報に基づいて時系列特
徴量を算出する時系列特徴量算出ステップと、前記評価データ算出ステップにおいて算出された時系列特徴量と、あらかじめ算出された正常運転時における注視情報に基づく時系列特徴量と、の相違を算出する相違算出ステップと、前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知ステップと、を含む。
A second aspect of the present invention is a vehicle driving support method for detecting a vague driving of a vehicle driver,
An image acquisition step for acquiring an image in the forward direction of the vehicle, a gaze information extraction step for extracting gaze information of the vehicle driver, and a time series feature amount based on the gaze information at the time of evaluation of the vehicle driver A difference calculation step of calculating a difference between the time series feature quantity calculated in the series feature quantity calculation step, the time series feature quantity calculated in the evaluation data calculation step, and the time series feature quantity based on gaze information calculated in normal operation in advance; And a rough driving detection step of detecting the rough driving of the vehicle driver based on the magnitude of the difference.
本発明によれば、漫然運転の推定精度を向上することができる。 According to the present invention, it is possible to improve the estimation accuracy of the casual driving.
<第1の実施形態>
本発明の第1の実施形態について、図1〜図4を参照して説明する。
<First Embodiment>
A first embodiment of the present invention will be described with reference to FIGS.
(構成)
図1(A)は、本発明の第1の実施形態に係る車両運転支援装置1の概略構成を示すブロック図である。本実施形態に係る車両運転支援装置は、半導体集積回路(LSI)を用いて実現で
きる。車両運転支援装置1は、図1(A)に示すように、注視情報抽出部11、時系列特徴量算
出部12、正常データ格納部13、評価データ格納部14、相違算出部15、相違提示部16、刺激発生部17を有する。これらの構成要素は車両運転支援装置1が果たす機能にそれぞれ対応
している。
(Constitution)
FIG. 1 (A) is a block diagram showing a schematic configuration of the vehicle
注視情報抽出部11は、車両運転者の視線位置を抽出する。注視情報抽出部11は、車両の前方方向を撮影した画像(以下、前方画像と呼ぶ)と、車両運転者の眼を撮影した画像(以下、眼画像と呼ぶ)を、車両に設けられたカメラなどの車両運転支援装置1の外部の装
置から取得する。注視情報抽出部11は、前方画像と眼画像を解析して、図2のように、時
刻tにおける前方画像中の車両運転者の視線位置(xe(t), ye(t))を抽出する。また、注視
情報抽出部11は、得られた時刻tにおける注視情報f(t)=(xe(t),ye(t))を時系列特徴量算
出部12に出力する。
The gaze information extraction unit 11 extracts the gaze position of the vehicle driver. The gaze information extraction unit 11 is a camera provided on the vehicle, which is an image obtained by photographing the front direction of the vehicle (hereinafter referred to as a front image) and an image obtained by photographing the eyes of the vehicle driver (hereinafter referred to as an eye image). Or the like from a device external to the vehicle
ここで、車両運転者の視線方向は、たとえば、特許文献4の視線方向検出方法のように
、可視光感知カメラと赤外光感知カメラによって撮影された2つの眼画像の差分画像を適
当な閾値と比較することにより虹彩部分を抽出して視線方向を検出することができる。そして、眼画像を撮影するカメラと前方画像を撮影するカメラの位置関係等に基づいて、車両運転者の時刻tにおける視線位置(xe(t),ye(t))を検出することができる。
Here, the line-of-sight direction of the vehicle driver is, for example, a difference image between two eye images captured by a visible light-sensitive camera and an infrared light-sensitive camera, as in the line-of-sight detection method of
時系列特徴量算出部12は、注視情報抽出部11で得られた注視情報f(t)を用いて時系列特徴量F(t)を算出し、正常データ格納部13および評価データ格納部14に出力する。具体的には、図3のように、時間的に連続したK個の注視情報f(t)を連結して時系列特徴量F(t)を算出する。
The time-series feature
たとえば、K=3の場合、時刻t=0における時系列特徴量F(0)は、
F(0)=(f(0), f(1), f(2))=(xe(0), ye(0), xe(1), ye(1), xe(2), ye(2))
の6(2×K)次元のベクトルで与えられる。また、時刻t=1における時系列特徴量F(1)は、
F(1)=(f(1), f(2), f(3))=(xe(1), ye(1), xe(2), ye(2), xe(3), ye(3))
の6(2×K)次元のベクトルで与えられる。さらに、時刻t=2における時系列特徴量F(2)は、
F(2)=(f(2), f(3), f(4))=(xe(2), ye(2), xe(3), ye(3), xe(4), ye(4))
の6(2×K)次元のベクトルで与えられる。以下同様の手順で、時系列特徴量F(3), F(4),…を算出することができる。ここで、時刻t=0, 1, 2, …は、この順番で連続した時刻(
タイムステップ)である。
For example, when K = 3, the time-series feature amount F (0) at time t = 0 is
F (0) = (f (0), f (1), f (2)) = (x e (0), y e (0), x e (1), y e (1), x e ( 2), y e (2))
Of 6 (2 × K) dimensional vectors. In addition, the time-series feature amount F (1) at time t = 1 is
F (1) = (f (1), f (2), f (3)) = (x e (1), y e (1), x e (2), y e (2), x e ( 3), y e (3))
Of 6 (2 × K) dimensional vectors. Furthermore, the time-series feature amount F (2) at time t = 2 is
F (2) = (f (2), f (3), f (4)) = (x e (2), y e (2), x e (3), y e (3), x e ( 4), y e (4))
Of 6 (2 × K) dimensional vectors. Thereafter, time-series feature values F (3), F (4),... Can be calculated in the same procedure. Here, the times t = 0, 1, 2, ... are consecutive times in this order (
Time step).
ここで、注視情報の連結数Kは、試行錯誤的に決定すればよい。あるいは、システム全
体に要求される漫然運転の識別性能に応じて決定してもよい。あるいは、システム全体に要求される処理時間に応じて決定してもよい。
Here, the connection number K of gaze information may be determined by trial and error. Or you may determine according to the discriminating performance of the casual driving required for the whole system. Or you may determine according to the processing time requested | required of the whole system.
ここでは、時刻tにおける時系列特徴量F(t)を、時刻tを始点とした連続したK個の注視
情報の組み合わせとする場合を説明したが、その他の方法による定義も可能である。たとえば、F(t)=(f(t-2), f(t-1), f(t))のように、時刻tを終点とした連続したK個(ここで
はK=3としている)の注視情報の組み合わせとして定義することができる。あるいは、F(t)=(f(t-1), f(t), f(t+1))のように、時刻tを中心とした連続したK個の注視情報の組み合わせとして定義してもよい。
Here, a case has been described in which the time-series feature amount F (t) at time t is a combination of continuous K pieces of gaze information starting from time t, but it can be defined by other methods. For example, F (t) = (f (t-2), f (t-1), f (t)), and so on. Can be defined as a combination of gaze information. Alternatively, it is defined as a combination of continuous K gaze information centered on time t, such as F (t) = (f (t-1), f (t), f (t + 1)) Also good.
正常データ格納部13は、あらかじめ漫然運転でない状態(以後、平常運転とよぶ)で所定時間抽出した時系列特徴量を格納し、相違算出部15に出力する。具体的には、時系列特徴量算出部12を用いて得られた時刻t=0〜Tまでの時系列特徴量F(0), F(1),…,F(T)を格納する。ここで、時間Tは、正常データ格納部12のメモリ容量の大きさに応じて決定すれば
よい。あるいは、システム全体に要求される処理速度に応じて決定してもよい。
The normal
評価データ格納部14は、評価時に所定時間抽出した時系列特徴量を格納し、相違算出部15に出力する。具体的には、時系列特徴量算出部12を用いて得られた時刻t'=0〜T'までの時系列特徴量F'(0), F'(1),…,F'(T')を格納する。ここで時間T'は、評価データ格納部14のメモリ容量の大きさに応じて決定してもよい。あるいは、システム全体に要求される処理時間に応じて決定してもよい。あるいは、正常データ格納部12における時間Tで与えて
もよい。
The evaluation
相違算出部15は、正常データ格納部13に格納したT個の時系列特徴量F(0), F(1), F(2),
…,F(T)と、評価データ格納部14に格納したT'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')との統計的分布の相違Dを算出し、相違提示部16および刺激発生部17に出力する。
ここで、2つの時系列特徴量の統計的分布の相違Dは、T個の時系列特徴量F(0), F(1), F(2),…,F(T)からなる標本が従う確率密度と、T'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')からなる標本が従う確率密度とに基づいて推定する。
The
..., F (T) and T 'time-series feature values F' (0), F '(1), F' (2), ..., F '(T') stored in the evaluation
Here, the difference D in the statistical distribution of the two time-series feature quantities is that a sample consisting of T time-series feature quantities F (0), F (1), F (2), ..., F (T) Based on the probability density followed and the probability density followed by the sample consisting of T 'time series features F' (0), F '(1), F' (2), ..., F '(T') presume.
たとえば、非特許文献1の密度比推定法を用いて、T個の時系列特徴量F(0), F(1), F(2),…,F(T)に対する確率密度と、T'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')に対
する確率密度の比(密度比)を推定し、得られた密度の比に基づいて相違Dを算出すれば
よい。確率密度比は、たとえば、非特許文献1に記載の相対密度比推定法、非特許文献2に記載の最小二乗密度比適合法、確率的分類法、積率適合法などによって算出することができる。あるいは、2つの時系列特徴量の統計的分布の相違Dは、たとえば、T個の時系列特
徴量F(0), F(1), F(2),…,F(T)に対する確率密度と、T'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')に対する確率密度の差(密度差)を推定し、得られた密度差に基づいて
算出してもよい。確率密度差は、たとえば、非特許文献3に記載の確率密度差推定法によ
って算出することができる。
For example, using the density ratio estimation method of
相違提示部16は、相違算出部15で得られた相違Dを、視覚情報の形式で車両運転者に提
示する。相違提示部16は、たとえば、相違Dを直感的に分かりやすい図形で可視化し、車
両運転者に提示する。具体的には、図4(A)のように、相違Dが大きければ大きいほど漫然
運転の可能性が高いこと(不良)、相違Dが小さければ小さいほど平常運転の可能性が高
いこと(良好)が直感的にわかるように提示すればよい。あるいは、図4(B)のような図形を用いてもよい。あるいは、図4(C)のような図形を用いてもよい。あるいは、図4(D)のような図形を用いてもよい。このように、図4(A)-4(D)のような図形を車両運転者に提示す
ることで、車両運転者に注意を促すことができる。相違提示部16は、図形以外にも、文字(テキスト)出力によって相違Dを車両運転者に提示してもよい。
The difference presentation unit 16 presents the difference D obtained by the
なお、ここでは情報提示部16が相違Dを常に提示するように説明しているが、相違Dの大きさが所定の閾値Thよりも大きい場合のみ相違Dを提示してもよい。すなわち、漫然運転
の可能性が高い場合のみ、視覚情報による提示を行うようにしてもよい。閾値Thは、たとえば、交差確認法を用いて算出することができる。
Here, the information presentation unit 16 is described to always present the difference D, but the difference D may be presented only when the magnitude of the difference D is larger than a predetermined threshold Th. That is, presentation with visual information may be performed only when there is a high possibility of casual driving. The threshold value Th can be calculated using, for example, an intersection confirmation method.
刺激発生部17は、相違算出部15で得られた相違Dに基づいて、車両運転者に刺激を与え
る。具体的には、相違Dの大きさに応じて運転席を振動(バイブレーション)させればよ
い。あるいは、相違Dの大きさに応じて車両運転者が握るハンドルを振動(バイブレーシ
ョン)させてもよい。あるいは、相違Dの大きさに応じてシートベルトの締め付け強さを
制御して振動させてもよい。あるいは、相違Dの大きさに応じて警告音を発してもよい。
あるいは、相違Dの大きさに応じて「安全運転ですね。その調子。」「注意力が散漫のよ
うです。気を付けて。」「お疲れではないですか?次のサービスエリアで休憩してみてはいかがですか?」といった音声で注意を促してもよい。また、これらの複数の手法を組み合わせて利用してもよい。
The stimulus generation unit 17 gives a stimulus to the vehicle driver based on the difference D obtained by the
Or, depending on the size of the difference D, “It ’s safe driving. That ’s how it ’s going.” “It looks like the attention is distracting.” “Would you be tired? Rest in the next service area. You may call attention with a voice such as "Would you like to try it?" Moreover, you may utilize combining these some methods.
なお、相違算出部15で得られた相違Dの大きさが所定の閾値Th'よりも小さい場合には、平常運転(漫然運転ではない)と判断して、刺激発生部17による出力は行わなくてもよい。閾値Th'は上述した閾値Thと同じ値であってもよいし異なる値であってもよい。
If the magnitude of the difference D obtained by the
(方法)
本実施形態の車両運転支援装置1が行う処理の流れについて説明する。
(Method)
A flow of processing performed by the vehicle driving
まず、図1(B)を参照して、正常データの学習処理を説明する。ステップS11において
、平常運転(漫然運転でない状態)において撮影された前方画像と眼画像を注視情報抽出部11に入力し、上述した手法により、注視情報抽出部11がこれらの画像から注視情報を抽出する。そして、ステップS12において、時系列特徴量算出部12が、抽出された注視情報
を用いて時系列特徴量を算出する。複数の平常運転に関する画像が用意されている場合には、これら複数の画像からそれぞれ注視情報の抽出および時系列特徴量の算出が行われる。ステップS13において、時系列特徴量算出部12は、ステップS12で算出した時系列特徴量を正常データとして正常データ格納部13に格納する。
First, normal data learning processing will be described with reference to FIG. In step S11, the forward image and the eye image taken in normal driving (non-manage driving) are input to the gaze information extraction unit 11, and the gaze information extraction unit 11 extracts gaze information from these images by the method described above. To do. In step S12, the time-series feature
次に、図1(C)を参照して、漫然運転検出時における処理を説明する。図1(c)に記載の処理は、たとえば運転中に定期的に繰り返し実行される。ステップS21において、運転中
に撮影された前方画像と眼画像を注視情報抽出部11に入力し、上述した手法により、注視情報抽出部11がこれらの画像から注視情報を抽出する。そして、ステップS22において、
時系列特徴量算出部12が、抽出された注視情報を用いて時系列特徴量を算出する。ステップS23において、相違算出部15は、ステップS22で算出された時系列特徴量と、正解データ格納部13に格納されている平常運転時の時系列特徴量の統計的分布の相違Dを算出する。
ステップS24において、相違提示部16および刺激発生部17が、ステップS23で算出された相違Dの大きさに応じて画像出力や刺激付与を行うことで車両運転者に対して注意喚起する
。
Next, with reference to FIG. 1 (C), a process at the time of detecting a random operation will be described. The process shown in FIG. 1 (c) is repeatedly executed periodically during operation, for example. In step S21, the forward image and the eye image taken during driving are input to the gaze information extraction unit 11, and the gaze information extraction unit 11 extracts gaze information from these images by the above-described method. And in step S22,
The time series feature
In step S24, the difference presentation unit 16 and the stimulus generation unit 17 alert the vehicle driver by outputting an image and applying a stimulus according to the magnitude of the difference D calculated in step S23.
(本実施形態の有利な効果)
本実施形態にかかる車両運転支援装置1によれば、車両運転者の漫然運転を精度良く検
出することができる。また、漫然運転の傾向を検知し、その傾向に基づいて車両運転者に刺激を与えることで、漫然運転を未然に防止することができる。
(Advantageous effects of this embodiment)
According to the vehicle driving
従来技術のように、漫然運転時に抽出した車両運転者の視線情報の統計的分布に基づいて平常運転か漫然運転かを判別する手法では、未知の異常パターンに対応できなかったり、複雑に要因の絡んだパターンを定義することが難しかったりするという問題がある。本実施形態では、平常運転時に抽出した車両運転者の視線情報の統計的分布を正解データとして記憶しておき、運転時の視線情報の統計的分布との総意に基づいて漫然運転を判定している。したがって、未知の異常パターンにも対応することができる。また、複雑な要因の絡んだ異常パターンを定義する必要もない。このように、本実施形態によれば、漫然運転を精度良く検出することが可能である。 As in the prior art, the method of discriminating between normal driving and rough driving based on the statistical distribution of vehicle driver's line-of-sight information extracted during rough driving cannot deal with unknown abnormal patterns or has complicated factors. There is a problem that it is difficult to define an entangled pattern. In this embodiment, the statistical distribution of the vehicle driver's line-of-sight information extracted during normal driving is stored as correct data, and casual driving is determined based on the consensus with the statistical distribution of the line-of-sight information during driving. Yes. Therefore, it is possible to deal with unknown abnormal patterns. Also, it is not necessary to define an abnormal pattern involving complicated factors. As described above, according to the present embodiment, it is possible to accurately detect a rough driving.
<第2の実施形態>
本発明の第2の実施形態について、図5〜図10を参照して説明する。
<Second Embodiment>
A second embodiment of the present invention will be described with reference to FIGS.
図5(A)は、本発明の第2の実施形態に係る車両運転支援装置2の概略構成を示すブロック図である。本実施形態に係る車両運転支援装置は、半導体集積回路(LSI)を用いて実現で
きる。車両運転支援装置2は、図5(A)に示すように、注視情報抽出部21、時系列特徴量算
出部22、正常データ格納部23、評価データ格納部24、相違算出部25、相違提示部26、刺激発生部27を有する。これらの構成要素は車両運転支援装置2が果たす機能にそれぞれ対応
している。なお、本実施形態においては、第1の実施形態との相違箇所のみ言及する。
FIG. 5 (A) is a block diagram showing a schematic configuration of the vehicle driving
第1の実施形態では、注視情報抽出部11において、時刻tにおける前方画像中の車両運転者の視線位置(xe(t),ye(t))を算出し、得られた時刻tにおける注視情報f(t)=(xe(t),ye(t))を時系列特徴量算出部12に出力したのに対して、本実施形態では、車両運転者の時刻t
における視線情報(xe(t),ye(t))だけでなく、その他の様々な情報(たとえば、車両運転
者の視線情報(xe(t),ye(t))における対象物の属性情報、距離情報、あるいは車両運転者
の生体情報など)を用いて、より注視情報の情報量を高める点に特徴がある。
In the first embodiment, the gaze information extraction unit 11 calculates the gaze position (x e (t), y e (t)) of the vehicle driver in the forward image at time t, and the obtained time t While the gaze information f (t) = (x e (t), y e (t)) is output to the time-series feature
Eye movement as well (x e (t), y e (t)), a variety of other information (e.g., vehicle operator's line of sight information (x e (t), the object in the y e (t)) The attribute information, distance information, or biological information of the vehicle driver is used to increase the amount of gaze information.
注視情報抽出部21は、図5(B)のように、画像取得部211、視線位置検出部212、歩行者検出部213、車両検出部214、標識検出部215、信号機検出部216、距離情報算出部217、生体
情報取得部218、注視情報算出部219とから構成される。
As shown in FIG. 5 (B), the gaze
画像取得部211は、車両運転支援装置2の外部から入力される車両の前方方向の画像(以下、前方画像とよぶ)を取得し、視線位置検出部212、歩行者検出部213、車両検出部214
、標識検出部215、信号機検出部216、距離情報算出部217、生体情報取得部218に出力する。画像取得部211は、また、車両運転支援装置1の外部から入力される車両運転者の眼の画像(以下、眼画像とよぶ)を取得し、視線位置検出部212に出力する。
The image acquisition unit 211 acquires an image in the forward direction of the vehicle (hereinafter referred to as a forward image) input from the outside of the vehicle driving
, Output to the sign detection unit 215, the traffic
視線位置検出部212は、前方画像と眼画像を解析して、図2のように、時刻tにおける前
方画像中の車両運転者の視線位置(xe(t), ye(t))を抽出する。視線位置の抽出方法は、第1の実施形態において説明した方法と同様の方法により行えばよい。
The line-of-sight
歩行者検出部213は、図6のように、時刻tにおける前方画像中の歩行者pの位置(xp(t), yp(t))と歩行者pを包含する矩形領域の水平および垂直方向の大きさ(hp(t), vp(t))を算
出し、注視情報算出部219に出力する。ここで、前方画像中の歩行者pの位置(xp(t), yp(t))と歩行者pを包含する矩形領域の水平および垂直方向の大きさ(hp(t), vp(t))は、既存
の任意の手法によって算出すればよい。たとえば、特許文献5,6,7に記載の手法を用いる
ことができる。
As shown in FIG. 6, the pedestrian detection unit 213 performs horizontal and horizontal positions of a rectangular area including the position (x p (t), y p (t)) of the pedestrian p in the forward image at time t and the pedestrian p. The vertical size (h p (t), v p (t)) is calculated and output to the gaze
このとき、車両運転者の時刻tにおける視線位置(xe(t), ye(t))が、前方画像中の位置(xp(t), yp(t))における大きさ(hp(t), vp(t))の矩形領域の内側にある場合、車両運転者
は時刻tにおいて歩行者pを目視したことがわかる。一方、車両運転者の時刻tにおける視
線位置(xe(t), ye(t))が、前方画像中の位置(xp(t),yp(t))における大きさ(hp(t),vp(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて歩行者pを目視しなかったことがわかる。また、時刻tにおいて前方画像中に歩行者pが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xp(t), yp(t))=(W/2,H/2),(hp(t), vp(t))=(W/2,H/2)を出力すればよい。
At this time, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is the size (h in the position (x p (t), y p (t)) in the forward image. When it is inside the rectangular area of p (t), v p (t)), it can be seen that the vehicle driver visually observed the pedestrian p at time t. On the other hand, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h p at the position (x p (t), y p (t)) in the forward image. When it is outside the rectangular area of (t), v p (t)), it can be seen that the vehicle driver did not visually observe the pedestrian p at time t. Also, when pedestrian p is not detected in the front image at time t, the horizontal and vertical size of the front image is (W, H), and (x p (t), y p (t)) = (W / 2, H / 2), (h p (t), v p (t)) = (W / 2, H / 2) may be output.
車両検出部214は、図7のように、時刻tにおける前方画像中の車両cの位置(xc(t), yc(t))と車両cを包含する矩形領域の水平および垂直方向の大きさ(hc(t), vc(t))を算出し、
注視情報算出部219に出力する。ここで、前方画像中の車両cの位置(xc(t), yc(t))と車両cを包含する矩形領域の水平および垂直方向の大きさ(hc(t), vc(t))は、既存の任意の手
法によって算出すればよい。たとえば、特許文献8,9に記載の手法を用いることができる
。
As shown in FIG. 7, the vehicle detection unit 214 is arranged in the horizontal and vertical directions of the position (x c (t), y c (t)) of the vehicle c in the forward image at the time t and the rectangular area including the vehicle c. Calculate the size (h c (t), v c (t))
Output to the gaze
このとき、車両運転者の時刻tにおける視線位置(xe(t), ye(t))が、前方画像中の位置(xc(t), yc(t))における大きさ(hc(t), vc(t))の矩形領域の内側にある場合、車両運転者
は時刻tにおいて車両cを目視したことがわかる。一方、車両運転者の時刻tにおける視線
位置(xe(t), ye(t))が、前方画像中の位置(xc(t),yc(t))における大きさ(hc(t),vc(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて車両cを目視しなかったことがわかる。また、時刻tにおいて前方画像中に車両cが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xc(t), yc(t))=(W/2,H/2),(hc(t), vc(t))=(W/2,H/2)を出力すればよい。
At this time, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h in the position (x c (t), y c (t)) in the forward image. When it is inside the rectangular area of c (t), v c (t)), it can be seen that the vehicle driver visually observed the vehicle c at time t. On the other hand, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h c ) at the position (x c (t), y c (t)) in the forward image. When it is outside the rectangular area (t), v c (t)), it can be seen that the vehicle driver did not visually observe the vehicle c at time t. If the vehicle c is not detected in the front image at time t, the horizontal and vertical sizes of the front image are (W, H), and (x c (t), y c (t)) = ( W / 2, H / 2), (h c (t), v c (t)) = (W / 2, H / 2) may be output.
標識検出部215は、図8のように、時刻tにおける前方画像中の標識sの位置(xs(t), ys(t))と標識sを包含する矩形領域の水平および垂直方向の大きさ(hs(t), vs(t))を算出し、
注視情報算出部219に出力する。ここで、前方画像中の標識sの位置(xs(t), ys(t))と標識sを包含する矩形領域の水平および垂直方向の大きさ(hc(t), vc(t))は、既存の任意の手
法によって算出すればよい。たとえば、特許文献10,11に記載の手法を用いることができ
る。
As shown in FIG. 8, the sign detection unit 215 is arranged in the horizontal and vertical directions of the rectangular area including the position (x s (t), y s (t)) of the sign s in the forward image at the time t and the sign s. Calculate the size (h s (t), v s (t))
Output to the gaze
このとき、車両運転者の時刻tにおける視線位置(xe(t), ye(t))が、前方画像中の位置(xs(t), ys(t))における大きさ(hs(t), vs(t))の矩形領域の内側にある場合、車両運転者
は時刻tにおいて標識sを目視したことがわかる。一方、車両運転者の時刻tにおける視線
位置(xe(t), ye(t))が、前方画像中の位置(xs(t),ys(t))における大きさ(hs(t),vs(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて標識sを目視しなかったことがわかる。また、時刻tにおいて前方画像中に標識sが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xs(t), ys(t))=(W/2,H/2),(hs(t), vs(t))=(W/2,H/2)を出力すればよい。
At this time, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h in the position (x s (t), y s (t)) in the forward image. When it is inside the rectangular area of s (t), v s (t)), it can be seen that the vehicle driver has visually observed the sign s at time t. On the other hand, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is the size (h s ) at the position (x s (t), y s (t)) in the forward image. When it is outside the rectangular area of (t), v s (t)), it can be seen that the vehicle driver did not visually observe the sign s at time t. In addition, when the sign s is not detected in the front image at the time t, the horizontal and vertical sizes of the front image are (W, H), and (x s (t), y s (t)) = ( W / 2, H / 2), (h s (t), v s (t)) = (W / 2, H / 2) may be output.
信号機検出部216は、図9のように、時刻tにおける前方画像中の信号機gの位置(xg(t), yg(t))と信号機gを包含する矩形領域の水平および垂直方向の大きさ(hg(t), vg(t))を算
出し、注視情報算出部219に出力する。ここで、前方画像中の信号機gの位置(xg(t), yg(t))と信号機gを包含する矩形領域の水平および垂直方向の大きさ(hg(t), vg(t))は、既存
の任意の手法によって算出すればよい。たとえば、特許文献12,13に記載の手法を用いる
ことができる。
As shown in FIG. 9, the traffic
このとき、車両運転者の時刻tにおける視線位置(xe(t), ye(t))が、前方画像中の位置(xg(t), yg(t))における大きさ(hg(t), vg(t))の矩形領域の内側にある場合、車両運転者
は時刻tにおいて信号機gを目視したことがわかる。一方、車両運転者の時刻tにおける視
線位置(xe(t), ye(t))が、前方画像中の位置(xg(t),yg(t))における大きさ(hg(t),vg(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて信号機gを目視しなかったことがわかる。また、時刻tにおいて前方画像中に信号機gが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xg(t), yg(t))=(W/2,H/2),(hg(t), vg(t))=(W/2,H/2)を出力すればよい。
At this time, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h in the position (x g (t), y g (t)) in the forward image. When it is inside the rectangular area of g (t), v g (t)), it can be seen that the vehicle driver visually observed the traffic light g at time t. On the other hand, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at the time t is a size (h g ) at the position (x g (t), y g (t)) in the forward image. When it is outside the rectangular area (t), v g (t)), it can be seen that the vehicle driver did not visually observe the traffic light g at time t. In addition, when the traffic light g is not detected in the front image at the time t, the horizontal and vertical sizes of the front image are (W, H), and (x g (t), y g (t)) = ( W / 2, H / 2), (h g (t), v g (t)) = (W / 2, H / 2) may be output.
距離情報算出部217は、図10(A),10(B)のように、車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(t)を算出し、注視情報算出部219に出力する。図10(a)は車両
運転者の時刻tにおける視線位置(xe(t), ye(t))を表す。同様に、図10(b)は車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(xe(t), ye(t))を表す。ここで、車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(xe(t), ye(t))は、既存の任意の手法によって算出すればよい。たとえば、特許文献13,14,15に記載のステレオ測距の手法を用いてもよいし、TOF(Time Of Flight)手法を用いてもよい。
The distance
生体情報取得部218は、時刻tにおける車両運転者の生体情報v(t)を抽出し、注視情報算出部219に出力する。ここで、車両運転者の時刻tにおける生体情報v(t)は、どのような生体情報であってもよい。たとえば、車両運転者の心拍、脈拍、心電、呼吸、体温、体重、体脂肪、血圧、発汗、視線、筋電、皮膚インピーダンスなどの1つまたは複数を生体情報
として抽出すればよい。これらの生体情報の抽出方法には既存の任意の手法を採用できる。たとえば、心拍であれば特許文献17,18に記載の手法を用いることができる。脈拍、心
電、呼吸、体温、体重、体脂肪、血圧、発汗、視線、筋電、皮膚インピーダンスについては特許文献18に記載の手法を用いることができる。
The biological
注視情報算出部219は、視線位置検出部212で得られた時刻tにおける前方画像中の車両
運転者の視線位置(xe(t), ye(t))と、歩行者検出部213で得られた時刻tにおける前方画像中の歩行者pの位置(xp(t), yp(t))と歩行者pを包含する矩形領域の水平および垂直方向の大きさ(hp(t), vp(t))と、車両検出部214で得られた時刻tにおける前方画像中の車両cの
位置(xc(t), yc(t))と車両cを包含する矩形領域の水平および垂直方向の大きさ(hc(t), v
c(t))と、標識検出部215で得られた時刻tにおける前方画像中の標識sの位置(xs(t), ys(t))と標識sを包含する矩形領域の水平および垂直方向の大きさ(hs(t), vs(t))と、信号機
検出部216で得られた時刻tにおける前方画像中の信号機gの位置(xg(t), yg(t))と信号機gを包含する矩形領域の水平および垂直方向の大きさ(hg(t), vg(t))と、距離情報算出部217で得られた車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(t)と、生体情報取得部218で得られた時刻tにおける車両運転者の生体情報v(t)を用いて注視情報f(t)=(X(t), Y(t), z(t), v(t))を算出し、時系列特徴量算出部22に出力する。具体的には、(X(t), Y(t))は次式で定義する。
ここで、上式の分母の各定数は次式で与えられる。
c (t)), the position (x s (t), y s (t)) of the sign s in the forward image at time t obtained by the sign detection unit 215, and the horizontal direction of the rectangular area including the sign s and The vertical size (h s (t), v s (t)) and the position of the traffic light g in the forward image at the time t obtained by the traffic light detection unit 216 (x g (t), y g (t )) And the size (h g (t), v g (t)) of the rectangular area including the traffic light g, and the line of sight of the vehicle driver at the time t obtained by the distance
Here, each constant of the denominator of the above equation is given by the following equation.
注視情報f(t)に含まれるX(t)およびY(t)は、注視すべき物体(歩行者、車両、標識、信号機)の位置と車両運転者の視線位置の相違を物体の大きさに応じて正規化して表した情報であり、車両運転者が注視すべき物体をどの程度注視しているかを表した情報といえる。したがって、車両運転者が注視すべき物体をどの程度注視しているかを表すことができれば、上記以外の定義を採用してもよい。たとえば、X方向とY方向に分けて物体位置と視線位置の差を求めているが、物体位置と視線位置の間の距離(相違)を1つの値で評価し
てもよい。
X (t) and Y (t) included in the gaze information f (t) indicate the difference between the position of the object (pedestrian, vehicle, sign, traffic signal) to be watched and the gaze position of the vehicle driver. It can be said that it is information that is normalized according to the above, and is information that indicates how much the object that the vehicle driver is gazing at. Therefore, as long as it can represent how much the vehicle driver is gazing at the object to be watched, definitions other than the above may be adopted. For example, although the difference between the object position and the line-of-sight position is obtained separately in the X direction and the Y direction, the distance (difference) between the object position and the line-of-sight position may be evaluated with one value.
本実施形態によれば、車両運転者の視線位置における対象物の属性情報や距離情報、あるいは車両運転者の生体情報など様々な情報を注視情報としているので、特徴量の情報量を高めることができる。 According to the present embodiment, since various information such as the attribute information and distance information of the object at the line-of-sight position of the vehicle driver or the biological information of the vehicle driver is used as the gaze information, the information amount of the feature amount can be increased. it can.
<第3の実施形態>
本発明の第3の実施形態について、図11を参照して説明する。
<Third embodiment>
A third embodiment of the present invention will be described with reference to FIG.
図11は、本発明の第3の実施形態に係る車両運転支援装置3の概略構成を示すブロック図である。本実施形態に係る車両運転支援装置は、半導体集積回路(LSI)を用いて実現でき
る。車両運転支援装置3は、図11に示すように、注視情報抽出部31、時系列特徴量算出部32、正常データ格納部33、評価データ格納部34、正常データ選択部35、相違算出部36、相
違提示部37、刺激発生部38を有する。これらの構成要素は車両運転支援装置3が果たす機
能にそれぞれ対応している。なお、本実施形態においては、第1の実施形態との相違箇所
のみ言及する。
FIG. 11 is a block diagram showing a schematic configuration of the vehicle driving
第1の実施形態では、正常データ格納部13に格納されたすべての時系列特徴量と評価デ
ータ格納部14に格納された時系列特徴量との統計的分布の相違Dを算出したのに対して、
本実施形態では、正常データ選択部35を用いて、正常データ格納部33に格納された時系列特徴量の部分集合Sを作成し、得られた部分集合Sと評価データ格納部34に格納された時系列特徴量との統計的分布の相違Dを算出する点に特徴がある。
In the first embodiment, the statistical distribution difference D between all the time series feature values stored in the normal
In the present embodiment, the normal data selection unit 35 is used to create a subset S of time series feature values stored in the normal
正常データ選択部35は、車両運転支援装置1の外部から入力される車両の走行状態や車
両運転者の属性情報に基づいて、正常データ格納部33に格納された時系列特徴量の部分集合Sを作成し、得られた部分集合Sを相違算出部36に出力する。具体的には、部分集合Sは
、車両運転者の属性情報(たとえば、個人名、年齢層、性別など)に基づいて、評価対象の車両運転者と類似する属性情報を有する正常データの集合として作成すればよい。あるいは、部分集合Sは、車両の走行状態(たとえば、市街地を走行時か、高速道路を走行時
か、郊外を走行時か、走行時は日中か、走行時は夜間か、走行時は快晴か、走行時は雨天かなど)に基づいて、評価対象の走行状態と類似する走行状態を有する正常データの集合として作成してもよい。あるいは、部分集合Sは、車両運転者の属性情報と車両の走行状
態の両方に基づいて決定してもよい。
The normal data selection unit 35 is a subset S of time-series feature values stored in the normal
なお、本実施形態においては、正常データ格納部33に格納されたデータから車両運転者の属性情報や車両の走行状態に基づいた部分集合を選択できるように、正常データ格納部33に格納されるデータは、車両運転者の属性情報や車両の走行状態と関連付けて記憶される。また、正常データ選択部35には、評価時における車両運転者の属性情報や車両の走行状態を取得して、正常データの選択に利用する。車両運転者の属性情報を車両運転者と関連付けてあらかじめ記憶しておき、正常データ選択部35は、車両運転者から取得される識別情報(たとえば、指紋・虹彩・声紋などの生体情報、識別コードを記憶したICチップやICタグ)や車両運転者からの登録者の選択入力に基づいて対応する属性情報を取得すればよい。また、車両の走行状態は、車両が有する種々のセンサから得られる情報に基づいて取得することができる。
In the present embodiment, the data stored in the normal
本実施形態によれば、車両運転者の属性情報や車両の走行状態が類似する正常データとの間での比較が可能となるため、より精度の良い漫然運転検知が可能となる。 According to the present embodiment, comparison with normal data with similar vehicle driver attribute information and vehicle running state is possible, and therefore, more accurate and easy driving detection is possible.
<その他の実施形態>
上記の実施形態では、評価時と正常運転時の時系列特徴量の統計的分布の相違に基づいて画像表示や刺激発生を行っているが、当該相違が閾値以上の場合に漫然運転が発生していると検知してその場合のみ画像表示や刺激発生を行っても良い。また、漫然運転の発生が検知された場合の処理は上記に限られず、漫然運転の発生を知らせる通知を他の装置に対して出力するようにしても良い。
<Other embodiments>
In the above embodiment, image display and stimulus generation are performed based on the difference in statistical distribution of time-series feature values during evaluation and normal operation, but if the difference is greater than or equal to a threshold value, random operation occurs. It is also possible to display the image and generate a stimulus only in that case. In addition, the processing when the occurrence of the sloppy driving is detected is not limited to the above, and a notification notifying the occurrence of the sloppy driving may be output to another device.
また、上記の実施形態では、車両運転支援装置が正常運転時の注視情報およびこれに基づく時系列特徴量を算出するものとして説明したが、これらの情報は他の装置によって算出されて車両運転支援装置の正常データ格納部に格納されても構わない。 In the above-described embodiment, the vehicle driving support device has been described as calculating gaze information during normal driving and time-series feature amounts based on the gaze information. However, these pieces of information are calculated by other devices to support vehicle driving. You may store in the normal data storage part of an apparatus.
前記実施形態は半導体集積回路(LSI)に限定されず、コンピュータで実行可能なプログ
ラムその他を用いて実施してもよい。
The embodiment is not limited to a semiconductor integrated circuit (LSI), and may be implemented using a computer-executable program or the like.
1…車両運転支援装置
11…注視情報抽出部
12…時系列特徴量算出部
13…正常データ格納部
14…評価データ格納部
15…相違算出部
16…相違表示部
17…刺激発生部
1 ... Vehicle driving support device
11… Gaze information extraction unit
12… Time series feature quantity calculation unit
13: Normal data storage
14 ... Evaluation data storage
15 ... Difference calculator
16 ... Difference display
17 ... Stimulus generator
Claims (16)
車両の前方方向の画像を取得する画像取得手段と、
車両運転者の注視情報を抽出する注視情報抽出手段と、
前記車両運転者の評価時における注視情報に基づいて、前記画像中において前記車両運転者が注視した位置に関する情報を時系列で表した時系列特徴量を算出する時系列特徴量算出手段と、
正常運転時における注視情報に基づく時系列特徴量を格納する正常データ格納手段と、
前記正常運転時と前記評価時における前記時系列特徴量の統計的分布の相違を算出する相違算出手段と、
前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知手段と、
を備える、車両運転支援装置。 A vehicle driving support device that detects a vague driving of a vehicle driver,
Image acquisition means for acquiring an image in the forward direction of the vehicle;
Gaze information extracting means for extracting gaze information of the vehicle driver;
Based on the gaze information at the time of the evaluation of the vehicle driver, time-series feature quantity calculating means for calculating a time-series feature quantity in time series representing information on the position watched by the vehicle driver in the image ;
Normal data storage means for storing time-series feature values based on gaze information during normal operation;
A difference calculating means for calculating a difference in statistical distribution of the time-series feature quantity during the normal operation and during the evaluation;
Based on the magnitude of the difference, the rough driving detection means for detecting the rough driving of the vehicle driver,
A vehicle driving support device comprising:
請求項1に記載の車両運転支援装置。 The time-series feature amount includes information representing, in time series, coordinates of a position in which the vehicle driver gazes in the image.
The vehicle driving support device according to claim 1.
請求項2に記載の車両運転支援装置。 The time-series feature amount further includes information representing the depth of the position watched by the vehicle driver in the image in time series.
The vehicle driving support device according to claim 2 .
請求項2または3に記載の車両運転支援装置。 The time series feature amount further includes information representing the biological information of the vehicle driver in time series.
The vehicle driving support device according to claim 2 or 3 .
請求項1から4のいずれか1項に記載の車両運転支援装置。 The gaze information is calculated based on the line-of-sight position of the position and the size and the vehicle driver of a predetermined object in said forward direction of the image,
The vehicle driving support device according to any one of claims 1 to 4.
請求項1から5のいずれか1項に記載の車両運転支援装置。 The time-series feature amount is given by connecting a predetermined number of the gaze information continuous in time.
The vehicle driving support device according to any one of claims 1 to 5.
請求項1から6のいずれか1項に記載の車両運転支援装置。 The difference is calculated based on a probability density ratio between the time-series feature amount during the normal operation and the time-series feature amount during the evaluation.
The vehicle driving support device according to any one of claims 1 to 6.
請求項1から6のいずれか1項に記載の車両運転支援装置。 The difference is calculated based on a difference in probability density between the time series feature amount during the normal operation and the time series feature amount during the evaluation.
The vehicle driving support device according to any one of claims 1 to 6.
前記評価時における車両運転者の属性情報または走行状態を取得し、当該属性情報または走行状態と類似する属性情報または走行状態と関連付けられた時系列特徴量を前記正常データ格納手段から選択する正常データ選択手段をさらに有し、
前記相違算出手段は、前記評価時における前記時系列特徴量と、前記正常データ選択手段によって選択された前記時系列特徴量との統計的分布の相違を算出する、
請求項1から8のいずれか1項に記載の車両運転支援装置。 The normal data storage means stores the time-series feature amount based on the gaze information during the normal driving in association with the attribute information or the driving state of the vehicle driver during the normal driving,
Normal data for acquiring attribute information or driving state of the vehicle driver at the time of the evaluation and selecting from the normal data storage means attribute information similar to the attribute information or driving state or time series feature amount associated with the driving state Further comprising a selection means,
The difference calculation means calculates a difference in statistical distribution between the time series feature quantity at the time of the evaluation and the time series feature quantity selected by the normal data selection means.
The vehicle driving support device according to any one of claims 1 to 8.
請求項1から9のいずれか1項に記載の車両運転支援装置。 Visualizing the size of the difference and further comprising a difference presentation means for presenting to the vehicle driver,
The vehicle driving support device according to any one of claims 1 to 9.
請求項1から10のいずれか1項に記載の車両運転支援装置。 Further comprising stimulus generation means for giving a stimulus to the vehicle driver based on the magnitude of the difference;
The vehicle driving support device according to any one of claims 1 to 10.
請求項11に記載の車両運転支援装置。 The stimulus generating means vibrates the driver's seat based on the magnitude of the difference;
The vehicle driving support device according to claim 11.
請求項11または12に記載の車両運転支援装置。 The stimulus generating means emits a warning sound based on the magnitude of the difference;
The vehicle driving assistance device according to claim 11 or 12.
請求項11から13のいずれか1項に記載の車両運転支援装置。 The stimulus generating means warns the vehicle driver by voice based on the magnitude of the difference.
The vehicle driving support device according to any one of claims 11 to 13.
車両の前方方向の画像を取得する画像取得ステップと、
車両運転者の注視情報を抽出する注視情報抽出ステップと、
前記車両運転者の評価時における注視情報に基づいて、前記画像中において前記車両運転者が注視した位置に関する情報を時系列で表した時系列特徴量を算出する時系列特徴量算出ステップと、
前記時系列特徴量算出ステップにおいて算出された時系列特徴量と、あらかじめ算出された正常運転時における注視情報に基づく時系列特徴量と、の統計的分布の相違を算出する相違算出ステップと、
前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知ステップと、
を含む、車両運転支援方法。 A vehicle driving support method for detecting vague driving of a vehicle driver,
An image acquisition step of acquiring an image in a forward direction of the vehicle;
A gaze information extracting step for extracting gaze information of the vehicle driver;
Based on the gaze information at the time of evaluation of the vehicle driver, a time series feature quantity calculating step for calculating a time series feature quantity that represents information on the position in which the vehicle driver gazes in the image in time series,
A difference calculating step of calculating a difference in statistical distribution between the time series feature amount calculated in the time series feature amount calculation step and a time series feature amount based on gaze information calculated in normal operation in advance;
Based on the magnitude of the difference, the rough driving detection step of detecting the rough driving of the vehicle driver;
Including a vehicle driving support method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015168638A JP6459856B2 (en) | 2015-08-28 | 2015-08-28 | Vehicle driving support device, vehicle driving support method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015168638A JP6459856B2 (en) | 2015-08-28 | 2015-08-28 | Vehicle driving support device, vehicle driving support method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017045351A JP2017045351A (en) | 2017-03-02 |
JP6459856B2 true JP6459856B2 (en) | 2019-01-30 |
Family
ID=58211469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015168638A Active JP6459856B2 (en) | 2015-08-28 | 2015-08-28 | Vehicle driving support device, vehicle driving support method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6459856B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7003254B2 (en) * | 2018-06-11 | 2022-01-20 | 三菱電機株式会社 | Driving support device, driving support system and driving support method |
WO2020195168A1 (en) * | 2019-03-28 | 2020-10-01 | パナソニックIpマネジメント株式会社 | Distracted state determination device and distracted state determination method |
WO2020195167A1 (en) * | 2019-03-28 | 2020-10-01 | パナソニックIpマネジメント株式会社 | Inattentive state assessment device |
JP7276083B2 (en) * | 2019-11-11 | 2023-05-18 | マツダ株式会社 | Driver state estimation device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3739113B2 (en) * | 1995-07-10 | 2006-01-25 | 日産ディーゼル工業株式会社 | Awakening level detection device |
JP4534788B2 (en) * | 2005-02-22 | 2010-09-01 | トヨタ自動車株式会社 | Vehicle driving support device |
JP4539514B2 (en) * | 2005-09-27 | 2010-09-08 | 株式会社デンソー | Hazardous location information collection system and in-vehicle equipment |
JP2008228759A (en) * | 2007-03-16 | 2008-10-02 | Toyota Central R&D Labs Inc | Depressed consciousness determining device and program |
JP4259587B2 (en) * | 2007-03-30 | 2009-04-30 | 株式会社デンソー | Database device, warning device, and driving support device |
JP5358414B2 (en) * | 2009-12-04 | 2013-12-04 | 株式会社豊田中央研究所 | Fragile state determination device, method and program |
WO2015064080A1 (en) * | 2013-11-01 | 2015-05-07 | パナソニックIpマネジメント株式会社 | Gaze direction-detecting device and gaze direction-detecting method |
JP6213282B2 (en) * | 2014-02-12 | 2017-10-18 | 株式会社デンソー | Driving assistance device |
-
2015
- 2015-08-28 JP JP2015168638A patent/JP6459856B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017045351A (en) | 2017-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3488382B1 (en) | Method and system for monitoring the status of the driver of a vehicle | |
EP3033999B1 (en) | Apparatus and method for determining the state of a driver | |
JP6343808B2 (en) | Visual field calculation device and visual field calculation method | |
US20160159366A1 (en) | Driving assistance system and driving assistance method | |
JP6459856B2 (en) | Vehicle driving support device, vehicle driving support method, and program | |
JP5482737B2 (en) | Visual load amount estimation device, driving support device, and visual load amount estimation program | |
US9465979B2 (en) | Measurement-target-selecting device, face-shape-estimating device, method for selecting measurement target, and method for estimating face shape | |
US20170004354A1 (en) | Determination device, determination method, and non-transitory storage medium | |
JP2007188417A (en) | Image recognition device, image recognition method, and image recognition program | |
EP3185211A1 (en) | Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program | |
WO2019097595A1 (en) | Vehicle external communication apparatus, vehicle external communication method, information processing device, and vehicle external communication program | |
JP2016115117A (en) | Determination device and determination method | |
JP2009070344A (en) | Image recognition device, image recognition method, and electronic control device | |
JP2012221162A (en) | Object detection device and program | |
JP2016115120A (en) | Opened/closed eye determination device and opened/closed eye determination method | |
JP2007280219A (en) | Motion pattern recognition device, motion pattern recognition method, and motion pattern recognition program | |
JP6572538B2 (en) | Downward view determination device and downward view determination method | |
JP6320942B2 (en) | Weight matrix learning device, gaze direction prediction system, warning system, and weight matrix learning method | |
JP6731481B2 (en) | Method and apparatus for classifying at least one eye opening data of a vehicle occupant, and method and apparatus for detecting drowsiness and/or microsleep of a vehicle occupant | |
JP6772775B2 (en) | Driving support device and driving support method | |
US20220284718A1 (en) | Driving analysis device and driving analysis method | |
KR20170028631A (en) | Method and Apparatus for Detecting Carelessness of Driver Using Restoration of Front Face Image | |
JP2020103704A (en) | Information processing device and program | |
JP6449504B1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2021105958A (en) | Driver state estimation device and driver state estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181217 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6459856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |