JP6459856B2 - Vehicle driving support device, vehicle driving support method, and program - Google Patents

Vehicle driving support device, vehicle driving support method, and program Download PDF

Info

Publication number
JP6459856B2
JP6459856B2 JP2015168638A JP2015168638A JP6459856B2 JP 6459856 B2 JP6459856 B2 JP 6459856B2 JP 2015168638 A JP2015168638 A JP 2015168638A JP 2015168638 A JP2015168638 A JP 2015168638A JP 6459856 B2 JP6459856 B2 JP 6459856B2
Authority
JP
Japan
Prior art keywords
time
vehicle
difference
vehicle driver
series feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015168638A
Other languages
Japanese (ja)
Other versions
JP2017045351A (en
Inventor
正雄 山中
正雄 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015168638A priority Critical patent/JP6459856B2/en
Publication of JP2017045351A publication Critical patent/JP2017045351A/en
Application granted granted Critical
Publication of JP6459856B2 publication Critical patent/JP6459856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は車両運転支援装置に係り、特に、車両運転者が漫然運転を行う可能性を推定するうえで好適な車両運転支援装置に関する。   The present invention relates to a vehicle driving support device, and more particularly to a vehicle driving support device that is suitable for estimating the possibility that a vehicle driver will perform random driving.

車両運転者の漫然運転を検知する方法として、たとえば、特許文献1のような方法が提
案されている。特許文献1では、あらかじめ、漫然運転時における車両運転者の注視情報
の統計的分布を定義し、評価時に得られた車両運転者の注視情報の統計的分布との類似性を評価することで、漫然運転の可能性を推定する。
For example, a method as disclosed in Patent Document 1 has been proposed as a method for detecting a vague driver's driving. In Patent Document 1, in advance, by defining the statistical distribution of vehicle driver's gaze information at the time of casual driving, by evaluating the similarity with the statistical distribution of vehicle driver's gaze information obtained at the time of evaluation, Estimate the possibility of casual driving.

また、車両運転者の漫然運転を検知する方法として、たとえば、特許文献2のような方
法が提案されている。特許文献2では、車両運転者の視線方向を所定時間検出して、視線
方向の分布を示す視線分布情報を生成する。そして、得られた視線分布情報によって示される分布の所定位置(例えば中心位置)が、あらかじめ定義した基準情報により示される漫然運転でない状態の視線方向の標準的な位置よりも上方向に所定閾値以上離れている場合、漫然運転であると判定する。
Further, for example, a method as disclosed in Patent Document 2 has been proposed as a method for detecting a vague driver's driving. In Patent Document 2, a gaze direction of a vehicle driver is detected for a predetermined time, and gaze distribution information indicating a gaze direction distribution is generated. The predetermined position (for example, the center position) of the distribution indicated by the obtained line-of-sight distribution information is greater than or equal to a predetermined threshold value above the standard position in the line-of-sight direction in the state of non-random driving indicated by the predefined reference information. If it is away, it is determined that the driver is driving casually.

また、車両運転者の漫然運転を防止するための方法として、たとえば、特許文献3のよ
うな方法が提案されている。特許文献3では、あらかじめ用意した注意モデルとその時々
で検出される特定情報とに基づいて、オブジェクト、画像情報、各特定情報に基づく注意分布である個別分布を生成する。また、これら個別分布を、同じ重みまたは個々に重み付けして統合した注意分布である統合分布を生成することにより、車両運転者の注意が向けられている位置(注視点)を確率的に推定する。さらに、前方画像から抽出した各オブジェクトに対する車両運転者の注意量を前記統合分布に従って算出する。最終的に、前記注意量に基づいて、車両運転者が認識すべき物体に関する情報を表示や音声、振動等によって提供する。
Further, as a method for preventing the vehicle driver from driving freely, for example, a method as disclosed in Patent Document 3 has been proposed. In Patent Document 3, an individual distribution that is an attention distribution based on object, image information, and specific information is generated based on an attention model prepared in advance and specific information detected at that time. Moreover, the position (gaze point) where the driver's attention is directed is stochastically estimated by generating an integrated distribution which is an attention distribution obtained by integrating these individual distributions with the same weight or individually weighted. . Further, the attention amount of the vehicle driver for each object extracted from the front image is calculated according to the integrated distribution. Finally, based on the attention amount, information related to an object that the vehicle driver should recognize is provided by display, voice, vibration, or the like.

特開平8-178712号公報Japanese Patent Laid-Open No. 8-178712 特開2008-243031号公報JP 2008-243031 A 特開2012−103850号公報JP 2012-103850 A 特開平3-165737号公報Japanese Patent Laid-Open No. 3-165737 特開2010-211460号公報JP 2010-211460 特開2007-233487号公報JP 2007-233487 A 特開2007-89094号公報JP 2007-89094 特開2010-97410号公報JP 2010-97410 A 特開2013-37615号公報JP 2013-37615 特開2012-141922号公報JP 2012-141922 A 特開2012-84003号公報JP 2012-84003 A 特開2007-241469号公報JP 2007-241469 A 特開2006-4173号公報JP 2006-4173 A 特許第3965067号明細書Japanese Patent No. 3965067 特許第5042496号明細書Japanese Patent No. 5042496 特許第5127182号明細書Japanese Patent No. 5127182 特開2006-301464号公報JP 2006-301464 A 特開2009-107582号公報JP 2009-107582 JP

Kanamori, T., Hido, S., & Sugiyama, M., A least-squares approach to direct importance estimation, Journal of Machine Learning Research, vol.10 (Jul.), pp.1391-1445, 2009.Kanamori, T., Hido, S., & Sugiyama, M., A least-squares approach to direct importance estimation, Journal of Machine Learning Research, vol.10 (Jul.), Pp.1391-1445, 2009. Yamada, M., Suzuki, T., Kanamori, T., Hachiya, H., & Sugiyama, M., Relative density-ratio estimation for robust distribution comparison, Neural Computation, vol.25, no.5, pp.1324-1370, 2013.Yamada, M., Suzuki, T., Kanamori, T., Hachiya, H., & Sugiyama, M., Relative density-ratio estimation for robust distribution comparison, Neural Computation, vol.25, no.5, pp.1324 -1370, 2013. Sugiyama, M., Kanamori, T., Suzuki, T., du Plessis, M. C., Liu, S., & Takeuchi, I., Density difference estimation, IEICE Technical Report IBISML2012-8, pp.49-56, Kyoto, Japan, Jun. 19-20, 2012.Sugiyama, M., Kanamori, T., Suzuki, T., du Plessis, MC, Liu, S., & Takeuchi, I., Density difference estimation, IEICE Technical Report IBISML2012-8, pp.49-56, Kyoto, Japan, Jun. 19-20, 2012.

しかしながら、上記の特許文献1-3に開示される技術は次のような問題を有する。   However, the techniques disclosed in the above Patent Documents 1-3 have the following problems.

特許文献1は、あらかじめ、漫然運転時における車両運転者の注視情報の統計的分布を
定義し、評価時に得られた車両運転者の注視情報の統計的分布との類似性を評価することで、漫然運転である可能性を推定している。したがって、特許文献1のような手法には、
漫然運転時における車両運転者の注視情報の統計的分布としてあらかじめ定義していないものに対しては推定精度が低下する問題というがある。
Patent Document 1 defines in advance the statistical distribution of the vehicle driver's gaze information at the time of casual driving, and evaluates the similarity with the statistical distribution of the vehicle driver's gaze information obtained at the time of evaluation, We estimate the possibility of driving casually. Therefore, the technique such as Patent Document 1
There is a problem that the estimation accuracy is reduced for a statistical distribution of the gaze information of the vehicle driver at the time of casual driving.

また、特許文献2は、車両運転者の視線分布情報によって示される分布の所定位置と、
あらかじめ記憶された基準情報により示される漫然運転でない状態の視線方向の標準的な位置との相違に基づいて、漫然運転である可能性を推定している。特許文献2のような手
法には、漫然運転時と漫然運転時でない状態との視線分布情報の相違が標準的な位置ではなく、統計的分布の相違(たとえば、尖度、歪度、分散など)に表れる場合に推定精度が低下する問題というがある。
Patent Document 2 discloses a predetermined position of the distribution indicated by the gaze distribution information of the vehicle driver,
Based on the difference from the standard position in the line-of-sight direction in the state that is not the random driving indicated by the reference information stored in advance, the possibility of the random driving is estimated. In the technique such as Patent Document 2, the difference in the gaze distribution information between the state where the driver is not driving and the state where the driver is not driving is not the standard position, but the difference in the statistical distribution (for example, kurtosis, skewness, variance, etc. ), The estimation accuracy is reduced.

また、特許文献3は、あらかじめ用意した注意モデルとその時々で検出される特定情報
とに基づいて、オブジェクト、画像情報、各特定情報に基づく注意分布である個別分布し、同じ重み又は個々に重み付けして統合した注意分布を生成している。特許文献3のよう
な手法には、個別分布に対する最適な重みを設定できない場合に推定精度が低下する問題というがある。
Further, Patent Document 3 is based on an attention model prepared in advance and specific information detected from time to time, and distributes objects, image information, individual distributions that are attention distributions based on specific information, and weights the same or individually. An integrated attention distribution is generated. The technique such as Patent Document 3 has a problem that the estimation accuracy decreases when the optimum weight for the individual distribution cannot be set.

上記の問題点を考慮して、本発明は、漫然運転を精度良く推定可能な技術を提供することを目的とする。   In view of the above-described problems, an object of the present invention is to provide a technique capable of accurately estimating a rough driving.

本発明の第1の態様は、車両運転者の漫然運転を検知する車両運転支援装置であって、
車両の前方方向の画像を取得する画像取得手段と、車両運転者の注視情報を抽出する注視情報抽出手段と、前記車両運転者の評価時における注視情報に基づいて時系列特徴量を算出する時系列特徴量算出手段と、正常運転時における注視情報に基づく時系列特徴量を格納する正常データ格納手段と、前記正常運転時と前記評価時における前記時系列特徴量の相違を算出する相違算出手段と、前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知手段と、を備える。
A first aspect of the present invention is a vehicle driving support device for detecting a vague driving of a vehicle driver,
An image acquisition means for acquiring an image in the forward direction of the vehicle, a gaze information extraction means for extracting gaze information of the vehicle driver, and a time series feature amount based on the gaze information at the time of evaluation of the vehicle driver Series feature quantity calculation means, normal data storage means for storing time series feature quantities based on gaze information during normal operation, and difference calculation means for calculating differences between the time series feature quantities during the normal operation and during the evaluation And a rough driving detection means for detecting the rough driving of the vehicle driver based on the magnitude of the difference.

本発明の第2の態様は、車両運転者の漫然運転を検知する車両運転支援方法であって、
車両の前方方向の画像を取得する画像取得ステップと、車両運転者の注視情報を抽出する注視情報抽出ステップと、前記車両運転者の評価時における注視情報に基づいて時系列特
徴量を算出する時系列特徴量算出ステップと、前記評価データ算出ステップにおいて算出された時系列特徴量と、あらかじめ算出された正常運転時における注視情報に基づく時系列特徴量と、の相違を算出する相違算出ステップと、前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知ステップと、を含む。
A second aspect of the present invention is a vehicle driving support method for detecting a vague driving of a vehicle driver,
An image acquisition step for acquiring an image in the forward direction of the vehicle, a gaze information extraction step for extracting gaze information of the vehicle driver, and a time series feature amount based on the gaze information at the time of evaluation of the vehicle driver A difference calculation step of calculating a difference between the time series feature quantity calculated in the series feature quantity calculation step, the time series feature quantity calculated in the evaluation data calculation step, and the time series feature quantity based on gaze information calculated in normal operation in advance; And a rough driving detection step of detecting the rough driving of the vehicle driver based on the magnitude of the difference.

本発明によれば、漫然運転の推定精度を向上することができる。   According to the present invention, it is possible to improve the estimation accuracy of the casual driving.

図1(A)は第1実施形態に係る車両運転支援装置の機能構成図であり、図1(B)は第1実施形態における学習処理の流れを示すフローチャートであり、図1(C)は第1実施形態における漫然運転検出処理の流れを示すフローチャートである。FIG. 1 (A) is a functional configuration diagram of the vehicle driving support apparatus according to the first embodiment, FIG. 1 (B) is a flowchart showing a flow of learning processing in the first embodiment, and FIG. 3 is a flowchart showing a flow of a random driving detection process in the first embodiment. 図2は、第1実施形態に係る車両運転支援装置の注視情報抽出部11の機能について説明するための図である。FIG. 2 is a diagram for explaining the function of the gaze information extraction unit 11 of the vehicle driving support device according to the first embodiment. 図3は、第1実施形態に係る車両運転支援装置の時系列特徴量算出部12の機能について説明するための図である。FIG. 3 is a diagram for explaining the function of the time-series feature amount calculation unit 12 of the vehicle driving support device according to the first embodiment. 図4(A)-4(B)は、第1実施形態に係る車両運転支援装置の相違提示部16の機能について説明するための図である。4 (A) -4 (B) are diagrams for explaining functions of the difference presentation unit 16 of the vehicle driving support device according to the first embodiment. 図5(A)は第2実施形態に係る車両運転支援装置の機能構成図であり、図5(B)は第2実施形態にかかる車両運転支援装置の注視情報抽出部21の機能について説明するための図である。FIG. 5 (A) is a functional configuration diagram of the vehicle driving support device according to the second embodiment, and FIG. 5 (B) illustrates the function of the gaze information extracting unit 21 of the vehicle driving support device according to the second embodiment. FIG. 図6は第2実施形態に係る車両運転支援装置の歩行者検出部213の機能について説明するための図である。FIG. 6 is a diagram for explaining the function of the pedestrian detection unit 213 of the vehicle driving support apparatus according to the second embodiment. 図7は、第2実施形態に係る車両運転支援装置の車両検出部214の機能について説明するための図である。FIG. 7 is a diagram for explaining a function of the vehicle detection unit 214 of the vehicle driving support device according to the second embodiment. 図8は第2実施形態に係る車両運転支援装置の標識検出部215の機能について説明するための図である。FIG. 8 is a diagram for explaining the function of the sign detection unit 215 of the vehicle driving support apparatus according to the second embodiment. 図9は第2実施形態に係る車両運転支援装置の信号機検出部216の機能について説明するための図である。FIG. 9 is a diagram for explaining the function of the traffic light detection unit 216 of the vehicle driving support apparatus according to the second embodiment. 図10(A)および図10(B)は、第2実施形態に係る車両運転支援装置の距離情報算出部217の機能について説明するための図である。FIGS. 10A and 10B are diagrams for explaining the function of the distance information calculation unit 217 of the vehicle driving support apparatus according to the second embodiment. 図11は、第3実施形態に係る車両運転支援装置の機能構成図である。FIG. 11 is a functional configuration diagram of the vehicle driving support apparatus according to the third embodiment.

<第1の実施形態>
本発明の第1の実施形態について、図1〜図4を参照して説明する。
<First Embodiment>
A first embodiment of the present invention will be described with reference to FIGS.

(構成)
図1(A)は、本発明の第1の実施形態に係る車両運転支援装置1の概略構成を示すブロック図である。本実施形態に係る車両運転支援装置は、半導体集積回路(LSI)を用いて実現で
きる。車両運転支援装置1は、図1(A)に示すように、注視情報抽出部11、時系列特徴量算
出部12、正常データ格納部13、評価データ格納部14、相違算出部15、相違提示部16、刺激発生部17を有する。これらの構成要素は車両運転支援装置1が果たす機能にそれぞれ対応
している。
(Constitution)
FIG. 1 (A) is a block diagram showing a schematic configuration of the vehicle driving support apparatus 1 according to the first embodiment of the present invention. The vehicle driving support apparatus according to the present embodiment can be realized using a semiconductor integrated circuit (LSI). As shown in FIG. 1 (A), the vehicle driving support device 1 includes a gaze information extraction unit 11, a time-series feature amount calculation unit 12, a normal data storage unit 13, an evaluation data storage unit 14, a difference calculation unit 15, and a difference presentation. Unit 16 and stimulus generation unit 17. These components correspond to the functions performed by the vehicle driving support device 1.

注視情報抽出部11は、車両運転者の視線位置を抽出する。注視情報抽出部11は、車両の前方方向を撮影した画像(以下、前方画像と呼ぶ)と、車両運転者の眼を撮影した画像(以下、眼画像と呼ぶ)を、車両に設けられたカメラなどの車両運転支援装置1の外部の装
置から取得する。注視情報抽出部11は、前方画像と眼画像を解析して、図2のように、時
刻tにおける前方画像中の車両運転者の視線位置(xe(t), ye(t))を抽出する。また、注視
情報抽出部11は、得られた時刻tにおける注視情報f(t)=(xe(t),ye(t))を時系列特徴量算
出部12に出力する。
The gaze information extraction unit 11 extracts the gaze position of the vehicle driver. The gaze information extraction unit 11 is a camera provided on the vehicle, which is an image obtained by photographing the front direction of the vehicle (hereinafter referred to as a front image) and an image obtained by photographing the eyes of the vehicle driver (hereinafter referred to as an eye image). Or the like from a device external to the vehicle driving support device 1. The gaze information extraction unit 11 analyzes the front image and the eye image, and calculates the gaze position (x e (t), y e (t)) of the vehicle driver in the front image at time t as shown in FIG. Extract. The gaze information extraction unit 11 outputs the obtained gaze information f (t) = (x e (t), y e (t)) at time t to the time-series feature amount calculation unit 12.

ここで、車両運転者の視線方向は、たとえば、特許文献4の視線方向検出方法のように
、可視光感知カメラと赤外光感知カメラによって撮影された2つの眼画像の差分画像を適
当な閾値と比較することにより虹彩部分を抽出して視線方向を検出することができる。そして、眼画像を撮影するカメラと前方画像を撮影するカメラの位置関係等に基づいて、車両運転者の時刻tにおける視線位置(xe(t),ye(t))を検出することができる。
Here, the line-of-sight direction of the vehicle driver is, for example, a difference image between two eye images captured by a visible light-sensitive camera and an infrared light-sensitive camera, as in the line-of-sight detection method of Patent Document 4, with an appropriate threshold value. By comparing with, the iris portion can be extracted to detect the line-of-sight direction. Then, based on the positional relationship between the camera that captures the eye image and the camera that captures the front image, the gaze position (x e (t), y e (t)) of the vehicle driver at time t can be detected. it can.

時系列特徴量算出部12は、注視情報抽出部11で得られた注視情報f(t)を用いて時系列特徴量F(t)を算出し、正常データ格納部13および評価データ格納部14に出力する。具体的には、図3のように、時間的に連続したK個の注視情報f(t)を連結して時系列特徴量F(t)を算出する。   The time-series feature amount calculation unit 12 calculates the time-series feature amount F (t) using the gaze information f (t) obtained by the gaze information extraction unit 11, and the normal data storage unit 13 and the evaluation data storage unit 14 Output to. Specifically, as shown in FIG. 3, the time series feature amount F (t) is calculated by concatenating K gaze information f (t) continuous in time.

たとえば、K=3の場合、時刻t=0における時系列特徴量F(0)は、
F(0)=(f(0), f(1), f(2))=(xe(0), ye(0), xe(1), ye(1), xe(2), ye(2))
の6(2×K)次元のベクトルで与えられる。また、時刻t=1における時系列特徴量F(1)は、
F(1)=(f(1), f(2), f(3))=(xe(1), ye(1), xe(2), ye(2), xe(3), ye(3))
の6(2×K)次元のベクトルで与えられる。さらに、時刻t=2における時系列特徴量F(2)は、
F(2)=(f(2), f(3), f(4))=(xe(2), ye(2), xe(3), ye(3), xe(4), ye(4))
の6(2×K)次元のベクトルで与えられる。以下同様の手順で、時系列特徴量F(3), F(4),…を算出することができる。ここで、時刻t=0, 1, 2, …は、この順番で連続した時刻(
タイムステップ)である。
For example, when K = 3, the time-series feature amount F (0) at time t = 0 is
F (0) = (f (0), f (1), f (2)) = (x e (0), y e (0), x e (1), y e (1), x e ( 2), y e (2))
Of 6 (2 × K) dimensional vectors. In addition, the time-series feature amount F (1) at time t = 1 is
F (1) = (f (1), f (2), f (3)) = (x e (1), y e (1), x e (2), y e (2), x e ( 3), y e (3))
Of 6 (2 × K) dimensional vectors. Furthermore, the time-series feature amount F (2) at time t = 2 is
F (2) = (f (2), f (3), f (4)) = (x e (2), y e (2), x e (3), y e (3), x e ( 4), y e (4))
Of 6 (2 × K) dimensional vectors. Thereafter, time-series feature values F (3), F (4),... Can be calculated in the same procedure. Here, the times t = 0, 1, 2, ... are consecutive times in this order (
Time step).

ここで、注視情報の連結数Kは、試行錯誤的に決定すればよい。あるいは、システム全
体に要求される漫然運転の識別性能に応じて決定してもよい。あるいは、システム全体に要求される処理時間に応じて決定してもよい。
Here, the connection number K of gaze information may be determined by trial and error. Or you may determine according to the discriminating performance of the casual driving required for the whole system. Or you may determine according to the processing time requested | required of the whole system.

ここでは、時刻tにおける時系列特徴量F(t)を、時刻tを始点とした連続したK個の注視
情報の組み合わせとする場合を説明したが、その他の方法による定義も可能である。たとえば、F(t)=(f(t-2), f(t-1), f(t))のように、時刻tを終点とした連続したK個(ここで
はK=3としている)の注視情報の組み合わせとして定義することができる。あるいは、F(t)=(f(t-1), f(t), f(t+1))のように、時刻tを中心とした連続したK個の注視情報の組み合わせとして定義してもよい。
Here, a case has been described in which the time-series feature amount F (t) at time t is a combination of continuous K pieces of gaze information starting from time t, but it can be defined by other methods. For example, F (t) = (f (t-2), f (t-1), f (t)), and so on. Can be defined as a combination of gaze information. Alternatively, it is defined as a combination of continuous K gaze information centered on time t, such as F (t) = (f (t-1), f (t), f (t + 1)) Also good.

正常データ格納部13は、あらかじめ漫然運転でない状態(以後、平常運転とよぶ)で所定時間抽出した時系列特徴量を格納し、相違算出部15に出力する。具体的には、時系列特徴量算出部12を用いて得られた時刻t=0〜Tまでの時系列特徴量F(0), F(1),…,F(T)を格納する。ここで、時間Tは、正常データ格納部12のメモリ容量の大きさに応じて決定すれば
よい。あるいは、システム全体に要求される処理速度に応じて決定してもよい。
The normal data storage unit 13 stores a time-series feature amount extracted in advance for a predetermined time in a state where it is not a random operation (hereinafter referred to as normal operation), and outputs it to the difference calculation unit 15. Specifically, time series feature values F (0), F (1),..., F (T) from time t = 0 to T obtained by using the time series feature quantity calculation unit 12 are stored. Here, the time T may be determined according to the size of the memory capacity of the normal data storage unit 12. Or you may determine according to the processing speed requested | required of the whole system.

評価データ格納部14は、評価時に所定時間抽出した時系列特徴量を格納し、相違算出部15に出力する。具体的には、時系列特徴量算出部12を用いて得られた時刻t'=0〜T'までの時系列特徴量F'(0), F'(1),…,F'(T')を格納する。ここで時間T'は、評価データ格納部14のメモリ容量の大きさに応じて決定してもよい。あるいは、システム全体に要求される処理時間に応じて決定してもよい。あるいは、正常データ格納部12における時間Tで与えて
もよい。
The evaluation data storage unit 14 stores a time series feature amount extracted for a predetermined time at the time of evaluation, and outputs it to the difference calculation unit 15. Specifically, time series feature values F ′ (0), F ′ (1),..., F ′ (T from time t ′ = 0 to T ′ obtained using the time series feature quantity calculation unit 12 ') Is stored. Here, the time T ′ may be determined according to the memory capacity of the evaluation data storage unit 14. Or you may determine according to the processing time requested | required of the whole system. Alternatively, the time T in the normal data storage unit 12 may be given.

相違算出部15は、正常データ格納部13に格納したT個の時系列特徴量F(0), F(1), F(2),
…,F(T)と、評価データ格納部14に格納したT'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')との統計的分布の相違Dを算出し、相違提示部16および刺激発生部17に出力する。
ここで、2つの時系列特徴量の統計的分布の相違Dは、T個の時系列特徴量F(0), F(1), F(2),…,F(T)からなる標本が従う確率密度と、T'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')からなる標本が従う確率密度とに基づいて推定する。
The difference calculation unit 15 includes T time series feature values F (0), F (1), F (2), stored in the normal data storage unit 13.
..., F (T) and T 'time-series feature values F' (0), F '(1), F' (2), ..., F '(T') stored in the evaluation data storage unit 14 Is calculated and output to the difference presentation unit 16 and the stimulus generation unit 17.
Here, the difference D in the statistical distribution of the two time-series feature quantities is that a sample consisting of T time-series feature quantities F (0), F (1), F (2), ..., F (T) Based on the probability density followed and the probability density followed by the sample consisting of T 'time series features F' (0), F '(1), F' (2), ..., F '(T') presume.

たとえば、非特許文献1の密度比推定法を用いて、T個の時系列特徴量F(0), F(1), F(2),…,F(T)に対する確率密度と、T'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')に対
する確率密度の比(密度比)を推定し、得られた密度の比に基づいて相違Dを算出すれば
よい。確率密度比は、たとえば、非特許文献1に記載の相対密度比推定法、非特許文献2に記載の最小二乗密度比適合法、確率的分類法、積率適合法などによって算出することができる。あるいは、2つの時系列特徴量の統計的分布の相違Dは、たとえば、T個の時系列特
徴量F(0), F(1), F(2),…,F(T)に対する確率密度と、T'個の時系列特徴量F'(0), F'(1), F'(2),…,F'(T')に対する確率密度の差(密度差)を推定し、得られた密度差に基づいて
算出してもよい。確率密度差は、たとえば、非特許文献3に記載の確率密度差推定法によ
って算出することができる。
For example, using the density ratio estimation method of Non-Patent Document 1, the probability density for T time series feature quantities F (0), F (1), F (2),..., F (T) and T ′ Estimate the probability density ratio (density ratio) for each of the time series features F '(0), F' (1), F '(2), ..., F' (T ') The difference D may be calculated based on the ratio. The probability density ratio can be calculated by, for example, the relative density ratio estimation method described in Non-Patent Document 1, the least square density ratio fitting method described in Non-Patent Document 2, the probabilistic classification method, the product moment fitting method, and the like. . Alternatively, the difference D in the statistical distribution of two time-series feature quantities is, for example, the probability density for T time-series feature quantities F (0), F (1), F (2), ..., F (T) And estimate the probability density difference (density difference) for T 'time-series features F' (0), F '(1), F' (2), ..., F '(T'). You may calculate based on the obtained density difference. The probability density difference can be calculated by a probability density difference estimation method described in Non-Patent Document 3, for example.

相違提示部16は、相違算出部15で得られた相違Dを、視覚情報の形式で車両運転者に提
示する。相違提示部16は、たとえば、相違Dを直感的に分かりやすい図形で可視化し、車
両運転者に提示する。具体的には、図4(A)のように、相違Dが大きければ大きいほど漫然
運転の可能性が高いこと(不良)、相違Dが小さければ小さいほど平常運転の可能性が高
いこと(良好)が直感的にわかるように提示すればよい。あるいは、図4(B)のような図形を用いてもよい。あるいは、図4(C)のような図形を用いてもよい。あるいは、図4(D)のような図形を用いてもよい。このように、図4(A)-4(D)のような図形を車両運転者に提示す
ることで、車両運転者に注意を促すことができる。相違提示部16は、図形以外にも、文字(テキスト)出力によって相違Dを車両運転者に提示してもよい。
The difference presentation unit 16 presents the difference D obtained by the difference calculation unit 15 to the vehicle driver in the form of visual information. For example, the difference presentation unit 16 visualizes the difference D in an intuitively easy-to-understand figure and presents it to the vehicle driver. Specifically, as shown in FIG. 4 (A), the larger the difference D, the higher the possibility of a rough driving (bad), and the smaller the difference D, the higher the possibility of normal driving (good). ) Should be presented in an intuitive manner. Alternatively, a figure as shown in FIG. 4B may be used. Alternatively, a figure as shown in FIG. 4C may be used. Alternatively, a figure as shown in FIG. 4 (D) may be used. Thus, the vehicle driver can be alerted by presenting the figure as shown in FIGS. 4 (A) -4 (D) to the vehicle driver. In addition to the graphic, the difference presentation unit 16 may present the difference D to the vehicle driver by outputting characters (text).

なお、ここでは情報提示部16が相違Dを常に提示するように説明しているが、相違Dの大きさが所定の閾値Thよりも大きい場合のみ相違Dを提示してもよい。すなわち、漫然運転
の可能性が高い場合のみ、視覚情報による提示を行うようにしてもよい。閾値Thは、たとえば、交差確認法を用いて算出することができる。
Here, the information presentation unit 16 is described to always present the difference D, but the difference D may be presented only when the magnitude of the difference D is larger than a predetermined threshold Th. That is, presentation with visual information may be performed only when there is a high possibility of casual driving. The threshold value Th can be calculated using, for example, an intersection confirmation method.

刺激発生部17は、相違算出部15で得られた相違Dに基づいて、車両運転者に刺激を与え
る。具体的には、相違Dの大きさに応じて運転席を振動(バイブレーション)させればよ
い。あるいは、相違Dの大きさに応じて車両運転者が握るハンドルを振動(バイブレーシ
ョン)させてもよい。あるいは、相違Dの大きさに応じてシートベルトの締め付け強さを
制御して振動させてもよい。あるいは、相違Dの大きさに応じて警告音を発してもよい。
あるいは、相違Dの大きさに応じて「安全運転ですね。その調子。」「注意力が散漫のよ
うです。気を付けて。」「お疲れではないですか?次のサービスエリアで休憩してみてはいかがですか?」といった音声で注意を促してもよい。また、これらの複数の手法を組み合わせて利用してもよい。
The stimulus generation unit 17 gives a stimulus to the vehicle driver based on the difference D obtained by the difference calculation unit 15. Specifically, the driver's seat may be vibrated (vibrated) according to the magnitude of the difference D. Or you may vibrate the handle which a vehicle driver grasps according to the size of difference D. Alternatively, the seat belt may be vibrated by controlling the tightening strength of the seat belt according to the size of the difference D. Alternatively, a warning sound may be emitted according to the magnitude of the difference D.
Or, depending on the size of the difference D, “It ’s safe driving. That ’s how it ’s going.” “It looks like the attention is distracting.” “Would you be tired? Rest in the next service area. You may call attention with a voice such as "Would you like to try it?" Moreover, you may utilize combining these some methods.

なお、相違算出部15で得られた相違Dの大きさが所定の閾値Th'よりも小さい場合には、平常運転(漫然運転ではない)と判断して、刺激発生部17による出力は行わなくてもよい。閾値Th'は上述した閾値Thと同じ値であってもよいし異なる値であってもよい。   If the magnitude of the difference D obtained by the difference calculation unit 15 is smaller than the predetermined threshold Th ′, it is determined that the driving is normal driving (not random driving), and the output by the stimulus generation unit 17 is not performed. May be. The threshold value Th ′ may be the same value as or different from the threshold value Th described above.

(方法)
本実施形態の車両運転支援装置1が行う処理の流れについて説明する。
(Method)
A flow of processing performed by the vehicle driving support device 1 of the present embodiment will be described.

まず、図1(B)を参照して、正常データの学習処理を説明する。ステップS11において
、平常運転(漫然運転でない状態)において撮影された前方画像と眼画像を注視情報抽出部11に入力し、上述した手法により、注視情報抽出部11がこれらの画像から注視情報を抽出する。そして、ステップS12において、時系列特徴量算出部12が、抽出された注視情報
を用いて時系列特徴量を算出する。複数の平常運転に関する画像が用意されている場合には、これら複数の画像からそれぞれ注視情報の抽出および時系列特徴量の算出が行われる。ステップS13において、時系列特徴量算出部12は、ステップS12で算出した時系列特徴量を正常データとして正常データ格納部13に格納する。
First, normal data learning processing will be described with reference to FIG. In step S11, the forward image and the eye image taken in normal driving (non-manage driving) are input to the gaze information extraction unit 11, and the gaze information extraction unit 11 extracts gaze information from these images by the method described above. To do. In step S12, the time-series feature amount calculation unit 12 calculates the time-series feature amount using the extracted gaze information. When a plurality of images related to normal driving are prepared, gaze information is extracted from each of the plurality of images and a time-series feature amount is calculated. In step S13, the time-series feature amount calculation unit 12 stores the time-series feature amount calculated in step S12 in the normal data storage unit 13 as normal data.

次に、図1(C)を参照して、漫然運転検出時における処理を説明する。図1(c)に記載の処理は、たとえば運転中に定期的に繰り返し実行される。ステップS21において、運転中
に撮影された前方画像と眼画像を注視情報抽出部11に入力し、上述した手法により、注視情報抽出部11がこれらの画像から注視情報を抽出する。そして、ステップS22において、
時系列特徴量算出部12が、抽出された注視情報を用いて時系列特徴量を算出する。ステップS23において、相違算出部15は、ステップS22で算出された時系列特徴量と、正解データ格納部13に格納されている平常運転時の時系列特徴量の統計的分布の相違Dを算出する。
ステップS24において、相違提示部16および刺激発生部17が、ステップS23で算出された相違Dの大きさに応じて画像出力や刺激付与を行うことで車両運転者に対して注意喚起する
Next, with reference to FIG. 1 (C), a process at the time of detecting a random operation will be described. The process shown in FIG. 1 (c) is repeatedly executed periodically during operation, for example. In step S21, the forward image and the eye image taken during driving are input to the gaze information extraction unit 11, and the gaze information extraction unit 11 extracts gaze information from these images by the above-described method. And in step S22,
The time series feature quantity calculation unit 12 calculates a time series feature quantity using the extracted gaze information. In step S23, the difference calculation unit 15 calculates the difference D between the time series feature quantity calculated in step S22 and the statistical distribution of the time series feature quantity stored in the correct data storage unit 13 during normal operation. .
In step S24, the difference presentation unit 16 and the stimulus generation unit 17 alert the vehicle driver by outputting an image and applying a stimulus according to the magnitude of the difference D calculated in step S23.

(本実施形態の有利な効果)
本実施形態にかかる車両運転支援装置1によれば、車両運転者の漫然運転を精度良く検
出することができる。また、漫然運転の傾向を検知し、その傾向に基づいて車両運転者に刺激を与えることで、漫然運転を未然に防止することができる。
(Advantageous effects of this embodiment)
According to the vehicle driving support device 1 according to the present embodiment, it is possible to accurately detect the vague driving of the vehicle driver. Moreover, by detecting the tendency of random driving and giving a stimulus to the vehicle driver based on the tendency, it is possible to prevent the rough driving.

従来技術のように、漫然運転時に抽出した車両運転者の視線情報の統計的分布に基づいて平常運転か漫然運転かを判別する手法では、未知の異常パターンに対応できなかったり、複雑に要因の絡んだパターンを定義することが難しかったりするという問題がある。本実施形態では、平常運転時に抽出した車両運転者の視線情報の統計的分布を正解データとして記憶しておき、運転時の視線情報の統計的分布との総意に基づいて漫然運転を判定している。したがって、未知の異常パターンにも対応することができる。また、複雑な要因の絡んだ異常パターンを定義する必要もない。このように、本実施形態によれば、漫然運転を精度良く検出することが可能である。   As in the prior art, the method of discriminating between normal driving and rough driving based on the statistical distribution of vehicle driver's line-of-sight information extracted during rough driving cannot deal with unknown abnormal patterns or has complicated factors. There is a problem that it is difficult to define an entangled pattern. In this embodiment, the statistical distribution of the vehicle driver's line-of-sight information extracted during normal driving is stored as correct data, and casual driving is determined based on the consensus with the statistical distribution of the line-of-sight information during driving. Yes. Therefore, it is possible to deal with unknown abnormal patterns. Also, it is not necessary to define an abnormal pattern involving complicated factors. As described above, according to the present embodiment, it is possible to accurately detect a rough driving.

<第2の実施形態>
本発明の第2の実施形態について、図5〜図10を参照して説明する。
<Second Embodiment>
A second embodiment of the present invention will be described with reference to FIGS.

図5(A)は、本発明の第2の実施形態に係る車両運転支援装置2の概略構成を示すブロック図である。本実施形態に係る車両運転支援装置は、半導体集積回路(LSI)を用いて実現で
きる。車両運転支援装置2は、図5(A)に示すように、注視情報抽出部21、時系列特徴量算
出部22、正常データ格納部23、評価データ格納部24、相違算出部25、相違提示部26、刺激発生部27を有する。これらの構成要素は車両運転支援装置2が果たす機能にそれぞれ対応
している。なお、本実施形態においては、第1の実施形態との相違箇所のみ言及する。
FIG. 5 (A) is a block diagram showing a schematic configuration of the vehicle driving support apparatus 2 according to the second embodiment of the present invention. The vehicle driving support apparatus according to the present embodiment can be realized using a semiconductor integrated circuit (LSI). As shown in FIG. 5A, the vehicle driving support device 2 includes a gaze information extraction unit 21, a time-series feature amount calculation unit 22, a normal data storage unit 23, an evaluation data storage unit 24, a difference calculation unit 25, a difference presentation Part 26 and stimulus generator 27. These components correspond to the functions performed by the vehicle driving support device 2. Note that in the present embodiment, only differences from the first embodiment will be mentioned.

第1の実施形態では、注視情報抽出部11において、時刻tにおける前方画像中の車両運転者の視線位置(xe(t),ye(t))を算出し、得られた時刻tにおける注視情報f(t)=(xe(t),ye(t))を時系列特徴量算出部12に出力したのに対して、本実施形態では、車両運転者の時刻t
における視線情報(xe(t),ye(t))だけでなく、その他の様々な情報(たとえば、車両運転
者の視線情報(xe(t),ye(t))における対象物の属性情報、距離情報、あるいは車両運転者
の生体情報など)を用いて、より注視情報の情報量を高める点に特徴がある。
In the first embodiment, the gaze information extraction unit 11 calculates the gaze position (x e (t), y e (t)) of the vehicle driver in the forward image at time t, and the obtained time t While the gaze information f (t) = (x e (t), y e (t)) is output to the time-series feature amount calculation unit 12, in this embodiment, the vehicle driver's time t
Eye movement as well (x e (t), y e (t)), a variety of other information (e.g., vehicle operator's line of sight information (x e (t), the object in the y e (t)) The attribute information, distance information, or biological information of the vehicle driver is used to increase the amount of gaze information.

注視情報抽出部21は、図5(B)のように、画像取得部211、視線位置検出部212、歩行者検出部213、車両検出部214、標識検出部215、信号機検出部216、距離情報算出部217、生体
情報取得部218、注視情報算出部219とから構成される。
As shown in FIG. 5 (B), the gaze information extraction unit 21 includes an image acquisition unit 211, a gaze position detection unit 212, a pedestrian detection unit 213, a vehicle detection unit 214, a sign detection unit 215, a traffic light detection unit 216, and distance information. The calculation unit 217 includes a biological information acquisition unit 218 and a gaze information calculation unit 219.

画像取得部211は、車両運転支援装置2の外部から入力される車両の前方方向の画像(以下、前方画像とよぶ)を取得し、視線位置検出部212、歩行者検出部213、車両検出部214
、標識検出部215、信号機検出部216、距離情報算出部217、生体情報取得部218に出力する。画像取得部211は、また、車両運転支援装置1の外部から入力される車両運転者の眼の画像(以下、眼画像とよぶ)を取得し、視線位置検出部212に出力する。
The image acquisition unit 211 acquires an image in the forward direction of the vehicle (hereinafter referred to as a forward image) input from the outside of the vehicle driving support device 2, and a line-of-sight position detection unit 212, a pedestrian detection unit 213, a vehicle detection unit 214
, Output to the sign detection unit 215, the traffic light detection unit 216, the distance information calculation unit 217, and the biological information acquisition unit 218. The image acquisition unit 211 also acquires an image of the eyes of the vehicle driver (hereinafter referred to as an eye image) input from the outside of the vehicle driving support device 1 and outputs the acquired image to the line-of-sight position detection unit 212.

視線位置検出部212は、前方画像と眼画像を解析して、図2のように、時刻tにおける前
方画像中の車両運転者の視線位置(xe(t), ye(t))を抽出する。視線位置の抽出方法は、第1の実施形態において説明した方法と同様の方法により行えばよい。
The line-of-sight position detection unit 212 analyzes the front image and the eye image, and calculates the line-of-sight position (x e (t), y e (t)) of the vehicle driver in the front image at time t as shown in FIG. Extract. The line-of-sight position extraction method may be performed by a method similar to the method described in the first embodiment.

歩行者検出部213は、図6のように、時刻tにおける前方画像中の歩行者pの位置(xp(t), yp(t))と歩行者pを包含する矩形領域の水平および垂直方向の大きさ(hp(t), vp(t))を算
出し、注視情報算出部219に出力する。ここで、前方画像中の歩行者pの位置(xp(t), yp(t))と歩行者pを包含する矩形領域の水平および垂直方向の大きさ(hp(t), vp(t))は、既存
の任意の手法によって算出すればよい。たとえば、特許文献5,6,7に記載の手法を用いる
ことができる。
As shown in FIG. 6, the pedestrian detection unit 213 performs horizontal and horizontal positions of a rectangular area including the position (x p (t), y p (t)) of the pedestrian p in the forward image at time t and the pedestrian p. The vertical size (h p (t), v p (t)) is calculated and output to the gaze information calculation unit 219. Here, the position of the pedestrian p in the forward image (x p (t), y p (t)) and the size of the rectangular area encompassing the pedestrian p (h p (t), v p (t)) may be calculated by any existing method. For example, the methods described in Patent Documents 5, 6, and 7 can be used.

このとき、車両運転者の時刻tにおける視線位置(xe(t), ye(t))が、前方画像中の位置(xp(t), yp(t))における大きさ(hp(t), vp(t))の矩形領域の内側にある場合、車両運転者
は時刻tにおいて歩行者pを目視したことがわかる。一方、車両運転者の時刻tにおける視
線位置(xe(t), ye(t))が、前方画像中の位置(xp(t),yp(t))における大きさ(hp(t),vp(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて歩行者pを目視しなかったことがわかる。また、時刻tにおいて前方画像中に歩行者pが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xp(t), yp(t))=(W/2,H/2),(hp(t), vp(t))=(W/2,H/2)を出力すればよい。
At this time, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is the size (h in the position (x p (t), y p (t)) in the forward image. When it is inside the rectangular area of p (t), v p (t)), it can be seen that the vehicle driver visually observed the pedestrian p at time t. On the other hand, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h p at the position (x p (t), y p (t)) in the forward image. When it is outside the rectangular area of (t), v p (t)), it can be seen that the vehicle driver did not visually observe the pedestrian p at time t. Also, when pedestrian p is not detected in the front image at time t, the horizontal and vertical size of the front image is (W, H), and (x p (t), y p (t)) = (W / 2, H / 2), (h p (t), v p (t)) = (W / 2, H / 2) may be output.

車両検出部214は、図7のように、時刻tにおける前方画像中の車両cの位置(xc(t), yc(t))と車両cを包含する矩形領域の水平および垂直方向の大きさ(hc(t), vc(t))を算出し、
注視情報算出部219に出力する。ここで、前方画像中の車両cの位置(xc(t), yc(t))と車両cを包含する矩形領域の水平および垂直方向の大きさ(hc(t), vc(t))は、既存の任意の手
法によって算出すればよい。たとえば、特許文献8,9に記載の手法を用いることができる
As shown in FIG. 7, the vehicle detection unit 214 is arranged in the horizontal and vertical directions of the position (x c (t), y c (t)) of the vehicle c in the forward image at the time t and the rectangular area including the vehicle c. Calculate the size (h c (t), v c (t))
Output to the gaze information calculation unit 219. Here, the position (x c (t), y c (t)) of the vehicle c in the front image and the horizontal and vertical sizes (h c (t), v c ( t)) may be calculated by any existing method. For example, the methods described in Patent Documents 8 and 9 can be used.

このとき、車両運転者の時刻tにおける視線位置(xe(t), ye(t))が、前方画像中の位置(xc(t), yc(t))における大きさ(hc(t), vc(t))の矩形領域の内側にある場合、車両運転者
は時刻tにおいて車両cを目視したことがわかる。一方、車両運転者の時刻tにおける視線
位置(xe(t), ye(t))が、前方画像中の位置(xc(t),yc(t))における大きさ(hc(t),vc(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて車両cを目視しなかったことがわかる。また、時刻tにおいて前方画像中に車両cが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xc(t), yc(t))=(W/2,H/2),(hc(t), vc(t))=(W/2,H/2)を出力すればよい。
At this time, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h in the position (x c (t), y c (t)) in the forward image. When it is inside the rectangular area of c (t), v c (t)), it can be seen that the vehicle driver visually observed the vehicle c at time t. On the other hand, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h c ) at the position (x c (t), y c (t)) in the forward image. When it is outside the rectangular area (t), v c (t)), it can be seen that the vehicle driver did not visually observe the vehicle c at time t. If the vehicle c is not detected in the front image at time t, the horizontal and vertical sizes of the front image are (W, H), and (x c (t), y c (t)) = ( W / 2, H / 2), (h c (t), v c (t)) = (W / 2, H / 2) may be output.

標識検出部215は、図8のように、時刻tにおける前方画像中の標識sの位置(xs(t), ys(t))と標識sを包含する矩形領域の水平および垂直方向の大きさ(hs(t), vs(t))を算出し、
注視情報算出部219に出力する。ここで、前方画像中の標識sの位置(xs(t), ys(t))と標識sを包含する矩形領域の水平および垂直方向の大きさ(hc(t), vc(t))は、既存の任意の手
法によって算出すればよい。たとえば、特許文献10,11に記載の手法を用いることができ
る。
As shown in FIG. 8, the sign detection unit 215 is arranged in the horizontal and vertical directions of the rectangular area including the position (x s (t), y s (t)) of the sign s in the forward image at the time t and the sign s. Calculate the size (h s (t), v s (t))
Output to the gaze information calculation unit 219. Here, the position of the sign s in the forward image (x s (t), y s (t)) and the horizontal and vertical size (h c (t), v c ( t)) may be calculated by any existing method. For example, the methods described in Patent Documents 10 and 11 can be used.

このとき、車両運転者の時刻tにおける視線位置(xe(t), ye(t))が、前方画像中の位置(xs(t), ys(t))における大きさ(hs(t), vs(t))の矩形領域の内側にある場合、車両運転者
は時刻tにおいて標識sを目視したことがわかる。一方、車両運転者の時刻tにおける視線
位置(xe(t), ye(t))が、前方画像中の位置(xs(t),ys(t))における大きさ(hs(t),vs(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて標識sを目視しなかったことがわかる。また、時刻tにおいて前方画像中に標識sが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xs(t), ys(t))=(W/2,H/2),(hs(t), vs(t))=(W/2,H/2)を出力すればよい。
At this time, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h in the position (x s (t), y s (t)) in the forward image. When it is inside the rectangular area of s (t), v s (t)), it can be seen that the vehicle driver has visually observed the sign s at time t. On the other hand, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is the size (h s ) at the position (x s (t), y s (t)) in the forward image. When it is outside the rectangular area of (t), v s (t)), it can be seen that the vehicle driver did not visually observe the sign s at time t. In addition, when the sign s is not detected in the front image at the time t, the horizontal and vertical sizes of the front image are (W, H), and (x s (t), y s (t)) = ( W / 2, H / 2), (h s (t), v s (t)) = (W / 2, H / 2) may be output.

信号機検出部216は、図9のように、時刻tにおける前方画像中の信号機gの位置(xg(t), yg(t))と信号機gを包含する矩形領域の水平および垂直方向の大きさ(hg(t), vg(t))を算
出し、注視情報算出部219に出力する。ここで、前方画像中の信号機gの位置(xg(t), yg(t))と信号機gを包含する矩形領域の水平および垂直方向の大きさ(hg(t), vg(t))は、既存
の任意の手法によって算出すればよい。たとえば、特許文献12,13に記載の手法を用いる
ことができる。
As shown in FIG. 9, the traffic light detection unit 216 is arranged in the horizontal and vertical directions of the rectangular area that includes the position (x g (t), y g (t)) of the traffic light g in the forward image at the time t and the traffic light g. The size (h g (t), v g (t)) is calculated and output to the gaze information calculation unit 219. Here, the position (x g (t), y g (t)) of the traffic light g in the front image and the horizontal and vertical sizes (h g (t), v g ( t)) may be calculated by any existing method. For example, the methods described in Patent Documents 12 and 13 can be used.

このとき、車両運転者の時刻tにおける視線位置(xe(t), ye(t))が、前方画像中の位置(xg(t), yg(t))における大きさ(hg(t), vg(t))の矩形領域の内側にある場合、車両運転者
は時刻tにおいて信号機gを目視したことがわかる。一方、車両運転者の時刻tにおける視
線位置(xe(t), ye(t))が、前方画像中の位置(xg(t),yg(t))における大きさ(hg(t),vg(t))の矩形領域の外側にある場合、車両運転者は時刻tにおいて信号機gを目視しなかったことがわかる。また、時刻tにおいて前方画像中に信号機gが検出されなかった場合は、前方画像の水平および垂直方向サイズを(W,H)として、(xg(t), yg(t))=(W/2,H/2),(hg(t), vg(t))=(W/2,H/2)を出力すればよい。
At this time, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t is a size (h in the position (x g (t), y g (t)) in the forward image. When it is inside the rectangular area of g (t), v g (t)), it can be seen that the vehicle driver visually observed the traffic light g at time t. On the other hand, the line-of-sight position (x e (t), y e (t)) of the vehicle driver at the time t is a size (h g ) at the position (x g (t), y g (t)) in the forward image. When it is outside the rectangular area (t), v g (t)), it can be seen that the vehicle driver did not visually observe the traffic light g at time t. In addition, when the traffic light g is not detected in the front image at the time t, the horizontal and vertical sizes of the front image are (W, H), and (x g (t), y g (t)) = ( W / 2, H / 2), (h g (t), v g (t)) = (W / 2, H / 2) may be output.

距離情報算出部217は、図10(A),10(B)のように、車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(t)を算出し、注視情報算出部219に出力する。図10(a)は車両
運転者の時刻tにおける視線位置(xe(t), ye(t))を表す。同様に、図10(b)は車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(xe(t), ye(t))を表す。ここで、車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(xe(t), ye(t))は、既存の任意の手法によって算出すればよい。たとえば、特許文献13,14,15に記載のステレオ測距の手法を用いてもよいし、TOF(Time Of Flight)手法を用いてもよい。
The distance information calculation unit 217, as shown in FIGS. 10 (A) and 10 (B), is distance information z (t) of the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t. Is output to the gaze information calculation unit 219. FIG. 10 (a) shows the line-of-sight position (x e (t), y e (t)) of the vehicle driver at time t. Similarly, FIG. 10 (b) represents the distance information z (x e (t), y e (t)) of the gaze position (x e (t), y e (t)) of the vehicle driver at time t. . Here, the distance information z (x e (t), y e (t)) of the line-of-sight position (x e (t), y e (t)) at the time t of the vehicle driver is obtained by any existing method. What is necessary is just to calculate. For example, the stereo ranging method described in Patent Documents 13, 14, and 15 may be used, or the TOF (Time Of Flight) method may be used.

生体情報取得部218は、時刻tにおける車両運転者の生体情報v(t)を抽出し、注視情報算出部219に出力する。ここで、車両運転者の時刻tにおける生体情報v(t)は、どのような生体情報であってもよい。たとえば、車両運転者の心拍、脈拍、心電、呼吸、体温、体重、体脂肪、血圧、発汗、視線、筋電、皮膚インピーダンスなどの1つまたは複数を生体情報
として抽出すればよい。これらの生体情報の抽出方法には既存の任意の手法を採用できる。たとえば、心拍であれば特許文献17,18に記載の手法を用いることができる。脈拍、心
電、呼吸、体温、体重、体脂肪、血圧、発汗、視線、筋電、皮膚インピーダンスについては特許文献18に記載の手法を用いることができる。
The biological information acquisition unit 218 extracts the biological information v (t) of the vehicle driver at time t and outputs it to the gaze information calculation unit 219. Here, the biological information v (t) of the vehicle driver at time t may be any biological information. For example, one or more of the vehicle driver's heartbeat, pulse, electrocardiogram, respiration, body temperature, weight, body fat, blood pressure, sweating, line of sight, myoelectricity, skin impedance, etc. may be extracted as biometric information. Any existing method can be adopted as a method for extracting such biological information. For example, if it is a heartbeat, the method of patent document 17, 18 can be used. For the pulse, electrocardiogram, respiration, body temperature, weight, body fat, blood pressure, sweating, line of sight, myoelectricity, and skin impedance, the technique described in Patent Document 18 can be used.

注視情報算出部219は、視線位置検出部212で得られた時刻tにおける前方画像中の車両
運転者の視線位置(xe(t), ye(t))と、歩行者検出部213で得られた時刻tにおける前方画像中の歩行者pの位置(xp(t), yp(t))と歩行者pを包含する矩形領域の水平および垂直方向の大きさ(hp(t), vp(t))と、車両検出部214で得られた時刻tにおける前方画像中の車両cの
位置(xc(t), yc(t))と車両cを包含する矩形領域の水平および垂直方向の大きさ(hc(t), v
c(t))と、標識検出部215で得られた時刻tにおける前方画像中の標識sの位置(xs(t), ys(t))と標識sを包含する矩形領域の水平および垂直方向の大きさ(hs(t), vs(t))と、信号機
検出部216で得られた時刻tにおける前方画像中の信号機gの位置(xg(t), yg(t))と信号機gを包含する矩形領域の水平および垂直方向の大きさ(hg(t), vg(t))と、距離情報算出部217で得られた車両運転者の時刻tにおける視線位置(xe(t), ye(t))の距離情報z(t)と、生体情報取得部218で得られた時刻tにおける車両運転者の生体情報v(t)を用いて注視情報f(t)=(X(t), Y(t), z(t), v(t))を算出し、時系列特徴量算出部22に出力する。具体的には、(X(t), Y(t))は次式で定義する。

Figure 0006459856

ここで、上式の分母の各定数は次式で与えられる。
Figure 0006459856
The gaze information calculation unit 219 includes the gaze position (x e (t), y e (t)) of the vehicle driver in the front image at the time t obtained by the gaze position detection unit 212, and the pedestrian detection unit 213. The position of the pedestrian p in the forward image at the obtained time t (x p (t), y p (t)) and the horizontal and vertical size (h p (t ), v p (t)), and a rectangular area including the position of the vehicle c (x c (t), y c (t)) and the vehicle c in the forward image at the time t obtained by the vehicle detection unit 214 Horizontal and vertical dimensions (h c (t), v
c (t)), the position (x s (t), y s (t)) of the sign s in the forward image at time t obtained by the sign detection unit 215, and the horizontal direction of the rectangular area including the sign s and The vertical size (h s (t), v s (t)) and the position of the traffic light g in the forward image at the time t obtained by the traffic light detection unit 216 (x g (t), y g (t )) And the size (h g (t), v g (t)) of the rectangular area including the traffic light g, and the line of sight of the vehicle driver at the time t obtained by the distance information calculation unit 217. Gaze information using distance information z (t) of position (x e (t), y e (t)) and biological information v (t) of the vehicle driver at time t obtained by biological information acquisition unit 218 f (t) = (X (t), Y (t), z (t), v (t)) is calculated and output to the time-series feature amount calculation unit 22. Specifically, (X (t), Y (t)) is defined by the following equation.
Figure 0006459856

Here, each constant of the denominator of the above equation is given by the following equation.
Figure 0006459856

注視情報f(t)に含まれるX(t)およびY(t)は、注視すべき物体(歩行者、車両、標識、信号機)の位置と車両運転者の視線位置の相違を物体の大きさに応じて正規化して表した情報であり、車両運転者が注視すべき物体をどの程度注視しているかを表した情報といえる。したがって、車両運転者が注視すべき物体をどの程度注視しているかを表すことができれば、上記以外の定義を採用してもよい。たとえば、X方向とY方向に分けて物体位置と視線位置の差を求めているが、物体位置と視線位置の間の距離(相違)を1つの値で評価し
てもよい。
X (t) and Y (t) included in the gaze information f (t) indicate the difference between the position of the object (pedestrian, vehicle, sign, traffic signal) to be watched and the gaze position of the vehicle driver. It can be said that it is information that is normalized according to the above, and is information that indicates how much the object that the vehicle driver is gazing at. Therefore, as long as it can represent how much the vehicle driver is gazing at the object to be watched, definitions other than the above may be adopted. For example, although the difference between the object position and the line-of-sight position is obtained separately in the X direction and the Y direction, the distance (difference) between the object position and the line-of-sight position may be evaluated with one value.

本実施形態によれば、車両運転者の視線位置における対象物の属性情報や距離情報、あるいは車両運転者の生体情報など様々な情報を注視情報としているので、特徴量の情報量を高めることができる。   According to the present embodiment, since various information such as the attribute information and distance information of the object at the line-of-sight position of the vehicle driver or the biological information of the vehicle driver is used as the gaze information, the information amount of the feature amount can be increased. it can.

<第3の実施形態>
本発明の第3の実施形態について、図11を参照して説明する。
<Third embodiment>
A third embodiment of the present invention will be described with reference to FIG.

図11は、本発明の第3の実施形態に係る車両運転支援装置3の概略構成を示すブロック図である。本実施形態に係る車両運転支援装置は、半導体集積回路(LSI)を用いて実現でき
る。車両運転支援装置3は、図11に示すように、注視情報抽出部31、時系列特徴量算出部32、正常データ格納部33、評価データ格納部34、正常データ選択部35、相違算出部36、相
違提示部37、刺激発生部38を有する。これらの構成要素は車両運転支援装置3が果たす機
能にそれぞれ対応している。なお、本実施形態においては、第1の実施形態との相違箇所
のみ言及する。
FIG. 11 is a block diagram showing a schematic configuration of the vehicle driving support apparatus 3 according to the third embodiment of the present invention. The vehicle driving support apparatus according to the present embodiment can be realized using a semiconductor integrated circuit (LSI). As shown in FIG. 11, the vehicle driving support device 3 includes a gaze information extraction unit 31, a time-series feature amount calculation unit 32, a normal data storage unit 33, an evaluation data storage unit 34, a normal data selection unit 35, and a difference calculation unit 36. And a difference presentation unit 37 and a stimulus generation unit 38. These components correspond to the functions performed by the vehicle driving support device 3, respectively. Note that in the present embodiment, only differences from the first embodiment will be mentioned.

第1の実施形態では、正常データ格納部13に格納されたすべての時系列特徴量と評価デ
ータ格納部14に格納された時系列特徴量との統計的分布の相違Dを算出したのに対して、
本実施形態では、正常データ選択部35を用いて、正常データ格納部33に格納された時系列特徴量の部分集合Sを作成し、得られた部分集合Sと評価データ格納部34に格納された時系列特徴量との統計的分布の相違Dを算出する点に特徴がある。
In the first embodiment, the statistical distribution difference D between all the time series feature values stored in the normal data storage unit 13 and the time series feature value stored in the evaluation data storage unit 14 is calculated. And
In the present embodiment, the normal data selection unit 35 is used to create a subset S of time series feature values stored in the normal data storage unit 33, and the obtained subset S and the evaluation data storage unit 34 are stored. This is characterized in that the difference D in statistical distribution with the time series feature quantity is calculated.

正常データ選択部35は、車両運転支援装置1の外部から入力される車両の走行状態や車
両運転者の属性情報に基づいて、正常データ格納部33に格納された時系列特徴量の部分集合Sを作成し、得られた部分集合Sを相違算出部36に出力する。具体的には、部分集合Sは
、車両運転者の属性情報(たとえば、個人名、年齢層、性別など)に基づいて、評価対象の車両運転者と類似する属性情報を有する正常データの集合として作成すればよい。あるいは、部分集合Sは、車両の走行状態(たとえば、市街地を走行時か、高速道路を走行時
か、郊外を走行時か、走行時は日中か、走行時は夜間か、走行時は快晴か、走行時は雨天かなど)に基づいて、評価対象の走行状態と類似する走行状態を有する正常データの集合として作成してもよい。あるいは、部分集合Sは、車両運転者の属性情報と車両の走行状
態の両方に基づいて決定してもよい。
The normal data selection unit 35 is a subset S of time-series feature values stored in the normal data storage unit 33 based on the driving state of the vehicle and the attribute information of the vehicle driver input from the outside of the vehicle driving support device 1. And the obtained subset S is output to the difference calculation unit 36. Specifically, the subset S is a set of normal data having attribute information similar to the vehicle driver to be evaluated based on the vehicle driver attribute information (for example, personal name, age group, gender, etc.). Create it. Alternatively, the subset S may be the driving state of the vehicle (for example, when driving on an urban area, driving on a highway, driving on a suburb, daytime when driving, nighttime when driving, or clear when driving) Or may be created as a set of normal data having a running state similar to the running state to be evaluated. Alternatively, the subset S may be determined based on both the attribute information of the vehicle driver and the traveling state of the vehicle.

なお、本実施形態においては、正常データ格納部33に格納されたデータから車両運転者の属性情報や車両の走行状態に基づいた部分集合を選択できるように、正常データ格納部33に格納されるデータは、車両運転者の属性情報や車両の走行状態と関連付けて記憶される。また、正常データ選択部35には、評価時における車両運転者の属性情報や車両の走行状態を取得して、正常データの選択に利用する。車両運転者の属性情報を車両運転者と関連付けてあらかじめ記憶しておき、正常データ選択部35は、車両運転者から取得される識別情報(たとえば、指紋・虹彩・声紋などの生体情報、識別コードを記憶したICチップやICタグ)や車両運転者からの登録者の選択入力に基づいて対応する属性情報を取得すればよい。また、車両の走行状態は、車両が有する種々のセンサから得られる情報に基づいて取得することができる。   In the present embodiment, the data stored in the normal data storage unit 33 is stored so that a subset based on the attribute information of the vehicle driver and the driving state of the vehicle can be selected from the data stored in the normal data storage unit 33. The data is stored in association with the attribute information of the vehicle driver and the traveling state of the vehicle. Further, the normal data selection unit 35 acquires the attribute information of the vehicle driver at the time of evaluation and the running state of the vehicle, and uses them for selecting normal data. The attribute information of the vehicle driver is stored in advance in association with the vehicle driver, and the normal data selection unit 35 obtains identification information (for example, biometric information such as a fingerprint, an iris, and a voiceprint, an identification code) acquired from the vehicle driver. And the corresponding attribute information may be acquired based on the selection input of the registrant from the vehicle driver. The traveling state of the vehicle can be acquired based on information obtained from various sensors included in the vehicle.

本実施形態によれば、車両運転者の属性情報や車両の走行状態が類似する正常データとの間での比較が可能となるため、より精度の良い漫然運転検知が可能となる。   According to the present embodiment, comparison with normal data with similar vehicle driver attribute information and vehicle running state is possible, and therefore, more accurate and easy driving detection is possible.

<その他の実施形態>
上記の実施形態では、評価時と正常運転時の時系列特徴量の統計的分布の相違に基づいて画像表示や刺激発生を行っているが、当該相違が閾値以上の場合に漫然運転が発生していると検知してその場合のみ画像表示や刺激発生を行っても良い。また、漫然運転の発生が検知された場合の処理は上記に限られず、漫然運転の発生を知らせる通知を他の装置に対して出力するようにしても良い。
<Other embodiments>
In the above embodiment, image display and stimulus generation are performed based on the difference in statistical distribution of time-series feature values during evaluation and normal operation, but if the difference is greater than or equal to a threshold value, random operation occurs. It is also possible to display the image and generate a stimulus only in that case. In addition, the processing when the occurrence of the sloppy driving is detected is not limited to the above, and a notification notifying the occurrence of the sloppy driving may be output to another device.

また、上記の実施形態では、車両運転支援装置が正常運転時の注視情報およびこれに基づく時系列特徴量を算出するものとして説明したが、これらの情報は他の装置によって算出されて車両運転支援装置の正常データ格納部に格納されても構わない。   In the above-described embodiment, the vehicle driving support device has been described as calculating gaze information during normal driving and time-series feature amounts based on the gaze information. However, these pieces of information are calculated by other devices to support vehicle driving. You may store in the normal data storage part of an apparatus.

前記実施形態は半導体集積回路(LSI)に限定されず、コンピュータで実行可能なプログ
ラムその他を用いて実施してもよい。
The embodiment is not limited to a semiconductor integrated circuit (LSI), and may be implemented using a computer-executable program or the like.

1…車両運転支援装置
11…注視情報抽出部
12…時系列特徴量算出部
13…正常データ格納部
14…評価データ格納部
15…相違算出部
16…相違表示部
17…刺激発生部
1 ... Vehicle driving support device
11… Gaze information extraction unit
12… Time series feature quantity calculation unit
13: Normal data storage
14 ... Evaluation data storage
15 ... Difference calculator
16 ... Difference display
17 ... Stimulus generator

Claims (16)

車両運転者の漫然運転を検知する車両運転支援装置であって、
車両の前方方向の画像を取得する画像取得手段と、
車両運転者の注視情報を抽出する注視情報抽出手段と、
前記車両運転者の評価時における注視情報に基づいて、前記画像中において前記車両運転者が注視した位置に関する情報を時系列で表した時系列特徴量を算出する時系列特徴量算出手段と、
正常運転時における注視情報に基づく時系列特徴量を格納する正常データ格納手段と、
前記正常運転時と前記評価時における前記時系列特徴量の統計的分布の相違を算出する相違算出手段と、
前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知手段と、
を備える、車両運転支援装置。
A vehicle driving support device that detects a vague driving of a vehicle driver,
Image acquisition means for acquiring an image in the forward direction of the vehicle;
Gaze information extracting means for extracting gaze information of the vehicle driver;
Based on the gaze information at the time of the evaluation of the vehicle driver, time-series feature quantity calculating means for calculating a time-series feature quantity in time series representing information on the position watched by the vehicle driver in the image ;
Normal data storage means for storing time-series feature values based on gaze information during normal operation;
A difference calculating means for calculating a difference in statistical distribution of the time-series feature quantity during the normal operation and during the evaluation;
Based on the magnitude of the difference, the rough driving detection means for detecting the rough driving of the vehicle driver,
A vehicle driving support device comprising:
前記時系列特徴量は、前記画像中において前記車両運転者が注視した位置の座標を時系列で表した情報を含む、
請求項1に記載の車両運転支援装置。
The time-series feature amount includes information representing, in time series, coordinates of a position in which the vehicle driver gazes in the image.
The vehicle driving support device according to claim 1.
前記時系列特徴量は、前記画像中において前記車両運転者が注視した位置の奥行きを時系列で表した情報をさらに含む、
請求項に記載の車両運転支援装置。
The time-series feature amount further includes information representing the depth of the position watched by the vehicle driver in the image in time series.
The vehicle driving support device according to claim 2 .
前記時系列特徴量は、前記車両運転者の生体情報を時系列で表した情報をさらに含む、
請求項2または3に記載の車両運転支援装置。
The time series feature amount further includes information representing the biological information of the vehicle driver in time series.
The vehicle driving support device according to claim 2 or 3 .
前記注視情報は、前記前方方向の画像中の所定物体の位置および大きさと前記車両運転者の視線位置に基づいて算出される、
請求項1から4のいずれか1項に記載の車両運転支援装置。
The gaze information is calculated based on the line-of-sight position of the position and the size and the vehicle driver of a predetermined object in said forward direction of the image,
The vehicle driving support device according to any one of claims 1 to 4.
前記時系列特徴量は、時間的に連続した前記注視情報を所定個数連結して与えられる、
請求項1から5のいずれか1項に記載の車両運転支援装置。
The time-series feature amount is given by connecting a predetermined number of the gaze information continuous in time.
The vehicle driving support device according to any one of claims 1 to 5.
前記相違は、前記正常運転時の時系列特徴量と前記評価時の時系列特徴量との確率密度の比に基づいて算出される、
請求項1から6のいずれか1項に記載の車両運転支援装置。
The difference is calculated based on a probability density ratio between the time-series feature amount during the normal operation and the time-series feature amount during the evaluation.
The vehicle driving support device according to any one of claims 1 to 6.
前記相違は、前記正常運転時の時系列特徴量と前記評価時の時系列特徴量との確率密度の差に基づいて算出される、
請求項1から6のいずれか1項に記載の車両運転支援装置。
The difference is calculated based on a difference in probability density between the time series feature amount during the normal operation and the time series feature amount during the evaluation.
The vehicle driving support device according to any one of claims 1 to 6.
前記正常データ格納手段には、前記正常運転時における注視情報に基づく前記時系列特徴量が、前記正常運転時における車両運転者の属性情報または走行状態と関連付けて記憶されており、
前記評価時における車両運転者の属性情報または走行状態を取得し、当該属性情報または走行状態と類似する属性情報または走行状態と関連付けられた時系列特徴量を前記正常データ格納手段から選択する正常データ選択手段をさらに有し、
前記相違算出手段は、前記評価時における前記時系列特徴量と、前記正常データ選択手段によって選択された前記時系列特徴量との統計的分布の相違を算出する、
請求項1から8のいずれか1項に記載の車両運転支援装置。
The normal data storage means stores the time-series feature amount based on the gaze information during the normal driving in association with the attribute information or the driving state of the vehicle driver during the normal driving,
Normal data for acquiring attribute information or driving state of the vehicle driver at the time of the evaluation and selecting from the normal data storage means attribute information similar to the attribute information or driving state or time series feature amount associated with the driving state Further comprising a selection means,
The difference calculation means calculates a difference in statistical distribution between the time series feature quantity at the time of the evaluation and the time series feature quantity selected by the normal data selection means.
The vehicle driving support device according to any one of claims 1 to 8.
前記相違の大きさを可視化し、前記車両運転者に提示する相違提示手段をさらに備える、
請求項1から9のいずれか1項に記載の車両運転支援装置。
Visualizing the size of the difference and further comprising a difference presentation means for presenting to the vehicle driver,
The vehicle driving support device according to any one of claims 1 to 9.
前記相違の大きさに基づいて、前記車両運転者に刺激を与える刺激発生手段をさらに備える、
請求項1から10のいずれか1項に記載の車両運転支援装置。
Further comprising stimulus generation means for giving a stimulus to the vehicle driver based on the magnitude of the difference;
The vehicle driving support device according to any one of claims 1 to 10.
前記刺激発生手段は、前記相違の大きさに基づいて運転席を振動させる、
請求項11に記載の車両運転支援装置。
The stimulus generating means vibrates the driver's seat based on the magnitude of the difference;
The vehicle driving support device according to claim 11.
前記刺激発生手段は、前記相違の大きさに基づいて警告音を発する、
請求項11または12に記載の車両運転支援装置。
The stimulus generating means emits a warning sound based on the magnitude of the difference;
The vehicle driving assistance device according to claim 11 or 12.
前記刺激発生手段は、前記相違の大きさに基づいて車両運転者に音声で警告する、
請求項11から13のいずれか1項に記載の車両運転支援装置。
The stimulus generating means warns the vehicle driver by voice based on the magnitude of the difference.
The vehicle driving support device according to any one of claims 11 to 13.
車両運転者の漫然運転を検知する車両運転支援方法であって、
車両の前方方向の画像を取得する画像取得ステップと、
車両運転者の注視情報を抽出する注視情報抽出ステップと、
前記車両運転者の評価時における注視情報に基づいて、前記画像中において前記車両運転者が注視した位置に関する情報を時系列で表した時系列特徴量を算出する時系列特徴量算出ステップと、
前記時系列特徴量算出ステップにおいて算出された時系列特徴量と、あらかじめ算出された正常運転時における注視情報に基づく時系列特徴量と、の統計的分布の相違を算出する相違算出ステップと、
前記相違の大きさに基づいて、前記車両運転者の漫然運転を検知する漫然運転検知ステップと、
を含む、車両運転支援方法。
A vehicle driving support method for detecting vague driving of a vehicle driver,
An image acquisition step of acquiring an image in a forward direction of the vehicle;
A gaze information extracting step for extracting gaze information of the vehicle driver;
Based on the gaze information at the time of evaluation of the vehicle driver, a time series feature quantity calculating step for calculating a time series feature quantity that represents information on the position in which the vehicle driver gazes in the image in time series,
A difference calculating step of calculating a difference in statistical distribution between the time series feature amount calculated in the time series feature amount calculation step and a time series feature amount based on gaze information calculated in normal operation in advance;
Based on the magnitude of the difference, the rough driving detection step of detecting the rough driving of the vehicle driver;
Including a vehicle driving support method.
コンピュータに請求項15に記載の方法の各ステップを実施させるためのプログラム。   A program for causing a computer to execute the steps of the method according to claim 15.
JP2015168638A 2015-08-28 2015-08-28 Vehicle driving support device, vehicle driving support method, and program Active JP6459856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015168638A JP6459856B2 (en) 2015-08-28 2015-08-28 Vehicle driving support device, vehicle driving support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015168638A JP6459856B2 (en) 2015-08-28 2015-08-28 Vehicle driving support device, vehicle driving support method, and program

Publications (2)

Publication Number Publication Date
JP2017045351A JP2017045351A (en) 2017-03-02
JP6459856B2 true JP6459856B2 (en) 2019-01-30

Family

ID=58211469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015168638A Active JP6459856B2 (en) 2015-08-28 2015-08-28 Vehicle driving support device, vehicle driving support method, and program

Country Status (1)

Country Link
JP (1) JP6459856B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7003254B2 (en) * 2018-06-11 2022-01-20 三菱電機株式会社 Driving support device, driving support system and driving support method
WO2020195168A1 (en) * 2019-03-28 2020-10-01 パナソニックIpマネジメント株式会社 Distracted state determination device and distracted state determination method
WO2020195167A1 (en) * 2019-03-28 2020-10-01 パナソニックIpマネジメント株式会社 Inattentive state assessment device
JP7276083B2 (en) * 2019-11-11 2023-05-18 マツダ株式会社 Driver state estimation device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3739113B2 (en) * 1995-07-10 2006-01-25 日産ディーゼル工業株式会社 Awakening level detection device
JP4534788B2 (en) * 2005-02-22 2010-09-01 トヨタ自動車株式会社 Vehicle driving support device
JP4539514B2 (en) * 2005-09-27 2010-09-08 株式会社デンソー Hazardous location information collection system and in-vehicle equipment
JP2008228759A (en) * 2007-03-16 2008-10-02 Toyota Central R&D Labs Inc Depressed consciousness determining device and program
JP4259587B2 (en) * 2007-03-30 2009-04-30 株式会社デンソー Database device, warning device, and driving support device
JP5358414B2 (en) * 2009-12-04 2013-12-04 株式会社豊田中央研究所 Fragile state determination device, method and program
WO2015064080A1 (en) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 Gaze direction-detecting device and gaze direction-detecting method
JP6213282B2 (en) * 2014-02-12 2017-10-18 株式会社デンソー Driving assistance device

Also Published As

Publication number Publication date
JP2017045351A (en) 2017-03-02

Similar Documents

Publication Publication Date Title
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
EP3033999B1 (en) Apparatus and method for determining the state of a driver
JP6343808B2 (en) Visual field calculation device and visual field calculation method
US20160159366A1 (en) Driving assistance system and driving assistance method
JP6459856B2 (en) Vehicle driving support device, vehicle driving support method, and program
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
US9465979B2 (en) Measurement-target-selecting device, face-shape-estimating device, method for selecting measurement target, and method for estimating face shape
US20170004354A1 (en) Determination device, determination method, and non-transitory storage medium
JP2007188417A (en) Image recognition device, image recognition method, and image recognition program
EP3185211A1 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
WO2019097595A1 (en) Vehicle external communication apparatus, vehicle external communication method, information processing device, and vehicle external communication program
JP2016115117A (en) Determination device and determination method
JP2009070344A (en) Image recognition device, image recognition method, and electronic control device
JP2012221162A (en) Object detection device and program
JP2016115120A (en) Opened/closed eye determination device and opened/closed eye determination method
JP2007280219A (en) Motion pattern recognition device, motion pattern recognition method, and motion pattern recognition program
JP6572538B2 (en) Downward view determination device and downward view determination method
JP6320942B2 (en) Weight matrix learning device, gaze direction prediction system, warning system, and weight matrix learning method
JP6731481B2 (en) Method and apparatus for classifying at least one eye opening data of a vehicle occupant, and method and apparatus for detecting drowsiness and/or microsleep of a vehicle occupant
JP6772775B2 (en) Driving support device and driving support method
US20220284718A1 (en) Driving analysis device and driving analysis method
KR20170028631A (en) Method and Apparatus for Detecting Carelessness of Driver Using Restoration of Front Face Image
JP2020103704A (en) Information processing device and program
JP6449504B1 (en) Information processing apparatus, information processing method, and information processing program
JP2021105958A (en) Driver state estimation device and driver state estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181217

R151 Written notification of patent or utility model registration

Ref document number: 6459856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151