JP2021089616A - Driving support device, and driving support system - Google Patents

Driving support device, and driving support system Download PDF

Info

Publication number
JP2021089616A
JP2021089616A JP2019220031A JP2019220031A JP2021089616A JP 2021089616 A JP2021089616 A JP 2021089616A JP 2019220031 A JP2019220031 A JP 2019220031A JP 2019220031 A JP2019220031 A JP 2019220031A JP 2021089616 A JP2021089616 A JP 2021089616A
Authority
JP
Japan
Prior art keywords
occupant
driving support
vehicle
unit
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019220031A
Other languages
Japanese (ja)
Inventor
一輝 三浦
Kazuteru Miura
一輝 三浦
啓輔 横田
Keisuke Yokota
啓輔 横田
治輝 ▲高▼橋
治輝 ▲高▼橋
Haruki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Mobility Corp
Original Assignee
Nidec Mobility Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Mobility Corp filed Critical Nidec Mobility Corp
Priority to JP2019220031A priority Critical patent/JP2021089616A/en
Publication of JP2021089616A publication Critical patent/JP2021089616A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To provide a driving support device and a driving support system capable of estimating a gazing direction according to an occupant.SOLUTION: In a driving support device 10, an occupant direction detection unit 1 detects a direction of a driver 30's face, based on the face image of the driver 30 captured by an imaging unit 11, and a driving state detection unit 2 detects the driving state of a vehicle 50 based on a yaw rate of the vehicle 50 detected by a yaw rate sensor 12. A prediction time setting unit 3 calculates a cross-correlation function between the direction of the driver 30's face and the forwarding direction of the vehicle 50, and sets the prediction time of the driver 30 based on the correlation function. A gazing direction estimation unit 4 estimates the gazing direction of the driver 30 based on the driving state of the vehicle 50 and the prediction time of the driver 30.SELECTED DRAWING: Figure 1

Description

本発明は、車両の運転を支援する運転支援装置および運転支援システムに関する。 The present invention relates to a driving support device and a driving support system that support the driving of a vehicle.

車両を安全に運転することができるように、運転者などの乗員は常に車両が到達する地点を予測して、当該地点を見ている。このため、たとえば特許文献1〜4に開示されているように、車両の進行方向における乗員の注視点を推定して、車両の運転支援に活用する運転支援装置および運転支援システムがある。 In order to be able to drive the vehicle safely, occupants such as drivers always predict the point where the vehicle will reach and look at the point. Therefore, for example, as disclosed in Patent Documents 1 to 4, there are a driving support device and a driving support system that estimate the occupant's gaze point in the traveling direction of the vehicle and utilize it for driving support of the vehicle.

特許文献1では、センサにより検出した車両の車速やヨーレートなどの走行状態に基づいて、車両の走行軌跡を予測し、さらにそれらに基づいて運転者の注視点を推定する。そして、カメラなどの撮像部により撮像した運転者の顔画像に基づいて、運転者の注視方向を検出し、当該注視方向と推定した注視点とに基づいて、運転者の脇見状態の有無を判定し、脇見状態が有れば、警報を出力する。 In Patent Document 1, the traveling locus of the vehicle is predicted based on the traveling state such as the vehicle speed and the yaw rate detected by the sensor, and the gaze point of the driver is estimated based on these. Then, the driver's gaze direction is detected based on the driver's face image captured by an imaging unit such as a camera, and the presence or absence of the driver's inattentive state is determined based on the gaze direction and the estimated gaze point. However, if there is an inattentive state, an alarm is output.

特許文献2では、カメラの撮像画像から検出した運転者の顔や視線の向きと、車速と、ナビゲーション情報から予測した車両の軌道とに基づいて、顔や視線の向きと車両の軌道とが交差する注視点を推定し、当該注視点に到達するまでの運転者先読み時間を演算する。また、ナビゲーション情報から車両がカーブに進入または走行していることを検出し、かつ運転者先読み時間が所定範囲内にある場合に、顔や視線の向きと車速とナビゲーション情報とに基づいて、運転者の正面視野範囲を補正する。そして、顔や視線の向きが正面視野範囲から外れたときに、警報を出力するなどの車両制御を行う。 In Patent Document 2, the direction of the face and the line of sight intersects with the trajectory of the vehicle based on the direction of the driver's face and the line of sight detected from the image captured by the camera, the vehicle speed, and the track of the vehicle predicted from the navigation information. Estimate the gaze point to be performed, and calculate the driver look-ahead time until the gaze point is reached. In addition, when it is detected from the navigation information that the vehicle is entering or traveling on a curve and the driver look-ahead time is within a predetermined range, the driver drives based on the direction of the face and the line of sight, the vehicle speed, and the navigation information. Correct the front view range of the person. Then, when the direction of the face or the line of sight deviates from the front view range, the vehicle is controlled by outputting an alarm or the like.

特許文献3では、センサにより検出した車両の車速やヨーレートなどの走行状態と、予め設定された予見時間とに基づいて、運転者の注視点を推定する。また、その走行状態と注視点とに基づいて、脇見判定用の閾値(運転者の正面視野範囲)を設定する。そして、脇見判定用の閾値と、カメラの撮像画像から検出した運転者の顔の向きとに基づいて、運転者の脇見状態の有無を判定し、脇見状態が有れば、警報を出力するなどの車両制御を行う。 In Patent Document 3, the driver's gaze point is estimated based on the running state such as the vehicle speed and the yaw rate detected by the sensor and the preset prediction time. In addition, a threshold value for inattentive determination (driver's front view range) is set based on the driving state and the gazing point. Then, based on the threshold value for inattentive judgment and the orientation of the driver's face detected from the image captured by the camera, the presence or absence of the driver's inattentive state is determined, and if there is inattentive state, an alarm is output. Vehicle control.

特許文献4に開示された装置およびシステムでは、ナビゲーション情報やカメラの撮像画像に基づいて、車両が走行する道路の曲線長、曲率半径、または路面摩擦係数などの道路情報を検出する。また、その道路情報と、センサにより検出した車両の車速やヨーレートなどの走行状態とに基づいて、運転者の予見時間を設定する。または、運転者の操作により予見時間が入力される。そして、予見時間と車速とに基づいて、運転者の前方注視距離(注視点)を推定し、当該前方注視距離と道路情報などに基づいて、カーブ走行時の車両の加速を制御する。 The device and system disclosed in Patent Document 4 detect road information such as the curve length, radius of curvature, or road surface friction coefficient of the road on which the vehicle travels, based on navigation information and images captured by the camera. In addition, the driver's prediction time is set based on the road information and the driving state such as the vehicle speed and the yaw rate detected by the sensor. Alternatively, the forecast time is input by the operation of the driver. Then, the driver's forward gaze distance (gaze point) is estimated based on the foreseeable time and the vehicle speed, and the acceleration of the vehicle during curve traveling is controlled based on the forward gaze distance and road information.

特開平9−7100号公報Japanese Unexamined Patent Publication No. 9-7100 特開2010−257293号公報Japanese Unexamined Patent Publication No. 2010-257293 特開2009−294753号公報Japanese Unexamined Patent Publication No. 2009-294735 特開2009−78732号公報JP-A-2009-78732

運転者などの乗員が注視する注視点の方向には個人差がある。そのため、乗員の特性を考慮せずに注視方向を推定すると、脇見判定用の視野範囲などの閾値を乗員に応じて適正に設定することができず、乗員の脇見状態の有無の判定を適正に行えないおそれがあったり、車両の走行制御を適切に行えないおそれがあったりする。特に、車両の曲線路の走行時に、乗員の個人差により注視方向が車両の左右方向にばらつくため、乗員の脇見状態の判定や車両の走行制御が乗員に応じて適切に行われないおそれがある。 There are individual differences in the direction of the gaze point that the occupants such as the driver gaze at. Therefore, if the gaze direction is estimated without considering the characteristics of the occupant, the threshold value such as the visual field range for inattentive judgment cannot be set appropriately according to the occupant, and the presence or absence of the inattentive state of the occupant cannot be properly determined. It may not be possible, or it may not be possible to properly control the running of the vehicle. In particular, when the vehicle is traveling on a curved road, the gaze direction varies from side to side of the vehicle due to individual differences of the occupants, so that the judgment of the occupant's inattentive state and the vehicle's travel control may not be performed appropriately according to the occupant. ..

本発明は、乗員に応じた注視方向を推定することができる運転支援装置および運転支援システムを提供することを課題とする。 An object of the present invention is to provide a driving support device and a driving support system capable of estimating a gaze direction according to an occupant.

本発明による運転支援装置は、車両の走行状態を検出する走行状態検出部と、車両の進行方向に対する乗員の注視方向を推定する注視方向推定部と、撮像された乗員の画像に基づいて、乗員の向きを検出する乗員向き検出部と、この乗員向き検出部の検出結果と走行状態検出部の検出結果とに基づいて、乗員の予見時間を設定する予見時間設定部とを備え、注視方向推定部は、走行状態検出部の検出結果と予見時間設定部の設定結果とに基づいて、乗員の注視方向を推定する。 The driving support device according to the present invention is based on a traveling state detection unit that detects the traveling state of the vehicle, a gaze direction estimation unit that estimates the gaze direction of the occupant with respect to the traveling direction of the vehicle, and an image of the occupant captured. It is provided with a occupant orientation detection unit that detects the direction of the occupant, and a prediction time setting unit that sets the occupant's prediction time based on the detection result of the occupant orientation detection unit and the detection result of the traveling state detection unit, and estimates the gaze direction. The unit estimates the gaze direction of the occupant based on the detection result of the traveling state detection unit and the setting result of the prediction time setting unit.

また、本発明による運転支援システムは、上記運転支援装置と、車両のヨーレートを検出するヨーレートセンサと、車両の乗員を撮像する撮像部とを含み、運転支援装置に備わる走行状態検出部は、ヨーレートセンサの出力に基づいて、車両の走行状態を検出する。 Further, the driving support system according to the present invention includes the above-mentioned driving support device, a yaw rate sensor for detecting the yaw rate of the vehicle, and an imaging unit for imaging the occupants of the vehicle. The driving state of the vehicle is detected based on the output of the sensor.

本発明の運転支援装置および運転支援システムによると、乗員向き検出部が乗員の画像から検出した乗員の向きと、走行状態検出部が検出した車両の走行状態とに基づいて、予見時間設定部が車両の乗員に応じた予見時間を設定する。そして、その乗員の予見時間と車両の走行状態とに基づいて、注視方向推定部が車両の進行方向に対する乗員の注視方向を推定する。つまり、車両の走行状態だけでなく、乗員の固有の予見時間という特性も考慮しているので、乗員に応じた注視方向を推定することができる。 According to the driving support device and the driving support system of the present invention, the prediction time setting unit is based on the direction of the occupant detected by the occupant orientation detection unit from the image of the occupant and the driving state of the vehicle detected by the traveling state detection unit. Set the forecast time according to the occupants of the vehicle. Then, the gaze direction estimation unit estimates the gaze direction of the occupant with respect to the traveling direction of the vehicle based on the foreseeable time of the occupant and the traveling state of the vehicle. That is, since not only the running state of the vehicle but also the characteristic of the occupant's unique prediction time is taken into consideration, the gaze direction according to the occupant can be estimated.

本発明では、走行状態検出部は、車両のヨーレートの検出結果に基づいて、車両の進行方向を検出し、乗員向き検出部は、乗員の顔画像に基づいて、乗員の顔の向きを検出し、予見時間設定部は、走行状態検出部により検出された車両の進行方向と、乗員向き検出部により検出された乗員の顔の向きとの相互相関関数を算出し、当該相互相関関数に基づいて乗員の予見時間を設定してもよい。 In the present invention, the traveling state detection unit detects the traveling direction of the vehicle based on the detection result of the yaw rate of the vehicle, and the occupant orientation detection unit detects the orientation of the occupant's face based on the occupant's face image. , The prediction time setting unit calculates a cross-correlation function between the traveling direction of the vehicle detected by the traveling state detection unit and the direction of the occupant's face detected by the occupant orientation detection unit, and is based on the cross-correlation function. The occupant's forecast time may be set.

また、本発明では、予見時間設定部は、相互相関関数が最大になるときの、車両の進行方向の変化と乗員の顔の向きの変化との位相差を、乗員の予見時間としてもよい。 Further, in the present invention, the prediction time setting unit may use the phase difference between the change in the traveling direction of the vehicle and the change in the direction of the occupant's face when the cross-correlation function is maximized as the occupant's prediction time.

また、本発明では、予見時間設定部は、走行状態検出部により検出された車両の進行方向が所定の直進範囲から外れた場合に、乗員の予見時間を更新してもよい。 Further, in the present invention, the prediction time setting unit may update the prediction time of the occupant when the traveling direction of the vehicle detected by the traveling state detection unit deviates from the predetermined straight-ahead range.

また、本発明では、上記運転支援装置において、注視方向推定部により推定された乗員の注視方向に基づいて、乗員の正面視野範囲を設定する視野設定部と、この視野設定部の設定結果と乗員向き検出部の検出結果とに基づいて、乗員の脇見状態の有無を判定する脇見判定部とをさらに備えてもよい。 Further, in the present invention, in the above-mentioned driving support device, a visual field setting unit that sets the front visual field range of the occupant based on the occupant's gaze direction estimated by the gaze direction estimation unit, a setting result of the visual field setting unit, and an occupant. An inattentive determination unit for determining the presence or absence of an inattentive state of the occupant may be further provided based on the detection result of the orientation detection unit.

また、本発明では、視野設定部は、予見時間設定部により検出された予見時間に応じて、正面視野範囲の大きさを変化させてもよい。 Further, in the present invention, the visual field setting unit may change the size of the front visual field range according to the foreseeing time detected by the foreseeing time setting unit.

また、本発明では、脇見判定部は、予見時間設定部により設定された予見時間に基づいて脇見判定時間を設定し、乗員向き検出部により検出された乗員の向きが視野設定部により設定された正面視野範囲から外れた状態が、脇見判定時間継続した場合に、乗員の脇見状態が有ったと判定してもよい。 Further, in the present invention, the inattentive determination unit sets the inattentive determination time based on the foresight time set by the foresight time setting unit, and the occupant orientation detected by the occupant orientation detection unit is set by the visual field setting unit. When the state of being out of the front view range continues for the inattentive determination time, it may be determined that the occupant has inattentive state.

また、本発明では、脇見判定部は、予見時間設定部により設定された予見時間に応じて、脇見判定時間の長さを変化させてもよい。 Further, in the present invention, the inattentive determination unit may change the length of the inattentive determination time according to the foreseeing time set by the foresight time setting unit.

さらに、本発明の運転支援システムは、運転支援装置に備わる脇見判定部により乗員の脇見状態が有ったと判定された場合に、乗員に対して警報を出力する警報部をさらに含んでいてもよい。 Further, the driving support system of the present invention may further include an alarm unit that outputs an alarm to the occupant when it is determined by the inattentive determination unit provided in the driving support device that the occupant is in an inattentive state. ..

本発明によれば、乗員に応じた注視方向を推定することができる運転支援装置および運転支援システムを提供することが可能となる。 According to the present invention, it is possible to provide a driving support device and a driving support system capable of estimating a gaze direction according to an occupant.

本発明の実施形態の運転支援システムの構成図である。It is a block diagram of the driving support system of embodiment of this invention. 図1の運転支援システムの動作を示したフローチャートである。It is a flowchart which showed the operation of the driving support system of FIG. 図2の予見時間設定処理の詳細を示したフローチャートである。It is a flowchart which showed the detail of the prediction time setting process of FIG. 図1の運転支援装置による予見時間の設定例を示した図である。It is a figure which showed the setting example of the prediction time by the driving support device of FIG. 図2の注視方向推定処理の詳細を示したフローチャートである。It is a flowchart which showed the detail of the gaze direction estimation process of FIG. 図1の運転支援装置による注視方向の推定例を示した図である。It is a figure which showed the estimation example of the gaze direction by the driving support device of FIG. 図2の正面視野範囲設定処理の詳細を示したフローチャートである。It is a flowchart which showed the detail of the front view | field of view range setting process of FIG. 図1の運転支援装置による正面視野範囲の設定例を示した図である。It is a figure which showed the setting example of the front view range by the driving support device of FIG. 図2の脇見判定処理の詳細を示したフローチャートである。It is a flowchart which showed the detail of the inattentiveness determination process of FIG.

以下、本発明の実施形態につき、図面を参照しながら説明する。各図において、同一の部分または対応する部分には、同一符号を付してある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In each figure, the same parts or corresponding parts are designated by the same reference numerals.

図1は、第1実施形態の運転支援システム100の構成図である。運転支援システム100は、自動四輪車から成る車両50に搭載されている。運転支援システム100には、運転支援装置10、撮像部11、ヨーレートセンサ12、および警報部13が含まれている。 FIG. 1 is a configuration diagram of the driving support system 100 of the first embodiment. The driving support system 100 is mounted on a vehicle 50 composed of a four-wheeled vehicle. The driving support system 100 includes a driving support device 10, an imaging unit 11, a yaw rate sensor 12, and an alarm unit 13.

撮像部11は、たとえば赤外線カメラから構成されており、車両50の運転席に着座した運転者(乗員)30の顔を動画で撮像する。ヨーレートセンサ12は、車両50のヨーレートを検出する。警報部13は、車両50の車室内に設置されたスピーカ、ブザー、照明類、ディスプレイ、またはバイブレータなどから成り、運転者30などの乗員に対して聴覚的、視覚的、または触覚的な警報を出力する。 The image pickup unit 11 is composed of, for example, an infrared camera, and captures a moving image of the face of the driver (occupant) 30 seated in the driver's seat of the vehicle 50. The yaw rate sensor 12 detects the yaw rate of the vehicle 50. The alarm unit 13 is composed of a speaker, a buzzer, lights, a display, a vibrator, or the like installed in the vehicle interior of the vehicle 50, and gives an auditory, visual, or tactile alarm to an occupant such as the driver 30. Output.

運転支援装置10には、乗員向き検出部1、走行状態検出部2、予見時間設定部3、注視方向推定部4、視野設定部5、および脇見判定部6が備わっている。これらのブロック1〜6は、運転支援装置10の全体動作を制御するマイクロコンピュータ(図示省略)に内蔵されており、各ブロック1〜6の機能(詳細は後述)は、ソフトウェアにより実現される。 The driving support device 10 includes an occupant orientation detection unit 1, a traveling state detection unit 2, a prediction time setting unit 3, a gaze direction estimation unit 4, a visual field setting unit 5, and an inattentive determination unit 6. These blocks 1 to 6 are built in a microcomputer (not shown) that controls the overall operation of the driving support device 10, and the functions of the blocks 1 to 6 (details will be described later) are realized by software.

乗員向き検出部1は、運転者30の向きとして、撮像部11により撮像された運転者30の顔画像に基づいて、運転者30の顔の向きを検出する。 The occupant orientation detection unit 1 detects the orientation of the driver 30 as the orientation of the driver 30 based on the face image of the driver 30 captured by the imaging unit 11.

走行状態検出部2は、ヨーレートセンサ12の検出結果に基づいて、車両50の走行状態として、車両50のヨーレートを検出したり、車両50の進行方向を検出したりする。 The traveling state detection unit 2 detects the yaw rate of the vehicle 50 or the traveling direction of the vehicle 50 as the traveling state of the vehicle 50 based on the detection result of the yaw rate sensor 12.

予見時間設定部3は、走行状態検出部2により検出された車両50の進行方向と、乗員向き検出部1により検出された運転者30の向きとの相互相関関数を算出する。そして、予見時間設定部3は、その相互相関関数に基づいて、運転者30の予見時間を設定する。運転者30は、ある時間Δtの経過後に車両50が到達しているであろう地点を予測し、当該地点を注視しながら運転をしており、この場合の時間Δtが予見時間である。一般に、熟練度が低い運転者の予見時間は、熟練度が高い運転者の予見時間に比べて短くなる傾向がある。 The prediction time setting unit 3 calculates a cross-correlation function between the traveling direction of the vehicle 50 detected by the traveling state detection unit 2 and the direction of the driver 30 detected by the occupant orientation detection unit 1. Then, the prediction time setting unit 3 sets the prediction time of the driver 30 based on the cross-correlation function. The driver 30 predicts a point at which the vehicle 50 will reach after a certain time Δt has elapsed, and is driving while gazing at the point. In this case, the time Δt is the prediction time. In general, the foresight time of a less skilled driver tends to be shorter than the foresight time of a more skilled driver.

注視方向推定部4は、走行状態検出部2により検出された車両50のヨーレートと、予見時間設定部3により設定された予見時間とに基づいて、車両50の進行方向に対する運転者30の注視方向を推定する。 The gaze direction estimation unit 4 gaze direction of the driver 30 with respect to the traveling direction of the vehicle 50 based on the yaw rate of the vehicle 50 detected by the traveling state detection unit 2 and the prediction time set by the forecast time setting unit 3. To estimate.

視野設定部5は、注視方向推定部4により推定された運転者30の注視方向に基づいて、運転者30の正面視野範囲を設定する。 The visual field setting unit 5 sets the front visual field range of the driver 30 based on the gaze direction of the driver 30 estimated by the gaze direction estimation unit 4.

脇見判定部6は、視野設定部5により設定された正面視野範囲と、乗員向き検出部1により検出された運転者30の向きとに基づいて、運転者30の脇見状態の有無を判定する。そして、脇見判定部6は、運転者30の脇見状態が有ったと判定すると、警報部13に警報指令を出力する。警報部13は、脇見判定部6からの警報指令を受けて、運転者30などの乗員に警報を出力する。 The inattentive determination unit 6 determines whether or not the driver 30 is in an inattentive state based on the front visual field range set by the visual field setting unit 5 and the orientation of the driver 30 detected by the occupant orientation detection unit 1. Then, when the inattentive determination unit 6 determines that the driver 30 is in an inattentive state, the inattentive determination unit 6 outputs an alarm command to the alarm unit 13. The alarm unit 13 receives an alarm command from the inattentive determination unit 6 and outputs an alarm to an occupant such as the driver 30.

図2は、運転支援システム100の動作を示したフローチャートである。なお、本動作は、車両50が起動(イグニションがオン)することで開始され、車両50が停止(イグニションがオフ)することで終了される。 FIG. 2 is a flowchart showing the operation of the driving support system 100. This operation is started when the vehicle 50 is started (ignition is turned on), and is terminated when the vehicle 50 is stopped (ignition is turned off).

図2において、まず、撮像部11が運転者30の顔を撮像し(ステップS1)、運転支援装置10の乗員向き検出部1が、撮像部11により撮像された運転者30の顔画像に基づいて、運転者30の顔の向きを所定の周期で検出する(ステップS2)。 In FIG. 2, first, the imaging unit 11 images the face of the driver 30 (step S1), and the occupant-oriented detection unit 1 of the driving support device 10 is based on the face image of the driver 30 imaged by the imaging unit 11. Then, the orientation of the driver 30's face is detected at a predetermined cycle (step S2).

車両50が走行すると、ヨーレートセンサ12が車両50のヨーレートを所定の周期で検出し(ステップS3)、走行状態検出部2が、ヨーレートセンサ12の検出結果に基づいて、車両50の進行方向を所定の周期で検出する(ステップS4)。 When the vehicle 50 travels, the yaw rate sensor 12 detects the yaw rate of the vehicle 50 at a predetermined cycle (step S3), and the traveling state detection unit 2 determines the traveling direction of the vehicle 50 based on the detection result of the yaw rate sensor 12. (Step S4).

そして、予見時間設定部3が予見時間の設定処理を実行する(ステップS5)。図3は、予見時間設定処理の詳細を示したフローチャートである。 Then, the prediction time setting unit 3 executes the prediction time setting process (step S5). FIG. 3 is a flowchart showing the details of the prediction time setting process.

図3において、走行状態検出部2により検出された車両50の進行方向が、予め設定された所定の直進範囲内であれば(ステップS51:NO)、車両50は直線路を走行中である(ステップS52)。この場合、予見時間設定部3は、図示しないマイクロコンピュータの内部メモリに記憶されている現在の運転者30の予見時間を維持する(ステップS53)。したがって、予見時間は更新されない。 In FIG. 3, if the traveling direction of the vehicle 50 detected by the traveling state detection unit 2 is within a predetermined straight-ahead range set in advance (step S51: NO), the vehicle 50 is traveling on a straight road (step S51: NO). Step S52). In this case, the prediction time setting unit 3 maintains the prediction time of the current driver 30 stored in the internal memory of the microcomputer (not shown) (step S53). Therefore, the forecast time is not updated.

なお、運転支援装置10の製造時に、予め定められた標準の予見時間がマイクロコンピュータの内部メモリに記憶される。そして、後述するように、運転支援装置10の運用時(車両50の走行時)に、予見時間設定部3により設定された予見時間がマイクロコンピュータの内部メモリに記憶されて、運転者30の予見時間が更新される。 At the time of manufacturing the driving support device 10, a predetermined standard prediction time is stored in the internal memory of the microcomputer. Then, as will be described later, when the driving support device 10 is in operation (when the vehicle 50 is traveling), the prediction time set by the prediction time setting unit 3 is stored in the internal memory of the microcomputer, and the driver 30 is predicted. The time is updated.

走行状態検出部2により検出された車両50の進行方向が所定の直進範囲から外れると(ステップS51:YES)、車両50は曲線路を走行中である(ステップS54)。この場合、予見時間設定部3は、走行状態検出部2により検出された車両50の進行方向と、乗員向き検出部1により検出された運転者30の向きとの相互相関関数を算出する(ステップS55)。 When the traveling direction of the vehicle 50 detected by the traveling state detection unit 2 deviates from the predetermined straight-ahead range (step S51: YES), the vehicle 50 is traveling on a curved road (step S54). In this case, the prediction time setting unit 3 calculates a cross-correlation function between the traveling direction of the vehicle 50 detected by the traveling state detection unit 2 and the direction of the driver 30 detected by the occupant orientation detection unit 1 (step). S55).

図4は、予見時間設定部3による予見時間の設定例を示した図である。図4(a)には、走行状態検出部2により検出された車両50の進行方向の時間的変化を実線で示し、乗員向き検出部1により検出された運転者30の顔の向きの時間的変化を破線で示している。横軸は時間t(秒)であり、縦軸は方向(基準方向0°に対する傾き角度)である。 FIG. 4 is a diagram showing an example of setting the prediction time by the prediction time setting unit 3. In FIG. 4A, the temporal change in the traveling direction of the vehicle 50 detected by the traveling state detection unit 2 is shown by a solid line, and the time of the face orientation of the driver 30 detected by the occupant orientation detection unit 1 is shown. The change is shown by a broken line. The horizontal axis is the time t (seconds), and the vertical axis is the direction (tilt angle with respect to 0 ° in the reference direction).

運転者30は車両50が到達する地点を予測して、当該地点を見ながら、道路などの周辺状況の変化に応じて、車両50を運転する。このため、たとえば車両50が曲線路を走行する際には、曲線路の曲り方向や曲率などに応じて、図4(a)に示すように、運転者30の顔の向きが変化し、これに追随して、車両50の進行方向が変化する。運転者30の顔の向きと車両50の進行方向とでは、変化の大きさ(振幅)は異なるが、変化の態様が同様で、両者の間には位相差(時間ずれ)がある。 The driver 30 predicts a point at which the vehicle 50 will reach, and while looking at the point, drives the vehicle 50 in response to changes in surrounding conditions such as roads. Therefore, for example, when the vehicle 50 travels on a curved road, the direction of the face of the driver 30 changes according to the bending direction and curvature of the curved road, as shown in FIG. 4A. The traveling direction of the vehicle 50 changes accordingly. The magnitude (amplitude) of the change differs between the direction of the face of the driver 30 and the traveling direction of the vehicle 50, but the mode of change is the same, and there is a phase difference (time lag) between the two.

図3のステップS55で予見時間設定部3が算出した、図4(a)に示す運転者30の顔の向きと車両50の進行方向との相互相関関数は、図4(b)に実線で示すような関数になる。図4(b)で、横軸は位相差Δt(秒)であり、縦軸は相関係数である。 The cross-correlation function between the direction of the driver 30's face and the traveling direction of the vehicle 50 shown in FIG. 4A calculated by the prediction time setting unit 3 in step S55 of FIG. 3 is shown by a solid line in FIG. 4B. It becomes a function as shown. In FIG. 4B, the horizontal axis is the phase difference Δt (seconds) and the vertical axis is the correlation coefficient.

図3のステップS56で、予見時間設定部3は、運転者30の顔の向きと車両50の進行方向との相互相関関数が最大になる位相差Δtを、運転者30の予見時間とし、内部メモリに記憶されている運転者30の予見時間を更新する(ステップS57)。図4(b)の例では、相互相関関数が最大になる位相差Δtは「1秒」であるため、運転者30の予見時間は「1秒」となる。この予見時間は現在値であり、これをそのまま運転者30の予見時間として設定し、予見時間を更新することも可能であるが、予見時間を現在値だけで更新したのでは、予見時間の精度が低下して脇見判定時に誤判定が生じるおそれがある。そこでステップS57では、たとえば、位相差Δtから得られる現在の予見時間と、内部メモリに設定済の予見時間との平均値を算出し、これを予見時間の更新値として再設定するなどの処理を行うことが好ましい。図4(b)の場合、現在の予見時間は1秒であるが、設定済の予見時間が2秒であれば、1.5秒が新たな予見時間として再設定され、予見時間が更新される。このように、過去の予見時間を現在の予見時間に反映させつつ、予見時間の更新を繰り返すことで、運転者30に固有の予見時間を精度良く設定することができる。 In step S56 of FIG. 3, the prediction time setting unit 3 sets the phase difference Δt at which the cross-correlation function between the direction of the face of the driver 30 and the traveling direction of the vehicle 50 is maximized as the prediction time of the driver 30 and internally. The forecast time of the driver 30 stored in the memory is updated (step S57). In the example of FIG. 4B, since the phase difference Δt at which the cross-correlation function is maximized is “1 second”, the predictive time of the driver 30 is “1 second”. This prediction time is the current value, and it is possible to set this as the prediction time of the driver 30 as it is and update the prediction time, but if the prediction time is updated only by the current value, the accuracy of the prediction time is accurate. May cause an erroneous judgment at the time of inattentive judgment. Therefore, in step S57, for example, a process of calculating the average value of the current prediction time obtained from the phase difference Δt and the prediction time set in the internal memory and resetting this as the update value of the prediction time is performed. It is preferable to do so. In the case of FIG. 4B, the current prediction time is 1 second, but if the set prediction time is 2 seconds, 1.5 seconds is reset as a new prediction time and the prediction time is updated. To. In this way, by repeating the update of the prediction time while reflecting the past prediction time in the current prediction time, the prediction time peculiar to the driver 30 can be set accurately.

次に、注視方向推定部4が注視方向推定処理を実行する(図2のステップS6)。図5は、注視方向推定処理の詳細を示したフローチャートである。 Next, the gaze direction estimation unit 4 executes the gaze direction estimation process (step S6 in FIG. 2). FIG. 5 is a flowchart showing the details of the gaze direction estimation process.

図5において、まず注視方向推定部4は、走行状態検出部2の出力から車両50の現在のヨーレートを検出する(ステップS61)。そして、注視方向推定部4は、そのヨーレートと、予見時間設定部3により設定された運転者30の予見時間とに基づいて、運転者30の注視方向を推定する(ステップS62)。 In FIG. 5, first, the gaze direction estimation unit 4 detects the current yaw rate of the vehicle 50 from the output of the traveling state detection unit 2 (step S61). Then, the gaze direction estimation unit 4 estimates the gaze direction of the driver 30 based on the yaw rate and the foresight time of the driver 30 set by the forecast time setting unit 3 (step S62).

図6は、注視方向推定部4による注視方向の推定例を示した図である。図6では、車両50と、車両50が走行する曲線路とを、上方から見た状態を示している。図6に実線で示す車両50が向いている方向は、基準方向0°である。この基準方向0°に対して傾き角度φの方向が、運転者30が注視する注視方向であり、運転者30の注視点はこの注視方向φにある。注視方向推定部4は、車両50のヨーレートωと運転者30の予見時間Δtとに基づいて、運転者30の注視方向φを次式により推定する。
φ=ωΔt/2
そして、注視方向推定部4は、推定した運転者30の注視方向φを内部メモリに記憶させる(図5のステップS63)。
FIG. 6 is a diagram showing an example of estimating the gaze direction by the gaze direction estimation unit 4. FIG. 6 shows a state in which the vehicle 50 and the curved road on which the vehicle 50 travels are viewed from above. The direction in which the vehicle 50 shown by the solid line in FIG. 6 is facing is the reference direction 0 °. The direction of the inclination angle φ with respect to the reference direction 0 ° is the gaze direction that the driver 30 gazes at, and the gaze point of the driver 30 is in this gaze direction φ. The gaze direction estimation unit 4 estimates the gaze direction φ of the driver 30 by the following equation based on the yaw rate ω of the vehicle 50 and the prediction time Δt of the driver 30.
φ = ωΔt / 2
Then, the gaze direction estimation unit 4 stores the estimated gaze direction φ of the driver 30 in the internal memory (step S63 in FIG. 5).

次に、視野設定部5が正面視野範囲設定処理を実行する(図2のステップS7)。図7は、正面視野範囲設定処理の詳細を示したフローチャートである。また、図8は、視野設定部5による正面視野範囲の設定例を示した図である。図8では、車両50と運転者30の正面視野範囲A1、A2とを、上方から見た状態を示している。 Next, the visual field setting unit 5 executes the front visual field range setting process (step S7 in FIG. 2). FIG. 7 is a flowchart showing the details of the front view range setting process. Further, FIG. 8 is a diagram showing an example of setting the front visual field range by the visual field setting unit 5. FIG. 8 shows a state in which the front view ranges A1 and A2 of the vehicle 50 and the driver 30 are viewed from above.

図7において、予見時間設定部3により設定された運転者30の予見時間が、予め設定された所定時間と同一または当該所定時間より長ければ(ステップS71:NO)、視野設定部5は、図8(a)に示すように、運転者30の正面視野範囲を所定の通常範囲A1に設定する(図7のステップS72)。詳しくは、正面視野範囲の水平方向に対する広がり角度を、通常角度A1に設定する。 In FIG. 7, if the predictive time of the driver 30 set by the predictive time setting unit 3 is the same as or longer than the predetermined predetermined time set in advance (step S71: NO), the visual field setting unit 5 is shown in FIG. As shown in 8 (a), the front view range of the driver 30 is set to a predetermined normal range A1 (step S72 in FIG. 7). Specifically, the spread angle of the front viewing range with respect to the horizontal direction is set to the normal angle A1.

一方、運転者30の予見時間が所定時間より短ければ(図7のステップS71:YES)、視野設定部5は、図8(a)に示すように、運転者30の正面視野範囲を通常範囲A1より狭い所定範囲A2に設定する(図7のステップS73)。詳しくは、正面視野範囲の水平方向に対する広がり角度を、通常角度A1より小さい所定角度A2に設定する。 On the other hand, if the foreseeing time of the driver 30 is shorter than the predetermined time (step S71: YES in FIG. 7), the visual field setting unit 5 normally ranges the front visual field range of the driver 30 as shown in FIG. 8A. It is set in a predetermined range A2 narrower than A1 (step S73 in FIG. 7). Specifically, the spread angle of the front viewing range with respect to the horizontal direction is set to a predetermined angle A2 smaller than the normal angle A1.

次に、視野設定部5は、注視方向推定部4により推定された運転者30の注視方向φに基づいて、運転者30の正面視野範囲A1、A2を車両50の左右方向に調整する(図7のステップS74)。 Next, the visual field setting unit 5 adjusts the front visual field ranges A1 and A2 of the driver 30 in the left-right direction of the vehicle 50 based on the gaze direction φ of the driver 30 estimated by the gaze direction estimation unit 4 (FIG. Step S74 of 7.

このとき、図8の(b)〜(d)に示すように、注視方向φが正面視野範囲A1、A2の中心に来るように、正面視野範囲A1、A2を設定する。具体的には、図8(b)に示すように、注視方向φが0°の場合は、車両50が直線路を走行中であるため、正面視野範囲A1、A2は車両50の左右にシフトされず、真正面に設定される。また、図8(c)に示すように、注視方向φが+θ°の場合は、車両50が右曲りの曲線路を走行中であるため、正面視野範囲A1、A2は注視方向φに応じて、車両50の右側にシフトされる。さらに、図8(d)に示すように、注視方向φが−θ°の場合は、車両50が左曲りの曲線路を走行中であるため、正面視野範囲A1、A2は注視方向φに応じて、車両50の左側にシフトされる。 At this time, as shown in FIGS. 8B to 8D, the front visual field ranges A1 and A2 are set so that the gaze direction φ comes to the center of the front visual field ranges A1 and A2. Specifically, as shown in FIG. 8B, when the gaze direction φ is 0 °, the vehicle 50 is traveling on a straight road, so the front viewing ranges A1 and A2 are shifted to the left and right of the vehicle 50. It is set directly in front of you. Further, as shown in FIG. 8C, when the gaze direction φ is + θ °, the vehicle 50 is traveling on a curved road turning right, so that the front viewing ranges A1 and A2 correspond to the gaze direction φ. , Shifted to the right side of the vehicle 50. Further, as shown in FIG. 8D, when the gaze direction φ is −θ °, the vehicle 50 is traveling on a curved road turning left, so that the front viewing ranges A1 and A2 correspond to the gaze direction φ. Then, it is shifted to the left side of the vehicle 50.

視野設定部5は、上記のように図7のステップS72〜ステップS74で設定した運転者30の正面視野範囲を示すデータを、内部メモリに記憶させる(図7のステップS75)。 The visual field setting unit 5 stores data indicating the front visual field range of the driver 30 set in steps S72 to S74 of FIG. 7 as described above in the internal memory (step S75 of FIG. 7).

次に、脇見判定部6が脇見判定処理を実行する(図2のステップS8)。図9は、脇見判定処理の詳細を示したフローチャートである。 Next, the inattentive determination unit 6 executes the inattentive determination process (step S8 in FIG. 2). FIG. 9 is a flowchart showing the details of the inattentive determination process.

図9において、予見時間設定部3により設定された運転者30の予見時間が、予め設定された所定時間と同一または当該所定時間より長ければ(ステップS81:NO)、脇見判定部6は、脇見判定時間を所定の通常時間に設定する(ステップS82)。 In FIG. 9, if the foresight time of the driver 30 set by the foresight time setting unit 3 is the same as or longer than the predetermined predetermined time set in advance (step S81: NO), the inattentive determination unit 6 will inspect. The determination time is set to a predetermined normal time (step S82).

また、運転者30の予見時間が所定時間より短ければ(ステップS81:YES)、脇見判定部6は、脇見判定時間を通常時間より短い所定時間に設定する(ステップS83)。 If the foresight time of the driver 30 is shorter than the predetermined time (step S81: YES), the inattentive determination unit 6 sets the inattentive determination time to a predetermined time shorter than the normal time (step S83).

なお、図9のステップS81で予見時間と比較する所定時間は、前述した図7のステップS71で予見時間と比較する所定時間と同一の時間であってもよいし、異なる時間であってもよい。 The predetermined time to be compared with the foresight time in step S81 of FIG. 9 may be the same as or different from the predetermined time to be compared with the foresight time in step S71 of FIG. ..

上記のように脇見判定時間を設定すると、脇見判定部6は、乗員向き検出部1の出力から運転者30の顔の向きを検出する(ステップS84)。そして、その運転者30の顔の向きと、視野設定部5により設定された正面視野範囲とを比較し、運転者30の顔の向きが正面視野範囲から外れた状態が、脇見判定時間継続しなければ(ステップS85:NO)、脇見判定部6は、運転者30の脇見状態が無いと判定する(ステップS86)。 When the inattentive determination time is set as described above, the inattentive determination unit 6 detects the direction of the driver 30's face from the output of the occupant orientation detection unit 1 (step S84). Then, the direction of the face of the driver 30 is compared with the front view range set by the field view setting unit 5, and the state in which the direction of the face of the driver 30 deviates from the front view range continues for the inattentive determination time. If not (step S85: NO), the inattentive determination unit 6 determines that the driver 30 is not inattentive (step S86).

一方、運転者30の顔の向きが正面視野範囲から外れた状態が、脇見判定時間継続すると(ステップS85:YES)、脇見判定部6は、運転者30の脇見状態が有ったと判定する(ステップS87)。そして、脇見判定部6が警報指令を出力し、当該警報指令を受けて、警報部13が警報を出力する(ステップS88)。 On the other hand, if the state in which the driver 30's face is out of the front view range continues for the inattentive determination time (step S85: YES), the inattentive determination unit 6 determines that the driver 30 has inattentive state (step S85: YES). Step S87). Then, the inattentive determination unit 6 outputs an alarm command, and in response to the alarm command, the alarm unit 13 outputs an alarm (step S88).

上記のように脇見判定処理が終了すると、図2のステップS1に戻って、以降の処理が繰り返される。 When the inattentive determination process is completed as described above, the process returns to step S1 of FIG. 2 and the subsequent processes are repeated.

以上の実施形態によると、運転支援装置10の乗員向き検出部1が撮像部11により撮像された運転者30の顔画像から検出した運転者30の顔の向きと、走行状態検出部2がヨーレートセンサ12により検出した車両30の進行方向とに基づいて、予見時間設定部3が運転者30に応じた予見時間を設定する。そして、その運転者30の予見時間と車両30の進行方向とに基づいて、注視方向推定部4が運転者30の注視方向を推定する。つまり、車両30の走行状態だけでなく、運転者30の固有の予見時間という特性も考慮しているので、運転者30に応じた注視方向を推定することができる。 According to the above embodiment, the direction of the driver 30's face detected by the occupant orientation detection unit 1 of the driving support device 10 from the face image of the driver 30 imaged by the imaging unit 11 and the yaw rate of the driving state detection unit 2. The prediction time setting unit 3 sets the prediction time according to the driver 30 based on the traveling direction of the vehicle 30 detected by the sensor 12. Then, the gaze direction estimation unit 4 estimates the gaze direction of the driver 30 based on the foreseeable time of the driver 30 and the traveling direction of the vehicle 30. That is, since not only the running state of the vehicle 30 but also the characteristic of the driver 30's unique prediction time is taken into consideration, the gaze direction according to the driver 30 can be estimated.

また、一般に、車両50が走行する道路などの周辺状況の変化に応じて、車両50の先方を見る運転者30の顔の向きが変化するとともに、車両50の進行方向が変化する。これを考慮して、以上の実施形態では、予見時間設定部3が、車両50の進行方向と運転者30の顔の向きとの相互相関関数を算出して、該相互相関関数に基づいて運転者30の予見時間を設定しているので、運転者30に応じた予見時間を適正に設定することができる。そして、注視方向推定部4が運転者30に応じた予見時間と車両50のヨーレートとに基づいて、運転者30の注視方向を推定するので、運転者30に応じた注視方向をより適正に推定することができる。 Further, in general, the direction of the face of the driver 30 looking ahead of the vehicle 50 changes and the traveling direction of the vehicle 50 changes according to changes in the surrounding conditions such as the road on which the vehicle 50 travels. In consideration of this, in the above embodiment, the prediction time setting unit 3 calculates a cross-correlation function between the traveling direction of the vehicle 50 and the face orientation of the driver 30, and drives based on the cross-correlation function. Since the foreseeing time of the person 30 is set, the foreseeing time according to the driver 30 can be set appropriately. Then, since the gaze direction estimation unit 4 estimates the gaze direction of the driver 30 based on the prediction time according to the driver 30 and the yaw rate of the vehicle 50, the gaze direction according to the driver 30 is estimated more appropriately. can do.

また、車両50が曲線路を走行する際には、車両50の進行方向が所定の直進範囲から外れる。これを考慮して、以上の実施形態では、走行状態検出部2により検出された車両50の進行方向が所定の直進範囲から外れる度に、予見時間設定部3が車両50の進行方向と、乗員向き検出部1により検出された運転者30の顔の向きとに基づいて、乗員の予見時間を更新する。このため、車両50の進行方向と運転者30に応じた注視方向をより適正に推定することができる。 Further, when the vehicle 50 travels on a curved road, the traveling direction of the vehicle 50 deviates from the predetermined straight-ahead range. In consideration of this, in the above embodiment, every time the traveling direction of the vehicle 50 detected by the traveling state detection unit 2 deviates from the predetermined straight-ahead range, the foreseeing time setting unit 3 determines the traveling direction of the vehicle 50 and the occupant. The occupant's prediction time is updated based on the direction of the driver 30's face detected by the direction detection unit 1. Therefore, it is possible to more accurately estimate the traveling direction of the vehicle 50 and the gaze direction according to the driver 30.

また、以上の実施形態では、注視方向推定部4により推定された運転者30の注視方向と、車両50のヨーレートとに基づいて、視野設定部5が運転者30の正面視野範囲を適正に設定することができる。そして、その運転者30の正面視野範囲と、乗員向き検出部1により検出された運転者30の顔の向きとに基づいて、脇見判定部6が運転者30の脇見状態の有無を適正に判定することができる。 Further, in the above embodiment, the visual field setting unit 5 appropriately sets the front visual field range of the driver 30 based on the gaze direction of the driver 30 estimated by the gaze direction estimation unit 4 and the yaw rate of the vehicle 50. can do. Then, based on the front view range of the driver 30 and the orientation of the driver 30's face detected by the occupant orientation detection unit 1, the inattentive determination unit 6 appropriately determines whether or not the driver 30 is in the inattentive state. can do.

また、前述したように、車両の運転熟練度が低い運転者ほど、予見時間が短くなり、車両の正面の視野が狭くなる。これを考慮して、以上の実施形態では、予見時間設定部3により設定された運転者30の予見時間が所定時間より短い場合は、正面視野範囲を狭く設定し、運転者30の予見時間が所定時間と同一またはそれより長い場合は、正面視野範囲を広く設定している。このため、車両50の運転熟練度が低くて、予見時間が短い運転者30に対しては、正面視野範囲を狭く設定して、脇見状態の有無の判定を厳しくすることができる。また、車両50の運転熟練度が高くて、予見時間が長い運転者30に対しては、正面視野範囲を広く設定して、脇見状態の有無の判定を緩くすることができる。つまり、運転者30の運転熟練度の影響を受ける予見時間に応じて、正面視野範囲の広さを設定することで、脇見状態の有無の判定を一層適正に行うことが可能となる。 Further, as described above, the lower the driving skill of the vehicle, the shorter the prediction time and the narrower the field of view in front of the vehicle. In consideration of this, in the above embodiment, when the prediction time of the driver 30 set by the prediction time setting unit 3 is shorter than the predetermined time, the front viewing range is set narrow and the prediction time of the driver 30 is set. If it is the same as or longer than the predetermined time, the front viewing range is set wide. Therefore, for the driver 30 who has a low driving skill of the vehicle 50 and a short prediction time, the front view range can be set narrow and the determination of the presence or absence of the inattentive state can be made strict. Further, for the driver 30 who has a high driving skill of the vehicle 50 and a long prediction time, the front view range can be set wide and the determination of the presence or absence of the inattentive state can be relaxed. That is, by setting the width of the front visual field range according to the foresight time affected by the driving skill of the driver 30, it is possible to more appropriately determine the presence or absence of the inattentive state.

また、以上の実施形態では、乗員向き検出部1により検出された運転者30の顔の向きが、視野設定部5により設定された正面視野範囲から外れた状態が脇見判定時間継続した場合に、脇見判定部6が運転者30の脇見状態が有ったと判定している。このため、運転者30の顔の向きが正面視野範囲から瞬間的に外れたときに、脇見状態が有ったと過剰判定されるのを回避することができる。また、運転者30の向きが正面視野範囲からある程度継続して外れたときに、脇見状態が有ったと確実に判定することができる。 Further, in the above embodiment, when the face orientation of the driver 30 detected by the occupant orientation detection unit 1 deviates from the front visual field range set by the visual field setting unit 5 and the inattentive determination time continues. The inattentive determination unit 6 determines that the driver 30 is in an inattentive state. Therefore, when the direction of the face of the driver 30 is momentarily deviated from the front view range, it is possible to avoid overdetermining that the driver 30 is in an inattentive state. Further, when the direction of the driver 30 is continuously deviated from the front view range to some extent, it can be reliably determined that there is an inattentive state.

また、以上の実施形態では、予見時間設定部3により設定された運転者30の予見時間が所定時間より短い場合は、脇見判定部6が脇見判定時間を短く設定し、運転者30の予見時間が所定時間と同一またはそれより長い場合は、脇見判定部6が脇見判定時間を長く設定している。このため、車両50の運転熟練度が低くて、予見時間が短い運転者30に対しては、脇見判定時間を短く設定して、脇見状態の有無の判定を厳しくすることができる。また、車両50の運転熟練度が高くて、予見時間が長い運転者30に対しては、脇見判定時間を長く設定して、脇見状態の有無の判定を緩くすることができる。つまり、運転者30の運転熟練度の影響を受ける予見時間に応じて、脇見判定時間を設定することで、脇見状態の有無の判定を一層適正に行うことが可能となる。 Further, in the above embodiment, when the foresight time of the driver 30 set by the foresight time setting unit 3 is shorter than the predetermined time, the inattentive determination unit 6 sets the inattentive determination time shorter and the foresight time of the driver 30. When is equal to or longer than the predetermined time, the inattentive determination unit 6 sets the inattentive determination time longer. Therefore, for the driver 30 who has a low driving skill of the vehicle 50 and a short prediction time, the inattentiveness determination time can be set short and the determination of the presence or absence of the inattentive state can be made strict. Further, for the driver 30 who has a high driving skill of the vehicle 50 and a long prediction time, it is possible to set a long inattentive determination time to loosen the determination of the presence or absence of the inattentive state. That is, by setting the inattentive determination time according to the foresight time affected by the driving skill of the driver 30, it is possible to more appropriately determine the presence or absence of the inattentive state.

さらに、以上の実施形態では、脇見判定部6により運転者30の脇見状態が有ったと判定された場合に、警報部13が警報を出力する。このため、運転者30に脇見状態を止めさせて、車両50を安全に運転させることができる。 Further, in the above embodiment, when the inattentive determination unit 6 determines that the driver 30 is in the inattentive state, the alarm unit 13 outputs an alarm. Therefore, the driver 30 can stop the inattentive state and drive the vehicle 50 safely.

本発明は、前記の実施形態以外にも、以下のような種々の実施形態を採用することができる。 In addition to the above-described embodiments, the present invention can employ various embodiments as described below.

前記の実施形態では、撮像部11により撮像された運転者30の顔画像に基づいて、運転者30の顔の向きを乗員の向きとして検出した例を示したが、本発明はこれのみに限定するものではない。これ以外に、たとえば撮像部11により撮像された車内の画像に基づいて、運転者30の視線方向を乗員の向きとして検出してもよい。そして、その視線方向に基づいて、運転者30の予見時間を設定したり、運転者30の脇見状態の有無を判定したりしてもよい。 In the above embodiment, an example in which the direction of the driver 30's face is detected as the direction of the occupant based on the face image of the driver 30 captured by the imaging unit 11 is shown, but the present invention is limited to this. It's not something to do. In addition to this, for example, the line-of-sight direction of the driver 30 may be detected as the direction of the occupant based on the image of the inside of the vehicle captured by the image pickup unit 11. Then, the foreseeing time of the driver 30 may be set or the presence or absence of the inattentive state of the driver 30 may be determined based on the line-of-sight direction.

前記の実施形態では、走行状態検出部2が車両50の走行状態として、ヨーレートセンサ12により車両50のヨーレートを検出したり、車両50の進行方向を検出したりした例を示したが、本発明はこれらのみに限定するものではない。これ以外に、たとえばジャイロセンサやナビゲーション情報などに基づいて、車両の進行方向や旋回度などを走行状態として検出してもよい。 In the above-described embodiment, an example is shown in which the traveling state detection unit 2 detects the yaw rate of the vehicle 50 or detects the traveling direction of the vehicle 50 by the yaw rate sensor 12 as the traveling state of the vehicle 50. Is not limited to these. In addition to this, the traveling direction, turning degree, and the like of the vehicle may be detected as a traveling state based on, for example, a gyro sensor and navigation information.

前記の実施形態では、運転者30の予見時間に基づいて、正面視野範囲と脇見判定時間とをそれぞれ2段階で設定した例を示したが、本発明はこれのみに限定するものではない。正面視野範囲や脇見判定時間は、運転者30の予見時間に基づいて3段階以上に設定してもよい。 In the above embodiment, an example in which the front view range and the inattentive determination time are set in two stages based on the foresight time of the driver 30 is shown, but the present invention is not limited to this. The front view range and the inattentive determination time may be set to three or more stages based on the foresight time of the driver 30.

前記の実施形態では、車両の運転熟練度が低くて、予見時間が短い運転者ほど、正面視野範囲を狭く設定したり、脇見判定時間を短く設定したりして、脇見状態の判定や警報を厳しくした例を示したが、本発明はこれのみに限定するものではない。たとえば脇見状態の誤判定を防止するなどの観点から、逆に、運転熟練度が低くて、予見時間が短い運転者ほど、正面視野範囲を広く設定したり、脇見判定時間を長く設定したりして、脇見状態の判定や警報を緩くしてもよい。つまり、種々の観点に基づき、運転者の予見時間に応じて、正面視野範囲の大きさを変化させたり、脇見判定時間の長さを変化させたりすればよい。 In the above-described embodiment, the driver who has a lower driving skill level and a shorter forecasting time has a narrower front view range or a shorter inattentive judgment time to determine the inattentive state and give an alarm. Although a strict example is shown, the present invention is not limited to this. For example, from the viewpoint of preventing erroneous judgment of the inattentive state, conversely, the driver with lower driving skill and shorter prediction time may set a wider front view range or a longer inattentive judgment time. Therefore, the judgment of the inattentive state and the alarm may be loosened. That is, based on various viewpoints, the size of the front view range may be changed or the length of the inattentive determination time may be changed according to the driver's foresight time.

前記の実施形態では、運転者30の注視方向を推定して、運転者30の脇見状態の判定を行う運転支援装置10と運転支援システム100に本発明を適用した例を示した。然るに、たとえば車両の操舵や速度などの自動運転制御に、推定した運転者の注視方向を利用する運転支援装置と運転支援システムにも本発明は適用可能である。また、運転者以外の乗員の注視方向を推定する運転支援装置と運転支援システムにも本発明は適用可能である。 In the above embodiment, an example in which the present invention is applied to the driving support device 10 and the driving support system 100 that estimate the gaze direction of the driver 30 and determine the inattentive state of the driver 30 is shown. However, the present invention is also applicable to a driving support device and a driving support system that utilize the estimated driver's gaze direction for automatic driving control such as steering and speed of a vehicle, for example. The present invention is also applicable to a driving support device and a driving support system that estimate the gaze direction of an occupant other than the driver.

1 乗員向き検出部
2 走行状態検出部
3 予見時間設定部
4 注視方向推定部
5 視野設定部
6 脇見判定部
10 運転支援装置
11 撮像部
12 ヨーレートセンサ
13 警報部
30 運転者(乗員)
50 車両
100 運転支援システム
A1、A2 正面視野範囲
Δt、位相差、予見時間
ω ヨーレート
φ 注視方向
1 Passenger orientation detection unit 2 Driving state detection unit 3 Forecast time setting unit 4 Gaze direction estimation unit 5 Field of view setting unit 6 Inattentive judgment unit 10 Driving support device 11 Imaging unit 12 Yaw rate sensor 13 Alarm unit 30 Driver (occupant)
50 Vehicle 100 Driving support system A1, A2 Front view range Δt, phase difference, prediction time ω yaw rate φ gaze direction

Claims (10)

車両の走行状態を検出する走行状態検出部と、
前記車両の進行方向に対する乗員の注視方向を推定する注視方向推定部と、を備えた運転支援装置において、
撮像された前記乗員の画像に基づいて、前記乗員の向きを検出する乗員向き検出部と、
前記乗員向き検出部の検出結果と前記走行状態検出部の検出結果とに基づいて、前記乗員の予見時間を設定する予見時間設定部と、をさらに備え、
前記注視方向推定部は、前記走行状態検出部の検出結果と前記予見時間設定部の設定結果とに基づいて、前記乗員の注視方向を推定する、ことを特徴とする運転支援装置。
A running state detection unit that detects the running state of the vehicle,
In a driving support device including a gaze direction estimation unit that estimates the gaze direction of an occupant with respect to the traveling direction of the vehicle.
An occupant orientation detection unit that detects the orientation of the occupant based on the captured image of the occupant, and
A prediction time setting unit for setting the prediction time of the occupant based on the detection result of the occupant orientation detection unit and the detection result of the traveling state detection unit is further provided.
The gaze direction estimation unit is a driving support device that estimates the gaze direction of the occupant based on the detection result of the traveling state detection unit and the setting result of the prediction time setting unit.
請求項1に記載の運転支援装置において、
前記走行状態検出部は、前記車両のヨーレートの検出結果に基づいて、前記車両の進行方向を検出し、
前記乗員向き検出部は、前記乗員の顔画像に基づいて、前記乗員の顔の向きを検出し、
前記予見時間設定部は、前記走行状態検出部により検出された前記車両の進行方向と、前記乗員向き検出部により検出された前記乗員の顔の向きとの相互相関関数を算出し、当該相互相関関数に基づいて前記乗員の予見時間を設定する、ことを特徴とする運転支援装置。
In the driving support device according to claim 1,
The traveling state detection unit detects the traveling direction of the vehicle based on the detection result of the yaw rate of the vehicle.
The occupant orientation detection unit detects the orientation of the occupant's face based on the occupant's face image.
The prediction time setting unit calculates a cross-correlation function between the traveling direction of the vehicle detected by the traveling state detection unit and the face orientation of the occupant detected by the occupant orientation detection unit, and the cross-correlation A driving support device characterized in that the prediction time of the occupant is set based on a function.
請求項2に記載の運転支援装置において、
前記予見時間設定部は、前記相互相関関数が最大になるときの、前記車両の進行方向の変化と前記乗員の顔の向きの変化との位相差を、前記乗員の予見時間とする、ことを特徴とする運転支援装置。
In the driving support device according to claim 2,
The prediction time setting unit sets the phase difference between the change in the traveling direction of the vehicle and the change in the direction of the occupant's face when the cross-correlation function is maximized as the prediction time of the occupant. A characteristic driving support device.
請求項1ないし請求項3のいずれかに記載の運転支援装置において、
前記予見時間設定部は、前記走行状態検出部により検出された前記車両の進行方向が所定の直進範囲から外れた場合に、前記乗員の予見時間を更新する、ことを特徴とする運転支援装置。
In the driving support device according to any one of claims 1 to 3.
The driving support device is characterized in that the forecast time setting unit updates the forecast time of the occupant when the traveling direction of the vehicle detected by the traveling state detection unit deviates from a predetermined straight-ahead range.
請求項1ないし請求項4のいずれかに記載の運転支援装置において、
前記注視方向推定部により推定された前記乗員の注視方向に基づいて、前記乗員の正面視野範囲を設定する視野設定部と、
前記視野設定部の設定結果と前記乗員向き検出部の検出結果とに基づいて、前記乗員の脇見状態の有無を判定する脇見判定部と、をさらに備えたことを特徴とする運転支援装置。
In the driving support device according to any one of claims 1 to 4.
A visual field setting unit that sets the front view range of the occupant based on the gaze direction of the occupant estimated by the gaze direction estimation unit.
A driving support device further comprising an inattentive determination unit for determining the presence or absence of an inattentive state of the occupant based on a setting result of the visual field setting unit and a detection result of the occupant orientation detection unit.
請求項5に記載の運転支援装置において、
前記視野設定部は、前記予見時間設定部により検出された前記予見時間に応じて、前記正面視野範囲の大きさを変化させる、ことを特徴とする運転支援装置。
In the driving support device according to claim 5,
The visual field setting unit is a driving support device that changes the size of the front visual field range according to the forecast time detected by the forecast time setting unit.
請求項5または請求項6に記載の運転支援装置において、
前記脇見判定部は、前記予見時間設定部により設定された前記予見時間に基づいて脇見判定時間を設定し、前記乗員向き検出部により検出された前記乗員の向きが前記視野設定部により設定された前記正面視野範囲から外れた状態が、前記脇見判定時間継続した場合に、前記乗員の脇見状態が有ったと判定する、ことを特徴とする運転支援装置。
In the driving support device according to claim 5 or 6.
The inattentive determination unit sets the inattentive determination time based on the foresight time set by the foresight time setting unit, and the orientation of the occupant detected by the occupant orientation detection unit is set by the visual field setting unit. A driving support device, characterized in that, when the state of being out of the front view range continues for the inattentive determination time, it is determined that the occupant has inattentive state.
請求項7に記載の運転支援装置において、
前記脇見判定部は、前記予見時間設定部により検出された前記予見時間に応じて、前記脇見判定時間の長さを変化させる、ことを特徴とする運転支援装置。
In the driving support device according to claim 7.
The inattentive determination unit is a driving support device that changes the length of the inattentive determination time according to the foresight time detected by the inattentive time setting unit.
請求項1ないし請求項8のいずれかに記載の運転支援装置と、
車両のヨーレートを検出するヨーレートセンサと、
前記車両の乗員を撮像する撮像部と、を含み、
前記運転支援装置に備わる前記走行状態検出部は、前記ヨーレートセンサの出力に基づいて、前記車両の走行状態を検出する、ことを特徴とする運転支援システム。
The driving support device according to any one of claims 1 to 8.
A yaw rate sensor that detects the yaw rate of the vehicle and
Includes an imaging unit that captures images of the occupants of the vehicle.
The driving support system provided in the driving support device is characterized in that the driving state detecting unit detects the driving state of the vehicle based on the output of the yaw rate sensor.
請求項5ないし請求項8のいずれかに記載の運転支援装置と、
車両のヨーレートを検出するヨーレートセンサと、
前記車両の乗員を撮像する撮像部と、
前記乗員に対して警報を出力する警報部と、を含み、
前記運転支援装置に備わる前記走行状態検出部は、前記ヨーレートセンサの出力に基づいて、前記車両の走行状態を検出し、
前記警報部は、前記運転支援装置に備わる前記脇見判定部により前記乗員の脇見状態が有ったと判定された場合に、前記警報を出力する、ことを特徴とする運転支援システム。
The driving support device according to any one of claims 5 to 8.
A yaw rate sensor that detects the yaw rate of the vehicle and
An imaging unit that images the occupants of the vehicle,
Including an alarm unit that outputs an alarm to the occupant
The traveling state detection unit provided in the driving support device detects the traveling state of the vehicle based on the output of the yaw rate sensor.
The driving support system is characterized in that the alarm unit outputs the alarm when it is determined by the inattentive determination unit provided in the driving support device that the occupant is in an inattentive state.
JP2019220031A 2019-12-05 2019-12-05 Driving support device, and driving support system Pending JP2021089616A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019220031A JP2021089616A (en) 2019-12-05 2019-12-05 Driving support device, and driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019220031A JP2021089616A (en) 2019-12-05 2019-12-05 Driving support device, and driving support system

Publications (1)

Publication Number Publication Date
JP2021089616A true JP2021089616A (en) 2021-06-10

Family

ID=76220574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019220031A Pending JP2021089616A (en) 2019-12-05 2019-12-05 Driving support device, and driving support system

Country Status (1)

Country Link
JP (1) JP2021089616A (en)

Similar Documents

Publication Publication Date Title
KR101793370B1 (en) Vehicle control apparatus
KR101438941B1 (en) Apparatus and method for controlling parking assistance
KR102051142B1 (en) System for managing dangerous driving index for vehicle and method therof
JP5543501B2 (en) Vehicle control device
JP6313278B2 (en) Control system for display for crossing detection
JP4114485B2 (en) Vehicle traveling state detection device and vehicle traveling control device
US20190143993A1 (en) Distracted driving determination apparatus, distracted driving determination method, and program
JP2009073462A (en) Operating state determination device and operation support device
KR20090007982A (en) Lane devition waring system
JP6693427B2 (en) Driver status detector
JP2010140358A (en) Traveling support device
JP2003327009A (en) Attention attracting device
JP4882587B2 (en) Vehicle information providing device
JP2015162228A (en) vehicle control device
JP2018127084A (en) Automatic drive vehicle
US10501116B2 (en) Automatic steering control device
JP6775134B2 (en) Driver status detector
JP2007068917A (en) Visibility situation judgment apparatus, automobile, and visibility situation judgment method
JP3760879B2 (en) Lane departure warning device
JPH11126300A (en) Lane deviation warning device for vehicle
JP4760113B2 (en) Driver state estimation device
JP2008105511A (en) Driving support apparatus
JP5109851B2 (en) Alarm display control device for vehicles
JP2021089616A (en) Driving support device, and driving support system
KR20180007211A (en) A Rear collision warning system of Vehicles