JP2021089616A - Driving support device, and driving support system - Google Patents
Driving support device, and driving support system Download PDFInfo
- Publication number
- JP2021089616A JP2021089616A JP2019220031A JP2019220031A JP2021089616A JP 2021089616 A JP2021089616 A JP 2021089616A JP 2019220031 A JP2019220031 A JP 2019220031A JP 2019220031 A JP2019220031 A JP 2019220031A JP 2021089616 A JP2021089616 A JP 2021089616A
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- driving support
- vehicle
- unit
- support device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両の運転を支援する運転支援装置および運転支援システムに関する。 The present invention relates to a driving support device and a driving support system that support the driving of a vehicle.
車両を安全に運転することができるように、運転者などの乗員は常に車両が到達する地点を予測して、当該地点を見ている。このため、たとえば特許文献1〜4に開示されているように、車両の進行方向における乗員の注視点を推定して、車両の運転支援に活用する運転支援装置および運転支援システムがある。
In order to be able to drive the vehicle safely, occupants such as drivers always predict the point where the vehicle will reach and look at the point. Therefore, for example, as disclosed in
特許文献1では、センサにより検出した車両の車速やヨーレートなどの走行状態に基づいて、車両の走行軌跡を予測し、さらにそれらに基づいて運転者の注視点を推定する。そして、カメラなどの撮像部により撮像した運転者の顔画像に基づいて、運転者の注視方向を検出し、当該注視方向と推定した注視点とに基づいて、運転者の脇見状態の有無を判定し、脇見状態が有れば、警報を出力する。
In
特許文献2では、カメラの撮像画像から検出した運転者の顔や視線の向きと、車速と、ナビゲーション情報から予測した車両の軌道とに基づいて、顔や視線の向きと車両の軌道とが交差する注視点を推定し、当該注視点に到達するまでの運転者先読み時間を演算する。また、ナビゲーション情報から車両がカーブに進入または走行していることを検出し、かつ運転者先読み時間が所定範囲内にある場合に、顔や視線の向きと車速とナビゲーション情報とに基づいて、運転者の正面視野範囲を補正する。そして、顔や視線の向きが正面視野範囲から外れたときに、警報を出力するなどの車両制御を行う。
In
特許文献3では、センサにより検出した車両の車速やヨーレートなどの走行状態と、予め設定された予見時間とに基づいて、運転者の注視点を推定する。また、その走行状態と注視点とに基づいて、脇見判定用の閾値(運転者の正面視野範囲)を設定する。そして、脇見判定用の閾値と、カメラの撮像画像から検出した運転者の顔の向きとに基づいて、運転者の脇見状態の有無を判定し、脇見状態が有れば、警報を出力するなどの車両制御を行う。
In
特許文献4に開示された装置およびシステムでは、ナビゲーション情報やカメラの撮像画像に基づいて、車両が走行する道路の曲線長、曲率半径、または路面摩擦係数などの道路情報を検出する。また、その道路情報と、センサにより検出した車両の車速やヨーレートなどの走行状態とに基づいて、運転者の予見時間を設定する。または、運転者の操作により予見時間が入力される。そして、予見時間と車速とに基づいて、運転者の前方注視距離(注視点)を推定し、当該前方注視距離と道路情報などに基づいて、カーブ走行時の車両の加速を制御する。
The device and system disclosed in
運転者などの乗員が注視する注視点の方向には個人差がある。そのため、乗員の特性を考慮せずに注視方向を推定すると、脇見判定用の視野範囲などの閾値を乗員に応じて適正に設定することができず、乗員の脇見状態の有無の判定を適正に行えないおそれがあったり、車両の走行制御を適切に行えないおそれがあったりする。特に、車両の曲線路の走行時に、乗員の個人差により注視方向が車両の左右方向にばらつくため、乗員の脇見状態の判定や車両の走行制御が乗員に応じて適切に行われないおそれがある。 There are individual differences in the direction of the gaze point that the occupants such as the driver gaze at. Therefore, if the gaze direction is estimated without considering the characteristics of the occupant, the threshold value such as the visual field range for inattentive judgment cannot be set appropriately according to the occupant, and the presence or absence of the inattentive state of the occupant cannot be properly determined. It may not be possible, or it may not be possible to properly control the running of the vehicle. In particular, when the vehicle is traveling on a curved road, the gaze direction varies from side to side of the vehicle due to individual differences of the occupants, so that the judgment of the occupant's inattentive state and the vehicle's travel control may not be performed appropriately according to the occupant. ..
本発明は、乗員に応じた注視方向を推定することができる運転支援装置および運転支援システムを提供することを課題とする。 An object of the present invention is to provide a driving support device and a driving support system capable of estimating a gaze direction according to an occupant.
本発明による運転支援装置は、車両の走行状態を検出する走行状態検出部と、車両の進行方向に対する乗員の注視方向を推定する注視方向推定部と、撮像された乗員の画像に基づいて、乗員の向きを検出する乗員向き検出部と、この乗員向き検出部の検出結果と走行状態検出部の検出結果とに基づいて、乗員の予見時間を設定する予見時間設定部とを備え、注視方向推定部は、走行状態検出部の検出結果と予見時間設定部の設定結果とに基づいて、乗員の注視方向を推定する。 The driving support device according to the present invention is based on a traveling state detection unit that detects the traveling state of the vehicle, a gaze direction estimation unit that estimates the gaze direction of the occupant with respect to the traveling direction of the vehicle, and an image of the occupant captured. It is provided with a occupant orientation detection unit that detects the direction of the occupant, and a prediction time setting unit that sets the occupant's prediction time based on the detection result of the occupant orientation detection unit and the detection result of the traveling state detection unit, and estimates the gaze direction. The unit estimates the gaze direction of the occupant based on the detection result of the traveling state detection unit and the setting result of the prediction time setting unit.
また、本発明による運転支援システムは、上記運転支援装置と、車両のヨーレートを検出するヨーレートセンサと、車両の乗員を撮像する撮像部とを含み、運転支援装置に備わる走行状態検出部は、ヨーレートセンサの出力に基づいて、車両の走行状態を検出する。 Further, the driving support system according to the present invention includes the above-mentioned driving support device, a yaw rate sensor for detecting the yaw rate of the vehicle, and an imaging unit for imaging the occupants of the vehicle. The driving state of the vehicle is detected based on the output of the sensor.
本発明の運転支援装置および運転支援システムによると、乗員向き検出部が乗員の画像から検出した乗員の向きと、走行状態検出部が検出した車両の走行状態とに基づいて、予見時間設定部が車両の乗員に応じた予見時間を設定する。そして、その乗員の予見時間と車両の走行状態とに基づいて、注視方向推定部が車両の進行方向に対する乗員の注視方向を推定する。つまり、車両の走行状態だけでなく、乗員の固有の予見時間という特性も考慮しているので、乗員に応じた注視方向を推定することができる。 According to the driving support device and the driving support system of the present invention, the prediction time setting unit is based on the direction of the occupant detected by the occupant orientation detection unit from the image of the occupant and the driving state of the vehicle detected by the traveling state detection unit. Set the forecast time according to the occupants of the vehicle. Then, the gaze direction estimation unit estimates the gaze direction of the occupant with respect to the traveling direction of the vehicle based on the foreseeable time of the occupant and the traveling state of the vehicle. That is, since not only the running state of the vehicle but also the characteristic of the occupant's unique prediction time is taken into consideration, the gaze direction according to the occupant can be estimated.
本発明では、走行状態検出部は、車両のヨーレートの検出結果に基づいて、車両の進行方向を検出し、乗員向き検出部は、乗員の顔画像に基づいて、乗員の顔の向きを検出し、予見時間設定部は、走行状態検出部により検出された車両の進行方向と、乗員向き検出部により検出された乗員の顔の向きとの相互相関関数を算出し、当該相互相関関数に基づいて乗員の予見時間を設定してもよい。 In the present invention, the traveling state detection unit detects the traveling direction of the vehicle based on the detection result of the yaw rate of the vehicle, and the occupant orientation detection unit detects the orientation of the occupant's face based on the occupant's face image. , The prediction time setting unit calculates a cross-correlation function between the traveling direction of the vehicle detected by the traveling state detection unit and the direction of the occupant's face detected by the occupant orientation detection unit, and is based on the cross-correlation function. The occupant's forecast time may be set.
また、本発明では、予見時間設定部は、相互相関関数が最大になるときの、車両の進行方向の変化と乗員の顔の向きの変化との位相差を、乗員の予見時間としてもよい。 Further, in the present invention, the prediction time setting unit may use the phase difference between the change in the traveling direction of the vehicle and the change in the direction of the occupant's face when the cross-correlation function is maximized as the occupant's prediction time.
また、本発明では、予見時間設定部は、走行状態検出部により検出された車両の進行方向が所定の直進範囲から外れた場合に、乗員の予見時間を更新してもよい。 Further, in the present invention, the prediction time setting unit may update the prediction time of the occupant when the traveling direction of the vehicle detected by the traveling state detection unit deviates from the predetermined straight-ahead range.
また、本発明では、上記運転支援装置において、注視方向推定部により推定された乗員の注視方向に基づいて、乗員の正面視野範囲を設定する視野設定部と、この視野設定部の設定結果と乗員向き検出部の検出結果とに基づいて、乗員の脇見状態の有無を判定する脇見判定部とをさらに備えてもよい。 Further, in the present invention, in the above-mentioned driving support device, a visual field setting unit that sets the front visual field range of the occupant based on the occupant's gaze direction estimated by the gaze direction estimation unit, a setting result of the visual field setting unit, and an occupant. An inattentive determination unit for determining the presence or absence of an inattentive state of the occupant may be further provided based on the detection result of the orientation detection unit.
また、本発明では、視野設定部は、予見時間設定部により検出された予見時間に応じて、正面視野範囲の大きさを変化させてもよい。 Further, in the present invention, the visual field setting unit may change the size of the front visual field range according to the foreseeing time detected by the foreseeing time setting unit.
また、本発明では、脇見判定部は、予見時間設定部により設定された予見時間に基づいて脇見判定時間を設定し、乗員向き検出部により検出された乗員の向きが視野設定部により設定された正面視野範囲から外れた状態が、脇見判定時間継続した場合に、乗員の脇見状態が有ったと判定してもよい。 Further, in the present invention, the inattentive determination unit sets the inattentive determination time based on the foresight time set by the foresight time setting unit, and the occupant orientation detected by the occupant orientation detection unit is set by the visual field setting unit. When the state of being out of the front view range continues for the inattentive determination time, it may be determined that the occupant has inattentive state.
また、本発明では、脇見判定部は、予見時間設定部により設定された予見時間に応じて、脇見判定時間の長さを変化させてもよい。 Further, in the present invention, the inattentive determination unit may change the length of the inattentive determination time according to the foreseeing time set by the foresight time setting unit.
さらに、本発明の運転支援システムは、運転支援装置に備わる脇見判定部により乗員の脇見状態が有ったと判定された場合に、乗員に対して警報を出力する警報部をさらに含んでいてもよい。 Further, the driving support system of the present invention may further include an alarm unit that outputs an alarm to the occupant when it is determined by the inattentive determination unit provided in the driving support device that the occupant is in an inattentive state. ..
本発明によれば、乗員に応じた注視方向を推定することができる運転支援装置および運転支援システムを提供することが可能となる。 According to the present invention, it is possible to provide a driving support device and a driving support system capable of estimating a gaze direction according to an occupant.
以下、本発明の実施形態につき、図面を参照しながら説明する。各図において、同一の部分または対応する部分には、同一符号を付してある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In each figure, the same parts or corresponding parts are designated by the same reference numerals.
図1は、第1実施形態の運転支援システム100の構成図である。運転支援システム100は、自動四輪車から成る車両50に搭載されている。運転支援システム100には、運転支援装置10、撮像部11、ヨーレートセンサ12、および警報部13が含まれている。
FIG. 1 is a configuration diagram of the driving support system 100 of the first embodiment. The driving support system 100 is mounted on a
撮像部11は、たとえば赤外線カメラから構成されており、車両50の運転席に着座した運転者(乗員)30の顔を動画で撮像する。ヨーレートセンサ12は、車両50のヨーレートを検出する。警報部13は、車両50の車室内に設置されたスピーカ、ブザー、照明類、ディスプレイ、またはバイブレータなどから成り、運転者30などの乗員に対して聴覚的、視覚的、または触覚的な警報を出力する。
The
運転支援装置10には、乗員向き検出部1、走行状態検出部2、予見時間設定部3、注視方向推定部4、視野設定部5、および脇見判定部6が備わっている。これらのブロック1〜6は、運転支援装置10の全体動作を制御するマイクロコンピュータ(図示省略)に内蔵されており、各ブロック1〜6の機能(詳細は後述)は、ソフトウェアにより実現される。
The driving
乗員向き検出部1は、運転者30の向きとして、撮像部11により撮像された運転者30の顔画像に基づいて、運転者30の顔の向きを検出する。
The occupant
走行状態検出部2は、ヨーレートセンサ12の検出結果に基づいて、車両50の走行状態として、車両50のヨーレートを検出したり、車両50の進行方向を検出したりする。
The traveling
予見時間設定部3は、走行状態検出部2により検出された車両50の進行方向と、乗員向き検出部1により検出された運転者30の向きとの相互相関関数を算出する。そして、予見時間設定部3は、その相互相関関数に基づいて、運転者30の予見時間を設定する。運転者30は、ある時間Δtの経過後に車両50が到達しているであろう地点を予測し、当該地点を注視しながら運転をしており、この場合の時間Δtが予見時間である。一般に、熟練度が低い運転者の予見時間は、熟練度が高い運転者の予見時間に比べて短くなる傾向がある。
The prediction
注視方向推定部4は、走行状態検出部2により検出された車両50のヨーレートと、予見時間設定部3により設定された予見時間とに基づいて、車両50の進行方向に対する運転者30の注視方向を推定する。
The gaze
視野設定部5は、注視方向推定部4により推定された運転者30の注視方向に基づいて、運転者30の正面視野範囲を設定する。
The visual
脇見判定部6は、視野設定部5により設定された正面視野範囲と、乗員向き検出部1により検出された運転者30の向きとに基づいて、運転者30の脇見状態の有無を判定する。そして、脇見判定部6は、運転者30の脇見状態が有ったと判定すると、警報部13に警報指令を出力する。警報部13は、脇見判定部6からの警報指令を受けて、運転者30などの乗員に警報を出力する。
The
図2は、運転支援システム100の動作を示したフローチャートである。なお、本動作は、車両50が起動(イグニションがオン)することで開始され、車両50が停止(イグニションがオフ)することで終了される。
FIG. 2 is a flowchart showing the operation of the driving support system 100. This operation is started when the
図2において、まず、撮像部11が運転者30の顔を撮像し(ステップS1)、運転支援装置10の乗員向き検出部1が、撮像部11により撮像された運転者30の顔画像に基づいて、運転者30の顔の向きを所定の周期で検出する(ステップS2)。
In FIG. 2, first, the
車両50が走行すると、ヨーレートセンサ12が車両50のヨーレートを所定の周期で検出し(ステップS3)、走行状態検出部2が、ヨーレートセンサ12の検出結果に基づいて、車両50の進行方向を所定の周期で検出する(ステップS4)。
When the
そして、予見時間設定部3が予見時間の設定処理を実行する(ステップS5)。図3は、予見時間設定処理の詳細を示したフローチャートである。
Then, the prediction
図3において、走行状態検出部2により検出された車両50の進行方向が、予め設定された所定の直進範囲内であれば(ステップS51:NO)、車両50は直線路を走行中である(ステップS52)。この場合、予見時間設定部3は、図示しないマイクロコンピュータの内部メモリに記憶されている現在の運転者30の予見時間を維持する(ステップS53)。したがって、予見時間は更新されない。
In FIG. 3, if the traveling direction of the
なお、運転支援装置10の製造時に、予め定められた標準の予見時間がマイクロコンピュータの内部メモリに記憶される。そして、後述するように、運転支援装置10の運用時(車両50の走行時)に、予見時間設定部3により設定された予見時間がマイクロコンピュータの内部メモリに記憶されて、運転者30の予見時間が更新される。
At the time of manufacturing the driving
走行状態検出部2により検出された車両50の進行方向が所定の直進範囲から外れると(ステップS51:YES)、車両50は曲線路を走行中である(ステップS54)。この場合、予見時間設定部3は、走行状態検出部2により検出された車両50の進行方向と、乗員向き検出部1により検出された運転者30の向きとの相互相関関数を算出する(ステップS55)。
When the traveling direction of the
図4は、予見時間設定部3による予見時間の設定例を示した図である。図4(a)には、走行状態検出部2により検出された車両50の進行方向の時間的変化を実線で示し、乗員向き検出部1により検出された運転者30の顔の向きの時間的変化を破線で示している。横軸は時間t(秒)であり、縦軸は方向(基準方向0°に対する傾き角度)である。
FIG. 4 is a diagram showing an example of setting the prediction time by the prediction
運転者30は車両50が到達する地点を予測して、当該地点を見ながら、道路などの周辺状況の変化に応じて、車両50を運転する。このため、たとえば車両50が曲線路を走行する際には、曲線路の曲り方向や曲率などに応じて、図4(a)に示すように、運転者30の顔の向きが変化し、これに追随して、車両50の進行方向が変化する。運転者30の顔の向きと車両50の進行方向とでは、変化の大きさ(振幅)は異なるが、変化の態様が同様で、両者の間には位相差(時間ずれ)がある。
The driver 30 predicts a point at which the
図3のステップS55で予見時間設定部3が算出した、図4(a)に示す運転者30の顔の向きと車両50の進行方向との相互相関関数は、図4(b)に実線で示すような関数になる。図4(b)で、横軸は位相差Δt(秒)であり、縦軸は相関係数である。
The cross-correlation function between the direction of the driver 30's face and the traveling direction of the
図3のステップS56で、予見時間設定部3は、運転者30の顔の向きと車両50の進行方向との相互相関関数が最大になる位相差Δtを、運転者30の予見時間とし、内部メモリに記憶されている運転者30の予見時間を更新する(ステップS57)。図4(b)の例では、相互相関関数が最大になる位相差Δtは「1秒」であるため、運転者30の予見時間は「1秒」となる。この予見時間は現在値であり、これをそのまま運転者30の予見時間として設定し、予見時間を更新することも可能であるが、予見時間を現在値だけで更新したのでは、予見時間の精度が低下して脇見判定時に誤判定が生じるおそれがある。そこでステップS57では、たとえば、位相差Δtから得られる現在の予見時間と、内部メモリに設定済の予見時間との平均値を算出し、これを予見時間の更新値として再設定するなどの処理を行うことが好ましい。図4(b)の場合、現在の予見時間は1秒であるが、設定済の予見時間が2秒であれば、1.5秒が新たな予見時間として再設定され、予見時間が更新される。このように、過去の予見時間を現在の予見時間に反映させつつ、予見時間の更新を繰り返すことで、運転者30に固有の予見時間を精度良く設定することができる。
In step S56 of FIG. 3, the prediction
次に、注視方向推定部4が注視方向推定処理を実行する(図2のステップS6)。図5は、注視方向推定処理の詳細を示したフローチャートである。
Next, the gaze
図5において、まず注視方向推定部4は、走行状態検出部2の出力から車両50の現在のヨーレートを検出する(ステップS61)。そして、注視方向推定部4は、そのヨーレートと、予見時間設定部3により設定された運転者30の予見時間とに基づいて、運転者30の注視方向を推定する(ステップS62)。
In FIG. 5, first, the gaze
図6は、注視方向推定部4による注視方向の推定例を示した図である。図6では、車両50と、車両50が走行する曲線路とを、上方から見た状態を示している。図6に実線で示す車両50が向いている方向は、基準方向0°である。この基準方向0°に対して傾き角度φの方向が、運転者30が注視する注視方向であり、運転者30の注視点はこの注視方向φにある。注視方向推定部4は、車両50のヨーレートωと運転者30の予見時間Δtとに基づいて、運転者30の注視方向φを次式により推定する。
φ=ωΔt/2
そして、注視方向推定部4は、推定した運転者30の注視方向φを内部メモリに記憶させる(図5のステップS63)。
FIG. 6 is a diagram showing an example of estimating the gaze direction by the gaze
φ = ωΔt / 2
Then, the gaze
次に、視野設定部5が正面視野範囲設定処理を実行する(図2のステップS7)。図7は、正面視野範囲設定処理の詳細を示したフローチャートである。また、図8は、視野設定部5による正面視野範囲の設定例を示した図である。図8では、車両50と運転者30の正面視野範囲A1、A2とを、上方から見た状態を示している。
Next, the visual
図7において、予見時間設定部3により設定された運転者30の予見時間が、予め設定された所定時間と同一または当該所定時間より長ければ(ステップS71:NO)、視野設定部5は、図8(a)に示すように、運転者30の正面視野範囲を所定の通常範囲A1に設定する(図7のステップS72)。詳しくは、正面視野範囲の水平方向に対する広がり角度を、通常角度A1に設定する。
In FIG. 7, if the predictive time of the driver 30 set by the predictive
一方、運転者30の予見時間が所定時間より短ければ(図7のステップS71:YES)、視野設定部5は、図8(a)に示すように、運転者30の正面視野範囲を通常範囲A1より狭い所定範囲A2に設定する(図7のステップS73)。詳しくは、正面視野範囲の水平方向に対する広がり角度を、通常角度A1より小さい所定角度A2に設定する。
On the other hand, if the foreseeing time of the driver 30 is shorter than the predetermined time (step S71: YES in FIG. 7), the visual
次に、視野設定部5は、注視方向推定部4により推定された運転者30の注視方向φに基づいて、運転者30の正面視野範囲A1、A2を車両50の左右方向に調整する(図7のステップS74)。
Next, the visual
このとき、図8の(b)〜(d)に示すように、注視方向φが正面視野範囲A1、A2の中心に来るように、正面視野範囲A1、A2を設定する。具体的には、図8(b)に示すように、注視方向φが0°の場合は、車両50が直線路を走行中であるため、正面視野範囲A1、A2は車両50の左右にシフトされず、真正面に設定される。また、図8(c)に示すように、注視方向φが+θ°の場合は、車両50が右曲りの曲線路を走行中であるため、正面視野範囲A1、A2は注視方向φに応じて、車両50の右側にシフトされる。さらに、図8(d)に示すように、注視方向φが−θ°の場合は、車両50が左曲りの曲線路を走行中であるため、正面視野範囲A1、A2は注視方向φに応じて、車両50の左側にシフトされる。
At this time, as shown in FIGS. 8B to 8D, the front visual field ranges A1 and A2 are set so that the gaze direction φ comes to the center of the front visual field ranges A1 and A2. Specifically, as shown in FIG. 8B, when the gaze direction φ is 0 °, the
視野設定部5は、上記のように図7のステップS72〜ステップS74で設定した運転者30の正面視野範囲を示すデータを、内部メモリに記憶させる(図7のステップS75)。
The visual
次に、脇見判定部6が脇見判定処理を実行する(図2のステップS8)。図9は、脇見判定処理の詳細を示したフローチャートである。
Next, the
図9において、予見時間設定部3により設定された運転者30の予見時間が、予め設定された所定時間と同一または当該所定時間より長ければ(ステップS81:NO)、脇見判定部6は、脇見判定時間を所定の通常時間に設定する(ステップS82)。
In FIG. 9, if the foresight time of the driver 30 set by the foresight
また、運転者30の予見時間が所定時間より短ければ(ステップS81:YES)、脇見判定部6は、脇見判定時間を通常時間より短い所定時間に設定する(ステップS83)。
If the foresight time of the driver 30 is shorter than the predetermined time (step S81: YES), the
なお、図9のステップS81で予見時間と比較する所定時間は、前述した図7のステップS71で予見時間と比較する所定時間と同一の時間であってもよいし、異なる時間であってもよい。 The predetermined time to be compared with the foresight time in step S81 of FIG. 9 may be the same as or different from the predetermined time to be compared with the foresight time in step S71 of FIG. ..
上記のように脇見判定時間を設定すると、脇見判定部6は、乗員向き検出部1の出力から運転者30の顔の向きを検出する(ステップS84)。そして、その運転者30の顔の向きと、視野設定部5により設定された正面視野範囲とを比較し、運転者30の顔の向きが正面視野範囲から外れた状態が、脇見判定時間継続しなければ(ステップS85:NO)、脇見判定部6は、運転者30の脇見状態が無いと判定する(ステップS86)。
When the inattentive determination time is set as described above, the
一方、運転者30の顔の向きが正面視野範囲から外れた状態が、脇見判定時間継続すると(ステップS85:YES)、脇見判定部6は、運転者30の脇見状態が有ったと判定する(ステップS87)。そして、脇見判定部6が警報指令を出力し、当該警報指令を受けて、警報部13が警報を出力する(ステップS88)。
On the other hand, if the state in which the driver 30's face is out of the front view range continues for the inattentive determination time (step S85: YES), the
上記のように脇見判定処理が終了すると、図2のステップS1に戻って、以降の処理が繰り返される。 When the inattentive determination process is completed as described above, the process returns to step S1 of FIG. 2 and the subsequent processes are repeated.
以上の実施形態によると、運転支援装置10の乗員向き検出部1が撮像部11により撮像された運転者30の顔画像から検出した運転者30の顔の向きと、走行状態検出部2がヨーレートセンサ12により検出した車両30の進行方向とに基づいて、予見時間設定部3が運転者30に応じた予見時間を設定する。そして、その運転者30の予見時間と車両30の進行方向とに基づいて、注視方向推定部4が運転者30の注視方向を推定する。つまり、車両30の走行状態だけでなく、運転者30の固有の予見時間という特性も考慮しているので、運転者30に応じた注視方向を推定することができる。
According to the above embodiment, the direction of the driver 30's face detected by the occupant
また、一般に、車両50が走行する道路などの周辺状況の変化に応じて、車両50の先方を見る運転者30の顔の向きが変化するとともに、車両50の進行方向が変化する。これを考慮して、以上の実施形態では、予見時間設定部3が、車両50の進行方向と運転者30の顔の向きとの相互相関関数を算出して、該相互相関関数に基づいて運転者30の予見時間を設定しているので、運転者30に応じた予見時間を適正に設定することができる。そして、注視方向推定部4が運転者30に応じた予見時間と車両50のヨーレートとに基づいて、運転者30の注視方向を推定するので、運転者30に応じた注視方向をより適正に推定することができる。
Further, in general, the direction of the face of the driver 30 looking ahead of the
また、車両50が曲線路を走行する際には、車両50の進行方向が所定の直進範囲から外れる。これを考慮して、以上の実施形態では、走行状態検出部2により検出された車両50の進行方向が所定の直進範囲から外れる度に、予見時間設定部3が車両50の進行方向と、乗員向き検出部1により検出された運転者30の顔の向きとに基づいて、乗員の予見時間を更新する。このため、車両50の進行方向と運転者30に応じた注視方向をより適正に推定することができる。
Further, when the
また、以上の実施形態では、注視方向推定部4により推定された運転者30の注視方向と、車両50のヨーレートとに基づいて、視野設定部5が運転者30の正面視野範囲を適正に設定することができる。そして、その運転者30の正面視野範囲と、乗員向き検出部1により検出された運転者30の顔の向きとに基づいて、脇見判定部6が運転者30の脇見状態の有無を適正に判定することができる。
Further, in the above embodiment, the visual
また、前述したように、車両の運転熟練度が低い運転者ほど、予見時間が短くなり、車両の正面の視野が狭くなる。これを考慮して、以上の実施形態では、予見時間設定部3により設定された運転者30の予見時間が所定時間より短い場合は、正面視野範囲を狭く設定し、運転者30の予見時間が所定時間と同一またはそれより長い場合は、正面視野範囲を広く設定している。このため、車両50の運転熟練度が低くて、予見時間が短い運転者30に対しては、正面視野範囲を狭く設定して、脇見状態の有無の判定を厳しくすることができる。また、車両50の運転熟練度が高くて、予見時間が長い運転者30に対しては、正面視野範囲を広く設定して、脇見状態の有無の判定を緩くすることができる。つまり、運転者30の運転熟練度の影響を受ける予見時間に応じて、正面視野範囲の広さを設定することで、脇見状態の有無の判定を一層適正に行うことが可能となる。
Further, as described above, the lower the driving skill of the vehicle, the shorter the prediction time and the narrower the field of view in front of the vehicle. In consideration of this, in the above embodiment, when the prediction time of the driver 30 set by the prediction
また、以上の実施形態では、乗員向き検出部1により検出された運転者30の顔の向きが、視野設定部5により設定された正面視野範囲から外れた状態が脇見判定時間継続した場合に、脇見判定部6が運転者30の脇見状態が有ったと判定している。このため、運転者30の顔の向きが正面視野範囲から瞬間的に外れたときに、脇見状態が有ったと過剰判定されるのを回避することができる。また、運転者30の向きが正面視野範囲からある程度継続して外れたときに、脇見状態が有ったと確実に判定することができる。
Further, in the above embodiment, when the face orientation of the driver 30 detected by the occupant
また、以上の実施形態では、予見時間設定部3により設定された運転者30の予見時間が所定時間より短い場合は、脇見判定部6が脇見判定時間を短く設定し、運転者30の予見時間が所定時間と同一またはそれより長い場合は、脇見判定部6が脇見判定時間を長く設定している。このため、車両50の運転熟練度が低くて、予見時間が短い運転者30に対しては、脇見判定時間を短く設定して、脇見状態の有無の判定を厳しくすることができる。また、車両50の運転熟練度が高くて、予見時間が長い運転者30に対しては、脇見判定時間を長く設定して、脇見状態の有無の判定を緩くすることができる。つまり、運転者30の運転熟練度の影響を受ける予見時間に応じて、脇見判定時間を設定することで、脇見状態の有無の判定を一層適正に行うことが可能となる。
Further, in the above embodiment, when the foresight time of the driver 30 set by the foresight
さらに、以上の実施形態では、脇見判定部6により運転者30の脇見状態が有ったと判定された場合に、警報部13が警報を出力する。このため、運転者30に脇見状態を止めさせて、車両50を安全に運転させることができる。
Further, in the above embodiment, when the
本発明は、前記の実施形態以外にも、以下のような種々の実施形態を採用することができる。 In addition to the above-described embodiments, the present invention can employ various embodiments as described below.
前記の実施形態では、撮像部11により撮像された運転者30の顔画像に基づいて、運転者30の顔の向きを乗員の向きとして検出した例を示したが、本発明はこれのみに限定するものではない。これ以外に、たとえば撮像部11により撮像された車内の画像に基づいて、運転者30の視線方向を乗員の向きとして検出してもよい。そして、その視線方向に基づいて、運転者30の予見時間を設定したり、運転者30の脇見状態の有無を判定したりしてもよい。
In the above embodiment, an example in which the direction of the driver 30's face is detected as the direction of the occupant based on the face image of the driver 30 captured by the
前記の実施形態では、走行状態検出部2が車両50の走行状態として、ヨーレートセンサ12により車両50のヨーレートを検出したり、車両50の進行方向を検出したりした例を示したが、本発明はこれらのみに限定するものではない。これ以外に、たとえばジャイロセンサやナビゲーション情報などに基づいて、車両の進行方向や旋回度などを走行状態として検出してもよい。
In the above-described embodiment, an example is shown in which the traveling
前記の実施形態では、運転者30の予見時間に基づいて、正面視野範囲と脇見判定時間とをそれぞれ2段階で設定した例を示したが、本発明はこれのみに限定するものではない。正面視野範囲や脇見判定時間は、運転者30の予見時間に基づいて3段階以上に設定してもよい。 In the above embodiment, an example in which the front view range and the inattentive determination time are set in two stages based on the foresight time of the driver 30 is shown, but the present invention is not limited to this. The front view range and the inattentive determination time may be set to three or more stages based on the foresight time of the driver 30.
前記の実施形態では、車両の運転熟練度が低くて、予見時間が短い運転者ほど、正面視野範囲を狭く設定したり、脇見判定時間を短く設定したりして、脇見状態の判定や警報を厳しくした例を示したが、本発明はこれのみに限定するものではない。たとえば脇見状態の誤判定を防止するなどの観点から、逆に、運転熟練度が低くて、予見時間が短い運転者ほど、正面視野範囲を広く設定したり、脇見判定時間を長く設定したりして、脇見状態の判定や警報を緩くしてもよい。つまり、種々の観点に基づき、運転者の予見時間に応じて、正面視野範囲の大きさを変化させたり、脇見判定時間の長さを変化させたりすればよい。 In the above-described embodiment, the driver who has a lower driving skill level and a shorter forecasting time has a narrower front view range or a shorter inattentive judgment time to determine the inattentive state and give an alarm. Although a strict example is shown, the present invention is not limited to this. For example, from the viewpoint of preventing erroneous judgment of the inattentive state, conversely, the driver with lower driving skill and shorter prediction time may set a wider front view range or a longer inattentive judgment time. Therefore, the judgment of the inattentive state and the alarm may be loosened. That is, based on various viewpoints, the size of the front view range may be changed or the length of the inattentive determination time may be changed according to the driver's foresight time.
前記の実施形態では、運転者30の注視方向を推定して、運転者30の脇見状態の判定を行う運転支援装置10と運転支援システム100に本発明を適用した例を示した。然るに、たとえば車両の操舵や速度などの自動運転制御に、推定した運転者の注視方向を利用する運転支援装置と運転支援システムにも本発明は適用可能である。また、運転者以外の乗員の注視方向を推定する運転支援装置と運転支援システムにも本発明は適用可能である。
In the above embodiment, an example in which the present invention is applied to the driving
1 乗員向き検出部
2 走行状態検出部
3 予見時間設定部
4 注視方向推定部
5 視野設定部
6 脇見判定部
10 運転支援装置
11 撮像部
12 ヨーレートセンサ
13 警報部
30 運転者(乗員)
50 車両
100 運転支援システム
A1、A2 正面視野範囲
Δt、位相差、予見時間
ω ヨーレート
φ 注視方向
1 Passenger
50 Vehicle 100 Driving support system A1, A2 Front view range Δt, phase difference, prediction time ω yaw rate φ gaze direction
Claims (10)
前記車両の進行方向に対する乗員の注視方向を推定する注視方向推定部と、を備えた運転支援装置において、
撮像された前記乗員の画像に基づいて、前記乗員の向きを検出する乗員向き検出部と、
前記乗員向き検出部の検出結果と前記走行状態検出部の検出結果とに基づいて、前記乗員の予見時間を設定する予見時間設定部と、をさらに備え、
前記注視方向推定部は、前記走行状態検出部の検出結果と前記予見時間設定部の設定結果とに基づいて、前記乗員の注視方向を推定する、ことを特徴とする運転支援装置。 A running state detection unit that detects the running state of the vehicle,
In a driving support device including a gaze direction estimation unit that estimates the gaze direction of an occupant with respect to the traveling direction of the vehicle.
An occupant orientation detection unit that detects the orientation of the occupant based on the captured image of the occupant, and
A prediction time setting unit for setting the prediction time of the occupant based on the detection result of the occupant orientation detection unit and the detection result of the traveling state detection unit is further provided.
The gaze direction estimation unit is a driving support device that estimates the gaze direction of the occupant based on the detection result of the traveling state detection unit and the setting result of the prediction time setting unit.
前記走行状態検出部は、前記車両のヨーレートの検出結果に基づいて、前記車両の進行方向を検出し、
前記乗員向き検出部は、前記乗員の顔画像に基づいて、前記乗員の顔の向きを検出し、
前記予見時間設定部は、前記走行状態検出部により検出された前記車両の進行方向と、前記乗員向き検出部により検出された前記乗員の顔の向きとの相互相関関数を算出し、当該相互相関関数に基づいて前記乗員の予見時間を設定する、ことを特徴とする運転支援装置。 In the driving support device according to claim 1,
The traveling state detection unit detects the traveling direction of the vehicle based on the detection result of the yaw rate of the vehicle.
The occupant orientation detection unit detects the orientation of the occupant's face based on the occupant's face image.
The prediction time setting unit calculates a cross-correlation function between the traveling direction of the vehicle detected by the traveling state detection unit and the face orientation of the occupant detected by the occupant orientation detection unit, and the cross-correlation A driving support device characterized in that the prediction time of the occupant is set based on a function.
前記予見時間設定部は、前記相互相関関数が最大になるときの、前記車両の進行方向の変化と前記乗員の顔の向きの変化との位相差を、前記乗員の予見時間とする、ことを特徴とする運転支援装置。 In the driving support device according to claim 2,
The prediction time setting unit sets the phase difference between the change in the traveling direction of the vehicle and the change in the direction of the occupant's face when the cross-correlation function is maximized as the prediction time of the occupant. A characteristic driving support device.
前記予見時間設定部は、前記走行状態検出部により検出された前記車両の進行方向が所定の直進範囲から外れた場合に、前記乗員の予見時間を更新する、ことを特徴とする運転支援装置。 In the driving support device according to any one of claims 1 to 3.
The driving support device is characterized in that the forecast time setting unit updates the forecast time of the occupant when the traveling direction of the vehicle detected by the traveling state detection unit deviates from a predetermined straight-ahead range.
前記注視方向推定部により推定された前記乗員の注視方向に基づいて、前記乗員の正面視野範囲を設定する視野設定部と、
前記視野設定部の設定結果と前記乗員向き検出部の検出結果とに基づいて、前記乗員の脇見状態の有無を判定する脇見判定部と、をさらに備えたことを特徴とする運転支援装置。 In the driving support device according to any one of claims 1 to 4.
A visual field setting unit that sets the front view range of the occupant based on the gaze direction of the occupant estimated by the gaze direction estimation unit.
A driving support device further comprising an inattentive determination unit for determining the presence or absence of an inattentive state of the occupant based on a setting result of the visual field setting unit and a detection result of the occupant orientation detection unit.
前記視野設定部は、前記予見時間設定部により検出された前記予見時間に応じて、前記正面視野範囲の大きさを変化させる、ことを特徴とする運転支援装置。 In the driving support device according to claim 5,
The visual field setting unit is a driving support device that changes the size of the front visual field range according to the forecast time detected by the forecast time setting unit.
前記脇見判定部は、前記予見時間設定部により設定された前記予見時間に基づいて脇見判定時間を設定し、前記乗員向き検出部により検出された前記乗員の向きが前記視野設定部により設定された前記正面視野範囲から外れた状態が、前記脇見判定時間継続した場合に、前記乗員の脇見状態が有ったと判定する、ことを特徴とする運転支援装置。 In the driving support device according to claim 5 or 6.
The inattentive determination unit sets the inattentive determination time based on the foresight time set by the foresight time setting unit, and the orientation of the occupant detected by the occupant orientation detection unit is set by the visual field setting unit. A driving support device, characterized in that, when the state of being out of the front view range continues for the inattentive determination time, it is determined that the occupant has inattentive state.
前記脇見判定部は、前記予見時間設定部により検出された前記予見時間に応じて、前記脇見判定時間の長さを変化させる、ことを特徴とする運転支援装置。 In the driving support device according to claim 7.
The inattentive determination unit is a driving support device that changes the length of the inattentive determination time according to the foresight time detected by the inattentive time setting unit.
車両のヨーレートを検出するヨーレートセンサと、
前記車両の乗員を撮像する撮像部と、を含み、
前記運転支援装置に備わる前記走行状態検出部は、前記ヨーレートセンサの出力に基づいて、前記車両の走行状態を検出する、ことを特徴とする運転支援システム。 The driving support device according to any one of claims 1 to 8.
A yaw rate sensor that detects the yaw rate of the vehicle and
Includes an imaging unit that captures images of the occupants of the vehicle.
The driving support system provided in the driving support device is characterized in that the driving state detecting unit detects the driving state of the vehicle based on the output of the yaw rate sensor.
車両のヨーレートを検出するヨーレートセンサと、
前記車両の乗員を撮像する撮像部と、
前記乗員に対して警報を出力する警報部と、を含み、
前記運転支援装置に備わる前記走行状態検出部は、前記ヨーレートセンサの出力に基づいて、前記車両の走行状態を検出し、
前記警報部は、前記運転支援装置に備わる前記脇見判定部により前記乗員の脇見状態が有ったと判定された場合に、前記警報を出力する、ことを特徴とする運転支援システム。 The driving support device according to any one of claims 5 to 8.
A yaw rate sensor that detects the yaw rate of the vehicle and
An imaging unit that images the occupants of the vehicle,
Including an alarm unit that outputs an alarm to the occupant
The traveling state detection unit provided in the driving support device detects the traveling state of the vehicle based on the output of the yaw rate sensor.
The driving support system is characterized in that the alarm unit outputs the alarm when it is determined by the inattentive determination unit provided in the driving support device that the occupant is in an inattentive state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019220031A JP2021089616A (en) | 2019-12-05 | 2019-12-05 | Driving support device, and driving support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019220031A JP2021089616A (en) | 2019-12-05 | 2019-12-05 | Driving support device, and driving support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021089616A true JP2021089616A (en) | 2021-06-10 |
Family
ID=76220574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019220031A Pending JP2021089616A (en) | 2019-12-05 | 2019-12-05 | Driving support device, and driving support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021089616A (en) |
-
2019
- 2019-12-05 JP JP2019220031A patent/JP2021089616A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101793370B1 (en) | Vehicle control apparatus | |
KR101438941B1 (en) | Apparatus and method for controlling parking assistance | |
KR102051142B1 (en) | System for managing dangerous driving index for vehicle and method therof | |
JP5543501B2 (en) | Vehicle control device | |
JP6313278B2 (en) | Control system for display for crossing detection | |
JP4114485B2 (en) | Vehicle traveling state detection device and vehicle traveling control device | |
US20190143993A1 (en) | Distracted driving determination apparatus, distracted driving determination method, and program | |
JP2009073462A (en) | Operating state determination device and operation support device | |
KR20090007982A (en) | Lane devition waring system | |
JP6693427B2 (en) | Driver status detector | |
JP2010140358A (en) | Traveling support device | |
JP2003327009A (en) | Attention attracting device | |
JP4882587B2 (en) | Vehicle information providing device | |
JP2015162228A (en) | vehicle control device | |
JP2018127084A (en) | Automatic drive vehicle | |
US10501116B2 (en) | Automatic steering control device | |
JP6775134B2 (en) | Driver status detector | |
JP2007068917A (en) | Visibility situation judgment apparatus, automobile, and visibility situation judgment method | |
JP3760879B2 (en) | Lane departure warning device | |
JPH11126300A (en) | Lane deviation warning device for vehicle | |
JP4760113B2 (en) | Driver state estimation device | |
JP2008105511A (en) | Driving support apparatus | |
JP5109851B2 (en) | Alarm display control device for vehicles | |
JP2021089616A (en) | Driving support device, and driving support system | |
KR20180007211A (en) | A Rear collision warning system of Vehicles |