JP5577609B2 - Driving assistance device - Google Patents
Driving assistance device Download PDFInfo
- Publication number
- JP5577609B2 JP5577609B2 JP2009054994A JP2009054994A JP5577609B2 JP 5577609 B2 JP5577609 B2 JP 5577609B2 JP 2009054994 A JP2009054994 A JP 2009054994A JP 2009054994 A JP2009054994 A JP 2009054994A JP 5577609 B2 JP5577609 B2 JP 5577609B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- vehicle
- behavior
- information
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、運転支援装置および運転支援方法に関するものである。 The present invention relates to a driving support device and a driving support method.
従来、運転者の視線方向が所定の視線方向領域から逸脱する場合に、当該運転者の視線方向の逸脱に基づいて、運転者の行動意図を推定する技術が知られている(特許文献1)。 Conventionally, when a driver's gaze direction deviates from a predetermined gaze direction region, a technique for estimating a driver's action intention based on the deviation of the driver's gaze direction is known (Patent Document 1). .
しかしながら、従来技術では、運転者の視線方向が所定の視線方向領域を逸脱するまで大きく動き、かつ、運転者の視線方向が所定の視線方向領域から逸脱した状態が所定時間以上継続した場合に、運転者の行動意図を推定するものであるため、運転者の行動意図の推定に時間がかかり、運転支援を適切にできない場合があった。 However, in the prior art, when the driver's line-of-sight direction moves greatly until it deviates from the predetermined line-of-sight direction area, and the state where the driver's line-of-sight direction deviates from the predetermined line-of-sight direction area continues for a predetermined time or longer, Since it is intended to estimate the driver's behavior intention, it takes time to estimate the driver's behavior intention, and in some cases, driving support cannot be appropriately performed.
本発明が解決しようとする課題は、運転者の行動意図を適切に推定できる運転支援装置を提供することである。 The problem to be solved by the present invention is to provide a driving support device capable of appropriately estimating the driver's behavior intention.
本発明は、車両周囲の状況に応じて、運転者の操作により車両が採りうる挙動を複数予測し、運転者の視線方向に基づいて前記運転者の視線方向の分布の重心を繰り返し算出し、算出した運転者の視線方向の分布の重心と予め設定された所定の初期重心との車幅方向における差を、車幅方向における偏移量として繰り返し算出し、車幅方向における偏移量が所定の挙動に対応する閾値を越えるか否かを判断することにより、予測された複数の挙動のうちから運転者が選択する挙動を推定することで、上記課題を解決する。
The present invention predicts a plurality of behaviors that the vehicle can take by the driver's operation according to the situation around the vehicle , repeatedly calculates the center of gravity of the driver's gaze direction distribution based on the driver's gaze direction, The difference in the vehicle width direction between the calculated center of gravity distribution of the driver's line of sight and a predetermined initial center of gravity is repeatedly calculated as a deviation amount in the vehicle width direction, and the deviation amount in the vehicle width direction is predetermined. By determining whether or not a threshold value corresponding to the behavior of the vehicle is exceeded, the behavior selected by the driver from the plurality of predicted behaviors is estimated, thereby solving the above-described problem.
本発明によれば、運転者の行動意図を適切に推定するため、これにより、運転者の運転を適切に支援することができる。 According to the present invention, in order to appropriately estimate the driver's action intention, it is possible to appropriately support the driver's driving.
≪第1実施形態≫
以下、本発明の第1実施形態を図面に基づいて説明する。
第1実施形態においては、運転者の運転を支援する運転支援システムを有する車両を例示して説明する。ここで、図1は、第1実施形態に係る運転支援システムを搭載する車両1の構成を示すブロック図である。図1に示すように、車両1は、運転支援装置10、赤外線照明20、カメラ30、車両コントローラ40、およびナビゲーション装置50を備える。
<< First Embodiment >>
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a first embodiment of the invention will be described with reference to the drawings.
In the first embodiment, a vehicle having a driving support system that supports driving by a driver will be described as an example. Here, FIG. 1 is a block diagram showing a configuration of the
図2は、第1実施形態に係る運転支援システムを構築する各構成の相互関係を説明するための図である。図2に示すように、近赤外照明20は運転者の頭部(顔を含む)を前方から照射し、カメラ30は近赤外照明20により照射された運転者の頭部前方を撮影する。このように、近赤外照明20により運転者の頭部前方を照射することにより、夜間やトンネル内などの暗所においても、カメラ30は、運転者の頭部前方を適切に撮像することができる。カメラ30により撮像された画像情報は運転支援装置10に送信される。
FIG. 2 is a diagram for explaining the interrelationships of the components that construct the driving support system according to the first embodiment. As shown in FIG. 2, the near-
運転支援装置10は、カメラ30から送信された画像情報の他に、車両コントローラ40から車両情報および周囲情報を取得し、また、ナビゲーション装置50から周囲情報を取得する。車両情報としては、車速、アクセル開度、ブレーキ信号、およびステアリングの操舵角などの各種情報が含まれ、周囲情報としては、先行車両までの車間距離、車両1の現在位置、進行方向などの各種情報が含まれる。そして、運転支援装置10は、これらの情報に基づいて、運転者が選択する車両1の挙動を推定し、推定した挙動情報を車両コントローラ40に送信する。車両コントローラ40は、挙動情報に応じた運転支援を行うように、各種装置を制御する。このように、本実施形態に係る運転支援システムを構築する各構成は上記のように相互に関係することで、推定した挙動情報に基づく適切な運転支援を提供することができる。なお、これらの各構成は、CAN(Controller Area Network)その他の車載LANによって接続され、相互に情報の授受を行うことができる。
In addition to the image information transmitted from the
以下、車両1の各構成について詳細に説明する。
Hereinafter, each component of the
赤外線照明20およびカメラ30は、図2に示すように、運転者の正面やや下方のメータパネル内またはステアリングコラム(不図示)の近傍など、運転者の頭部前方を撮像できる位置に設置される。なお、赤外線照明20およびカメラ30は、運転者の頭部前方を撮像可能であれば、多少左右にずれて設置してもよい。また、カメラ30は、可視光から近赤外光までの感度分布を有するCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)、その他のイメージセンサを撮像素子として備え、運転者の頭部前方を撮像できるような画角を有するレンズを備える。なお、太陽光の影響を最小限に抑えるため、カメラ30にフィルタを設置してもよい。
As shown in FIG. 2, the
車両コントローラ40は、車両1に関する各種情報を取得する。具体的には、車両コントローラ40は、車速センサからの車速情報、車両1の前方領域を検知する前方センサからの先行車両までの車間距離、アクセルセンサからのアクセル開度、ブレーキセンサからのブレーキ信号、および舵角センサからのステアリング操作による操舵角などの各種情報を取得する。そして、車両コントローラ40は、取得したこれら情報を運転支援装置10に送信する。また、車両コントローラ40は、運転者が選択すると推定された車両1の挙動情報を運転支援装置10から取得し、当該挙動情報に基づいて各種装置を制御することで、運転者の運転を支援する。
The
ナビゲーション装置50は、GPS(Global Positioning System)モジュールや通信装置を備え、車両1の現在位置や進行方向などの各種情報を取得する。そして、ナビゲーション装置50は、取得したこれらの情報を運転支援装置10に送信する。また、ナビゲーション装置50は、ナビゲーション装置50のメモリに記憶した地図情報や道路情報、およびGPSモジュールなどにより取得した情報に基づいて車両1の走行経路を案内する経路案内機能を有する。
The
運転支援装置10は、運転者が選択する車両1の挙動を推定するためのプログラムを格納したROM(Read Only Memory)と、このROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とから構成される。
The driving support device 10 includes a ROM (Read Only Memory) that stores a program for estimating the behavior of the
運転支援装置10は、ROMに格納したプログラムをCPUにより実行することにより、視線方向検出機能、挙動候補予測機能、挙動推定機能、運転者識別機能、および運転履歴学習機能の各機能を実現する。以下に、運転支援装置10が備える各機能について説明する。 The driving support device 10 implements each function of a gaze direction detection function, a behavior candidate prediction function, a behavior estimation function, a driver identification function, and a driving history learning function by executing a program stored in the ROM by the CPU. Below, each function with which the driving assistance device 10 is provided is demonstrated.
運転支援装置10の視線方向検出機能は、カメラ30から送信された画像情報から運転者の視線方向を検出する。視線方向検出機能により視線方向を検出する手法は、特に限定されない。例えば、視線方向検出機能は、カメラ30により時系列に撮像した運転者の頭部前方の画像情報を取得し、取得した画像情報を画像処理し、運転者の顔の複数の特徴部位を検出する。そして、視線方向検出機能は、検出された複数の特徴部位の位置関係に基づいて、運転者の顔向きを推定するとともに、画像情報から運転者の目領域を切りだして画像処理を行い、少なくても瞳の位置を含む目の特徴点を検出する。さらに、視線方向検出機能は、推定した運転者の顔向きと検出した目の特徴点とに基づいて、カメラ30を基準とした運転者の視線方向を推定する。そして、視線方向検出機能は、推定した運転者の視線方向の時系列変化に基づいて、運転者が正面と認識していると仮定される論理正面を推定し、推定した論理正面を用いて、運転者の視線方向を補正する。これにより、視線方向検出機能は、カメラ30の設置位置が運転者の正面でない場合であっても、運転者ごとの正面方向を自動で取得し、運転者の視線方向を適切に検出することができる。なお、運転者の視線方向の検出方法は、上記の例に限られず、例えば、距離計測機能を備えるステレオカメラなどを複数用いて運転者の視線方向を検出してもよい。
The gaze direction detection function of the driving support device 10 detects the gaze direction of the driver from the image information transmitted from the
視線方向検出機能は、このような運転者の視線方向を、例えば、運転者の論理正面を中心とした座標データとして検出する。そして、視線方向検出機能は、検出した視線方向の座標データを運転支援装置10のRAMに記憶する。なお、運転支援装置10のRAMには、検出された順に一定時間分の視線方向の座標データが保持(記憶)される。 The gaze direction detection function detects such a driver's gaze direction as, for example, coordinate data centered on the logical front of the driver. Then, the gaze direction detection function stores the detected coordinate data of the gaze direction in the RAM of the driving support device 10. Note that the RAM of the driving support apparatus 10 holds (stores) coordinate data in the line-of-sight direction for a certain time in the order of detection.
運転支援装置10の挙動候補予測機能は、車両コントローラ40から取得した車両情報および周囲情報や、ナビゲーション装置50から取得した周囲情報に基づいて、車両状態を推定するとともに、車両コントローラ40およびナビゲーション装置50から取得した周囲情報に基づいて、周囲状況を推定する。ここで、車両状態としては、例えば、先行車両との接近状態、直進状態、加速状態、または減速状態などが挙げられる。また、周囲状況としては、例えば、車両1が走行している道路状況、車両1周辺の脇道の有無の状況などが挙げられる。そして、挙動候補予測機能は、推定した車両状態および周囲状況において、運転者の操作により車両1が採りうる複数の挙動を予測する。
The behavior candidate prediction function of the driving support device 10 estimates the vehicle state based on the vehicle information and surrounding information acquired from the
運転支援装置10の挙動推定機能は、視線方向検出機能により検出した一定時間分の視線方向の座標データに基づいて、所定の時刻における視線方向の座標データの分布の重心座標を初期重心として算出し、算出した初期重心と初期重心算出後の視線方向の座標データの分布の重心座標との差を偏移量として求める。そして、挙動推定機能は、当該偏移量に基づいて、挙動候補予測機能により予測した複数の挙動のうち運転者が選択する挙動を推定する。 The behavior estimation function of the driving support device 10 calculates the centroid coordinates of the distribution of the gaze direction coordinate data at a predetermined time as the initial centroid based on the gaze direction coordinate data for a certain time detected by the gaze direction detection function. The difference between the calculated initial center of gravity and the center of gravity coordinates of the distribution of the coordinate data in the line-of-sight direction after the initial center of gravity is calculated is obtained as a shift amount. Then, the behavior estimation function estimates the behavior selected by the driver from the plurality of behaviors predicted by the behavior candidate prediction function based on the deviation amount.
運転支援装置10の運転者識別機能は、カメラ30から送信された運転者の画像情報に基づいて、運転者の識別を行う。なお、運転者識別機能により識別された運転者の運転者情報を用いることで、運転者が設定したタイミング、頻度、または方法で、推定した車両1の挙動に基づく情報を運転者に提示できる。
The driver identification function of the driving assistance device 10 identifies the driver based on the driver image information transmitted from the
運転支援装置10の運転履歴学習機能は、所定の車両状態および周囲状況において運転者が選択した車両1の挙動を判断する。そして、運転履歴学習機能は、車両状態および周囲状況ごと、運転者ごとに、運転者が選択した車両1の挙動を運転履歴として記憶する。また、運転履歴学習機能は、後述するように、記憶した運転履歴に基づいて、所定の車両状態および周囲状況において運転者が選択した車両1の挙動の割合を挙動割合として算出する。
The driving history learning function of the driving support device 10 determines the behavior of the
続いて、第1実施形態に係る運転支援装置10における運転支援処理を、図3に示すフローチャートに沿って説明する。図3は、第1実施形態に係る運転支援装置10における運転支援処理を示すフローチャートである。また、図4は、車両1が先行車両と接近しており、かつ車両1が片側3車線の道路の第2通行帯(中央走行車線)を走行している場面例を示す図である。以下においては、図4に示すように、車両1が先行車両と接近しており、かつ車両1が片側3車線の道路の第2通行帯(中央走行車線)を走行している場面例を想定して説明する。なお、以下に説明する運転支援処理は、運転支援装置10により実行される。
Next, driving support processing in the driving support device 10 according to the first embodiment will be described with reference to the flowchart shown in FIG. FIG. 3 is a flowchart showing a driving support process in the driving support device 10 according to the first embodiment. FIG. 4 is a diagram illustrating an example of a scene in which the
まず、ステップS1では、運転支援装置10の視線方向検出機能により、カメラ30から送信された運転者の頭部前方を撮像した画像情報が取得され、取得された画像情報に基づいて、運転者の視線方向の座標データが検出される。検出された座標データは、運転支援装置10に備えるRAMに記憶される。
First, in step S1, image information obtained by imaging the front of the driver's head transmitted from the
ここで、図5は、視線方向検出機能により検出された視線方向の分布の一例を示す図であり、図6は、車両1が直進走行後に右車線に車線変更する一場面例における運転者の視線方向の分布の偏移を示す図である。車両1の直進走行時においては、図5に示すように、運転者の視線方向は、運転者が正面と認識していると仮定される論理正面の付近に分布する。また、図6に示すように、直進走行後、車両1が前方車両と接近したことにより、運転者が車両1を右車線に車線変更させようとする場合、運転者の視線方向は、直進走行時の視線方向よりも車線変更方向である右方向に分布する。視線方向検出機能は、これらの運転者の視線方向を座標データとして時系列に検出し、運転支援装置10に備えるRAMに記憶する。
Here, FIG. 5 is a diagram illustrating an example of the distribution of the gaze direction detected by the gaze direction detection function, and FIG. 6 is a diagram of the driver in an example of a scene in which the
次に、ステップS2では、運転支援装置10の挙動候補予測機能により車両1が採りうる複数の挙動が予測される。具体的には、車両コントローラ40から取得した車両情報および周囲情報や、ナビゲーション装置50から取得した周囲情報に基づいて、車両1の車両状態が推定され、また、車両コントローラ40またはナビゲーション装置50から取得した周囲情報に基づいて、周囲状況が推定される。さらに、推定した車両状態および周囲状況において、運転者の操作により車両1が採りうる複数の挙動が予測される。ここで、図7は、ステップS2の挙動候補予測処理を示すフローチャートである。図7のフローチャートに沿って、ステップS2の挙動候補予測処理の内容について以下に説明する。
Next, in step S <b> 2, a plurality of behaviors that the
まず、ステップS201では、車両コントローラ40から取得した車両情報および周囲情報や、ナビゲーション装置50から取得した周囲情報に基づいて、車両1の車両状態が推定される。ここで、図8は、先行車両との接近状態の推定方法を説明するための図である。例えば、車両状態の一例である先行車両との接近状態は、図8に示すように、時系列における車速情報と車間距離との変化に基づいて推定することができる。具体的には、図8に示すように、時間の経過とともに車両1の車速が増加し、または時間の経過に伴う車両1の車速の変化(増減)が小さい場合であって、かつ、時間の経過とともに車両1と先行車両との車間距離が減少している場合には、車両1は先行車両に接近している状態であると推定される。なお、挙動候補予測機能により推定される車両状態は先行車両との接近状態に限られず、また先行車両との接近状態の推定方法は上記の方法に限定されない。例えば、ナビゲーション装置50が有する通信装置であって、他の車両と車車間通信を行う通信装置を用いることで、先行車両との接近状態を推定することができる。
First, in step S <b> 201, the vehicle state of the
次に、ステップS202では、車両コントローラ40やナビゲーション装置50から取得した周囲情報に基づいて、車両1の周囲状況が推定される。図4に示す場面例においては、例えば、ナビゲーション装置50から送信される道路情報に基づいて、車両1が走行している道路は片側3車線の道路であると推定される。また、例えば、路側機などと通信するナビゲーション装置50に備える通信装置から情報を取得することで、車両1は片側3車線のうち第2通行帯(中央走行車線)を走行していると推定される。なお、ステップS201および202を並行して行ってもよく、またステップS202を先に行ってもよい。また、挙動候補予測機能により周囲状況を推定する方法は特に限定されず、例えば、車両1のフロントウィンドウ上部に設置したカメラを用いて車両1が走行する車線の車線端を検出し、車両1が複数の車線を有する道路のいずれの通行帯を走行しているかを推定してもよい。
Next, in step S202, the surrounding situation of the
ステップS203では、挙動候補予測機能により、推定した車両状態および周囲状況において運転者の操作により車両1が取りうる複数の挙動が予測される。当該複数の挙動の予測は、推定した車両状態および周囲状況において運転者の操作により車両1が取りうる複数の挙動に基づいた場面情報に基づいて行われる。
In step S203, the behavior candidate prediction function predicts a plurality of behaviors that can be taken by the
ここで、図9は、第1実施形態に係る場面情報を記録したテーブルの一例を示す図である。図9に示すテーブルには、車両状態・周囲状況ごとに、運転者により左方向への移動が選択される可能性に応じた値と、運転者により右方向への移動が選択される可能性に応じた値とが設定されている。例えば、図4に示す場面例のように、車両1が先行車両と接近している状態であって、かつ、車両1が片側3車線の道路の第2通行帯(中央走行車線)を走行している場合には、運転者の操作により車両1は、左車線に車線変更するか、右車線に車線変更するか、または、そのどちらでもない先行車両を追従するかの3つの挙動のいずれかを採りうると予測される。また、図4に示す場面例において、車両1は片側3車線の道路の第2通行帯(中央走行車線)を走行しているため、運転者が車両1を左車線に車線変更させる可能性と、運転者が車両1を右車線に車線変更させる可能性は同程度であると予測される。そのため、図9に示すテーブルには、車両1が「先行車両接近」の車両状態であり、かつ車両1が「片側3車線、第2通行帯」を走行している周囲状況においては、運転者により左方向への移動が選択される可能性に応じた値「0.5」と、運転者により右方向への移動が選択される可能性に応じた値「0.5」とが設定されている。
Here, FIG. 9 is a diagram illustrating an example of a table in which scene information according to the first embodiment is recorded. In the table shown in FIG. 9, a value corresponding to the possibility of the driver selecting the leftward movement and the possibility of the rightward movement being selected by the driver for each vehicle state / ambient situation. A value corresponding to is set. For example, as in the example of the scene shown in FIG. 4, the
このように、図9に示すテーブルには、車両状態・周囲状況ごとに、各挙動が選択される可能性に応じた値が設定されているため、挙動候補予測機能は、図9に示すテーブルに設定された場面情報を参照することで、推定した車両状態および周囲状況において、運転者の操作により車両1が取りうる複数の挙動を予測することができる。例えば、車両状態「先行車両接近」かつ周囲状況「片側3車線、第2通行帯」における運転者により左方向への移動が選択される可能性に応じた値「0.5」と、運転者により右方向への移動が選択される可能性に応じた値「0.5」との場面情報を取得することで、運転者の操作により車両1は左車線に車線変更するか、右車線に車線変更するか、または先行車両を追従するかの3つの挙動のいずれかを採りうると予測することができる。
In this way, in the table shown in FIG. 9, values corresponding to the possibility that each behavior is selected are set for each vehicle state and surrounding situation, so the behavior candidate prediction function is the table shown in FIG. 9. By referring to the scene information set to, it is possible to predict a plurality of behaviors that can be taken by the
また、車両1が先行車両と接近している状態であって、かつ、車両1が片側2車線または片側1車線の道路の第1通行帯(左側走行車線)を走行している場合には、運転者が車両1を左方向へ移動(左車線へ車線変更)させるものとは想定されない。そのため、図9に示すテーブルの車両状態「先行車両接近」、かつ、周囲状況「片側2車線、第1通行帯」または「片側1車線、第1通行帯」においては、運転者により左方向への移動が選択される可能性に応じた値は「0」に設定されている。これにより、挙動候補予測機能は、車両状態「先行車両接近」、かつ、周囲状況「片側2車線、第1通行帯」または「片側1車線、第1通行帯」における運転者により左方向への移動が選択される可能性に応じた値「0」と、運転者により右方向への移動が選択される可能性に応じた値「0.5」との場面情報を取得することで、運転者の操作により車両1は右車線に車線変更するか、または先行車両を追従するかの2つの挙動のいずれかを採りうると予測する。
In addition, when the
なお、場面情報として取得される運転者の左右方向への移動の選択可能性に応じた値は、後述するように、車両1の挙動を推定するための判断基準となる閾値を算出する際の重みとして用いられる。また、図9に示すテーブルは一例であって、例えば、車両状態または周囲状況の一方から、運転者の操作により車両1が採りうる挙動が決定できるようなテーブル構成としてもよい。
In addition, the value according to the possibility of selecting the movement of the driver in the left-right direction acquired as the scene information is used when calculating a threshold value as a determination criterion for estimating the behavior of the
ステップS203において、挙動候補予測機能により車両1が採りうる複数の挙動を予測した後は、ステップS2の挙動候補予測処理を終了する。なお、推定した車両状態および周囲状況から、運転者の操作により車両1が採りうる複数の挙動を予測できない場合は、図3の運転支援装置10における運転支援処理を終了する。
In step S203, after predicting a plurality of behaviors that the
次に、ステップS3の挙動推定処理について説明する。ステップS3では、運転支援装置10の挙動推定機能により、運転者の操作により車両1が採りうると予測される複数の挙動のうち運転者が選択する挙動が推定される。ここで、図10は、ステップS3の挙動推定処理を示すフローチャートである。図10のフローチャートに沿って、ステップS3の挙動推定処理の内容について以下に説明する。
Next, the behavior estimation process in step S3 will be described. In step S3, the behavior estimation function of the driving support device 10 estimates the behavior selected by the driver from the plurality of behaviors predicted to be taken by the
まず、ステップS301では、視線方向検出機能により検出された一定時間分の視線方向の座標データ(Xi,Yi)の分布の重心座標(Xc,Yc)が算出される。 First, in step S301, the barycentric coordinates (X c , Y c ) of the distribution of the coordinate data (X i , Y i ) in the gaze direction for a certain time detected by the gaze direction detection function are calculated.
ここで、挙動推定機能による重心座標(Xc,Yc)の算出方法について説明する。図5に示すように、視線方向検出機能により検出された視線方向の座標データは、運転者が正面と認識していると仮定される論理正面を中心とした座標系において表現される。また、上述したように、視線方向の座標データは、検出された順に一定時間分だけ運転支援装置10に備えるRAMに記憶されている。挙動推定機能は、運転支援装置10に備えるRAMに記憶された一定時間分の視線方向の座標データ(Xi,Yi)の列から、視線方向の座標データ(Xi,Yi)の分布の重心座標(Xc,Yc)を下記式(1)および下記式(2)に基づいて求める。なお、挙動推定機能は、視線方向の座標データ(Xi,Yi)の分布の重心座標(Xc,Yc)を、所定の周期で算出する。
次に、ステップS302では、ステップS301で算出した重心座標(Xc,Yc)に基づいて、運転者の視線方向の偏移の大きさである偏移量が算出される。ここで、重心座標(Xc,Yc)は、挙動候補予測機能により車両1が採りうる複数の挙動が予測される前から、所定の周期で算出されている。ステップS302において、挙動推定機能は、挙動候補予測機能により車両1が採りうる複数の挙動が予測された時点において算出された重心座標(Xc,Yc)を初期重心(X0,Y0)として求める。また、挙動推定機能は、初期重心(X0,Y0)の算出後において算出された視線方向の重心座標(Xc,Yc)と初期重心(X0,Y0)との差を偏移量Xd,Ydとして求める。
Next, in step S302, based on the barycentric coordinates (X c , Y c ) calculated in step S301, a shift amount that is the magnitude of the shift in the driver's line-of-sight direction is calculated. Here, the barycentric coordinates (X c , Y c ) are calculated at a predetermined period before a plurality of behaviors that the
ここで、挙動推定機能による偏移量の算出方法について説明する。挙動推定機能は、初期重心(X0,Y0)の算出後において運転支援装置10のRAMに記憶されている一定時間分の視線方向の座標データ(Xi,Yi)の重心座標と初期重心(X0,Y0)との差を偏移量Xd,Ydとして算出する。具体的には、挙動推定機能は、下記式(3)および下記式(4)に基づいて、偏移量Xd,Ydを算出する。
例えば、図4に示す場面例において、運転者が車両1を右車線に車線変更させようとする場合、運転者は実際に車両1を右車線に車線変更する前に、右方向の安全を確認する。そのため、図6に示すように、直進走行時における運転者の視線方向の分布の重心座標を初期重心(X0,Y0)とすると、車両1が右車線へ車線変更する前の運転者の視線方向は初期重心(X0,Y0)よりも右方向に分布する。すなわち、車両1が右車線へ車線変更する前における視線方向の分布の重心座標は初期重心(X0,Y0)の右方向に偏移する。そこで、挙動推定機能は、図6に示すように、初期重心の算出後の視線方向の分布の重心座標と初期重心(X0,Y0)との差を偏移量Xd,Ydとして算出する。なお、本実施形態においては、偏移量Xd,Ydのうち横方向(X軸方向)の偏移量Xdは、初期重心(X0,Y0)の算出後の視線方向の分布の重心座標が初期重心(X0,Y0)の右方向に偏移する場合はプラスの値をとり、初期重心(X0,Y0)の算出後の視線方向の分布の重心座標が初期重心(X0,Y0)の左方向に偏移する場合はマイナスの値をとるものとする。このように、横方向(X軸方向)の偏移量Xdを用いることで、運転者の視線方向に変化が少なく偏移量Xdが0に近い場合は、挙動推定機能は、車両1は直進するものと推定できる。一方、運転者の視線方向が右方向に偏移し、偏移量Xdがプラス方向に増加する場合は、挙動推定機能は、運転者は車両1を右方向に車線変更または右折させるものと推定できる。さらに運転者の視線方向が左方向に偏移し、偏移量Xdがマイナス方向に減少する場合は、挙動推定機能は、運転者は車両1を左方向に車線変更または左折させるものと推定できる。
For example, in the example of the scene shown in FIG. 4, when the driver tries to change the
ステップS303では、挙動推定機能は、算出した偏移量Xdと閾値tr,tlとを比較して、偏移量Xdが所定の閾値tr,tlを越えたか否かを判断することで、運転者が選択する車両1の挙動を推定する。ここで、本実施形態においては、閾値trは車両1の右方向への移動を推定するために用いられるプラスの値であり、閾値tlは車両1の左方向への移動を推定するために用いられるマイナスの値であるものとする。具体的には、挙動推定機能は、偏移量Xd,Ydのうち横方向(X軸方向)の偏移量Xdと閾値tr,tlとをそれぞれ比較して、横方向(X軸方向)の偏移量Xdが右方向に対応する閾値trよりも大きい場合には、車両1は右方向に移動するものと推定し、偏移量Xdが左方向に対応する閾値tlよりも小さい場合には、車両1は左方向に移動するものと推定する。また、挙動推定機能は、偏移量Xdがどちらの閾値tr,tlも越えない場合は、車両1は直進するものと推定する。
In step S303, the behavior estimation function, the calculated shift amount X d and the threshold value t r, is compared with t l, shift amount X d is determined whether exceeds a predetermined threshold value t r, t l Thus, the behavior of the
ここで、運転者が選択する車両1の挙動を推定する際の判断基準となる閾値tr,tlの算出方法について説明する。挙動推定機能は、右方向に対応する閾値trを下記式(5)に基づいて算出し、左方向に対応する閾値tlを下記式(6)に基づいて算出する。
上記式(5),(6)に示すように、右方向に対応する閾値trと左方向に対応する閾値tlとは、重みwr,wlを考慮しなければ、絶対値において同じ値となるように設定されているため、選択可能性に応じた重みwr,wlを用いて閾値tr,tlを算出することで、選択可能性に応じた車両1の挙動を推定することができる。これにより、推定した車両状態および周囲状況おいて選択される可能性の低い挙動が、運転者により誤って選択されることを軽減することができる。
The formula (5), as shown in (6), and the threshold t l corresponding to the threshold t r and the left direction corresponding to the right direction, the weights w r, to be considered w l, the same in absolute value because it is set to a value, the weights w r in accordance with the selectability, by calculating the threshold value t r, t l with w l, estimates the behavior of the
ここで、図11は、運転者が車両1を右車線に変更させる場面例における横方向(X軸方向)の偏移量Xdの時系列変化の一例を示す図である。図11に示すように、挙動推定機能により、初期重心(X0,Y0)を算出した時刻T1から所定の周期で偏移量Xdが算出される。図11に示す場面例においては、運転者は車両1を右車線に車線変更させようとしており、時間の経過とともに、偏移量Xdはプラス方向(右方向)に増加している。そして、時刻T2において、偏移量Xdが右方向に対応する閾値trを超えたことが検出される。これにより、挙動推定機能は、運転者が選択する車両1の挙動は右車線への車線変更であると推定する。
Here, FIG. 11 is a diagram illustrating an example of a time-series change of the shift amount Xd in the lateral direction (X-axis direction) in an example of a scene where the driver changes the
このように、挙動推定機能により運転者が選択する車両1の挙動を推定する際に、偏移量Xdを用いることにより、視線方向の移動が少ない運転者の選択行動の早期においても、運転者が選択する車両1の挙動を推定することができる。例えば、従来は、運転者の視線方向が所定の視線方向領域から逸脱し、かつ、その逸脱状態が所定の時間以上継続した時刻(本発明における偏移量Xdの変化(絶対値)が大きくなる時刻)でなければ運転者の操作による車両1の挙動を推定することができなかったが、本実施形態によれば、図11に示すように、偏移量Xdの変化(絶対値)が比較的小さい時刻T2において、運転者の操作による車両1の挙動を推定することができる。
As described above, when estimating the behavior of the
なお、たとえ、挙動推定機能が、図11に示すように、運転者が選択する車両1の挙動を時刻T2のように早期に推定できない場合であっても、通常、運転者は車線変更を行う直前に車線変更を行う方向を確認するため、挙動推定機能は、運転者の操作により車両1が右車線に車線変更する時刻T4の前(例えば、約0.5秒前から約1秒前)の時刻T3において、運転者が選択する車両1の挙動を推定することができる。
Even if the behavior estimation function cannot estimate the behavior of the
また、挙動候補予測機能により車両1が採りうると予測されなかった挙動、すなわち、場面情報において選択される可能施に応じた値が0に設定された挙動については、ステップS303において判断されない。
Further, a behavior that is not predicted to be taken by the
ステップS303において、挙動推定機能により運転者が選択する車両1の挙動を推定した後は、運転支援装置10は、推定した車両1の挙動情報を車両コントローラ40に送信し、運転支援装置10における運転支援処理を終了する。
In step S303, after estimating the behavior of the
このように推定した車両1の挙動情報を用いることにより、運転支援装置10は、車両コントローラ40を介して、運転者の操作に備えた準備動作を行うように車両1を制御し、または運転者に情報を早期に提示することで、運転者の運転を支援することができる。例えば、推定した車両1の挙動から車両1が右車線に車線変更するものと予測した場合、運転支援装置10から挙動情報を取得した車両コントローラ40は、図4に示すように、車両1の右後方から接近する他の車両を検出するように車両周囲の障害物を検出する検出装置を制御し、または運転者の死角を補助するためのモニタにより運転者の死角を自動に表示することにより、運転者に右後方から接近する他の車両の存在を認識させることができる。
By using the behavior information of the
加えて、例えば、推定した車両1の挙動から運転者のブレーキ操作が予測される場面では、運転支援装置10から挙動情報を取得した車両コントローラ40は、運転者のブレーキ操作に前もって、ブレーキ液圧を上昇させておくことで、運転者のブレーキ操作を支援することができる。また、推定した車両1の挙動から運転者のステアリング操作が予測される場面では、運転支援装置10から挙動情報を取得した車両コントローラ40は、運転者のステアリング操作に前もって、サスペンションを車両1が曲がる方向に応じて変化させることで、運転者のステアリング操作を支援することができる。
In addition, for example, in a scene where the driver's brake operation is predicted from the estimated behavior of the
次に、第1実施形態に係る運転支援装置10における運転支援処理を、図12に示すように、ビゲーション装置50から左折指示の経路案内情報が提示された状況において、本来の経路の手前または奥に運転者に誤って選択される可能性のある左折方向の経路(脇道)がない場面例(脇道なし)を想定して説明する。図12は、経路案内左折指示(脇道なし)の場面例において、ナビゲーション装置50に備えるディスプレイに表示される経路案内情報の概略図である。
Next, as shown in FIG. 12, the driving support processing in the driving support device 10 according to the first embodiment is performed before or after the original route in a situation where the route guidance information of the left turn instruction is presented from the
まず、ステップS1では、上述した場面例と同様に、視線方向検出機能により、運転者の視線方向の座標データが検出される。検出された座標データは運転支援装置10に備えるRAMに記憶される。 First, in step S1, the driver's gaze direction coordinate data is detected by the gaze direction detection function as in the above-described scene example. The detected coordinate data is stored in a RAM provided in the driving support device 10.
次に、ステップS2の挙動候補予測処理では、挙動候補予測機能により車両1が採りうる複数の挙動が予測される。まず、ステップS201では、車両コントローラ40から取得した車速、操舵角などの車両情報に基づいて、車両1が直進状態であると推定される。
Next, in the behavior candidate prediction process in step S2, a plurality of behaviors that the
次に、ステップS202では、挙動候補予測機能により、ナビゲーション装置50から送信された「この先の道路を左折」との左折指示の経路案内情報が取得される。左折指示の経路案内情報を取得した場合、挙動候補予測機能は、同じくナビゲーション装置50から取得した自車位置情報、地図情報、および道路情報に基づいて、本来の誘導経路の手前または奥に運転者に誤って選択される可能性のある経路(脇道)が存在するかを推定する。図12に示す場面例においては、本来の誘導経路の手前または奥に運転者に誤って選択される可能性のある経路(脇道)は存在しないため、挙動候補予測機能は、自車位置情報、地図情報、および道路情報に基づいて、本来の誘導経路の手前または奥に運転者に誤って選択される可能性のある経路(脇道)はないと推定する。なお、挙動候補予測機能により本来の誘導経路の手前または奥に運転者に誤って選択される可能性のある経路(脇道)が存在するかを推定する際には、適宜設定した閾値などを用いて判断すればよく、例えば、本来の誘導経路から所定の範囲内において他の脇道があるかなどを判断することで、運転者に誤って選択される可能性のある経路(脇道)が存在するかを推定してよい。
Next, in step S202, the route guidance information of the left turn instruction “turn left on the road ahead” transmitted from the
図12に示す場面例においては、車両1が直進しており、かつ本来の誘導経路の手前または奥に運転者に誤って選択される可能性のある経路(脇道)がないものと推定されている。そこで、ステップS203において、挙動候補予測機能は、図9に示すテーブルを参照して、車両状態「直進」、周囲状況「経路案内左折指示(脇道なし)」における場面情報、すなわち、運転者により左方向への移動が選択される可能性に応じた値「0.7」と、運転者により右方向への移動が選択される可能性に応じた値「0.1」とを取得する。これにより、挙動候補予測機能は、運転者の操作により車両1は左折するか、右折するか、または直進するかの3つの挙動のいずれかを採りうると予測する。
In the example of the scene shown in FIG. 12, it is estimated that the
次に、ステップS3の挙動推定処理では、上述した図6に示す場面例と同様に、運転支援装置10の挙動推定機能は、運転者の視線方向に基づいて偏移量Xdを求め、算出した偏移量Xdと閾値tr,tlとを比較して、運転者が選択する車両1の挙動を推定する。
Next, in the behavior estimation process in step S3, the behavior estimation function of the driving support device 10 obtains and calculates the deviation amount Xd based on the driver's line-of-sight direction, similarly to the above-described scene example shown in FIG. shift amount X d and the threshold t r which is, by comparing the t l, estimates the behavior of the
図12に示す場面例のように、ナビゲーション装置50から左折指示の経路案内情報が提示された状況において、運転者の操作により車両1が右折する可能性は低いため、上述したように、右方向への移動(右折)に対応する重みwrは「0.1」と低く設定されている。そのため、運転者が車両1を右折させると推定するための閾値trは小さな値として算出される。その結果、運転者により選択される可能性の低い車両1の右折を、右方向への運転者の視線方向の小さな偏移で推定することができるため、推定結果に基づく運転支援を早期に行うことができる。その結果、運転者により可能性の低い車両1の右折が誤って選択されることを軽減することができる。このように、運転者の操作により車両1が採りうる挙動に、運転者により選択される可能性に応じた重みを設定することで、運転者が選択する車両1の挙動を適切に推定することができる。
In the situation where the left turn instruction route guidance information is presented from the
例えば、図12に示す場面例のようにナビゲーション装置50により左折指示の経路案内情報が提示されている状況において、推定した車両1の挙動から車両1の右折を予測した場合には、運転支援装置10から挙動情報を取得した車両コントローラ40は、再度、左折指示の経路案内情報を提示するように提示装置(不図示)を制御する。これにより、運転支援装置10は、運転者に左折指示の経路案内情報を認識させることができる。
For example, in the situation where the left turn instruction route guidance information is presented by the
次に、第1実施形態に係る運転支援装置10における運転支援処理を、図13に示すように、ナビゲーション装置50から左折指示の経路案内情報が提示された状況において、図12に示す場面例とは異なり、本来の経路の手前または奥に運転者に誤って選択される可能性のある経路(脇道)がある場面例(脇道あり)を想定して説明する。図13は、経路案内左折指示(脇道あり)の場面例において、ナビゲーション装置50に備えるディスプレイに表示される経路案内情報の概略図である。
Next, the driving support processing in the driving support device 10 according to the first embodiment, as shown in FIG. 13, in the situation where the route guidance information of the left turn instruction is presented from the
まず、ステップS1では、上述した場面例と同様に、運転支援装置10の視線方向検出機能は、運転者の視線方向の座標データを検出し、検出した座標データを運転支援装置10に備えるRAMに記憶する。 First, in step S1, the gaze direction detection function of the driving assistance device 10 detects coordinate data in the gaze direction of the driver, and stores the detected coordinate data in the RAM provided in the driving assistance device 10, as in the above-described example of the scene. Remember.
次に、ステップS201では、上述した図12に示す左折指示経路案内(脇道なし)の場面例と同様に、運転支援装置10の挙動候補予測機能は、車両コントローラ40から取得した車速、操舵角などの車両情報に基づいて、車両1は直進状態であると推定する。
Next, in step S201, the behavior candidate prediction function of the driving assistance device 10 is the vehicle speed, steering angle, etc. acquired from the
次に、ステップS202において、挙動候補予測機能により、ナビゲーション装置50から送信された「この先の道路を左折」との左折指示の経路案内情報が取得される。左折指示の経路案内情報が取得された場合、挙動候補予測機能は、同じくナビゲーション装置50から取得した自車位置情報、地図情報、および道路情報に基づいて、本来の誘導経路の手前または奥に運転者に誤って選択される可能性のある経路(脇道)が存在するかを推定する。ここで、図13に示す場面例においては、本来の誘導経路の手前に、運転者に誤って選択される可能性のある経路(脇道)が存在するため、挙動候補予測機能は、自車位置情報、地図情報、および道路情報に基づいて、本来の誘導経路の手前または奥に運転者に誤って選択される可能性のある経路(脇道)があると推定する。
Next, in step S202, the route guidance information for the left turn instruction “turn left on the road ahead” transmitted from the
図13に示す場面例においては、車両1が直進しており、かつ、本来の誘導経路の手前または奥に運転者に誤って選択される可能性のある経路(脇道)があると推定されている。そこで、ステップS203において、挙動候補予測機能は、図9に示すテーブルを参照して、車両状態「直進」、周囲状況「経路案内左折指示(脇道あり)」における場面情報、すなわち、運転者により左方向への移動が選択される可能性に応じた値「0.5」と、運転者により右方向への移動が選択される可能性に応じた値「0.1」とを取得する。これにより、挙動候補予測機能は、運転者の操作により車両1は左折するか、右折するか、または直進するかの3つの挙動のいずれかを採りうると予測する。
In the example of the scene shown in FIG. 13, it is estimated that the
ここで、ナビゲーション装置50から左折指示の経路案内情報が提示された状況において、運転者に誤って選択される可能性のある経路(脇道)がある場合は、運転者に誤って選択される可能性のある経路(脇道)がない場合と比べて、運転者の操作により車両1が本来の誘導経路を左折する可能性は低くなる。そのため、図9に示すように、車両状態が「直進」であり、周囲状況が「左折指示経路案内(脇道あり)」の場合は、左折指示経路案内(脇道なし)の場合と比べて、左方向への移動(左折)に対応する重みwlは「0.5」と低く設定され、運転者が車両1を左折させると推定するための閾値trも、左折指示経路案内(脇道なし)の場合と比べて、小さな値として算出される。その結果、左折指示経路案内(脇道あり)の場合では、左折指示経路案内(脇道なし)の場合と比べて、運転者の操作による車両1の左折を、運転者の視線方向の比較的小さな偏移で推定することができるため、推定結果に基づく運転支援を早期に行うことができる。これにより、運転者が本来の誘導経路とは異なる経路(脇道)を誤って選択することを軽減することができる。
Here, in the situation where the left turn instruction route guidance information is presented from the
ステップS3の挙動推定処理においては、上述した場面例と同様に、挙動推定機能が、運転者の視線方向に基づいて偏移量Xdを求め、算出した偏移量Xdと閾値tr,tlとを比較して、運転者が選択する車両1の挙動を推定する。
In the behavior estimation process in step S3, the behavior estimation function obtains the deviation amount Xd based on the driver's line-of-sight direction, and calculates the deviation amount Xd and the threshold tr , The behavior of the
例えば、図13に示す場面例のように、ナビゲーション装置50により一つ先の交差点を左折するよう経路案内情報が提示されている状況において、推定した車両1の挙動から車両1が手前の交差点を左折すると予測した場合には、運転支援装置10から挙動情報を取得した車両コントローラ40は、「もう少し先の交差点を左折してください。」などの音声ガイダンスを行うように提示装置(不図示)を制御する。これにより、運転支援装置10は、運転者が誘導経路を移動するように運転者の運転を支援することができる。
For example, in the situation where the route guidance information is presented by the
なお、図13に示す場面例において、ステップS202において周囲状況を推定する際に、本来の誘導経路の手前のみに、運転者に誤って選択される可能性のある経路(脇道)があるかを推定するようにしてもよい。この場合、車両1が運転者に誤って選択される可能性のある経路(脇道)よりも手前を走行している時点においては、ステップS202において、本来の誘導経路の手前に運転者に誤って選択される可能性のある経路(脇道)があると推定されるため、ステップS203においては、車両状態「直進」、周囲状況「経路案内左折指示(脇道あり)」における場面情報、すなわち、運転者により左方向への移動が選択される可能性に応じた値「0.5」と、運転者により右方向への移動が選択される可能性に応じた値「0.1」とが取得される。一方、車両1が運転者に誤って選択される可能性のある経路(脇道)を越えた時点(図13の本来の誘導経路の手前であって、運転者に誤って選択される可能性のある脇道の奥の位置を走行している時点)においては、ステップS202において、本来の誘導経路の手前に運転者に誤って選択される可能性のある経路(脇道)がないと推定されるため、ステップS203においては、車両状態「直進」、周囲状況「経路案内左折指示(脇道なし)」における場面情報、すなわち、運転者により左方向への移動が選択される可能性に応じた値「0.7」と、運転者により右方向への移動が選択される可能性に応じた値「0.1」とが取得される。
In the example of the scene shown in FIG. 13, when estimating the surrounding situation in step S202, whether there is a route (side road) that may be erroneously selected by the driver only in front of the original guidance route. You may make it estimate. In this case, when the
以上のように、第1実施形態においては、運転者の視線方向の偏移に基づいて運転者が選択する挙動を推定するため、運転者の視線方向の小さな変化を検出するができ、運転者が車両1の挙動を選択する一連の行動のうち、視線方向の移動が小さい早期において車両1の挙動を推定することができる。特に、第1実施形態では、推定した車両状態・周囲状況において運転者の操作により車両1が採りうる複数の挙動を予測し、予測した複数の挙動のうち運転者が選択する車両1の挙動を推定する。そのため、運転者の選択が必要とされる場面、特に、運転者が判断に迷うような場面を特定して、運転者が選択する車両1の挙動を推定することができるため、運転者の視線方向の小さな移動に基づいて運転者が選択する車両1の挙動を推定する場合にも、車両1の挙動を適切に推定することができる。
As described above, in the first embodiment, since the behavior selected by the driver is estimated based on the shift in the driver's gaze direction, a small change in the driver's gaze direction can be detected. Among the series of actions for selecting the behavior of the
加えて、本実施形態によれば、車両状態および周囲状況ごとの運転者の操作により車両1が採りうると予測される複数の挙動それぞれに、各挙動が選択される可能性に応じた重みが設定されており、運転者が選択する車両1の挙動を推定するための閾値を各挙動に設定された重みを用いて算出する。特に、本実施形態によれば、選択される可能性の低い挙動に対応する重みは小さい値に設定されている。そのため、運転者の視線方向の偏移が少ない早期においても、選択される可能性の低い車両1の挙動を推定することができ、推定した挙動に応じた車両1の制御や情報提示を早期に行える。この結果、選択される可能性の低い挙動が、運転者により誤って選択されることを減らすことができる。
In addition, according to the present embodiment, each of a plurality of behaviors predicted to be taken by the
なお、本実施形態においては、横方向(X軸方向)の偏移量Xdのみを用いて、運転者が選択する車両1の挙動を推定しているが、横方向(X軸方向)の偏移量Xdに加え縦方向(Y軸方向)の偏移量Ydをも用いて、運転者が選択する車両1の挙動を推定してもよい。具体的には、挙動推定機能は、偏移量lと角度θとを下記式(7),(8)に基づいて求める。
また、この場合、挙動推定機能は、閾値tr,tlを下記式に基づいて算出する。
≪第2実施形態≫
続いて、第2実施形態について説明する。第2実施形態では、図1に示す第1実施形態と同様の車両1において、以下に説明するとおり、図14に示すフローチャートに従って運転支援装置10における運転支援処理を行う。ここで、図14は、第2実施形態に係る運転支援装置10における運転支援処理を示すフローチャートである。以下においては、運転者Aが、第1実施形態と同様に、車両1が先行車両と接近しており、かつ車両1が片側3車線の道路の第2通行帯(中央走行車線)を走行している図4に示す場面例を想定して説明する。なお、第2実施形態に係る運転支援処理も、第1実施形態と同様に、運転支援装置10により実行される。
<< Second Embodiment >>
Next, the second embodiment will be described. In the second embodiment, in the
まず、ステップS10では、第1実施形態のステップS1と同様に、視線方向検出機能により、運転者の視線方向が検出される。 First, in step S10, the gaze direction of the driver is detected by the gaze direction detection function as in step S1 of the first embodiment.
また、ステップS20では、第1実施形態のステップS2と同様に、運転支援装置10の挙動候補予測機能により、車両状態および周囲状況が推定され、推定された車両状態および周囲状況において、運転者の操作により車両1が採りうる複数の挙動が予測される。
In step S20, as in step S2 of the first embodiment, the vehicle state and the surrounding situation are estimated by the behavior candidate prediction function of the driving support device 10. In the estimated vehicle state and the surrounding situation, the driver's A plurality of behaviors that the
次に、ステップS21では、運転支援装置10の運転者識別機能により、カメラ30から送信された画像情報に基づいて、運転者が識別される。本実施形態においては、運転者識別機能により、運転者が、運転者Aであると識別される。
Next, in step S <b> 21, the driver is identified based on the image information transmitted from the
次に、ステップS30の挙動推定処理について説明する。ステップS30では、運転者の視線方向の座標データに加えて、識別した運転者の運転者情報および後述する挙動割合に基づいて、運転者の操作により車両1が採りうると予測された複数の挙動のうち運転者が選択する挙動が推定される。ここで、図15は、第2実施形態に係るステップS30の挙動推定処理を示すフローチャートである。図15のフローチャートに沿って、ステップS30の挙動推定処理の内容について以下に説明する。
Next, the behavior estimation process in step S30 will be described. In step S30, in addition to the coordinate data in the driver's line-of-sight direction, a plurality of behaviors predicted to be taken by the
まず、ステップS311では、第1実施形態のステップS301と同様に、挙動推定機能により、視線方向検出機能により検出された一定時間分の視線方向の座標データ(Xi,Yi)の分布の重心座標(Xc,Yc)が算出される。 First, in step S311, as in step S301 of the first embodiment, the center of gravity of the distribution of the coordinate data (X i , Y i ) of the gaze direction for a certain time detected by the gaze direction detection function by the behavior estimation function. Coordinates (X c , Y c ) are calculated.
そして、ステップS312では、第1実施形態のステップS302と同様に、挙動候補予測機能により複数の挙動が予測された時点の重心座標(Xc,Yc)が初期重心(X0,Y0)として算出される。また、初期重心(X0,Y0)の算出後においては、初期重心算出後の視線方向の座標データの重心座標と初期重心(X0,Y0)との差が偏移量Xd,Ydとして求められる。
In step S312, the centroid coordinates (X c , Y c ) at the time when a plurality of behaviors are predicted by the behavior candidate prediction function are the initial centroids (X 0 , Y 0 ), as in step S302 of the first embodiment. Is calculated as The
次に、ステップS313では、挙動推定機能により、算出した偏移量Xdと閾値tr,tlとが比較され、運転者が選択する車両1の挙動が推定される。ただし、第2実施形態においては、第1実施形態とは異なり、挙動推定機能は、下記式(11),(12)に基づいて閾値tr,tlを算出する。
ここで、挙動割合pr,plの算出方法を、図16に示すフローチャートに沿って説明する。図16は、挙動割合算出処理を示すフローチャートである。なお、挙動割合算出処理は、図14に示す運転支援装置10による運転支援処理とは別に、運転者により車両1の挙動が選択されたタイミングで行われる。
Here, a method of calculating the behavior ratios p r and p 1 will be described with reference to the flowchart shown in FIG. FIG. 16 is a flowchart showing the behavior ratio calculation process. The behavior ratio calculation process is performed at the timing when the behavior of the
図16に示すように、ステップS40では、運転支援装置10の運転履歴学習機能は、場面情報、車両情報、および周囲情報に基づいて、推定した車両状態および周囲状況において運転者が選択した車両1の挙動を判断し、車両状態および周囲状況ごとの運転者の選択結果を運転履歴として取得する。具体的には、運転履歴学習機能は、車両コントローラ40から取得した方向指示器の点灯信号、ステアリング操作による操舵角、またはブレーキ信号などの車両情報や、ナビゲーション装置50から取得した車両1の位置情報や車両進行方向などの周囲情報に基づいて、運転者が選択した車両1の挙動を判断する。例えば、運転者が車両1を車線変更する場合、一般的に、運転者による方向指示器の操作に続いてステアリングの操作が行われるため、この一連の操作をパターンとして認識することで、車両1が車線変更したか否かを判断してもよい。また、ナビゲーション装置50から取得した道路情報および車両1の進行方向に基づいて、車両1が右左折したのかそれとも車線変更したのかを判断してもよい。
As shown in FIG. 16, in step S40, the driving history learning function of the driving support device 10 is based on the scene information, the vehicle information, and the surrounding information, and the
次に、ステップS50において、運転履歴学習機能は、ステップS40で取得した運転履歴を、ステップS20で識別した運転者の運転者情報と関連付けて運転支援装置10のRAMに記憶する。なお、運転履歴学習機能は、運転者が車両1の挙動を選択した際の偏移量Xdを運転履歴と関連させて記憶してもよい。これにより、例えば、後述する挙動割合の算出の際に、運転者が車両1の挙動を選択した際の偏移量Xdを加味した挙動割合を算出することができる。
Next, in step S50, the driving history learning function stores the driving history acquired in step S40 in the RAM of the driving support device 10 in association with the driver information of the driver identified in step S20. The driving history learning function may store the shift amount Xd when the driver selects the behavior of the
さらに、ステップS50において、運転履歴学習機能は、ステップS40で取得した運転履歴を含む過去の運転履歴を集計して、推定した車両状態および周囲状況において、識別した運転者が過去に選択した各挙動の割合を算出する。ここで、図17は、第2実施形態に係る場面情報を記録したテーブルの一例を示す図である。運転履歴学習機能は、算出した挙動割合pr,plを基本の重みwr,wlにそれぞれ乗じ、運転者ごとの挙動割合pr,plを考慮した重みwrpr,wlplを図17のテーブルに設定する。これにより、ステップS313において、図17に示すテーブルを参照することにより、重みwr,wlおよび挙動割合pr,plを取得することができる。なお、挙動割合pr,plは、所定の車両状態および周囲状況において、所定の運転者が選択した挙動の割合であるため、図17に示すテーブルでは、挙動割合pr,plを考慮した重みwrpr,wlplは、車両状態・周囲状況ごと、および運転者ごとに設定されている。 Furthermore, in step S50, the driving history learning function totals past driving histories including the driving history acquired in step S40, and each behavior that the identified driver has selected in the past in the estimated vehicle state and surrounding situation. Calculate the percentage of. Here, FIG. 17 is a diagram illustrating an example of a table in which scene information according to the second embodiment is recorded. The driving history learning function multiplies the calculated behavior ratios p r and p l by the basic weights w r and w l , respectively, and weights w r p r and w l in consideration of the behavior ratios p r and p l for each driver. a p l be set in the table of FIG. 17. Thus, in step S313, the weights w r and w l and the behavior ratios p r and p l can be acquired by referring to the table shown in FIG. Note that the behavior ratios p r and p l are the ratios of behaviors selected by a predetermined driver in a predetermined vehicle state and surrounding situation, and therefore the behavior ratios p r and p l are considered in the table shown in FIG. The weights w r p r and w l p l are set for each vehicle state / ambient situation and for each driver.
例えば、識別された運転者Aが運転する車両1が、先行車両と接近した状態で、片側3車線の道路の第2通行帯(中央走行車線)を走行している図4に示す場面例では、運転履歴学習機能は、車両1が先行車両との接近状態であり、かつ、車両1が片側3車線の道路の第2通行帯(中央走行車線)を走行している状況において、運転者Aが過去に選択した各挙動の運転履歴を集計して挙動割合pr,plを算出する。そして、挙動推定機能は、車両状態「先行車両と接近」かつ周囲状況「片側3車線、第2通行帯」の基本の重みwr,wlに挙動割合pr,plを乗じた重みwrpr,wlplを図17のテーブルに設定する。ここで、車両状態「先行車両と接近」かつ周囲状況「片側3車線、第2通行帯」において、運転者Aが車両1を右車線に車線変更した回数が、車両1を左車線に車線変更した回数よりも多い場合は、右方向に対応する挙動割合prは、左方向に対応する挙動割合plより大きい値として算出される。これにより、図17のテーブルでは、右方向に対応する重み(wrpr)は、例えば、基本の重みwr「0.5」よりも大きい「0.8」に設定され、一方、左方向に対応する重み(wlpl)は、基本の重みwl「0.5」よりも小さい「0.2」に設定されている。
For example, in the example of the scene shown in FIG. 4, the
なお、本実施形態のように、運転者が選択した挙動の割合pr,plに基づいて閾値tr,tlを算出する場合、運転者が過去に選択した車両1の挙動の情報がある程度蓄積されていないと、閾値tr,tlが適切に運転者の傾向を反映できない場合があり、このような閾値に基づいて運転支援を行うと運転者に違和感を与える場合がある。そこで、運転履歴が所定数以上蓄積されるまでは、挙動割合pr,plを1に設定するのが好適である。これにより、運転履歴が所定数以上蓄積されるまでは、挙動割合pr,plが閾値tr,tlに反映されず、少なくとも第1実施形態と同様の効果を奏することができる。
Incidentally, as in this embodiment, the ratio p r behavior selected by the driver, the threshold value based on p l t r, when calculating the t l, driver information of the behavior of the
ステップS313で運転者が選択する車両1の挙動を推定した後は、運転支援装置10による運転支援処理を終了する。運転支援装置10は、第1実施形態と同様に、推定した車両1の挙動情報を車両コントローラ40に送信し、挙動情報を取得した車両コントローラ40は、運転者の操作に備えた準備動作を行うように車両1を制御し、または運転者に情報を早期に提示することで、運転者の運転を支援する。また、本実施形態においては、運転者識別機能により識別された運転者の運転者情報を用いることで、運転者が設定したタイミング、頻度、または方法で、推定した車両1の挙動に基づく情報を提示できる。
After estimating the behavior of the
以上のように、第2実施形態においては、挙動推定機能は、運転者ごとの運転履歴、すなわち、推定された車両状態および周囲状況において各運転者が過去に選択した挙動の割合pr,plを加味した重み(wrpr,wlpl)を用いて閾値tr,tlを算出する。そして、算出した閾値tr,tlと横方向(X軸方向)の偏移量Xdとを比較し、偏移量Xdが閾値tr,tlのどちらかを超える場合は、超えた閾値に対応する方向に車両1が移動するものと推定し、また、偏移量Xdが閾値tr,tlを超えない場合には、車両1は直進すると推定する。このように、第2実施形態では、重みwr,wlに加えて、推定された車両状態および周囲状況において識別された運転者が過去に選択した挙動の割合pr,plに基づいて閾値tr,tlを算出することにより、運転者の視線方向の偏移が少ない早期においても、運転者が過去に選択した割合の低い車両1の挙動を推定することができ、推定した挙動に応じた車両1の制御や情報提示を早期に行える。この結果、識別された運転者が過去に選択した割合の低い挙動が、運転者により誤って選択されることを減らすことができる。このように、第2実施形態においては、第1実施形態の効果に加え、運転者の傾向に合わせて、運転者が選択する車両1の挙動を適切に推定することができる。
As described above, in the second embodiment, the behavior estimation function is the driving history for each driver, that is, the ratios p r and p of the behaviors selected by each driver in the past in the estimated vehicle state and surrounding situation. weight in consideration of the l (w r p r, w l p l) calculating a threshold value t r, t l with. Then, the calculated threshold value t r, compared with the shift amount X d of t l and the transverse direction (X-axis direction), if the shift amount X d exceeds either threshold t r, t l is exceeded
以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 The embodiment described above is described for facilitating understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
すなわち、本発明は、上述した実施形態に限られず、また、以上で説明した実施形態を組み合わせてもよい。 That is, the present invention is not limited to the above-described embodiments, and the embodiments described above may be combined.
例えば、第2実施形態においては、推定した車両状態および周囲状況において運転者が過去に選択した挙動の割合pr,plを求めたが、これに限らず、運転者を識別せずに車両1を運転した運転者の運転履歴に基づいて挙動割合pr,plを求めてもよい。また、運転者が挙動割合pr,plを設定できるようにしてもよい。 For example, in the second embodiment, the ratios p r and p l of the behavior selected by the driver in the past in the estimated vehicle state and surrounding situation are obtained. However, the present invention is not limited to this, and the vehicle is not identified. The behavior ratios p r and p 1 may be obtained based on the driving history of the driver who drove 1. Further, the driver may be able to set the behavior ratios p r and p l .
なお、上述した実施形態の視線方向検出機能は本発明の視線方向検出手段に、車両コントローラ40は本発明の車両情報取得手段および制御手段に、車両コントローラ40およびナビゲーション装置50は本発明の周囲情報取得手段に、挙動候補予測機能は本発明の挙動候補予測手段に、挙動推定機能は本発明の偏移量算出手段および挙動推定手段に、運転者識別機能は本発明の運転者識別手段に、運転履歴学習機能は本発明の記憶手段にそれぞれ相当する。
Note that the gaze direction detection function of the above-described embodiment is the gaze direction detection means of the present invention , the
1…車両
10…運転支援装置
20…赤外線照明
30…カメラ
40…車両コントローラ
50…ナビゲーション装置
DESCRIPTION OF
Claims (5)
車両情報を取得する車両情報取得手段と、
車両周囲の情報を取得する周囲情報取得手段と、
前記車両情報および前記車両周囲の情報に基づいて、運転者の操作により前記車両が採りうる複数の挙動を予測する挙動候補予測手段と、
前記視線方向検出手段により検出された前記運転者の視線方向に基づいて、前記運転者の視線方向の分布の重心を繰り返し算出し、算出した前記運転者の視線方向の分布の重心と予め設定された所定の初期重心との車幅方向における差を、車幅方向における偏移量として繰り返し算出する偏移量算出手段と、
前記車幅方向における偏移量が前記予測された複数の挙動のうち所定の挙動に対応する閾値を越えるか否かを判断することで、前記挙動候補予測手段により予測された前記複数の挙動のうちから、運転者が選択する挙動を推定する挙動推定手段と、
前記挙動推定手段により推定された前記挙動に基づいて、車両制御および/または情報提示を行う制御手段と、を有することを特徴とする運転支援装置。 Gaze direction detecting means for repeatedly detecting the gaze direction of the driver;
Vehicle information acquisition means for acquiring vehicle information;
Ambient information acquisition means for acquiring information around the vehicle;
Behavior candidate prediction means for predicting a plurality of behaviors that can be taken by the vehicle by a driver's operation based on the vehicle information and information around the vehicle;
Based on the driver's line-of-sight direction detected by the driver's line-of-sight direction, the center of gravity of the driver's line-of-sight distribution is repeatedly calculated, and the calculated center of gravity of the driver's line-of-sight direction is preset. A deviation amount calculating means for repeatedly calculating a difference in the vehicle width direction from the predetermined initial center of gravity as a deviation amount in the vehicle width direction;
By determining whether or not a deviation amount in the vehicle width direction exceeds a threshold corresponding to a predetermined behavior among the plurality of predicted behaviors, the behaviors predicted by the behavior candidate prediction unit are determined. A behavior estimation means for estimating the behavior selected by the driver,
And a control means for performing vehicle control and / or information presentation based on the behavior estimated by the behavior estimation means.
前記偏移量算出手段は、所定の時間において予め検出された前記運転者の視線方向の分布の重心を、前記初期重心として設定することを特徴とする運転支援装置。 The driving support device according to claim 1,
The shift amount calculating means sets the center of gravity of the distribution in the gaze direction of the driver detected in advance for a predetermined time as the initial center of gravity.
前記所定の挙動に対応する閾値は、該挙動の選択可能性に応じて設定されることを特徴とする運転支援装置。 The driving support device according to claim 1 or 2,
The threshold value corresponding to the predetermined behavior is set according to the selectability of the behavior.
運転者を識別する運転者識別手段をさらに有し、
前記所定の挙動に対応する閾値は、前記運転者識別手段により識別した運転者に応じて設定されることを特徴とする運転支援装置。 The driving support device according to any one of claims 1 to 3,
A driver identification means for identifying the driver;
The threshold value corresponding to the predetermined behavior is set according to the driver identified by the driver identifying means.
運転者の運転履歴を運転者ごとに記憶する記憶手段をさらに有し、
前記所定の挙動に対応する閾値は、前記記憶手段により記憶した前記運転者の運転履歴に基づいて、設定されることを特徴とする運転支援装置。
The driving support device according to claim 4,
It further has storage means for storing the driving history of the driver for each driver,
The threshold value corresponding to the predetermined behavior is set based on the driving history of the driver stored by the storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009054994A JP5577609B2 (en) | 2009-03-09 | 2009-03-09 | Driving assistance device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009054994A JP5577609B2 (en) | 2009-03-09 | 2009-03-09 | Driving assistance device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010211380A JP2010211380A (en) | 2010-09-24 |
JP5577609B2 true JP5577609B2 (en) | 2014-08-27 |
Family
ID=42971498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009054994A Active JP5577609B2 (en) | 2009-03-09 | 2009-03-09 | Driving assistance device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5577609B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107531245A (en) * | 2015-04-21 | 2018-01-02 | 松下知识产权经营株式会社 | Information processing system, information processing method and program |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6074553B1 (en) | 2015-04-21 | 2017-02-01 | パナソニックIpマネジメント株式会社 | Information processing system, information processing method, and program |
JP6558735B2 (en) | 2015-04-21 | 2019-08-14 | パナソニックIpマネジメント株式会社 | Driving support method, driving support device, driving control device, vehicle, and driving support program using the same |
JP6895634B2 (en) * | 2016-12-16 | 2021-06-30 | パナソニックIpマネジメント株式会社 | Information processing systems, information processing methods, and programs |
JP2018135069A (en) * | 2017-02-23 | 2018-08-30 | パナソニックIpマネジメント株式会社 | Information processing system, information processing method, and program |
JP2018135068A (en) * | 2017-02-23 | 2018-08-30 | パナソニックIpマネジメント株式会社 | Information processing system, information processing method, and program |
GB2582548B (en) * | 2019-03-19 | 2021-10-13 | Jaguar Land Rover Ltd | Vehicle control system and method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000075198A (en) * | 1998-08-31 | 2000-03-14 | Canon Inc | Device provided with function of detecting line-of-sight |
JP2002331849A (en) * | 2001-05-07 | 2002-11-19 | Nissan Motor Co Ltd | Driving behavior intention detector |
JP2002331850A (en) * | 2001-05-07 | 2002-11-19 | Nissan Motor Co Ltd | Driving behavior intention detector |
JP2006043429A (en) * | 2004-06-28 | 2006-02-16 | Nissan Motor Co Ltd | Apparatus for judging load of visual recognition |
JP4432648B2 (en) * | 2004-07-12 | 2010-03-17 | 株式会社デンソー | Route guidance device |
JP2008243031A (en) * | 2007-03-28 | 2008-10-09 | Toyota Central R&D Labs Inc | Careless driving determination device |
-
2009
- 2009-03-09 JP JP2009054994A patent/JP5577609B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107531245A (en) * | 2015-04-21 | 2018-01-02 | 松下知识产权经营株式会社 | Information processing system, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2010211380A (en) | 2010-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240132154A1 (en) | Road profile along a predicted path | |
JP5577609B2 (en) | Driving assistance device | |
US10810446B2 (en) | Parking space line detection method and device | |
CN108140319B (en) | Parking assistance method and parking assistance device | |
US10198950B2 (en) | Parking support method and parking support device | |
RU2734643C1 (en) | Parking assistance method for parking assistance device and parking assistance device | |
KR101328363B1 (en) | Lane departure prevention support apparatus, method of displaying a lane boundary line and program | |
EP2759999B1 (en) | Apparatus for monitoring surroundings of vehicle | |
JP5971341B2 (en) | Object detection device and driving support device | |
JP4774849B2 (en) | Vehicle obstacle display device | |
CN113264047B (en) | Vehicle control device and non-volatile storage medium storing vehicle control program | |
CN103874931B (en) | For the method and apparatus of the position of the object in the environment for asking for vehicle | |
JP6614359B2 (en) | Obstacle determination method, parking support method, exit support method, and obstacle determination device | |
KR20140075505A (en) | Apparatus and method for controlling parking assistance | |
JP2008123462A (en) | Object detector | |
JP2008174192A (en) | Parking support method and parking support device | |
US20180037162A1 (en) | Driver assistance system | |
JP6129268B2 (en) | Vehicle driving support system and driving support method | |
JP2018063476A (en) | Apparatus, method and computer program for driving support | |
JP2018048949A (en) | Object recognition device | |
JP6115429B2 (en) | Own vehicle position recognition device | |
JP2019064317A (en) | Display device for vehicle | |
JP2009276906A (en) | Travelling information providing device | |
KR101836246B1 (en) | Current Lane Detecting Method | |
KR20120103980A (en) | Apparatus and method for alarming blind spot of preceding vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130604 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131217 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140623 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5577609 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |