JP2020160878A - Drive support method and drive support device - Google Patents
Drive support method and drive support device Download PDFInfo
- Publication number
- JP2020160878A JP2020160878A JP2019060612A JP2019060612A JP2020160878A JP 2020160878 A JP2020160878 A JP 2020160878A JP 2019060612 A JP2019060612 A JP 2019060612A JP 2019060612 A JP2019060612 A JP 2019060612A JP 2020160878 A JP2020160878 A JP 2020160878A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- driver
- driving support
- dazzled
- reference value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000009471 action Effects 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 37
- 230000008859 change Effects 0.000 claims description 23
- 229920006395 saturated elastomer Polymers 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 description 24
- 230000006399 behavior Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 14
- 230000010354 integration Effects 0.000 description 8
- 230000003111 delayed effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、運転支援方法及び運転支援装置に関する。 The present invention relates to a driving support method and a driving support device.
特許文献1には、自車前端から第1所定距離前方の位置と自車後端から第2所定距離後方の位置との間に他車両が存在するかに基づいて、車線変更するか否かを判断する運転支援装置が記載されている。
In
しかしながら、自車両の周辺の他車両の運転者が強い光源などにより眩惑されている場合には、他車両の運転者が自車両に気づくのが遅れて、他車両が自車両に過度に接近するおそれがある。
本発明は、自車両の周辺の他車両の運転者が眩惑されている可能性がある状況において、好適な自車両の運転支援を実施することを目的とする。
However, if the driver of another vehicle around the own vehicle is dazzled by a strong light source or the like, the driver of the other vehicle is delayed in noticing the own vehicle, and the other vehicle approaches the own vehicle excessively. There is a risk.
An object of the present invention is to provide suitable driving support for the own vehicle in a situation where the driver of another vehicle around the own vehicle may be dazzled.
本発明の一態様によれば、自車両と他車両との間の距離又は車間時間のいずれか一方と所定の基準値との比較結果に基づいて、自車両の運転支援を実施する運転支援方法が与えられる。この運転支援方法では、自車両の周辺の他車両の位置及び向きを検出し、他車両の位置及び向きに基づいて、他車両の運転者が眩惑されている状態にある可能性があるか否かを判定し、上記の基準値として、運転者が眩惑されている状態にある可能性があると判定した場合には運転者が眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値を設定する。 According to one aspect of the present invention, a driving support method for providing driving support for the own vehicle based on a comparison result between either one of the distance between the own vehicle and another vehicle or the inter-vehicle time and a predetermined reference value. Is given. In this driving support method, the position and orientation of other vehicles around the own vehicle are detected, and whether or not the driver of the other vehicle may be dazzled based on the position and orientation of the other vehicle. If it is determined that the driver may be in a dazzled state as the above reference value, it is judged that there is no possibility that the driver is in a dazzled state. Also sets a large reference value.
本発明の一態様によれば、自車両の周辺の他車両の運転者が眩惑されている可能性がある状況において、好適な自車両の運転支援を実施することができる。 According to one aspect of the present invention, it is possible to provide suitable driving support for the own vehicle in a situation where the driver of another vehicle around the own vehicle may be dazzled.
以下、本発明の実施形態について、図面を参照しつつ説明する。なお、各図面は模式的なものであって、現実のものとは異なる場合がある。また、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that each drawing is a schematic one and may differ from the actual one. Further, the embodiments of the present invention shown below exemplify devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention includes the structure, arrangement, etc. of components. Is not specified as the following. The technical idea of the present invention may be modified in various ways within the technical scope specified by the claims stated in the claims.
(構成)
自車両1は、自車両1の運転支援を行う運転支援装置10を備える。運転支援装置10による運転支援は、自車両1の周辺の走行環境に基づいて、運転者が関与せずに自車両1を自動で運転する自動運転制御や、自車両1の駆動、制動及び操舵 の少なくとも1つを制御する走行制御を含む。
走行制御は、例えば自動操舵、自動ブレーキ、先行車追従制御、定速走行制御、車線維持制御、合流支援制御などであってよい。
また、運転支援は、自動運転制御や走行制御のほか、運転者に操舵操作、加速操作、減速操作を促す情報(メッセージ)の出力を含んでよい。
(Constitution)
The
The travel control may be, for example, automatic steering, automatic braking, preceding vehicle follow-up control, constant speed travel control, lane keeping control, merging support control, and the like.
In addition to automatic driving control and driving control, the driving support may include output of information (message) prompting the driver to perform steering operation, acceleration operation, and deceleration operation.
運転支援装置10は、物体センサ11と、車両センサ12と、測位装置13と、地図データベース14と、通信装置15と、車載カメラ16と、ナビゲーションシステム17と、コントローラ18と、アクチュエータ19と、報知装置20を備える。図面において地図データベースを「地図DB」と表記する。
物体センサ11は、自車両1に搭載されたレーザレーダやミリ波レーダ、カメラ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)など、自車両1の周辺の物体を検出する複数の異なる種類の物体検出センサを備える。
The
The object sensor 11 is a plurality of different types that detect an object around the
車両センサ12は、自車両1に搭載され、自車両1から得られる様々な情報(車両信号)を検出する。車両センサ12には、例えば、自車両1の走行速度(車速)を検出する車速センサ、自車両1が備える各タイヤの回転速度を検出する車輪速センサ、自車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、自車両1に生じる角速度を検出するジャイロセンサ、ヨーレートを検出するヨーレートセンサ、自車両のアクセル開度を検出するアクセルセンサと、運転者によるブレーキ操作量を検出するブレーキセンサが含まれる。
The
測位装置13は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置13は、例えば慣性航法装置であってもよい。
地図データベース14は、自動運転用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な車線単位の情報を含む。
The
The
例えば、高精度地図は車線単位の情報として、車線基準線(例えば車線内の中央の線)上の基準点を示す車線ノードの情報と、車線ノード間の車線の区間態様を示す車線リンクの情報を含む。
車線ノードの情報は、その車線ノードの識別番号、位置座標、接続される車線リンク数、接続される車線リンクの識別番号を含む。車線リンクの情報は、その車線リンクの識別番号、車線の種類、車線の幅員、車線境界線の種類、車線の形状、車線区分線の形状、車線基準線の形状を含む。高精度地図は更に、車線上又はその近傍に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の地物の種類及び位置座標と、地物の位置座標に対応する車線ノードの識別番号及び車線リンクの識別番号等の地物の情報を含む。
For example, in a high-precision map, lane-based information includes lane node information indicating a reference point on a lane reference line (for example, a central line in a lane) and lane link information indicating a lane section mode between lane nodes. including.
The lane node information includes the identification number of the lane node, the position coordinates, the number of connected lane links, and the identification number of the connected lane links. The lane link information includes the lane link identification number, lane type, lane width, lane boundary type, lane shape, lane dividing line shape, and lane reference line shape. High-precision maps also include types and position coordinates of features such as traffic lights, stop lines, signs, buildings, utility poles, curbs, and pedestrian crossings that exist on or near the lane, and lane nodes that correspond to the position coordinates of the features. Includes feature information such as identification numbers for lane links and identification numbers for lane links.
高精度地図は、車線単位のノード及びリンク情報を含むため、走行ルートにおいて自車両1が走行する車線を特定可能である。高精度地図は、車線の延伸方向及び幅方向における位置を表現可能な座標を有する。高精度地図は、3次元空間における位置を表現可能な座標(例えば経度、緯度及び高度)を有し、車線や上記地物は3次元空間における形状として記述されてもよい。
Since the high-precision map includes node and link information for each lane, it is possible to identify the lane in which the
通信装置15は、自車両1の外部の通信装置との間で無線通信を行う。通信装置15による通信方式は、例えば公衆携帯電話網による無線通信や、車車間通信、路車間通信、又は衛星通信であってよい。
車載カメラ16は、自車両1から見た周囲の風景を撮影する撮影装置である。例えば、車載カメラ16は全方位を撮影できる周囲カメラであってよい。車載カメラ16は、自車両から異なる方向を撮影する複数のカメラを備えてもよい。車載カメラ16は、これら複数のカメラで撮影した画像を合成して、自車両1から見た全方位画像を生成してもよい。
The
The in-
また後述するように、車載カメラ16は全方位を撮影する周囲カメラに限定されず、例えば、自車両の前方を撮影する前方カメラであってもよく、自車両の後方を撮影する後方カメラであってもよい。
車載カメラ16は、物体センサ11に用いられるカメラと兼用してもよい。
Further, as will be described later, the in-
The in-
ナビゲーションシステム17は、測位装置13により自車両の現在位置を認識し、その現在位置における地図情報を地図データベース14から取得する。ナビゲーションシステム17は、乗員が入力した目的地までの走行経路を設定し、この走行経路に従って乗員に経路案内を行う。
またナビゲーションシステム17は、設定した走行経路の情報をコントローラ18へ出力する。自動運転制御時にコントローラ18は、ナビゲーションシステム17が設定した走行経路に沿って走行するように自車両を自動で運転する。
The
Further, the
コントローラ18は、自車両1の運転支援制御を行う電子制御ユニット(ECU:Electronic Control Unit)である。コントローラ18は、プロセッサ21と、記憶装置22等の周辺部品とを含む。プロセッサ21は、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置22は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置22は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
The
The
以下に説明するコントローラ18の機能は、例えばプロセッサ21が、記憶装置22に格納されたコンピュータプログラムを実行することにより実現される。
なお、コントローラ18を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ18は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ18はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
The function of the
The
For example, the
アクチュエータ19は、コントローラ18からの制御信号に応じて、自車両のステアリングホイール、アクセル開度及びブレーキ装置を操作して、自車両の車両挙動を発生させる。アクチュエータ19は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、自車両のステアリングの操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、自車両のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両のブレーキ装置の制動動作を制御する。
報知装置20は、コントローラ18が運転者に対して運転支援のために提示する情報(例えば、操舵操作、加速操作、減速操作を促すメッセージ)を出力する情報出力装置である。報知装置20は、例えば、視覚情報を出力する表示装置、ランプ若しくはメータ、又は音声情報を出力するスピーカを備えてよい。
The
The
次に図2を参照して、コントローラ18による運転支援制御の一例を説明する。コントローラ18は、ナビゲーションシステム17により設定された走行経路に沿って自車両1を走行させるための運転行動を決定する。
図2の運転行動の例は、一点鎖線2に示すように自車両1が走行する第1走行車線3から隣接する第2走行車線4へ進入する車線変更である。
例えばコントローラ18は、決定した運転行動を自動運転制御によって実行してよい。
Next, an example of driving support control by the
An example of the driving behavior of FIG. 2 is a lane change from the first traveling lane 3 in which the
For example, the
自車両1が車線変更する場合、コントローラ18は、車線変更後に自車両1が第2走行車線4上の他車両に過度に接近しないように、第2走行車線4上の、かつ自車両1の前方及び後方の位置に他車両が存在するか否かを判定する。
コントローラ18は、第2走行車線4上の他車両5と自車両1との間の車間距離D1が所定の基準値Dr以上であることを車線変更の許可条件とする。すなわち、車間距離D1が基準値Dr未満である場合に車線変更を行わない。この場合、コントローラ18は、第2走行車線4上の他車両5と自車両1との間の車間距離D1が基準値Dr以上となるまで車線変更するのを待つ。
When the
The
第2走行車線4上の他車両5と自車両1との間の車間距離D1が基準値Dr以上であり、且つ、その他の条件(例えば他の車両と自車両1との相対速度など)が満たされると、コントローラ18は車線変更を行う。
コントローラ18は、車間距離に代えて、第2走行車線4上の他車両5と自車両1との間の車間時間が基準値Dr以上であることを車線変更の許可条件としてもよい。
The inter-vehicle distance D1 between the
Instead of the inter-vehicle distance, the
ここで、他車両5が自車両1の後方車両である場合、他車両5の運転者が強い光源(例えば太陽など)6によって眩惑されていると、第2走行車線4へ車線変更した自車両1の存在に気づくのが遅れ他車両5の減速が遅れるおそれがある。このため、自車両の後方の他車両5と自車両1とが過度に接近するおそれがある。
他車両が自車両の前方の車両である場合には、光源6により眩惑されている運転者が障害物に気づくのが遅れて急制動を行うおそれがある。このため、第2走行車線4へ車線変更した自車両1と、自車両1の前方の他車両とが過度に接近するおそれがある。
Here, when the
When the other vehicle is a vehicle in front of the own vehicle, the driver who is dazzled by the
このため、コントローラ18は、自車両1の周辺の他車両5の運転者が眩惑されている状態にある可能性があるか否かを判定し、運転者が眩惑されている状態にある可能性があると判定した場合には運転者が眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値Drを設定する。
コントローラ18は、自車両1と他車両5との間の距離又は車間時間と基準値Drとの比較結果に基づいて、所定の運転行動を支援する運転支援制御を行う。
Therefore, the
The
コントローラ18による運転支援制御は、例えば運転行動を実行する自動運転制御であってよい。
例えばコントローラ18は、自車両1と他車両5との間の車間距離又は車間時間が基準値Dr以上の場合に自動運転制御により運転行動を実行し、基準値Dr未満の場合に運転行動を中止又は延期してよい。
例えばコントローラ18は、自車両1と他車両5との間の車間距離又は車間時間が基準値Drとなるように、自車両1と他車両5との間の距離又は車間時間を自動制御してよい。
The driving support control by the
For example, the
For example, the
例えばコントローラ18は、自車両1と他車両5との間の車間距離又は車間時間が基準値Dr以下となった場合に、自動運転制御により他車両との衝突を回避する運転行動を実行してよい。
また、運転行動が運転者の手動で行われる場合には、コントローラ18による運転支援制御は、運転行動の実行、中止又は延期、加減速操作、回避操作を運転者に促す情報提供であってよい。
For example, the
Further, when the driving action is manually performed by the driver, the driving support control by the
これにより、自車両1が所定の運転行動を行うときの他車両との距離又は車間時間がより長くなるため、自車両1と他車両とが過度に接近するのを抑制することができる。
図2の例では、自車両1が車線変更を行うときの後方の他車両5との距離又は車間時間がより長くなるため、車線変更後の自車両1と後方の他車両5とが過度に接近して他車両5が急減速してしまうことを回避できる。
この結果、自車両の周辺の他車両の運転者が眩惑されている可能性がある状況における自車両の運転支援の安全性を向上できる。
As a result, when the
In the example of FIG. 2, when the
As a result, it is possible to improve the safety of driving support of the own vehicle in a situation where the driver of another vehicle around the own vehicle may be dazzled.
図3を参照して、コントローラ18の機能を詳しく説明する。コントローラ18は、物体検出部30と、自車両位置推定部31と、地図取得部32と、検出統合部33と、物体追跡部34と、地図内位置演算部35と、運転行動計画決定部36と、動作予測部37と、自車両経路生成部38と、車両制御部39を備える。
物体検出部30は、物体センサ11の検出信号に基づいて、自車両1の周辺の物体、例えば車両やバイク、歩行者、障害物などの位置、姿勢、大きさ、速度などを検出する。物体検出部30は、例えば自車両1を空中から眺める天頂図(平面図ともいう)において、物体の2次元位置、姿勢、大きさ、速度などを表現する検出結果を出力する。
The function of the
The
自車両位置推定部31は、測位装置13による測定結果や、車両センサ12からの検出結果を用いたオドメトリに基づいて、自車両1の絶対位置、すなわち、所定の基準点に対する自車両1の位置、姿勢及び速度を計測する。
地図取得部32は、地図データベース14から自車両1が走行する道路の構造を示す地図情報を取得する。地図取得部32は、通信装置15により外部の地図データサーバから地図情報を取得してもよい。
The own vehicle
The
検出統合部33は、複数の物体検出センサの各々から物体検出部30が得た複数の検出結果を統合して、各物体に対して一つの検出結果を出力する。
具体的には、物体検出センサの各々から得られた物体の挙動から、各物体検出センサの誤差特性などを考慮した上で最も誤差が少なくなる最も合理的な物体の挙動を算出する。
具体的には、既知のセンサ・フュージョン技術を用いることにより、複数種類のセンサで取得した検出結果を総合的に評価して、より正確な検出結果を得る。
The
Specifically, from the behavior of the object obtained from each of the object detection sensors, the most rational behavior of the object with the least error is calculated in consideration of the error characteristics of each object detection sensor.
Specifically, by using a known sensor fusion technique, the detection results acquired by a plurality of types of sensors are comprehensively evaluated to obtain more accurate detection results.
物体追跡部34は、物体検出部30によって検出された物体を追跡する。具体的には、検出統合部33により統合された検出結果に基づいて、異なる時刻に出力された物体の挙動から、異なる時刻間における物体の同一性の検証(対応付け)を行い、かつ、その対応付けを基に、物体の速度などの挙動を予測する。
The
地図内位置演算部35は、自車両位置推定部31により得られた自車両1の絶対位置、及び地図取得部32により取得された地図情報から、地図上における自車両1の位置及び姿勢を推定する。
また、地図内位置演算部35は、自車両1が走行している道路、さらに当該道路のうちで自車両1が走行する車線を特定する。
The
In addition, the
運転行動計画決定部36は、ナビゲーションシステム17により設定された走行経路と、地図上における自車両1の位置とに基づいて、走行経路上を自動で自車両1に走行させるための運転行動計画を決定する。
運転行動計画とは、自車両を走行させるレーン(車線)と、このレーンを走行させるのに要する運転行動とを定めた、中長距離の範囲におけるレーンレベル(車線レベル)での運転行動の計画である。
The driving action
A driving behavior plan is a driving behavior plan at the lane level (lane level) in a medium- to long-distance range that defines the lane (lane) in which the vehicle is driven and the driving behavior required to drive this lane. Is.
運転行動計画決定部36によって決定される運転行動は、例えば、走行経路上に存在する交差点の右折、左折、直進や、複数車線を走行する際の車線変更であってよい。
運転行動計画は、例えば、前方に存在する交差点を右折するシーンにおいて、交差点の手前何m地点で右折レーンに車線変更するか等の運転行動を定めた計画であってよい。
動作予測部37は、検出統合部33及び物体追跡部34により得られた検出結果と、地図内位置演算部35により特定された自車両1の位置に基づいて、自車両1の周辺における他の物体の動作を予測する。
The driving action determined by the driving action
The driving action plan may be, for example, a plan that defines driving actions such as how many meters before the intersection to change lanes to the right turn lane in a scene of turning right at an intersection existing in front of the intersection.
The
さらに、動作予測部37は、自車両1の運転支援制御において自車両1と他車両5との車間距離を判断する際に車間距離と比較される基準値Drを設定する。
このとき、動作予測部37は、他車両5の位置及び向きに基づいて、他車両の運転者が眩惑されている状態である可能性があるか否かを判定する。動作予測部37は、他車両の運転者が眩惑されている状態である可能性があるか否かに応じて基準値Drを設定する。
なお、本明細書では、基準値Drが他車両5と自車両1の間の車間距離の基準値である例を説明するが本発明はこれに限定されない。基準値Drは、自車両1と他車両5と衝突のリスクの指標の基準値であればよく、例えば他車両5と自車両1の車間時間の基準値であってもよい。
Further, the
At this time, the
In this specification, an example in which the reference value Dr is the reference value of the inter-vehicle distance between the
動作予測部37は、対象車両判定部40と、方向判定部41と、眩惑判定部42と、基準値設定部43を備える。
対象車両判定部40は、検出統合部33及び物体追跡部34により検出された物体のうち、自車両1が行う予定の運転行動又は行っている運転行動のための運転支援制御において自車両1との車間距離が判断される対象車両5を判定する。
The
Among the objects detected by the
図2を参照する。運転行動計画決定部36が、第2走行車線4への車線変更を、自車両1が行う予定の運転行動として決定した場合には、対象車両判定部40は、第2走行車線4上の自車両1の前方又は後方に位置する他車両5(図2の例では、第2走行車線4上の自車両1の後方に位置する他車両5)が対象車両であると判定する。
図4を参照する。自車両1が行っている運転行動が先行車両5に追従する先行車追従運転である場合には、対象車両判定部40は、自車両1の前方の先行車両5が対象車両であると判定する。
また、自車両1が行う運転行動が他車両5との衝突回避である場合には、対象車両判定部40は、回避対象の他車両5が対象車両であると判定する。
See FIG. When the driving action
See FIG. When the driving action performed by the
Further, when the driving action performed by the
図5を参照する。運転行動計画決定部36が、交差点60での右折を、自車両1が行う予定の運転行動として決定した場合には、対象車両判定部40は、自車両1の前方に位置し、かつ交差点60を直進する対向車両5が対象車両であると判定する。
図6を参照する。運転行動計画決定部36が、交差点60での直進を、自車両1が行う予定の運転行動として決定した場合には、対象車両判定部40は、自車両1の前方に位置し、かつ交差点60を右折する対向車両5が対象車両であると判定する。
See FIG. When the driving action
See FIG. When the driving action
図3を参照する。方向判定部41は、物体センサ11が備えるLIDARや、レーザレーダやミリ波レーダ、カメラなどにより検出された対象車両5の姿勢や、対象車両5が存在する車線の向きに基づいて、対象車両5の現在の向きを検出する。
なお、交差点の右左折時やカーブ走行時には対象車両5の向きが刻々と変化するが、将来に渡る一定期間の向きを算出することは可能である。
See FIG. The
The direction of the
眩惑判定部42は、対象車両5の位置と向きに基づいて対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定する。
本明細書において「眩惑されている状態」とは、太陽やヘッドライトなどの強い光源からの光線が、車両の前方から当該車両の運転者の視界内に照射され、運転者の目がくらんだ状態をいう。
The
As used herein, the term "dazzled state" means that light rays from a strong light source such as the sun or headlights are emitted from the front of the vehicle into the driver's field of vision of the vehicle, which blinds the driver. The state.
図7を参照する。眩惑判定部42は、緯度経度取得部50と、日時取得部51と、太陽位置算出部52と、天候取得部53と、カメラ画像取得部54と、飽和画素位置算出部55と、眩惑予想場所取得部56と、判定部57を備える。
緯度経度取得部50は、測位装置13による測位結果に基づいて、自車両1の絶対位置として自車両1の緯度経度を取得する。例えば緯度経度取得部50は、測位装置13が受信したGPS情報に基づいて自車両1の緯度経度を取得してよい。
See FIG. 7. The
The latitude /
日時取得部51は、現在の日付及び時刻の情報を取得する。日時取得部51は、例えば電波時計用の標準電波や、測位装置13が受信したGPS情報に基づいて現在の日付及び時刻の情報を取得してよい。
太陽位置算出部52は、緯度経度取得部50で取得された自車両1の緯度経度と、日時取得部51で取得された現在の日付、時刻を基に、対象車両5から見た太陽の方位、高度(仰角)を算出する。
The date /
The sun
ここで、自車両1と対象車両5の緯度経度の相違はわずかなので、太陽の方位、高度の算出に対して大きく影響しない。ただし、LIDARや、レーザレーダやミリ波レーダ、カメラなどによる対象車両5の検出位置と自車両1の緯度経度に基づいて対象車両5の緯度経度を算出し、対象車両5から見た太陽の方位、高度を算出してもよい。
Here, since the difference between the latitude and longitude of the
天候取得部53は、通信装置15を介して気象庁等からの気象情報を取得することにより対象車両5と自車両1が位置する場所の天候情報を取得する。天候情報は、太陽光が直接地上を照らしているか否かが判定できる程度の情報で足り、例えば、晴れであるか曇りや雨であるか程度の情報でよい。
The
カメラ画像取得部54は、車載カメラ16により撮影された自車両1から見た周囲の画像を取得する。カメラ画像取得部54が取得した画像は、光源(太陽等)の方向を算出するために使用される。
上記のとおり、車載カメラ16は全方位を撮影できる周囲カメラであってもよいが、対象車両5の運転者の視野をカバーする範囲を撮影できるカメラで足りる。
The camera
As described above, the vehicle-mounted
例えば、自車両1の運転行動が車線変更(図2参照)や先行車追従運転(図4参照)である場合には、カメラ画像取得部54は、自車両の前方を撮影する前方カメラの撮影画像を取得すればよい。
自車両1の運転行動が交差点での右折(図5参照)や交差点での直進(図6参照)である場合には、カメラ画像取得部54は、自車両の後方を撮影する後方カメラが撮影画像を取得すればよい。
For example, when the driving behavior of the
When the driving behavior of the
飽和画素位置算出部55は、カメラ画像取得部54が取得した画像中に、飽和画素が所定の割合以上に存在するか否かを判断する。
飽和画素が存在している場合には、飽和画素位置算出部55は、飽和画素の座標に基づいて、車載カメラ16の位置から見た光源の方位及び上下角を算出する。
例えば、飽和画素位置算出部55は、画像の水平軸に沿って飽和画素が存在する頻度をヒストグラムとして算出することにより光源の方位を算出してよい。
また例えば、飽和画素位置算出部55は、画像の垂直軸に沿って飽和画素が存在する頻度をヒストグラムとして算出することにより光源の方位を算出してよい。
The saturated pixel
When saturated pixels are present, the saturated pixel
For example, the saturated pixel
Further, for example, the saturated pixel
眩惑予想場所取得部56は、対向車両のヘッドライトにより眩惑されることがありうる眩惑予想場所の情報を取得する。
図8Aを参照する。参照符号65は自車両1の対向車両を示し、参照符号66は対向車両のヘッドライトの照射範囲を示す。自車両1と対向車両65が平坦な路面を走行している場合には、対向車両65のヘッドライトは路面を照らしており、自車両1の運転者が眩惑することは少ない。
The expected dazzling
See FIG. 8A.
図8Bを参照する。起伏が存在することにより、例えば自車も対向車両も登り坂であるような場所では、対向車両65のヘッドライトが路面だけでなく上の方も照らしてしまうため、自車両1の運転者が眩惑されることが多い。
このような場所は路面形状によって決定されるものであり、実際に対向車両65のヘッドライトにより眩惑された実績のある場所を眩惑予想場所としてデータベースに蓄積できる。
See FIG. 8B. Due to the presence of undulations, for example, in a place where both the own vehicle and the oncoming vehicle are uphill, the headlights of the oncoming
Such a place is determined by the road surface shape, and a place having a track record of being dazzled by the headlight of the oncoming
眩惑予想場所取得部56は、眩惑予想場所を蓄積したデータベースから、自車両1の周辺の眩惑予想場所の情報を取得する。
また、眩惑予想場所取得部56は、地図データベース14に記憶された高度情報に基づいて路面形状を判定し、眩惑予想場所を求めてもよい。
The dazzling prediction
Further, the dazzling prediction
判定部57は、太陽位置算出部52で算出された太陽の方位及び高度と、天候取得部で取得された天候に基づいて、太陽が、眩惑を生じさせる光源となっているか否かを判断する。
また、判定部57は、飽和画素位置算出部55が算出した光源の方位及び上下角に基づいて、眩惑を生じさせる光源が存在するか否かを判断する。
The
Further, the
判定部57は、眩惑を生じさせる光源が存在する場合には、光源の方位及び上下角(高度)と、方向判定部41が判定した対象車両5の向きに基づいて、対象車両5の運転者が光源により眩惑されている状態にある可能性があるか否かを判断する。
例えば、判定部57は、対象車両5の向きに基づいて対象車両5の前方をみる運転者の視界の範囲を推定し、運転者の視界の範囲内に光源がある場合には、対象車両5の運転者が光源により眩惑されている状態にある可能性があると判定する。
When there is a light source that causes dazzling, the
For example, the
なお、判定部57は、対象車両5の運転者が太陽光により眩惑されている状態にある可能性があるか否かの判定と、飽和画素位置算出部55が検出した光源により眩惑されている状態にある可能性があるか否かの判定とを別個に行ってもよい。
さらに、判定部57は、眩惑予想場所取得部56が取得した眩惑予想場所の情報と、日時取得部51が取得した現在時刻に基づいて、対向車両のヘッドライトにより、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判断する。
例えば、判定部57は、眩惑予想場所取得部56が取得した眩惑予想場所に対象車両5が位置し、かつ現在時刻がヘッドライトの点灯率が所定の閾値を超える時間帯である場合に、対象車両5の運転者が眩惑されている状態にある可能性があると判定する。
The
Further, the
For example, the
図3を参照する。基準値設定部43は、自車両1の運転支援制御において自車両1と対象車両5との車間距離を判断する際に車間距離と比較される基準値Drを設定する。
図2の車線変更の場合は、車線変更先の第2走行車線4上の対象車両5と自車両1との車間距離D1が基準値Drと比較される。
図4の先行車追従運転の場合は、自車両1の先行車両である対象車両5と自車両1との車間距離D2が基準値Drと比較される。
対象車両5との衝突を回避する衝突回避行動の場合は、回避対象の対象車両5と自車両1との車間距離D2が基準値Drと比較される。
See FIG. The reference
In the case of the lane change in FIG. 2, the inter-vehicle distance D1 between the
In the case of the preceding vehicle following operation of FIG. 4, the inter-vehicle distance D2 between the
In the case of a collision avoidance action for avoiding a collision with the
図5の交差点60での右折の場合は、自車両1の前方に位置し、かつ交差点60を直進する対向車両である対象車両5から交差点までの距離D4から、自車両1から交差点60までの距離D3を減じた距離差ΔD=D4−D3と、基準値Drと、が比較される。
距離差ΔDは、自車両1が交差点60に到達した時点における対象車両5と自車両1との車間距離の目安となる。
なお、距離D3は、自車両1から自車両1及び対象車両5の予定走行軌道61及び62の交差位置までの距離であってもよい。距離D4は、対象車両5から予定走行軌道61及び62の交差位置までの距離であってもよい。
In the case of a right turn at the
The distance difference ΔD serves as a guideline for the distance between the
The distance D3 may be the distance from the
図6の交差点60での直進の場合は、自車両1の前方に位置し、交差点60を右折する対向車両である対象車両5から交差点までの距離D6から、自車両1から交差点60までの距離D5を減じた距離差ΔD=D6−D5と、基準値Drと、が比較される。
距離差ΔDは、自車両1が交差点60に到達した時点における対象車両5と自車両1との車間距離の目安となる。
なお、距離D5は、自車両1から自車両1及び対象車両5の予定走行軌道63及び64の交差位置までの距離であってもよい。距離D6は、対象車両5から予定走行軌道63及び64の交差位置までの距離であってもよい。
In the case of going straight at the
The distance difference ΔD serves as a guideline for the distance between the
The distance D5 may be the distance from the
基準値設定部43は、対象車両5の運転者が眩惑されている状態にある可能性があると判定部57が判定した場合には、対象車両5の眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値Drを設定する。
When the
図3を参照する。自車両経路生成部38は、運転行動計画決定部36が決定した運転行動計画に従って自車両1を走行させる目標走行軌道や速度プロファイルを生成する。
このとき自車両経路生成部38は、動作予測部37において予測された自車両1の周辺の他の物体の動作の予測結果と、基準値設定部43が設定した基準値Drに基づいて、交通規則(例えば第1走行車線3に沿って走行する等)に従いながら、他の物体と衝突せず、かつ他の物体の挙動により自車両1が急減速、急操舵を行なうことなく走行できる、滑らかな目標走行軌道や速度プロファイルを生成する。
See FIG. The own vehicle
At this time, the own vehicle
図2を参照する。車線変更の場合に自車両経路生成部38は、車線変更先の第2走行車線4上の対象車両5と自車両1との間の車間距離D1が基準値Dr以上であり、且つ、その他の条件(例えば他の車両と自車両1との相対速度など)が満たされると、第1走行車線3から第2走行車線4へ車線変更する目標走行軌道や速度プロファイルを生成する。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定されることで、眩惑により対象車両5の運転者が車線変更後の自車両1に気づかずに又は気づくのが遅れ、自車両1と対象車両5とが過度に接近して他車両5が急減速してしまうことを回避できる。
See FIG. In the case of a lane change, the own vehicle
When it is determined that the driver of the
図4を参照する。先行車追従運転の場合に自車両経路生成部38は、先行車両である対象車両5と自車両1との車間距離D2を一定の基準値Dr以上に維持するように目標走行軌道や速度プロファイルを生成する。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定され、自車両1と対象車両5との車間距離D2をより長くなることで、対象車両5の運転者が眩惑により減速又は徐行した場合に、対象車両5と自車両1が過度に接近し、自車両1が急減速するのを回避できる。
See FIG. In the case of following vehicle driving, the own vehicle
When it is determined that the driver of the
自車両1と対象車両5との衝突を回避する衝突回避行動では、自車両経路生成部38は、回避対象の対象車両5と自車両1との車間距離D2が基準値Dr以下になった場合に、対象車両5との衝突を回避する目標走行軌道や速度プロファイルを生成する。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定されることで、対象車両5の運転者が眩惑により障害物に気づくのが遅れて対象車両5に急な車両挙動が発生しても、回避行動が間に合わなくなるのを回避できる。
In the collision avoidance action of avoiding a collision between the
When it is determined that the driver of the
図5を参照する。交差点60での右折では、自車両経路生成部38は、距離差ΔD=D4−D3が基準値Dr以上である場合に、対象車両5が交差点60を通過する前に交差点60で右折する目標走行軌道や速度プロファイルを生成する。距離差ΔDが基準値Dr未満である場合、自車両経路生成部38は、自車両1を停車又は徐行させ、対象車両5が交差点60を通過するのを待って右折する目標走行軌道や速度プロファイルを生成する。
See FIG. When making a right turn at an
眩惑のために対象車両5の運転者が、右折しようとしている自車両1に気づかないと、対象車両5と自車両1が過度に接近するおそれがある。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定されることで、対象車両5が自車両1に過度に接近して、自車両1又は対象車両5が急減速してしまうことを回避することができる。
If the driver of the
When it is determined that the driver of the
図6を参照する。交差点60での直進では、自車両経路生成部38は、距離差ΔD=D6−D5が基準値Dr以上である場合に、対象車両5が右折を行う前に交差点60を直進する目標走行軌道や速度プロファイルを生成する。距離差ΔDが基準値Dr未満である場合、自車両経路生成部38は、自車両1を停車又は徐行させ、対象車両5が交差点60を右折し終わるのを待って交差点60を直進する目標走行軌道や速度プロファイルを生成する。
See FIG. When going straight at the
眩惑のために対象車両5の運転者が、直進しようとしている自車両1に気づかないと、対象車両5が自車両1に過度に接近するおそれがある。
対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合に大きな基準値Drが設定されることで、対象車両5が自車両1に過度に接近して、自車両1又は対象車両5が急減速してしまうことを回避することができる。
If the driver of the
When it is determined that the driver of the
図3を参照する。車両制御部39は、自車両経路生成部38が生成した速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ19を駆動する。
なお、車両制御部39の走行制御は、必ずしも目標走行軌道や速度プロファイルを必要とするものではない。例えば、自車両1の周辺の物体(例えば障害物)との間の相対距離に基づく制動制御、加速制御、操舵制御も可能である。
また、動作予測部37は、設定した基準値Drに基づいて、所定の運転行動の運転支援のための情報を報知装置20から出力し、運転者に提示してもよい。
See FIG. The
The travel control of the
Further, the
例えば、図2の車線変更の場合では、車線変更先の第2走行車線4上の対象車両5と自車両1との間の車間距離D1が基準値Dr以上であり、且つ、その他の条件(例えば他の車両と自車両1との相対速度など)が満たされると、第1走行車線3から第2走行車線4への車線変更を促すメッセージを出力してよい。
また例えば、図4の先行車追従運転では、先行車両である対象車両5との車間距離D2を一定の基準値Dr以上に維持するように加速操作又は減速操作を促すメッセージを出力してよい。
For example, in the case of the lane change in FIG. 2, the inter-vehicle distance D1 between the
Further, for example, in the preceding vehicle following operation of FIG. 4, a message prompting an acceleration operation or a deceleration operation may be output so as to maintain the inter-vehicle distance D2 with the
また例えば、衝突回避行動では、回避対象の対象車両5と自車両1との車間距離D2が基準値Dr以下になった場合に回避操作を促すメッセージを出力してよい。
また例えば、図5の交差点60での右折では、距離差ΔD=D4−D3が基準値Dr以上である場合に、対象車両5が交差点60を通過する前に交差点60で右折することを促すメッセージを出力してよい。距離差ΔDが基準値Dr未満である場合に、徐行又は停車して、対象車両5が交差点60を通過するのを待ってから右折することを促すメッセージを出力してよい。
Further, for example, in the collision avoidance action, a message prompting the avoidance operation may be output when the inter-vehicle distance D2 between the
Further, for example, in the case of turning right at the
また例えば、図6の交差点60での直進では、距離差ΔD=D6−D5が基準値Dr以上である場合に、対象車両5が交差点60で右折する前に交差点60を直進することを促すメッセージを出力してよい。距離差ΔDが基準値Dr未満である場合に、徐行又は停車して、対象車両5が交差点60を右折し終わるのを待ってから直進することを促すメッセージを出力してよい。
Further, for example, in the case of going straight at the
(動作)
次に、図9を参照して実施形態における運転支援装置10の動作の一例を説明する。
ステップS1において物体検出部30は、複数の物体検出センサを用いて、自車両1の周辺における物体の位置、姿勢、大きさ、速度などを検出する。
ステップS2において検出統合部33は、複数の物体検出センサの各々から得られた複数の検出結果を統合して、各物体に対して一つの検出結果を出力する。物体追跡部34は、検出及び統合された各物体を追跡し、自車両1の周辺の物体の挙動を予測する。
(motion)
Next, an example of the operation of the driving
In step S1, the
In step S2, the
ステップS3において自車両位置推定部31は、測位装置13による測定結果や、車両センサ12からの検出結果を用いたオドメトリに基づいて、所定の基準点に対する自車両1の位置、姿勢及び速度を計測する。
ステップS4において地図取得部32は、自車両1が走行する道路の構造を示す地図情報を取得する。
ステップS5において地図内位置演算部35は、ステップS3で計測された自車両1の位置、及びステップS4で取得された地図データから、地図上における自車両1の位置及び姿勢を推定する。
In step S3, the own vehicle
In step S4, the
In step S5, the
ステップS6において運転行動計画決定部36は、ナビゲーションシステム17により設定された走行経路と、地図上における自車両1の位置とに基づいて、走行経路上を自動で自車両1に走行させるための運転行動計画を決定する。
ステップS7において動作予測部37は、ステップS2で得られた検出結果(自車両1の周辺の物体の挙動)と、ステップS5で特定された自車両1の位置に基づいて、自車両1の周辺における他車両の動作を予測する。
In step S6, the driving action
In step S7, the
さらに動作予測部37は、自車両1の運転支援制御において自車両1と対象車両5との車間距離を判断する際に車間距離と比較される基準値Drを設定する。動作予測部37が基準値Drを設定する処理は図10を参照して後述する。
ステップS8において自車両経路生成部38は、ステップS6で予測された他車両の動作と、ステップS7で設定した基準値Drに基づいて自車両1の目標走行軌道や速度プロファイルを生成する。
Further, the
In step S8, the own vehicle
このとき、自車両経路生成部38は、自車両1と他車両との間の車間距離と基準値Drに応じて自車両1の目標走行軌道や速度プロファイルを生成する。
ステップS9において車両制御部39は、ステップS7で生成された目標走行軌道や速度プロファイルに従って自車両1が走行するようにアクチュエータ19を制御して自車両1を運転する。
At this time, the own vehicle
In step S9, the
図10を参照して、ステップS7において動作予測部37が基準値Drを設定する処理を説明する。
ステップS10において対象車両判定部40は、自車両1の周辺で検出された物体が、自車両1の運転支援制御において自車両1との車間距離が判断される対象車両5であるか否かを判定する。対象車両5である場合(ステップS10:Y)に処理はステップS11へ進む。対象車両5でない場合(ステップS10:N)に処理はステップS21へ進む。
With reference to FIG. 10, a process in which the
In step S10, the target
ステップS11において方向判定部41は、物体センサ11により検出した対象車両5の姿勢や、対象車両5が存在する車線の向きに基づいて、対象車両5の現在の向きを検出する。
ステップS12において緯度経度取得部50は、測位装置13による測位結果に基づいて、自車両1の絶対位置として自車両1の緯度経度を取得する。
In step S11, the
In step S12, the latitude /
ステップS13において日時取得部51は、現在の日付及び時刻の情報を取得する。
ステップS14において太陽位置算出部52は、緯度経度取得部50で取得された自車両1の緯度経度と、日時取得部51で取得された現在の日付、時刻を基に、対象車両5から見た太陽の方位、高度(仰角)を算出する。
ステップS15において天候取得部53は、通信装置15を介して気象庁等からの気象情報を取得することにより対象車両5と自車両1が位置する場所の天候情報を取得する。
In step S13, the date /
In step S14, the sun
In step S15, the
ステップS16においてカメラ画像取得部54は、車載カメラ16により撮影された自車両1から見た周囲の画像を取得する。
ステップS17において飽和画素位置算出部55は、カメラ画像取得部54が取得した画像中の飽和画素位置に基づいて車載カメラ16の位置から見た光源の方位及び上下角を算出する。
In step S16, the camera
In step S17, the saturated pixel
ステップS18において眩惑予想場所取得部56は、対向車両のヘッドライトにより眩惑されることがありうる眩惑予想場所の情報を取得する。
ステップS19において判定部57は、光源の方位及び上下角(高度)と、対象車両5の向きと、対象車両5の位置と、眩惑予想場所に基づいて、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定する。
In step S18, the dazzling expected
In step S19, the
ステップS20において基準値設定部43は、基準値Drを設定する。基準値設定部43は、対象車両5の運転者が眩惑されている状態にある可能性があると判定部57が判定した場合には、対象車両5の眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値Drを設定する。
ステップS21において動作予測部37は、自車両1の周辺の全ての物体についてステップS10〜S20の処理を行ったか否かを判断する。全ての物体についてステップS10〜S20を行った場合(S21:Y)移動体挙動予測ルーチンを終了して処理は図9のステップS8へ進む。いずれかの他車両についてステップS10〜S20を行っていない場合(S21:N)処理は、処理済みでない他車両を処理対象に選択して処理はステップS10へ戻る。
In step S20, the reference
In step S21, the
(実施形態の効果)
(1)検出統合部33と、物体追跡部34と、対象車両判定部40と、方向判定部41は、自車両1の周辺の他車両である対象車両5の位置及び向きを検出する。眩惑判定部42は、対象車両5の位置及び向きに基づいて、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定する。対象車両5の運転者が眩惑されている状態にある可能性があると判定した場合には、基準値設定部43は、対象車両5の運転者が眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値Drを設定する。自車両経路生成部38と、車両制御部39と、動作予測部37は、自車両1と対象車両5との間の距離又は車間時間又は車間時間のいずれか一方と基準値との比較結果に基づいて、運転支援を行う。
(Effect of embodiment)
(1) The
これにより、自車両1が所定の運転行動を行うときの対象車両5との距離又は車間時間がより長くなるため、自車両1と対象車両5とが過度に接近するのを抑制することができる。このため、例えば自車両1あるいは対象車両5の急減速がなくなり、自車両1、対象車両5ともにスムースな走行を実現できる。
As a result, the distance to the
(2)自車両経路生成部38と、車両制御部39は、上記運転支援として、自車両1と対象車両5との間の距離又は車間時間のいずれか一方が基準値Dr以上である場合に所定の運転行動を実施してよい。
これにより、対象車両5の運転者が眩惑されている状態にある可能性がある場合には、所定の運転行動を行う際の自車両1と対象車両5との間の距離又は車間時間を長くすることができる。このため、対象車両5の運転者が眩惑されても自車両1と対象車両5が過度に近づくのを回避できる。
(2) The own vehicle
As a result, when there is a possibility that the driver of the
(3)所定の運転行動が車線変更である場合に、対象車両判定部40は、車線変更先の車線上の車両が対象車両5であると判定してよい。
これにより、自車両1が車線変更をする際に、車線変更先の車線にて自車両の後方に位置する対象車両5の運転者が、眩惑により自車両1の車線変更に気付かず、もしくは気付くのに遅れても、自車両1と対象車両5の間の距離が過度に短くなり対象車両5の急減速が発生するのを回避できる。
また、車線変更先の車線にて自車両の前方に位置する対象車両5の運転者が、眩惑に障害物に気づくのが遅れて急制動を行っても、自車両1と対象車両5の間の距離が過度に短くなり自車両1の急減速が発生するのを回避できる。
(3) When the predetermined driving behavior is a lane change, the target
As a result, when the
Further, even if the driver of the
(4)所定の運転行動が交差点での右折である場合に、対象車両判定部40は、交差点を直進する対向車両が対象車両5であると判定してよい。
これにより、対象車両5の運転者が、眩惑のために右折しようとしている自車両1に気づかず、又は気づくのに遅れても、対象車両5が自車両1に過度に接近して、自車両1又は対象車両5が急減速してしまうことを回避することができる。
(4) When the predetermined driving behavior is a right turn at an intersection, the target
As a result, even if the driver of the
(5)所定の運転行動が交差点での直進である場合に、対象車両判定部40は、交差点を右折する対向車両が対象車両5であると判定してよい。
これにより、対象車両5の運転者が、眩惑のために交差点を直進しようとしている自車両1に気づかず、又は気づくのに遅れても、対象車両5が自車両1に過度に接近して、自車両1又は対象車両5が急減速してしまうことを回避することができる。
(5) When the predetermined driving behavior is straight ahead at the intersection, the target
As a result, even if the driver of the
(6)上記運転支援は、先行車両である対象車両5と自車両1と距離又は車間時間のいずれか一方を基準値Dr以上に維持する追従走行であってよい。
これにより、対象車両5の運転者が眩惑により減速又は徐行しても、対象車両5と自車両1が過度に接近し、自車両1が急減速するのを回避できる。
(6) The driving support may be follow-up driving in which either the
As a result, even if the driver of the
(7)自車両経路生成部38と、車両制御部39は、上記運転支援として、自車両1と対象車両5との間の距離又は車間時間のいずれか一方が基準値Dr以下になると所定の運転行動を開始してよい。これにより、対象車両5の運転者が眩惑されている状態にある可能性がある場合には、所定の運転行動を開始する際の自車両1と対象車両5との間の距離又は車間時間を長くすることができる。このため、対象車両5の運転者が眩惑されても自車両1と対象車両5が過度に近づくのを回避できる。
(8)所定の運転行動は、対象車両5と自車両1との衝突を回避する衝突回避行動であってもよい。
これにより、対象車両5の運転者が眩惑により障害物に気づくのが遅れて、対象車両5に急な車両挙動が発生しても、回避行動が間に合わなくなるのを回避できる。
(7) The own vehicle
(8) The predetermined driving action may be a collision avoidance action for avoiding a collision between the
As a result, even if the driver of the
(9)眩惑判定部42は、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定するために、対象車両5の運転者が太陽によって眩惑されている状態にある可能性があるか否かを判定する。
これにより、明け方や夕方における朝日や夕日などの太陽光により、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定できる。
(10)太陽位置算出部52と判定部57は、対象車両5に対する太陽の位置と対象車両5の向きに基づいて、対象車両5の運転者が太陽によって眩惑されている状態にある可能性があるか否かを判定する。
これにより、明け方や夕方における朝日や夕日などの太陽光により、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定できる。
(9) The
Thereby, it can be determined whether or not the driver of the
(10) The sun
Thereby, it can be determined whether or not the driver of the
(11)太陽位置算出部52は、対象車両5に対する太陽の位置を、自車両1の位置と日時に基づいて算出する。
これにより、対象車両5の運転者が太陽光により眩惑されている状態にある可能性があるか否かを正確に判定できる。
(12)天候取得部53と判定部57は、天候に基づいて対象車両5の運転者が太陽によって眩惑されている状態にある可能性があるか否かを判定する。
これにより、対象車両5の運転者が太陽光により眩惑されている状態にある可能性があるか否かをより正確に判定できる。
(11) The sun
Thereby, it is possible to accurately determine whether or not the driver of the
(12) The
Thereby, it is possible to more accurately determine whether or not the driver of the
(13)飽和画素位置算出部55と判定部57は、自車両1から自車両1の周囲を撮影した周囲画像の飽和画素に基づいて光源の照射方向を検出する。対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定するために、対象車両5の運転者がこの光源によって眩惑されている状態にある可能性があるか否かを判定する。
これにより、自車両1の周囲を撮影した周囲画像を用いて、対象車両5の運転者が光源によって眩惑されている状態にある可能性があるか否かを判定できる。
(13) The saturated pixel
Thereby, it is possible to determine whether or not the driver of the
(14)眩惑予想場所取得部56と判定部57は、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定するために、対象車両5の運転者が、対象車両5の対向車両のヘッドライトによって眩惑されている状態にある可能性があるか否かを判定する。
これにより対向車両のヘッドライトにより対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定できる。
(14) In order to determine whether or not the driver of the
This makes it possible to determine whether or not the driver of the
(15)眩惑予想場所取得部56と判定部57は、過去に対向車両のヘッドライトによって眩惑された地点情報を蓄積したデータベースに基づいて、対象車両5の運転者が眩惑されている状態にある可能性があるか否かを判定する。
これにより対向車両のヘッドライトにより対象車両5の運転者が眩惑されている状態にある可能性があるか否かをより正確に判定できる。
(15) The dazzling expected
As a result, it is possible to more accurately determine whether or not the driver of the
1…自車両、5…他車両(対象車両)、6…光源、10…運転支援装置、11…物体センサ、12…車両センサ、13…測位装置、14…地図データベース、15…通信装置、16…車載カメラ、17…ナビゲーションシステム、18…コントローラ、19…アクチュエータ、20…報知装置、21…プロセッサ、22…記憶装置、30…物体検出部、31…自車両位置推定部、32…地図取得部、33…検出統合部、34…物体追跡部、35…地図内位置演算部、36…運転行動計画決定部、37…動作予測部、38…自車両経路生成部、39…車両制御部、40…対象車両判定部、41…方向判定部、42…眩惑判定部、43…基準値設定部、50…緯度経度取得部、51…日時取得部、52…太陽位置算出部、53…天候取得部、54…カメラ画像取得部、55…飽和画素位置算出部、56…眩惑予想場所取得部 1 ... own vehicle, 5 ... other vehicle (target vehicle), 6 ... light source, 10 ... driving support device, 11 ... object sensor, 12 ... vehicle sensor, 13 ... positioning device, 14 ... map database, 15 ... communication device, 16 ... In-vehicle camera, 17 ... Navigation system, 18 ... Controller, 19 ... Actuator, 20 ... Notification device, 21 ... Processor, 22 ... Storage device, 30 ... Object detection unit, 31 ... Own vehicle position estimation unit, 32 ... Map acquisition unit , 33 ... Detection integration unit, 34 ... Object tracking unit, 35 ... Position calculation unit in map, 36 ... Driving action plan determination unit, 37 ... Motion prediction unit, 38 ... Own vehicle route generation unit, 39 ... Vehicle control unit, 40 ... Target vehicle determination unit, 41 ... Direction determination unit, 42 ... Dazzle determination unit, 43 ... Reference value setting unit, 50 ... Latitude and longitude acquisition unit, 51 ... Date and time acquisition unit, 52 ... Sun position calculation unit, 53 ... Weather acquisition unit , 54 ... Camera image acquisition unit, 55 ... Saturated pixel position calculation unit, 56 ... Dazzling expected location acquisition unit
Claims (16)
自車両の周辺の他車両の位置及び向きを検出し、
前記他車両の位置及び向きに基づいて、前記他車両の運転者が眩惑されている状態にある可能性があるか否かを判定し、
前記基準値として、前記運転者が眩惑されている状態にある可能性があると判定した場合には前記運転者が眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値を設定する、ことを特徴とする運転支援方法。 It is a driving support method that provides driving support for the own vehicle based on the comparison result between either the distance between the own vehicle and another vehicle or the inter-vehicle time and a predetermined reference value.
Detects the position and orientation of other vehicles around your vehicle and
Based on the position and orientation of the other vehicle, it is determined whether or not the driver of the other vehicle may be in a dazzling state.
As the reference value, when it is determined that the driver may be in a dazzled state, the reference value is larger than when it is determined that the driver may not be in a dazzled state. A driving support method characterized by setting.
前記他車両は、車線変更先の車線上の車両であることを特徴とする請求項2に記載の運転支援方法。 The predetermined driving behavior is a lane change,
The driving support method according to claim 2, wherein the other vehicle is a vehicle on the lane to which the lane is changed.
前記他車両は、前記交差点を直進する対向車両であることを特徴とする請求項2に記載の運転支援方法。 The predetermined driving behavior is a right turn at an intersection.
The driving support method according to claim 2, wherein the other vehicle is an oncoming vehicle traveling straight through the intersection.
前記他車両は、前記交差点を右折する対向車両であることを特徴とする請求項2に記載の運転支援方法。 The predetermined driving behavior is straight ahead at an intersection.
The driving support method according to claim 2, wherein the other vehicle is an oncoming vehicle that turns right at the intersection.
前記他車両の運転者が眩惑されている状態にある可能性があるか否かの判定は、前記運転者が前記光源によって眩惑されている状態にある可能性があるか否かによって判定することを特徴とする請求項1〜8のいずれか一項に記載の運転支援方法。 The irradiation direction of the light source is detected based on the saturated pixels of the surrounding image obtained by photographing the surroundings of the own vehicle from the own vehicle.
The determination as to whether or not the driver of the other vehicle may be in a dazzled state is determined by whether or not the driver may be in a state of being dazzled by the light source. The driving support method according to any one of claims 1 to 8, wherein the driving support method is characterized.
自車両の周囲の物体を検出するセンサと、
前記センサの検出結果に基づいて前記自車両の周辺の他車両の位置及び向きを検出し、前記他車両の位置及び向きに基づいて、前記他車両の運転者が眩惑されている状態にある可能性があるか否かを判定し、前記運転者が眩惑されている状態にある可能性があると判定した場合には前記基準値を前記運転者が眩惑されている状態にある可能性がないと判定した場合よりも大きな基準値に設定するコントローラと、
を備えることを特徴とする運転支援装置。 A driving support device that provides driving support for the own vehicle based on the result of comparison between either the distance between the own vehicle and another vehicle or the inter-vehicle time and a predetermined reference value.
Sensors that detect objects around your vehicle and
It is possible that the position and orientation of another vehicle around the own vehicle is detected based on the detection result of the sensor, and the driver of the other vehicle is dazzled based on the position and orientation of the other vehicle. If it is determined whether or not there is a possibility and it is determined that the driver may be in a dazzled state, there is no possibility that the driver is in a dazzled state based on the reference value. A controller that sets a larger reference value than when it is determined that
A driving support device characterized by being equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019060612A JP2020160878A (en) | 2019-03-27 | 2019-03-27 | Drive support method and drive support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019060612A JP2020160878A (en) | 2019-03-27 | 2019-03-27 | Drive support method and drive support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020160878A true JP2020160878A (en) | 2020-10-01 |
Family
ID=72639508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019060612A Pending JP2020160878A (en) | 2019-03-27 | 2019-03-27 | Drive support method and drive support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020160878A (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10138838A (en) * | 1996-11-08 | 1998-05-26 | Toyota Motor Corp | Mirror controller |
JP2006277538A (en) * | 2005-03-30 | 2006-10-12 | Equos Research Co Ltd | Inter-vehicle communication system |
JP2007025782A (en) * | 2005-07-12 | 2007-02-01 | Mazda Motor Corp | Traveling support device using inter-vehicle communication |
JP2009143470A (en) * | 2007-12-17 | 2009-07-02 | Yamaha Corp | Anti-dazzle device for vehicle |
JP2012155612A (en) * | 2011-01-27 | 2012-08-16 | Denso Corp | Lane detection apparatus |
WO2014054151A1 (en) * | 2012-10-04 | 2014-04-10 | 三菱電機株式会社 | Vehicle-mounted information processing device |
JP2014125147A (en) * | 2012-12-27 | 2014-07-07 | Daihatsu Motor Co Ltd | Vehicular head-lamp optical axis control device |
WO2016151638A1 (en) * | 2015-03-26 | 2016-09-29 | 三菱電機株式会社 | Driver assistance system |
-
2019
- 2019-03-27 JP JP2019060612A patent/JP2020160878A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10138838A (en) * | 1996-11-08 | 1998-05-26 | Toyota Motor Corp | Mirror controller |
JP2006277538A (en) * | 2005-03-30 | 2006-10-12 | Equos Research Co Ltd | Inter-vehicle communication system |
JP2007025782A (en) * | 2005-07-12 | 2007-02-01 | Mazda Motor Corp | Traveling support device using inter-vehicle communication |
JP2009143470A (en) * | 2007-12-17 | 2009-07-02 | Yamaha Corp | Anti-dazzle device for vehicle |
JP2012155612A (en) * | 2011-01-27 | 2012-08-16 | Denso Corp | Lane detection apparatus |
WO2014054151A1 (en) * | 2012-10-04 | 2014-04-10 | 三菱電機株式会社 | Vehicle-mounted information processing device |
JP2014125147A (en) * | 2012-12-27 | 2014-07-07 | Daihatsu Motor Co Ltd | Vehicular head-lamp optical axis control device |
WO2016151638A1 (en) * | 2015-03-26 | 2016-09-29 | 三菱電機株式会社 | Driver assistance system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111247495B (en) | Pedestrian interaction system for low-speed scene of automatic driving vehicle | |
JP6657925B2 (en) | In-vehicle camera system and image processing device | |
CN108688660B (en) | Operating range determining device | |
US20150153184A1 (en) | System and method for dynamically focusing vehicle sensors | |
JP2021099793A (en) | Intelligent traffic control system and control method for the same | |
JP7251611B2 (en) | Mobile object behavior prediction method, behavior prediction device, and vehicle | |
US20210362733A1 (en) | Electronic device for vehicle and method of operating electronic device for vehicle | |
US11814081B2 (en) | Control system, control method, vehicle, and computer-readable storage medium | |
US11726212B2 (en) | Detector for point cloud fusion | |
US20230147535A1 (en) | Vehicle position estimation device and traveling control device | |
JP2014203235A (en) | Driving control apparatus | |
EP3819668A1 (en) | Information processing device, information processing method, computer program, and moving body device | |
CN115443234B (en) | Vehicle behavior estimation method, vehicle control method, and vehicle behavior estimation device | |
JP2021169235A (en) | Vehicle travel assistance device | |
JP7334795B2 (en) | Vehicle control method and vehicle control device | |
US11932253B2 (en) | Vehicle control method and vehicle control device | |
JP7336861B2 (en) | Behavior prediction method and behavior prediction device | |
JP2020160878A (en) | Drive support method and drive support device | |
JP2022027305A (en) | Risky driving detection device, risky driving detection system, and risky driving detection program | |
CN113614782A (en) | Information processing apparatus, information processing method, and program | |
US20230182769A1 (en) | Drive assist apparatus | |
RU2773761C1 (en) | Behavior prediction method and behavior prediction device for mobile subject and vehicle | |
JP7236279B2 (en) | Driving support method and driving support device | |
JP7458797B2 (en) | Driving support method and driving support device | |
WO2024080191A1 (en) | Control device for autonomous vehicle, program, signal control device, traffic signal device, traffic signal system, signal control program, information notification device, and information notification program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221109 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230314 |