JP2024035511A - Exterior environment recognition apparatus - Google Patents
Exterior environment recognition apparatus Download PDFInfo
- Publication number
- JP2024035511A JP2024035511A JP2022140009A JP2022140009A JP2024035511A JP 2024035511 A JP2024035511 A JP 2024035511A JP 2022140009 A JP2022140009 A JP 2022140009A JP 2022140009 A JP2022140009 A JP 2022140009A JP 2024035511 A JP2024035511 A JP 2024035511A
- Authority
- JP
- Japan
- Prior art keywords
- road
- vehicle
- recognition device
- external world
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 172
- 238000013507 mapping Methods 0.000 claims abstract description 23
- 230000001678 irradiating effect Effects 0.000 claims abstract description 6
- 238000005259 measurement Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 abstract description 10
- 238000000034 method Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 15
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、車両の外界状況を認識する外界認識装置に関する。 The present invention relates to an external world recognition device that recognizes the external world situation of a vehicle.
この種の装置として、ライダから照射するレーザ光の照射角度を、高さ方向と平行する第1軸および水平方向と平行する第2軸を中心にそれぞれ変化させてスキャンを行い、各検出点の位置情報に基づいて車両の外界を検出する装置が知られている(例えば特許文献1参照)。 This type of device scans by changing the irradiation angle of the laser beam emitted from the lidar around a first axis parallel to the height direction and a second axis parallel to the horizontal direction, and detects each detection point. A device is known that detects the outside world of a vehicle based on position information (see, for example, Patent Document 1).
上記装置では、スキャンにより取得される検出点が多く、各検出点に基づいた位置情報を取得するための処理の負担が大きい。 In the above device, there are many detection points acquired by scanning, and the processing load for acquiring position information based on each detection point is heavy.
本発明の一態様である外界認識装置は、自車両の周囲に電磁波を照射して周囲の外界状況を時系列に検出する車載検出器と、車載検出器で検出された情報に基づいて、自車両が走行する道路の路面情報を取得する路面情報取得部と、を備える外界認識装置であって、路面情報取得部は、道路上の異なる位置でそれぞれ、自車両から所定距離離れた道路上の第1領域の、あらかじめ定めた検出対象を示す情報を認識する認識部と、認識部で認識した検出対象を示す情報を、自車両の進行方向および走行速度に基づいてマッピングするマッピング部と、を含む。 An external world recognition device that is one aspect of the present invention includes an on-vehicle detector that irradiates electromagnetic waves around the vehicle to detect the surrounding external world situation in time series, and an on-vehicle detector that detects the surrounding external world situation in time series. An external world recognition device comprising: a road surface information acquisition section that acquires road surface information of a road on which a vehicle travels; a recognition unit that recognizes information indicating a predetermined detection target in the first area; and a mapping unit that maps information indicating the detection target recognized by the recognition unit based on the traveling direction and traveling speed of the host vehicle. include.
本発明によれば、処理負荷を低減しつつ、車両周囲の外界状況を精度よく認識できる。 According to the present invention, it is possible to accurately recognize the external environment surrounding the vehicle while reducing the processing load.
以下に、図面を参照して発明の実施の形態について説明する。
発明の実施の形態に係る外界認識装置は、自動運転機能を有する車両、すなわち自動運転車両に適用することができる。なお、本実施の形態に係る外界認識装置が適用される車両を、他車両と区別して自車両と呼ぶことがある。自車両は、内燃機関(エンジン)を走行駆動源として有するエンジン車両、走行モータを走行駆動源として有する電気自動車、エンジンと走行モータとを走行駆動源として有するハイブリッド車両のいずれであってもよい。自車両は、ドライバによる運転操作が不要な自動運転モードでの走行だけでなく、ドライバの運転操作による手動運転モードでの走行も可能である。
Embodiments of the invention will be described below with reference to the drawings.
The external world recognition device according to the embodiment of the invention can be applied to a vehicle having an automatic driving function, that is, an automatic driving vehicle. Note that the vehicle to which the external world recognition device according to the present embodiment is applied may be referred to as the own vehicle to distinguish it from other vehicles. The host vehicle may be an engine vehicle having an internal combustion engine as a driving source, an electric vehicle having a traveling motor as a driving source, or a hybrid vehicle having an engine and a driving motor as a driving source. The own vehicle can run not only in an automatic driving mode that does not require any driving operations by the driver, but also in a manual driving mode that requires driving operations by the driver.
自動運転車両は、自動運転モードでの走行(以下、自動走行または自律走行と呼ぶ)時、カメラやライダ(LiDAR:Light Detection and Ranging)等の車載検出器の検出データに基づき自車両の周囲の外界状況を認識する。自動運転車両は、その認識結果に基づいて、現時点から所定時間先の走行軌道(目標軌道)を生成し、目標軌道に沿って自車両が走行するように走行用アクチュエータを制御する。 When a self-driving vehicle is running in self-driving mode (hereinafter referred to as automatic driving or autonomous driving), it detects the surroundings of the vehicle based on detection data from in-vehicle detectors such as cameras and lidar (Light Detection and Ranging). Recognize the external situation. The self-driving vehicle generates a travel trajectory (target trajectory) for a predetermined period of time from the current time based on the recognition result, and controls the travel actuator so that the vehicle travels along the target trajectory.
図1Aは、自動運転車両である自車両101が道路RDを走行する様子を示す図である。図1Bは、自車両101に搭載されたライダにより得られた検出データ(計測点)の一例を示す図である。ライダによる計測点は、照射したレーザが物体の表面のある1点で反射して帰ってくる点情報である。具体的な点情報としては、レーザ源から点までの距離、反射して帰ってきたレーザの強度、点に位置する物体の相対速度、などである。また、図1Bに示すような複数の計測点で構成されたデータを、点群データと呼ぶ。図1Bには、図1Aの地点に対応する点群データが示されている。自車両101は、図1Bに示すような点群データに基づいて車両周囲の外界状況、より具体的には車両周囲の道路構造および物体等を認識し、その認識結果に基づいて目標軌道を生成する。
FIG. 1A is a diagram showing how a self-
ところで、車両周囲の外界状況を十分に認識する方法として、ライダ等の車載検出器から照射する電磁波の照射点の数を増やす(換言すると、電磁波の照射点密度を高めて点群データの密度を高くする)ことが考えられる。照射点をターゲット(Target)と呼んでもよい。一方で、照射点の数を増やすと、車載検出器を制御するための処理負荷が増えたり、車載検出器により得られる検出データ(点群データ)の容量が増大して点群データに対する処理負荷が増えたりするおそれがある。特に、図1Bに示すように、道路脇に物体(樹木の他、人や建物等)が多く存在する状況では、点群データの容量がさらに増大する。また、このような問題に対処しようとすると、レーザの数を増やす、などのように、装置の規模を増大させるおそれがある。そのため、これらの点を考慮して、実施の形態では以下のように外界認識装置を構成する。 By the way, one way to fully recognize the external environment surrounding the vehicle is to increase the number of points irradiated with electromagnetic waves emitted from onboard detectors such as lidar (in other words, increase the density of points irradiated with electromagnetic waves and increase the density of point cloud data). It is possible to increase the The irradiation point may also be called a target. On the other hand, increasing the number of irradiation points increases the processing load for controlling the on-vehicle detector, and increases the volume of detection data (point cloud data) obtained by the on-vehicle detector, increasing the processing load for point cloud data. may increase. In particular, as shown in FIG. 1B, in a situation where there are many objects (trees, people, buildings, etc.) on the side of the road, the capacity of the point cloud data further increases. Moreover, if an attempt is made to deal with such a problem, there is a risk that the scale of the apparatus will increase, such as by increasing the number of lasers. Therefore, in consideration of these points, the external world recognition device is configured as follows in the embodiment.
<概要>
実施の形態に係る外界認識装置は、道路RDを走行する自車両101のライダ5から自車両101の進行方向に照射光(電磁波の一種)を間欠的に照射し、道路RD上の異なる位置で離散的に点群データを取得する。ライダ5から照射する照射光の照射範囲は、前回の照射光に基づいてライダ5で取得された点群データと、今回の照射光に基づいてライダ5で取得される点群データとが、道路RDの進行方向に切れ目なくつながるように、進行方向と交差する道路幅方向に長い帯状にする。
より具体的には、自車両101から自車両101の車速(走行速度)に基づく所定距離(後述する奥行距離に対応)離れた道路RD上の位置に、上述した道路幅方向に長い帯状の第1領域を照射範囲として設定するとともに、この第1領域に対して所定の照射点密度を設定する。そして、第1領域以外の他の領域に対する照射点密度を第1領域に対する照射点密度よりも低く設定する、または、他の領域に対する照射を止める等により、ライダ5から照射される照射点の総数を抑制する。つまり、点群データに基づいて認識する物体等の位置(自車両101からの距離)や大きさの認識精度を低下させることなく、ライダ5の照射点の数を低減することが可能になる。
このような外界認識装置について、さらに詳細に説明する。
<Summary>
The external world recognition device according to the embodiment intermittently irradiates irradiation light (a type of electromagnetic wave) from the
More specifically, at a position on the road RD that is a predetermined distance (corresponding to the depth distance described later) from the
Such an external world recognition device will be explained in more detail.
<車両制御装置の構成>
図2は、外界認識装置を含む車両制御装置100の要部構成を示すブロック図である。この車両制御装置100は、コントローラ10と、通信ユニット1と、測位ユニット2と、内部センサ群3と、カメラ4と、ライダ5と、走行用のアクチュエータACとを有する。また、車両制御装置100は、車両制御装置100の一部を構成する外界認識装置50を有する。外界認識装置50は、カメラ4やライダ5等の車載検出器の検出データに基づいて、車両周囲の外界状況を認識する。
<Configuration of vehicle control device>
FIG. 2 is a block diagram showing the main configuration of
通信ユニット1は、インターネット網や携帯電話網等に代表される無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報、走行履歴情報および交通情報等を定期的に、あるいは任意のタイミングでサーバから取得する。ネットワークには、公衆無線通信網だけでなく、所定の管理地域毎に設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。取得した地図情報は、記憶部12に出力され、地図情報が更新される。測位ユニット(GNSSユニット)2は、測位衛星から送信された測位用の信号を受信する測位センサを有する。測位衛星は、GPS衛星や準天頂衛星等の人工衛星である。測位ユニット2は、測位センサが受信した測位情報を利用して、自車両101の現在位置(緯度、経度、高度)を測定する。
The communication unit 1 communicates with various servers (not shown) via networks including wireless communication networks such as the Internet and mobile phone networks, and periodically or arbitrarily transmits map information, driving history information, traffic information, etc. Obtained from the server at the timing of Networks include not only public wireless communication networks but also closed communication networks established for each predetermined management area, such as wireless LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), and the like. The acquired map information is output to the
内部センサ群3は、自車両101の走行状態を検出する複数のセンサ(内部センサ)の総称である。例えば内部センサ群3には、自車両101の車速を検出する車速センサ、自車両101の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、走行駆動源の回転数を検出する回転数センサ、自車両101の重心の鉛直軸回りの回転角速度を検出するヨーレートセンサ等が含まれる。手動運転モードでのドライバの運転操作、例えばアクセルペダルの操作、ブレーキペダルの操作、ステアリングホイールの操作等を検出するセンサも内部センサ群3に含まれる。
The
カメラ4は、CCDやCMOS等の撮像素子を有して自車両101の周辺(前方、後方および側方)を撮像する。ライダ5は、自車両101の全方位の照射光に対する散乱光を受信して自車両101から周辺の物体までの距離、物体の位置、形状等を測定する。
The
アクチュエータACは、自車両101の走行を制御するための走行用アクチュエータである。走行駆動源がエンジンである場合、アクチュエータACには、エンジンのスロットルバルブの開度(スロットル開度)を調整するスロットル用アクチュエータが含まれる。走行駆動源が走行モータである場合、走行モータがアクチュエータACに含まれる。自車両101の制動装置を作動するブレーキ用アクチュエータと転舵装置を駆動する転舵用アクチュエータもアクチュエータACに含まれる。
Actuator AC is a travel actuator for controlling travel of
コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU(マイクロプロセッサ)等の演算部11と、ROM、RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。なお、エンジン制御用ECU、走行モータ制御用ECU、制動装置用ECU等、機能の異なる複数のECUを別々に設けることができるが、図2では、便宜上、これらECUの集合としてコントローラ10が示される。
The
記憶部12には、高精度の詳細な地図情報(高精度地図情報と呼ぶ)が記憶される。高精度地図情報には、道路の位置情報、道路形状(曲率等)の情報、道路の勾配の情報、交差点や分岐点の位置情報、車線(走行レーン)数の情報、車線の幅員および車線毎の位置情報(車線の中央位置や車線位置の境界線の情報)、地図上の目印としてのランドマーク(信号機、標識、建物等)の位置情報、路面の凹凸等の路面プロファイルの情報が含まれる。また、記憶部12には、後述する二次元マップ情報の他、各種制御のプログラム、プログラムで用いられる閾値等の情報、ライダ5等の車載検出器に対する設定情報(後述する照射点情報等)も記憶される。
The
演算部11は、機能的構成として、認識部111と、画定部112と、設定部113と、マッピング部114と、走行制御部115とを有する。なお、図2に示すように、認識部111、画定部112、設定部113、およびマッピング部114は外界認識装置50に含まれる。外界認識装置50は、上述したように、カメラ4やライダ5等の車載検出器の検出データに基づいて車両周囲の外界状況を認識する。外界認識装置50に含まれる認識部111、画定部112、設定部113、およびマッピング部114の詳細については後述する。
The
走行制御部115は、自動運転モードにおいて、外界認識装置50で認識された車両周囲の外界状況に基づいて目標軌道を生成し、その目標軌道に沿って自車両101が走行するようにアクチュエータACを制御する。なお、手動運転モードでは、走行制御部115は、内部センサ群3により取得されたドライバからの走行指令(ステアリング操作等)に応じてアクチュエータACを制御する。
In the automatic driving mode, the driving
<ライダによる検出領域>
外界認識装置50は、ライダ5に対して検出領域を設定する。図3Aおよび図3Bは、進行方向の道路RD上の立体物等を検出する場合のライダ5の検出領域を説明する図である。実施の形態では、路面の凹凸、段差、うねり等を含む路面形状と、道路RD上に位置する立体物(道路RDに関連する設備等(信号機、標識、溝、壁、柵、ガードレール等))と、道路RD上の物体(他車両および路面の障害物を含む)と、路面に設けられた区画線と、を含めて立体物等と呼ぶ。区画線は、白線(黄色等の色違いの線を含む)、縁石線、道路鋲等を含むものとし、レーンマーク(Lane mark)と呼んでもよい。また、立体物等のうちあらかじめ検出対象として設定されたものを検出対象と呼ぶ。ライダ5は、照射光に対する散乱光を受信するので、照射光の照射範囲として設定された第1領域が検出領域となる。つまり、実施の形態の第1領域は、照射範囲であり検出領域である。
図3Aに示す領域RSは、自車両101が図1Aの道路RDを走行中に、後述する認識部111により認識された道路セグメントである。実施の形態では、道路RDの境界線RL、RBで挟まれた道路RDに対応する領域を道路セグメントと呼ぶ。
<Detection area by lidar>
The external
The region RS shown in FIG. 3A is a road segment recognized by the recognition unit 111, which will be described later, while the
図3Aに示す検出領域BXは、自車両101から所定の奥行距離離れた道路RD上の地点に照射範囲として設定される第1領域に対応する。図3Aの矢印線の長さは、奥行距離Lを表す。矢印線で示されるように、実施の形態では、ライダ5の設置位置から検出領域BXの下辺中央までの距離を奥行距離と呼ぶことにする。奥行距離は、自車両101の車速に基づいて所定の長さに設定する。
検出領域BXは、自動運転モードでの走行時に注視されるべき領域を含むように設定される。一例として、検出領域BXの道路幅方向の中心位置が、道路セグメントの道路幅方向の中心位置に重なるように設定してもよい。また、検出領域BXの横幅(道路幅方向の長さ)は、奥行距離Lにおける道路幅よりも長くなるように設定する。さらにまた、検出領域BXの奥行幅(検出領域BXを構成する帯状領域の上下方向の幅)は、自車両101の車速に基づいて所定の長さに設定する。
The detection area BX shown in FIG. 3A corresponds to a first area set as an irradiation range at a point on the road RD that is a predetermined depth distance away from the
The detection area BX is set to include an area that should be watched while driving in automatic driving mode. As an example, the center position of the detection area BX in the road width direction may be set to overlap the center position of the road segment in the road width direction. Further, the width (length in the road width direction) of the detection area BX is set to be longer than the road width at the depth L. Furthermore, the depth width of the detection area BX (width in the vertical direction of the band-shaped area forming the detection area BX) is set to a predetermined length based on the vehicle speed of the
図3Bは、自車両101から異なる奥行距離の道路RD上に設定される検出領域BX、検出領域BX1、および検出領域BX2を模式的に示す図である。検出領域BX、BX1、BX2と三つの領域を例示したのは、その可変性を説明するためである。また、図4Aは、図3Bの視点で見た検出領域BX、検出領域BX1および検出領域BX2を抜粋した図である。検出領域BXは、自車両101からの奥行距離が、例えばL=180mの地点の道路RD上に設定された第1領域に対応する。検出領域BX1は、自車両101からの奥行距離が、例えばL1=100mの地点の道路RD上に設定された第1領域に対応する。検出領域BX2は、自車両101からの奥行距離が、例えばL2=10mの道路RD上に地点に設定された第1領域に対応する。
FIG. 3B is a diagram schematically showing a detection area BX, a detection area BX1, and a detection area BX2 set on the road RD at different depth distances from the
実施の形態では、外界認識装置50が第1領域を自車両101の走行速度に基づいて設定するものとする。自車両101の走行速度が速くなるほど制動距離は長くなるため、衝突を回避するためにはより奥行距離を長くして遠くの物体を認識する必要がある。そのため、自車両101の走行速度に応じて、検出領域BXの位置を変動する機能を有する。例えば、自車両101が停止している場合は、奥行距離がL2=10mの地点の道路RD上に第1領域としての検出領域BX2を設定する。また、自車両101が車速100km/hで走行している場合は、奥行距離がL1=100mの地点の道路RD上に第1領域としての検出領域BX1を設定する。さらに、自車両101が車速180km/hで走行している場合は、奥行距離がL=180mの地点の道路RD上に第1領域としての検出領域BXを設定する。
In the embodiment, it is assumed that the external
図3Bおよび図4Aに示すように、ライダ5の視点から見ると、自車両101からの奥行距離が遠い検出領域BXほど、その大きさが小さくなる。ただし、奥行距離が長くなるに伴って道路幅が広くなるような状況においては、奥行距離が長くなるに伴って第1領域が大きくなることがある。
As shown in FIGS. 3B and 4A, when viewed from the viewpoint of the
<検出領域の広さ>
図4Bは、図4Aの各検出領域を二次元マップ上に示した図である。図4Bにおいて、ライダ5の視点から見てより小さな検出領域ほど、二次元マップ上で表すと面積がより広い。この理由は、自車両101からの奥行距離Lが遠い検出領域BXほど、奥行幅Dを広く設定するからである。より詳しく説明すると、実施の形態では自車両101の車速が速いほど奥行距離が遠い位置に第1領域としての検出領域BXを設定する点は上述した通りである。車速が速いとライダ5の測定インターバルにおける自車両101の移動距離が長くなることから、点群データに空白区間が生じないように(換言すると、進行方向に切れ目が生じないように)、第1領域としての検出領域BXの奥行幅を広げることによって一測定当たりの点群データの取得区間を広げている。
<Width of detection area>
FIG. 4B is a diagram showing each detection area in FIG. 4A on a two-dimensional map. In FIG. 4B, the smaller the detection area seen from the viewpoint of the
<照射光の投光角度>
図5Aは、ライダ5の投光角度θ0(水平方向に対する照射光の角度)を説明する模式図である。外界認識装置50は、投光角度θ0を変化させることにより、照射光の照射方向を上下に変化させて、照射光が照射される道路RD上の奥行距離を調整する。
図5Aにおいて、奥行距離L2が10mの地点の道路RD上に照射光が照射される場合は入射角θ2で路面が照射される。また、奥行距離L1が100mの地点の道路RD上に照射光が照射される場合は入射角θ1で路面が照射される。さらに、奥行距離Lが180mの地点の道路RD上に照射光が照射される場合は入射角θで路面が照射される。
<Projection angle of irradiation light>
FIG. 5A is a schematic diagram illustrating the light projection angle θ 0 (angle of irradiated light with respect to the horizontal direction) of the
In FIG. 5A, when the irradiation light is irradiated onto the road RD at a point where the depth distance L2 is 10 m, the road surface is irradiated at an incident angle θ 2 . Furthermore, when the irradiation light is irradiated onto the road RD at a point where the depth distance L1 is 100 m, the road surface is irradiated at an incident angle θ 1 . Furthermore, when the irradiation light is irradiated onto the road RD at a point where the depth distance L is 180 m, the road surface is irradiated at an incident angle θ.
一般に、進行方向の道路勾配がゼロの場合は、投光角度θ0と、路面における照射光の入射角とが一致する。このときの奥行距離Lは、次式(1)により算出される。
L=1/tanθ0×H …(1)
ただし、符号Hは路面の高さを表す。
Generally, when the road gradient in the traveling direction is zero, the projection angle θ 0 and the incident angle of the irradiated light on the road surface match. The depth distance L at this time is calculated by the following equation (1).
L=1/tanθ 0 ×H…(1)
However, the symbol H represents the height of the road surface.
外界認識装置50は、奥行距離を長くしたい場合に投光角度θ0を小さくし、奥行距離を短くしたい場合に投光角度θ0を大きくする。例えば、奥行距離が70mの地点に照射光が照射されている状態から奥行距離を100mに変更する場合、外界認識装置50は、投光角度θ0を現在よりも小さくして奥行距離が100mの地点に照射光が照射されるようにする。また、例えば道路RDが下り勾配等の場合で照射光が道路RD上に照射されていない場合は、外界認識装置50は、投光角度θ0を現在よりも大きくして照射光が道路RD上に照射されるようにする。
The external
<照射光の照射点数>
外界認識装置50は、上記のように設定した検出領域BX1内に、ライダ5の照射光を照射する照射点を算出する。より具体的には、外界認識装置50は、あらかじめ指定された検出対象の最小サイズ(例えば縦、横ともに15cm)と、奥行距離(例えばL1(100m))と、に基づいて算出される角度分解能に応じて照射点を算出する。この場合の角度分解能は、後述する格子点の上下方向(垂直方向と呼んでもよい)および左右方向(道路幅方向と呼んでもよい)にそれぞれ0.05度が必要である。なお、15cmよりも小さなサイズの検出対象を検出する場合、および、L1(100m)よりも長い奥行距離に検出領域を設定する場合には、検出領域内の照射点数を増やして角度分解能を上げてもよい。
外界認識装置50は、例えば、検出領域BX1内に格子状に配列した照射点を算出し、格子点の上下方向および左右方向の間隔を角度分解能に対応させる。上下方向の角度分解能を上げる場合は、検出領域BX1を角度分解能に基づく数で上下方向に分割し、上下方向の格子間隔を狭くして照射点の数を増やす。反対に、上下方向の角度分解能を下げる場合は、検出領域BX1を角度分解能に基づく数で上下方向に分割し、上下方向の格子間隔を広くして照射点の数を減らす。左右方向についても同様とする。
外界認識装置50は、角度分解能に応じて算出した照射点の位置を示す情報(以下、照射点情報と呼ぶ)を生成し、自車両101の現在の走行位置を示す位置情報に対応付けて記憶部12に記憶する。
<Number of irradiation points of irradiation light>
The external
For example, the external
The external
外界認識装置50は、自車両101が自動運転モードで走行しているとき、自車両101の現在の走行位置に対応する照射点情報を記憶部12から読み出して、その照射点情報に従ってライダ5の照射点を検出領域内に設定する。これにより、ライダ5からの照射光は、設定された照射点に向けて照射される。
なお、ライダ5の照射光は、ラスタ走査方式で照射されてもよいし、検出領域内に格子状に配列した照射点にのみ照射光が照射されるように断続的に照射光が照射されてもよいし、その他の態様で照射されてもよいものとする。
When the
Note that the irradiation light from the
<外界認識装置の構成>
外界認識装置50の詳細について説明する。
上述したように、外界認識装置50は、認識部111、画定部112、設定部113、およびマッピング部114と、ライダ5を含む。
<認識部>
認識部111は、カメラ4で撮像された画像情報またはライダ5で測定された検出データに基づいて、自車両101が走行する道路RDの進行方向の道路構造と、進行方向の道路RD上の検出対象とを認識する。道路構造は、例えば直線路、カーブ路、分岐路、トンネルの出入口等をいう。
また、認識部111は、例えば平坦な路面を示すデータに対して輝度フィルタリング処理等を施すことによって区画線を検知する。この場合において、認識部111は、輝度が所定の閾値を超えている路面の高さが、超えていない路面の高さと略同じである場合に、区画線であると判定する。
<Configuration of external world recognition device>
The details of the external
As described above, the external
<Recognition part>
The recognition unit 111 determines the road structure in the traveling direction of the road RD on which the
Further, the recognition unit 111 detects a marking line by performing a brightness filtering process on data indicating a flat road surface, for example. In this case, the recognition unit 111 determines that the road surface is a partition line when the height of the road surface whose brightness exceeds the predetermined threshold is substantially the same as the height of the road surface whose brightness does not exceed the predetermined threshold.
後述する画定部112で第2領域および第3領域が画定され、後述する設定部113からライダ5へ、第1領域としての検出領域BX1に加えて第2領域としての検出領域BY1および第3領域としての検出領域BZ1が設定される場合、ライダ5から検出領域BX1に加えて検出領域BY1および検出領域BZ1にも照射光が照射される。
認識部111は、ライダ5により検出領域BX1において検出される時系列の検出データ(計測点)を用いて3次元の点群データを生成するとともに、ライダ5により検出領域BY1および検出領域BZ1においてそれぞれ検出される時系列の検出データ(計測点)を用いて3次元の点群データを生成する。
なお、ライダ5から検出領域BX1のみに照射光を照射して検出データを取得する場合には、検出領域BY1および検出領域BZ1おける3次元の点群データの生成は不要である。
A second area and a third area are defined by a defining unit 112 (described later), and from a setting unit 113 (described later) to the
The recognition unit 111 generates three-dimensional point cloud data using time-series detection data (measurement points) detected in the detection area BX1 by the
Note that when acquiring detection data by irradiating irradiation light from the
<道路構造の認識>
認識部111による道路構造の認識について、さらに詳しく説明する。認識部111は、検出領域BX1に基づいて生成した点群データに含まれる、進行方向である前方の道路RDの縁石、壁、溝、ガードレールまたは区画線を道路RDの境界線RL、RBとして認識する。その上で、境界線RL、RBで示される進行方向の道路構造を認識する。上述したように、区画線は白線(色違いの線を含む)、縁石線、道路鋲等を含み、これら区画線による標示によって道路RDの走行レーンが規定される。実施の形態では、上記標示によって規定される道路RDの境界線RL、RBを、区画線と呼ぶ。
<Recognition of road structure>
Recognition of the road structure by the recognition unit 111 will be explained in more detail. The recognition unit 111 recognizes curbs, walls, grooves, guardrails, or partition lines of the road RD ahead in the traveling direction, which are included in the point cloud data generated based on the detection area BX1, as the boundary lines RL and RB of the road RD. do. Then, the road structure in the direction of travel indicated by boundary lines RL and RB is recognized. As described above, the marking lines include white lines (including lines of different colors), curb lines, road studs, etc., and the markings by these marking lines define the driving lanes of the road RD. In the embodiment, the boundary lines RL and RB of the road RD defined by the above markings are referred to as partition lines.
認識部111は、境界線RL、RBで挟まれた領域について、道路RDに対応する領域(上記道路セグメント)として認識する。なお、道路セグメントの認識方法はこれに限らず、他の方法により認識してもよい。
また、認識部111は、検出領域BX1に基づいて生成した点群データに含まれる、進行方向である前方の道路セグメントにおける道路RDの立体物等のうち、例えば15cmを超える凹凸、段差、うねり等の路面形状と、例えば縦横15cmを超える物体とを検出対象として認識する。
The recognition unit 111 recognizes the area between the boundary lines RL and RB as an area corresponding to the road RD (the above-mentioned road segment). Note that the method for recognizing road segments is not limited to this, and may be recognized using other methods.
In addition, the recognition unit 111 recognizes irregularities, steps, undulations, etc. exceeding 15 cm, for example, among the three-dimensional objects of the road RD in the road segment ahead in the traveling direction, which are included in the point cloud data generated based on the detection area BX1. The road surface shape and objects larger than 15 cm in length and width, for example, are recognized as detection targets.
<検出対象の認識>
認識部111による検出対象の認識について、さらに詳しく説明する。後述する画定部112で第2領域および第3領域が画定され、検出領域BX1に加えて、第2領域に対応する検出領域BY1および第3領域に対応する検出領域BZ1にもライダ5から照射光が照射される場合、認識部111は、検出領域BY1および検出領域BZ1に基づいて生成した点群データに含まれる、進行方向である前方の道路セグメントにおける道路RDの立体物等のうち、例えば100cm程度の路面形状と、例えば縦横100cm程度の物体とを検出対象として認識する。
なお、ライダ5により検出領域BX1のみに照射光を照射して検出データを取得する場合には、認識部111は、検出領域BX1に基づいて生成した点群データに基づいて、進行方向前方の道路セグメントにおける道路RDの路面形状と検出対象とを認識してよい。
<Recognition of detection target>
The recognition of the detection target by the recognition unit 111 will be explained in more detail. A second region and a third region are defined by a defining
Note that when the
<画定部>
画定部112は、ライダ5が照射光を照射する照射範囲として、上述した第1領域を画定する。より具体的には、画定部112は、図4Bに例示するように自車両101から進行方向に所定距離(例えば奥行距離L1)離れた道路RD上の位置に所定の奥行幅D1を有する帯状の第1領域を画定する。
上述したように、画定部112は、自車両101の現在位置から第1領域までの奥行距離L1と、第1領域の奥行幅(第1領域を構成する帯状領域の幅)D1とを、内部センサ群3の車速センサにより検出された自車両101の車速に基づいて算出する。自車両101の現在位置から第1領域までの奥行距離L2と第1領域の奥行幅D2、および、自車両101の現在位置から第1領域までの奥行距離Lと第1領域の奥行幅Dについても同様である。
このように構成したので、道路RD上を移動する自車両101からライダ5が第1領域に対応する検出領域BX1へ照射光を間欠的に照射した場合に、前回の照射光に基づいてライダ5で検出された点群データと、今回の照射光に基づいてライダ5で検出される点群データとが、進行方向に切れ目なくつながるように第1領域を画定することが可能になる。これにより、進行方向に切れ目のないライダ5の検出データを取得することが可能になる。
<Demarcation section>
The defining
As described above, the
With this configuration, when the
画定部112は、第1領域(検出領域BX1に対応)を構成する帯状領域の道路幅方向の長さW1を、認識部111で認識した道路構造に基づいて算出する。画定部112は、奥行距離L1の地点における道路RDの道路幅よりも十分に長くするように、長さW1を算出する。奥行距離L2の地点における長さW2、および、奥行距離Lの地点における長さWについても同様である。
このように構成することにより、ライダ5の検出データに道路RDの左右端(境界線RL、RB)が含まれるようになる。
The
With this configuration, the detection data of the
また、画定部112は、図5Bに例示するように、検出領域BX1に対応する第1領域よりも自車両101に近い(換言すると、自車両101からの距離が奥行距離L1よりも短い)道路RD上の第2領域と、第1領域よりも自車両101から遠い(換言すると、自車両101からの距離が、奥行距離L1+奥行幅D1よりも長い)道路RD上の第3領域とを画定してもよい。
Further, as illustrated in FIG. 5B, the
<設定部>
設定部113は、画定部112で画定された第1領域に基づいて、ライダ5に対して第1領域に対応する検出領域BX1を設定する。上述したように、実施の形態では、検出領域BX1が照射光の照射範囲に対応する。
また、設定部113は、画定部112で第2領域および第3領域が画定された場合には、第2領域および第3領域に基づいて、ライダ5に対して第2領域に対応する検出領域BY1および第3領域に対応する検出領域BZ1をそれぞれ設定する。実施の形態では、検出領域BY1およびBZ1も照射光の照射範囲に対応する。
<Settings section>
Based on the first area defined by the defining
Further, when the second area and the third area are defined by the defining
<異なる角度分解能>
設定部113は、ライダ5に対して必要とされる測定の角度分解能に基づいて、上述した第1領域に対応する検出領域BX1内の照射点数(換言すると、照射点密度)を算出し設定する。上述したように、検出領域BX1内に格子状に配列した照射点を算出し、格子点の上下方向および左右方向の間隔を角度分解能に対応させる。
また、設定部113は、ライダ5に対して第2領域に対応する検出領域BY1および第3領域に対応する検出領域BZ1をそれぞれ設定した場合には、検出領域BX1に対しては第1分解能用の照射点数を、検出領域BY1および検出領域BZ1に対しては第1分解能よりも低密度の第2分解能用の照射点数を、それぞれ算出し設定する。第1分解能は、例えば、奥行距離L1が100mの地点の道路RD上の15cmを超える立体物等を検出するのに必要な照射点数に対応する。第2分解能は、例えば、奥行距離L1が100mの地点の道路RD上の100cmを超える立体物等を検出するのに必要な照射点数に対応する。
<Different angular resolution>
The
Furthermore, when setting the detection area BY1 corresponding to the second area and the detection area BZ1 corresponding to the third area for the
<マッピング部>
マッピング部114は、ライダ5でリアルタイムに測定された時系列の点群データに基づいて検出した検出対象の位置(区画線の位置を含む)を示すデータを、例えば図4Bと同様の二次元マップ上にマッピング(mapping)して一続きとなる位置データを生成する。
より具体的には、マッピング部114は、記憶部12に記憶されている二次元マップ上の全ての立体物等(区画線を除く)の位置情報を取得し、自車両101の移動速度と移動方向(例えば方位角)から上記立体物等の相対位置を自車両101の位置を中心に座標変換して算出する。マッピング部114は、後述する本測定(ステップS310)により点群データがライダ5で取得される毎に、取得された点群データに基づく立体物等の相対位置を自車両101の位置を中心に座標変換して二次元マップ上に記録する。
また、マッピング部114は、記憶部12に記憶されている二次元マップ上の全ての区画線の位置情報を取得し、自車両101の移動速度と移動方向から上記区画線の相対位置を自車両101の位置を中心に座標変換して算出する。マッピング部114は、後述する本測定(ステップS310)により点群データが取得される毎に、取得された点群データに基づく区画線の相対位置を自車両101の位置を中心に座標変換して二次元マップ上に記録する。
<Mapping section>
The
More specifically, the
Furthermore, the
<フローチャートの説明>
図6は、あらかじめ定められたプログラムに従い図2のコントローラ10の演算部11が実行する処理の一例を示すフローチャートである。図6のフローチャートに示す処理は、例えば、自車両101が自動運転モードで走行中に所定周期毎に繰り返される。
<Explanation of flowchart>
FIG. 6 is a flowchart showing an example of a process executed by the
まず、ステップS10において、演算部11は、ライダ5による照射光の垂直方向の照射範囲を設定する。より具体的には、道路RD上の所定の奥行距離L1(例えば100m)の地点に、道路幅方向に長い帯状の照射光が照射されるように、投光角度θ0を変更することによって照射光の照射範囲を垂直方向に調整し、ステップS20へ進む。
ステップS10により照射光の照射範囲を垂直方向に調整するので、道路RDの路面の高さHや勾配によって照射光が照射される奥行距離が変化する場合でも、後述するステップS30の本測定の前に照射光の照射範囲を垂直方向に修正しておくことが可能になる。ステップS10の処理の詳細については図7を参照して後述する。
First, in step S10, the
Since the irradiation range of the irradiation light is adjusted in the vertical direction in step S10, even if the depth distance to which the irradiation light is irradiated changes depending on the height H and slope of the road surface of the road RD, the irradiation range of the irradiation light is adjusted in the vertical direction. It becomes possible to correct the irradiation range of the irradiation light in the vertical direction. Details of the process in step S10 will be described later with reference to FIG.
ステップS20において、演算部11は、ライダ5による照射光の水平方向(道路幅方向)の照射範囲を設定する。より具体的には、帯状の照射範囲の道路幅方向の長さW1を、道路RD上の所定の奥行距離L1(例えば100m)の地点の道路幅よりも長くして照射光が左右の道路端に照射されるように調整し、ステップS30へ進む。
ステップS20により照射光の照射範囲を道路幅方向に調整するので、道路RDのカーブによって照射光の照射範囲から道路RDの左右端(境界線RL、RB)が外れる場合でも、後述するステップS30の本測定の前に照射光の照射範囲を道路幅方向に修正しておくことが可能になる。ステップS20の処理の詳細については図8を参照して後述する。
In step S20, the
Since the irradiation range of the irradiation light is adjusted in the road width direction in step S20, even if the left and right ends (boundary lines RL, RB) of the road RD deviate from the irradiation range of the irradiation light due to the curve of the road RD, the irradiation range of the irradiation light is adjusted in the road width direction. It becomes possible to correct the irradiation range of the irradiation light in the road width direction before the actual measurement. Details of the process in step S20 will be described later with reference to FIG.
ステップS30において、演算部11は、ライダ5で取得される点群データに基づいて、路面の凹凸等を示す路面情報を測定する。より具体的には、あらかじめ定めた検出対象としての所定の立体物等を検出し、ステップS40へ進む。ステップS30の処理の詳細については図9を参照して後述する。
In step S30, the
ステップS40において、演算部11は、ステップS30で測定した点群データに基づく立体物等の相対位置を二次元マップ上にマッピングすることにより、二次元状に一続きとなる位置データを生成してステップS50へ進む。
より具体的には、後述する本測定(ステップS310)により点群データがライダ5で取得される毎に、演算部11のマッピング部114が、取得された点群データに基づく立体物等の相対位置を自車両101の位置を中心に座標変換して二次元マップ上に記録する。
In step S40, the
More specifically, each time point cloud data is acquired by the
ステップS50において、演算部11は、処理を終了するか否かを判定する。演算部11は、自車両101が自動運転モードでの走行を継続中の場合は、ステップS50を否定判定してステップS10へ戻り、上述した処理を繰り返す。ステップS10へ戻ることにより、自車両101の走行中に点群データに基づく立体物等の測定が周期的に繰り返し行われることとなる。一方、演算部11は、自車両101が自動運転モードでの走行を終了した場合は、ステップS50を肯定判定して図6による処理を終了する。
In step S50, the
図7は、演算部11が実行するステップS10(図6)の処理の詳細を説明するフローチャートである。
ステップS110において、演算部11は、ライダ5により検出された検出データを用いて、3次元の点群データを取得してステップS120へ進む。ステップS110で点群データを取得するために行うライダ5の測定は、第1予備測定と呼んでもよい。第1予備測定は、ライダ5の照射光が奥行距離L1(例えば100m)の地点の道路RD上の検出領域BX1(第1領域に対応)を照射しているか否かを判定するためのものである。
FIG. 7 is a flowchart illustrating details of the process of step S10 (FIG. 6) executed by the
In step S110, the
ステップS120において、演算部11は、分離処理を行ってステップS130へ進む。より具体的には、公知の手法を用いる等により、ステップS110で生成された点群データから道路RD上の立体物等のデータを検出して分離し、平坦な路面を示す点群データを得る。立体物等には、道路RDの左右端に設けられた、例えば縁石、壁、溝、ガードレール等の他、走行中の二輪車等の他車両が含まれている。
In step S120, the
ステップS130において、演算部11は、ステップS120で得た点群データに路面データがあるか否かを判定する。一例として、演算部11は点群データから、高さデータのヒストグラムを計算し、ピークトップを持つ山の全点数が所定の閾値以上の場合に路面データがあると判定する。また、演算部11は、ピークトップを持つ山の位置に基づいて路面の高さHを取得する。路面データの有無の判定および路面の高さHの取得は、他の手法を用いてもよい。
演算部11は、路面データがある(換言すると、道路幅方向にノイズレベルよりも高い値の平坦なデータが存在する)場合に、ステップS130を肯定判定してステップS140へ進む。演算部11は、路面データがない(換言すると、ノイズレベルのデータのみが存在する)場合に、ステップS130を否定判定してステップS170へ進む。
In step S130, the
When there is road surface data (in other words, there is flat data with a value higher than the noise level in the road width direction), the
ステップS170へ進む場合は、上述した下り勾配等により照射光が道路RD上に照射されていない場合である。ステップS170において、演算部11は、ライダ5へ投光角度θ0を現在よりも大きくする指示を送り、照射光が道路RD上に照射されるようにしてステップS110へ戻り、上述した処理を繰り返す。
The case where the process proceeds to step S170 is when the irradiation light is not irradiated onto the road RD due to the above-mentioned downward slope or the like. In step S170, the
ステップS140へ進む場合は、照射光が道路RD上に照射されたことによりライダ5で散乱光が受信されている場合である。ステップS140において、演算部11は、ステップS120で得た点群データに基づいて、上述したように路面の高さHを算出してステップS150へ進む。
If the process proceeds to step S140, it is a case where the
ステップS150において、演算部11は、ステップS140で算出した路面の高さHと、ライダ5に設定されている投光角度θ0とを上式(1)に代入して奥行距離を算出してステップS160へ進む。
In step S150, the
ステップS160において、演算部11は、ライダ5による照射光の照射範囲を垂直方向(奥行方向と呼んでもよい)に調整して図7による処理を終了する。より具体的には、ライダ5に対して次回照射用に設定する照射範囲について、投光角度θ0を変化させることにより、奥行距離L1(例えば100m)の地点の検出領域BX1(第1領域に対応)に照射光が照射されるようにする。
In step S160, the
図8は、演算部11が実行するステップS20(図6)の処理の詳細を説明するフローチャートである。
ステップS210において、演算部11は、ライダ5により検出された検出データを用いて、3次元の点群データを取得してステップS220へ進む。ステップS210で点群データを取得するために行うライダ5の測定は、第2予備測定と呼んでもよい。第2予備測定は、ライダ5の照射範囲に、奥行距離L1(例えば100m)の地点の道路RD上の道路端が含まれているか否かを判定するためのものである。
FIG. 8 is a flowchart illustrating details of the process of step S20 (FIG. 6) executed by the
In step S210, the
ステップS220において、演算部11は、分離処理を行ってステップS230へ進む。より具体的には、公知の手法を用いる等により、ステップS210で生成された点群データから道路RD上の立体物等のデータを検出して路面データから分離することにより、立体物等を示す点群データを得る。立体物等には、上述した縁石、壁、溝、ガードレール等の他、走行中の二輪車等の他車両が含まれている。
In step S220, the
ステップS230において、演算部11は、分離された点群データに立体物等を示すデータがあるか否かを判定する。演算部11は、立体物等を示すデータがある場合にステップS230を肯定判定してステップS240へ進む。演算部11は、立体物等を示すデータがない(換言すると、進行方向と交差する道路幅方向に平坦な路面データのみが存在する)場合に、ステップS230を否定判定してステップS250へ進む。
In step S230, the
ステップS240において、演算部11は、立体物等を示す点群データに基づいて道路端を示すデータを抽出してステップS250へ進む。一例として、自車両101の進行方向と略平行な、縁石、壁、溝、ガードレール等を示すデータを抽出する一方で、進行方向と交差する道路幅方向の立体物等を示すデータについては抽出しない。
In step S240, the
ステップS250において、演算部11は、ライダ5による照射光の照射範囲を水平方向(道路幅方向)に調整して図8による処理を終了する。具体的には、ライダ5に対して次回照射用に設定する照射範囲について、検出領域BX1(第1領域に対応)の道路幅方向の長さW1を、奥行距離L1の地点における道路RDの道路幅よりも長くするように設定することにより、奥行距離L1の地点の道路RDの左右端(境界線RL、RB)が次回の照射範囲に含まれるようにする。
例えば、ステップS240で左右端の一方を示すデータが抽出されていない場合、現在設定されている検出領域BX1(第1領域に対応)の道路幅方向の両端位置および長さW1に基づき、次回照射用の検出領域BX1の道路幅方向の両端のうち上記データが抽出されていない方の端位置を、所定量拡大するように設定する。
In step S250, the
For example, if data indicating one of the left and right ends is not extracted in step S240, the next irradiation will be performed based on the positions of both ends in the road width direction and the length W1 of the currently set detection area BX1 (corresponding to the first area). The position of the end in the road width direction of the detection area BX1 for which the above-mentioned data is not extracted is set to be enlarged by a predetermined amount.
また、立体物等を示すデータが存在せずステップS230を否定判定した場合(例えば、進行方向と交差する道路幅方向に平坦な路面データのみが存在し、道路RDの左右端を示すデータが存在しない)場合、演算部11はステップS250において、現在設定されている検出領域BX1(第1領域に対応)の道路幅方向の両端位置および長さW1に基づき、次回照射用の検出領域BX1の長さW1を、現在設定されている検出領域BX1の両端位置から左右両側へそれぞれ所定の倍率で拡大するように設定する。
Further, if there is no data indicating a three-dimensional object, etc. and a negative determination is made in step S230 (for example, only flat road surface data exists in the road width direction intersecting the direction of travel, and data indicating the left and right ends of the road RD exists). If not, in step S250, the
なお、ステップS250において設定する検出領域BX1(第1領域に対応)の道路幅方向の長さW1は、時系列連続性を担保するために、状態空間モデル、カルマンフィルタ等のフィルタリング処理を行ってもよい。検出領域BX1の道路幅方向の位置(左端、右端の位置)は、測位ユニット2で測位した位置情報と、記憶部12に記憶されている高精度地図情報とに基づいて設定してもよい。
Note that the length W1 in the road width direction of the detection area BX1 (corresponding to the first area) set in step S250 may be determined even if filtering processing such as a state space model or a Kalman filter is performed to ensure time series continuity. good. The position of the detection area BX1 in the road width direction (left end, right end position) may be set based on position information measured by the
図9は、演算部11が実行するステップS30(図6)の処理の詳細を説明するフローチャートである。
ステップS310において、演算部11は、ライダ5により検出された検出データを用いて、3次元の点群データを取得してステップS320へ進む。ステップS310で点群データを取得するために行うライダ5の測定は、本測定と呼んでもよい。本測定は、あらかじめ定めた検出対象としての所定の立体物等をライダ5で検出するためのものである。
FIG. 9 is a flowchart illustrating details of the process of step S30 (FIG. 6) executed by the
In step S310, the
ステップS320において、演算部11は、分離処理を行ってステップS330へ進む。より具体的には、公知の手法を用いる等により、ステップS310で生成された点群データから道路RD上の立体物等のデータを検出して路面データを分離することにより、立体物等を示す点群データを得る。立体物等は、例えば15cmを超える縁石、壁、溝、ガードレール等の他、走行中の二輪車等の他車両を含む。
In step S320, the
ステップS330において、演算部11は、ステップS320で分離された点群データに立体物等を示すデータがあるか否かを判定する。演算部11は、立体物等を示すデータがある場合にステップS330を肯定判定してステップS340へ進む。演算部11は、立体物等を示すデータがない(換言すると、進行方向と交差する道路幅方向に平坦な路面データのみが存在する)場合に、ステップS330を否定判定してステップS310へ戻る。
In step S330, the
ステップS340において、演算部11は、立体物等を示す点群データに基づいて所定の検出対象を示すデータを分離して図9による処理を終了し、図6のステップS40へ進む。一例として、自車両101の進行方向と交差する向きの立体物であって、路面からの高さが所定の範囲(例えば、100cm未満)に含まれる物体等を示すデータを分離して残す。また、進行方向と略平行な向きの立体物については、別のデータとして分離して残す。さらにまた、進行方向と交差する向きの立体物であっても高さが所定の範囲に含まれない立体物については、その立体物を示すデータを残さないようにすることができる。
さらに詳しく説明すると、進行方向と交差する向きの立体物であり、かつ高さが所定の範囲内に含まれる立体物から、路面の凹凸や、路面上の落下物といった静的かつ、小さな障害物に限定して分離することが可能となる。また、進行方向と略平行な向きの立体物から、縁石、壁、溝、ガードレール等のような道路端に関する立体物に限定して分離することが可能となる。
これは、例えば、路面上の車両や人といった移動物体の多くは、進行方向と交差する向きの立体物であり、かつ高さが所定の範囲(例えば100cm未満)に含まれないためである。このような移動立体物を以降の2Dマップに反映させないように、データを分離して残さないように処理をすることができる。
In step S340, the
To explain in more detail, from three-dimensional objects that are oriented perpendicular to the direction of travel and whose height is within a predetermined range, to static and small obstacles such as uneven road surfaces and fallen objects on the road surface. It becomes possible to separate only . Furthermore, it is possible to limit the separation to three-dimensional objects related to road edges, such as curbs, walls, grooves, guardrails, etc., from three-dimensional objects oriented substantially parallel to the direction of travel.
This is because, for example, many moving objects such as vehicles and people on the road are three-dimensional objects that are oriented perpendicular to the direction of travel, and their heights are not within a predetermined range (for example, less than 100 cm). In order to prevent such a moving three-dimensional object from being reflected in the subsequent 2D map, processing can be performed so that the data is not separated and left behind.
以上説明した実施の形態によれば、以下のような作用効果を奏する。
(1)外界認識装置50は、自車両101の周囲に電磁波としての照射光を照射して周囲の外界状況を時系列に検出する車載検出器としてのライダ5と、ライダ5で検出された情報に基づいて、自車両101が走行する道路RDの路面情報を取得する路面情報取得部としての演算部11と、を備える。演算部11は、道路RD上の異なる位置でそれぞれ、自車両101から所定距離離れた道路RD上の第1領域(検出領域BX1に対応)のあらかじめ定めた検出対象を示す情報を認識する認識部111と、認識部111で認識した検出対象を示す情報を、自車両101の進行方向および走行速度に基づいてマッピングするマッピング部114と、を含む。
演算部11が道路RD上の第1領域について路面情報を取得するように構成したので、道路RDの路面全域の路面情報を一度に取得する場合と比べて、ライダ5が照射光を照射する照射点の数を低減することが可能になる。また、演算部11を構成する認識部111で認識した情報を、マッピング部114が自車両101の進行方向および走行速度に基づいてマッピングするので、自車両101の走行を実質的なスキャニング走行とみなすことが可能となる。これにより、第1領域が道路RDの進行方向の路面全域をカバーしていなくても、道路RDの路面全域についての路面情報を網羅することが可能となる。
以上により、外界認識装置50の検出対象とする物体等の位置や大きさの認識精度を低下させることなく、ライダ5の照射点数を低減できる。照射点数の低減は、演算部11の処理負荷の低減にもつながる。
According to the embodiment described above, the following effects are achieved.
(1) The external
Since the
As described above, the number of irradiation points of the
(2)上記(1)の外界認識装置50において、認識部111はさらに、道路RD上の異なる位置でそれぞれ、第1領域(検出領域BX1に対応)よりも自車両101に近い道路RD上の第2領域(検出領域BY1に対応)および第1領域よりも自車両101から遠い道路RD上の第3領域(検出領域BZ1に対応)の、あらかじめ定めた検出対象を示す情報を認識する。
このように構成したので、演算部11が道路RD上の第1領域(検出領域BX1に対応)のみで路面情報を取得する場合と比べて、路面情報を取得する範囲を道路RDの進行方向に拡張することが可能になる。この場合でも、道路RDの路面全域の路面情報を一度に取得する場合と比べて、ライダ5が照射光を照射する照射点の数を低減することができる。
さらに、例えば飛来物が突然に自車両101の進路上で検出領域BX1から外れた位置に落下した場面において、検出領域BY1またはBZ1に落下した場合には、これを認識することが可能になる。
(2) In the external
With this configuration, compared to the case where the
Further, for example, in a scene where a flying object suddenly falls on the path of the
(3)上記(2)の外界認識装置50において、認識部111は、第1領域(検出領域BX1に対応)に対して第1分解能で検出対象を示す情報を認識し、第2および第3領域(検出領域BY1およびBZ1に対応)に対して第1分解能よりも低い第2分解能で検出対象を示す情報を認識する。
このように構成したので、例えば、第1領域ではより高い認識精度を確保しつつ、第2および第3領域では第1領域と比べて認識精度を下げて、ライダ5が照射光を照射する照射点の数を適切に低減することが可能になる。
(3) In the external
With this configuration, for example, while ensuring higher recognition accuracy in the first area, the recognition accuracy is lowered in the second and third areas compared to the first area, and the
(4)上記(1)の外界認識装置50において、演算部11はさらに、自車両101の車速に基づいて所定距離を算出し、自車両101から進行方向に所定距離離れた道路RD上で道路RDと交差するとともに、車速に基づく奥行幅を有して道路幅方向に長い帯状領域を、第1領域として画定する画定部112を含む。
このように構成したので、画定部112は、照射光が道路RDの左右の道路端に照射されるように第1領域(検出領域BX1に対応)を画定することが可能になる。画定部112はさらに、道路RD上を移動する自車両101からライダ5が第1領域に対応する検出領域BX1へ照射光を間欠的に照射する場合に、前回の照射光に基づいて演算部11で取得される路面情報と、今回の照射光に基づいて演算部11で取得される路面情報とが、進行方向に切れ目なくつながるように第1領域を画定することが可能になる。
(4) In the external
With this configuration, the defining
(5)上記(4)の外界認識装置50において、演算部11はさらに、ライダ5に対し、少なくとも第1領域(検出領域BX1に対応)の路面で散乱した照射光が検出されるように照射光の照射方向を設定する設定部113を含む。
このように構成したので、例えば、道路RDの路面の高さHや勾配によって照射光が照射される奥行距離が変化する場合は、照射光の照射範囲を修正することが可能になる。また、道路RDのカーブによって照射光の照射範囲から道路RDの左右端(境界線RL、RB)が外れる場合も、照射光の照射範囲を修正することが可能になる。
(5) In the external
With this configuration, for example, when the depth distance over which the irradiation light is irradiated changes depending on the height H or slope of the road surface of the road RD, it becomes possible to modify the irradiation range of the irradiation light. Further, even when the left and right ends (boundary lines RL, RB) of the road RD deviate from the irradiation range of the irradiation light due to a curve of the road RD, it is possible to correct the irradiation range of the irradiation light.
(6)上記(5)の外界認識装置50において、認識部111はさらに、ライダ5の本測定前の予備測定で検出された情報に基づいて自車両101の進行方向の路面データを認識し、設定部113は、所定距離と路面データとに基づいて、道路RD上の第1領域へ照射光を照射するための垂直方向および道路幅方向の照射範囲を設定する。
このように構成したので、本測定の前に照射光の照射範囲を垂直方向および道路幅方向に修正しておくことが可能になる。
(6) In the external
With this configuration, it is possible to correct the irradiation range of the irradiation light in the vertical direction and the road width direction before the actual measurement.
(7)上記(6)の外界認識装置50において、設定部113は、第1分解能としての角度分解能に基づき第1領域(検出領域BX1に対応)を道路幅方向に分割して得られる各格子点の位置に、ライダ5の照射位置を対応付ける。
このように構成したので、検出領域BX1内にライダ5が照射光を照射する道路幅方向の照射点の数を、適切に低減することが可能になる。
(7) In the external
With this configuration, it is possible to appropriately reduce the number of irradiation points in the road width direction at which the
(8)上記(7)の外界認識装置50において、設定部113は、第1分解能としての角度分解能に基づき第1領域(検出領域BX1に対応)を垂直方向にさらに分割して得られる各格子点の位置に、ライダ5の照射位置を対応付ける。
このように構成したので、検出領域BX1内にライダ5が照射光を照射する垂直方向の照射点の数を、適切に低減することが可能になる。
(8) In the external
With this configuration, it is possible to appropriately reduce the number of irradiation points in the vertical direction at which the
(9)上記(8)の外界認識装置50において、設定部113は、第2分解能としての角度分解能に基づき第2および第3領域(検出領域BY1およびBZ1に対応)を道路幅方向に分割して得られる各格子点の位置に、ライダ5の照射位置を対応付ける。
このように構成したので、検出領域BY1およびBZ1内にライダ5が照射光を照射する道路幅方向の照射点の数を、適切に低減することが可能になる。
(9) In the external
With this configuration, it is possible to appropriately reduce the number of irradiation points in the road width direction at which the
(10)上記(9)の外界認識装置50において、設定部113は、第2分解能としての角度分解能に基づき第2および第3領域(検出領域BY1およびBZ1に対応)を垂直方向にさらに分割して得られる各格子点の位置に、ライダ5の照射位置を対応付ける。
このように構成したので、検出領域BY1およびBZ1内にライダ5が照射光を照射する垂直方向の照射点の数を、適切に低減することが可能になる。
(10) In the external
With this configuration, it is possible to appropriately reduce the number of irradiation points in the vertical direction at which the
上記実施の形態は、種々の形態に変形することができる。以下、変形例について説明する。
(変形例1)
マッピング部114は、ライダ5が道路RD上の異なる位置で取得した時系列の点群データに基づいて検出した路面の高さHを示すデータを、一次元マップ上にマッピングして一続きとなる路面勾配データを生成してもよい。
より具体的には、マッピング部114は、自車両101の移動速度と移動方向(例えば方位角)から、各測定時における道路RD上の奥行距離L1の地点の相対位置を自車両101の位置を中心に座標変換して算出する。マッピング部114は、本測定(ステップS310)により点群データがライダ5で取得される毎に、取得された点群データに基づく奥行距離L1の地点の路面の高さHを、上記一次元マップ上に記録する。一次元マップの情報は、記憶部12に記憶させてもよい。
The embodiments described above can be modified into various forms. Modifications will be described below.
(Modification 1)
The
More specifically, the
(変形例2)
自車両101から離れた遠方の路面においてライダ5による照射光の反射強度が弱く、十分な強さの反射光を検出できない場合がある。このような、路面による反射強度が検出可能なぎりぎりのレベルまで低下するときの奥行距離を、最大路面検出距離L´と呼ぶことにする。
(Modification 2)
The reflection intensity of the light irradiated by the
変形例2において、自車両101の車速から計算される検出領域BXまでの奥行距離Lが、最大路面検出距離L´を超えてしまう場合(例えば奥行距離がL=150mのところ、最大路面検出距離L´=110mである場合)は、最大路面検出距離L´の地点での高さから所定の奥行距離Lの地点での高さを推定し、その時の検出領域BXを設定する。また、最大路面検出距離L´の地点の検出領域BX´も同時に設定する。
なお、検出領域BX´の奥行幅を広げて検出領域BX´と検出領域BXとをひとつながりの検出領域としてもよい。
変形例2によれば、遠方であることに起因して路面そのものの検出が困難な状況でも、反射光のレベルが路面の反射光よりも高い路面の凹凸、立体物等を検出することが可能になる。
In modification example 2, when the depth distance L to the detection area BX calculated from the vehicle speed of the
Note that the depth width of the detection area BX' may be increased to make the detection area BX' and the detection area BX a continuous detection area.
According to modification example 2, even in situations where it is difficult to detect the road surface itself due to the distance, it is possible to detect irregularities on the road surface, three-dimensional objects, etc. where the level of reflected light is higher than that of the reflected light from the road surface. become.
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施の形態および変形例により本発明が限定されるものではない。上記実施の形態と変形例の一つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the embodiments and modifications described above unless the characteristics of the present invention are impaired. It is also possible to arbitrarily combine the above embodiment and one or more of the modifications, and it is also possible to combine the modifications.
1 通信ユニット、2 測位ユニット、3 内部センサ群、4 カメラ、5 ライダ、10 コントローラ、11 演算部、12 記憶部、111 認識部、112 画定部、113 設定部、50 外界認識装置、100 車両制御装置、101 自車両、114 マッピング部、115 走行制御部、AC アクチュエータ 1 communication unit, 2 positioning unit, 3 internal sensor group, 4 camera, 5 lidar, 10 controller, 11 calculation unit, 12 storage unit, 111 recognition unit, 112 demarcation unit, 113 setting unit, 50 external world recognition device, 100 vehicle control device, 101 host vehicle, 114 mapping section, 115 travel control section, AC actuator
Claims (11)
前記路面情報取得部は、
前記道路上の異なる位置でそれぞれ、前記自車両から所定距離離れた前記道路上の第1領域の、あらかじめ定めた検出対象を示す情報を認識する認識部と、
前記認識部で認識した前記検出対象を示す情報を、前記自車両の進行方向および走行速度に基づいてマッピングするマッピング部と、
を含むことを特徴とする外界認識装置。 An on-vehicle detector that irradiates electromagnetic waves around the vehicle to detect the surrounding external environment in time series, and acquires road surface information of the road on which the vehicle is traveling based on the information detected by the on-vehicle detector. An external world recognition device comprising: a road surface information acquisition unit;
The road surface information acquisition unit includes:
a recognition unit that recognizes information indicating a predetermined detection target in a first area on the road that is a predetermined distance away from the host vehicle at different positions on the road;
a mapping unit that maps information indicating the detection target recognized by the recognition unit based on the traveling direction and traveling speed of the own vehicle;
An external world recognition device comprising:
前記認識部はさらに、前記道路上の異なる位置でそれぞれ、前記第1領域よりも前記自車両に近い前記道路上の第2領域および前記第1領域よりも前記自車両から遠い前記道路上の第3領域の、あらかじめ定めた検出対象を示す情報を認識することを特徴とする外界認識装置。 The external world recognition device according to claim 1,
The recognition unit further includes a second area on the road that is closer to the host vehicle than the first area and a second area on the road that is farther from the host vehicle than the first area at different positions on the road. An external world recognition device characterized by recognizing information indicating predetermined detection targets in three areas.
前記認識部は、前記第1領域に対して第1分解能で前記検出対象を示す情報を認識し、前記第2および第3領域に対して前記第1分解能よりも低い第2分解能で前記検出対象を示す情報を認識することを特徴とする外界認識装置。 The external world recognition device according to claim 2,
The recognition unit recognizes information indicating the detection target at a first resolution for the first region, and recognizes information indicating the detection target for the second and third regions at a second resolution lower than the first resolution. An external world recognition device characterized by recognizing information indicating.
前記路面情報取得部はさらに、前記自車両の車速に基づいて前記所定距離を算出し、前記自車両から進行方向に前記所定距離離れた前記道路上で前記道路と交差するとともに、前記車速に基づく奥行幅を有して道路幅方向に長い帯状領域を、前記第1領域として画定する画定部を含むことを特徴とする外界認識装置。 The external world recognition device according to claim 1,
The road surface information acquisition unit further calculates the predetermined distance based on the vehicle speed of the host vehicle, and calculates the predetermined distance based on the vehicle speed while intersecting the road on the road that is the predetermined distance away from the host vehicle in the traveling direction. An external world recognition device comprising: a defining section that defines a strip-shaped region having a depth and being long in the road width direction as the first region.
前記路面情報取得部はさらに、前記車載検出器に対し、少なくとも前記第1領域の路面で散乱した電磁波が検出されるように前記電磁波の照射方向を設定する設定部を含むことを特徴とする外界認識装置。 The external world recognition device according to claim 4,
The road surface information acquisition unit further includes a setting unit that sets the irradiation direction of the electromagnetic waves to the on-vehicle detector so that at least electromagnetic waves scattered on the road surface in the first area are detected. recognition device.
前記認識部はさらに、前記車載検出器の本測定前の予備測定で検出された情報に基づいて前記自車両の進行方向の路面データを認識し、
前記設定部は、前記所定距離と前記路面データとに基づいて、前記道路上の前記第1領域へ電磁波を照射するための垂直方向および前記道路幅方向の照射範囲を設定することを特徴とする外界認識装置。 The external world recognition device according to claim 5,
The recognition unit further recognizes road surface data in the traveling direction of the own vehicle based on information detected by the on-vehicle detector in a preliminary measurement before the main measurement,
The setting unit may set an irradiation range in the vertical direction and the road width direction for irradiating the first area on the road with electromagnetic waves, based on the predetermined distance and the road surface data. External world recognition device.
前記設定部は、前記第1分解能に基づき前記第1領域を前記道路幅方向に分割して得られる各格子点の位置に、前記車載検出器の照射位置を対応付けることを特徴とする外界認識装置。 The external world recognition device according to claim 6,
The external world recognition device is characterized in that the setting unit associates the irradiation position of the on-vehicle detector with the position of each grid point obtained by dividing the first region in the road width direction based on the first resolution. .
前記設定部は、前記第1分解能に基づき前記第1領域を垂直方向にさらに分割して得られる各格子点の位置に、前記車載検出器の照射位置を対応付けることを特徴とする外界認識装置。 The external world recognition device according to claim 7,
The external world recognition device is characterized in that the setting unit associates the irradiation position of the vehicle-mounted detector with the position of each grid point obtained by further dividing the first region in the vertical direction based on the first resolution.
前記設定部は、前記第2分解能に基づき前記第2および第3領域を前記道路幅方向に分割して得られる各格子点の位置に、前記車載検出器の照射位置を対応付けることを特徴とする外界認識装置。 The external world recognition device according to claim 8,
The setting unit is characterized in that the setting unit associates the irradiation position of the on-vehicle detector with the position of each grid point obtained by dividing the second and third regions in the road width direction based on the second resolution. External world recognition device.
前記設定部は、前記第2分解能に基づき前記第2および第3領域を垂直方向にさらに分割して得られる各格子点の位置に、前記車載検出器の照射位置を対応付けることを特徴とする外界認識装置。 The external world recognition device according to claim 9,
The setting unit associates the irradiation position of the vehicle-mounted detector with the position of each grid point obtained by further dividing the second and third regions in the vertical direction based on the second resolution. recognition device.
前記車載検出器は、ライダであることを特徴とする外界認識装置。 The external world recognition device according to any one of claims 1 to 10,
The external world recognition device is characterized in that the vehicle-mounted detector is a lidar.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022140009A JP2024035511A (en) | 2022-09-02 | 2022-09-02 | Exterior environment recognition apparatus |
CN202311027644.5A CN117647818A (en) | 2022-09-02 | 2023-08-15 | External recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022140009A JP2024035511A (en) | 2022-09-02 | 2022-09-02 | Exterior environment recognition apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024035511A true JP2024035511A (en) | 2024-03-14 |
Family
ID=90043886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022140009A Pending JP2024035511A (en) | 2022-09-02 | 2022-09-02 | Exterior environment recognition apparatus |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024035511A (en) |
CN (1) | CN117647818A (en) |
-
2022
- 2022-09-02 JP JP2022140009A patent/JP2024035511A/en active Pending
-
2023
- 2023-08-15 CN CN202311027644.5A patent/CN117647818A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117647818A (en) | 2024-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4141737A1 (en) | Target detection method and device | |
RU2668459C1 (en) | Position evaluation device and method | |
US11091152B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11157751B2 (en) | Traffic guide object recognition device, traffic guide object recognition method, and storage medium | |
US11631257B2 (en) | Surroundings recognition device, and surroundings recognition method | |
US11370420B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11042759B2 (en) | Roadside object recognition apparatus | |
JP2019148889A (en) | Road boundary detection device | |
JP2021064056A (en) | Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program | |
JP6645001B2 (en) | Vehicle control device, vehicle control method, and program | |
JP7216695B2 (en) | Surrounding vehicle monitoring device and surrounding vehicle monitoring method | |
JP2024035511A (en) | Exterior environment recognition apparatus | |
JP7486556B2 (en) | Lane marking recognition device | |
JP7083768B2 (en) | Recognition device, vehicle control device, recognition method, and program | |
JP6827391B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP7332731B1 (en) | External recognition device | |
CN115050205B (en) | Map generation device and position recognition device | |
US11867526B2 (en) | Map generation apparatus | |
US20220307861A1 (en) | Map generation apparatus | |
CN115050203B (en) | Map generation device and vehicle position recognition device | |
JP7419085B2 (en) | Recognition device, recognition system, method, and program | |
US20240051540A1 (en) | Vehicle controller, method, and computer program for vehicle control | |
CN118209093A (en) | Map evaluation device and vehicle control system | |
JP2023149511A (en) | Map generation device | |
CN114954510A (en) | Dividing line recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240702 |