JP2024035511A - Exterior environment recognition apparatus - Google Patents

Exterior environment recognition apparatus Download PDF

Info

Publication number
JP2024035511A
JP2024035511A JP2022140009A JP2022140009A JP2024035511A JP 2024035511 A JP2024035511 A JP 2024035511A JP 2022140009 A JP2022140009 A JP 2022140009A JP 2022140009 A JP2022140009 A JP 2022140009A JP 2024035511 A JP2024035511 A JP 2024035511A
Authority
JP
Japan
Prior art keywords
road
vehicle
recognition device
external world
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022140009A
Other languages
Japanese (ja)
Inventor
俊介 小西
Shunsuke Konishi
良太 奥津
Ryota Okutsu
秀俊 内海
Hidetoshi Utsumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022140009A priority Critical patent/JP2024035511A/en
Priority to CN202311027644.5A priority patent/CN117647818A/en
Publication of JP2024035511A publication Critical patent/JP2024035511A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To accurately recognize an exterior environment situation in the surroundings of a vehicle while reducing a processing load.SOLUTION: An exterior environment recognition apparatus 50 comprises a LiDAR 5 as an in-vehicle detector irradiating the surrounding of an own vehicle with an electromagnetic wave to detect an exterior environment situation in the surrounding in time series, and a processing section 11 as a road surface information acquisition section for acquiring road surface information on a road on which the own vehicle is traveling on the basis of the information detected by the LiDAR 5. The processing section 11 includes a recognition section 111 for recognizing information indicating a predetermined detection target in a first area separated from the own vehicle on the road by a predetermined distance at different positions on the road, and a mapping section 114 for mapping the information indicating the detection target recognized in the recognition section 111 on the basis of a traveling direction and driving speed of the own vehicle.SELECTED DRAWING: Figure 2

Description

本発明は、車両の外界状況を認識する外界認識装置に関する。 The present invention relates to an external world recognition device that recognizes the external world situation of a vehicle.

この種の装置として、ライダから照射するレーザ光の照射角度を、高さ方向と平行する第1軸および水平方向と平行する第2軸を中心にそれぞれ変化させてスキャンを行い、各検出点の位置情報に基づいて車両の外界を検出する装置が知られている(例えば特許文献1参照)。 This type of device scans by changing the irradiation angle of the laser beam emitted from the lidar around a first axis parallel to the height direction and a second axis parallel to the horizontal direction, and detects each detection point. A device is known that detects the outside world of a vehicle based on position information (see, for example, Patent Document 1).

特開2020-149079号公報Japanese Patent Application Publication No. 2020-149079

上記装置では、スキャンにより取得される検出点が多く、各検出点に基づいた位置情報を取得するための処理の負担が大きい。 In the above device, there are many detection points acquired by scanning, and the processing load for acquiring position information based on each detection point is heavy.

本発明の一態様である外界認識装置は、自車両の周囲に電磁波を照射して周囲の外界状況を時系列に検出する車載検出器と、車載検出器で検出された情報に基づいて、自車両が走行する道路の路面情報を取得する路面情報取得部と、を備える外界認識装置であって、路面情報取得部は、道路上の異なる位置でそれぞれ、自車両から所定距離離れた道路上の第1領域の、あらかじめ定めた検出対象を示す情報を認識する認識部と、認識部で認識した検出対象を示す情報を、自車両の進行方向および走行速度に基づいてマッピングするマッピング部と、を含む。 An external world recognition device that is one aspect of the present invention includes an on-vehicle detector that irradiates electromagnetic waves around the vehicle to detect the surrounding external world situation in time series, and an on-vehicle detector that detects the surrounding external world situation in time series. An external world recognition device comprising: a road surface information acquisition section that acquires road surface information of a road on which a vehicle travels; a recognition unit that recognizes information indicating a predetermined detection target in the first area; and a mapping unit that maps information indicating the detection target recognized by the recognition unit based on the traveling direction and traveling speed of the host vehicle. include.

本発明によれば、処理負荷を低減しつつ、車両周囲の外界状況を精度よく認識できる。 According to the present invention, it is possible to accurately recognize the external environment surrounding the vehicle while reducing the processing load.

車両が道路を走行する様子を示す図。A diagram showing how a vehicle travels on a road. 図1Aの地点の点群データの一例を示す図。FIG. 1B is a diagram showing an example of point cloud data of the points in FIG. 1A. 車両制御装置の要部構成を概略的に示すブロック図。FIG. 1 is a block diagram schematically showing the configuration of main parts of a vehicle control device. ライダの検出領域を説明する図。FIG. 3 is a diagram illustrating a lidar detection area. ライダの検出領域を説明する図。FIG. 3 is a diagram illustrating a lidar detection area. 図3Bの視点で見た検出領域を抜粋した図。FIG. 3B is an excerpt of the detection area seen from the perspective of FIG. 3B. 図4Aの第1領域を二次元マップ上に示した図。The figure which showed the 1st area|region of FIG. 4A on a two-dimensional map. ライダの投光角度を説明する模式図。FIG. 3 is a schematic diagram illustrating the light projection angle of the lidar. 第2領域および第3領域を説明する図。FIG. 3 is a diagram illustrating a second area and a third area. 図2のコントローラのCPUで実行される処理の一例を示すフローチャート。3 is a flowchart illustrating an example of a process executed by a CPU of the controller in FIG. 2. FIG. 図6のS10の処理を説明するフローチャート。7 is a flowchart illustrating the process of S10 in FIG. 6. 図6のS20の処理を説明するフローチャート。7 is a flowchart illustrating the process of S20 in FIG. 6. 図6のS30の処理を説明するフローチャート。7 is a flowchart illustrating the process of S30 in FIG. 6.

以下に、図面を参照して発明の実施の形態について説明する。
発明の実施の形態に係る外界認識装置は、自動運転機能を有する車両、すなわち自動運転車両に適用することができる。なお、本実施の形態に係る外界認識装置が適用される車両を、他車両と区別して自車両と呼ぶことがある。自車両は、内燃機関(エンジン)を走行駆動源として有するエンジン車両、走行モータを走行駆動源として有する電気自動車、エンジンと走行モータとを走行駆動源として有するハイブリッド車両のいずれであってもよい。自車両は、ドライバによる運転操作が不要な自動運転モードでの走行だけでなく、ドライバの運転操作による手動運転モードでの走行も可能である。
Embodiments of the invention will be described below with reference to the drawings.
The external world recognition device according to the embodiment of the invention can be applied to a vehicle having an automatic driving function, that is, an automatic driving vehicle. Note that the vehicle to which the external world recognition device according to the present embodiment is applied may be referred to as the own vehicle to distinguish it from other vehicles. The host vehicle may be an engine vehicle having an internal combustion engine as a driving source, an electric vehicle having a traveling motor as a driving source, or a hybrid vehicle having an engine and a driving motor as a driving source. The own vehicle can run not only in an automatic driving mode that does not require any driving operations by the driver, but also in a manual driving mode that requires driving operations by the driver.

自動運転車両は、自動運転モードでの走行(以下、自動走行または自律走行と呼ぶ)時、カメラやライダ(LiDAR:Light Detection and Ranging)等の車載検出器の検出データに基づき自車両の周囲の外界状況を認識する。自動運転車両は、その認識結果に基づいて、現時点から所定時間先の走行軌道(目標軌道)を生成し、目標軌道に沿って自車両が走行するように走行用アクチュエータを制御する。 When a self-driving vehicle is running in self-driving mode (hereinafter referred to as automatic driving or autonomous driving), it detects the surroundings of the vehicle based on detection data from in-vehicle detectors such as cameras and lidar (Light Detection and Ranging). Recognize the external situation. The self-driving vehicle generates a travel trajectory (target trajectory) for a predetermined period of time from the current time based on the recognition result, and controls the travel actuator so that the vehicle travels along the target trajectory.

図1Aは、自動運転車両である自車両101が道路RDを走行する様子を示す図である。図1Bは、自車両101に搭載されたライダにより得られた検出データ(計測点)の一例を示す図である。ライダによる計測点は、照射したレーザが物体の表面のある1点で反射して帰ってくる点情報である。具体的な点情報としては、レーザ源から点までの距離、反射して帰ってきたレーザの強度、点に位置する物体の相対速度、などである。また、図1Bに示すような複数の計測点で構成されたデータを、点群データと呼ぶ。図1Bには、図1Aの地点に対応する点群データが示されている。自車両101は、図1Bに示すような点群データに基づいて車両周囲の外界状況、より具体的には車両周囲の道路構造および物体等を認識し、その認識結果に基づいて目標軌道を生成する。 FIG. 1A is a diagram showing how a self-driving vehicle 101, which is an autonomous vehicle, travels on a road RD. FIG. 1B is a diagram showing an example of detection data (measurement points) obtained by a lidar mounted on the own vehicle 101. A measurement point by a lidar is information about a point where an irradiated laser beam is reflected at a certain point on the surface of an object and returned to the object. Specific point information includes the distance from the laser source to the point, the intensity of the reflected laser beam, and the relative velocity of an object located at the point. Furthermore, data composed of a plurality of measurement points as shown in FIG. 1B is referred to as point cloud data. FIG. 1B shows point cloud data corresponding to the points in FIG. 1A. The host vehicle 101 recognizes the external environment around the vehicle, more specifically, the road structure and objects around the vehicle, based on point cloud data as shown in FIG. 1B, and generates a target trajectory based on the recognition results. do.

ところで、車両周囲の外界状況を十分に認識する方法として、ライダ等の車載検出器から照射する電磁波の照射点の数を増やす(換言すると、電磁波の照射点密度を高めて点群データの密度を高くする)ことが考えられる。照射点をターゲット(Target)と呼んでもよい。一方で、照射点の数を増やすと、車載検出器を制御するための処理負荷が増えたり、車載検出器により得られる検出データ(点群データ)の容量が増大して点群データに対する処理負荷が増えたりするおそれがある。特に、図1Bに示すように、道路脇に物体(樹木の他、人や建物等)が多く存在する状況では、点群データの容量がさらに増大する。また、このような問題に対処しようとすると、レーザの数を増やす、などのように、装置の規模を増大させるおそれがある。そのため、これらの点を考慮して、実施の形態では以下のように外界認識装置を構成する。 By the way, one way to fully recognize the external environment surrounding the vehicle is to increase the number of points irradiated with electromagnetic waves emitted from onboard detectors such as lidar (in other words, increase the density of points irradiated with electromagnetic waves and increase the density of point cloud data). It is possible to increase the The irradiation point may also be called a target. On the other hand, increasing the number of irradiation points increases the processing load for controlling the on-vehicle detector, and increases the volume of detection data (point cloud data) obtained by the on-vehicle detector, increasing the processing load for point cloud data. may increase. In particular, as shown in FIG. 1B, in a situation where there are many objects (trees, people, buildings, etc.) on the side of the road, the capacity of the point cloud data further increases. Moreover, if an attempt is made to deal with such a problem, there is a risk that the scale of the apparatus will increase, such as by increasing the number of lasers. Therefore, in consideration of these points, the external world recognition device is configured as follows in the embodiment.

<概要>
実施の形態に係る外界認識装置は、道路RDを走行する自車両101のライダ5から自車両101の進行方向に照射光(電磁波の一種)を間欠的に照射し、道路RD上の異なる位置で離散的に点群データを取得する。ライダ5から照射する照射光の照射範囲は、前回の照射光に基づいてライダ5で取得された点群データと、今回の照射光に基づいてライダ5で取得される点群データとが、道路RDの進行方向に切れ目なくつながるように、進行方向と交差する道路幅方向に長い帯状にする。
より具体的には、自車両101から自車両101の車速(走行速度)に基づく所定距離(後述する奥行距離に対応)離れた道路RD上の位置に、上述した道路幅方向に長い帯状の第1領域を照射範囲として設定するとともに、この第1領域に対して所定の照射点密度を設定する。そして、第1領域以外の他の領域に対する照射点密度を第1領域に対する照射点密度よりも低く設定する、または、他の領域に対する照射を止める等により、ライダ5から照射される照射点の総数を抑制する。つまり、点群データに基づいて認識する物体等の位置(自車両101からの距離)や大きさの認識精度を低下させることなく、ライダ5の照射点の数を低減することが可能になる。
このような外界認識装置について、さらに詳細に説明する。
<Summary>
The external world recognition device according to the embodiment intermittently irradiates irradiation light (a type of electromagnetic wave) from the rider 5 of the own vehicle 101 traveling on the road RD in the traveling direction of the own vehicle 101, and emits light (a type of electromagnetic wave) at different positions on the road RD. Obtain point cloud data discretely. The irradiation range of the irradiation light emitted from the lidar 5 is such that the point cloud data acquired by the lidar 5 based on the previous irradiation light and the point cloud data acquired by the lidar 5 based on the current irradiation light are The road should be shaped like a long strip in the width direction of the road that intersects with the direction of travel so that it is seamlessly connected to the direction of travel of the RD.
More specifically, at a position on the road RD that is a predetermined distance (corresponding to the depth distance described later) from the own vehicle 101 based on the vehicle speed (traveling speed) of the own vehicle 101, One area is set as an irradiation range, and a predetermined irradiation point density is set for this first area. Then, the total number of irradiation points irradiated by the lidar 5 is set by setting the irradiation point density for other areas other than the first area lower than the irradiation point density for the first area, or by stopping irradiation for other areas. suppress. In other words, it is possible to reduce the number of irradiation points of the rider 5 without reducing the recognition accuracy of the position (distance from the host vehicle 101) and size of objects etc. recognized based on point cloud data.
Such an external world recognition device will be explained in more detail.

<車両制御装置の構成>
図2は、外界認識装置を含む車両制御装置100の要部構成を示すブロック図である。この車両制御装置100は、コントローラ10と、通信ユニット1と、測位ユニット2と、内部センサ群3と、カメラ4と、ライダ5と、走行用のアクチュエータACとを有する。また、車両制御装置100は、車両制御装置100の一部を構成する外界認識装置50を有する。外界認識装置50は、カメラ4やライダ5等の車載検出器の検出データに基づいて、車両周囲の外界状況を認識する。
<Configuration of vehicle control device>
FIG. 2 is a block diagram showing the main configuration of vehicle control device 100 including an external world recognition device. This vehicle control device 100 includes a controller 10, a communication unit 1, a positioning unit 2, an internal sensor group 3, a camera 4, a rider 5, and a driving actuator AC. Further, the vehicle control device 100 includes an external world recognition device 50 that constitutes a part of the vehicle control device 100. The external world recognition device 50 recognizes the external world surrounding the vehicle based on detection data from on-vehicle detectors such as the camera 4 and the lidar 5.

通信ユニット1は、インターネット網や携帯電話網等に代表される無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報、走行履歴情報および交通情報等を定期的に、あるいは任意のタイミングでサーバから取得する。ネットワークには、公衆無線通信網だけでなく、所定の管理地域毎に設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。取得した地図情報は、記憶部12に出力され、地図情報が更新される。測位ユニット(GNSSユニット)2は、測位衛星から送信された測位用の信号を受信する測位センサを有する。測位衛星は、GPS衛星や準天頂衛星等の人工衛星である。測位ユニット2は、測位センサが受信した測位情報を利用して、自車両101の現在位置(緯度、経度、高度)を測定する。 The communication unit 1 communicates with various servers (not shown) via networks including wireless communication networks such as the Internet and mobile phone networks, and periodically or arbitrarily transmits map information, driving history information, traffic information, etc. Obtained from the server at the timing of Networks include not only public wireless communication networks but also closed communication networks established for each predetermined management area, such as wireless LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), and the like. The acquired map information is output to the storage unit 12, and the map information is updated. The positioning unit (GNSS unit) 2 has a positioning sensor that receives positioning signals transmitted from positioning satellites. The positioning satellite is an artificial satellite such as a GPS satellite or a quasi-zenith satellite. The positioning unit 2 measures the current position (latitude, longitude, altitude) of the own vehicle 101 using the positioning information received by the positioning sensor.

内部センサ群3は、自車両101の走行状態を検出する複数のセンサ(内部センサ)の総称である。例えば内部センサ群3には、自車両101の車速を検出する車速センサ、自車両101の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、走行駆動源の回転数を検出する回転数センサ、自車両101の重心の鉛直軸回りの回転角速度を検出するヨーレートセンサ等が含まれる。手動運転モードでのドライバの運転操作、例えばアクセルペダルの操作、ブレーキペダルの操作、ステアリングホイールの操作等を検出するセンサも内部センサ群3に含まれる。 The internal sensor group 3 is a general term for a plurality of sensors (internal sensors) that detect the driving state of the own vehicle 101. For example, the internal sensor group 3 includes a vehicle speed sensor that detects the vehicle speed of the host vehicle 101, an acceleration sensor that detects the longitudinal acceleration and lateral acceleration (lateral acceleration) of the host vehicle 101, and a rotation speed sensor that detects the rotation speed of the travel drive source. It includes a rotational speed sensor that detects the rotational speed, a yaw rate sensor that detects the rotational angular velocity around the vertical axis of the center of gravity of the host vehicle 101, and the like. The internal sensor group 3 also includes sensors that detect driving operations by the driver in the manual driving mode, such as accelerator pedal operations, brake pedal operations, steering wheel operations, and the like.

カメラ4は、CCDやCMOS等の撮像素子を有して自車両101の周辺(前方、後方および側方)を撮像する。ライダ5は、自車両101の全方位の照射光に対する散乱光を受信して自車両101から周辺の物体までの距離、物体の位置、形状等を測定する。 The camera 4 has an imaging device such as a CCD or CMOS, and images the surroundings (front, rear, and sides) of the own vehicle 101. The lidar 5 receives scattered light from the omnidirectional irradiation light of the own vehicle 101 and measures the distance from the own vehicle 101 to surrounding objects, the position, shape, etc. of the objects.

アクチュエータACは、自車両101の走行を制御するための走行用アクチュエータである。走行駆動源がエンジンである場合、アクチュエータACには、エンジンのスロットルバルブの開度(スロットル開度)を調整するスロットル用アクチュエータが含まれる。走行駆動源が走行モータである場合、走行モータがアクチュエータACに含まれる。自車両101の制動装置を作動するブレーキ用アクチュエータと転舵装置を駆動する転舵用アクチュエータもアクチュエータACに含まれる。 Actuator AC is a travel actuator for controlling travel of own vehicle 101. When the traveling driving source is an engine, the actuator AC includes a throttle actuator that adjusts the opening degree of a throttle valve of the engine (throttle opening degree). When the travel drive source is a travel motor, the travel motor is included in the actuator AC. The actuator AC also includes a brake actuator that operates the braking device of the host vehicle 101 and a steering actuator that drives the steering device.

コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU(マイクロプロセッサ)等の演算部11と、ROM、RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。なお、エンジン制御用ECU、走行モータ制御用ECU、制動装置用ECU等、機能の異なる複数のECUを別々に設けることができるが、図2では、便宜上、これらECUの集合としてコントローラ10が示される。 The controller 10 is composed of an electronic control unit (ECU). More specifically, the controller 10 includes a computer having an arithmetic unit 11 such as a CPU (microprocessor), a storage unit 12 such as a ROM or RAM, and other peripheral circuits (not shown) such as an I/O interface. Consists of. Although a plurality of ECUs with different functions, such as an engine control ECU, a travel motor control ECU, and a braking device ECU, can be provided separately, in FIG. 2, the controller 10 is shown as a collection of these ECUs for convenience. .

記憶部12には、高精度の詳細な地図情報(高精度地図情報と呼ぶ)が記憶される。高精度地図情報には、道路の位置情報、道路形状(曲率等)の情報、道路の勾配の情報、交差点や分岐点の位置情報、車線(走行レーン)数の情報、車線の幅員および車線毎の位置情報(車線の中央位置や車線位置の境界線の情報)、地図上の目印としてのランドマーク(信号機、標識、建物等)の位置情報、路面の凹凸等の路面プロファイルの情報が含まれる。また、記憶部12には、後述する二次元マップ情報の他、各種制御のプログラム、プログラムで用いられる閾値等の情報、ライダ5等の車載検出器に対する設定情報(後述する照射点情報等)も記憶される。 The storage unit 12 stores highly accurate and detailed map information (referred to as high-precision map information). High-precision map information includes road position information, road shape (curvature, etc.) information, road slope information, intersection and branch point position information, information on the number of lanes (driving lanes), lane width and each lane. Contains location information (information on lane center positions and lane position boundaries), location information on landmarks on the map (traffic lights, signs, buildings, etc.), and information on road surface profiles such as road surface irregularities. . In addition to the two-dimensional map information described later, the storage unit 12 also contains various control programs, information such as threshold values used in the programs, and setting information for onboard detectors such as the lidar 5 (irradiation point information described later). be remembered.

演算部11は、機能的構成として、認識部111と、画定部112と、設定部113と、マッピング部114と、走行制御部115とを有する。なお、図2に示すように、認識部111、画定部112、設定部113、およびマッピング部114は外界認識装置50に含まれる。外界認識装置50は、上述したように、カメラ4やライダ5等の車載検出器の検出データに基づいて車両周囲の外界状況を認識する。外界認識装置50に含まれる認識部111、画定部112、設定部113、およびマッピング部114の詳細については後述する。 The calculation unit 11 has a recognition unit 111, a demarcation unit 112, a setting unit 113, a mapping unit 114, and a travel control unit 115 as functional components. Note that, as shown in FIG. 2, the recognition unit 111, the demarcation unit 112, the setting unit 113, and the mapping unit 114 are included in the external world recognition device 50. As described above, the external world recognition device 50 recognizes the external world situation around the vehicle based on detection data from on-vehicle detectors such as the camera 4 and the lidar 5. Details of the recognition unit 111, demarcation unit 112, setting unit 113, and mapping unit 114 included in the external world recognition device 50 will be described later.

走行制御部115は、自動運転モードにおいて、外界認識装置50で認識された車両周囲の外界状況に基づいて目標軌道を生成し、その目標軌道に沿って自車両101が走行するようにアクチュエータACを制御する。なお、手動運転モードでは、走行制御部115は、内部センサ群3により取得されたドライバからの走行指令(ステアリング操作等)に応じてアクチュエータACを制御する。 In the automatic driving mode, the driving control unit 115 generates a target trajectory based on the external environment surrounding the vehicle recognized by the external world recognition device 50, and activates the actuator AC so that the host vehicle 101 travels along the target trajectory. Control. Note that in the manual driving mode, the travel control unit 115 controls the actuator AC in accordance with a travel command (steering operation, etc.) from the driver acquired by the internal sensor group 3.

<ライダによる検出領域>
外界認識装置50は、ライダ5に対して検出領域を設定する。図3Aおよび図3Bは、進行方向の道路RD上の立体物等を検出する場合のライダ5の検出領域を説明する図である。実施の形態では、路面の凹凸、段差、うねり等を含む路面形状と、道路RD上に位置する立体物(道路RDに関連する設備等(信号機、標識、溝、壁、柵、ガードレール等))と、道路RD上の物体(他車両および路面の障害物を含む)と、路面に設けられた区画線と、を含めて立体物等と呼ぶ。区画線は、白線(黄色等の色違いの線を含む)、縁石線、道路鋲等を含むものとし、レーンマーク(Lane mark)と呼んでもよい。また、立体物等のうちあらかじめ検出対象として設定されたものを検出対象と呼ぶ。ライダ5は、照射光に対する散乱光を受信するので、照射光の照射範囲として設定された第1領域が検出領域となる。つまり、実施の形態の第1領域は、照射範囲であり検出領域である。
図3Aに示す領域RSは、自車両101が図1Aの道路RDを走行中に、後述する認識部111により認識された道路セグメントである。実施の形態では、道路RDの境界線RL、RBで挟まれた道路RDに対応する領域を道路セグメントと呼ぶ。
<Detection area by lidar>
The external world recognition device 50 sets a detection area for the rider 5. FIGS. 3A and 3B are diagrams illustrating a detection area of the rider 5 when detecting a three-dimensional object or the like on the road RD in the traveling direction. In the embodiment, the road surface shape including road surface irregularities, steps, undulations, etc., and three-dimensional objects located on the road RD (equipment related to the road RD (traffic lights, signs, grooves, walls, fences, guardrails, etc.)) , objects on the road RD (including other vehicles and obstacles on the road surface), and marking lines provided on the road surface are collectively referred to as three-dimensional objects. Partition lines include white lines (including lines of different colors such as yellow), curb lines, road studs, etc., and may also be called lane marks. Furthermore, a three-dimensional object or the like that is set in advance as a detection target is referred to as a detection target. Since the lidar 5 receives scattered light with respect to the irradiation light, the first area set as the irradiation range of the irradiation light becomes the detection area. That is, the first region in the embodiment is an irradiation range and a detection region.
The region RS shown in FIG. 3A is a road segment recognized by the recognition unit 111, which will be described later, while the own vehicle 101 is traveling on the road RD shown in FIG. 1A. In the embodiment, the area corresponding to the road RD sandwiched between the boundary lines RL and RB of the road RD is called a road segment.

図3Aに示す検出領域BXは、自車両101から所定の奥行距離離れた道路RD上の地点に照射範囲として設定される第1領域に対応する。図3Aの矢印線の長さは、奥行距離Lを表す。矢印線で示されるように、実施の形態では、ライダ5の設置位置から検出領域BXの下辺中央までの距離を奥行距離と呼ぶことにする。奥行距離は、自車両101の車速に基づいて所定の長さに設定する。
検出領域BXは、自動運転モードでの走行時に注視されるべき領域を含むように設定される。一例として、検出領域BXの道路幅方向の中心位置が、道路セグメントの道路幅方向の中心位置に重なるように設定してもよい。また、検出領域BXの横幅(道路幅方向の長さ)は、奥行距離Lにおける道路幅よりも長くなるように設定する。さらにまた、検出領域BXの奥行幅(検出領域BXを構成する帯状領域の上下方向の幅)は、自車両101の車速に基づいて所定の長さに設定する。
The detection area BX shown in FIG. 3A corresponds to a first area set as an irradiation range at a point on the road RD that is a predetermined depth distance away from the own vehicle 101. The length of the arrow line in FIG. 3A represents the depth distance L. As shown by the arrow line, in the embodiment, the distance from the installation position of the rider 5 to the center of the lower side of the detection area BX will be referred to as the depth distance. The depth distance is set to a predetermined length based on the vehicle speed of the own vehicle 101.
The detection area BX is set to include an area that should be watched while driving in automatic driving mode. As an example, the center position of the detection area BX in the road width direction may be set to overlap the center position of the road segment in the road width direction. Further, the width (length in the road width direction) of the detection area BX is set to be longer than the road width at the depth L. Furthermore, the depth width of the detection area BX (width in the vertical direction of the band-shaped area forming the detection area BX) is set to a predetermined length based on the vehicle speed of the own vehicle 101.

図3Bは、自車両101から異なる奥行距離の道路RD上に設定される検出領域BX、検出領域BX1、および検出領域BX2を模式的に示す図である。検出領域BX、BX1、BX2と三つの領域を例示したのは、その可変性を説明するためである。また、図4Aは、図3Bの視点で見た検出領域BX、検出領域BX1および検出領域BX2を抜粋した図である。検出領域BXは、自車両101からの奥行距離が、例えばL=180mの地点の道路RD上に設定された第1領域に対応する。検出領域BX1は、自車両101からの奥行距離が、例えばL1=100mの地点の道路RD上に設定された第1領域に対応する。検出領域BX2は、自車両101からの奥行距離が、例えばL2=10mの道路RD上に地点に設定された第1領域に対応する。 FIG. 3B is a diagram schematically showing a detection area BX, a detection area BX1, and a detection area BX2 set on the road RD at different depth distances from the own vehicle 101. The reason for illustrating the three detection regions BX, BX1, and BX2 is to explain their variability. Moreover, FIG. 4A is a diagram which extracts the detection area BX, the detection area BX1, and the detection area BX2 seen from the viewpoint of FIG. 3B. The detection area BX corresponds to a first area set on the road RD at a point where the depth distance from the own vehicle 101 is, for example, L=180 m. The detection region BX1 corresponds to a first region set on the road RD at a point where the depth distance from the host vehicle 101 is, for example, L1=100 m. The detection area BX2 corresponds to a first area set at a point on the road RD where the depth distance from the host vehicle 101 is, for example, L2=10 m.

実施の形態では、外界認識装置50が第1領域を自車両101の走行速度に基づいて設定するものとする。自車両101の走行速度が速くなるほど制動距離は長くなるため、衝突を回避するためにはより奥行距離を長くして遠くの物体を認識する必要がある。そのため、自車両101の走行速度に応じて、検出領域BXの位置を変動する機能を有する。例えば、自車両101が停止している場合は、奥行距離がL2=10mの地点の道路RD上に第1領域としての検出領域BX2を設定する。また、自車両101が車速100km/hで走行している場合は、奥行距離がL1=100mの地点の道路RD上に第1領域としての検出領域BX1を設定する。さらに、自車両101が車速180km/hで走行している場合は、奥行距離がL=180mの地点の道路RD上に第1領域としての検出領域BXを設定する。 In the embodiment, it is assumed that the external world recognition device 50 sets the first region based on the traveling speed of the host vehicle 101. The faster the vehicle 101 travels, the longer the braking distance becomes. Therefore, in order to avoid a collision, it is necessary to increase the depth distance and recognize distant objects. Therefore, it has a function of varying the position of the detection area BX according to the traveling speed of the own vehicle 101. For example, when the own vehicle 101 is stopped, a detection area BX2 as a first area is set on the road RD at a point where the depth distance is L2=10 m. Furthermore, when the host vehicle 101 is traveling at a vehicle speed of 100 km/h, a detection area BX1 as a first area is set on the road RD at a point where the depth distance is L1=100 m. Further, when the own vehicle 101 is traveling at a vehicle speed of 180 km/h, a detection area BX as a first area is set on the road RD at a point where the depth distance is L=180 m.

図3Bおよび図4Aに示すように、ライダ5の視点から見ると、自車両101からの奥行距離が遠い検出領域BXほど、その大きさが小さくなる。ただし、奥行距離が長くなるに伴って道路幅が広くなるような状況においては、奥行距離が長くなるに伴って第1領域が大きくなることがある。 As shown in FIGS. 3B and 4A, when viewed from the viewpoint of the rider 5, the farther the depth distance from the own vehicle 101 is, the smaller the detection area BX becomes. However, in a situation where the road width becomes wider as the depth distance increases, the first area may become larger as the depth distance increases.

<検出領域の広さ>
図4Bは、図4Aの各検出領域を二次元マップ上に示した図である。図4Bにおいて、ライダ5の視点から見てより小さな検出領域ほど、二次元マップ上で表すと面積がより広い。この理由は、自車両101からの奥行距離Lが遠い検出領域BXほど、奥行幅Dを広く設定するからである。より詳しく説明すると、実施の形態では自車両101の車速が速いほど奥行距離が遠い位置に第1領域としての検出領域BXを設定する点は上述した通りである。車速が速いとライダ5の測定インターバルにおける自車両101の移動距離が長くなることから、点群データに空白区間が生じないように(換言すると、進行方向に切れ目が生じないように)、第1領域としての検出領域BXの奥行幅を広げることによって一測定当たりの点群データの取得区間を広げている。
<Width of detection area>
FIG. 4B is a diagram showing each detection area in FIG. 4A on a two-dimensional map. In FIG. 4B, the smaller the detection area seen from the viewpoint of the lidar 5, the larger the area when expressed on the two-dimensional map. The reason for this is that the farther the depth distance L from the host vehicle 101 is in the detection area BX, the wider the depth width D is set. To explain in more detail, as described above, in the embodiment, the detection area BX as the first area is set at a position where the depth distance is greater as the vehicle speed of the own vehicle 101 is faster. If the vehicle speed is high, the travel distance of the own vehicle 101 during the measurement interval of the rider 5 becomes long. Therefore, the first By widening the depth width of the detection region BX as a region, the acquisition section of point cloud data per measurement is widened.

<照射光の投光角度>
図5Aは、ライダ5の投光角度θ0(水平方向に対する照射光の角度)を説明する模式図である。外界認識装置50は、投光角度θ0を変化させることにより、照射光の照射方向を上下に変化させて、照射光が照射される道路RD上の奥行距離を調整する。
図5Aにおいて、奥行距離L2が10mの地点の道路RD上に照射光が照射される場合は入射角θ2で路面が照射される。また、奥行距離L1が100mの地点の道路RD上に照射光が照射される場合は入射角θ1で路面が照射される。さらに、奥行距離Lが180mの地点の道路RD上に照射光が照射される場合は入射角θで路面が照射される。
<Projection angle of irradiation light>
FIG. 5A is a schematic diagram illustrating the light projection angle θ 0 (angle of irradiated light with respect to the horizontal direction) of the rider 5. The external world recognition device 50 changes the irradiation direction of the irradiation light up and down by changing the projection angle θ 0 to adjust the depth distance on the road RD where the irradiation light is irradiated.
In FIG. 5A, when the irradiation light is irradiated onto the road RD at a point where the depth distance L2 is 10 m, the road surface is irradiated at an incident angle θ 2 . Furthermore, when the irradiation light is irradiated onto the road RD at a point where the depth distance L1 is 100 m, the road surface is irradiated at an incident angle θ 1 . Furthermore, when the irradiation light is irradiated onto the road RD at a point where the depth distance L is 180 m, the road surface is irradiated at an incident angle θ.

一般に、進行方向の道路勾配がゼロの場合は、投光角度θ0と、路面における照射光の入射角とが一致する。このときの奥行距離Lは、次式(1)により算出される。
L=1/tanθ0×H …(1)
ただし、符号Hは路面の高さを表す。
Generally, when the road gradient in the traveling direction is zero, the projection angle θ 0 and the incident angle of the irradiated light on the road surface match. The depth distance L at this time is calculated by the following equation (1).
L=1/tanθ 0 ×H…(1)
However, the symbol H represents the height of the road surface.

外界認識装置50は、奥行距離を長くしたい場合に投光角度θ0を小さくし、奥行距離を短くしたい場合に投光角度θ0を大きくする。例えば、奥行距離が70mの地点に照射光が照射されている状態から奥行距離を100mに変更する場合、外界認識装置50は、投光角度θ0を現在よりも小さくして奥行距離が100mの地点に照射光が照射されるようにする。また、例えば道路RDが下り勾配等の場合で照射光が道路RD上に照射されていない場合は、外界認識装置50は、投光角度θ0を現在よりも大きくして照射光が道路RD上に照射されるようにする。 The external world recognition device 50 decreases the projection angle θ 0 when it wants to increase the depth distance, and increases the projection angle θ 0 when it wants to shorten the depth distance. For example, when changing the depth distance from a state where the irradiation light is irradiated to a point with a depth distance of 70 m to 100 m, the external world recognition device 50 makes the projection angle θ 0 smaller than the current value so that the depth distance is 100 m. Make sure that the irradiation light is irradiated on the spot. For example, if the road RD is on a downward slope and the irradiation light is not irradiated onto the road RD, the external world recognition device 50 increases the projection angle θ 0 from the current value so that the irradiation light is directed onto the road RD. so that it is irradiated.

<照射光の照射点数>
外界認識装置50は、上記のように設定した検出領域BX1内に、ライダ5の照射光を照射する照射点を算出する。より具体的には、外界認識装置50は、あらかじめ指定された検出対象の最小サイズ(例えば縦、横ともに15cm)と、奥行距離(例えばL1(100m))と、に基づいて算出される角度分解能に応じて照射点を算出する。この場合の角度分解能は、後述する格子点の上下方向(垂直方向と呼んでもよい)および左右方向(道路幅方向と呼んでもよい)にそれぞれ0.05度が必要である。なお、15cmよりも小さなサイズの検出対象を検出する場合、および、L1(100m)よりも長い奥行距離に検出領域を設定する場合には、検出領域内の照射点数を増やして角度分解能を上げてもよい。
外界認識装置50は、例えば、検出領域BX1内に格子状に配列した照射点を算出し、格子点の上下方向および左右方向の間隔を角度分解能に対応させる。上下方向の角度分解能を上げる場合は、検出領域BX1を角度分解能に基づく数で上下方向に分割し、上下方向の格子間隔を狭くして照射点の数を増やす。反対に、上下方向の角度分解能を下げる場合は、検出領域BX1を角度分解能に基づく数で上下方向に分割し、上下方向の格子間隔を広くして照射点の数を減らす。左右方向についても同様とする。
外界認識装置50は、角度分解能に応じて算出した照射点の位置を示す情報(以下、照射点情報と呼ぶ)を生成し、自車両101の現在の走行位置を示す位置情報に対応付けて記憶部12に記憶する。
<Number of irradiation points of irradiation light>
The external world recognition device 50 calculates an irradiation point for irradiating the irradiation light of the lidar 5 within the detection area BX1 set as described above. More specifically, the external world recognition device 50 uses an angular resolution calculated based on a prespecified minimum size of the detection target (for example, 15 cm in both height and width) and depth distance (for example, L1 (100 m)). Calculate the irradiation point accordingly. In this case, the angular resolution is required to be 0.05 degrees in each of the vertical direction (also referred to as the vertical direction) and the left and right direction (also referred to as the road width direction) of the grid points, which will be described later. In addition, when detecting a detection target smaller than 15 cm or when setting the detection area at a depth distance longer than L1 (100 m), increase the number of irradiation points in the detection area to increase the angular resolution. Good too.
For example, the external world recognition device 50 calculates irradiation points arranged in a grid within the detection region BX1, and makes the vertical and horizontal intervals of the grid points correspond to the angular resolution. When increasing the angular resolution in the vertical direction, the detection area BX1 is divided vertically by a number based on the angular resolution, and the grid interval in the vertical direction is narrowed to increase the number of irradiation points. On the other hand, when lowering the angular resolution in the vertical direction, the detection area BX1 is divided vertically by a number based on the angular resolution, and the grid interval in the vertical direction is widened to reduce the number of irradiation points. The same applies to the left and right directions.
The external world recognition device 50 generates information indicating the position of the irradiation point calculated according to the angular resolution (hereinafter referred to as irradiation point information), and stores it in association with the position information indicating the current traveling position of the own vehicle 101. 12.

外界認識装置50は、自車両101が自動運転モードで走行しているとき、自車両101の現在の走行位置に対応する照射点情報を記憶部12から読み出して、その照射点情報に従ってライダ5の照射点を検出領域内に設定する。これにより、ライダ5からの照射光は、設定された照射点に向けて照射される。
なお、ライダ5の照射光は、ラスタ走査方式で照射されてもよいし、検出領域内に格子状に配列した照射点にのみ照射光が照射されるように断続的に照射光が照射されてもよいし、その他の態様で照射されてもよいものとする。
When the own vehicle 101 is running in the automatic driving mode, the external world recognition device 50 reads out the irradiation point information corresponding to the current traveling position of the own vehicle 101 from the storage unit 12, and adjusts the position of the rider 5 according to the irradiation point information. Set the irradiation point within the detection area. Thereby, the irradiation light from the rider 5 is irradiated toward the set irradiation point.
Note that the irradiation light from the lidar 5 may be irradiated using a raster scanning method, or the irradiation light may be irradiated intermittently so that only the irradiation points arranged in a grid within the detection area are irradiated with the irradiation light. Alternatively, the irradiation may be performed in other ways.

<外界認識装置の構成>
外界認識装置50の詳細について説明する。
上述したように、外界認識装置50は、認識部111、画定部112、設定部113、およびマッピング部114と、ライダ5を含む。
<認識部>
認識部111は、カメラ4で撮像された画像情報またはライダ5で測定された検出データに基づいて、自車両101が走行する道路RDの進行方向の道路構造と、進行方向の道路RD上の検出対象とを認識する。道路構造は、例えば直線路、カーブ路、分岐路、トンネルの出入口等をいう。
また、認識部111は、例えば平坦な路面を示すデータに対して輝度フィルタリング処理等を施すことによって区画線を検知する。この場合において、認識部111は、輝度が所定の閾値を超えている路面の高さが、超えていない路面の高さと略同じである場合に、区画線であると判定する。
<Configuration of external world recognition device>
The details of the external world recognition device 50 will be explained.
As described above, the external world recognition device 50 includes the recognition section 111, the demarcation section 112, the setting section 113, the mapping section 114, and the lidar 5.
<Recognition part>
The recognition unit 111 determines the road structure in the traveling direction of the road RD on which the own vehicle 101 is traveling and the detection on the road RD in the traveling direction based on the image information captured by the camera 4 or the detection data measured by the lidar 5. Recognize the object. Road structures include, for example, straight roads, curved roads, branch roads, tunnel entrances, and the like.
Further, the recognition unit 111 detects a marking line by performing a brightness filtering process on data indicating a flat road surface, for example. In this case, the recognition unit 111 determines that the road surface is a partition line when the height of the road surface whose brightness exceeds the predetermined threshold is substantially the same as the height of the road surface whose brightness does not exceed the predetermined threshold.

後述する画定部112で第2領域および第3領域が画定され、後述する設定部113からライダ5へ、第1領域としての検出領域BX1に加えて第2領域としての検出領域BY1および第3領域としての検出領域BZ1が設定される場合、ライダ5から検出領域BX1に加えて検出領域BY1および検出領域BZ1にも照射光が照射される。
認識部111は、ライダ5により検出領域BX1において検出される時系列の検出データ(計測点)を用いて3次元の点群データを生成するとともに、ライダ5により検出領域BY1および検出領域BZ1においてそれぞれ検出される時系列の検出データ(計測点)を用いて3次元の点群データを生成する。
なお、ライダ5から検出領域BX1のみに照射光を照射して検出データを取得する場合には、検出領域BY1および検出領域BZ1おける3次元の点群データの生成は不要である。
A second area and a third area are defined by a defining unit 112 (described later), and from a setting unit 113 (described later) to the rider 5, in addition to the detection area BX1 as the first area, the detection area BY1 as the second area and the third area are transmitted. When the detection area BZ1 is set, the rider 5 irradiates the detection area BY1 and the detection area BZ1 with light in addition to the detection area BX1.
The recognition unit 111 generates three-dimensional point cloud data using time-series detection data (measurement points) detected in the detection area BX1 by the lidar 5, and also generates three-dimensional point cloud data using the time-series detection data (measurement points) detected in the detection area BY1 and BZ1 by the lidar 5. Three-dimensional point cloud data is generated using detected time-series detection data (measurement points).
Note that when acquiring detection data by irradiating irradiation light from the lidar 5 only to the detection region BX1, it is not necessary to generate three-dimensional point group data in the detection region BY1 and the detection region BZ1.

<道路構造の認識>
認識部111による道路構造の認識について、さらに詳しく説明する。認識部111は、検出領域BX1に基づいて生成した点群データに含まれる、進行方向である前方の道路RDの縁石、壁、溝、ガードレールまたは区画線を道路RDの境界線RL、RBとして認識する。その上で、境界線RL、RBで示される進行方向の道路構造を認識する。上述したように、区画線は白線(色違いの線を含む)、縁石線、道路鋲等を含み、これら区画線による標示によって道路RDの走行レーンが規定される。実施の形態では、上記標示によって規定される道路RDの境界線RL、RBを、区画線と呼ぶ。
<Recognition of road structure>
Recognition of the road structure by the recognition unit 111 will be explained in more detail. The recognition unit 111 recognizes curbs, walls, grooves, guardrails, or partition lines of the road RD ahead in the traveling direction, which are included in the point cloud data generated based on the detection area BX1, as the boundary lines RL and RB of the road RD. do. Then, the road structure in the direction of travel indicated by boundary lines RL and RB is recognized. As described above, the marking lines include white lines (including lines of different colors), curb lines, road studs, etc., and the markings by these marking lines define the driving lanes of the road RD. In the embodiment, the boundary lines RL and RB of the road RD defined by the above markings are referred to as partition lines.

認識部111は、境界線RL、RBで挟まれた領域について、道路RDに対応する領域(上記道路セグメント)として認識する。なお、道路セグメントの認識方法はこれに限らず、他の方法により認識してもよい。
また、認識部111は、検出領域BX1に基づいて生成した点群データに含まれる、進行方向である前方の道路セグメントにおける道路RDの立体物等のうち、例えば15cmを超える凹凸、段差、うねり等の路面形状と、例えば縦横15cmを超える物体とを検出対象として認識する。
The recognition unit 111 recognizes the area between the boundary lines RL and RB as an area corresponding to the road RD (the above-mentioned road segment). Note that the method for recognizing road segments is not limited to this, and may be recognized using other methods.
In addition, the recognition unit 111 recognizes irregularities, steps, undulations, etc. exceeding 15 cm, for example, among the three-dimensional objects of the road RD in the road segment ahead in the traveling direction, which are included in the point cloud data generated based on the detection area BX1. The road surface shape and objects larger than 15 cm in length and width, for example, are recognized as detection targets.

<検出対象の認識>
認識部111による検出対象の認識について、さらに詳しく説明する。後述する画定部112で第2領域および第3領域が画定され、検出領域BX1に加えて、第2領域に対応する検出領域BY1および第3領域に対応する検出領域BZ1にもライダ5から照射光が照射される場合、認識部111は、検出領域BY1および検出領域BZ1に基づいて生成した点群データに含まれる、進行方向である前方の道路セグメントにおける道路RDの立体物等のうち、例えば100cm程度の路面形状と、例えば縦横100cm程度の物体とを検出対象として認識する。
なお、ライダ5により検出領域BX1のみに照射光を照射して検出データを取得する場合には、認識部111は、検出領域BX1に基づいて生成した点群データに基づいて、進行方向前方の道路セグメントにおける道路RDの路面形状と検出対象とを認識してよい。
<Recognition of detection target>
The recognition of the detection target by the recognition unit 111 will be explained in more detail. A second region and a third region are defined by a defining section 112, which will be described later, and in addition to the detection region BX1, the lidar 5 irradiates the detection region BY1 corresponding to the second region and the detection region BZ1 corresponding to the third region. is irradiated, the recognition unit 111 recognizes, for example, 100 cm of solid objects on the road RD in the road segment ahead in the traveling direction, which is included in the point cloud data generated based on the detection area BY1 and the detection area BZ1. A road surface shape of approximately 100 cm and an object approximately 100 cm in length and width, for example, are recognized as detection targets.
Note that when the lidar 5 irradiates the detection area BX1 with irradiation light to obtain detection data, the recognition unit 111 detects the road ahead in the traveling direction based on the point cloud data generated based on the detection area BX1. The road surface shape of the road RD and the detection target in the segment may be recognized.

<画定部>
画定部112は、ライダ5が照射光を照射する照射範囲として、上述した第1領域を画定する。より具体的には、画定部112は、図4Bに例示するように自車両101から進行方向に所定距離(例えば奥行距離L1)離れた道路RD上の位置に所定の奥行幅D1を有する帯状の第1領域を画定する。
上述したように、画定部112は、自車両101の現在位置から第1領域までの奥行距離L1と、第1領域の奥行幅(第1領域を構成する帯状領域の幅)D1とを、内部センサ群3の車速センサにより検出された自車両101の車速に基づいて算出する。自車両101の現在位置から第1領域までの奥行距離L2と第1領域の奥行幅D2、および、自車両101の現在位置から第1領域までの奥行距離Lと第1領域の奥行幅Dについても同様である。
このように構成したので、道路RD上を移動する自車両101からライダ5が第1領域に対応する検出領域BX1へ照射光を間欠的に照射した場合に、前回の照射光に基づいてライダ5で検出された点群データと、今回の照射光に基づいてライダ5で検出される点群データとが、進行方向に切れ目なくつながるように第1領域を画定することが可能になる。これにより、進行方向に切れ目のないライダ5の検出データを取得することが可能になる。
<Demarcation section>
The defining unit 112 defines the above-mentioned first area as the irradiation range where the lidar 5 irradiates the irradiation light. More specifically, as illustrated in FIG. 4B, the demarcation unit 112 defines a belt-shaped strip having a predetermined depth width D1 at a position on the road RD that is a predetermined distance (for example, depth distance L1) away from the own vehicle 101 in the traveling direction. A first region is defined.
As described above, the demarcation unit 112 calculates the depth distance L1 from the current position of the own vehicle 101 to the first area and the depth width D1 of the first area (width of the band-shaped area forming the first area). It is calculated based on the vehicle speed of the host vehicle 101 detected by the vehicle speed sensor of the sensor group 3. Regarding the depth distance L2 from the current position of the host vehicle 101 to the first area and the depth width D2 of the first area, and the depth distance L from the current position of the host vehicle 101 to the first area and the depth width D of the first area The same is true.
With this configuration, when the rider 5 intermittently irradiates the detection area BX1 corresponding to the first area with irradiation light from the host vehicle 101 moving on the road RD, the lidar 5 It becomes possible to define the first area so that the point group data detected by the point group data and the point group data detected by the lidar 5 based on the current irradiation light are seamlessly connected in the traveling direction. This makes it possible to obtain detection data of the rider 5 without any breaks in the traveling direction.

画定部112は、第1領域(検出領域BX1に対応)を構成する帯状領域の道路幅方向の長さW1を、認識部111で認識した道路構造に基づいて算出する。画定部112は、奥行距離L1の地点における道路RDの道路幅よりも十分に長くするように、長さW1を算出する。奥行距離L2の地点における長さW2、および、奥行距離Lの地点における長さWについても同様である。
このように構成することにより、ライダ5の検出データに道路RDの左右端(境界線RL、RB)が含まれるようになる。
The demarcation unit 112 calculates the length W1 in the road width direction of the band-shaped area constituting the first area (corresponding to the detection area BX1) based on the road structure recognized by the recognition unit 111. The demarcation unit 112 calculates the length W1 so as to be sufficiently longer than the road width of the road RD at the point of the depth distance L1. The same applies to the length W2 at the point of depth distance L2 and the length W at the point of depth distance L.
With this configuration, the detection data of the rider 5 includes the left and right ends (boundaries RL, RB) of the road RD.

また、画定部112は、図5Bに例示するように、検出領域BX1に対応する第1領域よりも自車両101に近い(換言すると、自車両101からの距離が奥行距離L1よりも短い)道路RD上の第2領域と、第1領域よりも自車両101から遠い(換言すると、自車両101からの距離が、奥行距離L1+奥行幅D1よりも長い)道路RD上の第3領域とを画定してもよい。 Further, as illustrated in FIG. 5B, the demarcation unit 112 detects a road that is closer to the vehicle 101 than the first region corresponding to the detection region BX1 (in other words, the distance from the vehicle 101 is shorter than the depth distance L1). Define a second area on the road RD and a third area on the road RD which is farther from the host vehicle 101 than the first area (in other words, the distance from the host vehicle 101 is longer than the depth distance L1 + depth width D1). You may.

<設定部>
設定部113は、画定部112で画定された第1領域に基づいて、ライダ5に対して第1領域に対応する検出領域BX1を設定する。上述したように、実施の形態では、検出領域BX1が照射光の照射範囲に対応する。
また、設定部113は、画定部112で第2領域および第3領域が画定された場合には、第2領域および第3領域に基づいて、ライダ5に対して第2領域に対応する検出領域BY1および第3領域に対応する検出領域BZ1をそれぞれ設定する。実施の形態では、検出領域BY1およびBZ1も照射光の照射範囲に対応する。
<Settings section>
Based on the first area defined by the defining unit 112, the setting unit 113 sets a detection area BX1 corresponding to the first area for the rider 5. As described above, in the embodiment, the detection region BX1 corresponds to the irradiation range of the irradiation light.
Further, when the second area and the third area are defined by the defining unit 112, the setting unit 113 determines the detection area corresponding to the second area for the rider 5 based on the second area and the third area. Detection areas BZ1 corresponding to BY1 and the third area are respectively set. In the embodiment, the detection regions BY1 and BZ1 also correspond to the irradiation range of the irradiation light.

<異なる角度分解能>
設定部113は、ライダ5に対して必要とされる測定の角度分解能に基づいて、上述した第1領域に対応する検出領域BX1内の照射点数(換言すると、照射点密度)を算出し設定する。上述したように、検出領域BX1内に格子状に配列した照射点を算出し、格子点の上下方向および左右方向の間隔を角度分解能に対応させる。
また、設定部113は、ライダ5に対して第2領域に対応する検出領域BY1および第3領域に対応する検出領域BZ1をそれぞれ設定した場合には、検出領域BX1に対しては第1分解能用の照射点数を、検出領域BY1および検出領域BZ1に対しては第1分解能よりも低密度の第2分解能用の照射点数を、それぞれ算出し設定する。第1分解能は、例えば、奥行距離L1が100mの地点の道路RD上の15cmを超える立体物等を検出するのに必要な照射点数に対応する。第2分解能は、例えば、奥行距離L1が100mの地点の道路RD上の100cmを超える立体物等を検出するのに必要な照射点数に対応する。
<Different angular resolution>
The setting unit 113 calculates and sets the number of irradiation points (in other words, irradiation point density) in the detection area BX1 corresponding to the first area described above based on the angular resolution of measurement required for the lidar 5. . As described above, the irradiation points arranged in a grid within the detection area BX1 are calculated, and the vertical and horizontal intervals of the grid points are made to correspond to the angular resolution.
Furthermore, when setting the detection area BY1 corresponding to the second area and the detection area BZ1 corresponding to the third area for the lidar 5, the setting unit 113 sets the detection area BY1 corresponding to the second area and the detection area BZ1 corresponding to the third area to the detection area BX1. The number of irradiation points for the second resolution, which is lower in density than the first resolution, is calculated and set for the detection region BY1 and the detection region BZ1, respectively. The first resolution corresponds to, for example, the number of irradiation points required to detect a three-dimensional object exceeding 15 cm on the road RD at a point where the depth distance L1 is 100 m. The second resolution corresponds to, for example, the number of irradiation points required to detect a three-dimensional object or the like exceeding 100 cm on the road RD at a point where the depth distance L1 is 100 m.

<マッピング部>
マッピング部114は、ライダ5でリアルタイムに測定された時系列の点群データに基づいて検出した検出対象の位置(区画線の位置を含む)を示すデータを、例えば図4Bと同様の二次元マップ上にマッピング(mapping)して一続きとなる位置データを生成する。
より具体的には、マッピング部114は、記憶部12に記憶されている二次元マップ上の全ての立体物等(区画線を除く)の位置情報を取得し、自車両101の移動速度と移動方向(例えば方位角)から上記立体物等の相対位置を自車両101の位置を中心に座標変換して算出する。マッピング部114は、後述する本測定(ステップS310)により点群データがライダ5で取得される毎に、取得された点群データに基づく立体物等の相対位置を自車両101の位置を中心に座標変換して二次元マップ上に記録する。
また、マッピング部114は、記憶部12に記憶されている二次元マップ上の全ての区画線の位置情報を取得し、自車両101の移動速度と移動方向から上記区画線の相対位置を自車両101の位置を中心に座標変換して算出する。マッピング部114は、後述する本測定(ステップS310)により点群データが取得される毎に、取得された点群データに基づく区画線の相対位置を自車両101の位置を中心に座標変換して二次元マップ上に記録する。
<Mapping section>
The mapping unit 114 converts data indicating the position of the detection target (including the position of the marking line) detected based on the time-series point cloud data measured in real time by the lidar 5 into a two-dimensional map similar to that shown in FIG. 4B, for example. A series of position data is generated by mapping onto the top.
More specifically, the mapping unit 114 acquires the position information of all three-dimensional objects, etc. (excluding marking lines) on the two-dimensional map stored in the storage unit 12, and calculates the moving speed and movement of the host vehicle 101. The relative position of the three-dimensional object, etc. is calculated from the direction (for example, azimuth angle) by performing coordinate transformation around the position of the own vehicle 101. Every time point cloud data is acquired by the lidar 5 in the main measurement (step S310) described later, the mapping unit 114 calculates the relative position of a three-dimensional object, etc. based on the acquired point cloud data, with the position of the host vehicle 101 as the center. Coordinates are transformed and recorded on a two-dimensional map.
Furthermore, the mapping unit 114 acquires the position information of all the marking lines on the two-dimensional map stored in the storage unit 12, and calculates the relative position of the marking lines based on the moving speed and direction of the own vehicle 101. It is calculated by performing coordinate transformation around the position of 101. Every time point cloud data is acquired in the main measurement (step S310), which will be described later, the mapping unit 114 performs coordinate transformation on the relative position of the marking line based on the acquired point cloud data, centering on the position of the host vehicle 101. Record on a two-dimensional map.

<フローチャートの説明>
図6は、あらかじめ定められたプログラムに従い図2のコントローラ10の演算部11が実行する処理の一例を示すフローチャートである。図6のフローチャートに示す処理は、例えば、自車両101が自動運転モードで走行中に所定周期毎に繰り返される。
<Explanation of flowchart>
FIG. 6 is a flowchart showing an example of a process executed by the calculation unit 11 of the controller 10 in FIG. 2 according to a predetermined program. The process shown in the flowchart of FIG. 6 is repeated at predetermined intervals, for example, while the host vehicle 101 is traveling in the automatic driving mode.

まず、ステップS10において、演算部11は、ライダ5による照射光の垂直方向の照射範囲を設定する。より具体的には、道路RD上の所定の奥行距離L1(例えば100m)の地点に、道路幅方向に長い帯状の照射光が照射されるように、投光角度θ0を変更することによって照射光の照射範囲を垂直方向に調整し、ステップS20へ進む。
ステップS10により照射光の照射範囲を垂直方向に調整するので、道路RDの路面の高さHや勾配によって照射光が照射される奥行距離が変化する場合でも、後述するステップS30の本測定の前に照射光の照射範囲を垂直方向に修正しておくことが可能になる。ステップS10の処理の詳細については図7を参照して後述する。
First, in step S10, the calculation unit 11 sets the vertical irradiation range of the light irradiated by the lidar 5. More specifically, the irradiation is performed by changing the projection angle θ 0 so that a long belt-shaped irradiation light in the road width direction is irradiated onto a point at a predetermined depth distance L1 (for example, 100 m) on the road RD. The light irradiation range is adjusted in the vertical direction, and the process proceeds to step S20.
Since the irradiation range of the irradiation light is adjusted in the vertical direction in step S10, even if the depth distance to which the irradiation light is irradiated changes depending on the height H and slope of the road surface of the road RD, the irradiation range of the irradiation light is adjusted in the vertical direction. It becomes possible to correct the irradiation range of the irradiation light in the vertical direction. Details of the process in step S10 will be described later with reference to FIG.

ステップS20において、演算部11は、ライダ5による照射光の水平方向(道路幅方向)の照射範囲を設定する。より具体的には、帯状の照射範囲の道路幅方向の長さW1を、道路RD上の所定の奥行距離L1(例えば100m)の地点の道路幅よりも長くして照射光が左右の道路端に照射されるように調整し、ステップS30へ進む。
ステップS20により照射光の照射範囲を道路幅方向に調整するので、道路RDのカーブによって照射光の照射範囲から道路RDの左右端(境界線RL、RB)が外れる場合でも、後述するステップS30の本測定の前に照射光の照射範囲を道路幅方向に修正しておくことが可能になる。ステップS20の処理の詳細については図8を参照して後述する。
In step S20, the calculation unit 11 sets the irradiation range of the light irradiated by the rider 5 in the horizontal direction (road width direction). More specifically, the length W1 of the strip-shaped irradiation range in the road width direction is made longer than the road width at a predetermined depth distance L1 (for example, 100 m) on the road RD, so that the irradiation light is directed to the left and right road edges. Then, the process proceeds to step S30.
Since the irradiation range of the irradiation light is adjusted in the road width direction in step S20, even if the left and right ends (boundary lines RL, RB) of the road RD deviate from the irradiation range of the irradiation light due to the curve of the road RD, the irradiation range of the irradiation light is adjusted in the road width direction. It becomes possible to correct the irradiation range of the irradiation light in the road width direction before the actual measurement. Details of the process in step S20 will be described later with reference to FIG.

ステップS30において、演算部11は、ライダ5で取得される点群データに基づいて、路面の凹凸等を示す路面情報を測定する。より具体的には、あらかじめ定めた検出対象としての所定の立体物等を検出し、ステップS40へ進む。ステップS30の処理の詳細については図9を参照して後述する。 In step S30, the calculation unit 11 measures road surface information indicating the unevenness of the road surface, etc., based on the point cloud data acquired by the rider 5. More specifically, a predetermined three-dimensional object or the like as a predetermined detection target is detected, and the process proceeds to step S40. Details of the process in step S30 will be described later with reference to FIG.

ステップS40において、演算部11は、ステップS30で測定した点群データに基づく立体物等の相対位置を二次元マップ上にマッピングすることにより、二次元状に一続きとなる位置データを生成してステップS50へ進む。
より具体的には、後述する本測定(ステップS310)により点群データがライダ5で取得される毎に、演算部11のマッピング部114が、取得された点群データに基づく立体物等の相対位置を自車両101の位置を中心に座標変換して二次元マップ上に記録する。
In step S40, the calculation unit 11 generates continuous two-dimensional position data by mapping the relative positions of solid objects, etc. based on the point cloud data measured in step S30 on a two-dimensional map. The process advances to step S50.
More specifically, each time point cloud data is acquired by the lidar 5 in the main measurement (step S310), which will be described later, the mapping unit 114 of the calculation unit 11 calculates the relative position of a three-dimensional object, etc. based on the acquired point cloud data. The coordinates of the position are converted around the position of the own vehicle 101 and recorded on a two-dimensional map.

ステップS50において、演算部11は、処理を終了するか否かを判定する。演算部11は、自車両101が自動運転モードでの走行を継続中の場合は、ステップS50を否定判定してステップS10へ戻り、上述した処理を繰り返す。ステップS10へ戻ることにより、自車両101の走行中に点群データに基づく立体物等の測定が周期的に繰り返し行われることとなる。一方、演算部11は、自車両101が自動運転モードでの走行を終了した場合は、ステップS50を肯定判定して図6による処理を終了する。 In step S50, the calculation unit 11 determines whether or not to end the process. If the host vehicle 101 is continuing to travel in the automatic driving mode, the calculation unit 11 makes a negative determination in step S50, returns to step S10, and repeats the above-described process. By returning to step S10, measurements of three-dimensional objects and the like based on point group data are periodically and repeatedly performed while the own vehicle 101 is traveling. On the other hand, when the host vehicle 101 has finished traveling in the automatic driving mode, the calculation unit 11 makes an affirmative determination in step S50 and ends the process shown in FIG. 6.

図7は、演算部11が実行するステップS10(図6)の処理の詳細を説明するフローチャートである。
ステップS110において、演算部11は、ライダ5により検出された検出データを用いて、3次元の点群データを取得してステップS120へ進む。ステップS110で点群データを取得するために行うライダ5の測定は、第1予備測定と呼んでもよい。第1予備測定は、ライダ5の照射光が奥行距離L1(例えば100m)の地点の道路RD上の検出領域BX1(第1領域に対応)を照射しているか否かを判定するためのものである。
FIG. 7 is a flowchart illustrating details of the process of step S10 (FIG. 6) executed by the calculation unit 11.
In step S110, the calculation unit 11 uses the detection data detected by the lidar 5 to obtain three-dimensional point group data, and proceeds to step S120. The measurement of the lidar 5 performed in step S110 to obtain point cloud data may be referred to as a first preliminary measurement. The first preliminary measurement is for determining whether or not the irradiation light from the lidar 5 is irradiating the detection area BX1 (corresponding to the first area) on the road RD at the depth distance L1 (for example, 100 m). be.

ステップS120において、演算部11は、分離処理を行ってステップS130へ進む。より具体的には、公知の手法を用いる等により、ステップS110で生成された点群データから道路RD上の立体物等のデータを検出して分離し、平坦な路面を示す点群データを得る。立体物等には、道路RDの左右端に設けられた、例えば縁石、壁、溝、ガードレール等の他、走行中の二輪車等の他車両が含まれている。 In step S120, the calculation unit 11 performs a separation process and proceeds to step S130. More specifically, data such as three-dimensional objects on the road RD are detected and separated from the point cloud data generated in step S110 using a known method, and point cloud data indicating a flat road surface is obtained. . The three-dimensional objects include, for example, curbs, walls, grooves, guardrails, etc. provided at the left and right ends of the road RD, as well as other vehicles such as running motorcycles.

ステップS130において、演算部11は、ステップS120で得た点群データに路面データがあるか否かを判定する。一例として、演算部11は点群データから、高さデータのヒストグラムを計算し、ピークトップを持つ山の全点数が所定の閾値以上の場合に路面データがあると判定する。また、演算部11は、ピークトップを持つ山の位置に基づいて路面の高さHを取得する。路面データの有無の判定および路面の高さHの取得は、他の手法を用いてもよい。
演算部11は、路面データがある(換言すると、道路幅方向にノイズレベルよりも高い値の平坦なデータが存在する)場合に、ステップS130を肯定判定してステップS140へ進む。演算部11は、路面データがない(換言すると、ノイズレベルのデータのみが存在する)場合に、ステップS130を否定判定してステップS170へ進む。
In step S130, the calculation unit 11 determines whether road surface data is included in the point cloud data obtained in step S120. As an example, the calculation unit 11 calculates a histogram of height data from the point group data, and determines that road surface data is present when the total number of points of a mountain having a peak top is equal to or greater than a predetermined threshold. Further, the calculation unit 11 obtains the height H of the road surface based on the position of the mountain having the peak top. Other methods may be used to determine the presence or absence of road surface data and to obtain the height H of the road surface.
When there is road surface data (in other words, there is flat data with a value higher than the noise level in the road width direction), the calculation unit 11 makes an affirmative determination in step S130 and proceeds to step S140. If there is no road surface data (in other words, only noise level data exists), the calculation unit 11 makes a negative determination in step S130 and proceeds to step S170.

ステップS170へ進む場合は、上述した下り勾配等により照射光が道路RD上に照射されていない場合である。ステップS170において、演算部11は、ライダ5へ投光角度θ0を現在よりも大きくする指示を送り、照射光が道路RD上に照射されるようにしてステップS110へ戻り、上述した処理を繰り返す。 The case where the process proceeds to step S170 is when the irradiation light is not irradiated onto the road RD due to the above-mentioned downward slope or the like. In step S170, the calculation unit 11 sends an instruction to the rider 5 to make the projection angle θ 0 larger than the current one, so that the irradiation light is irradiated onto the road RD, and the process returns to step S110 to repeat the above-described process. .

ステップS140へ進む場合は、照射光が道路RD上に照射されたことによりライダ5で散乱光が受信されている場合である。ステップS140において、演算部11は、ステップS120で得た点群データに基づいて、上述したように路面の高さHを算出してステップS150へ進む。 If the process proceeds to step S140, it is a case where the lidar 5 receives scattered light due to the irradiation light being irradiated onto the road RD. In step S140, the calculation unit 11 calculates the height H of the road surface as described above based on the point cloud data obtained in step S120, and proceeds to step S150.

ステップS150において、演算部11は、ステップS140で算出した路面の高さHと、ライダ5に設定されている投光角度θ0とを上式(1)に代入して奥行距離を算出してステップS160へ進む。 In step S150, the calculation unit 11 calculates the depth distance by substituting the road surface height H calculated in step S140 and the projection angle θ 0 set for the rider 5 into the above equation (1). The process advances to step S160.

ステップS160において、演算部11は、ライダ5による照射光の照射範囲を垂直方向(奥行方向と呼んでもよい)に調整して図7による処理を終了する。より具体的には、ライダ5に対して次回照射用に設定する照射範囲について、投光角度θ0を変化させることにより、奥行距離L1(例えば100m)の地点の検出領域BX1(第1領域に対応)に照射光が照射されるようにする。 In step S160, the calculation unit 11 adjusts the irradiation range of the light irradiated by the lidar 5 in the vertical direction (also referred to as the depth direction), and ends the process shown in FIG. 7. More specifically, regarding the irradiation range to be set for the next irradiation for the lidar 5, by changing the projection angle θ 0 , the detection area BX1 (first area) at the point of depth distance L1 (for example, 100 m) (corresponding) so that the irradiation light is irradiated.

図8は、演算部11が実行するステップS20(図6)の処理の詳細を説明するフローチャートである。
ステップS210において、演算部11は、ライダ5により検出された検出データを用いて、3次元の点群データを取得してステップS220へ進む。ステップS210で点群データを取得するために行うライダ5の測定は、第2予備測定と呼んでもよい。第2予備測定は、ライダ5の照射範囲に、奥行距離L1(例えば100m)の地点の道路RD上の道路端が含まれているか否かを判定するためのものである。
FIG. 8 is a flowchart illustrating details of the process of step S20 (FIG. 6) executed by the calculation unit 11.
In step S210, the calculation unit 11 uses the detection data detected by the lidar 5 to obtain three-dimensional point group data, and proceeds to step S220. The measurement of the lidar 5 performed in step S210 to obtain point cloud data may be referred to as a second preliminary measurement. The second preliminary measurement is for determining whether the irradiation range of the lidar 5 includes the road edge on the road RD at the depth distance L1 (for example, 100 m).

ステップS220において、演算部11は、分離処理を行ってステップS230へ進む。より具体的には、公知の手法を用いる等により、ステップS210で生成された点群データから道路RD上の立体物等のデータを検出して路面データから分離することにより、立体物等を示す点群データを得る。立体物等には、上述した縁石、壁、溝、ガードレール等の他、走行中の二輪車等の他車両が含まれている。 In step S220, the calculation unit 11 performs a separation process and proceeds to step S230. More specifically, data such as a three-dimensional object on the road RD is detected from the point cloud data generated in step S210 using a known method and separated from the road surface data, thereby indicating the three-dimensional object. Obtain point cloud data. The three-dimensional objects include the above-mentioned curbs, walls, grooves, guardrails, and the like, as well as other vehicles such as running motorcycles.

ステップS230において、演算部11は、分離された点群データに立体物等を示すデータがあるか否かを判定する。演算部11は、立体物等を示すデータがある場合にステップS230を肯定判定してステップS240へ進む。演算部11は、立体物等を示すデータがない(換言すると、進行方向と交差する道路幅方向に平坦な路面データのみが存在する)場合に、ステップS230を否定判定してステップS250へ進む。 In step S230, the calculation unit 11 determines whether the separated point group data includes data indicating a three-dimensional object or the like. If there is data indicating a three-dimensional object or the like, the calculation unit 11 makes an affirmative determination in step S230 and proceeds to step S240. If there is no data indicating a three-dimensional object or the like (in other words, only flat road surface data exists in the road width direction intersecting the direction of travel), the calculation unit 11 makes a negative determination in step S230 and proceeds to step S250.

ステップS240において、演算部11は、立体物等を示す点群データに基づいて道路端を示すデータを抽出してステップS250へ進む。一例として、自車両101の進行方向と略平行な、縁石、壁、溝、ガードレール等を示すデータを抽出する一方で、進行方向と交差する道路幅方向の立体物等を示すデータについては抽出しない。 In step S240, the calculation unit 11 extracts data indicating a road edge based on point cloud data indicating a three-dimensional object, etc., and proceeds to step S250. As an example, while data indicating curbs, walls, ditches, guardrails, etc. that are approximately parallel to the direction of travel of the host vehicle 101 are extracted, data indicating three-dimensional objects in the road width direction that intersect with the direction of travel are not extracted. .

ステップS250において、演算部11は、ライダ5による照射光の照射範囲を水平方向(道路幅方向)に調整して図8による処理を終了する。具体的には、ライダ5に対して次回照射用に設定する照射範囲について、検出領域BX1(第1領域に対応)の道路幅方向の長さW1を、奥行距離L1の地点における道路RDの道路幅よりも長くするように設定することにより、奥行距離L1の地点の道路RDの左右端(境界線RL、RB)が次回の照射範囲に含まれるようにする。
例えば、ステップS240で左右端の一方を示すデータが抽出されていない場合、現在設定されている検出領域BX1(第1領域に対応)の道路幅方向の両端位置および長さW1に基づき、次回照射用の検出領域BX1の道路幅方向の両端のうち上記データが抽出されていない方の端位置を、所定量拡大するように設定する。
In step S250, the calculation unit 11 adjusts the irradiation range of the light irradiated by the lidar 5 in the horizontal direction (road width direction), and ends the process shown in FIG. 8. Specifically, regarding the irradiation range to be set for the next irradiation for the rider 5, the length W1 of the detection area BX1 (corresponding to the first area) in the road width direction is determined by the length W1 of the road RD at the point of the depth distance L1. By setting it to be longer than the width, the left and right ends (boundary lines RL, RB) of the road RD at the point of the depth distance L1 are included in the next irradiation range.
For example, if data indicating one of the left and right ends is not extracted in step S240, the next irradiation will be performed based on the positions of both ends in the road width direction and the length W1 of the currently set detection area BX1 (corresponding to the first area). The position of the end in the road width direction of the detection area BX1 for which the above-mentioned data is not extracted is set to be enlarged by a predetermined amount.

また、立体物等を示すデータが存在せずステップS230を否定判定した場合(例えば、進行方向と交差する道路幅方向に平坦な路面データのみが存在し、道路RDの左右端を示すデータが存在しない)場合、演算部11はステップS250において、現在設定されている検出領域BX1(第1領域に対応)の道路幅方向の両端位置および長さW1に基づき、次回照射用の検出領域BX1の長さW1を、現在設定されている検出領域BX1の両端位置から左右両側へそれぞれ所定の倍率で拡大するように設定する。 Further, if there is no data indicating a three-dimensional object, etc. and a negative determination is made in step S230 (for example, only flat road surface data exists in the road width direction intersecting the direction of travel, and data indicating the left and right ends of the road RD exists). If not, in step S250, the calculation unit 11 determines the length of the detection area BX1 for the next irradiation based on the positions of both ends in the road width direction and the length W1 of the currently set detection area BX1 (corresponding to the first area). The area W1 is set to be enlarged at a predetermined magnification from both end positions of the currently set detection area BX1 to both the left and right sides.

なお、ステップS250において設定する検出領域BX1(第1領域に対応)の道路幅方向の長さW1は、時系列連続性を担保するために、状態空間モデル、カルマンフィルタ等のフィルタリング処理を行ってもよい。検出領域BX1の道路幅方向の位置(左端、右端の位置)は、測位ユニット2で測位した位置情報と、記憶部12に記憶されている高精度地図情報とに基づいて設定してもよい。 Note that the length W1 in the road width direction of the detection area BX1 (corresponding to the first area) set in step S250 may be determined even if filtering processing such as a state space model or a Kalman filter is performed to ensure time series continuity. good. The position of the detection area BX1 in the road width direction (left end, right end position) may be set based on position information measured by the positioning unit 2 and high-precision map information stored in the storage unit 12.

図9は、演算部11が実行するステップS30(図6)の処理の詳細を説明するフローチャートである。
ステップS310において、演算部11は、ライダ5により検出された検出データを用いて、3次元の点群データを取得してステップS320へ進む。ステップS310で点群データを取得するために行うライダ5の測定は、本測定と呼んでもよい。本測定は、あらかじめ定めた検出対象としての所定の立体物等をライダ5で検出するためのものである。
FIG. 9 is a flowchart illustrating details of the process of step S30 (FIG. 6) executed by the calculation unit 11.
In step S310, the calculation unit 11 uses the detection data detected by the lidar 5 to obtain three-dimensional point group data, and proceeds to step S320. The measurement of the lidar 5 performed in step S310 to obtain point cloud data may be referred to as the main measurement. This measurement is for detecting a predetermined three-dimensional object or the like as a predetermined detection target using the lidar 5.

ステップS320において、演算部11は、分離処理を行ってステップS330へ進む。より具体的には、公知の手法を用いる等により、ステップS310で生成された点群データから道路RD上の立体物等のデータを検出して路面データを分離することにより、立体物等を示す点群データを得る。立体物等は、例えば15cmを超える縁石、壁、溝、ガードレール等の他、走行中の二輪車等の他車両を含む。 In step S320, the calculation unit 11 performs a separation process and proceeds to step S330. More specifically, by detecting data such as a three-dimensional object on the road RD from the point cloud data generated in step S310 using a known method or the like and separating the road surface data, the three-dimensional object is indicated. Obtain point cloud data. Three-dimensional objects include, for example, curbs, walls, grooves, guardrails, etc. exceeding 15 cm, as well as other vehicles such as running motorcycles.

ステップS330において、演算部11は、ステップS320で分離された点群データに立体物等を示すデータがあるか否かを判定する。演算部11は、立体物等を示すデータがある場合にステップS330を肯定判定してステップS340へ進む。演算部11は、立体物等を示すデータがない(換言すると、進行方向と交差する道路幅方向に平坦な路面データのみが存在する)場合に、ステップS330を否定判定してステップS310へ戻る。 In step S330, the calculation unit 11 determines whether the point group data separated in step S320 includes data indicating a three-dimensional object or the like. If there is data indicating a three-dimensional object or the like, the calculation unit 11 makes an affirmative determination in step S330 and proceeds to step S340. If there is no data indicating a three-dimensional object or the like (in other words, there is only flat road surface data in the road width direction intersecting the direction of travel), the calculation unit 11 makes a negative determination in step S330 and returns to step S310.

ステップS340において、演算部11は、立体物等を示す点群データに基づいて所定の検出対象を示すデータを分離して図9による処理を終了し、図6のステップS40へ進む。一例として、自車両101の進行方向と交差する向きの立体物であって、路面からの高さが所定の範囲(例えば、100cm未満)に含まれる物体等を示すデータを分離して残す。また、進行方向と略平行な向きの立体物については、別のデータとして分離して残す。さらにまた、進行方向と交差する向きの立体物であっても高さが所定の範囲に含まれない立体物については、その立体物を示すデータを残さないようにすることができる。

さらに詳しく説明すると、進行方向と交差する向きの立体物であり、かつ高さが所定の範囲内に含まれる立体物から、路面の凹凸や、路面上の落下物といった静的かつ、小さな障害物に限定して分離することが可能となる。また、進行方向と略平行な向きの立体物から、縁石、壁、溝、ガードレール等のような道路端に関する立体物に限定して分離することが可能となる。
これは、例えば、路面上の車両や人といった移動物体の多くは、進行方向と交差する向きの立体物であり、かつ高さが所定の範囲(例えば100cm未満)に含まれないためである。このような移動立体物を以降の2Dマップに反映させないように、データを分離して残さないように処理をすることができる。
In step S340, the calculation unit 11 separates data indicating a predetermined detection target based on the point group data indicating a solid object, etc., ends the process in FIG. 9, and proceeds to step S40 in FIG. 6. As an example, data indicating objects, etc. that are three-dimensional objects in a direction that intersects the traveling direction of the host vehicle 101 and whose height from the road surface is within a predetermined range (for example, less than 100 cm) may be separated and left. Furthermore, three-dimensional objects that are oriented substantially parallel to the direction of travel are separated and left as separate data. Furthermore, even if the three-dimensional object is oriented perpendicular to the direction of travel, data indicating the three-dimensional object whose height is not within a predetermined range may not be left.

To explain in more detail, from three-dimensional objects that are oriented perpendicular to the direction of travel and whose height is within a predetermined range, to static and small obstacles such as uneven road surfaces and fallen objects on the road surface. It becomes possible to separate only . Furthermore, it is possible to limit the separation to three-dimensional objects related to road edges, such as curbs, walls, grooves, guardrails, etc., from three-dimensional objects oriented substantially parallel to the direction of travel.
This is because, for example, many moving objects such as vehicles and people on the road are three-dimensional objects that are oriented perpendicular to the direction of travel, and their heights are not within a predetermined range (for example, less than 100 cm). In order to prevent such a moving three-dimensional object from being reflected in the subsequent 2D map, processing can be performed so that the data is not separated and left behind.

以上説明した実施の形態によれば、以下のような作用効果を奏する。
(1)外界認識装置50は、自車両101の周囲に電磁波としての照射光を照射して周囲の外界状況を時系列に検出する車載検出器としてのライダ5と、ライダ5で検出された情報に基づいて、自車両101が走行する道路RDの路面情報を取得する路面情報取得部としての演算部11と、を備える。演算部11は、道路RD上の異なる位置でそれぞれ、自車両101から所定距離離れた道路RD上の第1領域(検出領域BX1に対応)のあらかじめ定めた検出対象を示す情報を認識する認識部111と、認識部111で認識した検出対象を示す情報を、自車両101の進行方向および走行速度に基づいてマッピングするマッピング部114と、を含む。
演算部11が道路RD上の第1領域について路面情報を取得するように構成したので、道路RDの路面全域の路面情報を一度に取得する場合と比べて、ライダ5が照射光を照射する照射点の数を低減することが可能になる。また、演算部11を構成する認識部111で認識した情報を、マッピング部114が自車両101の進行方向および走行速度に基づいてマッピングするので、自車両101の走行を実質的なスキャニング走行とみなすことが可能となる。これにより、第1領域が道路RDの進行方向の路面全域をカバーしていなくても、道路RDの路面全域についての路面情報を網羅することが可能となる。
以上により、外界認識装置50の検出対象とする物体等の位置や大きさの認識精度を低下させることなく、ライダ5の照射点数を低減できる。照射点数の低減は、演算部11の処理負荷の低減にもつながる。
According to the embodiment described above, the following effects are achieved.
(1) The external world recognition device 50 includes a lidar 5 as an on-vehicle detector that irradiates light as electromagnetic waves around the host vehicle 101 to detect the surrounding external world situation in time series, and information detected by the lidar 5. The calculation unit 11 is provided as a road surface information acquisition unit that acquires road surface information of the road RD on which the host vehicle 101 travels based on the following. The calculation unit 11 is a recognition unit that recognizes information indicating a predetermined detection target in a first area (corresponding to detection area BX1) on the road RD that is a predetermined distance away from the host vehicle 101 at different positions on the road RD. 111, and a mapping unit 114 that maps information indicating the detection target recognized by the recognition unit 111 based on the traveling direction and traveling speed of the own vehicle 101.
Since the calculation unit 11 is configured to acquire the road surface information for the first region on the road RD, the irradiation time when the lidar 5 irradiates the irradiation light is lower than the case where the road surface information for the entire road surface of the road RD is acquired at once. It becomes possible to reduce the number of points. Furthermore, since the mapping unit 114 maps the information recognized by the recognition unit 111 constituting the calculation unit 11 based on the traveling direction and traveling speed of the host vehicle 101, the travel of the host vehicle 101 is regarded as substantial scanning travel. becomes possible. Thereby, even if the first region does not cover the entire road surface in the traveling direction of the road RD, it is possible to cover the road surface information regarding the entire road surface of the road RD.
As described above, the number of irradiation points of the lidar 5 can be reduced without reducing the recognition accuracy of the position and size of the object to be detected by the external world recognition device 50. Reducing the number of irradiation points also leads to a reduction in the processing load on the calculation unit 11.

(2)上記(1)の外界認識装置50において、認識部111はさらに、道路RD上の異なる位置でそれぞれ、第1領域(検出領域BX1に対応)よりも自車両101に近い道路RD上の第2領域(検出領域BY1に対応)および第1領域よりも自車両101から遠い道路RD上の第3領域(検出領域BZ1に対応)の、あらかじめ定めた検出対象を示す情報を認識する。
このように構成したので、演算部11が道路RD上の第1領域(検出領域BX1に対応)のみで路面情報を取得する場合と比べて、路面情報を取得する範囲を道路RDの進行方向に拡張することが可能になる。この場合でも、道路RDの路面全域の路面情報を一度に取得する場合と比べて、ライダ5が照射光を照射する照射点の数を低減することができる。
さらに、例えば飛来物が突然に自車両101の進路上で検出領域BX1から外れた位置に落下した場面において、検出領域BY1またはBZ1に落下した場合には、これを認識することが可能になる。
(2) In the external world recognition device 50 of (1) above, the recognition unit 111 further performs the detection on the road RD closer to the own vehicle 101 than the first area (corresponding to the detection area BX1) at different positions on the road RD. Information indicating a predetermined detection target in a second region (corresponding to detection region BY1) and a third region on road RD (corresponding to detection region BZ1) farther from host vehicle 101 than the first region is recognized.
With this configuration, compared to the case where the calculation unit 11 acquires road surface information only from the first area on the road RD (corresponding to the detection area BX1), the range for acquiring road surface information can be adjusted in the traveling direction of the road RD. It becomes possible to expand. Even in this case, the number of irradiation points to which the rider 5 irradiates the irradiation light can be reduced compared to the case where road surface information for the entire road surface of the road RD is acquired at once.
Further, for example, in a scene where a flying object suddenly falls on the path of the host vehicle 101 at a position outside the detection area BX1, it becomes possible to recognize this if it falls into the detection area BY1 or BZ1.

(3)上記(2)の外界認識装置50において、認識部111は、第1領域(検出領域BX1に対応)に対して第1分解能で検出対象を示す情報を認識し、第2および第3領域(検出領域BY1およびBZ1に対応)に対して第1分解能よりも低い第2分解能で検出対象を示す情報を認識する。
このように構成したので、例えば、第1領域ではより高い認識精度を確保しつつ、第2および第3領域では第1領域と比べて認識精度を下げて、ライダ5が照射光を照射する照射点の数を適切に低減することが可能になる。
(3) In the external world recognition device 50 of (2) above, the recognition unit 111 recognizes the information indicating the detection target with the first resolution for the first region (corresponding to the detection region BX1), and Information indicating the detection target is recognized with respect to the region (corresponding to detection regions BY1 and BZ1) at a second resolution lower than the first resolution.
With this configuration, for example, while ensuring higher recognition accuracy in the first area, the recognition accuracy is lowered in the second and third areas compared to the first area, and the lidar 5 irradiates the irradiation light. It becomes possible to appropriately reduce the number of points.

(4)上記(1)の外界認識装置50において、演算部11はさらに、自車両101の車速に基づいて所定距離を算出し、自車両101から進行方向に所定距離離れた道路RD上で道路RDと交差するとともに、車速に基づく奥行幅を有して道路幅方向に長い帯状領域を、第1領域として画定する画定部112を含む。
このように構成したので、画定部112は、照射光が道路RDの左右の道路端に照射されるように第1領域(検出領域BX1に対応)を画定することが可能になる。画定部112はさらに、道路RD上を移動する自車両101からライダ5が第1領域に対応する検出領域BX1へ照射光を間欠的に照射する場合に、前回の照射光に基づいて演算部11で取得される路面情報と、今回の照射光に基づいて演算部11で取得される路面情報とが、進行方向に切れ目なくつながるように第1領域を画定することが可能になる。
(4) In the external world recognition device 50 of (1) above, the calculation unit 11 further calculates a predetermined distance based on the vehicle speed of the own vehicle 101, and calculates a predetermined distance on the road RD that is a predetermined distance away from the own vehicle 101 in the traveling direction. It includes a defining section 112 that defines, as a first region, a strip-shaped region that intersects with the RD, has a depth based on the vehicle speed, and is long in the road width direction.
With this configuration, the defining unit 112 can define the first area (corresponding to the detection area BX1) so that the left and right road ends of the road RD are irradiated with the irradiation light. Furthermore, when the rider 5 intermittently irradiates the detection area BX1 corresponding to the first area with irradiation light from the own vehicle 101 moving on the road RD, the demarcation unit 112 calculates the calculation unit 11 based on the previous irradiation light. It becomes possible to define the first region so that the road surface information acquired by the first area and the road surface information acquired by the calculation unit 11 based on the current irradiation light are seamlessly connected in the direction of travel.

(5)上記(4)の外界認識装置50において、演算部11はさらに、ライダ5に対し、少なくとも第1領域(検出領域BX1に対応)の路面で散乱した照射光が検出されるように照射光の照射方向を設定する設定部113を含む。
このように構成したので、例えば、道路RDの路面の高さHや勾配によって照射光が照射される奥行距離が変化する場合は、照射光の照射範囲を修正することが可能になる。また、道路RDのカーブによって照射光の照射範囲から道路RDの左右端(境界線RL、RB)が外れる場合も、照射光の照射範囲を修正することが可能になる。
(5) In the external world recognition device 50 of (4) above, the calculation unit 11 further irradiates the rider 5 so that the irradiation light scattered on the road surface in at least the first region (corresponding to the detection region BX1) is detected. It includes a setting section 113 that sets the direction of light irradiation.
With this configuration, for example, when the depth distance over which the irradiation light is irradiated changes depending on the height H or slope of the road surface of the road RD, it becomes possible to modify the irradiation range of the irradiation light. Further, even when the left and right ends (boundary lines RL, RB) of the road RD deviate from the irradiation range of the irradiation light due to a curve of the road RD, it is possible to correct the irradiation range of the irradiation light.

(6)上記(5)の外界認識装置50において、認識部111はさらに、ライダ5の本測定前の予備測定で検出された情報に基づいて自車両101の進行方向の路面データを認識し、設定部113は、所定距離と路面データとに基づいて、道路RD上の第1領域へ照射光を照射するための垂直方向および道路幅方向の照射範囲を設定する。
このように構成したので、本測定の前に照射光の照射範囲を垂直方向および道路幅方向に修正しておくことが可能になる。
(6) In the external world recognition device 50 of (5) above, the recognition unit 111 further recognizes road surface data in the traveling direction of the own vehicle 101 based on information detected in preliminary measurement before the main measurement of the rider 5, The setting unit 113 sets the irradiation range in the vertical direction and the road width direction for irradiating the first region on the road RD with the irradiation light, based on the predetermined distance and the road surface data.
With this configuration, it is possible to correct the irradiation range of the irradiation light in the vertical direction and the road width direction before the actual measurement.

(7)上記(6)の外界認識装置50において、設定部113は、第1分解能としての角度分解能に基づき第1領域(検出領域BX1に対応)を道路幅方向に分割して得られる各格子点の位置に、ライダ5の照射位置を対応付ける。
このように構成したので、検出領域BX1内にライダ5が照射光を照射する道路幅方向の照射点の数を、適切に低減することが可能になる。
(7) In the external world recognition device 50 of (6) above, the setting unit 113 includes each grid obtained by dividing the first region (corresponding to the detection region BX1) in the road width direction based on the angular resolution as the first resolution. The irradiation position of the lidar 5 is associated with the position of the point.
With this configuration, it is possible to appropriately reduce the number of irradiation points in the road width direction at which the rider 5 irradiates irradiation light within the detection area BX1.

(8)上記(7)の外界認識装置50において、設定部113は、第1分解能としての角度分解能に基づき第1領域(検出領域BX1に対応)を垂直方向にさらに分割して得られる各格子点の位置に、ライダ5の照射位置を対応付ける。
このように構成したので、検出領域BX1内にライダ5が照射光を照射する垂直方向の照射点の数を、適切に低減することが可能になる。
(8) In the external world recognition device 50 of (7) above, the setting unit 113 further divides the first region (corresponding to the detection region BX1) in the vertical direction based on the angular resolution as the first resolution, and each grid is obtained by The irradiation position of the lidar 5 is associated with the position of the point.
With this configuration, it is possible to appropriately reduce the number of irradiation points in the vertical direction at which the lidar 5 irradiates irradiation light within the detection region BX1.

(9)上記(8)の外界認識装置50において、設定部113は、第2分解能としての角度分解能に基づき第2および第3領域(検出領域BY1およびBZ1に対応)を道路幅方向に分割して得られる各格子点の位置に、ライダ5の照射位置を対応付ける。
このように構成したので、検出領域BY1およびBZ1内にライダ5が照射光を照射する道路幅方向の照射点の数を、適切に低減することが可能になる。
(9) In the external world recognition device 50 of (8) above, the setting unit 113 divides the second and third regions (corresponding to the detection regions BY1 and BZ1) in the road width direction based on the angular resolution as the second resolution. The irradiation position of the lidar 5 is associated with the position of each grid point obtained.
With this configuration, it is possible to appropriately reduce the number of irradiation points in the road width direction at which the lidar 5 irradiates irradiation light within the detection regions BY1 and BZ1.

(10)上記(9)の外界認識装置50において、設定部113は、第2分解能としての角度分解能に基づき第2および第3領域(検出領域BY1およびBZ1に対応)を垂直方向にさらに分割して得られる各格子点の位置に、ライダ5の照射位置を対応付ける。
このように構成したので、検出領域BY1およびBZ1内にライダ5が照射光を照射する垂直方向の照射点の数を、適切に低減することが可能になる。
(10) In the external world recognition device 50 of (9) above, the setting unit 113 further divides the second and third regions (corresponding to the detection regions BY1 and BZ1) in the vertical direction based on the angular resolution as the second resolution. The irradiation position of the lidar 5 is associated with the position of each grid point obtained.
With this configuration, it is possible to appropriately reduce the number of irradiation points in the vertical direction at which the lidar 5 irradiates irradiation light within the detection regions BY1 and BZ1.

上記実施の形態は、種々の形態に変形することができる。以下、変形例について説明する。
(変形例1)
マッピング部114は、ライダ5が道路RD上の異なる位置で取得した時系列の点群データに基づいて検出した路面の高さHを示すデータを、一次元マップ上にマッピングして一続きとなる路面勾配データを生成してもよい。
より具体的には、マッピング部114は、自車両101の移動速度と移動方向(例えば方位角)から、各測定時における道路RD上の奥行距離L1の地点の相対位置を自車両101の位置を中心に座標変換して算出する。マッピング部114は、本測定(ステップS310)により点群データがライダ5で取得される毎に、取得された点群データに基づく奥行距離L1の地点の路面の高さHを、上記一次元マップ上に記録する。一次元マップの情報は、記憶部12に記憶させてもよい。
The embodiments described above can be modified into various forms. Modifications will be described below.
(Modification 1)
The mapping unit 114 maps data indicating the height H of the road surface detected based on time-series point cloud data acquired by the rider 5 at different positions on the road RD onto a one-dimensional map to form a continuous map. Road surface slope data may also be generated.
More specifically, the mapping unit 114 calculates the relative position of the point of depth L1 on the road RD at each measurement time based on the moving speed and direction (for example, azimuth) of the own vehicle 101. Calculate by converting the coordinates to the center. Every time point cloud data is acquired by the lidar 5 in the main measurement (step S310), the mapping unit 114 calculates the height H of the road surface at the point with the depth distance L1 based on the acquired point cloud data on the one-dimensional map. Record above. The one-dimensional map information may be stored in the storage unit 12.

(変形例2)
自車両101から離れた遠方の路面においてライダ5による照射光の反射強度が弱く、十分な強さの反射光を検出できない場合がある。このような、路面による反射強度が検出可能なぎりぎりのレベルまで低下するときの奥行距離を、最大路面検出距離L´と呼ぶことにする。
(Modification 2)
The reflection intensity of the light irradiated by the rider 5 is weak on a road surface far away from the own vehicle 101, and there are cases where it is not possible to detect a sufficiently strong reflected light. The depth distance at which the intensity of reflection from the road surface decreases to a detectable level will be referred to as the maximum road surface detection distance L'.

変形例2において、自車両101の車速から計算される検出領域BXまでの奥行距離Lが、最大路面検出距離L´を超えてしまう場合(例えば奥行距離がL=150mのところ、最大路面検出距離L´=110mである場合)は、最大路面検出距離L´の地点での高さから所定の奥行距離Lの地点での高さを推定し、その時の検出領域BXを設定する。また、最大路面検出距離L´の地点の検出領域BX´も同時に設定する。
なお、検出領域BX´の奥行幅を広げて検出領域BX´と検出領域BXとをひとつながりの検出領域としてもよい。
変形例2によれば、遠方であることに起因して路面そのものの検出が困難な状況でも、反射光のレベルが路面の反射光よりも高い路面の凹凸、立体物等を検出することが可能になる。
In modification example 2, when the depth distance L to the detection area BX calculated from the vehicle speed of the own vehicle 101 exceeds the maximum road surface detection distance L' (for example, when the depth distance is L = 150 m, the maximum road surface detection distance When L'=110 m), the height at the point of the predetermined depth distance L is estimated from the height at the point of the maximum road surface detection distance L', and the detection area BX at that time is set. Furthermore, the detection area BX' at the point of the maximum road surface detection distance L' is also set at the same time.
Note that the depth width of the detection area BX' may be increased to make the detection area BX' and the detection area BX a continuous detection area.
According to modification example 2, even in situations where it is difficult to detect the road surface itself due to the distance, it is possible to detect irregularities on the road surface, three-dimensional objects, etc. where the level of reflected light is higher than that of the reflected light from the road surface. become.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施の形態および変形例により本発明が限定されるものではない。上記実施の形態と変形例の一つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the embodiments and modifications described above unless the characteristics of the present invention are impaired. It is also possible to arbitrarily combine the above embodiment and one or more of the modifications, and it is also possible to combine the modifications.

1 通信ユニット、2 測位ユニット、3 内部センサ群、4 カメラ、5 ライダ、10 コントローラ、11 演算部、12 記憶部、111 認識部、112 画定部、113 設定部、50 外界認識装置、100 車両制御装置、101 自車両、114 マッピング部、115 走行制御部、AC アクチュエータ 1 communication unit, 2 positioning unit, 3 internal sensor group, 4 camera, 5 lidar, 10 controller, 11 calculation unit, 12 storage unit, 111 recognition unit, 112 demarcation unit, 113 setting unit, 50 external world recognition device, 100 vehicle control device, 101 host vehicle, 114 mapping section, 115 travel control section, AC actuator

Claims (11)

自車両の周囲に電磁波を照射して周囲の外界状況を時系列に検出する車載検出器と、前記車載検出器で検出された情報に基づいて、前記自車両が走行する道路の路面情報を取得する路面情報取得部と、を備える外界認識装置であって、
前記路面情報取得部は、
前記道路上の異なる位置でそれぞれ、前記自車両から所定距離離れた前記道路上の第1領域の、あらかじめ定めた検出対象を示す情報を認識する認識部と、
前記認識部で認識した前記検出対象を示す情報を、前記自車両の進行方向および走行速度に基づいてマッピングするマッピング部と、
を含むことを特徴とする外界認識装置。
An on-vehicle detector that irradiates electromagnetic waves around the vehicle to detect the surrounding external environment in time series, and acquires road surface information of the road on which the vehicle is traveling based on the information detected by the on-vehicle detector. An external world recognition device comprising: a road surface information acquisition unit;
The road surface information acquisition unit includes:
a recognition unit that recognizes information indicating a predetermined detection target in a first area on the road that is a predetermined distance away from the host vehicle at different positions on the road;
a mapping unit that maps information indicating the detection target recognized by the recognition unit based on the traveling direction and traveling speed of the own vehicle;
An external world recognition device comprising:
請求項1に記載の外界認識装置において、
前記認識部はさらに、前記道路上の異なる位置でそれぞれ、前記第1領域よりも前記自車両に近い前記道路上の第2領域および前記第1領域よりも前記自車両から遠い前記道路上の第3領域の、あらかじめ定めた検出対象を示す情報を認識することを特徴とする外界認識装置。
The external world recognition device according to claim 1,
The recognition unit further includes a second area on the road that is closer to the host vehicle than the first area and a second area on the road that is farther from the host vehicle than the first area at different positions on the road. An external world recognition device characterized by recognizing information indicating predetermined detection targets in three areas.
請求項2に記載の外界認識装置において、
前記認識部は、前記第1領域に対して第1分解能で前記検出対象を示す情報を認識し、前記第2および第3領域に対して前記第1分解能よりも低い第2分解能で前記検出対象を示す情報を認識することを特徴とする外界認識装置。
The external world recognition device according to claim 2,
The recognition unit recognizes information indicating the detection target at a first resolution for the first region, and recognizes information indicating the detection target for the second and third regions at a second resolution lower than the first resolution. An external world recognition device characterized by recognizing information indicating.
請求項1に記載の外界認識装置において、
前記路面情報取得部はさらに、前記自車両の車速に基づいて前記所定距離を算出し、前記自車両から進行方向に前記所定距離離れた前記道路上で前記道路と交差するとともに、前記車速に基づく奥行幅を有して道路幅方向に長い帯状領域を、前記第1領域として画定する画定部を含むことを特徴とする外界認識装置。
The external world recognition device according to claim 1,
The road surface information acquisition unit further calculates the predetermined distance based on the vehicle speed of the host vehicle, and calculates the predetermined distance based on the vehicle speed while intersecting the road on the road that is the predetermined distance away from the host vehicle in the traveling direction. An external world recognition device comprising: a defining section that defines a strip-shaped region having a depth and being long in the road width direction as the first region.
請求項4に記載の外界認識装置において、
前記路面情報取得部はさらに、前記車載検出器に対し、少なくとも前記第1領域の路面で散乱した電磁波が検出されるように前記電磁波の照射方向を設定する設定部を含むことを特徴とする外界認識装置。
The external world recognition device according to claim 4,
The road surface information acquisition unit further includes a setting unit that sets the irradiation direction of the electromagnetic waves to the on-vehicle detector so that at least electromagnetic waves scattered on the road surface in the first area are detected. recognition device.
請求項5に記載の外界認識装置において、
前記認識部はさらに、前記車載検出器の本測定前の予備測定で検出された情報に基づいて前記自車両の進行方向の路面データを認識し、
前記設定部は、前記所定距離と前記路面データとに基づいて、前記道路上の前記第1領域へ電磁波を照射するための垂直方向および前記道路幅方向の照射範囲を設定することを特徴とする外界認識装置。
The external world recognition device according to claim 5,
The recognition unit further recognizes road surface data in the traveling direction of the own vehicle based on information detected by the on-vehicle detector in a preliminary measurement before the main measurement,
The setting unit may set an irradiation range in the vertical direction and the road width direction for irradiating the first area on the road with electromagnetic waves, based on the predetermined distance and the road surface data. External world recognition device.
請求項6に記載の外界認識装置において、
前記設定部は、前記第1分解能に基づき前記第1領域を前記道路幅方向に分割して得られる各格子点の位置に、前記車載検出器の照射位置を対応付けることを特徴とする外界認識装置。
The external world recognition device according to claim 6,
The external world recognition device is characterized in that the setting unit associates the irradiation position of the on-vehicle detector with the position of each grid point obtained by dividing the first region in the road width direction based on the first resolution. .
請求項7に記載の外界認識装置において、
前記設定部は、前記第1分解能に基づき前記第1領域を垂直方向にさらに分割して得られる各格子点の位置に、前記車載検出器の照射位置を対応付けることを特徴とする外界認識装置。
The external world recognition device according to claim 7,
The external world recognition device is characterized in that the setting unit associates the irradiation position of the vehicle-mounted detector with the position of each grid point obtained by further dividing the first region in the vertical direction based on the first resolution.
請求項8に記載の外界認識装置において、
前記設定部は、前記第2分解能に基づき前記第2および第3領域を前記道路幅方向に分割して得られる各格子点の位置に、前記車載検出器の照射位置を対応付けることを特徴とする外界認識装置。
The external world recognition device according to claim 8,
The setting unit is characterized in that the setting unit associates the irradiation position of the on-vehicle detector with the position of each grid point obtained by dividing the second and third regions in the road width direction based on the second resolution. External world recognition device.
請求項9に記載の外界認識装置において、
前記設定部は、前記第2分解能に基づき前記第2および第3領域を垂直方向にさらに分割して得られる各格子点の位置に、前記車載検出器の照射位置を対応付けることを特徴とする外界認識装置。
The external world recognition device according to claim 9,
The setting unit associates the irradiation position of the vehicle-mounted detector with the position of each grid point obtained by further dividing the second and third regions in the vertical direction based on the second resolution. recognition device.
請求項1から10のいずれか一項に記載の外界認識装置において、
前記車載検出器は、ライダであることを特徴とする外界認識装置。
The external world recognition device according to any one of claims 1 to 10,
The external world recognition device is characterized in that the vehicle-mounted detector is a lidar.
JP2022140009A 2022-09-02 2022-09-02 Exterior environment recognition apparatus Pending JP2024035511A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022140009A JP2024035511A (en) 2022-09-02 2022-09-02 Exterior environment recognition apparatus
CN202311027644.5A CN117647818A (en) 2022-09-02 2023-08-15 External recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022140009A JP2024035511A (en) 2022-09-02 2022-09-02 Exterior environment recognition apparatus

Publications (1)

Publication Number Publication Date
JP2024035511A true JP2024035511A (en) 2024-03-14

Family

ID=90043886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022140009A Pending JP2024035511A (en) 2022-09-02 2022-09-02 Exterior environment recognition apparatus

Country Status (2)

Country Link
JP (1) JP2024035511A (en)
CN (1) CN117647818A (en)

Also Published As

Publication number Publication date
CN117647818A (en) 2024-03-05

Similar Documents

Publication Publication Date Title
EP4141737A1 (en) Target detection method and device
RU2668459C1 (en) Position evaluation device and method
US11091152B2 (en) Vehicle control device, vehicle control method, and storage medium
US11157751B2 (en) Traffic guide object recognition device, traffic guide object recognition method, and storage medium
US11631257B2 (en) Surroundings recognition device, and surroundings recognition method
US11370420B2 (en) Vehicle control device, vehicle control method, and storage medium
US11042759B2 (en) Roadside object recognition apparatus
JP2019148889A (en) Road boundary detection device
JP2021064056A (en) Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program
JP6645001B2 (en) Vehicle control device, vehicle control method, and program
JP7216695B2 (en) Surrounding vehicle monitoring device and surrounding vehicle monitoring method
JP2024035511A (en) Exterior environment recognition apparatus
JP7486556B2 (en) Lane marking recognition device
JP7083768B2 (en) Recognition device, vehicle control device, recognition method, and program
JP6827391B2 (en) Vehicle control devices, vehicle control methods, and programs
JP7332731B1 (en) External recognition device
CN115050205B (en) Map generation device and position recognition device
US11867526B2 (en) Map generation apparatus
US20220307861A1 (en) Map generation apparatus
CN115050203B (en) Map generation device and vehicle position recognition device
JP7419085B2 (en) Recognition device, recognition system, method, and program
US20240051540A1 (en) Vehicle controller, method, and computer program for vehicle control
CN118209093A (en) Map evaluation device and vehicle control system
JP2023149511A (en) Map generation device
CN114954510A (en) Dividing line recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240702