JP2021009655A - Surrounding object recognition method and surrounding object recognition device - Google Patents

Surrounding object recognition method and surrounding object recognition device Download PDF

Info

Publication number
JP2021009655A
JP2021009655A JP2019124398A JP2019124398A JP2021009655A JP 2021009655 A JP2021009655 A JP 2021009655A JP 2019124398 A JP2019124398 A JP 2019124398A JP 2019124398 A JP2019124398 A JP 2019124398A JP 2021009655 A JP2021009655 A JP 2021009655A
Authority
JP
Japan
Prior art keywords
lane
vehicle
blockage
area
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019124398A
Other languages
Japanese (ja)
Other versions
JP7291015B2 (en
Inventor
健文 後藤
Takefumi Goto
健文 後藤
陽平 三品
Yohei Mishina
陽平 三品
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2019124398A priority Critical patent/JP7291015B2/en
Publication of JP2021009655A publication Critical patent/JP2021009655A/en
Application granted granted Critical
Publication of JP7291015B2 publication Critical patent/JP7291015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To execute a driving support suitable for a driving situation without distinguishing and recognizing each object in a scene where there is an object that blocks a planned driving lane of an own vehicle.SOLUTION: A surrounding object recognition device comprises: a rider 113 that acquires point cloud data Pn of surrounding environment; and a surrounding object recognition unit 315 that recognizes an object existing around an own vehicle V based on the point cloud data Pn acquired by the rider 113. In a surrounding object recognition method, the surrounding object recognition unit 315 recognizes a lane blockage region LSA, which is a region in which a left lane LL is blocked by parked vehicles PV1 and PV2, which hinder a traveling of the own vehicle V, based on the point cloud data Pn. Then, the lane blockage region LSA is expanded by connecting the point cloud data Pn in the lane traveling direction starting from a starting point SP of the lane blockage region LSA.SELECTED DRAWING: Figure 8

Description

本開示は、自車の周囲に存在する物体を認識する周囲物体認識方法及び周囲物体認識装置に関する。 The present disclosure relates to a peripheral object recognition method and a peripheral object recognition device for recognizing an object existing around the own vehicle.

従来、事象情報取得部が、解析部及び通信部から送られた移動体の走行の妨害となり得る事象情報に関する情報を受けて、当該情報から、路上駐車車両の有無及び渋滞列の有無、並びに、走行妨害区間を含む事象情報を導出する。判定部は、進行車線上に路上駐車車両が存在し、かつ、走行車線が進行車線の場合には、移動体が走行妨害区間に到達する前に、第1の車線変更が必要と判定する。そして、案内着目地点に近接する側の走行妨害区間の先頭から案内着目地点までの間の区間が車線変更禁止区間でないときには、判定部は、当該走行妨害区間を通過した後に、進行車線への第2の車線変更が必要と判定する。引き続き、生成部が、判定部による判定結果の内容の案内情報を生成する、情報生成装置及び情報生成方法が開示されている。 Conventionally, the event information acquisition unit receives information on event information sent from the analysis unit and the communication unit that may interfere with the traveling of a moving object, and from the information, the presence / absence of a vehicle parked on the street, the presence / absence of a traffic jam, and the presence / absence of a traffic jam. Derived event information including the traveling obstruction section. When the vehicle is parked on the road on the traveling lane and the traveling lane is the traveling lane, the determination unit determines that the first lane change is necessary before the moving body reaches the traveling obstruction section. Then, when the section from the beginning of the traveling obstruction section on the side close to the guidance attention point to the guidance attention point is not a lane change prohibition section, the determination unit determines the first lane after passing through the travel obstruction section. It is determined that the lane change of 2 is necessary. Subsequently, an information generation device and an information generation method are disclosed in which the generation unit generates guidance information of the content of the determination result by the determination unit.

特開2003−159966号公報Japanese Unexamined Patent Publication No. 2003-159966

特許文献1に開示された先行技術例では、カメラを用いて車両のハザード状態を認識するなどして駐車車両を認識している。しかし、駐車車列の2台目以降の車両は1台目の車両の死角となることがあり、車両として認識することも困難なことが多い。その場合、2台目の駐車車両物体のように、認識した物体に続く後方(車線進行方向)の物体に対する不適切な走行車線計画が立てられてしまい、走行状況に適した走行支援を実行することができない、という課題があった。 In the prior art example disclosed in Patent Document 1, a parked vehicle is recognized by recognizing a hazard state of the vehicle by using a camera. However, the second and subsequent vehicles in the parked convoy may be blind spots for the first vehicle, and it is often difficult to recognize them as vehicles. In that case, an inappropriate driving lane plan is made for an object behind (the direction of lane travel) following the recognized object, such as a second parked vehicle object, and driving support suitable for the driving situation is executed. There was a problem that it could not be done.

本開示は、上記課題に着目してなされたもので、自車の走行予定車線を閉塞する物体が存在するシーンにおいて、物体それぞれを区別して認識しなくても、走行状況に適した走行支援を実行することを目的とする。 This disclosure focuses on the above-mentioned problems, and provides driving support suitable for a driving situation without distinguishing and recognizing each object in a scene in which an object blocking the planned driving lane of the own vehicle exists. The purpose is to execute.

上記目的を達成するため、本開示は、周囲環境の物体の空間位置情報を取得するセンサと、センサにより取得された空間位置情報により、自車の周囲に存在する物体を認識するコントローラと、を備える。コントローラは、以下の手順により車線閉塞領域を認識する。空間位置情報により、自車の走行障害となる物体によって車線が閉塞されている領域である車線閉塞領域を認識する。車線閉塞領域の開始点を起点として車線進行方向に物体の空間位置情報を連結することにより、車線閉塞領域を拡張する。 In order to achieve the above object, the present disclosure includes a sensor that acquires spatial position information of an object in the surrounding environment and a controller that recognizes an object existing around the own vehicle by the spatial position information acquired by the sensor. Be prepared. The controller recognizes the lane blockage area by the following procedure. Based on the spatial position information, the lane obstruction area, which is the area where the lane is obstructed by an object that hinders the traveling of the own vehicle, is recognized. The lane obstruction area is expanded by connecting the spatial position information of the object in the lane traveling direction starting from the start point of the lane obstruction area.

上記課題解決手段を採用したため、自車の走行予定車線を閉塞する物体が存在するシーンにおいて、物体それぞれを区別して認識しなくても、走行状況に適した走行支援を実行することができる。 Since the above-mentioned problem-solving means is adopted, in a scene in which an object blocking the planned traveling lane of the own vehicle exists, it is possible to execute the traveling support suitable for the traveling situation without distinguishing and recognizing each object.

実施例1の周囲物体認識方法及び周囲物体認識装置が適用された自動運転車両のシステム構成を示す全体システム構成図である。FIG. 5 is an overall system configuration diagram showing a system configuration of an autonomous driving vehicle to which the surrounding object recognition method and the surrounding object recognition device of the first embodiment are applied. 自動運転コントローラの制御ブロック構成を示すブロック構成図である。It is a block block diagram which shows the control block structure of an automatic operation controller. 自動運転コントローラの周囲物体認識部の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the surrounding object recognition part of the automatic driving controller. 周囲物体認識部にて実行される周囲物体認識制御処理の流れ示すフローチャートである。It is a flowchart which shows the flow of the surrounding object recognition control processing executed in the surrounding object recognition part. 背景技術での自車の周囲物体を認識する構成を示すブロック構成図である。It is a block block diagram which shows the structure which recognizes the surrounding object of the own vehicle by the background technology. 背景技術での課題を示す課題説明図である。It is a problem explanatory diagram which shows the problem in the background technology. 本開示での車線閉塞領域の開始点認識作用及び車線閉塞領域の拡張作用を示す作用説明図である。It is an action explanatory view which shows the start point recognition action of the lane blockage region and the expansion action of a lane blockage region in this disclosure. 本開示での周囲物体認識方法により認識される拡張した車線閉塞領域情報を用いた目標軌跡生成を示す効果説明図である。It is an effect explanatory diagram which shows the target locus generation using the extended lane blockage area information recognized by the surrounding object recognition method in this disclosure. ライダーから取得した点群データによる車線閉塞候補の認識作用を示す作用説明図である。It is an action explanatory diagram which shows the recognition action of a lane blockage candidate by the point cloud data acquired from a rider. ライダーから取得した点群データによる駐車車両の認識作用及び車線閉塞領域の開始点設定作用を示す作用説明図である。It is an action explanatory diagram which shows the recognition action of a parked vehicle and the start point setting action of a lane blockage area by the point cloud data acquired from a rider. ライダーから取得した点群データによる車線閉塞領域を縦乖離距離条件により拡張する車線閉塞領域拡張作用を示す作用説明図である。It is an action explanatory view which shows the lane blockage area expansion action which expands a lane blockage area by a vertical deviation distance condition by a point cloud data acquired from a rider. ライダーから取得した点群データによる車線閉塞領域の拡張作用において横乖離距離条件により連結対象から除外する例を示す作用説明図である。It is an action explanatory diagram which shows the example which excludes from the connection target by the lateral deviation distance condition in the expansion action of the lane blockage area by the point cloud data acquired from a rider. ライダーから取得した点群データによる車線閉塞領域の拡張作用において移動物体との判定により連結対象から除外する例を示す作用説明図である。It is an action explanatory diagram which shows the example which excludes from the connection target by the judgment that it is a moving object in the expansion action of the lane blockage area by the point cloud data acquired from a rider. 車線閉塞領域の開始点の認識ができない場合における車線閉塞領域の拡張処理作用を示す作用説明図である。It is an operation explanatory view which shows the expansion processing action of a lane blockage area when the start point of a lane blockage area cannot be recognized.

以下、本開示による周囲物体認識方法及び周囲物体認識装置を実施するための形態を、図面に示す実施例1に基づいて説明する。 Hereinafter, a mode for implementing the surrounding object recognition method and the surrounding object recognition device according to the present disclosure will be described based on the first embodiment shown in the drawings.

実施例1における周囲物体認識方法及び周囲物体認識装置は、自動運転モードを選択すると目標軌跡が生成され、生成された目標軌跡に沿って走行するように速度及び舵角による車両運動が制御される自動運転車両(走行支援車両の一例)に適用したものである。以下、実施例1の構成を、「全体システム構成」、「自動運転コントローラの制御ブロック構成」、「周囲物体認識部の詳細構成」、「周囲物体認識制御処理構成」に分けて説明する。 In the surrounding object recognition method and the surrounding object recognition device in the first embodiment, a target locus is generated when the automatic driving mode is selected, and the vehicle motion is controlled by the speed and the steering angle so as to travel along the generated target locus. It is applied to an autonomous driving vehicle (an example of a driving support vehicle). Hereinafter, the configuration of the first embodiment will be described separately as "overall system configuration", "control block configuration of the automatic operation controller", "detailed configuration of the surrounding object recognition unit", and "surrounding object recognition control processing configuration".

[全体システム構成(図1)]
自動運転車両ADは、図1に示すように、車載センサ1と、ナビゲーション装置2と、車載制御ユニット3と、アクチュエータ4と、HMIモジュール5と、を備えている。なお、「HMI」は「Human Machine Interface」の略称である。
[Overall system configuration (Fig. 1)]
As shown in FIG. 1, the autonomous driving vehicle AD includes an in-vehicle sensor 1, a navigation device 2, an in-vehicle control unit 3, an actuator 4, and an HMI module 5. "HMI" is an abbreviation for "Human Machine Interface".

車載センサ1は、自車周辺の物体や道路形状などの周辺環境、自車の状態などを認識するために自車に搭載された各種のセンサである。この車載センサ1は、外部センサ11、GPS受信機12、内部センサ13を有する。なお、車載センサ1では、複数の異なるセンサを用いて必要な情報を取得するセンサフュージョンを行ってもよい。 The in-vehicle sensor 1 is various sensors mounted on the own vehicle in order to recognize an object around the own vehicle, a surrounding environment such as a road shape, and a state of the own vehicle. The in-vehicle sensor 1 has an external sensor 11, a GPS receiver 12, and an internal sensor 13. In the in-vehicle sensor 1, sensor fusion may be performed to acquire necessary information by using a plurality of different sensors.

外部センサ11は、自車周辺の環境情報を検出する検出機器である。この外部センサ11は、例えば、カメラ、レーダー(「Radar」:Radio Detection and Rangingの略)、ライダー(「Lidar」:Light Detection and Rangingの略)、ソナー(「Sonar」:Sound Navigation and Rangingの略)などから構成される。 The external sensor 11 is a detection device that detects environmental information around the vehicle. The external sensor 11 includes, for example, a camera, a radar (“Radar”: an abbreviation for Radio Detection and Ranging), a lidar (“Lidar”: an abbreviation for Light Detection and Ranging), and a sonar (“Sonar”: an abbreviation for Sound Navigation and Ranging). ) Etc.

GPS受信機12は、GNSSアンテナ12aにより3個以上のGPS衛星からの信号を受信して、自車位置を示す位置データ(緯度及び経度)を取得する装置である。なお、「GNSS」は「Global Navigation Satellite System」の略称、「GPS」は「Global Positioning System」の略称である。また、GPS受信機12による信号受信が不良のときには、内部センサ13やオドメーター(車両移動量計測装置)を利用してGPS受信機12の機能を補完してもよい。 The GPS receiver 12 is a device that receives signals from three or more GPS satellites by the GNSS antenna 12a and acquires position data (latitude and longitude) indicating the position of the own vehicle. In addition, "GNSS" is an abbreviation for "Global Navigation Satellite System", and "GPS" is an abbreviation for "Global Positioning System". Further, when the signal reception by the GPS receiver 12 is poor, the function of the GPS receiver 12 may be complemented by using the internal sensor 13 or the odometer (vehicle movement amount measuring device).

内部センサ13は、自車の速度・加速度・姿勢データなどの自車情報を検出する検出機器である。例えば、6軸慣性センサ(IMU:Inertial Measurement Unit)を有し、自車の移動方向、向き、回転を検出することができる。さらに、内部センサ13の検出結果に基づいて移動距離や移動速度などを算出できる。6軸慣性センサは、前後、左右、上下の三方向の加速度を検出できる加速度センサと、この三方向の回転の速さを検出できるジャイロセンサを組み合わせることで実現される。なお、内部センサ13には、車輪速センサやヨーレイトセンサやアクセル操作量センサ、などの必要なセンサを含むことができる。 The internal sensor 13 is a detection device that detects own vehicle information such as speed, acceleration, and attitude data of the own vehicle. For example, it has a 6-axis inertial measurement unit (IMU) and can detect the moving direction, direction, and rotation of the own vehicle. Further, the moving distance, the moving speed, and the like can be calculated based on the detection result of the internal sensor 13. The 6-axis inertial sensor is realized by combining an acceleration sensor capable of detecting acceleration in three directions of front-back, left-right, and up-down, and a gyro sensor capable of detecting the speed of rotation in these three directions. The internal sensor 13 can include necessary sensors such as a wheel speed sensor, a yaw rate sensor, and an accelerator operation amount sensor.

さらに、この車載センサ1では、図示していない外部データ通信器との間で無線通信を行うことで、必要な情報を外部から取得してもよい。即ち、外部データ通信器が、例えば、他車に搭載されたデータ通信器の場合、自車と他車の間で車車間通信を行う。この車車間通信により、他車が保有する様々な情報から必要な情報を取得することができる。また、外部データ通信器が、例えば、インフラ設備に設けられたデータ通信器の場合、自車とインフラ設備の間でインフラ通信を行う。このインフラ通信により、インフラ設備が保有する情報の中から必要な情報を取得することができる。この結果、例えば、自動運転コントローラ31が有する高精度地図データでは不足する情報や変更された情報がある場合に必要な地図データを補うことができる。また、自車が走行を予定している経路上での渋滞情報や走行規制情報などの交通情報を取得することもできる。 Further, in the in-vehicle sensor 1, necessary information may be acquired from the outside by performing wireless communication with an external data communication device (not shown). That is, when the external data communication device is, for example, a data communication device mounted on another vehicle, vehicle-to-vehicle communication is performed between the own vehicle and the other vehicle. Through this vehicle-to-vehicle communication, necessary information can be obtained from various information held by other vehicles. Further, when the external data communication device is, for example, a data communication device provided in the infrastructure equipment, infrastructure communication is performed between the own vehicle and the infrastructure equipment. Through this infrastructure communication, necessary information can be obtained from the information held by the infrastructure equipment. As a result, for example, it is possible to supplement the map data necessary when the high-precision map data possessed by the automatic driving controller 31 has insufficient information or changed information. It is also possible to acquire traffic information such as traffic congestion information and driving regulation information on the route on which the vehicle is scheduled to travel.

ナビゲーション装置2は、施設情報データを内蔵し、目的地までの自車が走行する経路を案内する装置である。ナビゲーション装置2は、道路の車線の位置情報が含まれる高精度地図データを内蔵するようにしても良い。このナビゲーション装置2では、目的地が入力されると、自車の現在地(或いは任意に設定された出発地)から目的地までの案内経路が生成される。生成された案内経路の情報は、高精度地図データと合成されてHMIモジュール5のディスプレイに表示される。尚、目的地は、車両の乗員が車内で設定したものを用いてもよいし、或いは、ユーザー端末(例えば、携帯電話、スマートフォン)によりユーザーが設定した目的地を、無線通信を介して自車で受信し、受信した目的地を用いてもよい。また案内経路は、自車に備わるコントローラを用いたナビゲーション装置により算出してもよいし、或いは、車外のコントローラを用いたナビゲーション装置により算出してもよい。 The navigation device 2 is a device that incorporates facility information data and guides the route on which the vehicle travels to the destination. The navigation device 2 may include high-precision map data including position information of lanes on the road. In the navigation device 2, when the destination is input, a guide route from the current location (or an arbitrarily set departure point) of the own vehicle to the destination is generated. The generated guidance route information is combined with the high-precision map data and displayed on the display of the HMI module 5. As the destination, the one set by the occupant of the vehicle in the vehicle may be used, or the destination set by the user by the user terminal (for example, a mobile phone or a smartphone) may be set by the user via wireless communication. You may use the received destination. Further, the guide route may be calculated by a navigation device using a controller provided in the own vehicle, or may be calculated by a navigation device using a controller outside the vehicle.

車載制御ユニット3は、CPUやメモリを備えており、車載センサ1によって検出された各種の検出情報や、ナビゲーション装置2によって生成された案内経路情報、必要に応じて適宜入力されるドライバ入力情報を統合処理する。そして、この車載制御ユニット3は、階層処理により車両運動を制御するコントローラである。なお、「階層処理」とは、入力情報に対して複数の処理を順に(階層的に)実行して最終的な出力情報を演算することであり、上位階層の処理にて出力された出力値(演算値)が下位階層の処理での入力値となる関係になる。 The vehicle-mounted control unit 3 includes a CPU and a memory, and receives various detection information detected by the vehicle-mounted sensor 1, guidance route information generated by the navigation device 2, and driver input information appropriately input as needed. Integrated processing. The in-vehicle control unit 3 is a controller that controls vehicle motion by hierarchical processing. Note that "hierarchical processing" is to calculate the final output information by sequentially (hierarchically) executing a plurality of processes on the input information, and the output value output in the upper layer process. (Calculated value) is the input value in the lower layer processing.

この車載制御ユニット3は、目標車速プロファイルを含む目標軌跡を生成する自動運転コントローラ31と、生成された目標軌跡に基づいて車両運動を制御するための指令値を演算する車両運動コントローラ32と、を有している。ここで、第1制御周期にて演算を行う自動運転コントローラ31によって上位階層の処理を行い、第1制御周期よりも短い第2制御周期にて演算を行う車両運動コントローラ32によって下位階層の処理を行う。 The in-vehicle control unit 3 includes an automatic driving controller 31 that generates a target trajectory including a target vehicle speed profile, and a vehicle motion controller 32 that calculates a command value for controlling vehicle motion based on the generated target trajectory. Have. Here, the automatic driving controller 31 that performs the calculation in the first control cycle performs the processing of the upper layer, and the vehicle motion controller 32 that performs the calculation in the second control cycle shorter than the first control cycle performs the processing of the lower layer. Do.

自動運転コントローラ31では、車載センサ1やナビゲーション装置2からの入力情報や高精度地図データなどに基づき、目標車速プロファイルを含む目標軌跡を階層処理により生成する。ここで、「目標軌跡」とは、自車を自動運転走行させる際に目標とする走行軌跡であり、例えば、自車が車線幅内で走行する軌跡や、自車周囲の走行可能領域の中での走行する軌跡や、障害物を回避する軌跡などを含む。生成された目標車速プロファイルを含む目標軌跡の情報は車両運動コントローラ32に出力される。生成された目標軌跡の情報は、高精度地図データと合成されてHMIモジュール5のディスプレイに表示されるようにしてもよい。 The automatic driving controller 31 generates a target trajectory including a target vehicle speed profile by hierarchical processing based on input information from the vehicle-mounted sensor 1 and the navigation device 2, high-precision map data, and the like. Here, the "target locus" is a travel locus that is a target when the vehicle is automatically driven, and is, for example, a locus in which the vehicle travels within the lane width or a travelable area around the vehicle. Includes trajectories for traveling on the road and trajectories for avoiding obstacles. The information of the target trajectory including the generated target vehicle speed profile is output to the vehicle motion controller 32. The generated target trajectory information may be combined with the high-precision map data and displayed on the display of the HMI module 5.

車両運動コントローラ32では、目標車速プロファイルを含む目標軌跡の情報やドライバ操作による入力情報(以下、「ドライバ入力」という。)に基づいて自車を走行させるための制御指令値を演算する。演算された制御指令値はアクチュエータ4に出力される。なお、車両運動コントローラ32は、ドライバ入力の有無によって走行モードを調停し、調停結果に応じた制御指令値を演算する。 The vehicle motion controller 32 calculates a control command value for driving the own vehicle based on the target trajectory information including the target vehicle speed profile and the input information by the driver operation (hereinafter, referred to as "driver input"). The calculated control command value is output to the actuator 4. The vehicle motion controller 32 arbitrates the traveling mode depending on the presence or absence of driver input, and calculates a control command value according to the arbitration result.

アクチュエータ4は、自車の直進走行/旋回走行/停止させるための制御アクチュエータであり、速度制御アクチュエータ41と、操舵制御アクチュエータ42と、を有する。なお、走行には、加速走行/定速走行/減速走行を含む。 The actuator 4 is a control actuator for traveling straight / turning / stopping the own vehicle, and includes a speed control actuator 41 and a steering control actuator 42. The running includes acceleration running / constant speed running / deceleration running.

速度制御アクチュエータ41は、車載制御ユニット3から入力された速度制御指令値に基づいて駆動輪へ出力する駆動トルク又は制動トルクを制御する。速度制御アクチュエータ41としては、例えば、エンジン車の場合にエンジンを用い、ハイブリッド車の場合にエンジンとモータ/ジェネレータを用い、電気自動車の場合にモータ/ジェネレータを用いる。また、制動トルクのみを制御するアクチュエータとしては、例えば、油圧ブースタや電動ブースタやブレーキモータアクチュエータなどを用いる。 The speed control actuator 41 controls the drive torque or braking torque output to the drive wheels based on the speed control command value input from the vehicle-mounted control unit 3. As the speed control actuator 41, for example, an engine is used in the case of an engine vehicle, an engine and a motor / generator are used in the case of a hybrid vehicle, and a motor / generator is used in the case of an electric vehicle. Further, as the actuator that controls only the braking torque, for example, a hydraulic booster, an electric booster, a brake motor actuator, or the like is used.

操舵制御アクチュエータ42は、車載制御ユニット3から入力された操舵制御指令値に基づいて操舵輪の転舵角を制御する。なお、操舵制御アクチュエータ42としては、ステアリングシステムの操舵力伝達系に設けられる操舵モータなどを用いる。 The steering control actuator 42 controls the steering angle of the steering wheels based on the steering control command value input from the vehicle-mounted control unit 3. As the steering control actuator 42, a steering motor or the like provided in the steering force transmission system of the steering system is used.

HMIモジュール5は、自車のドライバを含む乗員と車載制御ユニット3の間で互いの意思や情報を伝達するためのインターフェイスである。HMIモジュール5は、例えば、乗員に自動運転制御状況などによる画像情報を表示するヘッドアップディスプレイやメータディスプレイ、アナウンス音声を出力するスピーカ、点灯や点滅により警告するランプ、乗員が入力操作を行う操作ボタンやタッチパネルなどから構成される。 The HMI module 5 is an interface for transmitting mutual intentions and information between the occupant including the driver of the own vehicle and the vehicle-mounted control unit 3. The HMI module 5 includes, for example, a head-up display or meter display that displays image information based on the automatic driving control status to the occupant, a speaker that outputs an announcement sound, a lamp that warns the occupant by lighting or blinking, and an operation button that the occupant performs an input operation. And touch panel.

[自動運転コントローラの制御ブロック構成(図2)]
自動運転コントローラ31は、図2に示すように、目標軌跡生成に必要な情報の取得処理部として、高精度地図データ記憶部311と、自己位置推定部312と、走行環境認識部313と、周囲物体認識部315と、を備えている。そして、目標軌跡を生成する階層処理部として、走行車線計画部316と、動作決定部317と、走行領域設定部318と、目標軌跡生成部319と、を備えている。
[Control block configuration of automatic driving controller (Fig. 2)]
As shown in FIG. 2, the automatic driving controller 31 includes a high-precision map data storage unit 311, a self-position estimation unit 312, a driving environment recognition unit 313, and surroundings as information acquisition processing units necessary for generating a target trajectory. It includes an object recognition unit 315. Then, as a hierarchical processing unit for generating a target locus, a traveling lane planning unit 316, an operation determining unit 317, a traveling area setting unit 318, and a target locus generating unit 319 are provided.

高精度地図データ記憶部311は、車外に存在する静止物体の三次元の位置情報(経度、緯度、高さ)が設定された高精度三次元地図データ(以下、「HDマップ」という)が格納された車載メモリである。高精度地図データの静止物体には、例えば、横断歩道、停止線、各種標識、分岐点、道路標示、信号機、電柱、建物、看板、車道やレーンの中心線、区画線、路肩線、道路と道路のつながりなどの様々な要素が含まれる。高精度地図データ記憶部311には、必ずしも上記の静止物体の全ての要素が含まれる必要はない。 The high-precision map data storage unit 311 stores high-precision three-dimensional map data (hereinafter referred to as "HD map") in which three-dimensional position information (longitude, latitude, height) of a stationary object existing outside the vehicle is set. It is an in-vehicle memory. Still objects of high-precision map data include, for example, pedestrian crossings, stop lines, various signs, branch points, road markings, traffic lights, utility poles, buildings, signs, center lines of roads and lanes, lane markings, shoulder lines, and roads. It includes various factors such as road connections. The high-precision map data storage unit 311 does not necessarily have to include all the elements of the above-mentioned stationary object.

自己位置推定部312は、入力情報に基づいて高精度地図上での自車の現在地(自己位置)を推定する。自己位置推定部312には、車載センサ1からのセンサ情報と、高精度地図データ記憶部311からのHDマップ情報などが入力される。そして、自己位置推定部312は、例えば、入力されたセンサ情報とHDマップ情報とをマッチングして自己位置を推定する。自己位置推定部312からは、走行環境認識部313へ自己位置情報が出力される。 The self-position estimation unit 312 estimates the current location (self-position) of the own vehicle on the high-precision map based on the input information. Sensor information from the vehicle-mounted sensor 1 and HD map information from the high-precision map data storage unit 311 are input to the self-position estimation unit 312. Then, the self-position estimation unit 312 estimates the self-position by matching the input sensor information with the HD map information, for example. The self-position estimation unit 312 outputs the self-position information to the driving environment recognition unit 313.

走行環境認識部313は、入力情報と、自車走行環境の刻々と変化する動的な情報を用い、自車の走行環境を認識する。走行環境認識部313には、車載センサ1からのセンサ情報と、ナビゲーション装置2からの案内経路情報と、高精度地図データ記憶部311からのHDマップ情報と、自己位置推定部312からの自己位置情報などが入力される。そして、走行環境認識部313は、推定された自車の現在地を基準として自車両周囲領域の走行環境認識情報を演算する。走行環境認識部313からは、動作決定部317へ走行環境認識情報が出力される。 The traveling environment recognition unit 313 recognizes the traveling environment of the own vehicle by using the input information and the dynamic information that changes every moment of the own vehicle traveling environment. The driving environment recognition unit 313 contains sensor information from the in-vehicle sensor 1, guidance route information from the navigation device 2, HD map information from the high-precision map data storage unit 311, and self-position from the self-position estimation unit 312. Information etc. are entered. Then, the traveling environment recognition unit 313 calculates the traveling environment recognition information of the area around the own vehicle with reference to the estimated current location of the own vehicle. The driving environment recognition unit 313 outputs the driving environment recognition information to the operation determination unit 317.

ここで、「動的な情報」とは、例えば、準静的データと準動的データと動的データを組み合わせた情報をいう。なお、準静的データとは、例えば、交通規制情報、道路工事情報、広域気象情報などを含むデータをいう。準動的データとは、例えば、事故情報、渋滞情報、狭域気象情報などを含むデータをいう。動的データとは、例えば、周辺車両情報、歩行者情報、信号情報などを含むデータをいう。これらの動的な情報は階層化され、変化する動的なデータほど更新頻度を高くするというように、各データの更新頻度を異ならせている。 Here, the "dynamic information" refers to, for example, information in which quasi-static data, quasi-dynamic data, and dynamic data are combined. The quasi-static data refers to data including, for example, traffic regulation information, road construction information, wide area weather information, and the like. The quasi-dynamic data refers to data including, for example, accident information, traffic congestion information, narrow area weather information, and the like. The dynamic data refers to data including, for example, peripheral vehicle information, pedestrian information, signal information, and the like. These dynamic information are layered, and the update frequency of each data is different, such that the more dynamic data changes, the higher the update frequency.

周囲物体認識部315は、自車の周囲に存在する物体の位置、属性、挙動を検出もしくは予測する。また、周囲物体認識部315は、自車の周囲に存在する物体認識に基づいて、自車の走行領域から除外すべき車線領域として点群連結による一つの車線閉塞領域を認識する。周囲物体認識部315では、車載センサ1からのセンサ情報などが入力される。そして、周囲物体認識部315は、車線閉塞領域の開始点を認識すると、開始点からの点群データを車線進行方向に繋いで車線閉塞領域を拡張する。周囲物体認識部315からは、走行領域設定部318へ車線閉塞領域情報が出力される。 The surrounding object recognition unit 315 detects or predicts the position, attribute, and behavior of objects existing around the vehicle. Further, the surrounding object recognition unit 315 recognizes one lane blockage area by point cloud connection as a lane area to be excluded from the traveling area of the own vehicle based on the object recognition existing around the own vehicle. In the surrounding object recognition unit 315, sensor information and the like from the vehicle-mounted sensor 1 are input. Then, when the surrounding object recognition unit 315 recognizes the start point of the lane blockage region, the point cloud data from the start point is connected in the lane traveling direction to expand the lane blockage region. The surrounding object recognition unit 315 outputs lane blockage area information to the traveling area setting unit 318.

走行車線計画部316は、目的地までの案内経路上において、自車が走行すべき走行車線(以下、「目標車線」という)を計画する。走行車線計画部316には、ナビゲーション装置2からの案内経路情報と、高精度地図データ記憶部311からのHDマップ情報とが入力される。そして、走行車線計画部316は、経路案内情報から判断した目的地の方向やHDマップから目標車線を計画する。走行車線計画部316から次の階層の動作決定部317へは、目標車線情報が出力される。 The traveling lane planning unit 316 plans the traveling lane (hereinafter, referred to as "target lane") in which the vehicle should travel on the guidance route to the destination. Guidance route information from the navigation device 2 and HD map information from the high-precision map data storage unit 311 are input to the traveling lane planning unit 316. Then, the traveling lane planning unit 316 plans the target lane from the direction of the destination determined from the route guidance information and the HD map. The target lane information is output from the traveling lane planning unit 316 to the operation determination unit 317 of the next layer.

動作決定部317は、目標車線に沿って走行したとき、自車が遭遇する事象の抽出し、それら事象に対する「自車の動作」を決定する。動作決定部317には、走行環境認識部313からの走行環境認識情報と、走行車線計画部316からの目標車線情報などが入力される。そして、動作決定部317は、目標車線と自車周辺の走行環境とを照合し、適切な自車の動作を決定する。ここで、「自車の動作」とは、発進、停止、加速、減速、右左折などの目標車線に沿って走行するために必要となる自車の動きをいう。動作決定部317から次の階層の走行領域設定部318へは、自車動作決定情報が出力される。 The motion determination unit 317 extracts the events that the vehicle encounters when traveling along the target lane, and determines the "motion of the vehicle" for those events. The driving environment recognition information from the traveling environment recognition unit 313, the target lane information from the traveling lane planning unit 316, and the like are input to the operation determination unit 317. Then, the motion determination unit 317 collates the target lane with the traveling environment around the vehicle and determines an appropriate motion of the vehicle. Here, the "movement of the own vehicle" refers to the movement of the own vehicle required to drive along the target lane such as starting, stopping, accelerating, decelerating, and turning left or right. The own vehicle operation determination information is output from the operation determination unit 317 to the traveling area setting unit 318 of the next layer.

走行領域設定部318は、決定した自車動作により目標車線に沿って自車を走行させることが可能な走行可能領域を設定する。走行領域設定部318には、高精度地図データ記憶部311からのHDマップ情報と、動作決定部317からの自車動作決定情報と、周囲物体認識部315からの周囲物体認識情報などが入力される。そして、走行領域設定部318は、自車の動作情報と自車の周辺環境情報とを照合し、自車が走行することが可能な領域を設定する。例えば、自車周辺に駐車車列などの物体が存在したり工事区間が存在したりするときには、当該領域との干渉や接触を回避するような走行可能領域が設定される。走行領域設定部318から次の階層の目標軌跡生成部319へは、走行可能領域情報が出力される。 The traveling area setting unit 318 sets a traveling area in which the own vehicle can be driven along the target lane by the determined own vehicle operation. HD map information from the high-precision map data storage unit 311, own vehicle operation determination information from the operation determination unit 317, surrounding object recognition information from the surrounding object recognition unit 315, and the like are input to the traveling area setting unit 318. To. Then, the traveling area setting unit 318 collates the operation information of the own vehicle with the surrounding environment information of the own vehicle, and sets an area in which the own vehicle can travel. For example, when an object such as a parked convoy or a construction section exists around the own vehicle, a travelable area is set so as to avoid interference or contact with the area. The travelable area information is output from the travel area setting unit 318 to the target trajectory generation unit 319 of the next layer.

目標軌跡生成部319は、設定された走行可能領域内において自車の目標軌跡を生成する。目標軌跡生成部319には、走行領域設定部318からの走行可能領域情報などが入力される。そして、目標軌跡生成部319は、現在の自車の位置から任意に設定される目標位置まで、走行可能領域内を走行することを拘束条件とし、幾何学的な手法により車線変更を含めて目標軌跡を生成する。なお、目標軌跡生成部319は、例えば複合クロソイド曲線を用いて目標軌跡を生成してもよい。また、目標軌跡生成部319は、安全、法令順守、走行効率などの基準を満たした走行が可能な目標軌跡を生成してもよい。目標軌跡生成部319からは、車両運動コントローラ32へ目標軌跡情報が出力される。 The target locus generation unit 319 generates a target locus of the own vehicle within the set travelable area. The travelable area information from the travel area setting unit 318 is input to the target locus generation unit 319. Then, the target locus generation unit 319 sets a constraint condition that the vehicle travels within the travelable area from the current position of the own vehicle to an arbitrarily set target position, and targets the target including the lane change by a geometric method. Generate a trajectory. The target locus generation unit 319 may generate a target locus using, for example, a composite clothoid curve. In addition, the target locus generation unit 319 may generate a target locus capable of traveling that satisfies criteria such as safety, legal compliance, and travel efficiency. The target trajectory generation unit 319 outputs the target trajectory information to the vehicle motion controller 32.

[周囲物体認識部の詳細構成(図3)]
周囲物体認識部315(コントローラ)は、図3に示すように、物体認識部315aと、車線閉塞領域開始点認識部315bと、車線閉塞領域拡張部315cと、を有する。そして、周囲物体認識部315での必要情報を取得する車載センサとして、外部センサ11に備えるカメラ111、レーダー112、ライダー113(センサ)を有する。
[Detailed configuration of surrounding object recognition unit (Fig. 3)]
As shown in FIG. 3, the peripheral object recognition unit 315 (controller) includes an object recognition unit 315a, a lane blockage area start point recognition unit 315b, and a lane blockage area expansion unit 315c. Then, as an in-vehicle sensor for acquiring necessary information in the surrounding object recognition unit 315, it has a camera 111, a radar 112, and a rider 113 (sensor) provided in the external sensor 11.

カメラ111は、自車周辺の画像データを取得するための撮像センサである。このカメラは、例えば、前方認識カメラ、後方認識カメラ、右方認識カメラ、左方認識カメラなどを組み合わせることで構成され、撮影した画像や映像の解析を人工知能や画像処理用プロセッサを用いてリアルタイムで行う。これにより、カメラ111では、自車走行路上物体・車線・自車走行路外物体(道路構造物、先行車、後続車、対向車、周囲車両、歩行者、自転車、二輪車)・自車走行路(道路白線、道路境界、停止線、横断歩道)・道路標識(制限速度)などを検知できる。なお、単眼カメラでは一般的に対象物までの距離の計測はできないが、複眼カメラを用いて異なる視点から同時に撮影を行うことによって、対象物までの距離を計測することも可能となる。 The camera 111 is an image pickup sensor for acquiring image data around the own vehicle. This camera is configured by combining, for example, a front recognition camera, a rear recognition camera, a right recognition camera, a left recognition camera, etc., and analyzes captured images and videos in real time using artificial intelligence and an image processing processor. Do it with. As a result, in the camera 111, objects on the own vehicle's road, lanes, objects outside the own vehicle's road (road structure, preceding vehicle, following vehicle, oncoming vehicle, surrounding vehicles, pedestrians, bicycles, two-wheeled vehicles), own vehicle's driving path (White lines on roads, road boundaries, stop lines, pedestrian crossings) ・ Road signs (speed limit) can be detected. Although it is generally not possible to measure the distance to an object with a monocular camera, it is possible to measure the distance to an object by simultaneously shooting from different viewpoints using a compound eye camera.

レーダー112は、発射した電波の反射信号を受信して物体の方向や距離の情報を取得する測距センサである。よって、レーダー112では、自車走行路上物体・自車走行路外物体(道路構造物、先行車、後続車、対向車、周囲車両、歩行者、自転車、二輪車)などの位置を検知できると共に、各物体までの距離を検知できる。 The radar 112 is a distance measuring sensor that receives the reflected signal of the emitted radio wave and acquires information on the direction and distance of the object. Therefore, the radar 112 can detect the positions of objects on the vehicle's road and objects outside the vehicle's road (road structures, preceding vehicles, following vehicles, oncoming vehicles, surrounding vehicles, pedestrians, bicycles, motorcycles), etc. The distance to each object can be detected.

ライダー113は、パルス状に発光するレーザー照射に対する散乱光を測定し、レーダー112よりも遠距離にある自車走行路上物体・自車走行路外物体などの方向や距離の情報を点群データ(物体の空間位置情報)として取得する測距センサである。ここで、ライダー113は、レーダー112の電波を光に置き換えたものであり、レーザーを使って可視スペクトル外の光のパルスを発射し、そのパルスが戻ってくる時間を計測する。そして、ある特定のパルスが反射した方向と距離を、ライダーユニットを中心とした3D環境の中の点群データとして記録する。なお、ライダー113は、例えば、1秒あたり100万回を超えるパルス走査回数の送受信が可能であるため、レーザパルスからの点群データはポイントクラウドと呼ばれるように精細であり、3D環境とその中のオブジェクトの輪郭を描き出すことも可能である。 The rider 113 measures the scattered light for the laser irradiation that emits in a pulse shape, and provides point group data (point group data) for information on the direction and distance of an object on the vehicle traveling road and an object outside the vehicle traveling road that are farther than the radar 112. It is a distance measuring sensor acquired as (spatial position information of an object). Here, the rider 113 replaces the radio waves of the radar 112 with light, emits a pulse of light outside the visible spectrum using a laser, and measures the time for the pulse to return. Then, the direction and distance where a specific pulse is reflected are recorded as point cloud data in a 3D environment centered on the rider unit. Since the rider 113 can transmit and receive pulse scans exceeding 1 million times per second, the point cloud data from the laser pulse is fine as it is called a point cloud, and the 3D environment and its contents. It is also possible to delineate the object of.

物体認識部315aは、カメラ111とレーダー112とライダー113から取得されるデータに基づいて自車の走行路上に存在している物体の認識処理を行う。この物体の認識処理では、物体が自車の走行障害とならない移動物体(例えば、走行車両や一時停止車両など)ではなく、物体が自車の走行障害となる静止物体(例えば、駐車車両や工事区間を示す工事看板やパイロンなど)であるとの認識処理を行う。 The object recognition unit 315a performs recognition processing of an object existing on the traveling path of the own vehicle based on the data acquired from the camera 111, the radar 112, and the rider 113. In this object recognition process, the object is not a moving object that does not hinder the running of the own vehicle (for example, a traveling vehicle or a paused vehicle), but a stationary object that does not hinder the running of the own vehicle (for example, a parked vehicle or construction work). Performs recognition processing as a construction sign indicating a section, a pylon, etc.).

車線閉塞領域開始点認識部315bは、自車の走行障害となる静止物体によって車線が閉塞されている領域である車線閉塞領域の開始点を認識する。この場合、ライダー113により取得された点群データに基づいて車線閉塞領域の開始点を認識する第1開始点認識パターンと、物体認識部315aからの物体認識結果に基づいて車線閉塞領域の開始点を認識する第2開始点認識パターンと、を併用している。 The lane blockage region start point recognition unit 315b recognizes the start point of the lane blockage region, which is a region where the lane is blocked by a stationary object that hinders the traveling of the own vehicle. In this case, the first start point recognition pattern for recognizing the start point of the lane blockage region based on the point cloud data acquired by the rider 113 and the start point of the lane blockage region based on the object recognition result from the object recognition unit 315a. Is used in combination with the second start point recognition pattern that recognizes.

第1開始点認識パターンでは、車線を車線進行方向に一定間隔により区切って複数のビン分割区間を設定し、複数のビン分割区間のうち、集合している点群データによって車線幅方向に障害物による所定の閉塞幅を有するビン分割区間を、車線閉塞候補として認識する。続いて、車線閉塞候補に存在する点群データのうち、自車の目標軌跡に最も近い位置のデータポイントを選択し、選択したデータポイントの地点を、車線閉塞領域の開始点と認識する。ここで、車線閉塞領域の開始点から車線幅方向に存在する点群データを連結して後端面領域を設定し、設定した後端面領域と自車から遠い側の車線境界とのオーバーラップ量が所定閾値以上である場合、認識された開始点を「駐車車両による車線閉塞領域の開始点」に設定する。 In the first start point recognition pattern, a plurality of bin division sections are set by dividing the lane in the lane traveling direction at regular intervals, and obstacles are set in the lane width direction based on the collected point group data among the plurality of bin division sections. A bin division section having a predetermined blockage width is recognized as a lane blockage candidate. Subsequently, among the point cloud data existing in the lane blockage candidates, the data point at the position closest to the target trajectory of the own vehicle is selected, and the point of the selected data point is recognized as the start point of the lane blockage region. Here, the point cloud data existing in the lane width direction from the start point of the lane obstruction region is connected to set the rear end face region, and the amount of overlap between the set rear end face region and the lane boundary on the side far from the own vehicle is When it is equal to or more than a predetermined threshold value, the recognized start point is set as the "start point of the lane blockage area by the parked vehicle".

第2開始点認識パターンでは、物体認識部315aからの物体認識処理により認識された物体が自車の走行障害となる静止物体であると、静止物体の後端面領域のうち、自車の目標軌跡に最も近い位置を車線閉塞領域の開始点と認識する。ここで、静止物体とは、駐車車両や工事区間などをいう。 In the second start point recognition pattern, if the object recognized by the object recognition process from the object recognition unit 315a is a stationary object that hinders the running of the own vehicle, the target locus of the own vehicle in the rear end surface region of the stationary object. The position closest to is recognized as the starting point of the lane blockage area. Here, the stationary object means a parked vehicle, a construction section, or the like.

車線閉塞領域拡張部315cは、車線閉塞領域の開始点を起点として車線進行方向にライダー113により取得された点群データを連結することで車線閉塞領域を拡張する。車線閉塞領域を拡張する場合、ライダー113により点群データを取得できれば、取得した点群データに基づいて拡張処理が行われるもので、車線閉塞領域の拡張処理を実行する際に個々の物体認識を必要としない。 The lane blockage area expansion unit 315c expands the lane blockage area by connecting the point cloud data acquired by the rider 113 in the lane traveling direction starting from the start point of the lane blockage area. When expanding the lane blockage area, if the point cloud data can be acquired by the rider 113, the expansion process is performed based on the acquired point cloud data, and individual object recognition is performed when the lane blockage area expansion process is executed. do not need.

車線閉塞領域の開始点を起点として車線閉塞領域を拡張する場合、連結予定の2つのデータポイントが車線進行方向に乖離する縦乖離距離を算出する。そして、縦乖離距離が所定閾値未満という縦乖離距離条件が成立すると、2つのデータポイントを車線進行方向に連結して車線閉塞領域を拡張する。また、縦乖離距離が所定閾値以上で縦乖離距離条件が不成立であると、2つのデータポイントの連結による車線閉塞領域拡張はしない。なお、「所定閾値」は、例えば、2台の駐車車両の間に走行車線計画に基づいて車線変更による目標軌跡を駐車車両との接触や干渉を生じることなく描くことができる車間距離相当値に設定される。つまり、例えば、駐車車両が連なっている駐車車列の場合は、縦乖離距離が所定閾値未満という縦乖離距離条件が成立し、車線閉塞領域の拡張が許容される。複数の駐車車列が離れて存在する場合は、縦乖離距離が所定閾値以上となり、車線閉塞領域は離れた駐車車列毎にそれぞれ設定される。 When the lane blockage area is expanded starting from the start point of the lane blockage area, the vertical dissociation distance at which the two data points to be connected deviate in the lane travel direction is calculated. Then, when the vertical deviation distance condition that the vertical deviation distance is less than a predetermined threshold value is satisfied, the two data points are connected in the lane traveling direction to expand the lane blockage region. Further, if the longitudinal deviation distance is equal to or greater than a predetermined threshold value and the longitudinal deviation distance condition is not satisfied, the lane blockage area is not expanded by connecting the two data points. The "predetermined threshold" is, for example, a value equivalent to the inter-vehicle distance that can draw a target trajectory due to a lane change between two parked vehicles based on a traveling lane plan without causing contact or interference with the parked vehicle. Set. That is, for example, in the case of a parked vehicle line in which parked vehicles are connected, the vertical deviation distance condition that the vertical deviation distance is less than a predetermined threshold value is satisfied, and the expansion of the lane blockage area is allowed. When a plurality of parked vehicle rows are separated from each other, the vertical deviation distance becomes equal to or more than a predetermined threshold value, and the lane blockage area is set for each of the separated parked vehicle rows.

ここで、車線閉塞領域の開始点を起点として車線閉塞領域を拡張する場合、連結予定の2つのデータポイントが車線幅方向であって自車の走行車線に近づく側に乖離する横乖離距離を算出する。そして、横乖離距離が所定値以上であると、縦乖離距離条件の成立/不成立にかかわらず点群データの連結対象から除外する。また、車線閉塞領域の開始点を起点として車線閉塞領域を拡張する場合、次に連結を予定しているデータポイントを取得した物体属性を判定する。そして、物体属性が静止物体(駐車車両や工事区間など)と判定されると点群データの連結対象とし、物体属性が移動物体(一時停止車両)と判定されると点群データの連結対象から除外する。さらに、車線閉塞領域の開始点を認識できないシーンのときに車線閉塞領域を拡張する場合は、過去に認識された車線閉塞領域が存在すると、過去の車線閉塞領域をベースとし、車線進行方向に点群データを連結する車線閉塞領域の拡張処理を行う。 Here, when expanding the lane obstruction area starting from the start point of the lane obstruction area, the lateral divergence distance is calculated in which the two data points to be connected are in the lane width direction and deviate toward the side approaching the traveling lane of the own vehicle. To do. Then, when the lateral deviation distance is equal to or more than a predetermined value, the point cloud data is excluded from the connection target regardless of whether the vertical deviation distance condition is satisfied or not. Further, when the lane blockage area is expanded starting from the start point of the lane blockage area, the object attribute obtained from the data point to be connected next is determined. Then, when the object attribute is determined to be a stationary object (parked vehicle, construction section, etc.), the point group data is linked, and when the object attribute is determined to be a moving object (paused vehicle), the point group data is linked. exclude. Furthermore, when expanding the lane blockage area in a scene where the start point of the lane blockage area cannot be recognized, if there is a lane blockage area recognized in the past, a point in the lane traveling direction is based on the past lane blockage area. The lane blockage area that connects the group data is expanded.

車線閉塞領域拡張部315cにより周囲物体認識情報として車線閉塞領域情報が生成されると、車線閉塞領域拡張部315cから走行領域設定部318へ車線閉塞領域情報が出力される。走行領域設定部318では、例えば、自車周辺に駐車車列などが存在したり工事区間が存在したりすることで車線閉塞領域情報を入力すると、車線閉塞領域との干渉や接触を回避するような走行可能領域が設定される。次の目標軌跡生成部319では、走行領域設定部318では設定された走行可能領域内において自車の目標軌跡が生成される。つまり、走行車線計画に基づいて車線変更が要求される場合、車線閉塞領域を除外した走行可能領域内に目標軌跡が生成されることになる。 When the lane blockage area expansion unit 315c generates lane blockage area information as surrounding object recognition information, the lane blockage area expansion unit 315c outputs the lane blockage area information to the traveling area setting unit 318. In the traveling area setting unit 318, for example, when lane blockage area information is input due to the existence of a parked vehicle line or the like or a construction section around the own vehicle, interference or contact with the lane blockage area is avoided. The travelable area is set. In the next target locus generation unit 319, the travel area setting unit 318 generates a target locus of the own vehicle within the set travelable area. That is, when the lane change is requested based on the traveling lane plan, the target locus is generated in the travelable area excluding the lane blockage area.

[周囲物体認識制御処理構成(図4)]
ステップS1では、開始に続き、ライダー113から点群データを取得し、ステップS2へ進む。
[Around object recognition control processing configuration (Fig. 4)]
In step S1, following the start, point cloud data is acquired from the rider 113, and the process proceeds to step S2.

ステップS2では、S1での点群データの取得に続き、車線を車線進行方向に区切った複数のビン分割区間のうち、集合している点群データによって車線幅方向に閉塞幅を有するビン分割区間を、車線閉塞候補として認識し、ステップS3へ進む。 In step S2, following the acquisition of the point group data in S1, of the plurality of bin division sections in which the lane is divided in the lane traveling direction, the bin division section having the blockage width in the lane width direction by the aggregated point group data. Is recognized as a lane blockage candidate, and the process proceeds to step S3.

ステップS3では、S2での車線閉塞候補認識に続き、車線閉塞の要因は駐車車両の後端か否かを判断する。YES(車線閉塞要因は駐車車両後端である)の場合はステップS9へ進み、NO(車線閉塞要因は駐車車両後端でない)の場合はステップS4へ進む。 In step S3, following the recognition of the lane blockage candidate in S2, it is determined whether or not the cause of the lane blockage is the rear end of the parked vehicle. If YES (the lane obstruction factor is the rear end of the parked vehicle), the process proceeds to step S9, and if NO (the lane obstruction factor is not the rear end of the parked vehicle), the process proceeds to step S4.

ステップS4では、S3での車線閉塞要因は駐車車両後端でないとの判断に続き、車線閉塞の要因は工事区間であるか否かを判断する。YES(車線閉塞要因は工事区間である)の場合はステップS9へ進み、NO(車線閉塞要因は工事区間でない)の場合は終了へ進む。 In step S4, following the determination that the lane obstruction factor in S3 is not the rear end of the parked vehicle, it is determined whether or not the lane obstruction factor is the construction section. If YES (the lane blockage factor is the construction section), the process proceeds to step S9, and if NO (the lane blockage factor is not the construction section), the process proceeds to the end.

ステップS5では、開始に続き、カメラ111とレーダー112とライダー113により取得した入力情報に基づき、自車の走行路上に存在している静止物体を認識する物体認識処理を行い、ステップS6へ進む。 In step S5, following the start, based on the input information acquired by the camera 111, the radar 112, and the rider 113, an object recognition process for recognizing a stationary object existing on the traveling path of the own vehicle is performed, and the process proceeds to step S6.

ステップS6では、S5での物体認識に続き、認識された静止物体が自車の走行障害となる静止車両であるか否かを判断する。YES(静止車両である)の場合はステップS7へ進み、NO(静止車両でない)の場合はステップS8へ進む。 In step S6, following the object recognition in S5, it is determined whether or not the recognized stationary object is a stationary vehicle that hinders the traveling of the own vehicle. If YES (is a stationary vehicle), the process proceeds to step S7, and if NO (not a stationary vehicle), the process proceeds to step S8.

ステップS7では、S6での静止車両であるとの判断に続き、駐車車両であるか否かを判断する。YES(駐車車両である)の場合はステップS9へ進み、NO(駐車車両でない)の場合はステップS8へ進む。 In step S7, following the determination in S6 that the vehicle is a stationary vehicle, it is determined whether or not the vehicle is a parked vehicle. If YES (parked vehicle), the process proceeds to step S9, and if NO (not a parked vehicle), the process proceeds to step S8.

ステップS8では、S6での静止車両でないとの判断、或いは、S7での駐車車両でないとの判断に続き、認識された物体が工事区間を示す工事看板やパイロンなどであるか否かを判断する。YES(工事区間である)の場合はステップS9へ進み、NO(工事区間でない)の場合は終了へ進む。 In step S8, following the determination in S6 that the vehicle is not a stationary vehicle or the determination in S7 that the vehicle is not a parked vehicle, it is determined whether or not the recognized object is a construction sign or a pylon indicating a construction section. .. If YES (it is a construction section), the process proceeds to step S9, and if NO (not a construction section), the process proceeds to the end.

ステップS9では、S3又はS4又はS7又はS8でのYESとの判断に続き、車線閉塞領域の開始点を認識し、ステップS10へ進む。 In step S9, following the determination of YES in S3 or S4 or S7 or S8, the start point of the lane obstruction region is recognized, and the process proceeds to step S10.

ここで、車線閉塞要因が駐車車両の後端、又は、車線閉塞要因が工事区間である第1開始点認識パターンでは、車線閉塞候補に存在する点群データのうち、自車の目標軌跡に最も近い位置のデータポイントを選択し、選択したデータポイントの地点を、車線閉塞領域の開始点と認識する。続いて、車線閉塞領域の開始点から車線幅方向に存在する点群データを連結して後端面領域を設定し、設定した後端面領域と自車から遠い側の車線境界とのオーバーラップ量が所定閾値以上である場合、認識された開始点を「駐車車両による車線閉塞領域の開始点」に設定する。一方、物体認識結果が駐車車両又は工事区間である第2開始点認識パターンでは、駐車車両又は工事区間を示す物体の後端面領域のうち、自車の目標軌跡に最も近い位置を車線閉塞領域の開始点と認識する。 Here, in the first start point recognition pattern in which the lane obstruction factor is the rear end of the parked vehicle or the lane obstruction factor is the construction section, among the point group data existing in the lane obstruction candidates, the target trajectory of the own vehicle is the most. Select a data point at a close position and recognize the point of the selected data point as the starting point of the lane blockage area. Next, the point cloud data existing in the lane width direction from the start point of the lane blockage region is connected to set the rear end face region, and the amount of overlap between the set rear end face region and the lane boundary on the side far from the own vehicle is When it is equal to or more than a predetermined threshold value, the recognized start point is set as the "start point of the lane blockage area by the parked vehicle". On the other hand, in the second start point recognition pattern in which the object recognition result is the parked vehicle or the construction section, the position closest to the target locus of the own vehicle in the rear end surface region of the object indicating the parked vehicle or the construction section is the lane blockage region. Recognize as the starting point.

ステップS10では、S9での車線閉塞領域の開始点の認識、或いは、S11での車線閉塞領域の拡張に続き、ライダー113により取得される点群データに連結可能な点が存在するか否かを判断する。YES(点群データに連結可能点が存在する)の場合はステップS11へ進み、NO(点群データに連結可能点が存在しない)の場合は終了へ進む。 In step S10, following the recognition of the start point of the lane blockage area in S9 or the expansion of the lane blockage area in S11, whether or not there is a point that can be connected to the point cloud data acquired by the rider 113. to decide. If YES (there is a connectable point in the point cloud data), the process proceeds to step S11, and if NO (there is no connectable point in the point cloud data), the process proceeds to the end.

ステップS11では、S10での点群データに連結可能点が存在するとの判断に続き、点群データの連結による車線閉塞領域の拡張処理を実行し、ステップS10へ戻る。つまり、点群データに連結可能点が存在する間は、点群データの連結による車線閉塞領域の拡張処理の実行が継続される。 In step S11, following the determination that there is a connectable point in the point cloud data in S10, the lane blockage area expansion process by connecting the point cloud data is executed, and the process returns to step S10. That is, as long as there are connectable points in the point cloud data, the execution of the lane blockage area expansion process by connecting the point cloud data is continued.

次に、「背景技術の課題及び課題解決方策」を説明する。そして、実施例1の作用を、「車線閉塞領域の開始点認識作用」、「点群連結による車線閉塞領域拡張作用」に分けて説明する。 Next, "problems of background technology and measures to solve the problems" will be described. Then, the action of the first embodiment will be described separately by dividing it into "a lane blockage region start point recognition action" and "a lane blockage region expansion action by connecting point clouds".

[背景技術の課題及び課題解決方策(図5〜図8)]
車線閉塞領域を設定する背景技術は、例えば、図5に示すように、カメラやレーダーやライダーから取得されるデータに基づいて自車の走行路上に存在している物体の認識処理を行う。この物体の認識処理では、カメラからの画像データとレーダーやライダーからの測距データを照合し、自車の走行障害となる駐車車両や工事区間を示す工事看板やパイロンなどの静止物体をハザードとして認識する。続いて、静止物体が認識されると、静止物体の外形輪郭線を周囲物体との干渉回避幅だけ拡大し、拡大した輪郭線に囲まれる領域を車線閉塞領域として認識する。続いて、認識された車線閉塞領域を除いた領域を走行可能領域に設定し、走行可能領域内に走行車線計画を立てるのが一般的である。
[Issues of background technology and measures to solve the problems (Figs. 5 and 8)]
As a background technique for setting a lane blockage region, for example, as shown in FIG. 5, the background technology performs recognition processing of an object existing on the traveling path of the own vehicle based on data acquired from a camera, a radar, or a rider. In this object recognition process, the image data from the camera is collated with the distance measurement data from the radar and rider, and stationary objects such as construction signs and pylon indicating parked vehicles and construction sections that hinder the running of the own vehicle are used as hazards. recognize. Subsequently, when the stationary object is recognized, the outer contour line of the stationary object is expanded by the interference avoidance width with the surrounding object, and the area surrounded by the enlarged contour line is recognized as the lane blockage area. Subsequently, it is common to set an area excluding the recognized lane obstruction area as a travelable area and make a travel lane plan within the travelable area.

上記背景技術において、図6に示すように、右車線LRを走行する自車Vが、2台の駐車車両PV1,PV2が駐車車列を作っている左車線LLへ車線変更するための目標軌跡Ttを生成するシーン例を想定する。この場合、駐車車列の1台目の駐車車両PV1に対しては自車Vからの物体認識に基づいて車線閉塞領域LSAが設定される。しかし、駐車車列の2台目の駐車車両PV2以降の車両は自車Vから死角となっており、駐車車両PV2として認識することも困難なことが多く、車線閉塞領域LSAは設定されない。駐車車両PV2のように、物体の死角に存在する物体は、物体認識の少なくとも一部は死角により隠れているため、正しく物体認識することが困難であった。その場合、自車Vからの死角に隠れた駐車車両PV2の存在を考慮しない目標軌跡Ttを生成してしまう、という課題があった。 In the above background technology, as shown in FIG. 6, the target trajectory for the own vehicle V traveling in the right lane LR to change lanes to the left lane LL in which two parked vehicles PV1 and PV2 form a parked lane. Assume an example of a scene that generates Tt. In this case, the lane obstruction region LSA is set for the first parked vehicle PV1 in the parked convoy based on the object recognition from the own vehicle V. However, vehicles after the second parked vehicle PV2 in the parked convoy are blind spots from the own vehicle V, and it is often difficult to recognize them as parked vehicles PV2, so the lane blockage area LSA is not set. It is difficult to correctly recognize an object that exists in the blind spot of an object, such as the parked vehicle PV2, because at least a part of the object recognition is hidden by the blind spot. In that case, there is a problem that the target trajectory Tt that does not consider the existence of the parked vehicle PV2 hidden in the blind spot from the own vehicle V is generated.

上記課題に対して、例えば、2台目以降の駐車車両など、自車から死角となり物体認識が困難な奥の障害物に関しては、物体認識を必要条件としなくても、車線閉塞領域に奥の障害物を含めることができれば課題を解決できる点に着目した。そして、本発明者等は、上記着目点に基づいて解決手法を検証した結果、自車から死角となる物体については、物体の全体形状を認識できなくても、物体の空間位置情報を取得できると、物体の空間位置情報を用いて車線閉塞領域を拡張することが可能であることを知見した。 In response to the above problem, for obstacles in the back where object recognition is difficult due to blind spots from the own vehicle, such as the second and subsequent parked vehicles, even if object recognition is not a necessary condition, the back is in the lane blockage area. We focused on the fact that problems can be solved if obstacles can be included. Then, as a result of verifying the solution method based on the above points of interest, the present inventors can acquire the spatial position information of the object that becomes a blind spot from the own vehicle even if the entire shape of the object cannot be recognized. It was found that it is possible to expand the lane blockage area by using the spatial position information of the object.

上記知見に基づいて本開示は、周囲環境の点群データPn(物体の空間位置情報の一例)を取得するライダー113と、ライダー113により取得された点群データPnにより、自車Vの周囲に存在する物体を認識する周囲物体認識部315と、を備える。周囲物体認識部315は、以下の手順により車線閉塞領域LSAを認識する。点群データPnにより、自車Vの走行障害となる物体によって車線が閉塞されている領域である車線閉塞領域LSAを認識する。そして、車線閉塞領域LSAの開始点SPを起点として車線進行方向に点群データPnを連結することにより、車線閉塞領域LSAを拡張する、という課題解決手段を採用した。 Based on the above findings, the present disclosure is based on the rider 113 that acquires the point cloud data Pn (an example of spatial position information of an object) of the surrounding environment and the point cloud data Pn acquired by the rider 113 to surround the vehicle V. A peripheral object recognition unit 315 that recognizes an existing object is provided. The surrounding object recognition unit 315 recognizes the lane obstruction region LSA by the following procedure. The point cloud data Pn recognizes the lane obstruction region LSA, which is the region where the lane is obstructed by an object that hinders the traveling of the own vehicle V. Then, a problem-solving means was adopted in which the lane obstruction region LSA was expanded by connecting the point cloud data Pn in the lane traveling direction starting from the start point SP of the lane obstruction region LSA.

即ち、図7(a)に示すように、点群データ(P1,…,P9)により、自車Vの走行障害となる物体(駐車車両PV1,PV2)によって左車線LLが閉塞されている領域である車線閉塞領域LSAの開始点SP(=データポイントP3)を認識する。続いて、図7(b)に示すように、車線閉塞領域LSAの開始点SPを起点として車線進行方向に点群データ(P4,…,P9)を逐次連結することで車線閉塞領域LSAを拡張する。そして、図7(c)に示すように、二台目の駐車車両PV2など、死角となり物体認識が困難な奥の障害物に関して、ライダー113で取得される点群データ(P4,…,P9)を車線進行方向に繋げることで、一つの拡張された車線閉塞領域LSAとして認識する。 That is, as shown in FIG. 7A, the area where the left lane LL is blocked by the objects (parked vehicles PV1, PV2) that hinder the traveling of the own vehicle V according to the point cloud data (P1, ..., P9). Recognize the starting point SP (= data point P3) of the lane blockage area LSA. Subsequently, as shown in FIG. 7 (b), the lane blockage region LSA is expanded by sequentially connecting the point cloud data (P4, ..., P9) in the lane traveling direction starting from the start point SP of the lane blockage region LSA. To do. Then, as shown in FIG. 7 (c), point group data (P4, ..., P9) acquired by the rider 113 for obstacles in the back, such as the second parked vehicle PV2, which is a blind spot and whose object recognition is difficult. Is recognized as one extended lane blockage area LSA by connecting in the direction of lane travel.

上記周囲物体認識作用において、図8に示すように、右車線LRを走行する自車Vが、2台の駐車車両PV1,PV2が駐車車列を作っている左車線LLへ車線変更するための目標軌跡Ttを生成する背景技術と同様のシーン例を想定する。この場合、駐車車列の2台目の駐車車両PV2は自車Vから死角となっているが、駐車車列の1台目の駐車車両PV1と2台目の駐車車両PV2をまとめて1つの点群データ(P1,…,P9)による駐車車列領域PVAが描かれることになる。そして、描かれた駐車車列領域PVAを、左車線LLの車線幅の全域まで拡大することで、車線閉塞領域LSAが設定されることになる。よって、自車Vの目標軌跡Ttを生成する際、自車Vからの死角に隠れることで物体認識が困難である駐車車両PV2の存在が考慮されることになり、駐車車列領域PVAより先で左車線LLへ車線変更する目標軌跡Ttが生成される。 In the above-mentioned surrounding object recognition action, as shown in FIG. 8, the own vehicle V traveling in the right lane LR changes lanes to the left lane LL in which two parked vehicles PV1 and PV2 form a parked lane. Assume a scene example similar to the background technology for generating the target trajectory Tt. In this case, the second parked vehicle PV2 in the parked convoy is a blind spot from the own vehicle V, but the first parked vehicle PV1 and the second parked vehicle PV2 in the parked convoy are combined into one. The parked vehicle line area PVA will be drawn based on the point group data (P1, ..., P9). Then, the lane blockage area LSA is set by expanding the drawn parked lane area PVA to the entire lane width of the left lane LL. Therefore, when generating the target trajectory Tt of the own vehicle V, the existence of the parked vehicle PV2, which is difficult to recognize the object due to hiding in the blind spot from the own vehicle V, is considered, and is ahead of the parked lane area PVA. Generates a target trajectory Tt that changes lanes to the left lane LL.

即ち、右車線LRを走行する自車Vの左車線LLを閉塞する駐車車両PV1,PV2が存在するシーンにおいて、駐車車両PV1,PV2それぞれを区別して認識しなくても、右車線LRから左車線LLへの車線変更状況に適した自車Vの目標軌跡Ttが生成されることになる。この結果、自車Vの走行予定車線を閉塞する物体が存在する様々なシーンにおいて、物体それぞれを区別して認識しなくても、走行状況に適した走行支援(走行車線計画や目標軌跡生成など)を実行することができる。 That is, in a scene where there are parked vehicles PV1 and PV2 that block the left lane LL of the own vehicle V traveling in the right lane LR, even if the parked vehicles PV1 and PV2 are not recognized separately, the right lane LR to the left lane The target trajectory Tt of the own vehicle V suitable for the lane change situation to LL will be generated. As a result, in various scenes where there are objects that block the planned driving lane of the own vehicle V, driving support suitable for the driving situation (traveling lane planning, target trajectory generation, etc.) without distinguishing and recognizing each object. Can be executed.

[車線閉塞領域の開始点認識作用(図9、図10)]
車線閉塞領域LSAの開始点SPの認識作用は、点群データPnに基づく第1開始点認識パターンと、物体認識結果に基づく第2開始点認識パターンとが併用される。まず、点群データPnに基づく第1開始点認識パターンについて説明する。
[Start point recognition action of lane blockage area (Figs. 9 and 10)]
The recognition action of the start point SP of the lane obstruction region LSA is a combination of the first start point recognition pattern based on the point cloud data Pn and the second start point recognition pattern based on the object recognition result. First, the first start point recognition pattern based on the point cloud data Pn will be described.

ライダー113により取得された点群データPnに基づく第1開始点認識パターンのうち、駐車車両後端による場合は、図4のフローチャートにおいて、S1→S2→S3→S9へと進む流れにより車線閉塞領域LSAの開始点SPが認識される。また、ライダー113により取得された点群データPnに基づく第1開始点認識パターンのうち、工事区間による場合は、図4のフローチャートにおいて、S1→S2→S3→S4→S9へと進む流れにより車線閉塞領域LSAの開始点SPが認識される。 Of the first start point recognition pattern based on the point cloud data Pn acquired by the rider 113, in the case of the rear end of the parked vehicle, in the flowchart of FIG. 4, the lane blockage area is caused by the flow of S1 → S2 → S3 → S9. The starting point SP of LSA is recognized. Further, among the first start point recognition patterns based on the point cloud data Pn acquired by the rider 113, in the case of the construction section, in the flowchart of FIG. 4, the lane is due to the flow of S1 → S2 → S3 → S4 → S9. The starting point SP of the blocked area LSA is recognized.

この第1開始点認識パターンでは、図9に示すように、左車線LLを車線進行方向に一定間隔により区切って複数のビン分割区間BD(n)が設定される。そして、複数のビン分割区間BD(n)のうち、集合している点群データP1,P2,P2によって車線幅方向に障害物OBによる所定の閉塞幅SWを有するビン分割区間BD(7)が、車線閉塞候補LSCとして認識される。 In this first start point recognition pattern, as shown in FIG. 9, a plurality of bin division sections BD (n) are set by dividing the left lane LL in the lane traveling direction at regular intervals. Then, among the plurality of bin division sections BD (n), the bin division section BD (7) having a predetermined blockage width SW due to the obstacle OB in the lane width direction is generated by the aggregated point cloud data P1, P2, P2. , Recognized as a lane blockage candidate LSC.

ここで、「ビン分割(binning)」とは、機械学習などでよく行われる前処理の一つであり、データを境界で区切りカテゴリデータ化することをいう。「閉塞幅SW」は、左車線LLの車線幅LWとし、右境界からの幅を第1スペースS1とし、左境界からの幅を第2スペースS2としたとき、SW=LW−(S1+S2)の式にて計算する。そして、閉塞幅SWが障害物判定閾値以上であると、閉塞幅SWを有するビン分割区間BD(7)が車線閉塞候補LSCとして認識される。これにより、左車線LLに存在する移動物体及び静止物体の全ての物体を対象として車線閉塞候補を特定する処理に比べ、演算負荷を低減しつつ、車線閉塞領域LSAの開始点SPの認識に必要な車線閉塞候補LSCを特定することができるようになる。 Here, "binning" is one of the preprocessing often performed in machine learning and the like, and means to divide the data by a boundary and convert it into categorical data. The "blocking width SW" is SW = LW- (S1 + S2) when the lane width LW of the left lane LL, the width from the right boundary is the first space S1, and the width from the left boundary is the second space S2. Calculate with the formula. When the blockage width SW is equal to or greater than the obstacle determination threshold value, the bin division section BD (7) having the blockage width SW is recognized as a lane blockage candidate LSC. This is necessary for recognizing the start point SP of the lane blockage region LSA while reducing the calculation load compared to the process of identifying lane blockage candidates for all moving and stationary objects existing in the left lane LL. It will be possible to identify various lane blockage candidate LSCs.

次に、図10(a)に示すように、車線閉塞候補LSCに存在する点群データPnのうち、自車Vが走行を予定している目標軌跡Ttに最も近い位置のデータポイントを選択し、選択したデータポイントの地点(点A)を、車線閉塞領域LSAの開始点SPと認識する。これにより、物体の後端部形状を点群データPnにより把握した上で車線閉塞領域の開始点を設定する場合に比べ、ライダー113により点群データPnを取得する走査回数を低減しつつ、車線閉塞領域LSAの開始点SPを設定することができるようになる。 Next, as shown in FIG. 10A, among the point cloud data Pn existing in the lane blockage candidate LSC, the data point at the position closest to the target locus Tt on which the own vehicle V is scheduled to travel is selected. , The point (point A) of the selected data point is recognized as the start point SP of the lane blockage region LSA. As a result, compared to the case where the starting point of the lane blockage region is set after grasping the shape of the rear end of the object by the point cloud data Pn, the number of scans for acquiring the point cloud data Pn by the rider 113 is reduced and the lane is set. The starting point SP of the closed area LSA can be set.

ここで、図10(b)に示すように、車線閉塞領域LSAの開始点SPから車線幅方向に存在する点群データPnを連結して後端面領域RAを設定する。そして、図10(c)に示すように、設定した後端面領域RAと自車Vから遠い側の車線境界とのオーバーラップ量OAが所定閾値以上の場合、認識された開始点SAを「駐車車両PVによる車線閉塞領域LSAの開始点SA」に設定する。これにより、点群データPnに基づいて車線閉塞領域LSAの開始点SAを認識する際、道路上に存在する障害物から駐車車両PVを切り分けて「駐車車両PVによる車線閉塞領域LSAの開始点SA」を設定することができる。即ち、後端面領域RAのオーバーラップ量OAを用いた判定としているため、例えば、工事現場を示す看板やポールなど、道路上に存在する駐車車両PV以外の物体を駐車車両PVの後端部と誤認識することが抑制される。 Here, as shown in FIG. 10B, the point cloud data Pn existing in the lane width direction from the start point SP of the lane blockage region LSA is connected to set the rear end surface region RA. Then, as shown in FIG. 10 (c), when the overlap amount OA between the set rear end surface region RA and the lane boundary on the side far from the own vehicle V is equal to or greater than a predetermined threshold value, the recognized start point SA is "parked". Set to "Starting point SA of lane blockage area LSA by vehicle PV". As a result, when recognizing the start point SA of the lane blockage area LSA based on the point cloud data Pn, the parked vehicle PV is separated from the obstacles existing on the road and "the start point SA of the lane blockage area LSA by the parked vehicle PV" is separated. "Can be set. That is, since the determination is made using the overlap amount OA of the rear end surface region RA, for example, an object other than the parked vehicle PV existing on the road, such as a signboard or a pole indicating the construction site, is regarded as the rear end portion of the parked vehicle PV. False recognition is suppressed.

次に、物体認識結果に基づく第2開始点認識パターンについて説明する。物体認識部315aからの物体認識結果に基づく第2開始点認識パターンのうち、駐車車両による場合は、図4のフローチャートにおいてS5→S6→S7→S9へと進む流れにより、「駐車車両による車線閉塞領域LSAの開始点SP」が認識される。また、物体認識部315aからの物体認識結果に基づく第2開始点認識パターンのうち、工事区間による場合は、図4のフローチャートにおいてS5→S6→S7→S8→S9へと進む流れ、又は、図4のフローチャートにおいてS5→S6→S8→S9へと進む流れにより「工事区間による車線閉塞領域LSAの開始点SP」が認識される。 Next, the second start point recognition pattern based on the object recognition result will be described. Among the second start point recognition patterns based on the object recognition result from the object recognition unit 315a, in the case of a parked vehicle, the flow of proceeding from S5 → S6 → S7 → S9 in the flowchart of FIG. 4 causes “lane blockage by the parked vehicle”. The starting point SP of the region LSA is recognized. Further, among the second start point recognition patterns based on the object recognition result from the object recognition unit 315a, in the case of the construction section, the flow proceeds from S5 → S6 → S7 → S8 → S9 in the flowchart of FIG. In the flowchart of 4, the "starting point SP of the lane blockage region LSA due to the construction section" is recognized by the flow of proceeding from S5 → S6 → S8 → S9.

このように、第2開始点認識パターンでは、物体認識部315aからの物体認識処理により認識された物体が自車の走行障害となる静止物体であると、静止物体が静止車両であるか否かが判断され、静止車両が駐車車両であるか否かが判断される。そして、駐車車両と認識した場合、車両後端面領域のうち、自車Vの目標軌跡に最も近い位置が「駐車車両による車線閉塞領域LSAの開始点SP」と認識される。一方、工事区間と判断された場合、工事区間を示す物体の後端面領域のうち、自車Vの目標軌跡に最も近い位置が「工事区間による車線閉塞領域LSAの開始点SP」と認識される。これにより、車線閉塞領域LSAの開始点SPを認識する際、予め物体認識結果を取得できる場合、ライダー113からの点群データPnを用いることなく、物体認識結果を用いて車線閉塞領域LSAの開始点SPを設定することができることになる。 As described above, in the second start point recognition pattern, if the object recognized by the object recognition process from the object recognition unit 315a is a stationary object that hinders the traveling of the own vehicle, whether or not the stationary object is a stationary vehicle. Is determined, and whether or not the stationary vehicle is a parked vehicle is determined. Then, when the vehicle is recognized as a parked vehicle, the position closest to the target trajectory of the own vehicle V in the rear end surface region of the vehicle is recognized as the "start point SP of the lane blockage region LSA by the parked vehicle". On the other hand, when it is determined to be a construction section, the position closest to the target trajectory of the own vehicle V in the rear end surface area of the object indicating the construction section is recognized as "the start point SP of the lane blockage region LSA due to the construction section". .. As a result, when recognizing the start point SP of the lane blockage region LSA, if the object recognition result can be obtained in advance, the start of the lane blockage region LSA using the object recognition result without using the point cloud data Pn from the rider 113. The point SP can be set.

なお、車線閉塞領域の開始点認識作用においては、上記内容に加え、下記の点を考慮した制御を行う。
・駐車車両と認識した場合、車両後端面領域に限らず、駐車車両の外周面であれば、前端面領域や側面領域に基づいて車線閉塞領域の開始点を認識するようにしても良い。
・車両のハザードがついている場合は駐車車両とみなす確率を上げる。
・右側車線が混んでいる場合は駐車車両とみなす確率を上げない。
・車両のブレーキランプが点灯している場合は駐車車両とみなす確率を下げる。
・車両の左境界のオーバーラップ量が大きい場合に駐車車両とみなす確率を上げる。さらに、路肩幅に応じて確率の上げ方を変える。
・画像処理に基づいて、三角板、発煙筒、パトカーの電子看板案内、交通管理者などを認識した場合に、駐車車両とみなす確率を上げる。
・空間位置情報の地図上における分布から駐車車両を認識する。
・駐車車両の認識に通信を用いる。
・少なくとも走行状態にある車両を駐車車両と判定しない。
・前方車両が一定時間以上静止状態で、右側車線が空いている場合に駐車車両とみなす確率を上げる。
・画像処理に基づいて、工事看板やパイロンによる車線封鎖を認識したら、車線閉塞領域の開始点とする。
・地図上における空間位置情報の分布から工事区間の開始を認識する。
・左路端から車線の右側まで、車線全体を塞ぐような面が検出できた場合は、工事区間による封鎖であると認識する。
In addition to the above contents, the control for recognizing the start point of the lane obstruction region is performed in consideration of the following points.
-When the vehicle is recognized as a parked vehicle, the starting point of the lane obstruction region may be recognized based on the front end surface region and the side surface region of the parked vehicle, not limited to the rear end surface region of the vehicle.
・ If there is a vehicle hazard, increase the probability of considering it as a parked vehicle.
・ If the right lane is crowded, do not increase the probability of considering it as a parked vehicle.
・ If the brake lamp of the vehicle is lit, reduce the probability of considering it as a parked vehicle.
・ Increase the probability of a parked vehicle when the amount of overlap on the left boundary of the vehicle is large. Furthermore, how to raise the probability is changed according to the road shoulder width.
-Increase the probability of recognizing a parked vehicle when it recognizes a triangular plate, smoke bomb, electronic signboard guide for police cars, traffic managers, etc. based on image processing.
-Recognize parked vehicles from the distribution of spatial location information on the map.
-Use communication to recognize parked vehicles.
・ At least a vehicle in a running state is not judged as a parked vehicle.
・ Increase the probability of a parked vehicle if the vehicle in front is stationary for a certain period of time and the right lane is open.
-If the lane blockade by the construction signboard or pylon is recognized based on the image processing, it will be the starting point of the lane blockade area.
-Recognize the start of the construction section from the distribution of spatial position information on the map.
・ If a surface that blocks the entire lane can be detected from the left road edge to the right side of the lane, it is recognized as a blockade due to the construction section.

[点群連結による車線閉塞領域拡張作用(図11〜図14)]
車線閉塞領域LSAの開始点SPが設定された後、ライダー113からの点群データPnの連結による車線閉塞領域LSAの拡張作用は、図4のフローチャートにおいて、S9からS10→S11へと進み、S10→S11へと進む流れを繰り返すことで行われる。
[Lane blockage area expansion action by point cloud connection (Figs. 11 to 14)]
After the start point SP of the lane blockage area LSA is set, the expansion action of the lane blockage area LSA by connecting the point cloud data Pn from the rider 113 proceeds from S9 to S10 → S11 in the flowchart of FIG. → It is performed by repeating the flow of proceeding to S11.

まず、車線閉塞領域LSAの拡張において、点群データPnから、同一車線の点で、かつ、点同士の車線進行方向に乖離する縦乖離距離Lxが所定閾値B未満の点を連結する。具体的には、車線閉塞領域LSAの開始点SAを起点として車線閉塞領域LSAを拡張する場合、図11に示すように、連結予定の点群データPnのうち、隣接していなく乖離している2つのデータポイントP6とP7、2つのデータポイントP9とP10が車線進行方向に乖離する縦乖離距離Lx1,Lx2が算出される。そして、縦乖離距離Lx1については、所定閾値B未満という縦乖離距離条件が成立するため、第1駐車車両PV1と第2駐車車両PV2による2つのデータポイントP6とP7を車線進行方向に連結することで車線閉塞領域LSAが拡張される。一方、縦乖離距離Lx2については、所定閾値Bを超えていて縦乖離距離条件が成立しないため、第2駐車車両PV2と一時停止車両SVによる2つのデータポイントP9とP10は車線進行方向に連結されない。これにより、狭い車間距離にて複数台の駐車車両が並んでいる駐車車列や工事区間の場合、開始点SPを起点とする点群連結により車線閉塞領域LSAを拡張することができることになる。また、駐車車列の先頭車両から離れた位置に一時停止車両SVが存在する場合などにおいては、縦乖離距離条件が不成立になることで、車線閉塞に含むことができない領域までの車線閉塞領域LSAの拡張を防止することができることになる。 First, in the expansion of the lane blockage region LSA, points that are points in the same lane and whose vertical deviation distance Lx that deviates from each other in the lane traveling direction is less than a predetermined threshold B are connected from the point cloud data Pn. Specifically, when the lane blockage area LSA is expanded starting from the start point SA of the lane blockage area LSA, as shown in FIG. 11, the point group data Pn to be connected are not adjacent and are separated from each other. The vertical deviation distances Lx1 and Lx2 at which the two data points P6 and P7 and the two data points P9 and P10 deviate in the lane travel direction are calculated. Then, for the vertical deviation distance Lx1, since the vertical deviation distance condition of less than the predetermined threshold B is satisfied, the two data points P6 and P7 by the first parked vehicle PV1 and the second parked vehicle PV2 are connected in the lane traveling direction. The lane blockage area LSA is expanded at. On the other hand, for the vertical deviation distance Lx2, since the vertical deviation distance condition exceeds the predetermined threshold B and the vertical deviation distance condition is not satisfied, the two data points P9 and P10 by the second parked vehicle PV2 and the temporarily stopped vehicle SV are not connected in the lane traveling direction. .. As a result, in the case of a parked convoy or a construction section in which a plurality of parked vehicles are lined up at a narrow inter-vehicle distance, the lane blockage area LSA can be expanded by connecting point clouds starting from the starting point SP. In addition, when the temporarily stopped vehicle SV exists at a position away from the leading vehicle in the parked convoy, the lane blockage area LSA up to the area that cannot be included in the lane blockage due to the failure of the vertical deviation distance condition. It will be possible to prevent the expansion of.

次に、開始点SPを起点として車線閉塞領域LSAを拡張する場合、点群データP3〜P6と点群データP7〜P10との横乖離距離Lyが所定値C以上であると連結対象から除外する。具体的には、車線閉塞領域LSAの開始点SAを起点として車線閉塞領域LSAを拡張する場合、図12に示すように、連結予定の2つの点群データP3〜P6と点群データP7〜P10とが車線幅方向であって自車Vの走行車線(右車線LR)に近づく側に乖離する最大の横乖離距離Lyが算出される。そして、横乖離距離Lyが所定値C(車線幅方向のマージン分)以上であると、縦乖離距離条件の成立/不成立にかかわらず一時停止車両SVによる点群データP7〜P10が、駐車車両PVによる点群データP3〜P6との連結対象から除外される。これにより、縦乖離距離条件が成立する場合、動き出す可能性がある一時停止車両SVを駐車車両PVと誤認し、点群連結により車線閉塞領域LSAを拡張するのを防止することができることになる。即ち、自車Vの走行車線(右車線LR)に近づく側に乖離する静止車両が存在する場合、静止車両は駐車車両PVではなく左車線LLの車線中央部位置への一時停止車両SVである可能性が高い。 Next, when expanding the lane obstruction region LSA starting from the starting point SP, if the lateral deviation distance Ly between the point cloud data P3 to P6 and the point cloud data P7 to P10 is a predetermined value C or more, it is excluded from the connection target. .. Specifically, when the lane blockage region LSA is expanded starting from the start point SA of the lane blockage region LSA, as shown in FIG. 12, two point group data P3 to P6 and point group data P7 to P10 to be connected are to be connected. The maximum lateral deviation distance Ly, which is in the lane width direction and deviates toward the side approaching the driving lane (right lane LR) of the own vehicle V, is calculated. When the lateral deviation distance Ly is equal to or greater than the predetermined value C (margin in the lane width direction), the point group data P7 to P10 by the temporarily stopped vehicle SV are the parked vehicle PV regardless of whether the vertical deviation distance condition is satisfied or not. It is excluded from the connection target with the point group data P3 to P6 by. As a result, when the vertical divergence distance condition is satisfied, it is possible to prevent the temporarily stopped vehicle SV that may start moving from being mistaken as a parked vehicle PV and the lane blockage region LSA from being expanded by point cloud connection. That is, when there is a stationary vehicle that deviates from the side approaching the driving lane (right lane LR) of the own vehicle V, the stationary vehicle is not a parked vehicle PV but a temporary stop vehicle SV at the center position of the left lane LL. Probability is high.

次に、開始点SPを起点として車線閉塞領域LSAを拡張する場合、次に連結を予定している点群データP10,P11を取得した物体属性が移動物体であると連結対象から除外する。具体的には、車線閉塞領域LSAの開始点SAを起点として車線閉塞領域LSAを拡張する場合、図13に示すように、点群データP1〜P9の次に連結を予定している点群データP10,P11を取得した物体の属性が判定される。そして、物体の属性が静止物体(駐車車両PV)と判定されると点群データP10,P11が連結対象とされる。一方、物体の属性が移動物体(一時停止車両SV)と判定されると点群データP10,P11が連結対象から除外される。これにより、動き出す可能性が高い一時停止車両SVを駐車車両PVと誤認識し、車線閉塞領域LSAを拡張してしまうことを防止することができることになる。この結果、自車Vが誤って一時停止車両SVの前方に車線変更を行おうとすることや一時停止車両SVの走行を阻害することを抑制することができる。 Next, when expanding the lane blockage area LSA starting from the starting point SP, if the object attribute for which the point cloud data P10 and P11 scheduled to be connected next is acquired is a moving object, it is excluded from the connection target. Specifically, when the lane blockage area LSA is expanded starting from the start point SA of the lane blockage area LSA, as shown in FIG. 13, the point cloud data to be connected next to the point cloud data P1 to P9 is planned. The attributes of the object for which P10 and P11 have been acquired are determined. Then, when the attribute of the object is determined to be a stationary object (parked vehicle PV), the point cloud data P10 and P11 are linked. On the other hand, if the attribute of the object is determined to be a moving object (paused vehicle SV), the point cloud data P10 and P11 are excluded from the connection target. As a result, it is possible to prevent the temporarily stopped vehicle SV, which is likely to start moving, from being mistakenly recognized as the parked vehicle PV and expanding the lane blockage area LSA. As a result, it is possible to prevent the own vehicle V from accidentally changing lanes in front of the temporarily stopped vehicle SV and hindering the traveling of the temporarily stopped vehicle SV.

次に、車線閉塞領域LSAを拡張する場合、起点となる開始点SPが認識できないとき、過去の車線閉塞領域LSA(n-1)をベースとして車線閉塞領域LSA(n)の拡張処理を行う。具体的には、図14に示すように、自車Vが駐車車列PV1,PV2,PV3,PV4の横を走行していて車線閉塞領域LSAの開始点SPを認識できないシーンのときに車線閉塞領域LSAを拡張する場合、過去に認識された車線閉塞領域LSA(n-1)が存在すると、過去の車線閉塞領域LSA(n-1)がベースとされる。そして、自車Vが駐車車列PV1,PV2,PV3,PV4に到達する前の過去の車線閉塞領域LSA(n-1)のデータポイントP9から車線進行方向に点群データP10〜P15を連結し、1つの領域による車線閉塞領域LSA(n)とする拡張処理が行われる。これにより、車線閉塞領域LSAの開始点SPを認識できないシーンのとき、開始点SPを過去の車線閉塞領域LSA(n-1)に置き換えて用いることにより、車線閉塞領域LSA(n)の拡張処理を継続することができる。これによって、ライダー113による点群データPnの取得範囲を超える長い駐車車列の場合や長距離にわたる工事区間の場合であって、既に設定されている車線閉塞領域LSA(n-1)の横を自車Vが走行するとき、車線閉塞領域LSA(n-1)を拡張させた1つの領域による車線閉塞領域LSA(n)を設定することができることになる。 Next, when the lane blockage area LSA is expanded, when the starting point SP as the starting point cannot be recognized, the lane blockage area LSA (n) is expanded based on the past lane blockage area LSA (n-1). Specifically, as shown in FIG. 14, when the own vehicle V is traveling beside the parked convoy PV1, PV2, PV3, PV4 and the start point SP of the lane obstruction region LSA cannot be recognized, the lane obstruction occurs. When expanding the area LSA, if there is a previously recognized lane blockage area LSA (n-1), the past lane blockage area LSA (n-1) is used as the base. Then, the point group data P10 to P15 are connected in the lane traveling direction from the data point P9 of the past lane blockage region LSA (n-1) before the own vehicle V reaches the parked lane PV1, PV2, PV3, PV4. Expansion processing is performed to make the lane blockage area LSA (n) by one area. As a result, when the start point SP of the lane blockage area LSA cannot be recognized, the start point SP is replaced with the past lane blockage area LSA (n-1) and used to expand the lane blockage area LSA (n). Can be continued. As a result, in the case of a long parked vehicle line that exceeds the acquisition range of the point cloud data Pn by the rider 113 or in the case of a construction section over a long distance, the side of the already set lane blockage area LSA (n-1) When the own vehicle V travels, it is possible to set the lane blockage region LSA (n) by one region obtained by expanding the lane blockage region LSA (n-1).

なお、点群連結による車線閉塞領域拡張作用においては、上記内容に加え、下記の点を考慮した制御を行う。
・車線閉塞領域LSAの拡張では、空間位置情報の分布を基に連結可否判断を行う。
・車線縦方向の距離が閾値以上の空間位置情報は連結しない。
・車線横方向の位置が閾値以上の空間位置情報(及び周辺の空間位置情報)は連結しない。
・物体認識結果及び通信、その他の手段によって、物体の種類・状態に関する情報が取得可能な場合、物体近傍の空間位置情報と関連付けを行い、連結可否判断に反映する。
・連結可否判断の閾値を動的に変更する。
・車線閉塞の要因によって連結可否判断の閾値を分ける。例えば、工事区間だったらパイロン間の距離が長いことが想定されるので距離の閾値を大きくする。
・過去の車線閉塞領域に対して現在の空間位置情報を連結して領域拡張する場合、過去の車線閉塞領域から移動体が発生した場合、過去の車線閉塞領域を使用しない。
In addition to the above contents, control is performed in consideration of the following points in the lane obstruction area expansion action by connecting point clouds.
・ When expanding the lane blockage area LSA, it is judged whether or not connection is possible based on the distribution of spatial position information.
-Spatial position information whose vertical distance in the lane is greater than or equal to the threshold value is not connected.
-Spatial position information (and surrounding spatial position information) whose position in the lateral direction of the lane is equal to or greater than the threshold value is not connected.
-If information on the type and state of the object can be obtained by the object recognition result, communication, or other means, it is associated with the spatial position information in the vicinity of the object and reflected in the judgment of connection availability.
-Dynamic change of the threshold value for determining whether or not to connect.
・ The threshold value for determining whether or not to connect is divided according to the cause of lane blockage. For example, if it is a construction section, it is assumed that the distance between pylon is long, so increase the distance threshold.
-When expanding the area by connecting the current spatial position information to the past lane blockage area, if a moving object is generated from the past lane blockage area, the past lane blockage area is not used.

以上説明したように、実施例1の自動運転車両ADにおける周囲物体認識方法及び周囲物体認識装置にあっては、下記に列挙する効果を奏する。 As described above, the surrounding object recognition method and the surrounding object recognition device in the autonomous driving vehicle AD of the first embodiment have the effects listed below.

(1) 周囲環境の点群データPn(物体の空間位置情報の一例)を取得するセンサ(ライダー113)と、センサ(ライダー113)により取得された点群データPnにより、自車Vの周囲に存在する物体を認識するコントローラ(周囲物体認識部315)と、を備える周囲物体認識方法において、コントローラ(周囲物体認識部315)は、点群データPnにより、自車Vの走行障害となる物体(駐車車両PV1,PV2)によって車線(左車線LL)が閉塞されている領域である車線閉塞領域LSAを認識し、車線閉塞領域LSAの開始点SPを起点として車線進行方向に点群データPnを連結することにより、車線閉塞領域LSAを拡張する(図8)。
このため、自車Vの走行予定車線を閉塞する物体(駐車車両PV1,PV2)が存在するシーンにおいて、物体(駐車車両PV1,PV2)それぞれを区別して認識しなくても、走行状況に適した走行支援を実行する周囲物体認識方法を提供することができる。
(1) A sensor (rider 113) that acquires point group data Pn (an example of spatial position information of an object) in the surrounding environment and a point group data Pn acquired by the sensor (rider 113) are used to surround the vehicle V. In a surrounding object recognition method including a controller (surrounding object recognition unit 315) that recognizes an existing object, the controller (surrounding object recognition unit 315) uses point group data Pn to cause an object (surrounding object recognition unit 315) that hinders the running of the own vehicle V. The lane blockage area LSA, which is the area where the lane (left lane LL) is blocked by the parked vehicle PV1 and PV2), is recognized, and the point group data Pn is connected in the lane traveling direction starting from the start point SP of the lane blockage area LSA. By doing so, the lane blockage area LSA is expanded (Fig. 8).
Therefore, in a scene where there are objects (parked vehicles PV1 and PV2) that block the planned lane of the own vehicle V, it is suitable for the driving situation even if the objects (parked vehicles PV1 and PV2) are not recognized separately. It is possible to provide a method of recognizing surrounding objects to perform driving support.

(2) 車線閉塞領域LSAの開始点SPを認識する際、車線を車線進行方向に一定間隔により区切って複数のビン分割区間BD(n)を設定し、複数のビン分割区間BD(n)のうち、集合している点群データPnによって車線幅方向に障害物OBによる所定の閉塞幅SWを有するビン分割区間BD(7)を、車線閉塞候補LSCとして認識する(図9)。
このため、自車Vの走行予定車線に存在する移動物体及び静止物体の全ての物体を対象として車線閉塞候補を特定する処理に比べ、演算負荷を低減しつつ、車線閉塞領域LSAの開始点SPの認識に必要な車線閉塞候補LSCを特定することができる。
(2) When recognizing the starting point SP of the lane blockage area LSA, a plurality of bin division sections BD (n) are set by dividing the lane in the lane traveling direction at regular intervals, and a plurality of bin division sections BD (n) are set. Among them, the bin division section BD (7) having a predetermined blockage width SW due to the obstacle OB in the lane width direction is recognized as a lane blockage candidate LSC by the collected point group data Pn (FIG. 9).
Therefore, compared to the process of identifying lane blockage candidates for all moving objects and stationary objects existing in the planned traveling lane of the own vehicle V, the calculation load is reduced and the starting point SP of the lane blockage region LSA. It is possible to identify the lane blockage candidate LSC necessary for recognition of.

(3) 車線閉塞候補LSCに存在する点群データPnのうち、自車Vの目標軌跡Ttに最も近い位置のデータポイントP3を選択し、選択したデータポイントP3の地点Aを、車線閉塞領域LSAの開始点SPと認識する(図10)。
このため、物体の後端部形状を点群データPnにより把握した上で車線閉塞領域の開始点を設定する場合に比べ、点群データPnを取得する走査回数を低減しつつ、車線閉塞領域LSAの開始点SPを設定することができる。
(3) From the point cloud data Pn existing in the lane blockage candidate LSC, select the data point P3 at the position closest to the target trajectory Tt of the own vehicle V, and set the point A of the selected data point P3 to the lane blockage area LSA. It is recognized as the starting point SP of (Fig. 10).
Therefore, compared to the case where the start point of the lane blockage region is set after grasping the shape of the rear end of the object from the point cloud data Pn, the number of scans for acquiring the point cloud data Pn is reduced and the lane blockage region LSA The starting point SP of can be set.

(4) 車線閉塞領域LSAの開始点SPから車線幅方向に存在する点群データPnを連結して後端面領域RAを設定し、設定した後端面領域RAと自車Vから遠い側の車線境界とのオーバーラップ量OAが所定閾値以上である場合、認識された開始点SPを駐車車両PVによる車線閉塞領域LSAの開始点SPに設定する(図10)。
このため、点群データPnに基づいて車線閉塞領域LSAの開始点SAを認識する際、道路上に存在する障害物から駐車車両PVを切り分けて「駐車車両PVによる車線閉塞領域LSAの開始点SA」を設定することができる。
(4) The rear end face area RA is set by connecting the point group data Pn existing in the lane width direction from the start point SP of the lane blockage area LSA, and the set rear end face area RA and the lane boundary on the side far from the own vehicle V are set. When the amount of overlap OA with the above is equal to or greater than a predetermined threshold value, the recognized start point SP is set as the start point SP of the lane blockage region LSA by the parked vehicle PV (FIG. 10).
Therefore, when recognizing the start point SA of the lane blockage area LSA based on the point cloud data Pn, the parked vehicle PV is separated from the obstacles existing on the road and "the start point SA of the lane blockage area LSA by the parked vehicle PV" is separated. "Can be set.

(5) センサ(ライダー113)により取得される空間位置情報(点群データPn)を含んで車載センサ(カメラ111、レーダー112)から取得される入力情報に基づいて自車Vの走行路上に存在している物体の認識処理を行い、物体の認識処理により認識された物体が自車Vの走行障害となる静止物体(駐車車両、工事区間など)であると認識した場合に、静止物体の後端面領域のうち自車Vの目標軌跡Ttに最も近い位置を車線閉塞領域LSAの開始点SPと認識する(図4のS5〜S9)。
このため、車線閉塞領域LSAの開始点SPを認識する際、予め物体認識結果を取得できる場合、点群データPnを用いることなく、物体認識結果を用いて車線閉塞領域LSAの開始点SPを設定することができる。
(5) Exists on the traveling path of the own vehicle V based on the input information acquired from the in-vehicle sensor (camera 111, radar 112) including the spatial position information (point group data Pn) acquired by the sensor (rider 113). When the recognition process of the object is performed and the object recognized by the object recognition process is recognized as a stationary object (parked vehicle, construction section, etc.) that hinders the running of the own vehicle V, after the stationary object The position of the end face region closest to the target locus Tt of the own vehicle V is recognized as the start point SP of the lane obstruction region LSA (S5 to S9 in FIG. 4).
Therefore, when recognizing the start point SP of the lane blockage area LSA, if the object recognition result can be obtained in advance, the start point SP of the lane blockage area LSA is set using the object recognition result without using the point cloud data Pn. can do.

(6) 車線閉塞領域LSAの開始点SPを起点として車線閉塞領域LSAを拡張する場合、連結予定の2つのデータポイントP6,P7が車線進行方向に乖離する縦乖離距離Lx1を算出し、縦乖離距離Lx1が所定閾値B未満という縦乖離距離条件が成立すると、2つのデータポイントP6,P7を車線進行方向に連結して車線閉塞領域LSAを拡張する(図11)。
このため、駐車車列や工事区間の場合、開始点SPを起点とする点群連結により車線閉塞領域LSAを拡張することができるとともに、車線閉塞に含むことができない領域までの車線閉塞領域LSAの拡張を防止することができる。
(6) When expanding the lane blockage area LSA starting from the starting point SP of the lane blockage area LSA, the vertical divergence distance Lx1 at which the two data points P6 and P7 to be connected deviate in the lane travel direction is calculated and the vertical divergence is calculated. When the vertical deviation distance condition that the distance Lx1 is less than the predetermined threshold B is satisfied, the two data points P6 and P7 are connected in the lane traveling direction to expand the lane blockage region LSA (FIG. 11).
Therefore, in the case of a parked convoy or a construction section, the lane blockage area LSA can be expanded by connecting the point cloud starting from the starting point SP, and the lane blockage area LSA to the area that cannot be included in the lane blockage can be expanded. Expansion can be prevented.

(7) 車線閉塞領域LSAの開始点SPを起点として車線閉塞領域LSAを拡張する場合、連結予定の2つの点群データP3〜P6と点群データP7〜P10が車線幅方向であって自車Vの走行車線に近づく側に乖離する横乖離距離Lyを算出し、横乖離距離Lyが所定値C以上であると、縦乖離距離条件の成立/不成立にかかわらず点群データP7〜P10を点群データP3〜P6との連結対象から除外する(図12)。
このため、縦乖離距離条件が成立する場合、動き出す可能性がある一時停止車両SVを駐車車両PVと誤認し、点群連結により車線閉塞領域LSAを拡張するのを防止することができる。
(7) When expanding the lane blockage area LSA starting from the start point SP of the lane blockage area LSA, the two point group data P3 to P6 and the point group data P7 to P10 to be connected are in the lane width direction and the own vehicle. Calculate the lateral divergence distance Ly that deviates toward the side approaching the driving lane of V, and if the lateral divergence distance Ly is equal to or greater than the predetermined value C, the point group data P7 to P10 are pointed regardless of whether the longitudinal divergence distance condition is satisfied or not. Exclude from the target of connection with group data P3 to P6 (Fig. 12).
Therefore, when the vertical deviation distance condition is satisfied, it is possible to prevent the temporarily stopped vehicle SV that may start moving from being mistaken for the parked vehicle PV and expanding the lane blockage region LSA by connecting the point cloud.

(8) 車線閉塞領域LSAの開始点SPを起点として車線閉塞領域LSAを拡張する場合、次に連結を予定しているデータポイントP10,P11を取得した物体属性を判定し、物体属性が静止物体と判定されると点群データPnの連結対象とし、物体属性が移動物体と判定されると点群データPnの連結対象から除外する(図13)。
このため、動き出す可能性が高い一時停止車両SVを駐車車両PVと誤認識し、車線閉塞領域LSAを拡張してしまうことを防止することができる。
(8) When expanding the lane blockage area LSA starting from the start point SP of the lane blockage area LSA, the object attribute obtained from the data points P10 and P11 scheduled to be connected next is determined, and the object attribute is a stationary object. If it is determined that the object is a moving object, the point group data Pn is excluded from the connection target (FIG. 13).
Therefore, it is possible to prevent the temporarily stopped vehicle SV, which is likely to start moving, from being mistakenly recognized as the parked vehicle PV and expanding the lane blockage area LSA.

(9) 車線閉塞領域LSAの開始点SPを認識できないシーンのときに車線閉塞領域LSAを拡張する場合、過去に認識された車線閉塞領域LSA(n-1)が存在すると、過去の車線閉塞領域LSA(n-1)をベースとし、車線進行方向に点群データPnを連結する車線閉塞領域LSA(n)の拡張処理を行う(図14)。
このため、点群データPnの取得範囲を超える長い駐車車列の場合や長距離にわたる工事区間の場合であって、既に設定されている車線閉塞領域LSA(n-1)の横を自車Vが走行するとき、車線閉塞領域LSA(n-1)を拡張させた1つの領域による車線閉塞領域LSA(n)を設定することができる。
(9) When expanding the lane blockage area LSA in a scene where the start point SP of the lane blockage area LSA cannot be recognized, if the previously recognized lane blockage area LSA (n-1) exists, the past lane blockage area Based on LSA (n-1), the lane blockage region LSA (n) connecting the point group data Pn in the lane traveling direction is expanded (FIG. 14).
For this reason, in the case of a long parked vehicle line that exceeds the acquisition range of the point cloud data Pn or in the case of a construction section over a long distance, the own vehicle V is next to the already set lane blockage area LSA (n-1). When the vehicle travels, it is possible to set the lane obstruction region LSA (n) by one region which is an extension of the lane obstruction region LSA (n-1).

(10) 周囲環境の点群データPn(物体の空間位置情報の一例)を取得するセンサ(ライダー113)と、センサ(ライダー113)により取得された点群データPnにより、自車Vの周囲に存在する物体を認識するコントローラ(周囲物体認識部315)と、を備える周囲物体認識装置において、コントローラ(周囲物体認識部315)は、点群データPnにより、自車Vの走行障害となる物体(駐車車両PV1,PV2)によって車線(左車線LL)が閉塞されている領域である車線閉塞領域LSAを認識する車線閉塞領域開始点認識部315bと、車線閉塞領域LSAの開始点SPを起点として車線進行方向に点群データPnを連結することにより、車線閉塞領域LSAを拡張する車線閉塞領域拡張部315cと、を有する(図3)。
このため、自車Vの走行予定車線を閉塞する物体(駐車車両PV1,PV2)が存在するシーンにおいて、物体(駐車車両PV1,PV2)それぞれを区別して認識しなくても、走行状況に適した走行支援を実行する周囲物体認識装置を提供することができる。
(10) A sensor (rider 113) that acquires point group data Pn (an example of spatial position information of an object) in the surrounding environment and a point group data Pn acquired by the sensor (rider 113) are used to surround the vehicle V. In a surrounding object recognition device including a controller (surrounding object recognition unit 315) for recognizing an existing object, the controller (surrounding object recognition unit 315) uses point group data Pn to cause an object (surrounding object recognition unit 315) that hinders driving of the own vehicle V. Lanes starting from the lane blockage area start point recognition unit 315b that recognizes the lane blockage area LSA, which is the area where the lane (left lane LL) is blocked by parked vehicles PV1 and PV2), and the start point SP of the lane blockage area LSA. It has a lane blockage region expansion portion 315c that expands the lane blockage region LSA by connecting the point group data Pn in the traveling direction (FIG. 3).
Therefore, in a scene where there are objects (parked vehicles PV1 and PV2) that block the planned lane of the own vehicle V, it is suitable for the driving situation even if the objects (parked vehicles PV1 and PV2) are not recognized separately. A surrounding object recognition device that executes driving support can be provided.

以上、本開示の周囲物体認識方法及び周囲物体認識装置を、実施例1に基づき説明してきた。しかし、具体的な構成については、この実施例1に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加などは許容される。 The surrounding object recognition method and the surrounding object recognition device of the present disclosure have been described above based on the first embodiment. However, the specific configuration is not limited to the first embodiment, and design changes and additions are permitted as long as the gist of the invention according to each claim of the claims is not deviated.

実施例1では、周囲環境の物体の空間位置情報を取得するセンサとして、点群データPnを取得するライダー113を用いる例を示した。しかし、周囲環境の物体の空間位置情報を取得するセンサとしては、ライダーに限られるものではなく、レーダーや組み合わせ測距センサなどによる例であっても良い。 In Example 1, a rider 113 that acquires point cloud data Pn is used as a sensor that acquires spatial position information of an object in the surrounding environment. However, the sensor for acquiring the spatial position information of an object in the surrounding environment is not limited to the rider, and may be an example using a radar or a combination ranging sensor.

実施例1では、自車Vが右車線LRを走行していて左車線LLに車線変更する際に左車線LLに障害物が存在する場合に車線閉塞領域を設定する例を示した。しかし、自車の走行車線上に障害物が存在する場合に車線閉塞領域を設定し、設定された車線閉塞領域を迂回するように、車線閉塞領域の手前と先で自車を車線変更する例であっても良い。さらに、自車の走行車線に隣接する車線上に障害物が存在する場合に車線閉塞領域を設定し、車線閉塞領域の区間で自車と他車が競合する場合に先行車両を決定する例としても良い。 In Example 1, when the own vehicle V is traveling in the right lane LR and there is an obstacle in the left lane LL when changing lanes to the left lane LL, an example of setting the lane blockage area is shown. However, an example in which a lane blockage area is set when an obstacle exists in the driving lane of the own vehicle, and the own vehicle is changed lanes before and after the set lane blockage area so as to bypass the set lane blockage area. It may be. Furthermore, as an example of setting a lane block area when an obstacle exists in a lane adjacent to the driving lane of the own vehicle and determining a preceding vehicle when the own vehicle and another vehicle compete with each other in the section of the lane block area. Is also good.

実施例1では、本開示の周囲物体認識方法及び周囲物体認識装置を、目標軌跡に沿って走行するように速度及び舵角による車両運動が制御される自動運転車両ADに適用する例を示した。しかし、本開示の周囲物体認識方法及び周囲物体認識装置は、自動運転車両に限らず、オートクルーズ機能やレーンキープ機能などを備え、少なくともステアリング操作/アクセル操作/ブレーキ操作の何れか一つの運転操作を支援する運転支援車両に対しても適用することができる。要するに、走行ルート生成や車線変更制御やそれ以外の制御において、自車が走行する車線の周囲物体情報を入力情報として用いる制御システムを搭載した車両であれば適用できる。 In the first embodiment, an example is shown in which the surrounding object recognition method and the surrounding object recognition device of the present disclosure are applied to an automatically driving vehicle AD in which vehicle motion is controlled by speed and steering angle so as to travel along a target trajectory. .. However, the surrounding object recognition method and the surrounding object recognition device of the present disclosure are not limited to the autonomous driving vehicle, but are provided with an auto cruise function, a lane keeping function, and the like, and at least one of steering operation / accelerator operation / brake operation is performed. It can also be applied to driving support vehicles that support. In short, it can be applied to any vehicle equipped with a control system that uses information on surrounding objects in the lane in which the vehicle is traveling as input information in travel route generation, lane change control, and other controls.

AD 自動運転車両
11 外部センサ
111 カメラ
112 レーダー
113 ライダー(センサ)
31 自動運転コントローラ
315 周囲物体認識部(コントローラ)
315a 物体認識部
315b 車線閉塞領域開始点認識部
315c 車線閉塞領域拡張部
318 走行領域設定部
319 目標軌跡生成部
AD Autonomous Driving Vehicle 11 External Sensor 111 Camera 112 Radar 113 Rider (Sensor)
31 Automatic operation controller 315 Surrounding object recognition unit (controller)
315a Object recognition unit 315b Lane blockage area start point recognition unit 315c Lane blockage area expansion unit 318 Travel area setting unit 319 Target trajectory generation unit

Claims (10)

周囲環境の物体の空間位置情報を取得するセンサと、
前記センサにより取得された空間位置情報により、自車の周囲に存在する物体を認識するコントローラと、を備える周囲物体認識方法において、
前記コントローラは、
前記空間位置情報により、自車の走行障害となる物体によって車線が閉塞されている領域である車線閉塞領域を認識し、
前記車線閉塞領域の開始点を起点として車線進行方向に物体の空間位置情報を連結することにより、前記車線閉塞領域を拡張する
ことを特徴とする周囲物体認識方法。
A sensor that acquires spatial position information of objects in the surrounding environment,
In a surrounding object recognition method including a controller that recognizes an object existing around the own vehicle based on the spatial position information acquired by the sensor.
The controller
Based on the spatial position information, the lane obstruction area, which is an area where the lane is obstructed by an object that hinders the traveling of the own vehicle, is recognized.
A method for recognizing surrounding objects, which expands the lane obstruction region by connecting spatial position information of an object in the lane traveling direction starting from a start point of the lane obstruction region.
請求項1に記載された周囲物体認識方法において、
前記車線閉塞領域の開始点を認識する際、車線を車線進行方向に一定間隔により区切って複数のビン分割区間を設定し、
前記複数のビン分割区間のうち、集合している前記空間位置情報によって車線幅方向に障害物による所定の閉塞幅を有するビン分割区間を、車線閉塞候補として認識する
ことを特徴とする周囲物体認識方法。
In the surrounding object recognition method according to claim 1,
When recognizing the start point of the lane blockage region, a plurality of bin division sections are set by dividing the lane in the lane traveling direction at regular intervals.
Peripheral object recognition characterized in that, among the plurality of bin division sections, a bin division section having a predetermined blockage width due to an obstacle in the lane width direction is recognized as a lane blockage candidate based on the aggregated spatial position information. Method.
請求項2に記載された周囲物体認識方法において、
前記車線閉塞候補に存在する前記空間位置情報のうち、自車の目標軌跡に最も近い位置の空間位置情報を選択し、
前記選択した空間位置情報の地点を、前記車線閉塞領域の開始点と認識する
ことを特徴とする周囲物体認識方法。
In the surrounding object recognition method according to claim 2,
Among the spatial position information existing in the lane blockage candidate, the spatial position information at the position closest to the target trajectory of the own vehicle is selected.
A method of recognizing a surrounding object, which recognizes a point of the selected spatial position information as a starting point of the lane obstruction region.
請求項3に記載された周囲物体認識方法において、
前記車線閉塞領域の開始点から車線幅方向に存在する前記空間位置情報を連結して後端面領域を設定し、
前記設定した後端面領域と自車から遠い側の車線境界とのオーバーラップ量が所定閾値以上である場合、認識された開始点を駐車車両による前記車線閉塞領域の開始点に設定する
ことを特徴とする周囲物体認識方法。
In the surrounding object recognition method according to claim 3,
The rear end surface region is set by connecting the spatial position information existing in the lane width direction from the start point of the lane blockage region.
When the amount of overlap between the set rear end surface region and the lane boundary on the side far from the own vehicle is equal to or greater than a predetermined threshold value, the recognized start point is set as the start point of the lane blockage region by the parked vehicle. Peripheral object recognition method.
請求項1から4までの何れか一項に記載された周囲物体認識方法において、
前記センサにより取得される空間位置情報を含んで車載センサから取得される入力情報に基づいて自車の走行路上に存在している物体の認識処理を行い、
前記物体の認識処理により認識された物体が自車の走行障害となる静止物体であると認識した場合に、前記静止物体の後端面領域のうち、自車の目標軌跡に最も近い位置を前記車線閉塞領域の開始点と認識する
ことを特徴とする周囲物体認識方法。
In the surrounding object recognition method according to any one of claims 1 to 4,
Based on the input information acquired from the in-vehicle sensor including the spatial position information acquired by the sensor, the recognition process of the object existing on the traveling path of the own vehicle is performed.
When the object recognized by the object recognition process is recognized as a stationary object that hinders the traveling of the own vehicle, the position closest to the target trajectory of the own vehicle in the rear end surface region of the stationary object is the lane. A method of recognizing surrounding objects, which is characterized by recognizing it as the starting point of a closed area.
請求項1から5までの何れか一項に記載された周囲物体認識方法において、
前記車線閉塞領域の開始点を起点として前記車線閉塞領域を拡張する場合、連結予定の2つの前記空間位置情報が車線進行方向に乖離する縦乖離距離を算出し、
前記縦乖離距離が所定閾値未満という縦乖離距離条件が成立すると、2つの前記空間位置情報を車線進行方向に連結して前記車線閉塞領域を拡張する
ことを特徴とする周囲物体認識方法。
In the surrounding object recognition method according to any one of claims 1 to 5,
When the lane blockage area is expanded starting from the start point of the lane blockage area, the vertical dissociation distance at which the two spatial position information to be connected deviate in the lane traveling direction is calculated.
A method of recognizing a surrounding object, characterized in that when the vertical deviation distance condition that the vertical deviation distance is less than a predetermined threshold value is satisfied, the two spatial position information are connected in the lane traveling direction to expand the lane blockage region.
請求項6に記載された周囲物体認識方法において、
前記車線閉塞領域の開始点を起点として前記車線閉塞領域を拡張する場合、連結予定の2つの前記空間位置情報が車線幅方向であって自車の走行車線に近づく側に乖離する横乖離距離を算出し、
前記横乖離距離が所定値以上であると、前記縦乖離距離条件の成立/不成立にかかわらず前記空間位置情報の連結対象から除外する
ことを特徴とする周囲物体認識方法。
In the surrounding object recognition method according to claim 6,
When the lane obstruction region is expanded starting from the start point of the lane obstruction region, the lateral divergence distance at which the two spatial position information to be connected are in the lane width direction and deviate toward the side approaching the traveling lane of the own vehicle is determined. Calculate and
A method of recognizing a surrounding object, characterized in that when the lateral deviation distance is equal to or greater than a predetermined value, the spatial position information is excluded from the connection target regardless of whether the vertical deviation distance condition is satisfied or not.
請求項6に記載された周囲物体認識方法において、
前記車線閉塞領域の開始点を起点として前記車線閉塞領域を拡張する場合、次に連結を予定している前記空間位置情報を取得した物体属性を判定し、
前記物体属性が静止物体と判定されると前記空間位置情報の連結対象とし、前記物体属性が移動物体と判定されると前記空間位置情報の連結対象から除外する
ことを特徴とする周囲物体認識方法。
In the surrounding object recognition method according to claim 6,
When expanding the lane blockage area starting from the start point of the lane blockage area, the object attribute for which the spatial position information scheduled to be connected is acquired is determined.
A method of recognizing a surrounding object, characterized in that when the object attribute is determined to be a stationary object, the spatial position information is connected, and when the object attribute is determined to be a moving object, the spatial position information is excluded from the connected object. ..
請求項1から8までの何れか一項に記載された周囲物体認識方法において、
前記車線閉塞領域の開始点を認識できないシーンのときに前記車線閉塞領域を拡張する場合、過去に認識された車線閉塞領域が存在すると、過去の車線閉塞領域をベースとし、車線進行方向に前記空間位置情報を連結する前記車線閉塞領域の拡張処理を行う
ことを特徴とする周囲物体認識方法。
In the surrounding object recognition method according to any one of claims 1 to 8.
When expanding the lane blockage area in a scene where the start point of the lane blockage area cannot be recognized, if the lane blockage area recognized in the past exists, the space is based on the past lane blockage area and is in the lane traveling direction. A method of recognizing surrounding objects, which comprises performing expansion processing of the lane blockage area for connecting position information.
周囲環境の物体の空間位置情報を取得するセンサと、
前記センサにより取得された空間位置情報により、自車の周囲に存在する物体を認識するコントローラと、を備える周囲物体認識装置において、
前記コントローラは、
前記空間位置情報により、自車の走行障害となる物体によって車線が閉塞されている領域である車線閉塞領域を認識する車線閉塞領域開始点認識部と、
前記車線閉塞領域の開始点を起点として車線進行方向に物体の空間位置情報を連結することにより、前記車線閉塞領域を拡張する車線閉塞領域拡張部と、を有する
ことを特徴とする周囲物体認識装置。
A sensor that acquires spatial position information of objects in the surrounding environment,
In a surrounding object recognition device including a controller that recognizes an object existing around the own vehicle based on the spatial position information acquired by the sensor.
The controller
The lane blockage area start point recognition unit that recognizes the lane blockage area, which is the area where the lane is blocked by an object that obstructs the traveling of the own vehicle, based on the spatial position information.
A peripheral object recognition device having a lane obstruction region expansion portion that expands the lane obstruction region by connecting spatial position information of an object in the lane traveling direction starting from a start point of the lane obstruction region. ..
JP2019124398A 2019-07-03 2019-07-03 Surrounding object recognition method and surrounding object recognition device Active JP7291015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019124398A JP7291015B2 (en) 2019-07-03 2019-07-03 Surrounding object recognition method and surrounding object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019124398A JP7291015B2 (en) 2019-07-03 2019-07-03 Surrounding object recognition method and surrounding object recognition device

Publications (2)

Publication Number Publication Date
JP2021009655A true JP2021009655A (en) 2021-01-28
JP7291015B2 JP7291015B2 (en) 2023-06-14

Family

ID=74199291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019124398A Active JP7291015B2 (en) 2019-07-03 2019-07-03 Surrounding object recognition method and surrounding object recognition device

Country Status (1)

Country Link
JP (1) JP7291015B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230033551A (en) * 2021-08-27 2023-03-08 모셔널 에이디 엘엘씨 Navigation with drivable area detection

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274837A (en) * 2009-05-29 2010-12-09 Hitachi Automotive Systems Ltd Vehicle controller and vehicle control method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274837A (en) * 2009-05-29 2010-12-09 Hitachi Automotive Systems Ltd Vehicle controller and vehicle control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230033551A (en) * 2021-08-27 2023-03-08 모셔널 에이디 엘엘씨 Navigation with drivable area detection
KR102639022B1 (en) 2021-08-27 2024-02-21 모셔널 에이디 엘엘씨 Navigation with drivable area detection

Also Published As

Publication number Publication date
JP7291015B2 (en) 2023-06-14

Similar Documents

Publication Publication Date Title
US9811092B2 (en) Vehicle traveling control device
JP7048398B2 (en) Vehicle control devices, vehicle control methods, and programs
CN109426263B (en) Vehicle control device, vehicle control method, and storage medium
US20190359209A1 (en) Vehicle control device, vehicle control method, and vehicle control program
JP7071173B2 (en) Vehicle control devices, vehicle control methods, and programs
CN110167811B (en) Vehicle control system, vehicle control method, and storage medium
JP6843819B2 (en) Traffic guide recognition device, traffic guide recognition method, and program
JP6974484B2 (en) Vehicle control devices, vehicle control methods, and programs
US20190278285A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7085371B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2020185968A (en) Vehicle control device, vehicle control method, and program
JP7043279B2 (en) Vehicle control systems, vehicle control methods, and programs
JPWO2018123019A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP2019128612A (en) Vehicle control device, vehicle control method, and program
JP2019137189A (en) Vehicle control system, vehicle control method, and program
JP6827026B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2019156270A (en) Vehicle controller, vehicle control method and program
US10854083B2 (en) Vehicle control device, vehicle control method, and storage medium
JP2021024423A (en) Vehicle control device, vehicle control method, and program
JP2019111867A (en) Vehicle control apparatus, vehicle control method, and program
JP2021041759A (en) Vehicle control device, and vehicle control method and program
JP2021160399A (en) Vehicle control device, vehicle control method, and program
JP7291015B2 (en) Surrounding object recognition method and surrounding object recognition device
JP6839642B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2020166123A (en) Map data preparation method and map data preparation device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230602

R150 Certificate of patent or registration of utility model

Ref document number: 7291015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150