JP7467562B1 - External Recognition Device - Google Patents

External Recognition Device Download PDF

Info

Publication number
JP7467562B1
JP7467562B1 JP2022162298A JP2022162298A JP7467562B1 JP 7467562 B1 JP7467562 B1 JP 7467562B1 JP 2022162298 A JP2022162298 A JP 2022162298A JP 2022162298 A JP2022162298 A JP 2022162298A JP 7467562 B1 JP7467562 B1 JP 7467562B1
Authority
JP
Japan
Prior art keywords
point
cloud data
point cloud
vehicle
external environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022162298A
Other languages
Japanese (ja)
Other versions
JP2024056151A (en
Inventor
俊介 小西
良太 奥津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022162298A priority Critical patent/JP7467562B1/en
Priority to CN202311158340.2A priority patent/CN117849826A/en
Application granted granted Critical
Publication of JP7467562B1 publication Critical patent/JP7467562B1/en
Publication of JP2024056151A publication Critical patent/JP2024056151A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】処理負荷を低減しつつ、車両周囲の外界状況を精度よく認識すること。【解決手段】外界認識装置50は、アクチュエータACの動作を制御する走行制御部115を有する自車両の周囲に電磁波を照射して反射波に基づき自車両の周囲の外界状況を検出するライダ5と、反射波が得られる物体の表面の計測点の位置情報を含む点群データを取得するデータ取得部111と、データ取得部111により取得された点群データに基づき自車両の前方の物体を認識するとともに、自車両と物体との位置関係に基づいて、物体に対応する計測点の中から走行制御部115で用いられる着目点を決定する決定部113と、を備える。データ取得部111は、決定部113により決定された着目点の周囲の点群データの密度が大きくなるように点群データを取得する。【選択図】図2[Problem] To accurately recognize the external environment around a vehicle while reducing the processing load. [Solution] An external environment recognition device 50 includes a lidar 5 that irradiates electromagnetic waves around a host vehicle having a driving control unit 115 that controls the operation of an actuator AC and detects the external environment around the host vehicle based on the reflected waves, a data acquisition unit 111 that acquires point cloud data including position information of measurement points on the surface of the object from which the reflected waves are obtained, and a determination unit 113 that recognizes an object ahead of the host vehicle based on the point cloud data acquired by the data acquisition unit 111 and determines a focus point to be used by the driving control unit 115 from among the measurement points corresponding to the object based on the positional relationship between the host vehicle and the object. The data acquisition unit 111 acquires point cloud data such that the density of the point cloud data around the focus point determined by the determination unit 113 is increased. [Selected Figure] FIG. 2

Description

本発明は、車両の外界状況を認識する外界認識装置に関する。 The present invention relates to an external environment recognition device that recognizes the external environment of a vehicle.

この種の装置として、ライダのレーザ光を動的に操縦して不均一な密度のレーザパルスパターンを視野角内の特定の領域で生成する装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、物体の境界線の検出精度を高めるように、物体が存在すると推定される領域に対して高密度なレーザパルスパターンを生成する。 One such device known in the art is one that dynamically steers the lidar's laser light to generate a laser pulse pattern of non-uniform density in a specific area within the field of view (see, for example, Patent Document 1). The device described in Patent Document 1 generates a high-density laser pulse pattern in an area where an object is estimated to exist, so as to increase the accuracy of detecting the object's boundary line.

特許第6860656号公報Japanese Patent No. 6860656

しかしながら、特許文献1記載の装置のように、領域単位でレーザパルスを粗密制御したのでは、計測点数を必要以上に増大させるおそれがある。 However, controlling the density of laser pulses on a region-by-region basis, as in the device described in Patent Document 1, may result in an unnecessarily large number of measurement points.

本発明の一態様である外界認識装置は、走行用アクチュエータの動作を制御する走行制御部を有する自車両の周囲に電磁波を照射して反射波に基づき自車両の周囲の外界状況を検出する車載検出器と、反射波が得られる物体の表面の計測点の位置情報を含む点群データを取得するデータ取得部と、データ取得部により取得された点群データに基づき自車両の前方の物体を認識するとともに、自車両と物体との位置関係に基づいて、物体に対応する計測点の中から走行制御部で用いられる着目点を決定する決定部と、を備える。決定部は、物体に対応する計測点のうち自車両との距離が最も短い第1計測点と進行方向において自車両から最も離れた第2計測点とを、着目点として決定する。データ取得部は、決定部により決定された着目点の周囲の点群データの密度が大きくなるように点群データを取得する。
The external environment recognition device according to one aspect of the present invention includes an on-board detector that irradiates electromagnetic waves around a host vehicle having a driving control unit that controls the operation of a driving actuator and detects the external environment around the host vehicle based on the reflected waves, a data acquisition unit that acquires point cloud data including position information of measurement points on the surface of the object from which the reflected waves are obtained, and a determination unit that recognizes an object in front of the host vehicle based on the point cloud data acquired by the data acquisition unit and determines a focus point to be used by the driving control unit from among the measurement points corresponding to the object based on the positional relationship between the host vehicle and the object. The determination unit determines, as the focus points, a first measurement point that is the shortest distance from the host vehicle and a second measurement point that is the furthest from the host vehicle in the traveling direction among the measurement points corresponding to the object. The data acquisition unit acquires the point cloud data such that the density of the point cloud data around the focus point determined by the determination unit is increased.

本発明によれば、処理負荷を低減しつつ、車両周囲の外界状況を精度よく認識できる。 The present invention makes it possible to accurately recognize the external environment around the vehicle while reducing the processing load.

自車両の前方の外界状況の一例を示す図。FIG. 2 is a diagram showing an example of an external environment ahead of a host vehicle; ライダの角度分解能を説明するための図。FIG. 1 is a diagram for explaining the angular resolution of a lidar. 車両制御装置の要部構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of a main part of the vehicle control device. 図2のコントローラのCPUで実行される処理の一例を示すフローチャート。3 is a flowchart showing an example of a process executed by a CPU of the controller of FIG. 2 . 計測点を模式的に示す図。FIG. クラスタリングされた点群データの一例を示す図。FIG. 13 is a diagram showing an example of clustered point cloud data. 最近傍点の抽出方法を説明するための図。FIG. 4 is a diagram for explaining a method of extracting a nearest neighbor point. 最近傍点の抽出方法を説明するための図。FIG. 4 is a diagram for explaining a method of extracting a nearest neighbor point. 対象クラスタの決定方法を説明するための図。FIG. 13 is a diagram for explaining a method for determining a target cluster. 最近傍点の進行中央線に対する角度を説明するための図。FIG. 13 is a diagram for explaining the angle of a nearest point with respect to a center line of travel. 最遠点の一例を示す図。FIG. 追加照射位置の算出方法を説明するための図。11A and 11B are diagrams for explaining a method of calculating an additional irradiation position. 追加照射位置の算出方法を説明するための図。11A and 11B are diagrams for explaining a method of calculating an additional irradiation position.

以下に、図面を参照して本発明の実施の形態について説明する。本発明の実施の形態に係る外界認識装置は、自動運転機能を有する車両、すなわち自動運転車両に適用することができる。なお、本実施形態に係る外界認識装置が適用される車両を、他車両と区別して自車両と呼ぶことがある。自車両は、内燃機関(エンジン)を走行駆動源として有するエンジン車両、走行モータを走行駆動源として有する電気自動車、エンジンと走行モータとを走行駆動源として有するハイブリッド車両のいずれであってもよい。自車両は、ドライバによる運転操作が不要な自動運転モードでの走行だけでなく、ドライバの運転操作による手動運転モードでの走行も可能である。 The following describes an embodiment of the present invention with reference to the drawings. The external environment recognition device according to the embodiment of the present invention can be applied to a vehicle having an automatic driving function, i.e., an automatic driving vehicle. The vehicle to which the external environment recognition device according to the present embodiment is applied may be called the host vehicle to distinguish it from other vehicles. The host vehicle may be an engine vehicle having an internal combustion engine (engine) as a driving source, an electric vehicle having a driving motor as a driving source, or a hybrid vehicle having an engine and a driving motor as driving sources. The host vehicle can be driven not only in an automatic driving mode in which no driving operation by the driver is required, but also in a manual driving mode in which the driver operates the vehicle.

自動運転車両は、自動運転モードでの走行(以下、自動走行または自律走行と呼ぶ)時、カメラやライダ(LiDAR:Light Detection and Ranging)等の車載検出器の検出データに基づき自車両の周囲の外界状況を認識する。自動運転車両は、その認識結果に基づいて、現時点から所定時間先の走行軌道(目標軌道)を生成し、目標軌道に沿って自車両が走行するように走行用アクチュエータを制御する。 When an autonomous vehicle is driving in autonomous mode (hereafter referred to as autonomous driving or autonomous driving), it recognizes the external environment around the vehicle based on detection data from on-board detectors such as cameras and LiDAR (Light Detection and Ranging). Based on the recognition results, the autonomous vehicle generates a driving trajectory (target trajectory) for a predetermined time ahead from the current time, and controls the driving actuators so that the vehicle drives along the target trajectory.

図1Aは、自動運転車両である自車両の前方の外界状況の一例を示す図である。自車両は左側通行の片側二車線(車線LN1,LN2)の道路RDの車線LN2を走行中であり、自車両の前方を他車両102~106が走行中である。他車両103,106は、車線LN1を走行中であり、他車両102,104,105は、車線LN2を走行中である。他車両102,104,105は、二輪車両である。自車両に搭載されたライダにより照射された電磁波(レーザ光など)が物体の表面のある1点(計測点)で反射して返ってくることで、レーザ源からその点までの距離、反射して返ってきた電磁波の強度、その計測点に位置する物体の相対速度、などが計測される。自車両が走行する道路RDに対して水平方向と垂直方向とにレーザを走査することで、自車両前方の他車両102~106の位置や相対速度を認識できる。図1Bは、ライダの角度分解能を説明するための図である。図1Bの丸印IPはライダの照射位置を模式的に表し、照射位置の左右方向の間隔が水平方向の角度分解能に相当し、照射位置の上下方向の間隔が垂直方向の角度分解能に相当する。自車両101は、ライダによって所定の時間間隔(ライダのフレームレートにより定まる時間間隔)で取得された計測点の情報(点群データ)に基づいて自車両の周囲の外界状況、より具体的には自車両前方の交通参加者や構造物等の物体を認識し、その認識結果に基づいて走行制御を行う。 Figure 1A is a diagram showing an example of the external situation in front of the vehicle, which is an autonomous driving vehicle. The vehicle is traveling on lane LN2 of road RD, which has two lanes on each side (lanes LN1 and LN2) with left-hand traffic, and other vehicles 102 to 106 are traveling in front of the vehicle. The other vehicles 103 and 106 are traveling on lane LN1, and the other vehicles 102, 104, and 105 are traveling on lane LN2. The other vehicles 102, 104, and 105 are two-wheeled vehicles. Electromagnetic waves (such as laser light) emitted by a lidar mounted on the vehicle are reflected and returned from a point (measurement point) on the surface of the object, and the distance from the laser source to that point, the intensity of the reflected electromagnetic waves, the relative speed of the object located at the measurement point, etc. are measured. By scanning the laser horizontally and vertically with respect to the road RD on which the vehicle is traveling, the vehicle can recognize the positions and relative speeds of other vehicles 102-106 ahead of the vehicle. FIG. 1B is a diagram for explaining the angular resolution of the lidar. The circles IP in FIG. 1B represent the illumination positions of the lidar, with the horizontal interval between the illumination positions corresponding to the horizontal angular resolution and the vertical interval between the illumination positions corresponding to the vertical angular resolution. The vehicle 101 recognizes the external environment around the vehicle, more specifically, objects such as traffic participants and structures ahead of the vehicle, based on the information (point cloud data) of the measurement points acquired by the lidar at a predetermined time interval (a time interval determined by the frame rate of the lidar), and performs driving control based on the recognition results.

ところで、図1Aにおいて自車両101が前方を走行する他車両(例えば他車両102)を追い抜くとき、他車両や他車両の陰(奥側)から飛び出してくる他の交通参加者(車両や人、自転車など)との衝突や擦りを回避するために、他車両の相対位置(距離や角度)を精度よく計測する必要がある。他車両等の立体物の相対位置を精度よく認識する方法として、ライダ等の車載検出器から照射する電磁波の照射点の数を増やす(換言すると、電磁波の照射点密度を高めて点群データの密度を高くする)ことが考えられる。一方で、照射点の数を増やすと、車載検出器を制御するための処理負荷が増えたり、車載検出器により得られる検出データの容量が増大することで検出データの処理負荷が増えたりするおそれがある。また、装置の規模を増大させるおそれがある。そこで、これらの点を考慮して、実施の形態では以下のように外界認識装置を構成する。 In FIG. 1A, when the vehicle 101 passes another vehicle (e.g., another vehicle 102) traveling ahead, it is necessary to accurately measure the relative position (distance and angle) of the other vehicle in order to avoid collisions or scrapes with the other vehicle or other traffic participants (vehicles, people, bicycles, etc.) that appear from behind the other vehicle. As a method for accurately recognizing the relative position of a three-dimensional object such as another vehicle, it is possible to increase the number of irradiation points of the electromagnetic waves emitted from an on-board detector such as a lidar (in other words, to increase the density of the electromagnetic wave irradiation points to increase the density of the point cloud data). On the other hand, if the number of irradiation points is increased, the processing load for controlling the on-board detector may increase, and the volume of detection data obtained by the on-board detector may increase, thereby increasing the processing load of the detection data. In addition, there is a risk of increasing the scale of the device. Therefore, taking these points into consideration, in the embodiment, the external environment recognition device is configured as follows.

本実施形態に係る外界認識装置は、道路RDを走行する自車両のライダから自車両の進行方向に所定の角度分解能で電磁波を間欠的に照射し、道路RD上の異なる位置で離散的に点群データを取得する。このような外界認識装置について、さらに詳細に説明する。 The external environment recognition device according to this embodiment intermittently irradiates electromagnetic waves with a predetermined angular resolution in the traveling direction of the vehicle traveling on the road RD from the lidar of the vehicle, and acquires point cloud data discretely at different positions on the road RD. This type of external environment recognition device will be described in more detail below.

図2は、外界認識装置を含む車両制御装置100の要部構成を示すブロック図である。この車両制御装置100は、コントローラ10と、通信ユニット1と、測位ユニット2と、内部センサ群3と、カメラ4と、ライダ5と、走行用のアクチュエータACとを有する。また、車両制御装置100は、車両制御装置100の一部を構成する外界認識装置50を有する。外界認識装置50は、カメラ4やライダ5等の車載検出器の検出データに基づいて、車両周囲の外界状況を認識する。 Figure 2 is a block diagram showing the main components of a vehicle control device 100 including an external environment recognition device. The vehicle control device 100 has a controller 10, a communication unit 1, a positioning unit 2, an internal sensor group 3, a camera 4, a lidar 5, and an actuator AC for driving. The vehicle control device 100 also has an external environment recognition device 50 that constitutes part of the vehicle control device 100. The external environment recognition device 50 recognizes the external environment around the vehicle based on detection data from on-board detectors such as the camera 4 and the lidar 5.

通信ユニット1は、インターネット網や携帯電話網等に代表される無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報、走行履歴情報および交通情報等を定期的に、あるいは任意のタイミングでサーバから取得する。ネットワークには、公衆無線通信網だけでなく、所定の管理地域毎に設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。取得した地図情報は、記憶部12に出力され、地図情報が更新される。測位ユニット(GNSSユニット)2は、測位衛星から送信された測位用の信号を受信する測位センサを有する。測位衛星は、GPS衛星や準天頂衛星等の人工衛星である。測位ユニット2は、測位センサが受信した測位情報を利用して、自車両の現在位置(緯度、経度、高度)を測定する。 The communication unit 1 communicates with various servers (not shown) via networks including wireless communication networks such as the Internet and mobile phone networks, and acquires map information, driving history information, traffic information, and the like from the servers periodically or at any timing. The networks include not only public wireless communication networks, but also closed communication networks provided for each specified management area, such as wireless LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), and the like. The acquired map information is output to the memory unit 12, and the map information is updated. The positioning unit (GNSS unit) 2 has a positioning sensor that receives positioning signals transmitted from positioning satellites. The positioning satellites are artificial satellites such as GPS satellites and quasi-zenith satellites. The positioning unit 2 measures the current position (latitude, longitude, altitude) of the vehicle using the positioning information received by the positioning sensor.

内部センサ群3は、自車両の走行状態を検出する複数のセンサ(内部センサ)の総称である。例えば内部センサ群3には、自車両の車速を検出する車速センサ、自車両の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、走行駆動源の回転数を検出する回転数センサ、自車両の重心の鉛直軸回りの回転角速度を検出するヨーレートセンサ等が含まれる。手動運転モードでのドライバの運転操作、例えばアクセルペダルの操作、ブレーキペダルの操作、ステアリングホイールの操作等を検出するセンサも内部センサ群3に含まれる。 The internal sensor group 3 is a collective term for multiple sensors (internal sensors) that detect the driving state of the vehicle. For example, the internal sensor group 3 includes a vehicle speed sensor that detects the vehicle speed of the vehicle, an acceleration sensor that detects the longitudinal acceleration and the lateral acceleration (lateral acceleration) of the vehicle, a rotation speed sensor that detects the rotation speed of the driving source, and a yaw rate sensor that detects the rotation angular velocity around the vertical axis of the center of gravity of the vehicle. The internal sensor group 3 also includes sensors that detect the driving operations of the driver in manual driving mode, such as the operation of the accelerator pedal, the operation of the brake pedal, and the operation of the steering wheel.

カメラ4は、CCDやCMOS等の撮像素子を有して自車両の周辺(前方、後方および側方)を撮像する。ライダ5は、自車両の進行方向に所定の角度分解能で電磁波を間欠的に照射し、物体の表面で反射した電磁波(反射波)を受信して、自車両から周辺の物体までの距離、物体の位置、形状等を測定する。 The camera 4 has an imaging element such as a CCD or CMOS and captures images of the surroundings (front, rear and sides) of the vehicle. The lidar 5 intermittently irradiates electromagnetic waves with a predetermined angular resolution in the direction of travel of the vehicle, receives electromagnetic waves reflected from the surface of objects (reflected waves) and measures the distance from the vehicle to surrounding objects, as well as the object's position, shape, etc.

アクチュエータACは、自車両の走行を制御するための走行用アクチュエータである。走行駆動源がエンジンである場合、アクチュエータACには、エンジンのスロットルバルブの開度(スロットル開度)を調整するスロットル用アクチュエータが含まれる。走行駆動源が走行モータである場合、走行モータがアクチュエータACに含まれる。自車両の制動装置を作動するブレーキ用アクチュエータと転舵装置を駆動する転舵用アクチュエータもアクチュエータACに含まれる。 Actuator AC is a driving actuator for controlling the driving of the host vehicle. When the driving source for driving is an engine, actuator AC includes a throttle actuator that adjusts the opening of the throttle valve (throttle opening) of the engine. When the driving source for driving is a driving motor, actuator AC includes the driving motor. Actuator AC also includes a brake actuator that operates the braking device of the host vehicle and a steering actuator that drives the steering device.

コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU(マイクロプロセッサ)等の演算部11と、ROM、RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。なお、エンジン制御用ECU、走行モータ制御用ECU、制動装置用ECU等、機能の異なる複数のECUを別々に設けることができるが、図2では、便宜上、これらECUの集合としてコントローラ10が示される。 The controller 10 is composed of an electronic control unit (ECU). More specifically, the controller 10 is composed of a computer having an arithmetic unit 11 such as a CPU (microprocessor), a memory unit 12 such as a ROM or RAM, and other peripheral circuits (not shown) such as an I/O interface. Note that it is possible to provide multiple ECUs with different functions separately, such as an ECU for engine control, an ECU for driving motor control, and an ECU for the braking system, but for the sake of convenience, in FIG. 2, the controller 10 is shown as a collection of these ECUs.

記憶部12には、高精度の詳細な地図情報(高精度地図情報と呼ぶ)が記憶される。高精度地図情報には、道路の位置情報、道路形状(曲率等)の情報、道路の勾配の情報、交差点や分岐点の位置情報、車線(走行レーン)数の情報、車線の幅員および車線毎の位置情報(車線の中央位置や車線位置の境界線の情報)、地図上の目印としてのランドマーク(信号機、標識、建物等)の位置情報、路面の凹凸等の路面プロファイルの情報が含まれる。また、記憶部12には、各種制御のプログラム、プログラムで用いられる閾値等の情報、ライダ5等の車載検出器に対する設定情報(後述する照射位置情報等)も記憶される。 The memory unit 12 stores highly accurate, detailed map information (referred to as high-precision map information). The high-precision map information includes road position information, road shape (curvature, etc.) information, road gradient information, intersection and branch point position information, number of lanes (travel lanes), lane width and position information for each lane (lane center position and lane position boundary information), position information of landmarks (traffic lights, signs, buildings, etc.) as markers on the map, and road surface profile information such as road surface unevenness. The memory unit 12 also stores various control programs, information such as thresholds used in the programs, and setting information for vehicle-mounted detectors such as the LIDAR 5 (illumination position information, etc., described later).

演算部11は、機能的構成として、データ取得部111と、認識部112と、決定部113と、設定部114と、走行制御部115とを有する。なお、図2に示すように、データ取得部111、認識部112、決定部113、および設定部114は外界認識装置50に含まれる。外界認識装置50は、上述したように、ライダ5の車載検出器の検出データに基づいて車両周囲の外界状況を認識する。外界認識装置50に含まれるデータ取得部111、認識部112、決定部113、および設定部114の詳細については後述する。 The calculation unit 11 has, as functional components, a data acquisition unit 111, a recognition unit 112, a decision unit 113, a setting unit 114, and a driving control unit 115. As shown in FIG. 2, the data acquisition unit 111, the recognition unit 112, the decision unit 113, and the setting unit 114 are included in the external environment recognition device 50. As described above, the external environment recognition device 50 recognizes the external environment around the vehicle based on the detection data of the on-board detector of the lidar 5. The data acquisition unit 111, the recognition unit 112, the decision unit 113, and the setting unit 114 included in the external environment recognition device 50 will be described in detail later.

走行制御部115は、自動運転モードにおいて、外界認識装置50で認識された車両周囲の外界状況に基づいて目標軌道を生成し、その目標軌道に沿って自車両101が走行するようにアクチュエータACを制御する。なお、手動運転モードでは、走行制御部115は、内部センサ群3により取得されたドライバからの走行指令(ステアリング操作等)に応じてアクチュエータACを制御する。 In the autonomous driving mode, the driving control unit 115 generates a target trajectory based on the external environment around the vehicle recognized by the external environment recognition device 50, and controls the actuator AC so that the vehicle 101 travels along the target trajectory. In the manual driving mode, the driving control unit 115 controls the actuator AC in response to driving commands (such as steering operations) from the driver acquired by the internal sensor group 3.

外界認識装置50の詳細について説明する。上述したように、外界認識装置50は、データ取得部111、認識部112、決定部113、および設定部114を含む。外界認識装置50は、ライダ5を含む。 The details of the external environment recognition device 50 will be described. As described above, the external environment recognition device 50 includes a data acquisition unit 111, a recognition unit 112, a determination unit 113, and a setting unit 114. The external environment recognition device 50 includes a rider 5.

データ取得部111は、ライダ5の反射波が得られる物体の表面の計測点の位置情報を含む点群データ(検出データ)を取得する。 The data acquisition unit 111 acquires point cloud data (detection data) including position information of measurement points on the surface of an object from which reflected waves from the lidar 5 are obtained.

認識部112は、データ取得部111により取得された点群データに基づき自車両周囲の外界状況を認識する。具体的には、認識部112は、データ取得部111により取得された点群データに基づき自車両前方の他車両等の物体を認識する。 The recognition unit 112 recognizes the external environment around the vehicle based on the point cloud data acquired by the data acquisition unit 111. Specifically, the recognition unit 112 recognizes objects such as other vehicles ahead of the vehicle based on the point cloud data acquired by the data acquisition unit 111.

決定部113は、自車両と認識部112により認識された物体との位置関係に基づいて、物体に対応する計測点(計測点の集合)の中から走行制御部115で用いられる着目点を決定する。以下、各物体に対応する計測点の集合をクラスタと呼ぶ。決定部113は、自車両が前方の物体を追い抜いたり前方の物体と並走したりするときにその物体と衝突したり擦り等の接触をしたりしないように着目点を決定する。具体的には、決定部113は、物体に対応する計測点のうち、自車両からの距離が最も短い点(以下、最近傍点と呼ぶ。)と、進行方向において自車両から最も離れた点(以下、最遠点と呼ぶ。)と、を着目点として決定する。 Based on the positional relationship between the vehicle and the object recognized by the recognition unit 112, the determination unit 113 determines a focus point to be used by the driving control unit 115 from among the measurement points (a set of measurement points) corresponding to the object. Hereinafter, a set of measurement points corresponding to each object is referred to as a cluster. The determination unit 113 determines the focus point so that the vehicle does not collide with or come into contact with the object when overtaking or running alongside the object in front. Specifically, the determination unit 113 determines, as the focus points, the point that is the shortest distance from the vehicle (hereinafter referred to as the nearest point) and the point that is the furthest from the vehicle in the traveling direction (hereinafter referred to as the farthest point) among the measurement points corresponding to the object.

設定部114は、ライダ5の照射位置(照射ポイント)を設定する。より詳細には、設定部114は、決定部113により決定された着目点の周囲の点群データの密度が大きくなるように記憶部12に記憶された照射位置情報を更新する。これにより、ライダ5の次回測定時(次フレーム取得時)、ライダ5からの照射光が、設定された照射位置に向けて照射される。その結果、ライダ5の次回測定時にデータ取得部111により着目点周囲の点群データが高分解能で取得される。走行制御部115は、このようにして高分解能で取得された着目点周囲の情報(位置情報等)に基づいて、認識部112により認識された物体との衝突や接触を回避するように自車両の走行動作を制御する。より詳細には、走行制御部115は、アクチュエータACを制御して、アクセル開度を調整したり、制動装置や転舵装置を駆動したりする。なお、ライダ5の照射光は、ラスタ走査方式で照射されてもよいし、設定部114により設定された照射ポイントにのみ電磁波が照射されるように断続的に電磁波が照射されてもよいし、その他の態様で照射されてもよいものとする。 The setting unit 114 sets the irradiation position (irradiation point) of the rider 5. More specifically, the setting unit 114 updates the irradiation position information stored in the storage unit 12 so that the density of the point cloud data around the point of interest determined by the determination unit 113 increases. As a result, the irradiation light from the rider 5 is irradiated toward the set irradiation position at the next measurement of the rider 5 (when the next frame is acquired). As a result, the point cloud data around the point of interest is acquired with high resolution by the data acquisition unit 111 at the next measurement of the rider 5. The driving control unit 115 controls the driving operation of the vehicle so as to avoid collision or contact with the object recognized by the recognition unit 112 based on the information (position information, etc.) around the point of interest acquired with high resolution in this way. More specifically, the driving control unit 115 controls the actuator AC to adjust the accelerator opening and drive the braking device and steering device. The light emitted by the lidar 5 may be emitted in a raster scanning manner, or may be emitted intermittently so that the electromagnetic waves are emitted only at the irradiation points set by the setting unit 114, or may be emitted in other manners.

図3は、あらかじめ定められたプログラムに従い図2のコントローラ10の演算部11が実行する処理の一例を示すフローチャートである。図3のフローチャートに示す処理は、例えば、自車両101が自動運転モードで走行中に所定周期毎、より詳細には、ライダ5のフレームレートに従った周期毎に繰り返される。 Figure 3 is a flowchart showing an example of processing executed by the calculation unit 11 of the controller 10 in Figure 2 according to a predetermined program. The processing shown in the flowchart in Figure 3 is repeated, for example, at predetermined intervals while the vehicle 101 is traveling in the autonomous driving mode, more specifically, at intervals according to the frame rate of the rider 5.

まず、ステップS11で、ライダ5に照射指令を送信し、照射指令に応じてライダ5から照射された電磁波の反射波が得られた計測点の位置情報を含む点群データ(検出データ)を取得する。ステップS12で、ステップS11で取得された点群データに基づき、自車両前方で物体、より詳細には他の交通参加者(他車両や自転車、歩行車)を認識したか否かを判定する。ステップS12で否定されると、処理を終了する。ステップS12で肯定されると、ステップS13で、ステップS11で取得された点群データをクラスタリングする。具体的には、ステップS12で認識された物体ごとに、ステップS11で取得された点群データの中から対応する計測点(クラスタ)を認識する。ステップS14で、自車両とステップS12で認識された物体との位置関係に基づいて、該物体に対応するクラスタの中から最近傍点を抽出する。最近傍点の抽出方法については後述する。ステップS12で複数の物体が認識されたときは、各物体に対応するクラスタごとに、クラスタを構成する計測点の中から最近傍点を抽出する。ステップS15で、ステップS14で抽出された各クラスタの最近傍点に基づいて、対象クラスタを決定する。対象クラスタは、ステップS12で認識された物体のうち自車両との衝突や接触の可能性が他の物体よりも高い物体に対応するクラスタである。対象クラスタの決定方法については後述する。ステップS16で、ステップS15で決定した対象クラスタを構成する計測点の中から、最遠点を抽出する。最遠点の抽出方法については後述する。ステップS17で、ステップS14で抽出された最近傍点と、ステップS16で抽出された最遠点とに基づいて、照射点を追加する位置(以下、追加照射位置と呼ぶ。)を算出する。追加照射位置の算出方法については後述する。 First, in step S11, an irradiation command is sent to the lidar 5, and point cloud data (detection data) including position information of measurement points where reflected waves of electromagnetic waves irradiated from the lidar 5 in response to the irradiation command are obtained. In step S12, based on the point cloud data acquired in step S11, it is determined whether an object, more specifically, another traffic participant (another vehicle, bicycle, or pedestrian) has been recognized in front of the vehicle. If the result in step S12 is negative, the process ends. If the result in step S12 is positive, in step S13, the point cloud data acquired in step S11 is clustered. Specifically, for each object recognized in step S12, a corresponding measurement point (cluster) is recognized from the point cloud data acquired in step S11. In step S14, based on the positional relationship between the vehicle and the object recognized in step S12, the nearest point is extracted from the cluster corresponding to the object. The method of extracting the nearest point will be described later. When multiple objects are recognized in step S12, the nearest point is extracted from the measurement points that constitute the cluster for each cluster corresponding to each object. In step S15, a target cluster is determined based on the nearest points of each cluster extracted in step S14. The target cluster is a cluster corresponding to an object that is more likely to collide with or come into contact with the vehicle than other objects among the objects recognized in step S12. The method of determining the target cluster will be described later. In step S16, the farthest point is extracted from the measurement points constituting the target cluster determined in step S15. The method of extracting the farthest point will be described later. In step S17, a position at which to add an illumination point (hereinafter referred to as an additional illumination position) is calculated based on the nearest point extracted in step S14 and the farthest point extracted in step S16. The method of calculating the additional illumination position will be described later.

ステップS18で、ライダ5の次回測定時(次フレーム取得時)にステップS17で算出された追加照射位置に電磁波が照射されるように、ライダ5の設定情報(照射位置情報)を更新する。 In step S18, the setting information (irradiation position information) of the lidar 5 is updated so that electromagnetic waves are irradiated to the additional irradiation position calculated in step S17 the next time the lidar 5 measures (the next frame is acquired).

図4A~図9Bを参照して、外界認識装置50の動作をさらに詳細に説明する。自車両が図1Aの道路RDの車線LN2を走行中であるとき、ライダ5の発光部(不図示)から電磁波が照射されると、自車両前方の物体の表面で反射した電磁波(反射波)がライダ5の受光部(不図示)によって検出される。これにより、図4Aに示すような計測点の情報(点群データ)が取得される(S11)。図4Aは、計測点を模式的に示す図である。図4Aの丸印は計測点を表し、太線で描かれた丸印DPは、他車両102~105に対応する計測点、すなわち、他車両102~105の表面で反射した電磁波(反射波)が検出された位置を表す。なお、道路RDの縁石や中央分離帯、街路樹等の表面で反射した電磁波(反射波)もライダ5の受光部で検出されるが、説明および図面の簡略化のため、それらに対応する反射波は検出されていないものとする。 The operation of the external environment recognition device 50 will be described in more detail with reference to Figures 4A to 9B. When the vehicle is traveling on lane LN2 of road RD in Figure 1A, electromagnetic waves are emitted from the light-emitting unit (not shown) of the lidar 5, and the electromagnetic waves (reflected waves) reflected on the surface of an object in front of the vehicle are detected by the light-receiving unit (not shown) of the lidar 5. This allows information on the measurement points (point cloud data) as shown in Figure 4A to be acquired (S11). Figure 4A is a diagram showing the measurement points in schematic form. The circles in Figure 4A represent the measurement points, and the circles DP drawn in bold represent the measurement points corresponding to the other vehicles 102 to 105, i.e., the positions at which the electromagnetic waves (reflected waves) reflected on the surfaces of the other vehicles 102 to 105 are detected. Note that electromagnetic waves (reflected waves) reflected by the surfaces of the curbs, medians, roadside trees, etc. of the road RD are also detected by the light receiving unit of the lidar 5, but for the sake of simplicity of explanation and drawings, it is assumed that the reflected waves corresponding to these are not detected.

次いで、認識部112は、データ取得部111により取得された点群データに基づき、自車両前方の物体を認識する(S12)。物体の認識には、路面除去のためにRANSAC(RANdom SAmple Consensus)が用いられてもよいし、その他の手法が用いられてもよい。決定部113は、認識部112の認識結果に基づき、データ取得部111により取得された点群データ(計測点DP)をクラスタリングする(S13)。クラスタリングには、DBSCAN(Density-based spatial clustering of applications with noise)やK-means法など、いずれの手法が用いられてもよい。図4Bは、クラスタリングされた点群データの一例を示す図である。図4Bに示すように、決定部113は、データ取得部111により取得された点群データ(3次元点群データ)をXY平面(進行方向(X方向)と道路幅方向(Y方向)とに延在する平面)にプロットして得られる2次元データ(2次元点群データ)に対してクラスタリングを行う。図4BのクラスタCL1~CL5はそれぞれ、他車両102~106に対応する。図4Bの破線の矩形はそれぞれ、クラスタCL1~CL5に対応する他車両102~106を簡易的に表している。なお、決定部113は、3次元点群データを2次元点群データに変換することなく、3次元点群データに対してクラスタリングを行ってもよい。 Next, the recognition unit 112 recognizes an object in front of the vehicle based on the point cloud data acquired by the data acquisition unit 111 (S12). For object recognition, RANSAC (RANdom SAmple Consensus) may be used for removing the road surface, or other methods may be used. The determination unit 113 clusters the point cloud data (measurement points DP) acquired by the data acquisition unit 111 based on the recognition result of the recognition unit 112 (S13). Any method such as DBSCAN (Density-based spatial clustering of applications with noise) or K-means method may be used for clustering. FIG. 4B is a diagram showing an example of clustered point cloud data. As shown in FIG. 4B, the determination unit 113 performs clustering on two-dimensional data (two-dimensional point cloud data) obtained by plotting the point cloud data (three-dimensional point cloud data) acquired by the data acquisition unit 111 on an XY plane (a plane extending in the traveling direction (X direction) and the road width direction (Y direction)). Clusters CL1 to CL5 in FIG. 4B correspond to other vehicles 102 to 106, respectively. The dashed rectangles in FIG. 4B simply represent other vehicles 102 to 106 corresponding to clusters CL1 to CL5, respectively. Note that the determination unit 113 may perform clustering on the three-dimensional point cloud data without converting the three-dimensional point cloud data into two-dimensional point cloud data.

次いで、決定部113は、クラスタCL1~CL5のそれぞれから最近傍点を抽出する(S14)。ここで、最近傍点の抽出方法を説明する。図5Aおよび図5Bは、最近傍点の抽出方法を説明するための図である。図5Aには、図4BのクラスタCL1から抽出された最近傍点MN1が示されている。図5Aに示すように、最近傍点MN1は、クラスタCL1を構成する計測点のうち、ライダ5の受光部(不図示)とのXY平面上における距離Dxyが最も短い計測点である。決定部113は同様に、クラスタCL2~CL5から最近傍点を抽出する。図5Bの計測点MN1~MN5はそれぞれ、他車両102~106に対応するクラスタCL1~CL5から抽出された最近傍点である。 Next, the determination unit 113 extracts the nearest point from each of the clusters CL1 to CL5 (S14). Here, the method of extracting the nearest point will be described. FIGS. 5A and 5B are diagrams for explaining the method of extracting the nearest point. FIG. 5A shows the nearest point MN1 extracted from the cluster CL1 in FIG. 4B. As shown in FIG. 5A, the nearest point MN1 is the measurement point that, among the measurement points constituting the cluster CL1, has the shortest distance Dxy on the XY plane from the light receiving unit (not shown) of the lidar 5. Similarly, the determination unit 113 extracts the nearest points from the clusters CL2 to CL5. The measurement points MN1 to MN5 in FIG. 5B are the nearest points extracted from the clusters CL1 to CL5 corresponding to the other vehicles 102 to 106, respectively.

次いで、決定部113は、対象クラスタを決定する(S15)。ここで、対象クラスタの決定方法を説明する。図6は、対象クラスタの決定方法を説明するための図である。決定部113は、図6に示すように、クラスタCL1~CL5のうち、自車両101と最近傍点との進行方向(図6における上下方向)における距離が閾値THy未満であり、かつ、自車両101と最近傍点との道路幅方向(図6における左右方向)における距離が閾値THx未満であるクラスタを対象クラスタとして決定する。図6に示す例では、クラスタCL1~CL3が対象クラスタとして決定される。決定部113は、クラスタCL1~CL3のうち、所定の条件を満たさないクラスタを対象クラスタから除外する。以下、対象クラスタから除外されるクラスタを除外クラスタと呼ぶ。また、除外クラスタに対応する物体を除外対象物体と呼ぶ。 Next, the determination unit 113 determines the target cluster (S15). Here, the method of determining the target cluster will be described. FIG. 6 is a diagram for explaining the method of determining the target cluster. As shown in FIG. 6, the determination unit 113 determines, as the target cluster, from among the clusters CL1 to CL5, a cluster in which the distance between the host vehicle 101 and the nearest point in the traveling direction (the vertical direction in FIG. 6) is less than a threshold value THy, and the distance between the host vehicle 101 and the nearest point in the road width direction (the horizontal direction in FIG. 6) is less than a threshold value THx. In the example shown in FIG. 6, the clusters CL1 to CL3 are determined as the target clusters. The determination unit 113 excludes, from among the clusters CL1 to CL3, clusters that do not satisfy a predetermined condition from the target cluster. Hereinafter, the cluster excluded from the target cluster will be referred to as an excluded cluster. Also, an object corresponding to the excluded cluster will be referred to as an excluded object.

ここで、除外クラスタの決定方法について説明する。まず、決定部13は、対象クラスタの最近傍点の進行中央線MLに対する角度θを計算する。より詳細には、決定部13は、ライダ5の受光部と対象クラスタの最近傍点とを結んだ直線と進行中央線MLとがなす角度θを計算する。進行中央線MLは、自車両101が走行する車線の中央線である。なお、進行中央線MLは、ライダ5の受光部から自車両101の進行方向に延在する直線であってもよいし、自車両101の車幅中央から進行方向に延在する直線であってもよい。図7は、対象クラスタの最近傍点の進行中央線MLに対する角度θを説明するための図である。図7に示すように、決定部113は、対象クラスタCL1~CL3のそれぞれの角度θ(θ1~θ3)を算出する。決定部113は、進行中央線MLの左側に位置する対象クラスタ同士を比較して、最近傍点が他の対象クラスタよりも遠方にありかつ角度θ(絶対値)が該他の対象クラスタよりも大きい対象クラスタを除外クラスタとして決定する。同様に、決定部113は、進行中央線の右側に位置する対象クラスタから除外クラスタを決定する。図7に示す例では、進行中央線MLの左側に対象クラスタCL1,CL2が存在し、最近傍点MN2が最近傍点MN1よりも遠方にあり、かつ、角度θ2の絶対値が角度θ1の絶対値よりも大きいので、対象クラスタCL2が除外クラスタに決定される。一方、進行中央線MLの右側には対象クラスタCL3のみしか存在しないため、除外クラスタの決定は行われない。 Here, a method for determining an excluded cluster will be described. First, the determination unit 13 calculates the angle θ of the nearest point of the target cluster with respect to the traveling center line ML. More specifically, the determination unit 13 calculates the angle θ between the traveling center line ML and a straight line connecting the light receiving unit of the rider 5 and the nearest point of the target cluster. The traveling center line ML is the center line of the lane in which the host vehicle 101 is traveling. Note that the traveling center line ML may be a straight line extending from the light receiving unit of the rider 5 in the traveling direction of the host vehicle 101, or may be a straight line extending from the center of the vehicle width of the host vehicle 101 in the traveling direction. FIG. 7 is a diagram for explaining the angle θ of the nearest point of the target cluster with respect to the traveling center line ML. As shown in FIG. 7, the determination unit 113 calculates the angles θ (θ1 to θ3) of each of the target clusters CL1 to CL3. The determination unit 113 compares the target clusters located to the left of the moving center line ML, and determines the target cluster whose nearest point is farther away than the other target clusters and whose angle θ (absolute value) is larger than the other target clusters as the excluded cluster. Similarly, the determination unit 113 determines the excluded cluster from the target clusters located to the right of the moving center line. In the example shown in FIG. 7, the target clusters CL1 and CL2 are located to the left of the moving center line ML, the nearest point MN2 is farther away than the nearest point MN1, and the absolute value of the angle θ2 is larger than the absolute value of the angle θ1, so the target cluster CL2 is determined to be the excluded cluster. On the other hand, only the target cluster CL3 is located to the right of the moving center line ML, so the excluded cluster is not determined.

決定部113は、除外クラスタを決定すると、除外クラスタ以外の対象クラスタCL1,CL3から最遠点を抽出する(S16)。ここで、最遠点の抽出方法を説明する。図8は、最遠点の一例を示す図である。図8には、対象クラスタCL1から抽出された最遠点MF1が示されている。図8に示すように、最遠点MF1は、対象クラスタCL1を構成する計測点のうち、ライダ5の受光部(不図示)との進行方向の距離Dyが最も長い計測点であって、かつ、最近傍点MN1よりも進行中央線ML側にある計測点である。決定部113は同様に、対象クラスタCL3に対しても最遠点の抽出を行う。ただし、図4Bの例では、対象クラスタCL3が最近傍点MN3以外の計測点を含まないため、最遠点は抽出されない。 When the determination unit 113 determines the excluded cluster, it extracts the farthest point from the target clusters CL1 and CL3 other than the excluded cluster (S16). Here, the method of extracting the farthest point will be described. FIG. 8 is a diagram showing an example of the farthest point. FIG. 8 shows the farthest point MF1 extracted from the target cluster CL1. As shown in FIG. 8, the farthest point MF1 is the measurement point that has the longest distance Dy in the traveling direction from the light receiving unit (not shown) of the lidar 5 among the measurement points constituting the target cluster CL1, and is a measurement point that is located closer to the traveling center line ML than the nearest point MN1. The determination unit 113 similarly extracts the farthest point for the target cluster CL3. However, in the example of FIG. 4B, the target cluster CL3 does not include any measurement points other than the nearest point MN3, so the farthest point is not extracted.

決定部113は、以上のようにして抽出した最近傍点および最遠点を、走行制御部115で用いられる着目点として決定する。設定部114は、決定部113により決定された着目点に基づいて、ライダ5の追加照射位置を算出する(S17)。 The determination unit 113 determines the nearest point and the farthest point extracted in the above manner as the focus points to be used by the driving control unit 115. The setting unit 114 calculates the additional illumination position of the lidar 5 based on the focus points determined by the determination unit 113 (S17).

ここで、設定部114によるライダ5の追加照射位置の算出について説明する。設定部114は、データ取得部111により取得される点群データの着目点(最近傍点と最遠点)の周囲の密度を大きくするように、すなわち、着目点の周囲における照射点の水平方向(X方向およびY方向)および垂直方向(Z方向)の間隔を小さくするように、ライダ5の追加照射位置を算出する。 Here, the calculation of the additional illumination position of the lidar 5 by the setting unit 114 will be described. The setting unit 114 calculates the additional illumination position of the lidar 5 so as to increase the density around the point of interest (nearest point and farthest point) of the point cloud data acquired by the data acquisition unit 111, that is, to reduce the spacing in the horizontal direction (X direction and Y direction) and vertical direction (Z direction) of the illumination points around the point of interest.

図9Aおよび図9Bは、追加照射位置の算出方法を説明するための図である。図9Aに示す点APは、水平方向(X方向およびY方向)の追加照射位置を表す。点APは、着目点から水平方向(X方向およびY方向)に指定点数だけ指定角度分解能で設定される。より詳細には、点APは、最近傍点からX方向に指定点数だけ指定角度分解能で設定される。また、点APは、最遠点からY方向に指定点数だけ指定角度分解能で設定される。指定点数は、着目点と該着目点に隣接する計測点(隣接計測点)間の長さと、指定角度分解能とに基づき決定されてもよいし、ユーザ等により予め決定されてもよい。なお、最近傍点においてX方向に照射位置を追加するとき、設定部114は、最近傍点よりも進行中央線から離れる位置に照射位置を追加しない。その理由は、最近傍点からX方向に離れた位置で自車両101と他車両103とが衝突または接触する可能性は極めて低いためである。なお、クラスタを構成する計測点数が少ない(例えば、数個以下の)立体物については、最近傍点周辺で点群データが高分解能で取得されるように、進行中央線から離れる位置にも照射位置を追加してもよい。一方、最遠点においてY方向に照射位置を追加するとき、設定部114は、最遠点よりも自車両101側に照射位置を追加しない。最遠点の周囲への照射位置の追加は、他車両103の奥側から図9Aに示すように飛び出してくる物体(交通参加者等)TPをより精度よく検知することを目的として行われる。したがって、最遠点よりも奥側(図9Aの上側)に照射位置が追加される。 9A and 9B are diagrams for explaining a method of calculating an additional irradiation position. Point AP shown in FIG. 9A represents an additional irradiation position in the horizontal direction (X direction and Y direction). Point AP is set from the point of interest in the horizontal direction (X direction and Y direction) by a specified number of points with a specified angular resolution. More specifically, point AP is set from the nearest point in the X direction by a specified number of points with a specified angular resolution. Also, point AP is set from the farthest point in the Y direction by a specified number of points with a specified angular resolution. The specified number of points may be determined based on the length between the point of interest and a measurement point (adjacent measurement point) adjacent to the point of interest and the specified angular resolution, or may be determined in advance by a user or the like. Note that when adding an irradiation position in the X direction at the nearest point, the setting unit 114 does not add an irradiation position at a position farther away from the center line of travel than the nearest point. The reason is that the possibility of collision or contact between the vehicle 101 and the other vehicle 103 at a position farther away from the nearest point in the X direction is extremely low. For a three-dimensional object with a small number of measurement points constituting a cluster (for example, a few or less), an illumination position may be added to a position away from the center line of travel so that point cloud data is acquired with high resolution around the nearest point. On the other hand, when adding an illumination position in the Y direction at the farthest point, the setting unit 114 does not add an illumination position on the host vehicle 101 side of the farthest point. The addition of illumination positions around the farthest point is performed for the purpose of more accurately detecting an object (traffic participant, etc.) TP that jumps out from the rear side of the other vehicle 103 as shown in FIG. 9A. Therefore, an illumination position is added on the rear side of the farthest point (upper side in FIG. 9A).

設定部114は、着目点に対する水平方向の追加照射位置を算出すると、その着目点において垂直方向の追加照射位置を算出する。まず、設定部114は、対象クラスタを構成する計測点の位置情報に基づき、着目点における対象クラスタの高さを算出する。具体的には、設定部114は、対象クラスタを構成する計測点の位置情報から、着目点における計測点の垂直方向(Z方向)の最大値および最小値を取得する。設定部114は、取得した最大値と最小値に基づき着目点における対象クラスタの高さ(最大値と最小値との差)を算出する。次いで、設定部114は、算出した高さが所定高さ以下であるとき、着目点に、最小値と最大値とで示される垂直方向の範囲に指定角度分解能で照射位置を追加する。一方、算出した高さが所定高さより大きいとき、着目点に、最小値から所定高さの範囲に指定角度分解能で照射位置を追加する。設定部114は、対象クラスタの着目点ごとに、上記のような垂直方向の追加照射位置の算出を行う。なお、ステップS14~S17の処理は、垂直方向(Z方向)の角度分解能に基づき規定されるZ方向の各位置に対応したXY平面のそれぞれに対して実行される。この結果、図9Bの点APで示すように、水平方向および垂直方向にライダ5の照射位置が追加される。図9Bには、角度分解能を2倍にするように照射位置が追加された例が示されている。 When the setting unit 114 calculates the additional horizontal irradiation position for the point of interest, it calculates the additional vertical irradiation position at the point of interest. First, the setting unit 114 calculates the height of the target cluster at the point of interest based on the position information of the measurement points that make up the target cluster. Specifically, the setting unit 114 acquires the maximum and minimum values in the vertical direction (Z direction) of the measurement points at the point of interest from the position information of the measurement points that make up the target cluster. The setting unit 114 calculates the height of the target cluster at the point of interest (the difference between the maximum and minimum values) based on the acquired maximum and minimum values. Next, when the calculated height is equal to or less than a predetermined height, the setting unit 114 adds an irradiation position to the point of interest in the vertical range indicated by the minimum and maximum values with a specified angular resolution. On the other hand, when the calculated height is greater than the predetermined height, the setting unit 114 adds an irradiation position to the point of interest in the range from the minimum value to the predetermined height with a specified angular resolution. The setting unit 114 calculates the additional vertical irradiation position as described above for each point of interest of the target cluster. The processes in steps S14 to S17 are performed for each of the XY planes corresponding to each position in the Z direction defined based on the angular resolution in the vertical direction (Z direction). As a result, as shown by point AP in FIG. 9B, an illumination position of the lidar 5 is added in the horizontal and vertical directions. FIG. 9B shows an example in which an illumination position is added to double the angular resolution.

設定部114は、算出した水平方向および垂直方向の追加照射位置に基づいて、記憶部12に記憶されたライダ5の照射位置情報を更新する(S18)。これにより、ライダ5の次回測定時(次フレーム取得時)に、追加照射位置に電磁波が照射される。 The setting unit 114 updates the irradiation position information of the lidar 5 stored in the storage unit 12 based on the calculated additional irradiation positions in the horizontal and vertical directions (S18). As a result, the electromagnetic waves are irradiated to the additional irradiation positions during the next measurement of the lidar 5 (when the next frame is acquired).

以上説明した実施の形態によれば、以下のような作用効果を奏する。
(1)外界認識装置50は、走行用のアクチュエータACの動作を制御する走行制御部115を有する自車両101の周囲に電磁波を照射して反射波に基づき自車両101の周囲の外界状況を検出するライダ5と、反射波が得られる物体の表面の計測点の位置情報を含む点群データを取得するデータ取得部111と、データ取得部111により取得された点群データに基づき自車両101の前方の物体を認識するとともに、自車両101と物体との位置関係に基づいて、物体に対応する計測点の中から走行制御部115で用いられる着目点を決定する決定部113と、を備える。データ取得部111は、決定部113により決定された着目点の周囲の点群データの密度が大きくなるように点群データを取得する。また、データ取得部111は、物体に対応する計測点のうち自車両101との距離が最も短い第1計測点(最近傍点)と進行方向において自車両から最も離れた第2計測点(最遠点)とを、着目点として決定する。このように、高分解能域を、ライダ5の視野角(FOV:Field of View)全域ではなく、自車両が衝突や接触をする可能性がある前方の物体(他車両等)の外縁部に限定することで、点群データのデータ量を削減しつつ、前方の物体を精度よく認識することが可能となる。また、点群データの粗密制御を点単位で行うので、点群データの粗密制御を領域単位で行う従来の方法と比較して点群データのデータ量をより確実に削減できる。
According to the embodiment described above, the following advantageous effects are achieved.
(1) The external environment recognition device 50 includes a lidar 5 that detects the external environment around the vehicle 101 based on the reflected waves by irradiating electromagnetic waves around the vehicle 101 having a driving control unit 115 that controls the operation of the actuator AC for driving, a data acquisition unit 111 that acquires point cloud data including position information of measurement points on the surface of the object from which the reflected waves are obtained, and a determination unit 113 that recognizes an object in front of the vehicle 101 based on the point cloud data acquired by the data acquisition unit 111 and determines a point of interest to be used by the driving control unit 115 from among the measurement points corresponding to the object based on the positional relationship between the vehicle 101 and the object. The data acquisition unit 111 acquires point cloud data such that the density of the point cloud data around the point of interest determined by the determination unit 113 is increased. In addition, the data acquisition unit 111 determines, as points of interest, a first measurement point (nearest point) that is the shortest distance from the vehicle 101 among the measurement points corresponding to the object and a second measurement point (farthest point) that is the furthest from the vehicle in the traveling direction. In this way, by limiting the high resolution region to the outer edge of a forward object (another vehicle, etc.) with which the vehicle may collide or come into contact, rather than the entire field of view (FOV) of the lidar 5, it is possible to accurately recognize the forward object while reducing the amount of data in the point cloud data. In addition, since the coarseness and density control of the point cloud data is performed on a point-by-point basis, the amount of data in the point cloud data can be reduced more reliably than in the conventional method in which the coarseness and density control of the point cloud data is performed on a region-by-region basis.

(2)決定部113は、データ取得部111により取得された点群データに基づき自車両101の前方に複数の物体(図6の他車両102~106)が認識されたとき、最近傍点が自車両101から進行方向に第1所定距離(図6の閾値THy)以上離れていて且つ最近傍点が自車両101から車幅方向に第2所定距離(図6の閾値THx)以上離れている物体(図6の他車両105,106)を除外対象物体として決定し、複数の物体から除外対象物体を除いた物体(図6の他車両102~104)の、最近傍点と最遠点とを着目点として決定する。このように、自車両との衝突や接触を十分に回避可能な物体を高分解能域の対象から除外することで、自車両の走行時の安全性を低下させることなく、点群データのデータ量を削減でき、演算部11におけるデータ計算量を低減できる。 (2) When multiple objects (other vehicles 102 to 106 in FIG. 6) are recognized in front of the vehicle 101 based on the point cloud data acquired by the data acquisition unit 111, the determination unit 113 determines the object (other vehicles 105, 106 in FIG. 6) whose nearest point is at least a first predetermined distance (threshold THy in FIG. 6) away from the vehicle 101 in the traveling direction and at least a second predetermined distance (threshold THx in FIG. 6) away from the vehicle 101 in the vehicle width direction as an object to be excluded, and determines the nearest point and the farthest point of the object (other vehicles 102 to 104 in FIG. 6) excluding the object to be excluded from the multiple objects as the focus points. In this way, by excluding objects that can sufficiently avoid collision or contact with the vehicle from the targets of the high resolution range, the amount of data of the point cloud data can be reduced without reducing the safety of the vehicle while traveling, and the amount of data calculation in the calculation unit 11 can be reduced.

(3)決定部113はさらに、複数の物体から除外対象物体を除いた物体(図7の他車両102~104)に第1物体(他車両103)と第2物体(他車両102)とが含まれ、第1物体(他車両103)に対応する最近傍点(図7の計測点MN2)が第2物体(他車両102)の最近傍点(図7の計測点MN1)よりも進行方向かつ車幅方向において遠方にあるとき、第1物体(他車両103)を除外対象物体として決定する。これにより、自車両との衝突や接触のリスクが限りなく低い物体を高分解能域の対象から除外することができ、自車両の走行時の安全性を低下させることなく、点群データのデータ量をさらに削減できる。 (3) The determination unit 113 further determines the first object (other vehicle 103) as the object to be excluded when the objects (other vehicles 102-104 in FIG. 7) remaining after removing the object to be excluded from the multiple objects include a first object (other vehicle 103) and a second object (other vehicle 102), and the nearest point (measurement point MN2 in FIG. 7) corresponding to the first object (other vehicle 103) is farther in the traveling direction and vehicle width direction than the nearest point (measurement point MN1 in FIG. 7) of the second object (other vehicle 102). This makes it possible to exclude objects with an extremely low risk of collision or contact with the vehicle from the targets in the high resolution range, and to further reduce the amount of data in the point cloud data without reducing the safety of the vehicle while it is traveling.

(4)外界認識装置50は、着目点の周囲の点群データの密度が大きくなるようにライダ5の照射位置を設定する設定部114をさらに備える。このように、点群データの粗密制御を点単位で行うことで、自車両前方の自動二輪車のハンドルや該自動二輪車の運転者の腕など、物体の細部まで精度よく認識でき、自動二輪車等に対して追い越し走行や、追い抜き走行、オフセット走行等するときの安全性を向上できる。 (4) The external environment recognition device 50 further includes a setting unit 114 that sets the illumination position of the lidar 5 so that the density of the point cloud data around the point of interest is increased. In this way, by controlling the density of the point cloud data on a point-by-point basis, it is possible to accurately recognize the details of objects, such as the handlebars of a motorcycle in front of the vehicle and the arms of the driver of the motorcycle, and to improve safety when overtaking, passing, offsetting, etc., motorcycles, etc.

上記実施の形態は、種々の形態に変形することができる。以下、変形例について説明する。上記実施形態では、車載検出器が、点群データの粗密領域を可変可能なライダである場合を例にした。しかしながら、上記実施形態は、点群データの粗密領域を可変できないライダにも適用可能である。この場合、データ取得部111は、ライダ5により照射された電磁波の反射波が得られた物体の表面の計測点の位置情報を含む点群データ(第1点群データ)を取得する第1データ取得部として機能するとともに、第1点群データのデータを間引いて該第1点群データよりもデータ密度が小さい第2点群データを取得する第2データ処理部として機能する。決定部113は、データ取得部111により取得された第2点群データに基づき自車両101の前方の物体を認識するとともに、自車両101と物体との位置関係に基づいて、物体に対応する計測点の中から着目点を決定する。走行制御部115は、決定部113により決定された着目点の周囲の第1点群データと、第2点群データとを用いて、走行用のアクチュエータACの動作を制御する。これにより、車載検出器が点群データの粗密領域を可変できないライダであるときでも、前方の物体の認識精度を低下させることなく、データ計算量を低減できる。 The above embodiment can be modified in various ways. Modifications will be described below. In the above embodiment, the vehicle-mounted detector is a lidar capable of varying the sparse and dense areas of the point cloud data. However, the above embodiment can also be applied to a lidar that cannot vary the sparse and dense areas of the point cloud data. In this case, the data acquisition unit 111 functions as a first data acquisition unit that acquires point cloud data (first point cloud data) including position information of measurement points on the surface of the object from which the reflected waves of the electromagnetic waves irradiated by the lidar 5 are obtained, and also functions as a second data processing unit that thins out the data of the first point cloud data to acquire second point cloud data having a lower data density than the first point cloud data. The determination unit 113 recognizes an object in front of the vehicle 101 based on the second point cloud data acquired by the data acquisition unit 111, and determines a point of interest from among the measurement points corresponding to the object based on the positional relationship between the vehicle 101 and the object. The driving control unit 115 uses the first point cloud data around the point of interest determined by the determination unit 113 and the second point cloud data to control the operation of the driving actuator AC. This makes it possible to reduce the amount of data calculations without reducing the accuracy of recognizing objects ahead, even when the vehicle-mounted detector is a lidar that cannot change the density of point cloud data.

また、上記実施形態では、照射位置の追加(S16~S18)を、ステップS15で決定された対象クラスタに対してのみ、すなわち、自車両101と衝突または接触する可能性がある物体に対応するクラスタに対してのみ行うようにした。しかしながら、ステップS12で認識されたすべての物体に対応するクラスタに対して、ステップS16~S18の処理を行うようにしてもよい。 In addition, in the above embodiment, the addition of illumination positions (S16 to S18) is performed only for the target cluster determined in step S15, that is, only for the cluster corresponding to an object that may collide or come into contact with the vehicle 101. However, the processing of steps S16 to S18 may be performed for the clusters corresponding to all objects recognized in step S12.

また、上記実施形態では、決定部113が、自車両101の前方に複数の物体が認識されたとき、最近傍点が自車両から進行方向に閾値THy以上離れていて且つ最近傍点が自車両101から車幅方向に閾値THx以上離れている物体を除外対象物体として決定するようにした。しかしながら、閾値THyおよび閾値THxは、自車両101の走行速度に応じて変更してもよい。例えば、自車両101の走行速度が大きいほど、閾値THyを大きくしてもよい。 In the above embodiment, when multiple objects are recognized ahead of the host vehicle 101, the determination unit 113 determines, as an object to be excluded, an object whose nearest point is distant from the host vehicle 101 in the traveling direction by more than the threshold value THy and whose nearest point is distant from the host vehicle 101 in the vehicle width direction by more than the threshold value THx. However, the threshold value THy and the threshold value THx may be changed according to the traveling speed of the host vehicle 101. For example, the threshold value THy may be increased as the traveling speed of the host vehicle 101 increases.

また、上記実施形態では、走行制御部115が、高分解能で取得された着目点周囲の情報に基づいて、認識部112により認識された物体との衝突や接触を回避するように自車両の走行制御を行うようにした。しかしながら、演算部は、高分解能で取得された着目点周囲の情報に基づいて、車両制御装置100が備える不図示のディスプレイやスピーカを介して、認識部112により認識された物体との衝突や接触に関する注意喚起の情報(映像情報や音声情報)を自車両の乗員に報知してもよい。 In the above embodiment, the driving control unit 115 controls the driving of the vehicle to avoid collision or contact with the object recognized by the recognition unit 112, based on the information about the surroundings of the point of interest acquired with high resolution. However, the calculation unit may notify the occupants of the vehicle of warning information (video information or audio information) about collision or contact with the object recognized by the recognition unit 112 via a display or speaker (not shown) provided in the vehicle control device 100, based on the information about the surroundings of the point of interest acquired with high resolution.

さらに、上記実施形態では、外界認識装置50を自動運転車両に適用したが、外界認識装置50は、自動運転車両以外の車両にも適用可能である。例えば、ADAS(Advanced driver-assistance systems)を備える手動運転車両にも外界認識装置50を適用することができる。 In addition, in the above embodiment, the external environment recognition device 50 is applied to an autonomous vehicle, but the external environment recognition device 50 can also be applied to vehicles other than autonomous vehicles. For example, the external environment recognition device 50 can also be applied to manually driven vehicles equipped with ADAS (Advanced Driver Assistance Systems).

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施の形態および変形例により本発明が限定されるものではない。上記実施の形態と変形例の一つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-mentioned embodiment and modifications, as long as the characteristics of the present invention are not impaired. It is also possible to arbitrarily combine one or more of the above-mentioned embodiment and modifications, and it is also possible to combine modifications together.

1 通信ユニット、2 測位ユニット、3 内部センサ群、4 カメラ、5 ライダ、10 コントローラ、11 演算部、12 記憶部、111 データ取得部、112 認識部、113 決定部、114 設定部、50 外界認識装置、100 車両制御装置、115 走行制御部、AC アクチュエータ 1 Communication unit, 2 Positioning unit, 3 Internal sensor group, 4 Camera, 5 Lidar, 10 Controller, 11 Calculation unit, 12 Memory unit, 111 Data acquisition unit, 112 Recognition unit, 113 Decision unit, 114 Setting unit, 50 External recognition device, 100 Vehicle control device, 115 Travel control unit, AC actuator

Claims (6)

走行用アクチュエータの動作を制御する走行制御部を有する自車両の周囲に電磁波を照射して反射波に基づき前記自車両の周囲の外界状況を検出する車載検出器と、
前記反射波が得られる物体の表面の計測点の位置情報を含む点群データを取得するデータ取得部と、
前記データ取得部により取得された前記点群データに基づき前記自車両の前方の前記物体を認識するとともに、前記自車両と前記物体との位置関係に基づいて、前記物体に対応する前記計測点の中から前記走行制御部で用いられる着目点を決定する決定部と、を備え、
前記決定部は、前記物体に対応する前記計測点のうち前記自車両との距離が最も短い第1計測点と進行方向において前記自車両から最も離れた第2計測点とを、前記着目点として決定し、
前記データ取得部は、前記決定部により決定された前記着目点の周囲の前記点群データの密度が大きくなるように前記点群データを取得することを特徴とする外界認識装置。
an on-board detector that irradiates electromagnetic waves around a vehicle and detects an external environment around the vehicle based on reflected waves, the on-board detector having a driving control unit that controls an operation of a driving actuator;
a data acquisition unit that acquires point cloud data including position information of measurement points on a surface of an object from which the reflected waves are obtained;
a determination unit that recognizes the object ahead of the host vehicle based on the point cloud data acquired by the data acquisition unit, and determines a focus point to be used by the driving control unit from among the measurement points corresponding to the object based on a positional relationship between the host vehicle and the object,
the determination unit determines, as the focus point, a first measurement point that is the shortest distance from the host vehicle among the measurement points corresponding to the object and a second measurement point that is the furthest from the host vehicle in a traveling direction;
The data acquisition unit acquires the point cloud data so that a density of the point cloud data around the point of interest determined by the determination unit is increased.
請求項に記載の外界認識装置において、
前記決定部は、前記データ取得部により取得された前記点群データに基づき前記自車両の前方に複数の物体が認識されたとき、前記第1計測点が前記自車両から進行方向に第1所定距離以上離れていて且つ前記第1計測点が前記自車両から車幅方向に第2所定距離以上離れている前記物体を除外対象物体として決定し、前記複数の物体から前記除外対象物体を除いた前記物体の、前記第1計測点と前記第2計測点とを前記着目点として決定することを特徴とする外界認識装置。
The external environment recognition device according to claim 1 ,
The determination unit, when a plurality of objects are recognized in front of the host vehicle based on the point cloud data acquired by the data acquisition unit, determines, as an object to be excluded, an object whose first measurement point is away from the host vehicle by a first predetermined distance or more in a traveling direction and whose first measurement point is away from the host vehicle by a second predetermined distance or more in a vehicle width direction, and determines, as the point of interest, the first measurement point and the second measurement point of the object excluding the object to be excluded from the plurality of objects.
請求項に記載の外界認識装置において、
前記決定部はさらに、前記複数の物体から前記除外対象物体を除いた前記物体に第1物体と第2物体とが含まれ、前記第1物体の前記第1計測点が前記第2物体の前記第1計測点よりも進行方向かつ車幅方向において遠方にあるとき、前記第1物体を前記除外対象物体として決定することを特徴とする外界認識装置。
The external environment recognition device according to claim 2 ,
The determination unit further determines the first object as the excluded object when the objects excluding the excluded object from the plurality of objects include a first object and a second object, and the first measurement point of the first object is farther away in the traveling direction and the vehicle width direction than the first measurement point of the second object. The external environment recognition device characterized by:
請求項1からのうちのいずれか1項に記載の外界認識装置において、
前記車載検出器は、ライダであることを特徴とする外界認識装置。
In the external environment recognition device according to any one of claims 1 to 3 ,
The external environment recognition device is characterized in that the on-board detector is a lidar.
請求項に記載の外界認識装置において、
前記着目点の周囲の前記点群データの密度が大きくなるように前記車載検出器の照射位置を設定する設定部をさらに備えることを特徴とする外界認識装置。
The external environment recognition device according to claim 4 ,
The external environment recognition device further comprises a setting unit that sets an irradiation position of the vehicle-mounted detector so that the density of the point cloud data around the point of interest is increased.
請求項に記載の外界認識装置において、
前記データ取得部は、第1データ取得部であり、
前記点群データは、第1点群データであり、
前記第1データ取得部により取得された前記第1点群データのデータを間引いて前記第1点群データよりもデータ密度が小さい第2点群データを取得する第2データ処理部をさらに備え、
前記決定部は、前記第2データ処理部により取得された前記第2点群データに基づき前記自車両の前方の前記物体を認識するとともに、前記自車両と前記物体との位置関係に基づいて、前記物体に対応する前記計測点の中から前記着目点を決定し、
前記走行制御部は、前記第2点群データと、前記決定部により決定された前記着目点の周囲の前記第1点群データとを用いて、前記走行用アクチュエータの動作を制御することを特徴とする外界認識装置。
The external environment recognition device according to claim 4 ,
the data acquisition unit is a first data acquisition unit,
the point cloud data is first point cloud data,
a second data processing unit that thins out the first point cloud data acquired by the first data acquisition unit to acquire second point cloud data having a lower data density than the first point cloud data,
the determination unit recognizes the object ahead of the host vehicle based on the second point cloud data acquired by the second data processing unit, and determines the point of interest from among the measurement points corresponding to the object based on a positional relationship between the host vehicle and the object;
The driving control unit controls the operation of the driving actuator using the second point cloud data and the first point cloud data around the point of interest determined by the determination unit.
JP2022162298A 2022-10-07 2022-10-07 External Recognition Device Active JP7467562B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022162298A JP7467562B1 (en) 2022-10-07 2022-10-07 External Recognition Device
CN202311158340.2A CN117849826A (en) 2022-10-07 2023-09-07 External recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022162298A JP7467562B1 (en) 2022-10-07 2022-10-07 External Recognition Device

Publications (2)

Publication Number Publication Date
JP7467562B1 true JP7467562B1 (en) 2024-04-15
JP2024056151A JP2024056151A (en) 2024-04-23

Family

ID=90540736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022162298A Active JP7467562B1 (en) 2022-10-07 2022-10-07 External Recognition Device

Country Status (2)

Country Link
JP (1) JP7467562B1 (en)
CN (1) CN117849826A (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030147A (en) 2004-07-22 2006-02-02 Hitachi Ltd Environment recognizing system and moving mechanism
JP2013015338A (en) 2011-06-30 2013-01-24 Fujitsu Ltd Monitoring device and monitoring method
JP2016148514A (en) 2015-02-10 2016-08-18 国立大学法人金沢大学 Mobile object tracking method and mobile object tracking device
JP2017505907A (en) 2014-01-29 2017-02-23 エルジー イノテック カンパニー リミテッド Depth information extraction apparatus and method
JP2017173298A (en) 2016-03-16 2017-09-28 株式会社リコー Object detection device and mobile entity device
JP2017215161A (en) 2016-05-30 2017-12-07 株式会社東芝 Information processing device and information processing method
JP2018124283A (en) 2016-01-29 2018-08-09 学校法人明治大学 Laser scan system, laser scan method, moving laser scan system, and program
JP2018205120A (en) 2017-06-05 2018-12-27 株式会社Ihi Object detection device, and object detection method
US20190250721A1 (en) 2018-02-12 2019-08-15 Microvision, Inc. Smart Pulsing in Regions of Interest in Scanned Beam 3D Sensing Systems
JP2020148747A (en) 2019-03-15 2020-09-17 株式会社リコー Object detection device
JP6860656B2 (en) 2016-05-18 2021-04-21 オキーフェ, ジェームスO’KEEFEE, James Dynamic stead LIDAR adapted to the shape of the vehicle

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030147A (en) 2004-07-22 2006-02-02 Hitachi Ltd Environment recognizing system and moving mechanism
JP2013015338A (en) 2011-06-30 2013-01-24 Fujitsu Ltd Monitoring device and monitoring method
JP2017505907A (en) 2014-01-29 2017-02-23 エルジー イノテック カンパニー リミテッド Depth information extraction apparatus and method
JP2016148514A (en) 2015-02-10 2016-08-18 国立大学法人金沢大学 Mobile object tracking method and mobile object tracking device
JP2018124283A (en) 2016-01-29 2018-08-09 学校法人明治大学 Laser scan system, laser scan method, moving laser scan system, and program
JP2017173298A (en) 2016-03-16 2017-09-28 株式会社リコー Object detection device and mobile entity device
JP6860656B2 (en) 2016-05-18 2021-04-21 オキーフェ, ジェームスO’KEEFEE, James Dynamic stead LIDAR adapted to the shape of the vehicle
JP2017215161A (en) 2016-05-30 2017-12-07 株式会社東芝 Information processing device and information processing method
JP2018205120A (en) 2017-06-05 2018-12-27 株式会社Ihi Object detection device, and object detection method
US20190250721A1 (en) 2018-02-12 2019-08-15 Microvision, Inc. Smart Pulsing in Regions of Interest in Scanned Beam 3D Sensing Systems
JP2020148747A (en) 2019-03-15 2020-09-17 株式会社リコー Object detection device

Also Published As

Publication number Publication date
JP2024056151A (en) 2024-04-23
CN117849826A (en) 2024-04-09

Similar Documents

Publication Publication Date Title
JP2022520968A (en) Estimating object attributes using visual image data
CN110053617B (en) Vehicle control device, vehicle control method, and storage medium
CN110103962B (en) Vehicle control device, vehicle control method, and storage medium
CN110239549B (en) Vehicle control device, vehicle control method, and storage medium
US11634139B2 (en) Vehicle control device, vehicle control method, and storage medium
JP7286691B2 (en) Determination device, vehicle control device, determination method, and program
JP7221332B2 (en) Vehicle running control device
US20230242145A1 (en) Mobile object control device, mobile object control method, and storage medium
CN110194153B (en) Vehicle control device, vehicle control method, and storage medium
US20210354634A1 (en) Electronic device for vehicle and method of operating electronic device for vehicle
CN114973644B (en) Road information generating device
JP7467562B1 (en) External Recognition Device
CN114944073B (en) Map generation device and vehicle control device
US11874135B2 (en) Map generation apparatus
JP2021064056A (en) Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program
CN115959144A (en) Vehicle control device
JP7028838B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP7216695B2 (en) Surrounding vehicle monitoring device and surrounding vehicle monitoring method
JP2022139009A (en) Drive support device, drive support method, and program
JP6796047B2 (en) Vehicle control devices, vehicle control methods, and programs
CN114194187B (en) Vehicle travel control device
CN115050205B (en) Map generation device and position recognition device
US20220276069A1 (en) Map generation apparatus
US20220307861A1 (en) Map generation apparatus
US20240077585A1 (en) Division line recognition apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150