JP2019046147A - Travel environment recognition device, travel environment recognition method, and program - Google Patents

Travel environment recognition device, travel environment recognition method, and program Download PDF

Info

Publication number
JP2019046147A
JP2019046147A JP2017168536A JP2017168536A JP2019046147A JP 2019046147 A JP2019046147 A JP 2019046147A JP 2017168536 A JP2017168536 A JP 2017168536A JP 2017168536 A JP2017168536 A JP 2017168536A JP 2019046147 A JP2019046147 A JP 2019046147A
Authority
JP
Japan
Prior art keywords
representing
area
dimensional object
map
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017168536A
Other languages
Japanese (ja)
Other versions
JP7081098B2 (en
Inventor
一樹 加藤
Kazuki Kato
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017168536A priority Critical patent/JP7081098B2/en
Publication of JP2019046147A publication Critical patent/JP2019046147A/en
Application granted granted Critical
Publication of JP7081098B2 publication Critical patent/JP7081098B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

To provide a technology for more accurately specifying on a map a travelable region far from a vehicle than in the prior art.SOLUTION: The travel environment recognition device 10 includes an information acquisition unit, an attribute specification unit, and a map generation unit. The information acquisition unit acquires detection information from a detection device 20. The attribute specification unit specifies that a three-dimensional object detected by the detection device is a moving object based on the detection information. The map generation unit generates a map representing a travelable region. The map generation unit represents, in the map, a region including at least a part of a region representing a moving three-dimensional object which is a three-dimensional object specified as the moving object by the attribute specifying unit as a travelable region.SELECTED DRAWING: Figure 1

Description

本開示は、車両の走行環境を認識する技術に関する。   The present disclosure relates to a technology for recognizing a traveling environment of a vehicle.

特許文献1には、車載カメラにより取得された撮像画像に基づいて生成されたグリッド状の平面マップにおいて、撮像画像に基づいて路面と特定されたグリッドである路面グリッドと、平面マップ上における路面グリッド間のグリッドと、を路面領域として検出する、という技術が提案されている。以下、特許文献1に記載の技術を従来技術という。   In Patent Document 1, in a grid-like plane map generated based on a captured image acquired by an on-vehicle camera, a road surface grid that is a grid specified as a road surface based on the captured image, and a road surface grid on the planar map There has been proposed a technique of detecting a grid between the two as a road surface area. Hereinafter, the technology described in Patent Document 1 is referred to as a conventional technology.

特開2016−146113号公報JP, 2016-146113, A

しかしながら、従来技術では、路面グリッド間のグリッドも路面領域として検出するので、車載カメラの分解能が粗くなる遠方においては、上記路面領域のように路面グリッド間のグリッドを路面領域であると補間するため、車両が走行可能な領域である走行可能領域を平面マップ上で精度良く特定することが困難である、という問題が生じ得る。   However, in the prior art, since grids between road surface grids are also detected as road surface areas, in order to interpolate grids between road surface grids as road surface areas like the above road surface areas in the distant area where resolution of on-vehicle camera becomes coarse. A problem may arise in that it is difficult to accurately specify a travelable area, which is an area in which the vehicle can travel, on a plane map.

本開示の一つの局面は、車両が走行する環境を認識する走行環境認識装置であって、車両から遠方における走行可能領域をマップ上で従来技術よりも精度よく特定する技術を提供する。   One aspect of the present disclosure is a traveling environment recognition device that recognizes an environment in which a vehicle travels, and provides a technology for specifying a travelable area far from the vehicle on a map more accurately than the prior art.

本開示の一つの局面は、走行環境認識装置(10)であって、情報取得部(S10)と、属性特定部(S40)と、マップ生成部(S50)と、を備える。情報取得部は、車両の周囲において車両の走行の障害となる物体を表す立体物を検出する検出装置(20)からの情報を表す検出情報を取得する。属性特定部は、検出情報に基づき、立体物が移動体であることを特定する。マップ生成部は、車両が走行可能な領域である走行可能領域を表すマップを生成する。マップ生成部は、マップにおいて、属性特定部で移動体であると特定された立体物である移動立体物を表す領域の少なくとも一部を含む領域、を走行可能領域として表す。   One aspect of the present disclosure is a traveling environment recognition device (10), which includes an information acquisition unit (S10), an attribute identification unit (S40), and a map generation unit (S50). The information acquisition unit acquires detection information representing information from a detection device (20) that detects a three-dimensional object representing an object that interferes with the travel of the vehicle around the vehicle. The attribute specifying unit specifies that the three-dimensional object is a moving object based on the detection information. The map generation unit generates a map representing a drivable area which is an area in which the vehicle can travel. The map generation unit represents, in the map, a region including at least a part of a region representing a moving three-dimensional object which is a three-dimensional object specified as a moving object by the attribute specifying unit as a travelable region.

このような構成によれば、検出情報に基づいて遠方において移動体が検出された場合には該移動体を表す領域の少なくとも一部を含む領域が走行可能領域と特定されるので、遠方における走行可能領域をマップ上で従来技術よりも精度良く特定することができる。   According to such a configuration, when a moving object is detected at a long distance based on the detection information, an area including at least a part of the area representing the moving object is identified as the travelable area, and thus the travel at a long distance The possible area can be specified on the map more accurately than the prior art.

本開示のもう一つの局面は、走行環境認識方法である。走行環境認識方法は、車両の周囲において車両の走行の障害となる物体を表す立体物を検出する検出装置(20)からの情報を表す検出情報を取得し、検出情報に基づき、立体物が移動体であることを特定し、車両が走行可能な領域である走行可能領域を表すマップを生成し、マップにおいて、属性特定部で移動体であると特定された立体物である移動立体物を表す領域の少なくとも一部を含む領域、を走行可能領域として表す。   Another aspect of the present disclosure is a driving environment recognition method. The traveling environment recognition method acquires detection information representing information from a detection device (20) that detects a three-dimensional object that represents an object that interferes with the travel of the vehicle around the vehicle, and the three-dimensional object moves based on the detection information It specifies that it is a body, generates a map that represents a drivable area, which is an area in which the vehicle can travel, and represents a movable three-dimensional object that is a three-dimensional object identified as a moving object by the attribute specification unit An area including at least a part of the area is referred to as a travelable area.

このように構成された認識方法においても、遠方における走行可能領域をマップ上で従来技術よりも精度良く特定することができる。
本開示の更なるもう一つの局面は、コンピュータを機能させるプログラムであって、情報取得部(S10)と、属性特定部(S40)と、マップ生成部(S50)として、コンピュータを機能させる。情報取得部は、車両の周囲において車両の走行の障害となる物体を表す立体物を検出する検出装置(20)からの情報を表す検出情報を取得する。属性特定部は、検出情報に基づき、立体物が移動体であることを特定する。マップ生成部は、車両が走行可能な領域である走行可能領域を表すマップを生成する。マップ生成部は、マップにおいて、属性特定部で移動体であると特定された立体物である移動立体物を表す領域の少なくとも一部を含む領域、を走行可能領域として表す。
Also in the recognition method configured as described above, the travelable area at a distance can be specified on the map more accurately than in the prior art.
Another aspect of the present disclosure is a program that causes a computer to function, and causes the computer to function as an information acquisition unit (S10), an attribute identification unit (S40), and a map generation unit (S50). The information acquisition unit acquires detection information representing information from a detection device (20) that detects a three-dimensional object representing an object that interferes with the travel of the vehicle around the vehicle. The attribute specifying unit specifies that the three-dimensional object is a moving object based on the detection information. The map generation unit generates a map representing a drivable area which is an area in which the vehicle can travel. The map generation unit represents, in the map, a region including at least a part of a region representing a moving three-dimensional object which is a three-dimensional object specified as a moving object by the attribute specifying unit as a travelable region.

このように構成されたプログラムにおいても、遠方における走行可能領域をマップ上で従来技術よりも精度良く特定することができる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
Also in the program configured as described above, the travelable area at a distant place can be specified on the map more accurately than the prior art.
In addition, the reference numerals in parentheses described in this column and the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present disclosure It is not limited.

走行環境認識システム1の構成を示すブロック図。1 is a block diagram showing the configuration of a traveling environment recognition system 1. FIG. 領域判定処理のフローチャート。6 is a flowchart of area determination processing. 1周期前の占有グリッドマップを補正する例を説明する説明図。Explanatory drawing explaining the example which correct | amends the occupancy grid map of 1 period before. マップ生成処理のフローチャート。The flowchart of a map generation process. センサモデルの例を示す説明図と、センサモデルに従って静止物が検出される例を説明する説明図と、センサモデルに従って移動立体物が検出される例を説明する説明図。An explanatory view showing an example of a sensor model, an explanatory view explaining an example in which a stationary object is detected according to the sensor model, and an explanatory view explaining an example in which a moving three-dimensional object is detected according to the sensor model. LIDARによる観測方位の例を説明する説明図。Explanatory drawing explaining the example of the observation direction by LIDAR. 占有グリッドマップの生成を説明する説明図。Explanatory drawing explaining a production | generation of an occupancy grid map. 占有グリッドマップの更新を説明する説明図。Explanatory drawing explaining the update of an occupancy grid map. 占有グリッドマップにおいて、走行可能領域を説明する図。The figure which demonstrates a drivable area | region in an occupancy grid map. 自車両がレーンチェンジを行おうとする時の走行可能領域の例を示す説明図。Explanatory drawing which shows the example of a drivable area | region when self-vehicles are going to perform a lane change. 自車両が左折を行おうとする時の走行可能領域の例を示す説明図。Explanatory drawing which shows the example of a drivable area | region when self-vehicles try to turn left.

以下、図面を参照しながら、本開示の実施形態を説明する。なお、以下でいう「同一」とは、厳密な意味での同一に限るものではなく、同様の効果を奏するのであれば厳密に同一でなくてもよい。   Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. Note that “identical” in the following is not limited to the same in a strict sense, and may not be exactly the same as long as the same effect can be obtained.

[1.構成]
図1に示す走行環境認識システム1は、車両に搭載されるシステムである。以下では、走行環境認識システム1が搭載される車両を自車両ともいう。走行環境認識システム1は、信号処理ECU10を備える。走行環境認識システム1は、周辺監視センサ20、車速センサ30、ヨーレートセンサ40、車両制御装置50、及び表示装置60を備えていてもよい。なお、本実施形態では、走行環境認識システム1は、図1において点線で示されている無線通信機70を備えてなくてもよい。走行環境認識システム1が無線通信機70を備える例については、他の実施形態にて説明する。
[1. Constitution]
The traveling environment recognition system 1 shown in FIG. 1 is a system mounted on a vehicle. Hereinafter, a vehicle on which the traveling environment recognition system 1 is mounted is also referred to as a host vehicle. The traveling environment recognition system 1 includes a signal processing ECU 10. The traveling environment recognition system 1 may include a periphery monitoring sensor 20, a vehicle speed sensor 30, a yaw rate sensor 40, a vehicle control device 50, and a display device 60. Note that, in the present embodiment, the traveling environment recognition system 1 may not include the wireless communication device 70 shown by a dotted line in FIG. 1. An example in which the traveling environment recognition system 1 includes the wireless communication device 70 will be described in another embodiment.

周辺監視センサ20は、車両の周囲に存在する立体物を検出するセンサを備える。ここでいう立体物とは、車両の走行の障害となる物体である。立体物には、例えば、人、車、固定物等が含まれ得る。周辺監視センサ20は、例えば、LIDAR(Laser Detection and Ranging)、レーダ、単眼カメラ、ステレオカメラ等であり得る。本実施形態では、周辺監視センサ20は、LIDARを備える。   The surrounding area monitoring sensor 20 includes a sensor that detects a three-dimensional object present around the vehicle. The three-dimensional object referred to here is an object that interferes with the traveling of the vehicle. The three-dimensional object may include, for example, a person, a car, a fixed object, and the like. The perimeter monitoring sensor 20 may be, for example, LIDAR (Laser Detection and Ranging), a radar, a monocular camera, a stereo camera or the like. In the present embodiment, the surrounding area monitoring sensor 20 includes LIDAR.

LIDARは、車両の前部に設けられ、発光部からパルス状のレーザ光を出射し、車両前方に存在する物体によって反射されたレーザ光を受光部で受光する。ここでいう車両前方に存在する物体には立体物だけでなく、例えば路面等といった車両の走行の障害にならない物体も含まれる。なお、以下でいう観測点とは、物体が観測された位置であり、本実施形態ではレーザ光の反射が観測された位置をいう。   The LIDAR is provided at the front of a vehicle, emits pulse-like laser light from the light emitting unit, and receives the laser light reflected by an object present in front of the vehicle at the light receiving unit. The objects present in front of the vehicle referred to here include not only three-dimensional objects but also objects that do not disturb the traveling of the vehicle, such as the road surface. In addition, the observation point said to the following is the position where the object was observed, and refers to the position where reflection of the laser beam was observed in this embodiment.

LIDARは、レーザ光の出射時刻と反射光の受光時刻との時間差、反射光強度、反射光が得られたレーザ光の照射角度を表す計測情報を信号処理ECU10へ出力する。信号処理ECU10は、計測情報に基づいて、周辺監視センサ20の取付位置(以下、センサ位置)を座標原点とする3次元座標(x、y、z)によって物体の検出結果を表わし、立体物を特定する。   The LIDAR outputs, to the signal processing ECU 10, measurement information indicating the time difference between the emission time of the laser light and the light reception time of the reflected light, the reflected light intensity, and the irradiation angle of the laser light from which the reflected light is obtained. Based on the measurement information, the signal processing ECU 10 represents the detection result of the object by three-dimensional coordinates (x, y, z) whose coordinate origin is the attachment position of the surrounding area monitoring sensor 20 (hereinafter, sensor position). Identify.

車速センサ30、ヨーレートセンサ40は、車両の運動量を検出するためのセンサである。車速センサ30は車両の走行速度を検出し、ヨーレートセンサ40は車両に作用するヨーレートを検出する。信号処理ECU10は、車速センサ30、ヨーレートセンサ40からの検出信号に基づき、車両の運動量を算出する。具体的には、車両の進行方向及び変位量が運動量として算出される。   The vehicle speed sensor 30 and the yaw rate sensor 40 are sensors for detecting the amount of movement of the vehicle. The vehicle speed sensor 30 detects the traveling speed of the vehicle, and the yaw rate sensor 40 detects a yaw rate acting on the vehicle. The signal processing ECU 10 calculates an amount of movement of the vehicle based on detection signals from the vehicle speed sensor 30 and the yaw rate sensor 40. Specifically, the traveling direction and displacement of the vehicle are calculated as momentum.

車両制御装置50は、CPU、ROM、RAM等を備える電子制御装置であり、信号処理ECU10から出力される走行可能領域の認識結果に基づいて、車両が走行可能領域内を走行するように、車両の操舵やエンジン、ブレーキ等の制御を行う。走行可能領域とは、マップ上において、車両が走行可能な領域をいう。例えば、路面が走行可能領域に含まれる。   The vehicle control device 50 is an electronic control device including a CPU, a ROM, a RAM, and the like, and the vehicle travels in the travelable region based on the recognition result of the travelable region output from the signal processing ECU 10 Control the engine, brakes, etc. The travelable area refers to an area where the vehicle can travel on the map. For example, the road surface is included in the drivable area.

表示装置60は、信号処理ECU10から出力される走行可能領域の認識結果に基づいて、例えば、走行可能領域を表す画像等を表示する装置である。表示装置60は、例えば、ナビゲーション装置の画面や、ヘッドアップディスプレイであり得る。   The display device 60 is a device that displays, for example, an image or the like representing the travelable area, based on the recognition result of the travelable area output from the signal processing ECU 10. The display device 60 may be, for example, a screen of a navigation device or a head-up display.

信号処理ECU10は、CPUと、ROM、RAM、及びフラッシュメモリ等の半導体メモリ(以下、メモリ)と、を有するマイクロコンピュータ(以下、マイコン)を備える。信号処理ECU10が実現する各機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、半導体メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、信号処理ECU10を構成するマイコンの数は1つでも複数でもよい。   The signal processing ECU 10 includes a microcomputer (hereinafter, microcomputer) having a CPU, and a semiconductor memory (hereinafter, memory) such as a ROM, a RAM, and a flash memory. Each function implemented by the signal processing ECU 10 is implemented by the CPU executing a program stored in the non-transitional tangible storage medium. In this example, the semiconductor memory corresponds to a non-transitional tangible storage medium storing a program. Also, by executing this program, a method corresponding to the program is executed. The number of microcomputers constituting the signal processing ECU 10 may be one or more.

信号処理ECU10は、周辺監視センサ20、車速センサ30、ヨーレートセンサ40から出力される検出信号に基づいて、車両の周辺の走行環境を認識する。本実施形態では、信号処理ECU10は、特に車両の前方の走行環境を認識する。ここでいう走行環境とは、道路環境のことであり、例えば、車両の走行の障害となる上記立体物の存在の有無によって表され得る。   The signal processing ECU 10 recognizes the traveling environment around the vehicle based on the detection signals output from the surroundings monitoring sensor 20, the vehicle speed sensor 30, and the yaw rate sensor 40. In the present embodiment, the signal processing ECU 10 particularly recognizes the traveling environment in front of the vehicle. The traveling environment referred to herein is a road environment, and can be represented, for example, by the presence or absence of the three-dimensional object which is an obstacle to the traveling of the vehicle.

具体的には、信号処理ECU10は、周辺監視センサ20からの情報である検出情報に基づいて、車両に対する観測点の相対位置、すなわち車両に対する観測点の距離及び方位を判定し、該相対位置を絶対座標系における位置に変換して、点群データを生成する機能を有する。   Specifically, the signal processing ECU 10 determines the relative position of the observation point with respect to the vehicle, that is, the distance and direction of the observation point with respect to the vehicle, based on the detection information which is information from the surrounding area monitoring sensor 20. It has a function to generate point group data by converting it to a position in an absolute coordinate system.

ここでいう、点群データとは、周辺監視センサ20としてのLIDARにて得られた各照射領域における3次元の観測点のデータの集合を示す。観測点のデータは、上記センサ
位置を原点とする、(x、y、z)座標で表される。
Here, the point cloud data indicates a set of data of three-dimensional observation points in each irradiation area obtained by LIDAR as the periphery monitoring sensor 20. The data of the observation point is represented by (x, y, z) coordinates with the sensor position as an origin.

上記絶対座標系は、車両の位置、つまりセンサ位置を原点としてX軸及びY軸を任意の向きに設定した独自の座標系であり、緯度経度座標に直接対応するものではない。本実施形態で用いる絶対座標系はセンサ位置を原点とするが、これに限定されるものでは無く、任意の地点を原点としてもよい。   The absolute coordinate system is a unique coordinate system in which the position of the vehicle, that is, the sensor position, is set as an origin and the X and Y axes are set in an arbitrary direction, and does not directly correspond to the latitude and longitude coordinates. The absolute coordinate system used in the present embodiment has the sensor position as the origin, but is not limited to this, and an arbitrary point may be the origin.

なお、単眼カメラ、ステレオカメラが周辺監視センサ20として用いられる場合は、単眼カメラ、ステレオカメラにより撮像された撮像画像を検出情報として、該検出情報に基づいて、点群データが生成されてもよい。   In the case where a monocular camera or a stereo camera is used as the periphery monitoring sensor 20, point cloud data may be generated based on the detection information, using the image captured by the monocular camera or the stereo camera as detection information. .

また、信号処理ECU10は、検出情報、すなわち点群データに基づいて、領域判定処理を実行することにより、車両周辺の走行環境を認識する機能を有する。
[2.処理]
[2−1.概要]
次に、本実施形態の走行環境認識システム1において実行される処理の概要について説明する。
Further, the signal processing ECU 10 has a function of recognizing the traveling environment around the vehicle by executing the area determination processing based on the detection information, that is, the point cloud data.
[2. processing]
[2-1. Overview]
Next, an outline of processing executed in the traveling environment recognition system 1 of the present embodiment will be described.

この走行環境認識システム1では、車両周辺の走行環境を認識するためのマップとして占有グリッドマップ(以下、OGM)を生成する。OGMとは、走行環境を確率で表現するマップであり、走行可能領域を表すマップである。走行可能領域は、該OGM上において、車両が走行可能な領域を表す。   The travel environment recognition system 1 generates an occupancy grid map (hereinafter referred to as OGM) as a map for recognizing a travel environment around a vehicle. The OGM is a map that represents the traveling environment with probability, and is a map that represents the travelable area. The drivable area represents an area on which the vehicle can travel on the OGM.

具体的には、信号処理ECU10は、ある時間t=0における車両の位置、つまりセンサ位置を原点に、車両左右方向をX軸、車両前後方向をY軸とした絶対座標系を基準単位でメッシュ状、つまりグリッド状に分割し、立体物の存在確率をグリッド毎に記憶することにより、OGMを生成する。   Specifically, the signal processing ECU 10 meshes an absolute coordinate system in which the position of the vehicle at a certain time t = 0, that is, the sensor position, is the origin, the vehicle horizontal direction is the X axis, and the vehicle longitudinal direction is the Y axis. The OGM is generated by dividing into a shape, that is, a grid shape, and storing the existence probability of a solid object for each grid.

車両の走行の障害となる上記立体物の存在確率は、周辺監視センサ20からの情報に基づき求められる。存在確率とは、立体物が存在する確率であって、立体物が存在する場合に立体物が存在しない場合よりも大きく設定される。OGMにおいて、立体物の存在確率が低い領域、つまり立体物の存在確率が低いグリッドが走行可能領域に相当する。   The existence probability of the three-dimensional object which is an obstacle to the traveling of the vehicle is obtained based on the information from the surrounding area monitoring sensor 20. The existence probability is the probability that a three-dimensional object is present, and is set to be larger in the presence of a three-dimensional object than in the absence of a three-dimensional object. In OGM, a region in which the probability of existence of three-dimensional objects is low, that is, a grid in which the probability of existence of three-dimensional objects is low corresponds to the travelable region.

なお、グリッドサイズは任意あるいは周辺監視センサ20の検出精度に応じて、最適なサイズに決定される。グリッドは、本実施形態では、1m角の正方形グリッドであるものとする。
生成されたOGM、及びOGMに基づく走行可能領域の認識結果は、車両制御装置50において、例えば、アダプティブクルーズ制御やプリクラッシュセーフティ制御等といった前方監視制御を実現するための衝突系アプリケーションによって利用されても良い。
The grid size is determined to an optimal size according to the detection accuracy of the surrounding area monitoring sensor 20 arbitrarily or. The grid is assumed to be a 1 m square grid in this embodiment.
The generated OGM and the recognition result of the drivable area based on the OGM are used by the vehicle control apparatus 50 by a collision system application for realizing forward monitoring control such as adaptive cruise control and pre-crash safety control, for example. Also good.

[2−2.処理手順]
信号処理ECU10は、図2に示す領域判定処理を実施する。領域判定処理は、例えば車両の電源が投入されると開始される処理であり、その後、一定の周期毎に繰り返し実施される処理である。
[2-2. Processing procedure]
The signal processing ECU 10 performs the area determination process shown in FIG. The area determination process is a process that is started, for example, when the power of the vehicle is turned on, and is a process that is repeatedly performed after each fixed cycle.

信号処理ECU10は、図2に示すように、まずS10にて、各種センサ類からセンサデータを取得する。
具体的には、信号処理ECU10は、周辺監視センサ20から検出情報を取得する。そして、信号処理ECU10は、本領域判定処理とは別処理によって該検出情報に基づいて上記点群データを生成し、生成された点群データを取得する。
As shown in FIG. 2, the signal processing ECU 10 first acquires sensor data from various sensors at S10.
Specifically, the signal processing ECU 10 acquires detection information from the surrounding area monitoring sensor 20. Then, the signal processing ECU 10 generates the point cloud data based on the detection information by processing separate from the area determination processing, and acquires the generated point cloud data.

また、信号処理ECU10は、車両の走行速度を車速センサ30から取得し、車両に作用するヨーレートをヨーレートセンサ40から取得する。
続いて、信号処理ECU10は、S20では、検出情報に基づいて生成された点群データを用いて、立体物の判定を行う。具体的には、信号処理ECU10は、点群データの高さ情報、すなわちz座標に基づいて、「立体物上の点」と「路面上の点」とを判定する。ここで、信号処理ECU10は、点群データの高さ情報が所定の路面高さ閾値以上である場合に、該点群データに対応する観測点が「立体物上の点」であると判断する。一方、信号処理ECU10は、点群データの高さ情報が路面高さ閾値未満である場合に、該点群データに対応する観測点が「路面上の点」であると判断する。路面高さ閾値は、実験等に基づいて予め定められており、メモリに予め記憶されている。路面高さの閾値は、例えば、数cm〜数十cm程度であり得る。
Further, the signal processing ECU 10 acquires the traveling speed of the vehicle from the vehicle speed sensor 30, and acquires the yaw rate acting on the vehicle from the yaw rate sensor 40.
Subsequently, in S20, the signal processing ECU 10 performs determination of a three-dimensional object using point cloud data generated based on the detection information. Specifically, the signal processing ECU 10 determines "a point on a three-dimensional object" and "a point on the road surface" based on the height information of the point cloud data, that is, the z coordinate. Here, the signal processing ECU 10 determines that the observation point corresponding to the point group data is “a point on a three-dimensional object” when the height information of the point group data is equal to or more than a predetermined road surface height threshold. . On the other hand, when the height information of the point cloud data is less than the road surface height threshold, the signal processing ECU 10 determines that the observation point corresponding to the point cloud data is “a point on the road surface”. The road surface height threshold is previously determined based on an experiment or the like, and is stored in advance in the memory. The threshold value of the road surface height may be, for example, about several cm to several tens cm.

次に、信号処理ECU10は、S30では、後述するS70にて生成された占有グリッドマップであって、1周期前に生成された占有グリッドマップ(以下、OGM-1)を取得し、OGM-1の座標原点が現周期のセンサ位置となるように、1周期の間の座標原点の移動量をOGM-1に加味して、OGM-1を補正する。 Next, in S30, the signal processing ECU 10 acquires an occupancy grid map (hereinafter referred to as OGM- 1 ) which is an occupancy grid map generated in S70 to be described later, which is generated one cycle earlier, and performs OGM- 1 coordinate origin of such a sensor position of the current period, in consideration of the amount of movement of the coordinate origin of one period to the OGM -1, corrects the OGM -1.

図3は、実際の走行環境(以下、実環境)であって1周期前の実環境において、自車両100の前方に静止している立体物(以下、静止物)が存在し、自車両100の左右に壁が存在する場合のOGM-1を補正する例を示す。1周期の間における座標原点の移動量は、つまり周辺監視センサ20の移動量は、1周期の間における自車両100の運動量に基づいて算出される。図3では、1周期前の実環境における矢印が、自車両100の運動量を表している。なお、信号処理ECU10は、S10にて取得した車速及びヨーレートに基づいて、自車両100の運動量を推定する。 FIG. 3 shows an actual traveling environment (hereinafter, actual environment), and in the actual environment one cycle before, a three-dimensional object (hereinafter, stationary object) stationary ahead of the vehicle 100 exists. An example is shown to correct OGM- 1 when there are walls on the left and right of. The movement amount of the coordinate origin at one cycle, that is, the movement amount of the surrounding area monitoring sensor 20 is calculated based on the momentum of the vehicle 100 during one cycle. In FIG. 3, the arrow in the real environment one cycle before represents the momentum of the vehicle 100. Note that the signal processing ECU 10 estimates the amount of movement of the host vehicle 100 based on the vehicle speed and the yaw rate acquired in S10.

続いて、信号処理ECU10は、S40では、点群データに基づき、S20で判定された立体物が移動体であることを特定する。移動体とは、所定の速度以上の速度で移動している物体をいう。ここでいう所定の速度とは、例えば、歩行者の移動速度以上であってもよい。移動体には、例えば、車両、歩行者、自転車等が含まれ得る。   Subsequently, at S40, the signal processing ECU 10 specifies that the three-dimensional object determined at S20 is a moving object based on the point cloud data. The moving body refers to an object moving at a speed higher than a predetermined speed. The predetermined speed referred to here may be, for example, the moving speed of a pedestrian or more. The moving body may include, for example, a vehicle, a pedestrian, a bicycle, and the like.

具体的には、信号処理ECU10は、移動体を検出するにあたり、まず、S20にて「立体物上の点」として判定された、立体物上の観測点群をクラスタリングし、個々の立体物を認識する。つまり、信号処理ECU10は、立体物上の観測点群のうち、相互の距離が所定の閾値よりも短いもの同士をまとめたクラスタを生成し、そのクラスタを個々の立体物として認識する。   Specifically, when detecting the moving object, the signal processing ECU 10 first clusters the observation point group on the three-dimensional object determined as the “point on the three-dimensional object” in S20, and detects each three-dimensional object. recognize. That is, the signal processing ECU 10 generates a cluster in which groups of observation points on the three-dimensional object whose distances are shorter than a predetermined threshold are combined, and recognizes the clusters as individual three-dimensional objects.

更に、信号処理ECU10は、トラッキングを行う。信号処理ECU10は、本実施形態では、現周期の点群データである最新の点群データと1周期前に取得された点群データとを用いて、クラスタを追跡する。但し、これに限定されるものでは無く、最新の点群データと直近の過去複数周期の間に取得された点群データを用いてトラッキングが行われてもよい。   Furthermore, the signal processing ECU 10 performs tracking. In the present embodiment, the signal processing ECU 10 tracks a cluster using the latest point cloud data, which is point cloud data of the current cycle, and point cloud data acquired one cycle earlier. However, the present invention is not limited to this, and tracking may be performed using the latest point cloud data and point cloud data acquired during the latest past plural cycles.

具体的には、信号処理ECU10は、例えば、カルマンフィルタやパーティクルフィルタ等を用いて、クラスタの移動状態を監視し、移動の前後において大きさや形状が類似するクラスタを同じ立体物を表すものとして追跡する。   Specifically, the signal processing ECU 10 monitors the movement state of clusters using, for example, a Kalman filter, a particle filter, etc., and tracks clusters having similar sizes and shapes before and after movement as those representing the same three-dimensional object. .

そして、信号処理ECU10は、追跡した立体物について、サイズや移動速度等を認識し、該サイズや移動速度等に基づいて、該立体物が移動体であることを特定し、更に該立体物の属性を特定する。例えば、車両、歩行者、自転車等といった、立体物の属性が特定
される。信号処理ECU10は、このようにして、立体物が移動体であることを判定し、移動体のサイズや移動速度を特定し、更にその属性を特定する。
Then, the signal processing ECU 10 recognizes the size, moving speed, and the like of the tracked three-dimensional object, and specifies that the three-dimensional object is a moving object based on the size, moving speed, and the like. Identify the attribute. For example, attributes of a three-dimensional object such as a vehicle, a pedestrian, a bicycle, etc. are specified. Thus, the signal processing ECU 10 determines that the three-dimensional object is a moving object, specifies the size and moving speed of the moving object, and further specifies its attributes.

なお、信号処理ECU10は、単眼カメラ、ステレオカメラが周辺監視センサ20として用いられる場合は、単眼カメラ、ステレオカメラにより撮像された撮像画像に基づいて、教師データにより学習した識別器を用いて、立体物が移動体であることを判定し、移動体のサイズや移動速度を特定し、更にその属性を特定してもよい。   When the single-eye camera or the stereo camera is used as the surroundings monitoring sensor 20, the signal processing ECU 10 uses the classifier learned based on the teacher data based on the captured image captured by the single-eye camera or the stereo camera. It may be determined that the object is a moving object, the size and moving speed of the moving object may be specified, and further the attribute thereof may be specified.

次に、信号処理ECU10は、S50では、マップ生成処理を実行する。マップ生成処理では、現周期における占有グリッドマップ(以下、OGM0)を生成する。なお、本実施形態では、X−Y平面である2次元のマップを生成する。マップ生成処理の詳細を図4に示すフローチャートに基づいて説明する。 Next, in S50, the signal processing ECU 10 executes map generation processing. In the map generation process, an occupied grid map (hereinafter referred to as OGM 0 ) in the current cycle is generated. In the present embodiment, a two-dimensional map that is an XY plane is generated. Details of the map generation process will be described based on the flowchart shown in FIG.

信号処理ECU10は、S110では、S10で検出情報に基づいて生成した点群データを用いて、観測点を含むグリッドにおける立体物の存在確率を算出する。図5は、周辺監視センサ20としてのLIDARの発光部と観測点とを通る直線上の位置と、立体物の存在確率との対応関係を規定したセンサモデルである。信号処理ECU10は、図6に示すように、レーザ光が照射される複数の方位のうちの1方位毎に、センサモデルに従い、各グリッドに対する存在確率を計算する。   In S110, the signal processing ECU 10 uses the point group data generated based on the detection information in S10 to calculate the existence probability of the solid object in the grid including the observation point. FIG. 5 is a sensor model which defines the correspondence between the position on a straight line passing through the light emitting part of the LIDAR as the periphery monitoring sensor 20 and the observation point, and the existence probability of a three-dimensional object. As shown in FIG. 6, the signal processing ECU 10 calculates the existence probability for each grid according to the sensor model for each of the plurality of orientations to which the laser light is irradiated.

センサモデルでは、「立体物上の点」として観測された観測点における存在確率は、1に近い値(以下、存在確率α)に設定される。本実施形態では、存在確率αは1に設定される。また、センサモデルでは、「路面上の点」として観測された観測点における存在確率(以下、存在確率β)は、0に近い値に設定される。本実施形態では、存在確率βは0に設定される。   In the sensor model, the existence probability at an observation point observed as “a point on a three-dimensional object” is set to a value close to 1 (hereinafter, existence probability α). In the present embodiment, the existence probability α is set to one. Further, in the sensor model, the existence probability (hereinafter, existence probability β) at an observation point observed as “a point on the road surface” is set to a value close to zero. In the present embodiment, the existence probability β is set to zero.

また、「立体物上の点」として観測された観測点よりも手前の位置であって立体物が存在しているか否かが不明である領域(以下、不明領域)の存在確率(以下、存在確率ε)は、0に近い値であって、存在確率βよりも大きく後述する存在確率Mよりも小さい値に設定される。また、該観測点よりも後ろの位置の存在確率(以下、存在確率M)は、αとβとの中間的な値に設定される。本実施形態では、存在確率Mは0.5に設定される。   In addition, the existence probability (hereinafter referred to as “presence area”) of a region (hereinafter, unknown region) which is at a position before the observation point observed as “a point on a three-dimensional object” and whether or not a three-dimensional object exists. The probability ε) is a value close to 0 and is set to a value larger than the existence probability β and smaller than the existence probability M described later. Further, the existence probability of the position behind the observation point (hereinafter, the existence probability M) is set to an intermediate value between α and β. In the present embodiment, the existence probability M is set to 0.5.

これは、「立体物上の点」として観測された観測点よりも手前には立体物が存在しないと推測され、該観測点の後ろには立体物が存在するか否かが不明だからである。なお、センサモデルは、図5に示すものに限定されるものではなく、任意に設定され得る。   This is because it is inferred that no three-dimensional object exists in front of the observation point observed as "a point on a three-dimensional object", and it is unclear whether a three-dimensional object exists behind the observation point. . In addition, a sensor model is not limited to what is shown in FIG. 5, It may be set arbitrarily.

続いて、信号処理ECU10は、S120では、レーザ光が照射される複数の方位のうちの全方位においてそれぞれ存在確率を計算した後に、グリッド毎に存在確率を記憶させて、OGM0のベースとなるベースマップを生成する。図7に、自車両100の前方に移動車両が存在し、自車両100の左右に壁が存在する実環境に対応するベースマップの例を示す。図7において、立体物上の観測点は三角で示されている。特に移動立体物上の観測点は黒い三角で示されている。 Subsequently, in S120, the signal processing ECU 10 calculates the existence probability in all of the plurality of azimuths to which the laser light is irradiated, stores the existence probability for each grid, and becomes a base of OGM 0. Generate a basemap. FIG. 7 shows an example of a base map corresponding to an actual environment in which a moving vehicle exists ahead of the host vehicle 100 and walls exist on the left and right of the host vehicle 100. In FIG. 7, observation points on a three-dimensional object are indicated by triangles. In particular, the observation points on the moving solid are indicated by black triangles.

次に、信号処理ECU10は、S130では、ベースマップにおいて、移動立体物を表すグリッドに記憶する存在確率を、走行領域閾値未満の値に更新し、OGM0を生成する。移動立体物とは、上記S40で移動体であると特定された立体物のことを表す。走行領域閾値とは、後述するS70で実施される閾値判定で用いられる閾値を表す。走行領域閾値は、例えば、存在確率M未満の値であり得る。また、走行領域閾値は、例えば、存在確率M未満の値であり、且つ、存在確率ε未満であり得る。 Then, the signal processing ECU10 is in S130, the base map, the existence probability to be stored in the grid represents a moving three-dimensional object is updated to a value below the traveling area threshold value, generates the OGM 0. The moving three-dimensional object represents the three-dimensional object specified as the moving object at S40. The travel area threshold indicates a threshold used in threshold determination performed in S70 described later. The travel area threshold may be, for example, a value less than the existence probability M. Also, the traveling region threshold may be, for example, a value less than the existence probability M and less than the existence probability ε.

本実施形態では、OGM0上において移動立体物を表す領域(以下、移動体領域)、つまり移動立体物を表すグリッドは、少なくとも1つのグリッドから成る。例えば、OGM0上において、移動立体物としての移動している車両(以下、移動車両)を表す領域(以下、移動車両領域)、つまり移動車両を表すグリッドは、複数のグリッドから成り、OGM0上における自車両100の形状及び大きさと同一となるように、予め定められている。信号処理ECU10は、移動車両上の観測点を表すグリッドが含まれるように、移動車両領域を特定する。図7に、上記ベースマップに基づいて生成されたOGM0の例を示す。図7に示すOGM0では、6つのグリッドを含む領域Pが移動車両領域を表す。 In the present embodiment, a region representing a moving solid on OGM 0 (hereinafter referred to as a moving region), that is, a grid representing a moving solid consists of at least one grid. For example, on OGM 0, the vehicle is moving as the moving three-dimensional object (hereinafter, moving vehicles) region representing a (hereinafter, the mobile vehicle area), i.e. a grid representing the moving vehicle, a plurality of grids, OGM 0 It is determined in advance so as to be the same as the shape and size of the vehicle 100 at the top. The signal processing ECU 10 specifies the moving vehicle area such that a grid representing an observation point on the moving vehicle is included. FIG. 7 shows an example of OGM 0 generated based on the above base map. In OGM 0 shown in FIG. 7, a region P including six grids represents a moving vehicle region.

なお、移動体領域の形状及び大きさは、移動体の属性毎に設定されていてもよい。または、移動体領域の形状及び大きさは、移動体の属性に関係なく、一定に設定されていてもよい。また、本実施形態では、上述のように、移動車両領域は、OGM0上における自車両100の形状及び大きさと同一の大きさに設定されているが、これに限定されるものではない。 Note that the shape and size of the mobile object area may be set for each attribute of the mobile object. Alternatively, the shape and size of the mobile region may be set to be constant regardless of the attribute of the mobile. Moreover, in the present embodiment, as described above, the moving vehicle area is set to the same size as the shape and size of the host vehicle 100 on the OGM 0 , but the present invention is not limited to this.

移動車両領域は、検出誤差を加味してOGM0上における自車両100よりも大きい領域としてもよいし、検出誤差を加味して小さい領域としてもよい。また、例えば、移動車両領域は、自車両100の後ろ半分や自車両100の後ろ四分の一といったように、OGM0上における自車両100の前後方向における一部の形状及び大きさと同一に設定されてもよい。このように、移動体領域は、OGM0上における移動立体物そのものを表す領域の少なくとも一部を含む。 The moving vehicle region may be a region larger than the host vehicle 100 on the OGM 0 in consideration of the detection error, or may be a small region in consideration of the detection error. Also, for example, the moving vehicle area is set to the same shape and size as a part of the own vehicle 100 on the OGM 0 in the front-rear direction, such as the rear half of the own vehicle 100 and the rear quarter of the own vehicle 100. It may be done. Thus, the moving object region comprises at least a portion of a region representing a moving three-dimensional object itself on OGM 0.

上記ベースマップにおいて、移動立体物を表すグリッドには、存在確率αまたは存在確率Mが存在確率として記憶されている。本S130では、信号処理ECU10は、移動立体物を表すグリッドに記憶する存在確率を存在確率βに、すなわち0に、更新する。このようにして、OGM0が生成される。生成されたOGM0は、メモリに記憶される。信号処理ECU10は、以上でマップ生成処理を終了し、処理をS60へ移行させる。 In the base map, the presence probability α or the presence probability M is stored as a presence probability in the grid representing the moving solid. In S130, the signal processing ECU 10 updates the presence probability stored in the grid representing the moving three-dimensional object to the presence probability β, that is, 0. Thus, OGM 0 is generated. The generated OGM 0 is stored in the memory. Above, the signal processing ECU 10 ends the map generation processing, and shifts the processing to S60.

図2に戻り、説明を続ける。信号処理ECU10は、S60では、OGMの更新を行う。具体的には、図8に示すように、信号処理ECU10は、OGM-1とOGM0とを重ね合わせたものを、新たなOGM0としてメモリに記憶する。なお、図8に示す実環境では、自車両100の前方に移動車両が存在し、該移動車両は時間t-1から時間t0の間に移動している。このため、補正後のOGM-1では、移動車両の軌跡による領域に対応するグリッドに存在確率βが記憶される。該補正後のOGM-1と、時間t0における実環境に対応するOGM0とが重ね合わされて、更新後の新たなOGM0が生成される。 Return to FIG. 2 and continue the description. The signal processing ECU 10 updates the OGM in S60. Specifically, as shown in FIG. 8, the signal processing ECU 10 stores, as a new OGM 0 , a combination of OGM- 1 and OGM 0 in the memory. In the real environment of FIG. 8, a moving vehicle is present ahead of the host vehicle 100, the mobile vehicle is moving between the time t -1 time t 0. For this reason, in the corrected OGM- 1 , the existence probability β is stored in the grid corresponding to the area according to the trajectory of the moving vehicle. The corrected OGM- 1 and the OGM 0 corresponding to the real environment at time t 0 are superimposed to generate a new updated OGM 0 .

続いて、信号処理ECU10は、S70では、OGM0において、存在確率が走行領域閾値未満であるグリッドを走行可能領域として特定する。
これにより、図9に示すように、「路面上の点」として観測された観測点を含むグリッドが走行可能領域として特定される。更に、移動立体物を表す領域の少なくとも一部を含む領域、具体的には移動車両領域が走行可能領域として特定される。
Subsequently, at S70, the signal processing ECU 10 specifies, in OGM 0 , a grid whose presence probability is less than the travel area threshold as the travelable area.
Thereby, as shown in FIG. 9, the grid including the observation point observed as "a point on the road surface" is specified as the travelable area. Furthermore, an area including at least a part of the area representing the moving solid, specifically, the moving vehicle area is specified as the drivable area.

なお、信号処理ECU10は、OGM0において静止物を特定してもよい。具体的には、信号処理ECU10は、所定の静止物閾値以上である存在確率が記憶されたグリッドを、静止物を表す領域として特定する。静止物閾値は、存在確率Mより大きい値であり、且つ、存在確率α以上の値に設定され得る。また、信号処理ECU10は、OGM0において、走行可能領域及び静止物を表す領域以外の領域を不明領域である、と特定してもよい。以上で、信号処理ECU10は領域判定処理を終了する。 Note that the signal processing ECU 10 may specify a stationary object in OGM 0 . Specifically, the signal processing ECU 10 specifies a grid in which the presence probability that is equal to or more than a predetermined stationary object threshold is stored as a region representing the stationary object. The stationary object threshold is a value larger than the presence probability M and can be set to a value equal to or more than the presence probability α. Further, the signal processing ECU 10 may specify, in the OGM 0 , an area other than the travelable area and the area representing the stationary object as the unknown area. Above, signal processing ECU10 ends field judging processing.

[3.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(3a)信号処理ECU10は、S10では、検出情報を取得する。信号処理ECU10は、S40では、検出情報に基づき、立体物が移動立体物であることを特定する。信号処理ECU10は、S50では、OGMを走行可能領域を表すマップとして生成し、該マップにおいて移動立体物を表す領域の少なくとも一部を含む領域、を走行可能領域として表す。
[3. effect]
According to the embodiment described above, the following effects can be obtained.
(3a) The signal processing ECU 10 acquires detection information in S10. In S40, the signal processing ECU 10 specifies that the three-dimensional object is a moving three-dimensional object based on the detection information. In S50, the signal processing ECU 10 generates the OGM as a map representing the travelable area, and represents an area including at least a part of the area representing the moving three-dimensional object in the map as the travelable area.

その結果、検出情報に基づいて遠方において移動立体物が検出された場合には該移動立体物を表す領域の少なくとも一部を含む領域が走行可能領域と特定されるので、遠方における走行可能領域を、走行可能領域を表すマップ上で従来技術よりも精度良く特定することができる。   As a result, when a moving solid is detected at a distance based on the detection information, a region including at least a part of the region representing the moving solid is identified as the travelable region, so , And can be specified more accurately on the map representing the travelable area than the prior art.

ここで、信号処理ECU10と比較するための装置であって、立体物を静止物と移動立体物とに区別せず、立体物が存在する領域を走行可能領域として特定しないように構成された比較装置を想定する。該比較装置では、例えば図5に示すように、自車両前方の坂道上に移動立体物としての移動車両が存在する場合、移動車両を単に立体物として特定するので、該移動車両を表す領域、すなわち坂道上の領域を、マップ上における走行可能領域として特定することができない。   Here, it is an apparatus for comparing with signal processing ECU10, Comprising: The comparison which was not comprised so that a solid thing was not distinguished to a stationary object and a moving solid thing, and the area | region where a solid thing existed was not specified as a traveling possible area | region Assume a device. In the comparison device, for example, as shown in FIG. 5, when a moving vehicle as a moving three-dimensional object is present on a slope ahead of the own vehicle, the moving vehicle is simply identified as a three-dimensional object. That is, the area on the slope can not be identified as the travelable area on the map.

一方、信号処理ECU10は、立体物を静止物と移動立体物とに区別して移動立体物が存在する領域を走行可能領域として特定する。このため信号処理ECU10は、例えば図5に示すように、自車両前方の坂道上に移動立体物としての移動車両が存在する場合、該移動車両を表す領域、すなわち坂道上の領域を、マップ上における走行可能領域として特定することができる。   On the other hand, the signal processing ECU 10 distinguishes a three-dimensional object into a stationary object and a moving three-dimensional object, and specifies an area in which a moving three-dimensional object is present as a travelable area. For this reason, as shown in FIG. 5, for example, when there is a moving vehicle as a moving solid object on the slope ahead of the own vehicle as shown in FIG. 5, the area representing the moving vehicle, ie, the area on the slope Can be identified as the drivable area in

このように、信号処理ECU10は、自車両前方の坂道を、精度良く特定することができる。
(3b)走行可能領域を表すマップは複数のグリッドを含む。信号処理ECU10は、S120では、存在確率をグリッド毎に算出し、上記マップであって存在確率をグリッド毎に記憶したOGMを生成する。信号処理ECU10は、S130では、OGMにおいて、移動立体物を表すグリッドに記憶する存在確率を、立体物が存在しない場合の存在確率に近い値であって所定の走行領域閾値未満の値に更新する。信号処理ECU10は、S70では、OGMにおいて、存在確率が走行領域閾値未満であるグリッドを走行可能領域として特定する。
Thus, the signal processing ECU 10 can specify a slope ahead of the host vehicle with high accuracy.
(3b) The map representing the travelable area includes a plurality of grids. In S120, the signal processing ECU 10 calculates the presence probability for each grid, and generates an OGM that is the above map and stores the presence probability for each grid. In S130, the signal processing ECU 10 updates, in the OGM, the existing probability stored in the grid representing the moving three-dimensional object to a value close to the existing probability when no three-dimensional object is present and less than a predetermined traveling area threshold. . In S70, the signal processing ECU 10 specifies, in the OGM, a grid whose existence probability is less than the travel area threshold as the travelable area.

その結果、自車両の走行環境を確率で表すOGM上において走行可能領域を特定することができる。
(3c)信号処理ECU10において、走行領域閾値は、立体物が存在する場合の存在確率αと、立体物が存在しない場合の存在確率βとの中間的な値Mよりも小さい値である。
As a result, it is possible to specify a drivable area on the OGM that represents the traveling environment of the host vehicle by probability.
(3c) In the signal processing ECU 10, the traveling area threshold value is a value smaller than an intermediate value M between the existence probability α when there is a three-dimensional object and the existence probability β when there is no three-dimensional object.

その結果、走行領域閾値を用いた閾値判定によって、立体物が存在しない場合の存在確率により近い存在確率を表す領域を走行可能領域を特定することができる。
(3d)信号処理ECU10は、S130では、占有グリッドマップにおいて、移動立体物を表すグリッドに記憶する存在確率を、立体物が無いことを表す存在確率β、具体的には0、とするように構成されている。その結果、移動立体物を表すグリッドを、確実に、走行可能領域として特定することができる。
As a result, it is possible to specify an area representing an existence probability closer to the existence probability in the absence of a three-dimensional object by threshold determination using a traveling area threshold value.
(3d) In S130, the signal processing ECU 10 sets the presence probability stored in the grid representing the moving solid in the occupancy grid map to the presence probability β, specifically 0, indicating that there is no solid. It is configured. As a result, the grid representing the moving three-dimensional object can be reliably identified as the travelable area.

なお、上記実施形態において、信号処理ECU10が走行環境認識装置、情報取得部、属性特定部、マップ生成部、グリッドマップ部、更新部、領域特定部に相当し、周辺監視
センサ20が検出装置に相当する。また、S10が情報取得部としての処理に相当し、S40が属性特定部としての処理に相当し、S50がマップ生成部としての処理に相当し、S70が領域特定部としての処理に相当する。S120がグリッドマップ部としての処理に相当し、S130が更新部としての処理に相当する。また、占有グリッドマップが、マップ、グリッドマップに相当する。
In the above embodiment, the signal processing ECU 10 corresponds to a traveling environment recognition device, an information acquisition unit, an attribute identification unit, a map generation unit, a grid map unit, an update unit, and an area identification unit. Equivalent to. Also, S10 corresponds to processing as an information acquisition unit, S40 corresponds to processing as an attribute identification unit, S50 corresponds to processing as a map generation unit, and S70 corresponds to processing as an area identification unit. S120 corresponds to processing as a grid map unit, and S130 corresponds to processing as an updating unit. Also, the exclusive grid map corresponds to the map and the grid map.

[4.変形例]
(4a)変形例1
信号処理ECU10では、更新部は、特定精度を取得し、移動立体物を表すグリッドに記憶する存在確率を、前記特定精度が大きいほど小さく算出するように構成されていてもよい。特定精度とは、属性特定部が移動立体物を特定する正確さの度合いを表す値であって、正確であるほど大きい値で表される値である。
[4. Modified example]
(4a) Modified Example 1
In the signal processing ECU 10, the updating unit may be configured to obtain the identification accuracy and calculate the presence probability stored in the grid representing the moving three-dimensional object smaller as the identification accuracy is larger. The identification accuracy is a value that represents the degree of accuracy with which the attribute identification unit identifies a moving solid object, and is a value represented by a larger value as the accuracy is higher.

その結果、特定精度が大きいほど、移動立体物を表す領域が走行可能領域として特定され易くすることができる。
具体的には、信号処理ECU10では、情報取得部は、検出情報を繰り返し取得するように構成されていてもよい。更新部は、検出情報に基づいて移動立体物が連続して検出されている回数を特定し、移動立体物が連続して検出されている回数が多いほど特定精度を大きい値とするように構成されてもよい。そして、更新部は、該特定精度に基づいて、移動立体物を表すグリッドに記憶する存在確率を算出するように構成されていてもよい。
As a result, the larger the identification accuracy, the easier the area representing the moving three-dimensional object can be identified as the travelable area.
Specifically, in the signal processing ECU 10, the information acquisition unit may be configured to repeatedly acquire the detection information. The updating unit is configured to specify the number of times the moving solid is continuously detected based on the detection information, and set the specific accuracy to a larger value as the number of times the moving solid is continuously detected is larger. It may be done. Then, the updating unit may be configured to calculate the presence probability stored in the grid representing the moving three-dimensional object based on the specific accuracy.

その結果、移動立体物が連続して検出されている回数が多いほど特定精度が大きくなり、移動体を表すグリッドに記憶する存在確率が小さく算出される。つまり、移動立体物が連続して検出されている回数が多いほど、該移動立体物を表す領域が走行可能領域として特定され易くすることができる。   As a result, as the number of times in which the moving three-dimensional object is continuously detected increases, the identification accuracy increases, and the presence probability stored in the grid representing the moving object is calculated to be small. That is, as the number of times in which the moving three-dimensional object is detected continuously increases, the region representing the moving three-dimensional object can be easily identified as the travelable region.

(4b)変形例2
信号処理ECU10では、属性特定部は、移動立体物が、自車両と同一の大きさであることを特定するように構成されていてもよい。そして、更新部は、自車両と同一の大きさであると特定された移動立体物を表すグリッドに記憶する存在確率を、自車両と同一の大きさであると特定されなかった移動立体物を表すグリッドに記憶する存在確率よりも小さくする、ように構成されてもよい。
(4b) Modification 2
In the signal processing ECU 10, the attribute specifying unit may be configured to specify that the moving three-dimensional object has the same size as the host vehicle. Then, the updating unit stores the existing probability stored in the grid representing the moving three-dimensional object specified as the same size as the own vehicle as the moving three-dimensional object not specified as the same size as the own vehicle. It may be configured to be smaller than the existence probability stored in the grid to be represented.

その結果、自車両にとって大きすぎることが無く、また自車両にとって小さすぎることが無いように、OGMにおける自車両にとっての走行可能領域を精度よく特定することができる。   As a result, it is possible to accurately specify the drivable area for the host vehicle in the OGM so that the host vehicle is neither too large nor too small for the host vehicle.

(4c)変形例3
信号処理ECU10では、領域特定部は、占有グリッドマップを表す画像であって、占有グリッドマップ上に走行領域を表した画像、を生成し、生成した画像を表示装置60に表示させるように構成されてもよい。また、信号処理ECU10では、領域特定部は、OGM又はOGMにおける走行可能領域の認識結果を車両制御装置50に出力するように構成されてもよい。
(4c) Modification 3
In the signal processing ECU 10, the area specifying unit is configured to generate an image representing the travel area on the occupied grid map, and to display the generated image on the display device 60. May be Further, in the signal processing ECU 10, the area specifying unit may be configured to output the recognition result of the OGM or the travelable area in the OGM to the vehicle control device 50.

(4d)変形例4
信号処理ECU10では、複数の移動立体物、例えば図10や図11に示すように、自車両100の周囲に複数の移動車両が存在する場合も、上記実施形態と同様にして、マップ上において走行可能領域を特定してもよい。具体的には、信号処理ECU10は、上記実施形態と同様にして、ベースマップを生成し、該ベースマップにおける複数の移動車両それぞれを表すグリッドに記憶する存在確率を更新してもよい。
(4d) Modification 4
In the signal processing ECU 10, even when there are a plurality of moving solid objects, for example, a plurality of moving vehicles around the own vehicle 100 as shown in FIG. 10 and FIG. The possible area may be specified. Specifically, the signal processing ECU 10 may generate a base map and update the presence probability stored in the grid representing each of the plurality of moving vehicles in the base map, as in the above embodiment.

その結果、例えば図10に示すような自車両100がレーンチェンジを行おうとする時や、例えば図11に示すような自車両100の左折時に、自車両100の周囲に複数の移動車両が存在する場合においても、OGM上における走行可能領域を特定することができる。   As a result, for example, when the host vehicle 100 as shown in FIG. 10 attempts to make a lane change, or when the host vehicle 100 turns left as shown in FIG. Also in the case, the drivable area on the OGM can be specified.

[5.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[5. Other embodiments]
As mentioned above, although embodiment of this indication was described, this indication can be variously deformed and implemented, without being limited to the above-mentioned embodiment.

(5a)上記実施形態では、OGMを走行可能領域を表すマップとして生成したが、走行可能領域を表すマップはこれに限定されるものではない。例えば、信号処理ECU10は、地図データに基づいて作成されたマップ上において移動立体物を表す領域を走行可能領域として特定したマップ、を上記マップとして生成してもよい。   (5a) In the above-mentioned embodiment, although OGM was generated as a map showing a run possible area, a map showing a run possible area is not limited to this. For example, the signal processing ECU 10 may generate, as the map, a map in which an area representing a moving three-dimensional object is specified as a travelable area on a map created based on map data.

(5b)上記実施形態では、LIDARが周辺監視センサ20として用いられたが、これに限定されるものではない。例えば、レーダが周辺監視センサ20として用いられてもよい。また例えば、単眼カメラやステレオカメラが、周辺監視センサ20として用いられてもよい。   (5b) Although LIDAR is used as the periphery monitoring sensor 20 in the above embodiment, the present invention is not limited to this. For example, a radar may be used as the perimeter monitoring sensor 20. Further, for example, a monocular camera or a stereo camera may be used as the periphery monitoring sensor 20.

(5c)上記実施形態では、信号処理ECU10は、自車両前方の走行可能領域を特定するよう構成されていたが、これに限定されるものではない。信号処理ECU10は、自車両後方、自車両右、自車両左等といった、自車両の周囲であって自車両に対する任意方向における移動立体物を特定し、走行可能領域を特定するように構成されてもよい。   (5c) In the above embodiment, the signal processing ECU 10 is configured to identify the travelable area in front of the host vehicle. However, the present invention is not limited to this. The signal processing ECU 10 is configured to identify a movable three-dimensional object in an arbitrary direction with respect to the host vehicle, such as the host vehicle backward, the host vehicle right, the host vehicle left, etc. It is also good.

(5d)上記実施形態では、自車両に搭載された信号処理ECU10が、走行領域検出処理を実施し、マップ上における自車両100の走行可能領域を特定する例を説明したが、これに限定されるものではない。図1にて点線で示すように、自車両に搭載された無線通信機70と無線通信可能なサーバ9が、マップ上における自車両100の走行可能領域を特定するように構成されてもよい。サーバ9は、自車両の外部に設置されており、CPU、ROMやRAM等といったメモリ、を備える電子制御装置を備える。また、無線通信機70と無線通信可能な通信機を備える。   (5d) In the above embodiment, the signal processing ECU 10 mounted on the host vehicle performs the traveling area detection process to identify the travelable area of the host vehicle 100 on the map, but the present invention is limited thereto. It is not a thing. As indicated by a dotted line in FIG. 1, the server 9 capable of wirelessly communicating with the wireless communication device 70 mounted on the host vehicle may be configured to specify the travelable area of the host vehicle 100 on the map. The server 9 is installed outside the host vehicle, and includes an electronic control unit including a CPU, a memory such as a ROM, a RAM, and the like. In addition, a communication device capable of wireless communication with the wireless communication device 70 is provided.

この場合、サーバ9が、図2に示す走行領域検出処理と同様の処理を実施するように構成されてもよい。ここで、信号処理ECU10は、各種センサの検出結果を、無線通信機70を介してサーバ9へ送信するように構成されてもよい。各種センサの検出結果には、例えば、周辺監視センサ20からの検出情報に基づく点群データや、車速センサ30及びヨーレートセンサ40の検出結果が含まれる。   In this case, the server 9 may be configured to perform the same process as the traveling area detection process shown in FIG. Here, the signal processing ECU 10 may be configured to transmit detection results of various sensors to the server 9 via the wireless communication device 70. The detection results of the various sensors include, for example, point cloud data based on detection information from the surrounding area monitoring sensor 20 and detection results of the vehicle speed sensor 30 and the yaw rate sensor 40.

一方、サーバ9は、図2のS10に代えて、受信した検出情報を取得するように構成されてもよい。また、サーバ9は、受信した検出情報に基づいて、図2のS20−S70の処理を実行し、OGM上における走行可能領域を特定するように構成されてもよい。そして、サーバ9は、OGM上における走行可能領域を表す情報を、無線通信機70へ送信するように構成されてもよい。   On the other hand, the server 9 may be configured to acquire the received detection information instead of S10 of FIG. In addition, the server 9 may be configured to execute the processing of S20 to S70 of FIG. 2 based on the received detection information, and specify a travelable area on the OGM. Then, the server 9 may be configured to transmit information representing the travelable area on the OGM to the wireless communication device 70.

信号処理ECU10は、サーバ9から無線通信機70を介して、OGM上における走行可能領域を表す情報を取得し、該情報に基づいて、車両制御装置50や表示装置60への指示を出力するように構成されてもよい。   The signal processing ECU 10 acquires information representing a travelable area on the OGM from the server 9 via the wireless communication device 70, and outputs an instruction to the vehicle control device 50 or the display device 60 based on the information. May be configured.

(5e)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素
によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
(5e) The multiple functions of one component in the above embodiment may be realized by multiple components, or one function of one component may be realized by multiple components. . Also, a plurality of functions possessed by a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by one component. In addition, part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above-described embodiment may be added to or replaced with the configuration of the other above-described embodiment. In addition, all the aspects contained in the technical thought specified from the wording described in the claim are an embodiment of this indication.

(5f)上述した信号処理ECU10、走行環境認識システム1、サーバ9の他、信号処理ECU10を機能させるためのプログラム、サーバ9を機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、走行環境認識方法など、種々の形態で本開示を実現することもできる。   (5f) A program for causing the signal processing ECU 10 to function in addition to the signal processing ECU 10, the traveling environment recognition system 1, and the server 9 described above, a program for causing the server 9 to function, non transition of semiconductor memory etc. The present disclosure can also be realized in various forms, such as physical recording media and driving environment recognition methods.

10 信号処理ECU、20 周辺環境センサ。   10 signal processing ECU, 20 ambient environment sensors.

Claims (9)

走行環境認識装置(10)であって、
車両の周囲において前記車両の走行の障害となる物体を表す立体物を検出する検出装置(20)からの情報を表す検出情報を取得する情報取得部(S10)と、
前記検出情報に基づき、前記立体物が移動体であることを特定する属性特定部(S40)と、
前記車両が走行可能な領域である走行可能領域を表すマップを生成するマップ生成部であって、前記マップにおいて、前記属性特定部で前記移動体であると特定された前記立体物である移動立体物を表す領域の少なくとも一部を含む領域、を前記走行可能領域として表すマップ生成部(S50)と、
を備える走行環境認識装置。
A traveling environment recognition device (10),
An information acquisition unit (S10) for acquiring detection information representing information from a detection device (20) for detecting a three-dimensional object representing an object that obstructs the traveling of the vehicle around the vehicle;
An attribute specifying unit (S40) for specifying that the three-dimensional object is a moving object based on the detection information;
A map generation unit that generates a map representing a travelable area, which is an area in which the vehicle can travel, and in the map, a movable solid that is the solid object identified as the moving object by the attribute identification unit A map generation unit (S50) representing an area including at least a part of an area representing an object as the travelable area;
A traveling environment recognition device comprising:
請求項1に記載の走行環境認識装置であって、
前記マップは複数のグリッドを含み、
前記マップ生成部は、
前記検出情報に基づき、前記立体物が存在する確率であって前記立体物が存在する場合に前記立体物が存在しない場合よりも大きく設定される存在確率を前記グリッド毎に算出し、前記マップであって前記存在確率を前記グリッド毎に記憶したグリッドマップ、を生成するグリッドマップ部(S120)と、
前記グリッドマップにおいて、前記移動立体物を表す前記グリッドに記憶する前記存在確率を、前記立体物が存在しない場合の存在確率に近い値に更新するように構成された更新部(S130)と、
を備え、
当該走行環境認識装置は、
前記グリッドマップにおいて、存在確率が走行領域閾値未満である前記グリッドを前記走行可能領域として特定する領域特定部(S70)
を更に備える走行環境認識装置。
The traveling environment recognition device according to claim 1, wherein
The map comprises a plurality of grids,
The map generation unit
Based on the detection information, an existence probability which is a probability that the three-dimensional object exists and which is set larger when the three-dimensional object is present than when the three-dimensional object does not exist is calculated for each grid. A grid map unit (S120) for generating a grid map which stores the existence probability for each grid;
An updating unit (S130) configured to update the presence probability stored in the grid representing the moving three-dimensional object to a value close to the presence probability when the three-dimensional object does not exist in the grid map;
Equipped with
The driving environment recognition device
An area specifying unit (S70) for specifying the grid having the existence probability less than the travel area threshold in the grid map as the travelable area
A traveling environment recognition device further comprising:
請求項2に記載の走行環境認識装置であって、
前記走行領域閾値は、前記立体物が存在する場合の存在確率と、前記立体物が存在しない場合の存在確率との中間的な値よりも小さい値である
走行環境認識装置。
The traveling environment recognition device according to claim 2,
The traveling environment recognition device, wherein the traveling area threshold value is a value smaller than an intermediate value between the existence probability when the three-dimensional object exists and the existence probability when the three-dimensional object does not exist.
請求項2又は請求項3に記載の走行環境認識装置であって、
前記更新部は、前記属性特定部が前記移動立体物を特定する正確さの度合いを表す値であって正確であるほど大きい値で表される特定精度を取得し、前記移動立体物を表すグリッドに記憶する存在確率を、前記特定精度が大きいほど小さく算出するように構成された
走行環境認識装置。
The traveling environment recognition device according to claim 2 or 3, wherein
The update unit is a value representing a degree of accuracy in which the attribute specification unit specifies the moving solid object, and acquires a specification accuracy represented by a larger value as the accuracy is higher, and a grid representing the moving solid object A traveling environment recognition device configured to calculate an existing probability stored in the smaller as the specific accuracy is larger.
請求項4に記載の走行環境認識装置であって、
前記情報取得部は前記検出情報を繰り返し取得するように構成されており、
前記更新部は、前記検出情報に基づいて前記検出装置によって前記移動立体物が連続して検出されている回数を特定し、前記移動立体物が連続して検出されている回数が多いほど前記特定精度を大きい値とし、該特定精度に基づいて前記移動立体物を表すグリッドに記憶する存在確率を算出するように構成された
走行環境認識装置。
The driving environment recognition apparatus according to claim 4, wherein
The information acquisition unit is configured to repeatedly acquire the detection information;
The updating unit specifies the number of times the moving solid object is continuously detected by the detection device based on the detection information, and the specification is performed as the number of times the moving solid object is continuously detected is larger. A traveling environment recognition device configured to calculate a presence probability stored in a grid representing the moving three-dimensional object based on the specified accuracy, with a large value of accuracy.
請求項2から請求項5のいずれか一項に記載の環境認識装置であって、
前記属性特定部は、前記移動立体物が、前記車両と同一の大きさであることを特定する
ように構成されており、
前記更新部は、前記車両と同一の大きさであると特定された前記移動立体物を表す前記グリッドに記憶する存在確率を、前記車両と同一の大きさであると特定されなかった前記移動立体物を表す前記グリッドに記憶する存在確率よりも小さくするように構成された
走行環境認識装置。
The environment recognition device according to any one of claims 2 to 5, wherein
The attribute specifying unit is configured to specify that the moving solid object has the same size as the vehicle.
The mobile stereo not having the same size as the vehicle identified as the presence probability stored in the grid representing the mobile solid identified to be the same size as the vehicle. A traveling environment recognition device configured to be smaller than an existence probability stored in the grid representing an object.
請求項2に記載の走行環境認識装置であって、
前記更新部は、前記グリッドマップにおいて、前記移動立体物を表すグリッドに記憶する存在確率を、前記立体物が無いことを表す存在確率とするように構成された
走行環境認識装置。
The traveling environment recognition device according to claim 2,
The traveling environment recognition device according to claim 1, wherein the updating unit is configured to set the presence probability stored in the grid representing the moving three-dimensional object in the grid map as the presence probability indicating that the three-dimensional object is absent.
車両の周囲において前記車両の走行の障害となる物体を表す立体物を検出する検出装置(20)からの情報を表す検出情報を取得し、
前記検出情報に基づき、前記立体物が移動体であることを特定し、
前記車両が走行可能な領域である走行可能領域を表すマップを生成し、前記マップにおいて、前記属性特定部で前記移動体であると特定された前記立体物である移動立体物を表す領域の少なくとも一部を含む領域、を前記走行可能領域として表す
走行環境認識方法。
Acquiring detection information representing information from a detection device (20) for detecting a three-dimensional object representing an object that obstructs the traveling of the vehicle around the vehicle;
Identifying that the three-dimensional object is a moving object based on the detection information;
A map representing a drivable area, which is an area in which the vehicle can travel, is generated, and at least at least the area representing the movable three-dimensional object which is the three-dimensional object specified by the attribute specification unit in the map. A travel environment recognition method, wherein an area including a part is represented as the travelable area.
車両の周囲において前記車両の走行の障害となる物体を表す立体物を検出する検出装置(20)からの情報を表す検出情報を取得する情報取得部(S10)と、
前記検出情報に基づき、前記立体物が移動体であることを特定する属性特定部(S40)と、
前記車両が走行可能な領域である走行可能領域を表すマップを生成するマップ生成部であって、前記マップにおいて、前記属性特定部で前記移動体であると特定された前記立体物である移動立体物を表す領域の少なくとも一部を含む領域、を前記走行可能領域として表すマップ生成部(S50)として、
コンピュータを機能させるプログラム。
An information acquisition unit (S10) for acquiring detection information representing information from a detection device (20) for detecting a three-dimensional object representing an object that obstructs the traveling of the vehicle around the vehicle;
An attribute specifying unit (S40) for specifying that the three-dimensional object is a moving object based on the detection information;
A map generation unit that generates a map representing a travelable area, which is an area in which the vehicle can travel, and in the map, a movable solid that is the solid object identified as the moving object by the attribute identification unit As a map generation unit (S50) representing an area including at least a part of an area representing an object as the travelable area,
A program that makes a computer function.
JP2017168536A 2017-09-01 2017-09-01 Driving environment recognition device, driving environment recognition method, program Active JP7081098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017168536A JP7081098B2 (en) 2017-09-01 2017-09-01 Driving environment recognition device, driving environment recognition method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017168536A JP7081098B2 (en) 2017-09-01 2017-09-01 Driving environment recognition device, driving environment recognition method, program

Publications (2)

Publication Number Publication Date
JP2019046147A true JP2019046147A (en) 2019-03-22
JP7081098B2 JP7081098B2 (en) 2022-06-07

Family

ID=65815726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017168536A Active JP7081098B2 (en) 2017-09-01 2017-09-01 Driving environment recognition device, driving environment recognition method, program

Country Status (1)

Country Link
JP (1) JP7081098B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021060018A1 (en) * 2019-09-25 2021-04-01 ソニー株式会社 Signal processing device, signal processing method, program, and moving device
JP2021060943A (en) * 2019-10-09 2021-04-15 日産自動車株式会社 Occupation map creation method and occupation map creation device
JP7343446B2 (en) 2020-06-16 2023-09-12 Kddi株式会社 Model generation device, method and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048642A (en) * 2010-08-30 2012-03-08 Denso Corp Travel environment recognition device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048642A (en) * 2010-08-30 2012-03-08 Denso Corp Travel environment recognition device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAOKI SUGANUMA, ET AL: "Robust environment perception based on occupancy grid maps for autonomous vehicle", PROCEEDINGS OF SICE ANNUAL CONFERENCE 2010, JPN6021038009, 2010, US, pages 2354 - 2357, XP031775744, ISSN: 0004709969 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021060018A1 (en) * 2019-09-25 2021-04-01 ソニー株式会社 Signal processing device, signal processing method, program, and moving device
CN114424265A (en) * 2019-09-25 2022-04-29 索尼集团公司 Signal processing device, signal processing method, program, and mobile device
US20220383749A1 (en) * 2019-09-25 2022-12-01 Sony Group Corporation Signal processing device, signal processing method, program, and mobile device
JP2021060943A (en) * 2019-10-09 2021-04-15 日産自動車株式会社 Occupation map creation method and occupation map creation device
JP7344743B2 (en) 2019-10-09 2023-09-14 日産自動車株式会社 Occupancy map creation method and occupancy map creation device
JP7343446B2 (en) 2020-06-16 2023-09-12 Kddi株式会社 Model generation device, method and program

Also Published As

Publication number Publication date
JP7081098B2 (en) 2022-06-07

Similar Documents

Publication Publication Date Title
US11860640B2 (en) Signal processing device and signal processing method, program, and mobile body
JP5206752B2 (en) Driving environment recognition device
US11948249B2 (en) Bounding box estimation and lane vehicle association
US20180068459A1 (en) Object Distance Estimation Using Data From A Single Camera
US10325163B2 (en) Vehicle vision
US11544940B2 (en) Hybrid lane estimation using both deep learning and computer vision
WO2019026715A1 (en) Control device, control method, program, and mobile unit
JP2010003254A (en) Image processing apparatus
JP7077967B2 (en) Driving lane estimation device, driving lane estimation method, and control program
JP6453701B2 (en) Posture estimation device
JP2023126642A (en) Information processing device, information processing method, and information processing system
JP2011253302A (en) Risk calculation device for vehicle
US11400923B2 (en) Information processing device, vehicle control device, and mobile object control method
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
US20220205804A1 (en) Vehicle localisation
JP2023095904A (en) Self-position estimation device
JP2017194830A (en) Automatic operation control system for moving body
JP2016176736A (en) Image distance measuring device
JP2018185156A (en) Target position estimation method and target position estimation device
JP7028838B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP6705271B2 (en) Automatic operation control system for mobile
JP2024031063A (en) Vehicle control device, vehicle control method, and vehicle control computer program
CN118144670A (en) Method and apparatus for adaptive high beam control of a vehicle
CN112824997A (en) Method and system for local lane of travel perception
CN117991205A (en) Method and device for determining radar pitch angle, computer equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220509

R151 Written notification of patent or utility model registration

Ref document number: 7081098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151