JP2017166971A - Object detection device and object detection program - Google Patents

Object detection device and object detection program Download PDF

Info

Publication number
JP2017166971A
JP2017166971A JP2016052311A JP2016052311A JP2017166971A JP 2017166971 A JP2017166971 A JP 2017166971A JP 2016052311 A JP2016052311 A JP 2016052311A JP 2016052311 A JP2016052311 A JP 2016052311A JP 2017166971 A JP2017166971 A JP 2017166971A
Authority
JP
Japan
Prior art keywords
cell
dimensional
estimated
dimensional object
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016052311A
Other languages
Japanese (ja)
Other versions
JP6756124B2 (en
Inventor
雅能 寺部
Masano Terabe
雅能 寺部
敦史 北山
Atsushi Kitayama
敦史 北山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016052311A priority Critical patent/JP6756124B2/en
Publication of JP2017166971A publication Critical patent/JP2017166971A/en
Application granted granted Critical
Publication of JP6756124B2 publication Critical patent/JP6756124B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device and an object detection program designed to improve the accuracy of detecting even a black object of low reflectivity when such an object exists on a road.SOLUTION: A control device of the present invention acquires distance information in front of the own vehicle by a three-dimensional distance detection unit such as a laser radar (S2), and maps it to a bird's eye view grid (S3). The control device detects a cell in which a solid object exists from point cloud information (S4, S5), and detects a road surface with respect to a cell at a position closer than is the cell (S6, S7). The control device calculates an estimated solid object by an expression (A) with respect to an unspotted cell (S8, S9), and sets an estimated weight (S10). The control device converts the bird's eye view grid to a static grid (S11) and applies similar processing after the own vehicle moves, and thereby adds solid object probability (S12). In this way, it is possible to determine for even an unspotted cell that a solid object exists, providing that there is an increase in the solid object probability.SELECTED DRAWING: Figure 5

Description

本発明は、物体検出装置および物体検出プログラムに関する。   The present invention relates to an object detection device and an object detection program.

車両が道路を走行する際に前方に存在する立体物をLIDAR(light detection and ranging ,laser imaging detection and ranging ;レーザレーダ)を用いて検出する物体検出装置がある。例えば自動車の車室前面部にレーザレーダを設けて、前方の路面に向けて照射してその反射光により距離を測定している。   2. Description of the Related Art There is an object detection device that detects a three-dimensional object existing ahead when a vehicle travels on a road by using LIDAR (light detection and ranging, laser imaging detection and ranging; laser radar). For example, a laser radar is provided in the front part of a passenger compartment of an automobile, and the distance is measured by the reflected light by irradiating the road surface ahead.

自車から前方の様々な方向に向けて測定点までの距離を検出し、距離が等しい測定点が複数存在する場合に、その高さ寸法を算出することで前方の立体物の存在を検出することができる。この場合、立体物の存在は反射光による距離情報により検出しているが、投光先の路面までの距離情報が得られる場合には車両と立体物との間においては立体物の存在が検出されていないことから、路面であると判断することができる。   Detect the distance to the measurement point from the host vehicle in various directions ahead, and if there are multiple measurement points with the same distance, detect the presence of the three-dimensional object ahead by calculating the height dimension. be able to. In this case, the presence of the three-dimensional object is detected by the distance information based on the reflected light, but if the distance information to the road surface of the projection destination is obtained, the presence of the three-dimensional object is detected between the vehicle and the three-dimensional object. Since it is not done, it can be determined that the road surface.

しかし、実際には路上に反射率が低い黒い物体や反射光が投光側に戻らない物体などが存在すると、距離情報が得られていない場合や十分な距離情報の個数が得られていない領域が発生することが想定される。そして、この場合には立体物が存在していても検出できない場合が生じ、立体物が検出されないために路面であると誤判定してしまうおそれがあった。   However, if there is actually a black object with low reflectivity on the road or an object that does not return reflected light to the light projection side, the area where distance information is not obtained or the number of sufficient distance information is not obtained Is assumed to occur. In this case, even if a three-dimensional object is present, there is a case where it cannot be detected, and since the three-dimensional object is not detected, there is a possibility that the road surface is erroneously determined.

特開2013−140515号公報JP 2013-140515 A

本発明は、上記事情を考慮してなされたもので、その目的は、反射光による距離情報が得られない領域が存在する場合に、この領域が立体物を含むか否かを推定することができるようにした物体検出装置および物体検出プログラムを提供することにある。   The present invention has been made in view of the above circumstances, and its purpose is to estimate whether or not this region includes a three-dimensional object when there is a region where distance information by reflected light cannot be obtained. It is an object to provide an object detection apparatus and an object detection program that can be used.

請求項1に記載の物体検出装置は、自車両の少なくとも前方の3次元距離情報を取得する3次元距離検出部(3)と、前記3次元距離検出部の視点を基準とする鳥瞰グリッドで区切ったセル毎に前記3次元距離情報に基づいて立体物の有無を検出する立体物検出部(4)と、前記立体物が存在する場合に、前記自車両と前記立体物との間の距離情報が有る有点セルを路面として検出する路面検出部(5)と、前記自車両と前記立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合に、その無点領域内に存在し得る最大高さT1の推定立体物を次式(A)により推定する立体物推定部(6)と、路面を基準とした静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、前記自車両の移動に伴い前記3次元距離検出部により得られる新たな3次元距離情報から前記立体物推定部により推定された前記推定立体物のセルを前記静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出する立体物判定部(7)とを備えている。   The object detection apparatus according to claim 1 is divided by a three-dimensional distance detection unit (3) that acquires at least three-dimensional distance information ahead of the host vehicle and a bird's-eye grid based on the viewpoint of the three-dimensional distance detection unit. A three-dimensional object detection unit (4) that detects the presence or absence of a three-dimensional object based on the three-dimensional distance information for each cell, and distance information between the host vehicle and the three-dimensional object when the three-dimensional object exists. When there is a pointless area including a pointless cell with no distance information between the host vehicle and the three-dimensional object, there is a pointless region. A three-dimensional object estimation unit (6) for estimating an estimated three-dimensional object having a maximum height T1 that can exist in the interior by the following equation (A), and converting at least the cell of the estimated three-dimensional object into a stationary grid cell based on a road surface And the three-dimensional distance detection unit as the vehicle moves When the estimated three-dimensional cell estimated by the three-dimensional object estimation unit is converted from the new three-dimensional distance information obtained to the stationary grid, it is detected as a three-dimensional object when repeatedly estimated at the same road surface position. And a three-dimensional object determination unit (7).

T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、r1:無点領域の近点距離である。
T1 = T0 · (re−r1) / re (A)
Where T0 is the height of the three-dimensional distance detection unit, re is the far point distance of the astigmatic area, and r1 is the near point distance of the astigmatic area.

上記構成を採用することにより、3次元距離検出部により自車両の少なくとも前方の3次元距離情報を取得し、取得した3次元距離情報を鳥瞰グリッドで区切ったセル毎にあてはめて、立体物検出部によりセル毎に立体物の有無を検出する。立体物の存在が検出された場合に、路面検出部は、自車両と立体物との間のセルのうち、距離情報が有る有点セルを路面として検出する。また、自車両と立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合には、立体物推定部は、式(A)により無点領域内に存在し得る最大高さT1の推定立体物を推定する。立体物判定部は、静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、自車両の移動に伴い3次元距離検出部により得られる新たな3次元距離情報から立体物推定部により推定された推定立体物のセルを静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出することができる。これにより、3次元距離検出部による3次元距離情報が得られていない無点領域がある場合でも、その無点領域に立体物が存在するか否かを推定することができ、誤判定の発生を低減させることができる。   By adopting the above configuration, the three-dimensional distance detection unit acquires at least the three-dimensional distance information ahead of the host vehicle, and applies the acquired three-dimensional distance information to each cell divided by the bird's-eye view grid. The presence or absence of a three-dimensional object is detected for each cell. When the presence of the three-dimensional object is detected, the road surface detection unit detects a pointed cell having distance information among the cells between the host vehicle and the three-dimensional object as the road surface. In addition, when there is a pointless area including a pointless cell with no distance information between the host vehicle and the three-dimensional object, the three-dimensional object estimation unit is the maximum that can exist in the pointless area according to the formula (A). An estimated solid object having a height T1 is estimated. The three-dimensional object determination unit converts at least the estimated three-dimensional object cell into a stationary grid cell, and is estimated by the three-dimensional object estimation unit from new three-dimensional distance information obtained by the three-dimensional distance detection unit as the host vehicle moves. When the estimated solid object cell is converted to a stationary grid and repeatedly estimated at the same road surface position, it can be detected as a solid object. As a result, even when there is a pointless region where the three-dimensional distance information is not obtained by the three-dimensional distance detection unit, it is possible to estimate whether or not a three-dimensional object exists in the pointless region, and an erroneous determination occurs. Can be reduced.

第1実施形態を示す機能ブロック構成図Functional block diagram showing the first embodiment 3次元距離検出部の検知範囲と鳥瞰グリッドを示す(a)立面図および(b)平面図(A) Elevation view and (b) Plan view showing detection range and bird's-eye view grid of three-dimensional distance detection unit 鳥瞰グリッドに有点距離情報を示した例を示す図The figure which shows the example which showed the pointed distance information on the bird's-eye view grid 静止グリッドの配置図Stationary grid layout 物体検出処理のフローチャートFlow chart of object detection processing 鳥瞰グリッド内における立体物の高さ検出の説明図Illustration of detecting the height of a solid object in the bird's-eye view grid 鳥瞰グリッドの無点範囲の最大高さを推定する作用説明図Action explanatory diagram to estimate the maximum height of the pointless range of the bird's eye grid 無点領域の異なる推定立体物の例Examples of presumed solid objects with different pointless areas 無点領域の幅と推定立体物の高さの説明図Illustration of the width of the astigmatism area and the height of the estimated solid object 鳥瞰グリッドの有点距離情報の分布の具体例を示す部分図Partial view showing a specific example of distribution of pointed distance information of bird's-eye view grid 鳥瞰グリッドの点数判定結果の具体例を示す部分図Partial view showing a specific example of the score determination result of the bird's-eye view grid (a)静止グリッドに鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Explanatory drawing when the bird's eye grid is superimposed on the stationary grid, (b) Partial view of the bird's eye grid 静止グリッドの点数分布図Score distribution map of stationary grid (a)静止グリッドに移動後の鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Operation explanatory diagram when the bird's-eye grid after movement is superimposed on the stationary grid, (b) Partial view of the bird's-eye grid 静止グリッドに移動後の点数を加算した場合の点数分布図Point distribution chart when adding points after moving to a stationary grid 第2実施形態を示す鳥瞰グリッドの点数判定結果の具体例を示す図The figure which shows the specific example of the score determination result of the bird's-eye view grid which shows 2nd Embodiment. 鳥瞰グリッドの無点セル毎の最大高さを推定する作用説明図Action explanatory diagram to estimate the maximum height of each pointless cell of the bird's eye view grid (a)静止グリッドに鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Explanatory drawing when the bird's eye grid is superimposed on the stationary grid, (b) Partial view of the bird's eye grid 静止グリッドの点数分布図Score distribution map of stationary grid (a)静止グリッドに移動後の鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Operation explanatory diagram when the bird's-eye grid after movement is superimposed on the stationary grid, (b) Partial view of the bird's-eye grid 静止グリッドに移動後の点数を加算した場合の点数分布図Point distribution chart when adding points after moving to a stationary grid 第3実施形態を示す鳥瞰グリッドの点数判定結果の具体例を示す図The figure which shows the specific example of the score determination result of the bird's-eye view grid which shows 3rd Embodiment. (a)静止グリッドに鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Explanatory drawing when the bird's eye grid is superimposed on the stationary grid, (b) Partial view of the bird's eye grid 静止グリッドの点数分布図Score distribution map of stationary grid (a)静止グリッドに移動後の鳥瞰グリッドを重ねた場合の作用説明図、(b)鳥瞰グリッドの部分図(A) Operation explanatory diagram when the bird's-eye grid after movement is superimposed on the stationary grid, (b) Partial view of the bird's-eye grid 静止グリッドに移動後の点数を加算した場合の点数分布図Point distribution chart when adding points after moving to a stationary grid

(第1実施形態)
以下、本発明の第1実施形態について、図1〜図15を参照して説明する。
図2(a)、(b)物体検出装置1は、例えば車両Aの前面部上部に搭載されるもので、車室内のフロントガラスの内側上部などに設けられる。物体検出装置1は、図1に示すように、制御装置2を主体として3次元距離検出部3、記憶部4および出力部5を備えている。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
2 (a) and 2 (b), the object detection device 1 is mounted on, for example, the upper front portion of the vehicle A, and is provided on the inner upper portion of the windshield in the vehicle interior. As shown in FIG. 1, the object detection device 1 includes a three-dimensional distance detection unit 3, a storage unit 4, and an output unit 5 with a control device 2 as a main component.

制御装置2は、CPU、ROM、RAMおよびインタフェースなどを備えたもので、車載ECUに組み込まれたものでも良いし、別途設ける構成のもでも良い。制御装置2は、後述する物体検出プログラムに基づいて3次元距離検出部3により検出された距離情報から車両Aの前方に存在する立体物を検出する。図1には、制御装置2の機能による構成を示している。構成要素としては、立体検出部2a、路面検出部2b、立体物推定部2c、立体物判定部2dを備えている。   The control device 2 includes a CPU, a ROM, a RAM, an interface, and the like, and may be incorporated in an in-vehicle ECU or may be provided separately. The control device 2 detects a three-dimensional object existing in front of the vehicle A from the distance information detected by the three-dimensional distance detection unit 3 based on an object detection program described later. In FIG. 1, the structure by the function of the control apparatus 2 is shown. The constituent elements include a solid detection unit 2a, a road surface detection unit 2b, a solid object estimation unit 2c, and a solid object determination unit 2d.

3次元距離検出部3は、いわゆるレーザレーダ(LIDAR)と言われるもので、例えば車両Aの前方の様々な方向に向けて測距用のレーザ光を照射して前方の走行範囲の距離を3次元的に検出するものである。記憶部4は、制御装置2内に設けることもできるし、外部に別途設ける構成とすることもできる。記憶部4は、制御装置2により実行される物体検出プログラムが記憶されるとともに、各種の情報が記憶されている。出力部5は、立体物の検出結果を表示するもので、車室内に設けられたディスプレイなどを利用して表示させることができる。   The three-dimensional distance detection unit 3 is a so-called laser radar (LIDAR). For example, a distance measuring laser beam is irradiated in various directions in front of the vehicle A to set the distance of the traveling range in front 3. Dimensionally detected. The memory | storage part 4 can also be provided in the control apparatus 2, and can also be set as the structure separately provided outside. The storage unit 4 stores an object detection program executed by the control device 2 and various information. The output unit 5 displays the detection result of the three-dimensional object, and can be displayed using a display or the like provided in the vehicle interior.

3次元距離検出部3は、図2(a)に示すように、車両Aの前方路面R上にレーザ光を照射する。車両Aの前面直下の位置を原点(O)として近点側から路面R上の距離r1、r2、…、rnのように、照射点Pをほぼ等間隔で遠点側に移動させながら反射光の到達時間を検出して距離を算出している。また、3次元距離検出部3は、図2(b)に示すように、前方r方向を中心として左右に方向を変化させてレーザ光を振って扇型の検出エリアで距離を測定している。   The three-dimensional distance detection unit 3 irradiates the front road surface R of the vehicle A with laser light as shown in FIG. Reflected light while moving the irradiation point P from the near point side to the far point side at substantially equal intervals, such as the distances r1, r2,..., Rn on the road surface R from the near point side with the position immediately below the front surface of the vehicle A as the origin (O). The distance is calculated by detecting the arrival time. Further, as shown in FIG. 2B, the three-dimensional distance detection unit 3 measures the distance in the fan-shaped detection area by changing the direction to the left and right with the front r direction as the center and oscillating the laser beam. .

この場合、レーザ光が路面Rに照射される場合には、その路面Rの照射点Pに対応する距離の情報が得られる。一方、路面R上に立体物などの物体が存在する場合には、レーザ光が路面Rに到達する前に立体物に照射され、その反射光を受光して距離を算出するので、路面Rの照射点Pよりも近い位置の距離情報が得られる。   In this case, when the road surface R is irradiated with laser light, information on the distance corresponding to the irradiation point P on the road surface R is obtained. On the other hand, when an object such as a three-dimensional object exists on the road surface R, the laser light is irradiated onto the three-dimensional object before reaching the road surface R, and the reflected light is received to calculate the distance. The distance information of the position closer than the irradiation point P is obtained.

3次元距離検出部3により得られる距離情報は、図2(b)に示しているように、レーザ光の照射範囲に応じて車両Aに対応して鳥瞰グリッドGで分割した複数のセルGθn(例えば、方向θ:a〜e、距離n:0〜4)に分けて立体物の判定を行う。鳥瞰グリッドGは、車両Aの進行方向を示すr軸に対して、このr軸を含んだ所定角度の範囲を車両Aに近い側から所定距離毎にセルGa0〜Ga4のように区切っている。同様にして、車両Aの進行方向に対してセルGa0〜Ga4の左側の所定角度範囲にセルGb0〜Gb4、さらにその左側にセルGc0〜Gc4を設定するように区切っている。また、車両Aの進行方向に対してセルGa0〜Ga4の右側の所定角度範囲にセルGd0〜Gd4、さらにその右側にセルGe0〜Ge4を設定するように区切っている。   As shown in FIG. 2B, the distance information obtained by the three-dimensional distance detection unit 3 includes a plurality of cells Gθn (divided by the bird's eye grid G corresponding to the vehicle A according to the irradiation range of the laser light. For example, the three-dimensional object is determined in the direction θ: a to e and the distance n: 0 to 4). The bird's-eye view grid G divides a range of a predetermined angle including the r-axis with respect to the r-axis indicating the traveling direction of the vehicle A as cells Ga0 to Ga4 at predetermined distances from the side close to the vehicle A. Similarly, the cells Gb0 to Gb4 are set in a predetermined angular range on the left side of the cells Ga0 to Ga4 with respect to the traveling direction of the vehicle A, and the cells Gc0 to Gc4 are set on the left side. Further, the cells Gd0 to Gd4 are set in a predetermined angular range on the right side of the cells Ga0 to Ga4 with respect to the traveling direction of the vehicle A, and the cells Ge0 to Ge4 are set on the right side thereof.

レーザ光の反射により得られる距離情報は、図3に示すように、距離に応じて鳥瞰グリッドGのセルGθnに対応付けられる。図中には対応するセルに距離情報を示す位置を黒丸(ドット)で示している。   The distance information obtained by the reflection of the laser light is associated with the cell Gθn of the bird's eye grid G according to the distance, as shown in FIG. In the figure, positions indicating distance information in corresponding cells are indicated by black circles (dots).

一方、立体物の判定には、図4に示すように、路面Rに対応した直交座標系の静止グリッドSが設定される。静止グリッドSは、路面Rの車両の進行方向と直交する方向をx、進行方向をyとするとき、x方向およびy方向の位置に対応して矩形マトリクス状のセルSxy(例えばS00〜S77までの8×8個のセル)などが設定されている。図4では車両Aの物体検出装置1の位置が静止グリッドS上に示されている。   On the other hand, as shown in FIG. 4, for the determination of the three-dimensional object, a stationary grid S of an orthogonal coordinate system corresponding to the road surface R is set. The stationary grid S is a rectangular matrix cell Sxy (for example, from S00 to S77) corresponding to the position in the x direction and y direction, where x is the direction orthogonal to the traveling direction of the vehicle on the road surface R and y is the traveling direction. 8 × 8 cells) are set. In FIG. 4, the position of the object detection device 1 of the vehicle A is shown on the stationary grid S.

次に、物体検出装置1による物体検出処理について、図5を参照して説明する。この物体検出処理のフローチャートは、物体検出プログラムとして記憶部4に記憶されているものである。制御装置2は、物体検出処理を開始するにあたり、記憶部4から物体検出プログラムを読み出す。   Next, object detection processing by the object detection apparatus 1 will be described with reference to FIG. The flowchart of this object detection process is stored in the storage unit 4 as an object detection program. The control device 2 reads the object detection program from the storage unit 4 when starting the object detection process.

制御装置2は、プログラムを開始すると、まずステップS1で静止グリッドS上のデータを初期化し、自車Aの位置に対応して前方の路面Aを含む領域に静止グリッドSを設定する。次に、制御装置2は、ステップS2に進むと、3次元距離検出部3のレーザレーダにより車両Aの前方(鳥瞰グリッドGではr方向;静止グリッドSではy方向)に向けてレーザ光を照射して距離情報を鳥瞰グリッドGの位置に対応して取得する。この場合、制御装置2は、3次元距離検出部3により得られる距離情報の点群情報を取得する。点群情報はレーザ光の照射角度と距離との情報であり、3次元距離検出部3の位置を中心とした極座標の情報である。   When starting the program, the control device 2 first initializes data on the stationary grid S in step S1, and sets the stationary grid S in a region including the road surface A ahead corresponding to the position of the host vehicle A. Next, when the control device 2 proceeds to step S2, the laser radar of the three-dimensional distance detection unit 3 irradiates laser light toward the front of the vehicle A (r direction in the bird's eye grid G; y direction in the stationary grid S). And distance information is acquired corresponding to the position of the bird's-eye view grid G. In this case, the control device 2 acquires point group information of distance information obtained by the three-dimensional distance detection unit 3. The point group information is information on the irradiation angle and distance of the laser light, and is information on polar coordinates centered on the position of the three-dimensional distance detection unit 3.

制御装置2は、ステップS3で、取得した点群情報を鳥瞰グリッドGにマッピングする。このとき、距離の情報が路面R上での距離よりも短いときには、距離に応じたセルGθnにマッピングする。例えば、図6に示すように、路面R近くの点Paに対して、これよりも遠い位置に対応する点Pbの距離が同じであるとすると、ここにレーザ光を遮って反射させる立体物が存在することが推定できる。   The control device 2 maps the acquired point cloud information on the bird's-eye view grid G in step S3. At this time, when the distance information is shorter than the distance on the road surface R, the information is mapped to the cell Gθn according to the distance. For example, as shown in FIG. 6, if the distance of a point Pb corresponding to a position farther than the point Pa near the road surface R is the same, a solid object that blocks and reflects the laser beam here. It can be estimated that it exists.

このときの高さHaが、しきい値として設定される所定以上、例えば5〜10センチ以上あるときには、車両Aが進行すると乗り上げる障害物となる可能性がある。このような場合には、立体物があることが検出できる。このように同じセルGθnに属する距離情報の点Pを図7に示すように、鳥瞰グリッドGの各セルGθnに対応付ける。   When the height Ha at this time is equal to or greater than a predetermined threshold set as a threshold, for example, 5 to 10 cm or more, there is a possibility that the vehicle A may become an obstacle to ride on when the vehicle A travels. In such a case, it can be detected that there is a three-dimensional object. Thus, the distance information point P belonging to the same cell Gθn is associated with each cell Gθn of the bird's-eye view grid G as shown in FIG.

次に、制御装置2は、ステップS4で、立体物検出処理を行う。ここでは、図6で説明したように、一つのセルGθn内に入る距離情報について、複数の距離情報が存在していてその高さHを算出し、しきい値以上の高さがある場合に立体物の存在を検出する。具体的には、制御装置2は、セルGθn内に複数の距離情報が存在するものについて、そのセルGθn内の距離情報に基づいて測定点の高さを求める。   Next, the control apparatus 2 performs a three-dimensional object detection process at step S4. Here, as described with reference to FIG. 6, when there are a plurality of distance information and the height H is calculated for the distance information that falls within one cell Gθn, and there is a height equal to or higher than the threshold value. The presence of a three-dimensional object is detected. Specifically, the control device 2 obtains the height of the measurement point based on the distance information in the cell Gθn for a plurality of distance information in the cell Gθn.

ここでは、制御装置2は、複数の測定点の高さ情報から、最低の高さの点Paと最高の高さのPbとの間の差を演算して高さHaを求める。制御装置2は、得られた高さHaの値が立体物を判定するしきい値Ho以上である場合に、セルGθn内に立体物が存在することを判定する。続いて、制御装置2は、ステップS5に進み、立体物が検出されたセルGθnに対して、立体物確率の点数として「+1」を設定する。   Here, the control device 2 calculates the difference between the lowest height point Pa and the highest height Pb from the height information of the plurality of measurement points to obtain the height Ha. The control device 2 determines that a three-dimensional object exists in the cell Gθn when the obtained value of the height Ha is equal to or greater than a threshold value Ho for determining the three-dimensional object. Subsequently, the control device 2 proceeds to step S5, and sets “+1” as the score of the three-dimensional object probability for the cell Gθn in which the three-dimensional object is detected.

次に、制御装置2は、ステップS6で、路面検出処理を行う。具体的には、制御装置2は、自車両Aと立体物が検出されたセルGθnとの間のセルGθ0〜Gθ(n−1)のうち、距離情報が得られているものについて、路面Rが検出されたセルであると判定する。続いて、制御装置2は、ステップS7で、セルGθ0〜Gθ(n−1)のうちの路面として判定したセルについて立体物確率の点数として「−1」を設定する。   Next, the control apparatus 2 performs a road surface detection process at step S6. Specifically, the control device 2 determines the road surface R of the cells Gθ0 to Gθ (n−1) between the host vehicle A and the cell Gθn where the three-dimensional object is detected for which distance information is obtained. Is determined to be a detected cell. Subsequently, in step S7, the control device 2 sets “−1” as the solid object probability score for the cell determined as the road surface among the cells Gθ0 to Gθ (n−1).

次に、制御装置2は、ステップS8で、距離情報が得られていないセルGθk(k:0≦k<nの整数)について、次のように処理を行う。すなわち、制御装置2は、立体物の存在を検出したセルGθnの方向θについて、立体物の手前のセルGθ0〜Gθ(n−1)のうち、路面と判定されなかったセルつまり距離情報が得られていないセルGθk(k:0≦k<nの整数)について、これを無点領域NPとして認識する。この場合、無点領域NPは1個のセルである場合もあるし、複数個の連続したセルである場合もある。無点領域NPには、その領域中にレーザ光を反射しないか反射率が低い立体物が存在することも考えられる。   Next, in step S8, the control device 2 performs the following process on the cell Gθk (k: integer of 0 ≦ k <n) for which distance information is not obtained. That is, for the direction θ of the cell Gθn in which the presence of the three-dimensional object is detected, the control device 2 obtains the cell that is not determined as the road surface among the cells Gθ0 to Gθ (n−1) before the three-dimensional object, that is, the distance information. A cell Gθk (k: integer of 0 ≦ k <n) is recognized as an astigmatism region NP. In this case, the astigmatism region NP may be a single cell or a plurality of continuous cells. In the astigmatism region NP, there may be a solid object that does not reflect the laser light or has a low reflectance in the region.

そこで、制御装置2は、まず、無点領域NP内において立体物が存在した場合の最も高いものについて推定処理を行う。図7を参照して算出の原理を説明する。無点領域NPの遠点距離をre、近点距離をr1とし、物体検出装置1の高さをT0とすると、無点領域NPに存在加納な最も高い立体物は、近点位置r1に存在した場合であるから、その高さT1は、次式(A)で算出できる。
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域NPの遠点距離、r1:無点領域NPの近点距離である。
Therefore, the control device 2 first performs an estimation process for the highest one when a three-dimensional object is present in the astigmatism region NP. The calculation principle will be described with reference to FIG. When the far point distance of the astigmatic area NP is re, the near point distance is r1, and the height of the object detection device 1 is T0, the highest three-dimensional object that exists in the astigmatic area NP exists at the near point position r1. Therefore, the height T1 can be calculated by the following equation (A).
T1 = T0 · (re−r1) / re (A)
Where T0 is the height of the three-dimensional distance detector, re is the far point distance of the astigmatic area NP, and r1 is the near point distance of the astigmatic area NP.

この場合、上式(A)で推定できるのは、存在しうる最も高い立体物の高さであり、実際にはそれ以下の高さの立体物が存在することもありうる。例えば、図8に示すように、無点領域NPとして、連続した3つのセルGa3〜Ga5がある場合に、セルGa3の近点の位置に最も高いHaの高さの立体物Xaが存在する(a)の場合がある。また、セルGa3〜Ga5にまたがるように低い高さHbの立体物Xbが存在する(b)の場合もある。さらには、2つのセルGa3およびGa4にまたがる高さHcの立体物Xcが存在する(c)の場合もある。   In this case, what can be estimated by the above formula (A) is the height of the highest three-dimensional object that can exist, and in fact, a three-dimensional object with a height less than that may exist. For example, as shown in FIG. 8, when there are three continuous cells Ga3 to Ga5 as the astigmatic region NP, the three-dimensional object Xa having the highest Ha height exists at the position near the cell Ga3 ( a) may occur. In some cases (b), there is a three-dimensional object Xb having a low height Hb so as to straddle the cells Ga3 to Ga5. Furthermore, there is a case (c) where there is a three-dimensional object Xc having a height Hc extending over the two cells Ga3 and Ga4.

一方、図9に示すように、存在し得る立体物は奥行きが短い場合には、高さに応じて無点セルの連続個数が決まる。例えば、図9(a)のように高さHaの立体物では、連続する3つの無点セルGa3〜Ga5が発生する。また、図9(b)のように高さHdの立体物では、1個の無点セルGa5が発生する。無点セルが1個の場合には、セルの奥行き寸法によっては最大高さがしきい値よりも小さくなることがあり、立体物として判定しないことがある。   On the other hand, as shown in FIG. 9, when a three-dimensional object that can exist has a short depth, the number of continuous dotless cells is determined according to the height. For example, in a three-dimensional object having a height Ha as shown in FIG. 9A, three continuous pointless cells Ga3 to Ga5 are generated. Further, as shown in FIG. 9B, in the three-dimensional object having the height Hd, one pointless cell Ga5 is generated. When there is one dotless cell, the maximum height may be smaller than a threshold value depending on the depth dimension of the cell, and it may not be determined as a three-dimensional object.

以上のことから、制御装置2は、ステップS9で、無点領域の最大高さがしきい値を超える場合にこの無点領域に立体物が存在することを推定し、推定立体物として設定する。続いて、制御装置2は、ステップS10で、推定立体物の存在を推定したセルについて推定重みαを設定する。ここでは、例えば推定立体物の推定重みαとして、0から1の範囲で定められている値を立体物確率として設定する。   From the above, the control device 2 estimates that a three-dimensional object is present in this astigmatic area when the maximum height of the astigmatic area exceeds the threshold in step S9, and sets it as an estimated three-dimensional object. Subsequently, in step S10, the control device 2 sets an estimated weight α for the cell in which the presence of the estimated three-dimensional object is estimated. Here, for example, a value determined in the range of 0 to 1 is set as the solid object probability as the estimated weight α of the estimated solid object.

制御装置2は、次に、ステップS11に進み、極座標系の鳥瞰グリッドGの各セルについて得られた結果を、直交座標系の静止グリッドSのセルに変換する処理を行う。この場合、直接路面Rの位置に対応した静止グリッドSに対応付ける処理をすることもできるし、自車両Aの物体検出装置1の位置を原点とする直交座標系の移動する鳥瞰グリッドを想定して変換処理をすることもできる。   Next, the control device 2 proceeds to step S11 and performs a process of converting the result obtained for each cell of the bird's eye grid G of the polar coordinate system into a cell of the stationary grid S of the orthogonal coordinate system. In this case, it is possible to perform processing for associating with the stationary grid S corresponding to the position of the road surface R directly, and assuming a moving bird's-eye view grid in an orthogonal coordinate system with the position of the object detection device 1 of the host vehicle A as the origin. Conversion processing can also be performed.

直交座標系の移動する鳥瞰グリッドに変換する場合には、変換後の直交座標系を路面Rに対応した静止グリッドSに宛てはめる処理をすることで、結果として同じ処理を実施することができる。次に、制御装置2は、静止グリッドS上の各セルSxyに対して、前述のようにして得られた立体物確率の値を加算処理する。   In the case of conversion to a bird's-eye view grid that moves in an orthogonal coordinate system, the same process can be performed as a result by performing the process of applying the converted orthogonal coordinate system to the stationary grid S corresponding to the road surface R. Next, the control device 2 adds the value of the three-dimensional object probability obtained as described above to each cell Sxy on the stationary grid S.

制御装置2は、ステップS13に進み、自車両Aの位置情報に基づいて静止グリッドSにおける自車両Aの位置を変更設定する。この後、制御装置2は、ステップS2に戻り、上記処理と同様の処理を移動後の位置の点群情報に基づいて行い、以下、ステップS2〜S13を繰り返し実行する。   The control device 2 proceeds to step S13, and changes and sets the position of the host vehicle A in the stationary grid S based on the position information of the host vehicle A. Thereafter, the control device 2 returns to step S2, performs the same process as the above process based on the point cloud information of the position after the movement, and thereafter repeatedly executes steps S2 to S13.

制御装置2は、上記の処理とは別に、立体物の判定処理を行っている。上記の処理を繰り返した結果、静止グリッドSのセルSxyには、立体物確率が加算されていくことで、路面Rに静止している立体物が存在する場合あるいは推定立体物が存在する場合には、そのセルの立体物確率の値が増加していく。これにより、制御装置2は、路面Rに存在する静止した立体物を正確に推定することができる。   The control device 2 performs a three-dimensional object determination process separately from the above process. As a result of repeating the above processing, the solid object probability is added to the cell Sxy of the stationary grid S, so that there is a solid object that is stationary on the road surface R or there is an estimated solid object. The value of the three-dimensional object probability of the cell increases. Thereby, the control apparatus 2 can estimate the stationary solid thing which exists in the road surface R correctly.

また、他の車両などの移動する立体物が存在する場合には、他の車両の移動とともに立体物が移動するため、立体物確率の値は増加するのではなく、セル間を移動するようになる。さらに、無点領域に立体物が存在していなかった場合には、複数回の加算処理で立体物確率の値が増加することがないため、立体物の存在は判定されない。   In addition, when there is a moving three-dimensional object such as another vehicle, the three-dimensional object moves with the movement of the other vehicle, so that the value of the three-dimensional object probability does not increase but moves between cells. Become. Furthermore, if there is no solid object in the astigmatism region, the value of the solid object probability does not increase by a plurality of addition processes, so the presence of the three-dimensional object is not determined.

次に、図10から図15を参照して具体的な事例を説明する。
図10は鳥瞰グリッドGのうちのr方向(セルGanの列の方向)に対応した8個のセルGa0〜Ga7を示している。前述のように、制御装置2は、図5に示したプログラムのステップS1を経てステップS2で、3次元距離検出部3により取得された測定点Pに対するレーザ光による距離情報を点群情報として取り込んでいる。実際には、図3で示したように、鳥瞰グリッドGのすべてのセルについて点群情報が得られており、制御装置2は、これらのすべてについて以下の処理を実行するが、簡単のために図10に示す8個のセルGa0〜Ga7についての処理で説明する。
Next, specific examples will be described with reference to FIGS.
FIG. 10 shows eight cells Ga <b> 0 to Ga <b> 7 corresponding to the r direction (the column direction of the cells Gan) in the bird's eye view grid G. As described above, the control device 2 takes in the distance information by the laser beam with respect to the measurement point P acquired by the three-dimensional distance detection unit 3 in step S2 through step S1 of the program shown in FIG. It is out. Actually, as shown in FIG. 3, the point cloud information is obtained for all the cells of the bird's-eye view grid G, and the control device 2 executes the following processing for all of these cells. The process will be described with respect to the eight cells Ga0 to Ga7 shown in FIG.

制御装置2は、ステップS3で、点群情報を鳥瞰グリッドGのすべてのセルに対してマッピングしている。図10は、r方向の8個のセルでのマッピングの例である。ここでは、距離情報が得られている有点セルGa0、Ga1、Ga5、Ga6、距離情報が得られていない無点セルGa2〜Ga4、Ga7がある。   The control device 2 maps the point cloud information to all the cells of the bird's-eye view grid G in step S3. FIG. 10 is an example of mapping in eight cells in the r direction. Here, there are pointed cells Ga0, Ga1, Ga5, Ga6 from which distance information is obtained, and pointless cells Ga2-Ga4, Ga7 from which distance information is not obtained.

制御装置2は、有点セルGa0、Ga1、Ga5、Ga6のうち、路面Rの照射点Pまでの距離よりも短い距離情報が含まれている有点セルGa6については、ステップS4で立体物検出処理を行って立体物を検出する。制御装置2は、ステップS5で、立体物が含まれた立体物セルGa5に対して立体物確率「+1」を設定する。この結果は、図11に示すように、立体物セルGa6に「+1」を設定するようにマッピングされる。制御装置2は、他の有点セルGa0、Ga1、Ga5についても同様の立体物処理を行うが、路面Rの照射点Pまでの距離とほぼ等しい距離情報である場合には立体物は検出されない。   The control device 2 performs the three-dimensional object detection process in step S4 for the pointed cell Ga6 including distance information shorter than the distance to the irradiation point P on the road surface R among the pointed cells Ga0, Ga1, Ga5, Ga6. Go and detect solid objects. In step S5, the control device 2 sets a three-dimensional object probability “+1” for the three-dimensional object cell Ga5 including the three-dimensional object. As shown in FIG. 11, this result is mapped so as to set “+1” to the three-dimensional object cell Ga6. The control device 2 performs the same three-dimensional object processing for the other pointed cells Ga0, Ga1, and Ga5. However, when the distance information is approximately equal to the distance to the irradiation point P on the road surface R, the three-dimensional object is not detected.

次に、制御装置2は、立体物セルと判定されない有点セルGa0、Ga1、Ga5について、立体物セルGa5と自車両Aとの間に位置することから、ステップS6で路面セルとして検出する。制御装置2は、路面セルGa0、Ga1、Ga5について、ステップS7で、立体物確率として「−1」を設定する。この結果は、図11に示すように、路面セルGa0、Ga1、Ga5に「−1」を設定するようにマッピングされる。   Next, since the control device 2 is located between the three-dimensional object cell Ga5 and the host vehicle A, the pointed cells Ga0, Ga1, and Ga5 that are not determined to be three-dimensional object cells are detected as road surface cells in step S6. The controller 2 sets “−1” as the three-dimensional object probability in step S7 for the road surface cells Ga0, Ga1, and Ga5. As shown in FIG. 11, this result is mapped so as to set “−1” to the road surface cells Ga0, Ga1, and Ga5.

続いて、制御装置2は、無点セルGa2〜Ga4を含む無点領域NPについて、ステップS8で立体物が存在する場合に最も高い場合の高さT1を推定する処理を行う。この場合には、式(A)の無点領域NPの遠点距離reは、物体検出装置1の位置を原点として無点セルGa4の遠点までの距離となる。無点領域NPの近点距離r1は、無点セルGa2の近点までの距離となる。算出した高さT1がしきい値を超えるときにはこれを推定立体物として設定する。   Subsequently, the control device 2 performs a process of estimating the highest height T1 when there is a three-dimensional object in step S8 for the astigmatism region NP including the astigmatism cells Ga2 to Ga4. In this case, the far point distance re of the pointless region NP of the formula (A) is a distance from the position of the object detection device 1 to the far point of the pointless cell Ga4. The near point distance r1 of the astigmatism region NP is a distance to the near point of the astigmatism cell Ga2. When the calculated height T1 exceeds the threshold value, this is set as an estimated three-dimensional object.

制御装置2は、無点領域NPに推定立体物が存在すると判断したときには、無点領域NPの各セルGa2〜Ga4に推定立体物の推定重み設定を行う。この設定処理では、制御装置2は、推定重みαとして、例えば「0.5」を立体物の立体物確率「+1」に乗ずる。この結果、制御装置2は、無点セルGa2〜Ga4に推定立体物の立体物確率「+0.5」を設定する。   When it is determined that the estimated solid object is present in the astigmatic area NP, the control device 2 sets the estimated weight of the estimated solid object in each of the cells Ga2 to Ga4 of the astigmatic area NP. In this setting process, the control device 2 multiplies the solid object probability “+1” of the solid object by, for example, “0.5” as the estimated weight α. As a result, the control device 2 sets the three-dimensional object probability “+0.5” of the estimated three-dimensional object to the pointless cells Ga2 to Ga4.

以上の処理を鳥瞰グリッドGの全体について実施することで自車両Aの前方に存在する立体物、路面および推定立体物の情報が得られる。図11では、鳥瞰グリッドGのうち、8個のセルGa0〜Ga7についての結果を示している。なお、立体物が検出されたセルGa6よりも前方の距離情報が得られていない無点セルGa7については、立体物の存在は不明であるから立体物確率として「0」が設定されている。   By performing the above processing on the entire bird's-eye view grid G, information on a three-dimensional object, a road surface, and an estimated three-dimensional object existing in front of the host vehicle A can be obtained. In FIG. 11, the result about eight cells Ga0-Ga7 among the bird's-eye view grids G is shown. Note that, for the pointless cell Ga7 in which distance information ahead of the cell Ga6 in which the three-dimensional object is detected is not obtained, the existence of the three-dimensional object is unknown, so “0” is set as the three-dimensional object probability.

図12〜図15では、鳥瞰グリッドGで検出された情報を静止グリッドSに変換する場合の具体例を示している。ここでは簡単のために、図12(b)に示すように、鳥瞰グリッドGにおいては、有点セルGa4で立体物が検出され、その手前に位置するセルGa0〜Ga3のうち、有点セルGa0、Ga3は路面として検出され、無点セルGa1、Ga2において推定立体物が推定されている場合で説明する。   12 to 15 show specific examples in the case of converting information detected in the bird's-eye view grid G into a stationary grid S. Here, for the sake of simplicity, as shown in FIG. 12B, in the bird's eye grid G, a three-dimensional object is detected in the pointed cell Ga4, and among the cells Ga0 to Ga3 located in front of the pointed cell Ga0, Ga3, Is described as a case where the estimated solid object is estimated in the pointless cells Ga1 and Ga2.

図12(b)に示す鳥瞰グリッドGでは、立体物確率として、立体物が検出された有点セルGa4では「+1」、路面が検出された有点セルGa0、Ga3では「−1」、推定立体物が検出された無点セルGa1、Ga2では「+0.5」が設定されている。他のセルについても立体物が検出されたセルに「+1」、路面が検出されたセルに「−1」が設定されている。   In the bird's-eye view grid G shown in FIG. 12B, the solid object probability is “+1” in the pointed cell Ga4 in which the three-dimensional object is detected, “−1” in the pointed cells Ga0 and Ga3 in which the road surface is detected, and the estimated three-dimensional object. "+0.5" is set in the pointless cells Ga1 and Ga2 in which is detected. For other cells, “+1” is set in the cell in which the three-dimensional object is detected, and “−1” is set in the cell in which the road surface is detected.

制御装置2は、ステップS11で、鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に変換する。静止グリッドSの各セルSxyは、初期状態ではすべて「0」に設定されている。これに鳥瞰グリッドGの原点位置である物体検出装置1の位置は、セルS30の位置にある。図12(a)に示すように、静止グリッドS上に鳥瞰グリッドGを重ねると、例えば無点セルGa1がセルS31に、無点セルGa2がセルS32に対応する。制御装置2は、ステップS12で、変換された立体物確率のデータを静止グリッドSに加算し、図13に示すようなデータを得る。   The control device 2 converts the cell information of the bird's eye grid G into cell information of the stationary grid S in step S11. Each cell Sxy of the stationary grid S is set to “0” in the initial state. In addition, the position of the object detection device 1 that is the origin position of the bird's-eye view grid G is at the position of the cell S30. As shown in FIG. 12A, when the bird's-eye view grid G is superimposed on the stationary grid S, for example, the astigmatism cell Ga1 corresponds to the cell S31, and the astigmatism cell Ga2 corresponds to the cell S32. In step S12, the control device 2 adds the converted three-dimensional object probability data to the stationary grid S to obtain data as shown in FIG.

この後、制御装置2は、自車両Aの現在位置情報に基づいて、静止グリッドS上での自車位置をシフトするように処理する。これにより、例えば図14(a)に示すように、自車両Aの物体検出装置1の位置が静止グリッドS上でセルS42に移動していることを認識してシフトさせる。   Thereafter, the control device 2 performs processing so as to shift the vehicle position on the stationary grid S based on the current position information of the vehicle A. Thereby, for example, as shown in FIG. 14A, it is recognized that the position of the object detection device 1 of the host vehicle A has moved to the cell S42 on the stationary grid S and is shifted.

以下、上述と同様の処理を繰り返し実行することで、移動先の位置での鳥瞰グリッドGの点群情報が得られ、制御装置2は、その点群情報から、新たな鳥瞰グリッドGの点群情報を得る。図14(b)には、移動先での無点セルの分布状態を示している。ここでは、推定立体物が推定される無点セルGb1、Gc0〜Gc2が検出され、それぞれに立体物確率「+0.5」が設定されている。   Hereinafter, the point cloud information of the bird's-eye grid G at the position of the movement destination is obtained by repeatedly executing the same processing as described above, and the control device 2 uses the point cloud information to generate the point cloud of the new bird's-eye grid G. get information. FIG. 14B shows the distribution state of the dotless cells at the movement destination. Here, the pointless cells Gb1, Gc0 to Gc2 in which the estimated three-dimensional object is estimated are detected, and the three-dimensional object probability “+0.5” is set for each of them.

このような鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に対応付けて変換すると、図14(a)に示すようになる。ここでは、4個の無点セルGb1、Gc0〜Gc2に対して、静止グリッドSのセルS32、S23、S33に対して立体物確率「+0.5」が設定される。   When such cell information of the bird's-eye grid G is converted in association with the cell information of the stationary grid S, the result is as shown in FIG. Here, a solid object probability “+0.5” is set for the cells S32, S23, and S33 of the stationary grid S for the four pointless cells Gb1 and Gc0 to Gc2.

次に、制御装置2は、上記の結果得られた図14に示す静止グリッドSの立体物確率のデータを前述の図13に示した静止グリッドSに加算する。この結果、図15に示すような加算された静止グリッドSが得られる。この図15からわかるように、2回の立体物確率の加算により、静止グリッドSのセルS31が「+0.5」、セルS32が「+1」、セルS23が「+1.5」、セルS33が「−0.5」となる。   Next, the control device 2 adds the solid object probability data of the stationary grid S shown in FIG. 14 obtained as a result of the above to the stationary grid S shown in FIG. As a result, the added stationary grid S as shown in FIG. 15 is obtained. As can be seen from FIG. 15, by adding the solid object probability twice, the cell S31 of the stationary grid S is “+0.5”, the cell S32 is “+1”, the cell S23 is “+1.5”, and the cell S33 is “−0.5”.

この結果、セルS32、S23の立体物確率が高くなっており、推定立体物が立体物である確率が高いということになり、距離情報が得られていない無点セルであっても、立体物の存在を検出することができるようになる。
なお、推定立体物から立体物への判定においては、上記したように鳥瞰グリッドGの点群情報を2回取得して求めることもできるし、3回以上の複数回の取得結果により求めることもできる。
As a result, the three-dimensional object probability of the cells S32 and S23 is high, and the probability that the estimated three-dimensional object is a three-dimensional object is high. Even if it is a pointless cell for which distance information is not obtained, the three-dimensional object The presence of can be detected.
In the determination from the estimated three-dimensional object to the three-dimensional object, the point cloud information of the bird's-eye grid G can be obtained twice and obtained as described above, or can be obtained from three or more acquisition results. it can.

このような第1実施形態によれば、制御装置2により、3次元距離検出部3が検出した距離情報に基づいて路面R上の立体物を判定する際に、距離情報が得られない無点セルが有るときは立体物が存在した場合を仮定して最も高い推定立体物の存在を推定して立体物確率を、推定重みα(=0.5)を乗ずることで設定した。これにより、静止グリッドS上で複数回の結果を加算することで、立体物確率が上昇したセルに対して立体物が存在することを判定することができるようになる。   According to the first embodiment, when the control device 2 determines a three-dimensional object on the road surface R based on the distance information detected by the three-dimensional distance detection unit 3, no distance information is obtained. When there is a cell, assuming the presence of a three-dimensional object, the existence of the highest estimated three-dimensional object is estimated, and the three-dimensional object probability is set by multiplying by the estimated weight α (= 0.5). As a result, by adding a plurality of results on the stationary grid S, it is possible to determine that a three-dimensional object exists for a cell whose solid object probability has increased.

この結果、自車両Aの周囲にレーザレーダにより照射したレーザ光による距離情報が得られない無点セルが存在する場合でも、立体物の存在を推定することができるようになり、路面R上に存在する立体物の推定を適切に行うことができるようになる。   As a result, even when there is a pointless cell around which the distance information by the laser light irradiated by the laser radar is not obtained around the host vehicle A, it is possible to estimate the presence of the three-dimensional object on the road surface R. The estimation of the existing three-dimensional object can be performed appropriately.

(第2実施形態)
図16〜図21は第2実施形態を示すもので、以下、第1実施形態と異なる部分について説明する。この実施形態は、無点セルが有る場合の処理方法において検出精度を高めることができるようにしたものである。
(Second Embodiment)
FIGS. 16 to 21 show the second embodiment, and only the parts different from the first embodiment will be described below. In this embodiment, the detection accuracy can be increased in the processing method in the case where there are undotted cells.

図16は、第1実施形態で示した図11に対応するもので、図10と同様に点群情報が得られたときに、この実施形態では、制御装置2は、図5で示した物体検出処理のステップS9、S10での推定立体物に関する処理を次のようにして行う。すなわち、制御装置2は、無点領域NPでの推定立体物の算出過程において、無点セルが連続する場合には、無点セル毎に立体物を推定する。   FIG. 16 corresponds to FIG. 11 shown in the first embodiment. When point cloud information is obtained in the same manner as in FIG. 10, in this embodiment, the control device 2 uses the object shown in FIG. Processing related to the estimated three-dimensional object in steps S9 and S10 of the detection processing is performed as follows. That is, in the calculation process of the estimated three-dimensional object in the astigmatic area NP, the control device 2 estimates a three-dimensional object for each astigmatism cell when the astigmatism cells are continuous.

図17に示すように、例えば無点領域NPがn個の連続する無点セルからなる場合には、制御装置2は、n個の無点セルのそれぞれについて最も高い立体物を推定する。ここでは、第1実施形態と同様に、無点領域NPの遠点距離をreとしている。また、無点領域NPの最も近い無点セルの近点位置をr1とし、k番目(n≧k>1の整数)の無点セルの近点位置をrkとしている。前述同様に3次元距離検出部3の高さをT0とすると、各無点セル内に存在し得る最も高い立体物は、近点位置rkに存在した場合を想定すると、その高さTkは、次式(B)で算出できる。
Tk=T0・(re−rk)/re …(B)
この場合、式(B)は、最も近い位置の無点セルについては式(A)と同じ式となる。また、遠い位置にある無点セルについては、分子の値すなわち遠点reとの距離の差が小さくなるので、推定立体物の高さTkがしきい値以下になることがある。
As illustrated in FIG. 17, for example, when the astigmatic region NP includes n continuous astigmatic cells, the control device 2 estimates the highest three-dimensional object for each of the n astigmatic cells. Here, as in the first embodiment, the far point distance of the astigmatism region NP is set to re. The near point position of the nearest dotless cell in the dotless region NP is r1, and the near point position of the kth (n ≧ k> 1) dot cell is rk. As described above, assuming that the height of the three-dimensional distance detection unit 3 is T0, assuming that the highest three-dimensional object that can exist in each pointless cell exists at the near point position rk, the height Tk is It can be calculated by the following formula (B).
Tk = T0 · (re−rk) / re (B)
In this case, the formula (B) is the same formula as the formula (A) for the closest pointless cell. In addition, for a pointless cell at a far position, the difference between the numerator value, that is, the distance from the far point re becomes small, and thus the height Tk of the estimated three-dimensional object may be below the threshold value.

したがって、例えば図16に示す例では、無点領域NPの3個の無点セルGa2〜Ga4の内、近い側の無点セルGa2、Ga3はしきい値以上となる推定立体物であるので、立体物確率として「0.5」が設定される。一方、無点領域NPの遠い位置の無点セルGa4はしきい値よりも低い推定立体物であるので路面としてみなされ、立体物確率として「−1」が設定される。   Therefore, for example, in the example shown in FIG. 16, among the three pointless cells Ga2 to Ga4 of the pointless region NP, the pointless cells Ga2 and Ga3 on the closer side are estimated solid objects that are equal to or higher than the threshold value. “0.5” is set as the three-dimensional object probability. On the other hand, the astigmatism cell Ga4 at a position far from the astigmatism region NP is an estimated three-dimensional object lower than the threshold value, and thus is regarded as a road surface, and “−1” is set as the three-dimensional object probability.

図18〜図21では、第1実施形態と同様に、鳥瞰グリッドGで検出された情報を静止グリッドSに変換する場合の具体例を示している。図18(b)は、図12(b)と同様の条件で取得された点群情報の分布図であるが、この実施形態では、無点領域NPの2個の無点セルGa1、Ga2のうち、制御装置2によりステップS9での処理で、無点セルGa1で推定立体物が推定され、無点セルGa2で路面が推定された場合で説明する。   18 to 21 show specific examples in the case where information detected in the bird's-eye view grid G is converted into a stationary grid S, as in the first embodiment. FIG. 18B is a distribution diagram of the point cloud information acquired under the same conditions as in FIG. 12B. In this embodiment, the two dot-free cells Ga1 and Ga2 in the dot-free region NP are shown. Of these, a case will be described in which the estimated solid object is estimated in the pointless cell Ga1 and the road surface is estimated in the pointless cell Ga2 by the control device 2 in step S9.

図18(b)に示す鳥瞰グリッドGでは、無点領域NPの2個の無点セルGa1、Ga2のうち、推定立体物が検出された無点セルGa1では「+0.5」が設定され、路面が判定された無点セルGa2では「−1」が設定されている。   In the bird's-eye view grid G shown in FIG. 18B, among the two pointless cells Ga1 and Ga2 in the pointless region NP, “+0.5” is set in the pointless cell Ga1 in which the estimated three-dimensional object is detected, "-1" is set in the pointless cell Ga2 for which the road surface is determined.

制御装置2は、ステップS11で、鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に変換した後、静止グリッドS上に鳥瞰グリッドGを重ねると、図18(a)に示すようになる。この結果、図19に示すように、無点セルGa1の立体物確率「+0.5」がセルS31に、無点セルGa2の立体物確率「−1」がセルS32に変換されている。   When the control device 2 converts the cell information of the bird's eye grid G into the cell information of the stationary grid S in step S11 and then superimposes the bird's eye grid G on the stationary grid S, the control device 2 becomes as shown in FIG. As a result, as shown in FIG. 19, the three-dimensional object probability “+0.5” of the pointless cell Ga1 is converted into the cell S31, and the three-dimensional object probability “−1” of the pointless cell Ga2 is converted into the cell S32.

この後、制御装置2は、自車両Aの位置をシフトさせてから同様の処理をすることで、移動先の位置での新たな鳥瞰グリッドGの点群情報から、図20(b)に示すような無点セルの分布状態を得る。推定立体物の算出処理を式(B)に従って演算した結果、無点セルGb1、Gc2は路面として判定されたため「−1」が設定され、無点セルGc0、Gc1は推定立体物と判定されたため「+0.5」が設定される。   After that, the control device 2 performs the same processing after shifting the position of the host vehicle A, so that the point cloud information of the new bird's-eye grid G at the destination position is shown in FIG. The distribution state of such pointless cells is obtained. As a result of calculating the calculation processing of the estimated three-dimensional object according to the formula (B), the pointless cells Gb1 and Gc2 are determined as road surfaces, so “−1” is set, and the pointless cells Gc0 and Gc1 are determined to be estimated three-dimensional objects. “+0.5” is set.

このような鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に対応付けて変換すると、図20(a)に示すようになる。ここでは、4個の無点セルGb1、Gc0〜Gc2のうち、推定立体物が設定された無点セルGc0、Gc1に対して、静止グリッドSのセルS32に対して立体物確率「+0.5」が設定される。   When such cell information of the bird's-eye grid G is converted in association with the cell information of the stationary grid S, the result is as shown in FIG. Here, among the four pointless cells Gb1 and Gc0 to Gc2, the solid object probability “+0.5” for the cell S32 of the stationary grid S with respect to the pointless cells Gc0 and Gc1 in which the estimated three-dimensional object is set. Is set.

次に、制御装置2は、上記の結果得られた図20に示す静止グリッドSの立体物確率のデータを前述の図19に示した静止グリッドSに加算する。この結果、図21に示すような加算された静止グリッドSが得られる。この図21からわかるように、2回の立体物確率の加算により、静止グリッドSのセルS31が「+0.5」となるが、セルS32は「−0.5」、セルS23は「0」、セルS33は「−2」となる。   Next, the control device 2 adds the data of the three-dimensional object probability of the stationary grid S shown in FIG. 20 obtained as the above result to the stationary grid S shown in FIG. As a result, the added stationary grid S as shown in FIG. 21 is obtained. As can be seen from FIG. 21, by adding the solid object probabilities twice, the cell S31 of the stationary grid S becomes “+0.5”, the cell S32 is “−0.5”, and the cell S23 is “0”. The cell S33 becomes “−2”.

この結果、セルS32の立体物確率が「+0.5」であるから立体物の存在が確認できないが可能性は残った状態である。また、他の無点セルS32、S23、S33は負の立体物確率となることから路面である可能性が高くなっている。   As a result, since the solid object probability of the cell S32 is “+0.5”, the existence of the solid object cannot be confirmed, but the possibility remains. In addition, since the other unspotted cells S32, S23, and S33 have a negative solid object probability, the possibility of being a road surface is high.

このような第2実施形態によれば、第1実施形態と同様の作用効果を得る事ができるとともに、制御装置2により、無点領域NPが複数の無点セルからなる場合には、無点セル毎に最も高い推定立体物を算出するようにしたので、さらにセル毎に細かい判定を行うことができるようになる。   According to the second embodiment, it is possible to obtain the same effect as that of the first embodiment. In addition, when the control device 2 makes the astigmatism region NP composed of a plurality of astigmatism cells, the Since the highest estimated three-dimensional object is calculated for each cell, it becomes possible to make a finer determination for each cell.

(第3実施形態)
図22〜図26は第3実施形態を示すもので、以下、第2実施形態と異なる部分について説明する。この実施形態は、無点セルの推定立体物について立体物確率の設定の仕方を高さに応じて設定するようにしているものである。
(Third embodiment)
22 to 26 show the third embodiment, and only the parts different from the second embodiment will be described below. In this embodiment, the method of setting the three-dimensional object probability is set in accordance with the height of the estimated three-dimensional object of the pointless cell.

図22は、第2実施形態で示した図16に対応するもので、図10と同様に点群情報が得られたときに、この実施形態では、制御装置2は、図5で示した物体検出処理のステップS9、S10での推定立体物に関する処理を次のようにして行う。すなわち、制御装置2は、無点領域NPでの推定立体物の算出過程において、無点セルが連続する場合には、無点セル毎に立体物を推定する。   FIG. 22 corresponds to FIG. 16 shown in the second embodiment, and when point cloud information is obtained in the same manner as in FIG. 10, in this embodiment, the control device 2 uses the object shown in FIG. Processing related to the estimated three-dimensional object in steps S9 and S10 of the detection processing is performed as follows. That is, in the calculation process of the estimated three-dimensional object in the astigmatic area NP, the control device 2 estimates a three-dimensional object for each astigmatism cell when the astigmatism cells are continuous.

ここでは、制御装置2は、第2実施形態と同様にして式(B)に基いて推定立体物の最も高い値を演算する。この結果、無点領域NP内では、図17にも示したように、物体検出装置1に近い側の無点セルの高さが高く、遠くなる程低くなる。制御装置2は、この推定立体物の高さに応じて、例えば、高いと推定重みαを「0.8」のように大きく設定し、低いと推定重みαを「0.2」のように低く設定している。この結果、制御装置2は、ステップS10で、図22に示すように、各セルに対応して立体物確率が設定される。   Here, the control device 2 calculates the highest value of the estimated three-dimensional object based on the formula (B) in the same manner as in the second embodiment. As a result, in the astigmatism region NP, as shown in FIG. 17, the height of the astigmatism cell closer to the object detection device 1 is higher, and becomes lower as the distance increases. In accordance with the height of the estimated three-dimensional object, for example, the control device 2 sets the estimated weight α as large as “0.8” if it is high, and sets the estimated weight α as “0.2” if it is low. It is set low. As a result, in step S10, the control device 2 sets the three-dimensional object probability corresponding to each cell as shown in FIG.

図23〜図26では、第2実施形態と同様に、鳥瞰グリッドGで検出された情報を静止グリッドSに変換する場合の具体例を示している。図23(b)は、図18(b)と同様の条件で取得された点群情報の分布図であるが、この実施形態では、制御装置2によりステップS9での処理で、無点領域NPの2個の無点セルGa1、Ga2で推定立体物が推定され、推定重みαが推定立体物の高さに応じて異なるように対応付けられた結果の立体物確率が示されている。ここでは、例えば、無点セルGa1で「+0.5」が設定され、無点セルGa2で「+0.3」が設定された場合で説明する。   23 to 26 show specific examples in the case where information detected in the bird's-eye grid G is converted into a stationary grid S, as in the second embodiment. FIG. 23B is a distribution diagram of point cloud information acquired under the same conditions as in FIG. 18B, but in this embodiment, the control device 2 performs the process in step S9 in the astigmatic region NP. The estimated three-dimensional object is estimated by the two pointless cells Ga1 and Ga2, and the three-dimensional object probability is shown in which the estimated weight α is associated with the estimated three-dimensional object depending on the height. Here, for example, a case where “+0.5” is set in the pointless cell Ga1 and “+0.3” is set in the pointless cell Ga2 will be described.

制御装置2は、ステップS11で、鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に変換した後、静止グリッドS上に鳥瞰グリッドGを重ねると、図23(a)に示すようになる。この結果、図24に示すように、無点セルGa1の立体物確率「+0.5」がセルS31に、無点セルGa2の立体物確率「+0.3」がセルS32に変換されている。   When the control device 2 converts the cell information of the bird's-eye grid G into the cell information of the stationary grid S in step S11 and then superimposes the bird's-eye grid G on the stationary grid S, the control device 2 becomes as shown in FIG. As a result, as shown in FIG. 24, the three-dimensional object probability “+0.5” of the pointless cell Ga1 is converted into the cell S31, and the three-dimensional object probability “+0.3” of the pointless cell Ga2 is converted into the cell S32.

この後、制御装置2は、自車両Aの位置をシフトさせてから同様の処理をすることで、移動先の位置での新たな鳥瞰グリッドGの点群情報から、図25(b)に示すような無点セルの分布状態を得る。推定立体物の算出処理を式(B)に従って演算した結果、無点セルGb1、Gc0〜Gc2の全てにおいて推定立体物が検出されている。すなわち、無点セルGb1で「+0.2」、無点セルGb0で「+0.5」、無点セルGc1で「+0.2」、無点セルGc2で「+0.1」が設定される。   Thereafter, the control device 2 performs the same processing after shifting the position of the host vehicle A, and the point cloud information of the new bird's-eye grid G at the destination position is shown in FIG. The distribution state of such pointless cells is obtained. As a result of calculating the calculation process of the estimated three-dimensional object according to the equation (B), the estimated three-dimensional object is detected in all of the pointless cells Gb1, Gc0 to Gc2. That is, “+0.2” is set for the pointless cell Gb1, “+0.5” for the pointless cell Gb0, “+0.2” for the pointless cell Gc1, and “+0.1” for the pointless cell Gc2.

このような鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に対応付けて変換すると、図25(a)に示すようになる。ここでは、4個の無点セルGb1、Gc0〜Gc2に対して、立体物確率は、静止グリッドSのセルS32に対して「+0.5」、セルS33に対して「+0.2」、セルS23に対して「+0.1」が設定される。   When the cell information of the bird's-eye grid G is converted in association with the cell information of the stationary grid S, the result is as shown in FIG. Here, for the four pointless cells Gb1 and Gc0 to Gc2, the three-dimensional object probability is “+0.5” for the cell S32 of the stationary grid S, “+0.2” for the cell S33, and the cell “+0.1” is set for S23.

次に、制御装置2は、上記の結果得られた図25(a)に示す静止グリッドSの立体物確率のデータを前述の図24に示した静止グリッドSに加算する。この結果、図26に示すような加算された静止グリッドSが得られる。この図26からわかるように、2回の立体物確率の加算により、静止グリッドSのセルS31が「+0.5」、セルS32が「+0.8」、セルS23が「+1.1」、セルS33が「−0.8」となる。   Next, the control device 2 adds the solid object probability data of the stationary grid S shown in FIG. 25A obtained as a result of the above to the stationary grid S shown in FIG. As a result, an added stationary grid S as shown in FIG. 26 is obtained. As can be seen from FIG. 26, by adding the solid object probability twice, the cell S31 of the stationary grid S is “+0.5”, the cell S32 is “+0.8”, the cell S23 is “+1.1”, the cell S33 becomes “−0.8”.

この結果、セルS32とS23で立体物確率が高くなり、立体物が存在する可能性が高くなっている。また、他の無点セルS33は負の立体物確率となることから路面である可能性が高くなっている。   As a result, the three-dimensional object probability is high in the cells S32 and S23, and the possibility that a three-dimensional object exists is high. In addition, the other pointless cell S33 has a negative three-dimensional object probability, and thus has a high possibility of being a road surface.

このような第3実施形態によれば、第2実施形態と同様の作用効果を得ることができるとともに、制御装置2により、無点領域NPが複数の無点セルから算出される推定立体物の高さに応じて推定重みαを乗じて立体物確率を求めるようにしたので、さらにセル毎に立体物の判定を細かく行うことができるようになる。   According to such 3rd Embodiment, while being able to obtain the same effect as 2nd Embodiment, the control apparatus 2 of the estimated solid object from which the astigmatic area | region NP is calculated from a several astigmatism cell Since the three-dimensional object probability is obtained by multiplying the estimated weight α according to the height, the three-dimensional object can be further determined for each cell.

(他の実施形態)
なお、本発明は、上述した実施形態のみに限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能であり、例えば、以下のように変形または拡張することができる。
(Other embodiments)
In addition, this invention is not limited only to embodiment mentioned above, In the range which does not deviate from the summary, it is applicable to various embodiment, For example, it can deform | transform or expand as follows.

上記各実施形態では、鳥瞰グリッドGとして、自車両Aの前方に向けた範囲を設定した場合を示したが、自車両Aの側方や後方などにも向けた範囲を設定することもできる。この場合には、検出方向に対応して複数の3次元距離検出部を設けることができる。   In each of the embodiments described above, the bird's-eye view grid G has been set to have a range directed to the front of the host vehicle A. However, a range directed to the side or rear of the host vehicle A can also be set. In this case, a plurality of three-dimensional distance detection units can be provided corresponding to the detection direction.

鳥瞰グリッドGの各セルに対応して立体物確率を検出したものを静止グリッドSに変換する際に、物体検出装置1の位置を静止グリッドSの位置に対応させて行う例を示したが、鳥瞰グリッドGを物体検出装置1の位置を固定した直交座標による直交グリッドを想定し、この直交グリッドに変換した後、これを静止グリッドSの位置に対応して重ねあわせるように処理しても良い。   Although the example in which the position of the object detection device 1 is made to correspond to the position of the stationary grid S when converting the detected solid object probability corresponding to each cell of the bird's-eye grid G to the stationary grid S has been shown, Assuming that the bird's-eye view grid G is an orthogonal grid based on orthogonal coordinates in which the position of the object detection device 1 is fixed, the bird's-eye view grid G may be processed so as to be superposed corresponding to the position of the stationary grid S after being converted to this orthogonal grid. .

図面中、1は物体検出装置、2は制御装置、2aは立体物検出部、2bは路面検出部、2cは立体物推定部、2dは立体物判定部、3は3次元距離検出部、4は記憶部、5は出力部である。   In the drawings, 1 is an object detection device, 2 is a control device, 2a is a three-dimensional object detection unit, 2b is a road surface detection unit, 2c is a three-dimensional object estimation unit, 2d is a three-dimensional object determination unit, 3 is a three-dimensional distance detection unit, 4 Is a storage unit, and 5 is an output unit.

Claims (4)

自車両の少なくとも前方の3次元距離情報を取得する3次元距離検出部(3)と、
前記3次元距離検出部の視点を基準とする鳥瞰グリッドで区切ったセル毎に前記3次元距離情報に基づいて立体物の有無を検出する立体物検出部(2a)と、
前記立体物が存在する場合に、前記自車両と前記立体物との間の距離情報が有る有点セルを路面として検出する路面検出部(2b)と、
前記自車両と前記立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合に、その無点領域内に存在し得る最大高さT1の推定立体物を次式(A)により推定する立体物推定部(2c)と、
路面を基準とした静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、前記自車両の移動に伴い前記3次元距離検出部により得られる新たな3次元距離情報から前記立体物推定部により推定された前記推定立体物のセルを前記静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出する立体物判定部(2d)と
を備えた物体検出装置。
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、r1:無点領域の近点距離である。
A three-dimensional distance detector (3) that acquires at least three-dimensional distance information ahead of the host vehicle;
A three-dimensional object detection unit (2a) that detects the presence or absence of a three-dimensional object based on the three-dimensional distance information for each cell partitioned by a bird's eye grid based on the viewpoint of the three-dimensional distance detection unit;
A road surface detection unit (2b) that detects a pointed cell having distance information between the host vehicle and the solid object as a road surface when the solid object exists;
When there is a pointless area including a pointless cell with no distance information between the host vehicle and the three-dimensional object, an estimated three-dimensional object having the maximum height T1 that can exist in the pointless area is represented by the following formula ( A three-dimensional object estimation unit (2c) estimated by A);
The solid object estimation unit converts at least the estimated solid object cell into a stationary grid cell based on a road surface, and uses the new three-dimensional distance information obtained by the three-dimensional distance detection unit as the vehicle moves. An object detection apparatus comprising: a three-dimensional object determination unit (2d) that detects a solid object when the estimated three-dimensional object cell is repeatedly estimated at the same road surface position when converted to the stationary grid.
T1 = T0 · (re−r1) / re (A)
Where T0 is the height of the three-dimensional distance detection unit, re is the far point distance of the astigmatic area, and r1 is the near point distance of the astigmatic area.
請求項1に記載の物体検出装置において、
前記立体物推定部(2c)は、前記無点領域が複数個の連続する無点セルである場合に、前記無点セル毎に存在し得る最大高さTkの推定立体物を次式(B)により推定する物体検出装置。
Tk=T0・(re−rk)/re …(B)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、rk:対象となる無点セルの近点距離である。
The object detection apparatus according to claim 1,
The solid object estimation unit (2c) calculates an estimated solid object having a maximum height Tk that can exist for each of the dotless cells when the dotless region is a plurality of continuous dotless cells by the following formula (B The object detection device estimated by
Tk = T0 · (re−rk) / re (B)
Where T0 is the height of the three-dimensional distance detection unit, re is the far point distance of the astigmatic area, and rk is the near point distance of the target astigmatic cell.
請求項1または2に記載の物体検出装置において、
前記立体物判定部(2d)は、前記立体物推定部により推定された推定立体物の高さに応じて推定重みを設定し、前記自車両の移動に伴う前記3次元距離情報から前記推定立体物の推定重みを加算した値が増加する場合に前記静止立体物を検出する物体検出装置。
In the object detection device according to claim 1 or 2,
The three-dimensional object determination unit (2d) sets an estimated weight according to the height of the estimated three-dimensional object estimated by the three-dimensional object estimation unit, and calculates the estimated three-dimensional object from the three-dimensional distance information associated with the movement of the host vehicle. An object detection device that detects the stationary solid object when a value obtained by adding estimated weights of the object increases.
コンピュータに、
自車両の少なくとも前方の3次元距離情報を取得する3次元距離検出処理、
前記3次元距離検出部の視点を基準とする鳥瞰グリッドで区切ったセル毎に前記3次元距離情報に基づいて立体物の有無を検出する立体物検出処理、
前記立体物が存在する場合に、前記自車両と前記立体物との間の距離情報が有る有点セルを路面として検出する路面検出処理、
前記自車両と前記立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合に、その無点領域内に存在し得る最大高さT1の推定立体物を次式(A)により推定する立体物推定処理、
路面を基準とした静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、前記自車両の移動に伴い前記3次元距離検出部により得られる新たな3次元距離情報から前記立体物推定部により推定された前記推定立体物のセルを前記静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出する立体物判定処理
を実行させるための物体検出プログラム。
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、r1:無点領域の近点距離である。
On the computer,
3D distance detection processing for acquiring at least 3D distance information ahead of the host vehicle;
A three-dimensional object detection process for detecting the presence or absence of a three-dimensional object based on the three-dimensional distance information for each cell divided by a bird's eye grid based on the viewpoint of the three-dimensional distance detection unit;
A road surface detection process for detecting a pointed cell having distance information between the host vehicle and the solid object as a road surface when the solid object exists;
When there is a pointless area including a pointless cell with no distance information between the host vehicle and the three-dimensional object, an estimated three-dimensional object having the maximum height T1 that can exist in the pointless area is represented by the following formula ( A three-dimensional object estimation process estimated by A),
The solid object estimation unit converts at least the estimated solid object cell into a stationary grid cell based on a road surface, and uses the new three-dimensional distance information obtained by the three-dimensional distance detection unit as the vehicle moves. An object detection program for executing a three-dimensional object determination process for detecting as a three-dimensional object when the estimated cell of the estimated three-dimensional object is repeatedly estimated at the same road surface position when converted to the stationary grid.
T1 = T0 · (re−r1) / re (A)
Where T0 is the height of the three-dimensional distance detection unit, re is the far point distance of the astigmatic area, and r1 is the near point distance of the astigmatic area.
JP2016052311A 2016-03-16 2016-03-16 Object detection device and object detection program Active JP6756124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016052311A JP6756124B2 (en) 2016-03-16 2016-03-16 Object detection device and object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016052311A JP6756124B2 (en) 2016-03-16 2016-03-16 Object detection device and object detection program

Publications (2)

Publication Number Publication Date
JP2017166971A true JP2017166971A (en) 2017-09-21
JP6756124B2 JP6756124B2 (en) 2020-09-16

Family

ID=59913744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016052311A Active JP6756124B2 (en) 2016-03-16 2016-03-16 Object detection device and object detection program

Country Status (1)

Country Link
JP (1) JP6756124B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181491A1 (en) 2018-03-22 2019-09-26 日立オートモティブシステムズ株式会社 Object recognizing device
CN110599762A (en) * 2018-06-12 2019-12-20 光宝电子(广州)有限公司 Road condition sensing system and method
KR20200006673A (en) * 2018-07-11 2020-01-21 경북대학교 산학협력단 Method and device for extracting motion position by applying weights during beam scanning analysis
CN110850439A (en) * 2020-01-15 2020-02-28 奥特酷智能科技(南京)有限公司 High-precision three-dimensional point cloud map construction method
JP2020154983A (en) * 2019-03-22 2020-09-24 トヨタ自動車株式会社 Object recognition device and vehicle control system
WO2020235396A1 (en) * 2019-05-20 2020-11-26 株式会社デンソー Obstacle detection device and obstacle detection method
JP2021081235A (en) * 2019-11-15 2021-05-27 日本信号株式会社 Object detection device and object detection program
US20210215797A1 (en) * 2018-03-26 2021-07-15 Mitsubishi Electric Corporation Object detection apparatus, vehicle, object detection method, and computer readable medium
JP7224682B1 (en) 2021-08-17 2023-02-20 忠北大学校産学協力団 3D multiple object detection device and method for autonomous driving
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
GB2601438B (en) * 2019-07-26 2024-03-06 Deka Products Lp System and method for free space estimation
US11982745B2 (en) 2018-03-22 2024-05-14 Hitachi Astemo, Ltd. Object recognizing device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000146547A (en) * 1998-11-17 2000-05-26 Toyota Central Res & Dev Lab Inc Detector for shape of obstacle for vehicle
JP2000181541A (en) * 1998-12-21 2000-06-30 Komatsu Ltd Self-traveling type vehicle
JP2006266801A (en) * 2005-03-23 2006-10-05 Mitsui Eng & Shipbuild Co Ltd Collision-preventing device and vehicle with it
JP2007248257A (en) * 2006-03-16 2007-09-27 Nissan Motor Co Ltd Vehicle obstacle on-road detection device and method, and vehicle with obstruct on-road detection device
JP2010160777A (en) * 2008-12-12 2010-07-22 Toyota Central R&D Labs Inc Map generation device, track estimation device, movable area estimation device and program
US8736463B1 (en) * 2012-01-30 2014-05-27 Google Inc. Object bounding box estimation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000146547A (en) * 1998-11-17 2000-05-26 Toyota Central Res & Dev Lab Inc Detector for shape of obstacle for vehicle
JP2000181541A (en) * 1998-12-21 2000-06-30 Komatsu Ltd Self-traveling type vehicle
JP2006266801A (en) * 2005-03-23 2006-10-05 Mitsui Eng & Shipbuild Co Ltd Collision-preventing device and vehicle with it
JP2007248257A (en) * 2006-03-16 2007-09-27 Nissan Motor Co Ltd Vehicle obstacle on-road detection device and method, and vehicle with obstruct on-road detection device
JP2010160777A (en) * 2008-12-12 2010-07-22 Toyota Central R&D Labs Inc Map generation device, track estimation device, movable area estimation device and program
US8736463B1 (en) * 2012-01-30 2014-05-27 Google Inc. Object bounding box estimation

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181491A1 (en) 2018-03-22 2019-09-26 日立オートモティブシステムズ株式会社 Object recognizing device
US11982745B2 (en) 2018-03-22 2024-05-14 Hitachi Astemo, Ltd. Object recognizing device
US11609307B2 (en) * 2018-03-26 2023-03-21 Mitsubishi Electric Corporation Object detection apparatus, vehicle, object detection method, and computer readable medium
US20210215797A1 (en) * 2018-03-26 2021-07-15 Mitsubishi Electric Corporation Object detection apparatus, vehicle, object detection method, and computer readable medium
CN110599762A (en) * 2018-06-12 2019-12-20 光宝电子(广州)有限公司 Road condition sensing system and method
KR102144048B1 (en) 2018-07-11 2020-08-12 경북대학교 산학협력단 Method and device for extracting motion position by applying weights during beam scanning analysis
KR20200006673A (en) * 2018-07-11 2020-01-21 경북대학교 산학협력단 Method and device for extracting motion position by applying weights during beam scanning analysis
JP7147651B2 (en) 2019-03-22 2022-10-05 トヨタ自動車株式会社 Object recognition device and vehicle control system
JP2020154983A (en) * 2019-03-22 2020-09-24 トヨタ自動車株式会社 Object recognition device and vehicle control system
JP2020190429A (en) * 2019-05-20 2020-11-26 株式会社Soken Obstacle detection device and obstacle detection method
WO2020235396A1 (en) * 2019-05-20 2020-11-26 株式会社デンソー Obstacle detection device and obstacle detection method
JP7152355B2 (en) 2019-05-20 2022-10-12 株式会社Soken Obstacle detection device and obstacle detection method
GB2601438B (en) * 2019-07-26 2024-03-06 Deka Products Lp System and method for free space estimation
JP2021081235A (en) * 2019-11-15 2021-05-27 日本信号株式会社 Object detection device and object detection program
JP7406350B2 (en) 2019-11-15 2023-12-27 日本信号株式会社 Object detection device and object detection program
CN110850439A (en) * 2020-01-15 2020-02-28 奥特酷智能科技(南京)有限公司 High-precision three-dimensional point cloud map construction method
CN110850439B (en) * 2020-01-15 2020-04-21 奥特酷智能科技(南京)有限公司 High-precision three-dimensional point cloud map construction method
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP7224682B1 (en) 2021-08-17 2023-02-20 忠北大学校産学協力団 3D multiple object detection device and method for autonomous driving
JP2023027736A (en) * 2021-08-17 2023-03-02 忠北大学校産学協力団 3d multi-object detecting apparatus and method for autonomous driving

Also Published As

Publication number Publication date
JP6756124B2 (en) 2020-09-16

Similar Documents

Publication Publication Date Title
JP6756124B2 (en) Object detection device and object detection program
CN107766405B (en) Automatic vehicle road model definition system
CN104181512B (en) The method and apparatus of the misalignment of radar sensor for seeking vehicle
US10867191B2 (en) Method for detecting and/or tracking objects
US11255681B2 (en) Assistance control system
WO2018221453A1 (en) Output device, control method, program, and storage medium
JP6453701B2 (en) Posture estimation device
KR102464581B1 (en) Apparatus for processing stereo points of cloud and method thereof
WO2018180338A1 (en) Information processing device, server device, control method, program, and storage medium
JP5630249B2 (en) Object recognition device
JP5712900B2 (en) Peripheral object detection device
JP2017015409A (en) Road surface detection device, mobile body, road surface detection method, and road surface detection program
WO2018221455A1 (en) Update device, control method, program, and storage medium
WO2017199333A1 (en) Information output device, terminal device, control method, program, and storage medium
CN110674705A (en) Small-sized obstacle detection method and device based on multi-line laser radar
US20210094581A1 (en) Autonomous driving apparatus and method
WO2020080088A1 (en) Information processing device
CN106080397A (en) Self-adaption cruise system and mobile unit
CN114384491B (en) Point cloud processing method and device for laser radar and storage medium
CN114384492B (en) Point cloud processing method and device for laser radar and storage medium
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
WO2021102676A1 (en) Object state acquisition method, mobile platform and storage medium
KR102604821B1 (en) Apparatus and method for estimating location of vehicle
JP2018206038A (en) Point group data processing device, mobile robot, mobile robot system, and point group data processing method
JP2020148470A (en) Road surface detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R151 Written notification of patent or utility model registration

Ref document number: 6756124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250