JP2017166971A - Object detection device and object detection program - Google Patents
Object detection device and object detection program Download PDFInfo
- Publication number
- JP2017166971A JP2017166971A JP2016052311A JP2016052311A JP2017166971A JP 2017166971 A JP2017166971 A JP 2017166971A JP 2016052311 A JP2016052311 A JP 2016052311A JP 2016052311 A JP2016052311 A JP 2016052311A JP 2017166971 A JP2017166971 A JP 2017166971A
- Authority
- JP
- Japan
- Prior art keywords
- cell
- dimensional
- estimated
- dimensional object
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 81
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims abstract description 67
- 239000007787 solid Substances 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims description 27
- 238000002310 reflectometry Methods 0.000 abstract description 2
- 230000003068 static effect Effects 0.000 abstract 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 46
- 201000009310 astigmatism Diseases 0.000 description 24
- 241000905137 Veronica schmidtiana Species 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、物体検出装置および物体検出プログラムに関する。 The present invention relates to an object detection device and an object detection program.
車両が道路を走行する際に前方に存在する立体物をLIDAR(light detection and ranging ,laser imaging detection and ranging ;レーザレーダ)を用いて検出する物体検出装置がある。例えば自動車の車室前面部にレーザレーダを設けて、前方の路面に向けて照射してその反射光により距離を測定している。 2. Description of the Related Art There is an object detection device that detects a three-dimensional object existing ahead when a vehicle travels on a road by using LIDAR (light detection and ranging, laser imaging detection and ranging; laser radar). For example, a laser radar is provided in the front part of a passenger compartment of an automobile, and the distance is measured by the reflected light by irradiating the road surface ahead.
自車から前方の様々な方向に向けて測定点までの距離を検出し、距離が等しい測定点が複数存在する場合に、その高さ寸法を算出することで前方の立体物の存在を検出することができる。この場合、立体物の存在は反射光による距離情報により検出しているが、投光先の路面までの距離情報が得られる場合には車両と立体物との間においては立体物の存在が検出されていないことから、路面であると判断することができる。 Detect the distance to the measurement point from the host vehicle in various directions ahead, and if there are multiple measurement points with the same distance, detect the presence of the three-dimensional object ahead by calculating the height dimension. be able to. In this case, the presence of the three-dimensional object is detected by the distance information based on the reflected light, but if the distance information to the road surface of the projection destination is obtained, the presence of the three-dimensional object is detected between the vehicle and the three-dimensional object. Since it is not done, it can be determined that the road surface.
しかし、実際には路上に反射率が低い黒い物体や反射光が投光側に戻らない物体などが存在すると、距離情報が得られていない場合や十分な距離情報の個数が得られていない領域が発生することが想定される。そして、この場合には立体物が存在していても検出できない場合が生じ、立体物が検出されないために路面であると誤判定してしまうおそれがあった。 However, if there is actually a black object with low reflectivity on the road or an object that does not return reflected light to the light projection side, the area where distance information is not obtained or the number of sufficient distance information is not obtained Is assumed to occur. In this case, even if a three-dimensional object is present, there is a case where it cannot be detected, and since the three-dimensional object is not detected, there is a possibility that the road surface is erroneously determined.
本発明は、上記事情を考慮してなされたもので、その目的は、反射光による距離情報が得られない領域が存在する場合に、この領域が立体物を含むか否かを推定することができるようにした物体検出装置および物体検出プログラムを提供することにある。 The present invention has been made in view of the above circumstances, and its purpose is to estimate whether or not this region includes a three-dimensional object when there is a region where distance information by reflected light cannot be obtained. It is an object to provide an object detection apparatus and an object detection program that can be used.
請求項1に記載の物体検出装置は、自車両の少なくとも前方の3次元距離情報を取得する3次元距離検出部(3)と、前記3次元距離検出部の視点を基準とする鳥瞰グリッドで区切ったセル毎に前記3次元距離情報に基づいて立体物の有無を検出する立体物検出部(4)と、前記立体物が存在する場合に、前記自車両と前記立体物との間の距離情報が有る有点セルを路面として検出する路面検出部(5)と、前記自車両と前記立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合に、その無点領域内に存在し得る最大高さT1の推定立体物を次式(A)により推定する立体物推定部(6)と、路面を基準とした静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、前記自車両の移動に伴い前記3次元距離検出部により得られる新たな3次元距離情報から前記立体物推定部により推定された前記推定立体物のセルを前記静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出する立体物判定部(7)とを備えている。
The object detection apparatus according to
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、r1:無点領域の近点距離である。
T1 = T0 · (re−r1) / re (A)
Where T0 is the height of the three-dimensional distance detection unit, re is the far point distance of the astigmatic area, and r1 is the near point distance of the astigmatic area.
上記構成を採用することにより、3次元距離検出部により自車両の少なくとも前方の3次元距離情報を取得し、取得した3次元距離情報を鳥瞰グリッドで区切ったセル毎にあてはめて、立体物検出部によりセル毎に立体物の有無を検出する。立体物の存在が検出された場合に、路面検出部は、自車両と立体物との間のセルのうち、距離情報が有る有点セルを路面として検出する。また、自車両と立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合には、立体物推定部は、式(A)により無点領域内に存在し得る最大高さT1の推定立体物を推定する。立体物判定部は、静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、自車両の移動に伴い3次元距離検出部により得られる新たな3次元距離情報から立体物推定部により推定された推定立体物のセルを静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出することができる。これにより、3次元距離検出部による3次元距離情報が得られていない無点領域がある場合でも、その無点領域に立体物が存在するか否かを推定することができ、誤判定の発生を低減させることができる。 By adopting the above configuration, the three-dimensional distance detection unit acquires at least the three-dimensional distance information ahead of the host vehicle, and applies the acquired three-dimensional distance information to each cell divided by the bird's-eye view grid. The presence or absence of a three-dimensional object is detected for each cell. When the presence of the three-dimensional object is detected, the road surface detection unit detects a pointed cell having distance information among the cells between the host vehicle and the three-dimensional object as the road surface. In addition, when there is a pointless area including a pointless cell with no distance information between the host vehicle and the three-dimensional object, the three-dimensional object estimation unit is the maximum that can exist in the pointless area according to the formula (A). An estimated solid object having a height T1 is estimated. The three-dimensional object determination unit converts at least the estimated three-dimensional object cell into a stationary grid cell, and is estimated by the three-dimensional object estimation unit from new three-dimensional distance information obtained by the three-dimensional distance detection unit as the host vehicle moves. When the estimated solid object cell is converted to a stationary grid and repeatedly estimated at the same road surface position, it can be detected as a solid object. As a result, even when there is a pointless region where the three-dimensional distance information is not obtained by the three-dimensional distance detection unit, it is possible to estimate whether or not a three-dimensional object exists in the pointless region, and an erroneous determination occurs. Can be reduced.
(第1実施形態)
以下、本発明の第1実施形態について、図1〜図15を参照して説明する。
図2(a)、(b)物体検出装置1は、例えば車両Aの前面部上部に搭載されるもので、車室内のフロントガラスの内側上部などに設けられる。物体検出装置1は、図1に示すように、制御装置2を主体として3次元距離検出部3、記憶部4および出力部5を備えている。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
2 (a) and 2 (b), the
制御装置2は、CPU、ROM、RAMおよびインタフェースなどを備えたもので、車載ECUに組み込まれたものでも良いし、別途設ける構成のもでも良い。制御装置2は、後述する物体検出プログラムに基づいて3次元距離検出部3により検出された距離情報から車両Aの前方に存在する立体物を検出する。図1には、制御装置2の機能による構成を示している。構成要素としては、立体検出部2a、路面検出部2b、立体物推定部2c、立体物判定部2dを備えている。
The
3次元距離検出部3は、いわゆるレーザレーダ(LIDAR)と言われるもので、例えば車両Aの前方の様々な方向に向けて測距用のレーザ光を照射して前方の走行範囲の距離を3次元的に検出するものである。記憶部4は、制御装置2内に設けることもできるし、外部に別途設ける構成とすることもできる。記憶部4は、制御装置2により実行される物体検出プログラムが記憶されるとともに、各種の情報が記憶されている。出力部5は、立体物の検出結果を表示するもので、車室内に設けられたディスプレイなどを利用して表示させることができる。
The three-dimensional
3次元距離検出部3は、図2(a)に示すように、車両Aの前方路面R上にレーザ光を照射する。車両Aの前面直下の位置を原点(O)として近点側から路面R上の距離r1、r2、…、rnのように、照射点Pをほぼ等間隔で遠点側に移動させながら反射光の到達時間を検出して距離を算出している。また、3次元距離検出部3は、図2(b)に示すように、前方r方向を中心として左右に方向を変化させてレーザ光を振って扇型の検出エリアで距離を測定している。
The three-dimensional
この場合、レーザ光が路面Rに照射される場合には、その路面Rの照射点Pに対応する距離の情報が得られる。一方、路面R上に立体物などの物体が存在する場合には、レーザ光が路面Rに到達する前に立体物に照射され、その反射光を受光して距離を算出するので、路面Rの照射点Pよりも近い位置の距離情報が得られる。 In this case, when the road surface R is irradiated with laser light, information on the distance corresponding to the irradiation point P on the road surface R is obtained. On the other hand, when an object such as a three-dimensional object exists on the road surface R, the laser light is irradiated onto the three-dimensional object before reaching the road surface R, and the reflected light is received to calculate the distance. The distance information of the position closer than the irradiation point P is obtained.
3次元距離検出部3により得られる距離情報は、図2(b)に示しているように、レーザ光の照射範囲に応じて車両Aに対応して鳥瞰グリッドGで分割した複数のセルGθn(例えば、方向θ:a〜e、距離n:0〜4)に分けて立体物の判定を行う。鳥瞰グリッドGは、車両Aの進行方向を示すr軸に対して、このr軸を含んだ所定角度の範囲を車両Aに近い側から所定距離毎にセルGa0〜Ga4のように区切っている。同様にして、車両Aの進行方向に対してセルGa0〜Ga4の左側の所定角度範囲にセルGb0〜Gb4、さらにその左側にセルGc0〜Gc4を設定するように区切っている。また、車両Aの進行方向に対してセルGa0〜Ga4の右側の所定角度範囲にセルGd0〜Gd4、さらにその右側にセルGe0〜Ge4を設定するように区切っている。
As shown in FIG. 2B, the distance information obtained by the three-dimensional
レーザ光の反射により得られる距離情報は、図3に示すように、距離に応じて鳥瞰グリッドGのセルGθnに対応付けられる。図中には対応するセルに距離情報を示す位置を黒丸(ドット)で示している。 The distance information obtained by the reflection of the laser light is associated with the cell Gθn of the bird's eye grid G according to the distance, as shown in FIG. In the figure, positions indicating distance information in corresponding cells are indicated by black circles (dots).
一方、立体物の判定には、図4に示すように、路面Rに対応した直交座標系の静止グリッドSが設定される。静止グリッドSは、路面Rの車両の進行方向と直交する方向をx、進行方向をyとするとき、x方向およびy方向の位置に対応して矩形マトリクス状のセルSxy(例えばS00〜S77までの8×8個のセル)などが設定されている。図4では車両Aの物体検出装置1の位置が静止グリッドS上に示されている。
On the other hand, as shown in FIG. 4, for the determination of the three-dimensional object, a stationary grid S of an orthogonal coordinate system corresponding to the road surface R is set. The stationary grid S is a rectangular matrix cell Sxy (for example, from S00 to S77) corresponding to the position in the x direction and y direction, where x is the direction orthogonal to the traveling direction of the vehicle on the road surface R and y is the traveling direction. 8 × 8 cells) are set. In FIG. 4, the position of the
次に、物体検出装置1による物体検出処理について、図5を参照して説明する。この物体検出処理のフローチャートは、物体検出プログラムとして記憶部4に記憶されているものである。制御装置2は、物体検出処理を開始するにあたり、記憶部4から物体検出プログラムを読み出す。
Next, object detection processing by the
制御装置2は、プログラムを開始すると、まずステップS1で静止グリッドS上のデータを初期化し、自車Aの位置に対応して前方の路面Aを含む領域に静止グリッドSを設定する。次に、制御装置2は、ステップS2に進むと、3次元距離検出部3のレーザレーダにより車両Aの前方(鳥瞰グリッドGではr方向;静止グリッドSではy方向)に向けてレーザ光を照射して距離情報を鳥瞰グリッドGの位置に対応して取得する。この場合、制御装置2は、3次元距離検出部3により得られる距離情報の点群情報を取得する。点群情報はレーザ光の照射角度と距離との情報であり、3次元距離検出部3の位置を中心とした極座標の情報である。
When starting the program, the
制御装置2は、ステップS3で、取得した点群情報を鳥瞰グリッドGにマッピングする。このとき、距離の情報が路面R上での距離よりも短いときには、距離に応じたセルGθnにマッピングする。例えば、図6に示すように、路面R近くの点Paに対して、これよりも遠い位置に対応する点Pbの距離が同じであるとすると、ここにレーザ光を遮って反射させる立体物が存在することが推定できる。
The
このときの高さHaが、しきい値として設定される所定以上、例えば5〜10センチ以上あるときには、車両Aが進行すると乗り上げる障害物となる可能性がある。このような場合には、立体物があることが検出できる。このように同じセルGθnに属する距離情報の点Pを図7に示すように、鳥瞰グリッドGの各セルGθnに対応付ける。 When the height Ha at this time is equal to or greater than a predetermined threshold set as a threshold, for example, 5 to 10 cm or more, there is a possibility that the vehicle A may become an obstacle to ride on when the vehicle A travels. In such a case, it can be detected that there is a three-dimensional object. Thus, the distance information point P belonging to the same cell Gθn is associated with each cell Gθn of the bird's-eye view grid G as shown in FIG.
次に、制御装置2は、ステップS4で、立体物検出処理を行う。ここでは、図6で説明したように、一つのセルGθn内に入る距離情報について、複数の距離情報が存在していてその高さHを算出し、しきい値以上の高さがある場合に立体物の存在を検出する。具体的には、制御装置2は、セルGθn内に複数の距離情報が存在するものについて、そのセルGθn内の距離情報に基づいて測定点の高さを求める。
Next, the
ここでは、制御装置2は、複数の測定点の高さ情報から、最低の高さの点Paと最高の高さのPbとの間の差を演算して高さHaを求める。制御装置2は、得られた高さHaの値が立体物を判定するしきい値Ho以上である場合に、セルGθn内に立体物が存在することを判定する。続いて、制御装置2は、ステップS5に進み、立体物が検出されたセルGθnに対して、立体物確率の点数として「+1」を設定する。
Here, the
次に、制御装置2は、ステップS6で、路面検出処理を行う。具体的には、制御装置2は、自車両Aと立体物が検出されたセルGθnとの間のセルGθ0〜Gθ(n−1)のうち、距離情報が得られているものについて、路面Rが検出されたセルであると判定する。続いて、制御装置2は、ステップS7で、セルGθ0〜Gθ(n−1)のうちの路面として判定したセルについて立体物確率の点数として「−1」を設定する。
Next, the
次に、制御装置2は、ステップS8で、距離情報が得られていないセルGθk(k:0≦k<nの整数)について、次のように処理を行う。すなわち、制御装置2は、立体物の存在を検出したセルGθnの方向θについて、立体物の手前のセルGθ0〜Gθ(n−1)のうち、路面と判定されなかったセルつまり距離情報が得られていないセルGθk(k:0≦k<nの整数)について、これを無点領域NPとして認識する。この場合、無点領域NPは1個のセルである場合もあるし、複数個の連続したセルである場合もある。無点領域NPには、その領域中にレーザ光を反射しないか反射率が低い立体物が存在することも考えられる。
Next, in step S8, the
そこで、制御装置2は、まず、無点領域NP内において立体物が存在した場合の最も高いものについて推定処理を行う。図7を参照して算出の原理を説明する。無点領域NPの遠点距離をre、近点距離をr1とし、物体検出装置1の高さをT0とすると、無点領域NPに存在加納な最も高い立体物は、近点位置r1に存在した場合であるから、その高さT1は、次式(A)で算出できる。
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域NPの遠点距離、r1:無点領域NPの近点距離である。
Therefore, the
T1 = T0 · (re−r1) / re (A)
Where T0 is the height of the three-dimensional distance detector, re is the far point distance of the astigmatic area NP, and r1 is the near point distance of the astigmatic area NP.
この場合、上式(A)で推定できるのは、存在しうる最も高い立体物の高さであり、実際にはそれ以下の高さの立体物が存在することもありうる。例えば、図8に示すように、無点領域NPとして、連続した3つのセルGa3〜Ga5がある場合に、セルGa3の近点の位置に最も高いHaの高さの立体物Xaが存在する(a)の場合がある。また、セルGa3〜Ga5にまたがるように低い高さHbの立体物Xbが存在する(b)の場合もある。さらには、2つのセルGa3およびGa4にまたがる高さHcの立体物Xcが存在する(c)の場合もある。 In this case, what can be estimated by the above formula (A) is the height of the highest three-dimensional object that can exist, and in fact, a three-dimensional object with a height less than that may exist. For example, as shown in FIG. 8, when there are three continuous cells Ga3 to Ga5 as the astigmatic region NP, the three-dimensional object Xa having the highest Ha height exists at the position near the cell Ga3 ( a) may occur. In some cases (b), there is a three-dimensional object Xb having a low height Hb so as to straddle the cells Ga3 to Ga5. Furthermore, there is a case (c) where there is a three-dimensional object Xc having a height Hc extending over the two cells Ga3 and Ga4.
一方、図9に示すように、存在し得る立体物は奥行きが短い場合には、高さに応じて無点セルの連続個数が決まる。例えば、図9(a)のように高さHaの立体物では、連続する3つの無点セルGa3〜Ga5が発生する。また、図9(b)のように高さHdの立体物では、1個の無点セルGa5が発生する。無点セルが1個の場合には、セルの奥行き寸法によっては最大高さがしきい値よりも小さくなることがあり、立体物として判定しないことがある。 On the other hand, as shown in FIG. 9, when a three-dimensional object that can exist has a short depth, the number of continuous dotless cells is determined according to the height. For example, in a three-dimensional object having a height Ha as shown in FIG. 9A, three continuous pointless cells Ga3 to Ga5 are generated. Further, as shown in FIG. 9B, in the three-dimensional object having the height Hd, one pointless cell Ga5 is generated. When there is one dotless cell, the maximum height may be smaller than a threshold value depending on the depth dimension of the cell, and it may not be determined as a three-dimensional object.
以上のことから、制御装置2は、ステップS9で、無点領域の最大高さがしきい値を超える場合にこの無点領域に立体物が存在することを推定し、推定立体物として設定する。続いて、制御装置2は、ステップS10で、推定立体物の存在を推定したセルについて推定重みαを設定する。ここでは、例えば推定立体物の推定重みαとして、0から1の範囲で定められている値を立体物確率として設定する。
From the above, the
制御装置2は、次に、ステップS11に進み、極座標系の鳥瞰グリッドGの各セルについて得られた結果を、直交座標系の静止グリッドSのセルに変換する処理を行う。この場合、直接路面Rの位置に対応した静止グリッドSに対応付ける処理をすることもできるし、自車両Aの物体検出装置1の位置を原点とする直交座標系の移動する鳥瞰グリッドを想定して変換処理をすることもできる。
Next, the
直交座標系の移動する鳥瞰グリッドに変換する場合には、変換後の直交座標系を路面Rに対応した静止グリッドSに宛てはめる処理をすることで、結果として同じ処理を実施することができる。次に、制御装置2は、静止グリッドS上の各セルSxyに対して、前述のようにして得られた立体物確率の値を加算処理する。
In the case of conversion to a bird's-eye view grid that moves in an orthogonal coordinate system, the same process can be performed as a result by performing the process of applying the converted orthogonal coordinate system to the stationary grid S corresponding to the road surface R. Next, the
制御装置2は、ステップS13に進み、自車両Aの位置情報に基づいて静止グリッドSにおける自車両Aの位置を変更設定する。この後、制御装置2は、ステップS2に戻り、上記処理と同様の処理を移動後の位置の点群情報に基づいて行い、以下、ステップS2〜S13を繰り返し実行する。
The
制御装置2は、上記の処理とは別に、立体物の判定処理を行っている。上記の処理を繰り返した結果、静止グリッドSのセルSxyには、立体物確率が加算されていくことで、路面Rに静止している立体物が存在する場合あるいは推定立体物が存在する場合には、そのセルの立体物確率の値が増加していく。これにより、制御装置2は、路面Rに存在する静止した立体物を正確に推定することができる。
The
また、他の車両などの移動する立体物が存在する場合には、他の車両の移動とともに立体物が移動するため、立体物確率の値は増加するのではなく、セル間を移動するようになる。さらに、無点領域に立体物が存在していなかった場合には、複数回の加算処理で立体物確率の値が増加することがないため、立体物の存在は判定されない。 In addition, when there is a moving three-dimensional object such as another vehicle, the three-dimensional object moves with the movement of the other vehicle, so that the value of the three-dimensional object probability does not increase but moves between cells. Become. Furthermore, if there is no solid object in the astigmatism region, the value of the solid object probability does not increase by a plurality of addition processes, so the presence of the three-dimensional object is not determined.
次に、図10から図15を参照して具体的な事例を説明する。
図10は鳥瞰グリッドGのうちのr方向(セルGanの列の方向)に対応した8個のセルGa0〜Ga7を示している。前述のように、制御装置2は、図5に示したプログラムのステップS1を経てステップS2で、3次元距離検出部3により取得された測定点Pに対するレーザ光による距離情報を点群情報として取り込んでいる。実際には、図3で示したように、鳥瞰グリッドGのすべてのセルについて点群情報が得られており、制御装置2は、これらのすべてについて以下の処理を実行するが、簡単のために図10に示す8個のセルGa0〜Ga7についての処理で説明する。
Next, specific examples will be described with reference to FIGS.
FIG. 10 shows eight cells Ga <b> 0 to Ga <b> 7 corresponding to the r direction (the column direction of the cells Gan) in the bird's eye view grid G. As described above, the
制御装置2は、ステップS3で、点群情報を鳥瞰グリッドGのすべてのセルに対してマッピングしている。図10は、r方向の8個のセルでのマッピングの例である。ここでは、距離情報が得られている有点セルGa0、Ga1、Ga5、Ga6、距離情報が得られていない無点セルGa2〜Ga4、Ga7がある。
The
制御装置2は、有点セルGa0、Ga1、Ga5、Ga6のうち、路面Rの照射点Pまでの距離よりも短い距離情報が含まれている有点セルGa6については、ステップS4で立体物検出処理を行って立体物を検出する。制御装置2は、ステップS5で、立体物が含まれた立体物セルGa5に対して立体物確率「+1」を設定する。この結果は、図11に示すように、立体物セルGa6に「+1」を設定するようにマッピングされる。制御装置2は、他の有点セルGa0、Ga1、Ga5についても同様の立体物処理を行うが、路面Rの照射点Pまでの距離とほぼ等しい距離情報である場合には立体物は検出されない。
The
次に、制御装置2は、立体物セルと判定されない有点セルGa0、Ga1、Ga5について、立体物セルGa5と自車両Aとの間に位置することから、ステップS6で路面セルとして検出する。制御装置2は、路面セルGa0、Ga1、Ga5について、ステップS7で、立体物確率として「−1」を設定する。この結果は、図11に示すように、路面セルGa0、Ga1、Ga5に「−1」を設定するようにマッピングされる。
Next, since the
続いて、制御装置2は、無点セルGa2〜Ga4を含む無点領域NPについて、ステップS8で立体物が存在する場合に最も高い場合の高さT1を推定する処理を行う。この場合には、式(A)の無点領域NPの遠点距離reは、物体検出装置1の位置を原点として無点セルGa4の遠点までの距離となる。無点領域NPの近点距離r1は、無点セルGa2の近点までの距離となる。算出した高さT1がしきい値を超えるときにはこれを推定立体物として設定する。
Subsequently, the
制御装置2は、無点領域NPに推定立体物が存在すると判断したときには、無点領域NPの各セルGa2〜Ga4に推定立体物の推定重み設定を行う。この設定処理では、制御装置2は、推定重みαとして、例えば「0.5」を立体物の立体物確率「+1」に乗ずる。この結果、制御装置2は、無点セルGa2〜Ga4に推定立体物の立体物確率「+0.5」を設定する。
When it is determined that the estimated solid object is present in the astigmatic area NP, the
以上の処理を鳥瞰グリッドGの全体について実施することで自車両Aの前方に存在する立体物、路面および推定立体物の情報が得られる。図11では、鳥瞰グリッドGのうち、8個のセルGa0〜Ga7についての結果を示している。なお、立体物が検出されたセルGa6よりも前方の距離情報が得られていない無点セルGa7については、立体物の存在は不明であるから立体物確率として「0」が設定されている。 By performing the above processing on the entire bird's-eye view grid G, information on a three-dimensional object, a road surface, and an estimated three-dimensional object existing in front of the host vehicle A can be obtained. In FIG. 11, the result about eight cells Ga0-Ga7 among the bird's-eye view grids G is shown. Note that, for the pointless cell Ga7 in which distance information ahead of the cell Ga6 in which the three-dimensional object is detected is not obtained, the existence of the three-dimensional object is unknown, so “0” is set as the three-dimensional object probability.
図12〜図15では、鳥瞰グリッドGで検出された情報を静止グリッドSに変換する場合の具体例を示している。ここでは簡単のために、図12(b)に示すように、鳥瞰グリッドGにおいては、有点セルGa4で立体物が検出され、その手前に位置するセルGa0〜Ga3のうち、有点セルGa0、Ga3は路面として検出され、無点セルGa1、Ga2において推定立体物が推定されている場合で説明する。 12 to 15 show specific examples in the case of converting information detected in the bird's-eye view grid G into a stationary grid S. Here, for the sake of simplicity, as shown in FIG. 12B, in the bird's eye grid G, a three-dimensional object is detected in the pointed cell Ga4, and among the cells Ga0 to Ga3 located in front of the pointed cell Ga0, Ga3, Is described as a case where the estimated solid object is estimated in the pointless cells Ga1 and Ga2.
図12(b)に示す鳥瞰グリッドGでは、立体物確率として、立体物が検出された有点セルGa4では「+1」、路面が検出された有点セルGa0、Ga3では「−1」、推定立体物が検出された無点セルGa1、Ga2では「+0.5」が設定されている。他のセルについても立体物が検出されたセルに「+1」、路面が検出されたセルに「−1」が設定されている。 In the bird's-eye view grid G shown in FIG. 12B, the solid object probability is “+1” in the pointed cell Ga4 in which the three-dimensional object is detected, “−1” in the pointed cells Ga0 and Ga3 in which the road surface is detected, and the estimated three-dimensional object. "+0.5" is set in the pointless cells Ga1 and Ga2 in which is detected. For other cells, “+1” is set in the cell in which the three-dimensional object is detected, and “−1” is set in the cell in which the road surface is detected.
制御装置2は、ステップS11で、鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に変換する。静止グリッドSの各セルSxyは、初期状態ではすべて「0」に設定されている。これに鳥瞰グリッドGの原点位置である物体検出装置1の位置は、セルS30の位置にある。図12(a)に示すように、静止グリッドS上に鳥瞰グリッドGを重ねると、例えば無点セルGa1がセルS31に、無点セルGa2がセルS32に対応する。制御装置2は、ステップS12で、変換された立体物確率のデータを静止グリッドSに加算し、図13に示すようなデータを得る。
The
この後、制御装置2は、自車両Aの現在位置情報に基づいて、静止グリッドS上での自車位置をシフトするように処理する。これにより、例えば図14(a)に示すように、自車両Aの物体検出装置1の位置が静止グリッドS上でセルS42に移動していることを認識してシフトさせる。
Thereafter, the
以下、上述と同様の処理を繰り返し実行することで、移動先の位置での鳥瞰グリッドGの点群情報が得られ、制御装置2は、その点群情報から、新たな鳥瞰グリッドGの点群情報を得る。図14(b)には、移動先での無点セルの分布状態を示している。ここでは、推定立体物が推定される無点セルGb1、Gc0〜Gc2が検出され、それぞれに立体物確率「+0.5」が設定されている。
Hereinafter, the point cloud information of the bird's-eye grid G at the position of the movement destination is obtained by repeatedly executing the same processing as described above, and the
このような鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に対応付けて変換すると、図14(a)に示すようになる。ここでは、4個の無点セルGb1、Gc0〜Gc2に対して、静止グリッドSのセルS32、S23、S33に対して立体物確率「+0.5」が設定される。 When such cell information of the bird's-eye grid G is converted in association with the cell information of the stationary grid S, the result is as shown in FIG. Here, a solid object probability “+0.5” is set for the cells S32, S23, and S33 of the stationary grid S for the four pointless cells Gb1 and Gc0 to Gc2.
次に、制御装置2は、上記の結果得られた図14に示す静止グリッドSの立体物確率のデータを前述の図13に示した静止グリッドSに加算する。この結果、図15に示すような加算された静止グリッドSが得られる。この図15からわかるように、2回の立体物確率の加算により、静止グリッドSのセルS31が「+0.5」、セルS32が「+1」、セルS23が「+1.5」、セルS33が「−0.5」となる。
Next, the
この結果、セルS32、S23の立体物確率が高くなっており、推定立体物が立体物である確率が高いということになり、距離情報が得られていない無点セルであっても、立体物の存在を検出することができるようになる。
なお、推定立体物から立体物への判定においては、上記したように鳥瞰グリッドGの点群情報を2回取得して求めることもできるし、3回以上の複数回の取得結果により求めることもできる。
As a result, the three-dimensional object probability of the cells S32 and S23 is high, and the probability that the estimated three-dimensional object is a three-dimensional object is high. Even if it is a pointless cell for which distance information is not obtained, the three-dimensional object The presence of can be detected.
In the determination from the estimated three-dimensional object to the three-dimensional object, the point cloud information of the bird's-eye grid G can be obtained twice and obtained as described above, or can be obtained from three or more acquisition results. it can.
このような第1実施形態によれば、制御装置2により、3次元距離検出部3が検出した距離情報に基づいて路面R上の立体物を判定する際に、距離情報が得られない無点セルが有るときは立体物が存在した場合を仮定して最も高い推定立体物の存在を推定して立体物確率を、推定重みα(=0.5)を乗ずることで設定した。これにより、静止グリッドS上で複数回の結果を加算することで、立体物確率が上昇したセルに対して立体物が存在することを判定することができるようになる。
According to the first embodiment, when the
この結果、自車両Aの周囲にレーザレーダにより照射したレーザ光による距離情報が得られない無点セルが存在する場合でも、立体物の存在を推定することができるようになり、路面R上に存在する立体物の推定を適切に行うことができるようになる。 As a result, even when there is a pointless cell around which the distance information by the laser light irradiated by the laser radar is not obtained around the host vehicle A, it is possible to estimate the presence of the three-dimensional object on the road surface R. The estimation of the existing three-dimensional object can be performed appropriately.
(第2実施形態)
図16〜図21は第2実施形態を示すもので、以下、第1実施形態と異なる部分について説明する。この実施形態は、無点セルが有る場合の処理方法において検出精度を高めることができるようにしたものである。
(Second Embodiment)
FIGS. 16 to 21 show the second embodiment, and only the parts different from the first embodiment will be described below. In this embodiment, the detection accuracy can be increased in the processing method in the case where there are undotted cells.
図16は、第1実施形態で示した図11に対応するもので、図10と同様に点群情報が得られたときに、この実施形態では、制御装置2は、図5で示した物体検出処理のステップS9、S10での推定立体物に関する処理を次のようにして行う。すなわち、制御装置2は、無点領域NPでの推定立体物の算出過程において、無点セルが連続する場合には、無点セル毎に立体物を推定する。
FIG. 16 corresponds to FIG. 11 shown in the first embodiment. When point cloud information is obtained in the same manner as in FIG. 10, in this embodiment, the
図17に示すように、例えば無点領域NPがn個の連続する無点セルからなる場合には、制御装置2は、n個の無点セルのそれぞれについて最も高い立体物を推定する。ここでは、第1実施形態と同様に、無点領域NPの遠点距離をreとしている。また、無点領域NPの最も近い無点セルの近点位置をr1とし、k番目(n≧k>1の整数)の無点セルの近点位置をrkとしている。前述同様に3次元距離検出部3の高さをT0とすると、各無点セル内に存在し得る最も高い立体物は、近点位置rkに存在した場合を想定すると、その高さTkは、次式(B)で算出できる。
Tk=T0・(re−rk)/re …(B)
この場合、式(B)は、最も近い位置の無点セルについては式(A)と同じ式となる。また、遠い位置にある無点セルについては、分子の値すなわち遠点reとの距離の差が小さくなるので、推定立体物の高さTkがしきい値以下になることがある。
As illustrated in FIG. 17, for example, when the astigmatic region NP includes n continuous astigmatic cells, the
Tk = T0 · (re−rk) / re (B)
In this case, the formula (B) is the same formula as the formula (A) for the closest pointless cell. In addition, for a pointless cell at a far position, the difference between the numerator value, that is, the distance from the far point re becomes small, and thus the height Tk of the estimated three-dimensional object may be below the threshold value.
したがって、例えば図16に示す例では、無点領域NPの3個の無点セルGa2〜Ga4の内、近い側の無点セルGa2、Ga3はしきい値以上となる推定立体物であるので、立体物確率として「0.5」が設定される。一方、無点領域NPの遠い位置の無点セルGa4はしきい値よりも低い推定立体物であるので路面としてみなされ、立体物確率として「−1」が設定される。 Therefore, for example, in the example shown in FIG. 16, among the three pointless cells Ga2 to Ga4 of the pointless region NP, the pointless cells Ga2 and Ga3 on the closer side are estimated solid objects that are equal to or higher than the threshold value. “0.5” is set as the three-dimensional object probability. On the other hand, the astigmatism cell Ga4 at a position far from the astigmatism region NP is an estimated three-dimensional object lower than the threshold value, and thus is regarded as a road surface, and “−1” is set as the three-dimensional object probability.
図18〜図21では、第1実施形態と同様に、鳥瞰グリッドGで検出された情報を静止グリッドSに変換する場合の具体例を示している。図18(b)は、図12(b)と同様の条件で取得された点群情報の分布図であるが、この実施形態では、無点領域NPの2個の無点セルGa1、Ga2のうち、制御装置2によりステップS9での処理で、無点セルGa1で推定立体物が推定され、無点セルGa2で路面が推定された場合で説明する。
18 to 21 show specific examples in the case where information detected in the bird's-eye view grid G is converted into a stationary grid S, as in the first embodiment. FIG. 18B is a distribution diagram of the point cloud information acquired under the same conditions as in FIG. 12B. In this embodiment, the two dot-free cells Ga1 and Ga2 in the dot-free region NP are shown. Of these, a case will be described in which the estimated solid object is estimated in the pointless cell Ga1 and the road surface is estimated in the pointless cell Ga2 by the
図18(b)に示す鳥瞰グリッドGでは、無点領域NPの2個の無点セルGa1、Ga2のうち、推定立体物が検出された無点セルGa1では「+0.5」が設定され、路面が判定された無点セルGa2では「−1」が設定されている。 In the bird's-eye view grid G shown in FIG. 18B, among the two pointless cells Ga1 and Ga2 in the pointless region NP, “+0.5” is set in the pointless cell Ga1 in which the estimated three-dimensional object is detected, "-1" is set in the pointless cell Ga2 for which the road surface is determined.
制御装置2は、ステップS11で、鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に変換した後、静止グリッドS上に鳥瞰グリッドGを重ねると、図18(a)に示すようになる。この結果、図19に示すように、無点セルGa1の立体物確率「+0.5」がセルS31に、無点セルGa2の立体物確率「−1」がセルS32に変換されている。
When the
この後、制御装置2は、自車両Aの位置をシフトさせてから同様の処理をすることで、移動先の位置での新たな鳥瞰グリッドGの点群情報から、図20(b)に示すような無点セルの分布状態を得る。推定立体物の算出処理を式(B)に従って演算した結果、無点セルGb1、Gc2は路面として判定されたため「−1」が設定され、無点セルGc0、Gc1は推定立体物と判定されたため「+0.5」が設定される。
After that, the
このような鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に対応付けて変換すると、図20(a)に示すようになる。ここでは、4個の無点セルGb1、Gc0〜Gc2のうち、推定立体物が設定された無点セルGc0、Gc1に対して、静止グリッドSのセルS32に対して立体物確率「+0.5」が設定される。 When such cell information of the bird's-eye grid G is converted in association with the cell information of the stationary grid S, the result is as shown in FIG. Here, among the four pointless cells Gb1 and Gc0 to Gc2, the solid object probability “+0.5” for the cell S32 of the stationary grid S with respect to the pointless cells Gc0 and Gc1 in which the estimated three-dimensional object is set. Is set.
次に、制御装置2は、上記の結果得られた図20に示す静止グリッドSの立体物確率のデータを前述の図19に示した静止グリッドSに加算する。この結果、図21に示すような加算された静止グリッドSが得られる。この図21からわかるように、2回の立体物確率の加算により、静止グリッドSのセルS31が「+0.5」となるが、セルS32は「−0.5」、セルS23は「0」、セルS33は「−2」となる。
Next, the
この結果、セルS32の立体物確率が「+0.5」であるから立体物の存在が確認できないが可能性は残った状態である。また、他の無点セルS32、S23、S33は負の立体物確率となることから路面である可能性が高くなっている。 As a result, since the solid object probability of the cell S32 is “+0.5”, the existence of the solid object cannot be confirmed, but the possibility remains. In addition, since the other unspotted cells S32, S23, and S33 have a negative solid object probability, the possibility of being a road surface is high.
このような第2実施形態によれば、第1実施形態と同様の作用効果を得る事ができるとともに、制御装置2により、無点領域NPが複数の無点セルからなる場合には、無点セル毎に最も高い推定立体物を算出するようにしたので、さらにセル毎に細かい判定を行うことができるようになる。
According to the second embodiment, it is possible to obtain the same effect as that of the first embodiment. In addition, when the
(第3実施形態)
図22〜図26は第3実施形態を示すもので、以下、第2実施形態と異なる部分について説明する。この実施形態は、無点セルの推定立体物について立体物確率の設定の仕方を高さに応じて設定するようにしているものである。
(Third embodiment)
22 to 26 show the third embodiment, and only the parts different from the second embodiment will be described below. In this embodiment, the method of setting the three-dimensional object probability is set in accordance with the height of the estimated three-dimensional object of the pointless cell.
図22は、第2実施形態で示した図16に対応するもので、図10と同様に点群情報が得られたときに、この実施形態では、制御装置2は、図5で示した物体検出処理のステップS9、S10での推定立体物に関する処理を次のようにして行う。すなわち、制御装置2は、無点領域NPでの推定立体物の算出過程において、無点セルが連続する場合には、無点セル毎に立体物を推定する。
FIG. 22 corresponds to FIG. 16 shown in the second embodiment, and when point cloud information is obtained in the same manner as in FIG. 10, in this embodiment, the
ここでは、制御装置2は、第2実施形態と同様にして式(B)に基いて推定立体物の最も高い値を演算する。この結果、無点領域NP内では、図17にも示したように、物体検出装置1に近い側の無点セルの高さが高く、遠くなる程低くなる。制御装置2は、この推定立体物の高さに応じて、例えば、高いと推定重みαを「0.8」のように大きく設定し、低いと推定重みαを「0.2」のように低く設定している。この結果、制御装置2は、ステップS10で、図22に示すように、各セルに対応して立体物確率が設定される。
Here, the
図23〜図26では、第2実施形態と同様に、鳥瞰グリッドGで検出された情報を静止グリッドSに変換する場合の具体例を示している。図23(b)は、図18(b)と同様の条件で取得された点群情報の分布図であるが、この実施形態では、制御装置2によりステップS9での処理で、無点領域NPの2個の無点セルGa1、Ga2で推定立体物が推定され、推定重みαが推定立体物の高さに応じて異なるように対応付けられた結果の立体物確率が示されている。ここでは、例えば、無点セルGa1で「+0.5」が設定され、無点セルGa2で「+0.3」が設定された場合で説明する。
23 to 26 show specific examples in the case where information detected in the bird's-eye grid G is converted into a stationary grid S, as in the second embodiment. FIG. 23B is a distribution diagram of point cloud information acquired under the same conditions as in FIG. 18B, but in this embodiment, the
制御装置2は、ステップS11で、鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に変換した後、静止グリッドS上に鳥瞰グリッドGを重ねると、図23(a)に示すようになる。この結果、図24に示すように、無点セルGa1の立体物確率「+0.5」がセルS31に、無点セルGa2の立体物確率「+0.3」がセルS32に変換されている。
When the
この後、制御装置2は、自車両Aの位置をシフトさせてから同様の処理をすることで、移動先の位置での新たな鳥瞰グリッドGの点群情報から、図25(b)に示すような無点セルの分布状態を得る。推定立体物の算出処理を式(B)に従って演算した結果、無点セルGb1、Gc0〜Gc2の全てにおいて推定立体物が検出されている。すなわち、無点セルGb1で「+0.2」、無点セルGb0で「+0.5」、無点セルGc1で「+0.2」、無点セルGc2で「+0.1」が設定される。
Thereafter, the
このような鳥瞰グリッドGのセル情報を静止グリッドSのセル情報に対応付けて変換すると、図25(a)に示すようになる。ここでは、4個の無点セルGb1、Gc0〜Gc2に対して、立体物確率は、静止グリッドSのセルS32に対して「+0.5」、セルS33に対して「+0.2」、セルS23に対して「+0.1」が設定される。 When the cell information of the bird's-eye grid G is converted in association with the cell information of the stationary grid S, the result is as shown in FIG. Here, for the four pointless cells Gb1 and Gc0 to Gc2, the three-dimensional object probability is “+0.5” for the cell S32 of the stationary grid S, “+0.2” for the cell S33, and the cell “+0.1” is set for S23.
次に、制御装置2は、上記の結果得られた図25(a)に示す静止グリッドSの立体物確率のデータを前述の図24に示した静止グリッドSに加算する。この結果、図26に示すような加算された静止グリッドSが得られる。この図26からわかるように、2回の立体物確率の加算により、静止グリッドSのセルS31が「+0.5」、セルS32が「+0.8」、セルS23が「+1.1」、セルS33が「−0.8」となる。
Next, the
この結果、セルS32とS23で立体物確率が高くなり、立体物が存在する可能性が高くなっている。また、他の無点セルS33は負の立体物確率となることから路面である可能性が高くなっている。 As a result, the three-dimensional object probability is high in the cells S32 and S23, and the possibility that a three-dimensional object exists is high. In addition, the other pointless cell S33 has a negative three-dimensional object probability, and thus has a high possibility of being a road surface.
このような第3実施形態によれば、第2実施形態と同様の作用効果を得ることができるとともに、制御装置2により、無点領域NPが複数の無点セルから算出される推定立体物の高さに応じて推定重みαを乗じて立体物確率を求めるようにしたので、さらにセル毎に立体物の判定を細かく行うことができるようになる。
According to such 3rd Embodiment, while being able to obtain the same effect as 2nd Embodiment, the
(他の実施形態)
なお、本発明は、上述した実施形態のみに限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能であり、例えば、以下のように変形または拡張することができる。
(Other embodiments)
In addition, this invention is not limited only to embodiment mentioned above, In the range which does not deviate from the summary, it is applicable to various embodiment, For example, it can deform | transform or expand as follows.
上記各実施形態では、鳥瞰グリッドGとして、自車両Aの前方に向けた範囲を設定した場合を示したが、自車両Aの側方や後方などにも向けた範囲を設定することもできる。この場合には、検出方向に対応して複数の3次元距離検出部を設けることができる。 In each of the embodiments described above, the bird's-eye view grid G has been set to have a range directed to the front of the host vehicle A. However, a range directed to the side or rear of the host vehicle A can also be set. In this case, a plurality of three-dimensional distance detection units can be provided corresponding to the detection direction.
鳥瞰グリッドGの各セルに対応して立体物確率を検出したものを静止グリッドSに変換する際に、物体検出装置1の位置を静止グリッドSの位置に対応させて行う例を示したが、鳥瞰グリッドGを物体検出装置1の位置を固定した直交座標による直交グリッドを想定し、この直交グリッドに変換した後、これを静止グリッドSの位置に対応して重ねあわせるように処理しても良い。
Although the example in which the position of the
図面中、1は物体検出装置、2は制御装置、2aは立体物検出部、2bは路面検出部、2cは立体物推定部、2dは立体物判定部、3は3次元距離検出部、4は記憶部、5は出力部である。 In the drawings, 1 is an object detection device, 2 is a control device, 2a is a three-dimensional object detection unit, 2b is a road surface detection unit, 2c is a three-dimensional object estimation unit, 2d is a three-dimensional object determination unit, 3 is a three-dimensional distance detection unit, 4 Is a storage unit, and 5 is an output unit.
Claims (4)
前記3次元距離検出部の視点を基準とする鳥瞰グリッドで区切ったセル毎に前記3次元距離情報に基づいて立体物の有無を検出する立体物検出部(2a)と、
前記立体物が存在する場合に、前記自車両と前記立体物との間の距離情報が有る有点セルを路面として検出する路面検出部(2b)と、
前記自車両と前記立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合に、その無点領域内に存在し得る最大高さT1の推定立体物を次式(A)により推定する立体物推定部(2c)と、
路面を基準とした静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、前記自車両の移動に伴い前記3次元距離検出部により得られる新たな3次元距離情報から前記立体物推定部により推定された前記推定立体物のセルを前記静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出する立体物判定部(2d)と
を備えた物体検出装置。
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、r1:無点領域の近点距離である。 A three-dimensional distance detector (3) that acquires at least three-dimensional distance information ahead of the host vehicle;
A three-dimensional object detection unit (2a) that detects the presence or absence of a three-dimensional object based on the three-dimensional distance information for each cell partitioned by a bird's eye grid based on the viewpoint of the three-dimensional distance detection unit;
A road surface detection unit (2b) that detects a pointed cell having distance information between the host vehicle and the solid object as a road surface when the solid object exists;
When there is a pointless area including a pointless cell with no distance information between the host vehicle and the three-dimensional object, an estimated three-dimensional object having the maximum height T1 that can exist in the pointless area is represented by the following formula ( A three-dimensional object estimation unit (2c) estimated by A);
The solid object estimation unit converts at least the estimated solid object cell into a stationary grid cell based on a road surface, and uses the new three-dimensional distance information obtained by the three-dimensional distance detection unit as the vehicle moves. An object detection apparatus comprising: a three-dimensional object determination unit (2d) that detects a solid object when the estimated three-dimensional object cell is repeatedly estimated at the same road surface position when converted to the stationary grid.
T1 = T0 · (re−r1) / re (A)
Where T0 is the height of the three-dimensional distance detection unit, re is the far point distance of the astigmatic area, and r1 is the near point distance of the astigmatic area.
前記立体物推定部(2c)は、前記無点領域が複数個の連続する無点セルである場合に、前記無点セル毎に存在し得る最大高さTkの推定立体物を次式(B)により推定する物体検出装置。
Tk=T0・(re−rk)/re …(B)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、rk:対象となる無点セルの近点距離である。 The object detection apparatus according to claim 1,
The solid object estimation unit (2c) calculates an estimated solid object having a maximum height Tk that can exist for each of the dotless cells when the dotless region is a plurality of continuous dotless cells by the following formula (B The object detection device estimated by
Tk = T0 · (re−rk) / re (B)
Where T0 is the height of the three-dimensional distance detection unit, re is the far point distance of the astigmatic area, and rk is the near point distance of the target astigmatic cell.
前記立体物判定部(2d)は、前記立体物推定部により推定された推定立体物の高さに応じて推定重みを設定し、前記自車両の移動に伴う前記3次元距離情報から前記推定立体物の推定重みを加算した値が増加する場合に前記静止立体物を検出する物体検出装置。 In the object detection device according to claim 1 or 2,
The three-dimensional object determination unit (2d) sets an estimated weight according to the height of the estimated three-dimensional object estimated by the three-dimensional object estimation unit, and calculates the estimated three-dimensional object from the three-dimensional distance information associated with the movement of the host vehicle. An object detection device that detects the stationary solid object when a value obtained by adding estimated weights of the object increases.
自車両の少なくとも前方の3次元距離情報を取得する3次元距離検出処理、
前記3次元距離検出部の視点を基準とする鳥瞰グリッドで区切ったセル毎に前記3次元距離情報に基づいて立体物の有無を検出する立体物検出処理、
前記立体物が存在する場合に、前記自車両と前記立体物との間の距離情報が有る有点セルを路面として検出する路面検出処理、
前記自車両と前記立体物との間に距離情報が無い無点セルが含まれる無点領域がある場合に、その無点領域内に存在し得る最大高さT1の推定立体物を次式(A)により推定する立体物推定処理、
路面を基準とした静止グリッドのセルに少なくとも前記推定立体物のセルを変換し、前記自車両の移動に伴い前記3次元距離検出部により得られる新たな3次元距離情報から前記立体物推定部により推定された前記推定立体物のセルを前記静止グリッドに変換したときに繰り返し同じ路面位置で推定されている場合に立体物として検出する立体物判定処理
を実行させるための物体検出プログラム。
T1=T0・(re−r1)/re …(A)
ただし、T0:3次元距離検出部の高さ、re:無点領域の遠点距離、r1:無点領域の近点距離である。 On the computer,
3D distance detection processing for acquiring at least 3D distance information ahead of the host vehicle;
A three-dimensional object detection process for detecting the presence or absence of a three-dimensional object based on the three-dimensional distance information for each cell divided by a bird's eye grid based on the viewpoint of the three-dimensional distance detection unit;
A road surface detection process for detecting a pointed cell having distance information between the host vehicle and the solid object as a road surface when the solid object exists;
When there is a pointless area including a pointless cell with no distance information between the host vehicle and the three-dimensional object, an estimated three-dimensional object having the maximum height T1 that can exist in the pointless area is represented by the following formula ( A three-dimensional object estimation process estimated by A),
The solid object estimation unit converts at least the estimated solid object cell into a stationary grid cell based on a road surface, and uses the new three-dimensional distance information obtained by the three-dimensional distance detection unit as the vehicle moves. An object detection program for executing a three-dimensional object determination process for detecting as a three-dimensional object when the estimated cell of the estimated three-dimensional object is repeatedly estimated at the same road surface position when converted to the stationary grid.
T1 = T0 · (re−r1) / re (A)
Where T0 is the height of the three-dimensional distance detection unit, re is the far point distance of the astigmatic area, and r1 is the near point distance of the astigmatic area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016052311A JP6756124B2 (en) | 2016-03-16 | 2016-03-16 | Object detection device and object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016052311A JP6756124B2 (en) | 2016-03-16 | 2016-03-16 | Object detection device and object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017166971A true JP2017166971A (en) | 2017-09-21 |
JP6756124B2 JP6756124B2 (en) | 2020-09-16 |
Family
ID=59913744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016052311A Active JP6756124B2 (en) | 2016-03-16 | 2016-03-16 | Object detection device and object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6756124B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019181491A1 (en) | 2018-03-22 | 2019-09-26 | 日立オートモティブシステムズ株式会社 | Object recognizing device |
CN110599762A (en) * | 2018-06-12 | 2019-12-20 | 光宝电子(广州)有限公司 | Road condition sensing system and method |
KR20200006673A (en) * | 2018-07-11 | 2020-01-21 | 경북대학교 산학협력단 | Method and device for extracting motion position by applying weights during beam scanning analysis |
CN110850439A (en) * | 2020-01-15 | 2020-02-28 | 奥特酷智能科技(南京)有限公司 | High-precision three-dimensional point cloud map construction method |
JP2020154983A (en) * | 2019-03-22 | 2020-09-24 | トヨタ自動車株式会社 | Object recognition device and vehicle control system |
JP2020190429A (en) * | 2019-05-20 | 2020-11-26 | 株式会社Soken | Obstacle detection device and obstacle detection method |
JP2021081235A (en) * | 2019-11-15 | 2021-05-27 | 日本信号株式会社 | Object detection device and object detection program |
US20210215797A1 (en) * | 2018-03-26 | 2021-07-15 | Mitsubishi Electric Corporation | Object detection apparatus, vehicle, object detection method, and computer readable medium |
JP7224682B1 (en) | 2021-08-17 | 2023-02-20 | 忠北大学校産学協力団 | 3D multiple object detection device and method for autonomous driving |
JP7417466B2 (en) | 2020-05-07 | 2024-01-18 | 株式会社トヨタマップマスター | Information processing device, information processing method, and information processing program |
GB2601438B (en) * | 2019-07-26 | 2024-03-06 | Deka Products Lp | System and method for free space estimation |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000146547A (en) * | 1998-11-17 | 2000-05-26 | Toyota Central Res & Dev Lab Inc | Detector for shape of obstacle for vehicle |
JP2000181541A (en) * | 1998-12-21 | 2000-06-30 | Komatsu Ltd | Self-traveling type vehicle |
JP2006266801A (en) * | 2005-03-23 | 2006-10-05 | Mitsui Eng & Shipbuild Co Ltd | Collision-preventing device and vehicle with it |
JP2007248257A (en) * | 2006-03-16 | 2007-09-27 | Nissan Motor Co Ltd | Vehicle obstacle on-road detection device and method, and vehicle with obstruct on-road detection device |
JP2010160777A (en) * | 2008-12-12 | 2010-07-22 | Toyota Central R&D Labs Inc | Map generation device, track estimation device, movable area estimation device and program |
US8736463B1 (en) * | 2012-01-30 | 2014-05-27 | Google Inc. | Object bounding box estimation |
-
2016
- 2016-03-16 JP JP2016052311A patent/JP6756124B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000146547A (en) * | 1998-11-17 | 2000-05-26 | Toyota Central Res & Dev Lab Inc | Detector for shape of obstacle for vehicle |
JP2000181541A (en) * | 1998-12-21 | 2000-06-30 | Komatsu Ltd | Self-traveling type vehicle |
JP2006266801A (en) * | 2005-03-23 | 2006-10-05 | Mitsui Eng & Shipbuild Co Ltd | Collision-preventing device and vehicle with it |
JP2007248257A (en) * | 2006-03-16 | 2007-09-27 | Nissan Motor Co Ltd | Vehicle obstacle on-road detection device and method, and vehicle with obstruct on-road detection device |
JP2010160777A (en) * | 2008-12-12 | 2010-07-22 | Toyota Central R&D Labs Inc | Map generation device, track estimation device, movable area estimation device and program |
US8736463B1 (en) * | 2012-01-30 | 2014-05-27 | Google Inc. | Object bounding box estimation |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019181491A1 (en) | 2018-03-22 | 2019-09-26 | 日立オートモティブシステムズ株式会社 | Object recognizing device |
US11982745B2 (en) | 2018-03-22 | 2024-05-14 | Hitachi Astemo, Ltd. | Object recognizing device |
US11609307B2 (en) * | 2018-03-26 | 2023-03-21 | Mitsubishi Electric Corporation | Object detection apparatus, vehicle, object detection method, and computer readable medium |
US20210215797A1 (en) * | 2018-03-26 | 2021-07-15 | Mitsubishi Electric Corporation | Object detection apparatus, vehicle, object detection method, and computer readable medium |
CN110599762A (en) * | 2018-06-12 | 2019-12-20 | 光宝电子(广州)有限公司 | Road condition sensing system and method |
KR102144048B1 (en) | 2018-07-11 | 2020-08-12 | 경북대학교 산학협력단 | Method and device for extracting motion position by applying weights during beam scanning analysis |
KR20200006673A (en) * | 2018-07-11 | 2020-01-21 | 경북대학교 산학협력단 | Method and device for extracting motion position by applying weights during beam scanning analysis |
JP7147651B2 (en) | 2019-03-22 | 2022-10-05 | トヨタ自動車株式会社 | Object recognition device and vehicle control system |
JP2020154983A (en) * | 2019-03-22 | 2020-09-24 | トヨタ自動車株式会社 | Object recognition device and vehicle control system |
JP2020190429A (en) * | 2019-05-20 | 2020-11-26 | 株式会社Soken | Obstacle detection device and obstacle detection method |
WO2020235396A1 (en) * | 2019-05-20 | 2020-11-26 | 株式会社デンソー | Obstacle detection device and obstacle detection method |
JP7152355B2 (en) | 2019-05-20 | 2022-10-12 | 株式会社Soken | Obstacle detection device and obstacle detection method |
GB2601438B (en) * | 2019-07-26 | 2024-03-06 | Deka Products Lp | System and method for free space estimation |
JP7406350B2 (en) | 2019-11-15 | 2023-12-27 | 日本信号株式会社 | Object detection device and object detection program |
JP2021081235A (en) * | 2019-11-15 | 2021-05-27 | 日本信号株式会社 | Object detection device and object detection program |
CN110850439B (en) * | 2020-01-15 | 2020-04-21 | 奥特酷智能科技(南京)有限公司 | High-precision three-dimensional point cloud map construction method |
CN110850439A (en) * | 2020-01-15 | 2020-02-28 | 奥特酷智能科技(南京)有限公司 | High-precision three-dimensional point cloud map construction method |
JP7417466B2 (en) | 2020-05-07 | 2024-01-18 | 株式会社トヨタマップマスター | Information processing device, information processing method, and information processing program |
JP2023027736A (en) * | 2021-08-17 | 2023-03-02 | 忠北大学校産学協力団 | 3d multi-object detecting apparatus and method for autonomous driving |
KR20230026130A (en) * | 2021-08-17 | 2023-02-24 | 충북대학교 산학협력단 | Single stage 3-Dimension multi-object detecting apparatus and method for autonomous driving |
JP7224682B1 (en) | 2021-08-17 | 2023-02-20 | 忠北大学校産学協力団 | 3D multiple object detection device and method for autonomous driving |
KR102681992B1 (en) * | 2021-08-17 | 2024-07-04 | 충북대학교 산학협력단 | Single stage 3-Dimension multi-object detecting apparatus and method for autonomous driving |
Also Published As
Publication number | Publication date |
---|---|
JP6756124B2 (en) | 2020-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6756124B2 (en) | Object detection device and object detection program | |
US11255681B2 (en) | Assistance control system | |
CN107766405B (en) | Automatic vehicle road model definition system | |
US10867191B2 (en) | Method for detecting and/or tracking objects | |
CN104181512B (en) | The method and apparatus of the misalignment of radar sensor for seeking vehicle | |
WO2018221453A1 (en) | Output device, control method, program, and storage medium | |
CN107449443A (en) | The integrity monitoring of radar altimeter | |
JP6453701B2 (en) | Posture estimation device | |
WO2018180338A1 (en) | Information processing device, server device, control method, program, and storage medium | |
JP5630249B2 (en) | Object recognition device | |
KR102464581B1 (en) | Apparatus for processing stereo points of cloud and method thereof | |
WO2018221455A1 (en) | Update device, control method, program, and storage medium | |
US20210094581A1 (en) | Autonomous driving apparatus and method | |
JP5712900B2 (en) | Peripheral object detection device | |
JP2017015409A (en) | Road surface detection device, mobile body, road surface detection method, and road surface detection program | |
WO2017199333A1 (en) | Information output device, terminal device, control method, program, and storage medium | |
CN111352074B (en) | Method and system for locating a sound source relative to a vehicle | |
KR102604821B1 (en) | Apparatus and method for estimating location of vehicle | |
CN114384491B (en) | Point cloud processing method and device for laser radar and storage medium | |
WO2021102676A1 (en) | Object state acquisition method, mobile platform and storage medium | |
CN106080397A (en) | Self-adaption cruise system and mobile unit | |
CN114384492B (en) | Point cloud processing method and device for laser radar and storage medium | |
JP7081098B2 (en) | Driving environment recognition device, driving environment recognition method, program | |
JP2018206038A (en) | Point group data processing device, mobile robot, mobile robot system, and point group data processing method | |
JP2020148470A (en) | Road surface detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200810 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6756124 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |