JP2018084987A - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP2018084987A JP2018084987A JP2016228088A JP2016228088A JP2018084987A JP 2018084987 A JP2018084987 A JP 2018084987A JP 2016228088 A JP2016228088 A JP 2016228088A JP 2016228088 A JP2016228088 A JP 2016228088A JP 2018084987 A JP2018084987 A JP 2018084987A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- area
- effective
- road
- width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本発明は、自動運転システムに用いて好適な物体認識装置に関する。 The present invention relates to an object recognition apparatus suitable for use in an automatic driving system.
特許文献1には、自車両の進行路を車速及びヨーレートより推定し、推定した進行路上に先行車が存在している場合に、当該先行車は自車両と同じ車線を走行していると判断する方法が開示されている。
In
路肩幅の狭い道路では、道路外の路側物を物標化したときの物標が車線内にはみ出す場合がある。このような場合、上記公報に記載技術では、路側物の物標を先行車等の車線内物標として誤検出するおそれがある。 On roads with a narrow shoulder width, there is a case where a target when a roadside object outside the road is converted into the lane. In such a case, in the technique described in the above publication, there is a possibility that a roadside target is erroneously detected as a lane target such as a preceding vehicle.
本発明は、上述のような課題に鑑みてなされたものであり、路側物の物標を先行車等の車線内物標として誤検出することを低減することができる物体認識装置を提供することを目的とする。 The present invention has been made in view of the above-described problems, and provides an object recognition device capable of reducing erroneous detection of a roadside target as a lane target such as a preceding vehicle. With the goal.
上記の目的を達成するため、本発明に係る物体認識装置は、
自車両の周辺に存在する物体に関する物標情報を取得する物標情報取得手段と、
前記自車両が走行する道路の車線境界線の位置と形状とに関する車線境界線情報を取得する車線境界線情報取得手段と、
前記自車両が走行する道路の路肩領域の幅に関する路肩情報を取得する路肩情報取得手段と、
前記車線境界線情報と前記路肩情報とに基づいて、前記路肩領域に隣接する隣接車線と前記路肩領域とを区画する路肩側車線境界線の内側に、有効車線領域を設定する有効車線領域設定手段と、
前記物標情報に含まれる物標枠と前記有効車線領域との重なり具合に基づいて、前記物標枠で特定される物体が前記隣接車線内に位置する物体か或いは前記隣接車線外に位置する物体か判断する判断手段とを備え、
前記有効車線領域設定手段は、前記路肩領域の幅が広いほど前記路肩側車線境界線から前記有効車線領域までの余裕代を小さくし、前記路肩領域の幅が狭いほど前記路肩側車線境界線から前記有効車線領域までの余裕代を大きくするように前記有効車線領域を設定することを特徴とする。
In order to achieve the above object, an object recognition apparatus according to the present invention includes:
Target information acquisition means for acquiring target information related to an object existing around the host vehicle;
Lane boundary information acquisition means for acquiring lane boundary information regarding the position and shape of the lane boundary of the road on which the host vehicle travels;
Shoulder information acquisition means for acquiring shoulder information related to the width of the shoulder region of the road on which the host vehicle travels;
Based on the lane boundary information and the road shoulder information, effective lane area setting means for setting an effective lane area inside a roadside lane boundary line that divides the adjacent lane adjacent to the road shoulder area and the road shoulder area. When,
Based on the degree of overlap between the target frame included in the target information and the effective lane area, the object specified by the target frame is an object located in the adjacent lane or located outside the adjacent lane. A determination means for determining whether the object is an object,
The effective lane area setting means reduces the margin from the roadside lane boundary line to the effective lane area as the width of the roadside area increases, and decreases from the roadside lane boundary line as the width of the roadside area decreases. The effective lane region is set so as to increase a margin to the effective lane region.
本発明に係る物体認識装置によれば、路肩領域に隣接する隣接車線と路肩領域とを区画する路肩側車線境界線の内側に設定され路肩幅に応じて範囲を変更される有効車線領域と物標枠との重なり具合から、物標枠で特定される物体が隣接車線内の物体かどうかを判断するので、路肩幅の狭い道路において道路外の路側物を物標化したときの物標枠が車線内にはみ出したとしても、それを車線内のものとして誤検出することは抑えられる。 According to the object recognition device of the present invention, the effective lane region and the object that are set inside the roadside lane boundary line that divides the roadside region and the adjacent lane adjacent to the roadside region and whose range is changed according to the roadside width. Since it is judged whether the object specified in the target frame is an object in the adjacent lane from the overlap with the target frame, the target frame when the roadside object outside the road is targeted on a road with a narrow shoulder width Even if it protrudes into the lane, it can be prevented from erroneously detecting it as being in the lane.
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。 Embodiments of the present invention will be described below with reference to the drawings. However, in the embodiment shown below, when referring to the number of each element, quantity, quantity, range, etc., unless otherwise specified or clearly specified in principle, the reference However, the present invention is not limited to these numbers. Further, the structures described in the embodiments described below are not necessarily essential to the present invention unless otherwise specified or clearly specified in principle.
図1は、実施の形態に係る自動運転システムの構成を示す図である。自動運転システムは、それが搭載される車両の自動運転を実行する。自動運転システム1は、物体認識装置として機能する制御装置10と、自律認識センサであるライダー(LIDAR:Laser Imaging Detection and Ranging)2、レーダー3及びステレオカメラ4を備える。これらの自律認識センサは、直接、或いは、車両内に構築されたCAN(Controller Area Network)等の通信ネットワークを介して制御装置10に接続されている。制御装置10は、自律認識センサで得られた物体情報より、車両の略全周囲の状況を把握することができる。
FIG. 1 is a diagram illustrating a configuration of an automatic driving system according to an embodiment. The automatic driving system performs automatic driving of a vehicle on which the automatic driving system is mounted. The
自動運転システム1は、さらに、GPS(Global Positioning System)受信機5、地図データベース6、ナビゲーションシステム7、HMI(Human Machine Interface)8及びアクチュエータ9を備える。GPS受信機5は、GPS衛星が発信する信号に基づいて自車両の位置を示す位置情報を取得する手段である。地図データベース6は、例えば、車両に搭載されたHDDやSSD等のストレージ内に形成されている。地図データベース6が有する地図情報には、道路の位置情報、道路形状の情報、交差点及び分岐点の位置情報、道路のレーン情報等が含まれる。ナビゲーションシステム7は、GPS受信機5によって測定された自車両の位置情報と地図データベース6の地図情報とに基づいて、自車両の走行するルートを算出し、算出したルートの情報をHMI8を介して運転者に伝達するとともに、制御装置10へ出力する。HMI8は、乗員と制御装置10との間で情報の出力及び入力をするためのインターフェイスである。アクチュエータ9は、制御装置10からの操作信号に応じて動作し、その動作によって車両の走行状態を変化させる装置である。アクチュエータ9は、例えば、駆動系、制動系、操舵系のそれぞれに設けられている。これら以外にも、例えば、車速センサや加速度センサ等の自車両の走行状態に関する情報を得るための内部センサが自動運転システム1には備えられる。
The
制御装置10は、少なくとも1つのCPU、少なくとも1つのROM、少なくとも1つのRAMを有するECU(Electronic Control Unit)である。ROMには、自動運転のための各種のプログラムやマップを含む各種のデータが記憶されている。ROMに記憶されているプログラムがRAMにロードされ、CPUで実行されることで、制御装置10には様々な機能が実現される。なお、制御装置10は、複数のECUから構成されていてもよい。
The
図1には、制御装置10が有する自動運転のための機能のうち、特に、物体認識に関係する機能がブロックで表現されている。制御装置10が有する自動運転のためのその他の機能についての図示は省略されている。
In FIG. 1, among the functions for automatic driving that the
制御装置10は、自車両の周辺に存在する物体を認識し、車線内に位置する物体と車線外に位置する物体とを判別する機能を有する。この機能は、制御装置10が備える物標情報取得部11、車線境界線情報取得部12、路肩情報取得部13、有効車線領域設定部14、及び車線内外判断部15により実現される。ただし、これらの部11,12,13,14、15は、制御装置10内にハードウェアとして存在するものではなく、ROMに記憶されたプログラムがCPUで実行されたときにソフトウェア的に実現される。
The
物標情報取得部11は、自車両の周辺に存在する各立体物について、その位置と範囲に関する情報を取得する。詳しくは、物標情報取得部11は、まず、自車両周辺の立体物の測距データを自律認識センサより取得する。測距データには、測距点までの距離に関する情報、測距点の高さに関する情報、及び測距点の方向に関する情報が含まれる。物標情報取得部11は、ライダー2で得た情報を用いること、レーダー3で得た情報を用いること、ステレオカメラ4で得た情報を用いること、センサフュージョンによって複数種類の自律認識センサの情報を組み合わせて用いること、のうち少なくとも1つの方法による測距データの取得が可能である。
The target
物標情報取得部11は、取得した測距データに基づき、各測距点の走行面内での位置を特定する。測距データを表現する座標系としては、自車両に座標系原点が置かれる直交座標系であるならば、任意の直交座標系が利用可能である。例えば、各時刻の自車両の後輪軸中心を座標系原点とし、自車両の後方向にX軸(縦軸)かつ前方を正、自車両の左右方向にY軸(横軸)かつ右方を正とする座標系を利用することができる。或いは、自車両の前端の左右中心を座標系原点とすることもできる。以下、測距データが表現される直交座標系を基準座標系という。
The target
物標情報取得部11は、次に、取得した測距データをクラスタリングする。クラスタリングは、各測距点の位置と高さとに基づいて行われる。また、前回フレームでのクラスタリングの結果との連続性を保つように行われる。クラスタリングの具体的な方法には特に限定はなく、公知のクラスタリング方法を用いることができる。クラスタリングされた測距点群は、基準座標系において物標ごとに長方形の物標枠で囲まれる。基準座標系における物標枠の位置は物標の自車両に対する位置を示し、物標枠の範囲は自車両が位置する平面上での物標の範囲を示している。
The target
車線境界線情報取得部12は、自車両が走行する道路の車線境界線の位置と形状とに関する車線境界線情報を取得する。例えば、GPS受信機5の出力より推定した自車両の位置及び姿勢に基づいて、自車両の周辺の地図データが地図データベース6から検索される。地図データには、車線境界線を構成する点列の位置がGPS座標系で登録されている。車線境界線情報取得部12は、地図データから車線境界線を構成する点列の位置データを読み出し、読み出した位置データをGPS座標系から基準座標系へ座標変換する。図2に示すように、車線境界線を構成する点列が基準座標系で表現されることにより、自車両に対する各車線境界線の位置と各車線境界線の形状とが特定される。
The lane boundary
路肩情報取得部13は、自車両が走行する道路の路肩領域の幅に関する路肩情報を取得する。路肩領域とは、車両が走行可能な道路領域の内と外とを区画する道路境界線と、道路境界線に最も近い路肩側車線境界線との間の領域を意味する。道路境界線は、左右2本存在する。図3に示す例では4本の線が描かれているが、最も左側の線が道路境界線であり、右側の3本の線は車線境界線である。車線境界線の一つ一つによって車線が区画されるので、図3では車線境界線は区画線と表記されている。隣接する2本の区画線で区画される帯状の領域が一つの車線である。路肩情報取得部13は、道路境界線の位置及び形状に関する情報と、道路境界線と対になる区画線、つまり、道路境界線に最も近い区間線(以下、路肩側区画線という)の位置及び形状に関する情報とを地図データベース6から取得する。路肩情報取得部13は、基準座標系の各縦位置において、道路境界線と路肩側区画線との横位置の差を算出する。この差が、その縦位置における路肩領域の幅、すなわち、路肩幅である。なお、図3には道路の左側にある路肩領域のみ描かれているが、路肩情報取得部13による路肩情報の取得は左右の路肩領域について行われる。
The shoulder
有効車線領域設定部14には、車線境界線情報取得部12により取得された車線境界線情報と、路肩情報取得部13により取得された路肩情報とが入力される。有効車線領域設定部14は、車線境界線情報と路肩情報とに基づいて、路肩側区画線の内側に有効車線領域を設定する。有効車線領域とは、物標枠がその中に入っていれば、その物標枠に対応する物体は車線内に位置していると判断することができる領域である。有効車線領域の具体的な内容と、有効車線領域設定部14によるその設定方法については、図4を用いて説明することができる。
The lane boundary information acquired by the lane boundary
図4には、車線を構成する左区画線と右区画線の2本の区画線が描かれている。左右の区画線の位置と形状は車線境界線情報に含まれている。左区画線の外側には、道路に沿って路側物が設置されている。路側物は、具体的には壁やガードレールであり、その内側の面が道路境界線となる。ゆえに、左区画線から道路境界線である路側物までの領域が路肩領域である。路肩側区画線である左区画線から路側物までの距離、すなわち、路肩幅は路肩情報に含まれている。 In FIG. 4, two lane markings, that is, a left lane marking and a right lane marking that constitute a lane, are drawn. The positions and shapes of the left and right lane markings are included in the lane boundary information. Outside the left lane line, roadside objects are installed along the road. The roadside object is specifically a wall or a guardrail, and its inner surface serves as a road boundary line. Therefore, the area from the left lane marking to the roadside that is the road boundary is the road shoulder area. The distance from the left lane line, which is the roadside line, to the roadside object, that is, the road width is included in the roadside information.
有効車線領域設定部14は、左区画線と右区画線の位置と形状とに基づいて、車線中心線の位置と形状とを計算する。そして、車線中心線より左区画線に向かって左側有効車線幅を設定し、車線中心線より右区画線に向かって右側有効車線幅を設定する。左側有効車線幅と右側有効車線幅は、基準座標系の縦位置ごとに設定される。また、左側有効車線幅と右側有効車線幅とで個別に設定が行われる。左側有効車線幅と右側有効車線幅とに収まる領域が、上述の有効車線領域である。
The effective lane
有効車線領域設定部14は、左区画線に路肩領域が接する場合、基準座標系の縦位置ごとの路肩領域の路肩幅を路肩情報から取得し、縦位置ごとに路肩幅に応じて左側有効車線幅の設定値を決定する。詳しくは、左区画線に路肩領域が接する場合、路肩幅が広い位置では、左側有効車線幅の設定値を大きくし、路肩幅が狭い位置では、左側有効車線幅の設定値を小さくする。また、有効車線領域設定部14は、右区画線に路肩領域が接する場合、基準座標系の縦位置ごとの路肩領域の路肩幅を路肩情報から取得し、縦位置ごとに路肩幅に応じて右側有効車線幅の設定値を決定する。詳しくは、右区画線に路肩領域が接する場合、路肩幅が広い位置では、右側有効車線幅の設定値を大きくし、路肩幅が狭い位置では、右側有効車線幅の設定値を小さくする。なお、左側有効車線幅と右側有効車線幅のそれぞれの最大値は、左区画線から右区画線までの距離、すなわち、車線幅の半分である。
The effective lane
図4に示す例では、左区画線には路肩領域が接しているが、右区画線には路肩領域が接していない(つまり、左区画線と右区画線とで区画される車線は、左側の路肩領域に隣接する隣接車線であるが、右側の路肩領域(図示しない)に隣接する隣接車線ではない。)このような場合、右側有効車線幅は最大値である車線幅の半分に固定される一方、左側有効車線幅のみ路肩幅に応じた幅に変更される。つまり、路肩幅が広いほど左区画線から有効車線領域までの余裕代を小さくし、路肩幅が狭いほど左区画線から有効車線領域までの余裕代を大きくすることが行われる。この余裕代は、路側物を物標化した場合に、路側物に対応する物標枠が車線内にはみ出すことを想定して設けられたものである。路肩領域に接する区画線(路肩側車線境界線)と有効車線領域との間に余裕代を設けることで、路側物に対応する物標枠が区画線を超えて車線の中に入ってきたとしても、その物標枠を車線内に位置する物体のものと誤判断してしまうことを防ぐことができる。 In the example shown in FIG. 4, the road area is in contact with the left lane line, but the road area is not in contact with the right lane line (that is, the lane divided by the left lane line and the right lane line is on the left side) (In this case, it is not an adjacent lane adjacent to the right shoulder area (not shown).) In such a case, the right effective lane width is fixed to half of the maximum lane width. On the other hand, only the left side effective lane width is changed to a width according to the shoulder width. That is, the allowance from the left lane line to the effective lane region is reduced as the road width is wide, and the allowance from the left lane line to the effective lane region is increased as the road width is narrow. This margin is provided on the assumption that when a roadside object is converted into a target, the target frame corresponding to the roadside object protrudes into the lane. By providing a margin between the lane line (shoulder-side lane boundary line) in contact with the shoulder area and the effective lane area, the target frame corresponding to the roadside object has entered the lane beyond the lane line. However, it is possible to prevent the target frame from being erroneously determined as that of an object located in the lane.
路側物に対応する物標枠が区画線を超えて車線の中に入ってくる侵入量は、路側物と車線との距離、すなわち、路肩幅が狭いほど大きくなる。逆に、路肩幅が広く路側物が車線から大きく離れていれば、路側物に対応する物標枠が区画線を超えて車線内に侵入する可能性は低い。ゆえに、有効車線領域設定部14は、路肩幅が広いほど有効車線幅の設定値を大きくすることで余裕代を小さくし、路肩幅が狭いほど有効車線幅の設定値を小さくすることで余裕代を大きくしている。なお、余裕代の最小値はゼロであり、最大値は車両半台分から車両1台分の幅である。余裕代の最大値をこのように限定している理由は、車両が路肩の近くを走行している場合に、その車両を車線外に位置する物体と誤判断することを防ぐためである。
The amount of intrusion that the target frame corresponding to the roadside object enters the lane beyond the lane line increases as the distance between the roadside object and the lane, that is, the shoulder width becomes narrower. Conversely, if the roadside width is wide and the roadside object is far away from the lane, the target frame corresponding to the roadside object is unlikely to enter the lane beyond the lane line. Therefore, the effective lane
有効車線領域設定部14による有効車線幅の設定値の具体的な計算方法には限定はない。例えば、隣接する路肩領域の路肩幅が狭くなるにつれて有効車線幅の設定値も線型的に小さくなるように、路肩情報より得られる路肩幅から有効車線幅の設定値を一次式で計算してもよい。また、隣接する路肩領域の路肩幅が同じでも、道路の曲率が大きい(つまり、道路半径が小さい)ほど、路側物の物標枠は車線内にはみ出しやすい。例えば、図5に示す例では、直線部にある路側物1の物標枠1は車線内にはみ出していないが、湾曲部にある路側物2の物標枠2は車線内にはみ出している。よって、路肩幅が小さいほど、且つ、曲率が大きいほど、有効車線幅の設定値を小さくしてもよい。
There is no limitation in the specific calculation method of the setting value of the effective lane width by the effective lane
車線内外判断部15には、物標情報取得部11で取得された物標情報と、有効車線領域設定部14で設定された有効車線領域に関する情報とが入力される。車線内外判断部15は、物標情報に含まれる物標枠と有効車線領域との重なり具合に基づいて、物標枠で特定される物体が車線内に位置する物体か或いは車線外に位置する物体か判断する。その具体的な判断方法については、図6及び図7を用いて説明することができる。
The target information acquired by the target
図6には、有効車線領域を示す左側有効車線幅及び右側有効車線幅と、先行する他車両の物標枠とが基準座標系で描かれている。図6に描かれている4つの黒丸は、物標枠の四隅を示す点である。また、図6に描かれている4つの白丸は、車線中心線を構成する点列の一部を示している。車線内外判断部15は、物標枠に対応する物体が車線内に位置するか車線外に位置するかを次の手順で判断する。
(1)物標枠の4つの隅点のそれぞれについて、それらを挟み込む車線中心線上の点対を隅点のX座標に基づいて特定する。
(2)特定した車線中心線上の点対の縦位置に対応する左右の有効車線幅を読み出す。
(3)物標枠の4つの隅点のそれぞれについて、対応する車線中心線上の点対を結ぶ線分との垂直距離を計算する。垂直距離とは、詳しくは、図7に例示する垂線の長さである。
(4)物標枠の4つの隅点のそれぞれについて、垂直距離が有効車線幅(図7に示す例では左側有効車線幅)よりも小さいという条件が満たされるかどうか判定する。この条件が満たされるならば、その隅点は車線内に位置していると判定する。
(5)物標枠の4つの隅点の少なくとも1つが車線内に位置していると判定された場合、当該物標枠に対応する物体は車線内に位置する物体であると判断する。
In FIG. 6, the left effective lane width and the right effective lane width indicating the effective lane area, and the target frame of the preceding other vehicle are drawn in the reference coordinate system. The four black circles drawn in FIG. 6 are points indicating the four corners of the target frame. Moreover, the four white circles drawn in FIG. 6 have shown a part of point sequence which comprises a lane centerline. The lane inside /
(1) For each of the four corner points of the target frame, a point pair on the lane center line sandwiching them is specified based on the X coordinate of the corner point.
(2) The left and right effective lane widths corresponding to the vertical positions of the point pairs on the specified lane center line are read.
(3) The vertical distance between each of the four corner points of the target frame and the line segment connecting the pair of points on the corresponding lane center line is calculated. Specifically, the vertical distance is the length of the perpendicular illustrated in FIG.
(4) For each of the four corner points of the target frame, it is determined whether or not the condition that the vertical distance is smaller than the effective lane width (left effective lane width in the example shown in FIG. 7) is satisfied. If this condition is satisfied, it is determined that the corner point is located in the lane.
(5) When it is determined that at least one of the four corner points of the target frame is located in the lane, it is determined that the object corresponding to the target frame is an object located in the lane.
自車両の周辺で検出された物標枠が複数ある場合、車線内外判断部15は、それぞれの物標枠に対して上記の手順で判断処理を行う。なお、上記の手順は次のように変更してもよい。例えば、第1の変更例として、物標枠の4つの隅点のうち、所定値以上の個数の隅点、或いは、所定割合以上の隅点が車線内に位置していると判定された場合、当該物標枠に対応する物体は車線内に位置する物体であると判断してもよい。第2の変更例として、4つの隅点以外にも物標枠上の点を複数点とり、それら各点について車線内に位置しているかどうか判定し、所定値以上の個数の点、或いは、所定割合以上の点が車線内に位置していると判定された場合、当該物標枠に対応する物体は車線内に位置する物体であると判断してもよい。
When there are a plurality of target frames detected in the vicinity of the host vehicle, the lane inside /
上記の各部11,12,13,14、15の機能により、制御装置10は物体認識装置として機能する。図8は、本実施の形態に係る物体認識処理の流れを示すフローチャートである。物体認識装置としての制御装置10は、このフローチャートに示す処理を所定の周期で繰り返し実施している。
The
まず、ステップS1では、制御装置10は、GPS信号により自車両の位置と姿勢とを推定し、自車両の周辺の車線境界線の位置と形状とが基準座標系で表現された車線境界線情報を地図データベース6から取得する。
First, in step S1, the
ステップS2では、制御装置10は、自車両の周辺の路肩領域に関する情報を地図データベース6から取得し、基準座標系の各縦位置における路肩幅を計算により取得する。
In step S <b> 2, the
ステップS3では、制御装置10は、ステップS1で取得した車線境界線情報に基づいて、各車線の車線中心線の位置と形状とを基準座標系で計算する。また、制御装置10は、ステップS2で取得した基準座標系の各縦位置における路肩幅と、路肩領域と各車線との位置関係とに基づいて、車線中心線に対して左側の有効車線幅と右側の有効車線幅とをそれぞれ基準座標系の縦位置ごとに計算する。
In step S3, the
ステップS4では、制御装置10は、自車両周辺の各物体の測距データを自律認識センサより取得し、測距データをクラスタリングすることによって各物体に対応する物標を得る。
In step S4, the
ステップS5では、制御装置10は、ステップS4で取得した物標の物標枠と、ステップS3で計算した左右の有効車線幅で定義される有効車線領域との重なり具合に基づいて、物標枠で特定される物体が車線内に位置する物体か或いは車線外に位置する物体か判断する。その具体的な判断方法は上述の通りである。
In step S5, the
以上の手順で行われる物体認識処理によれば、路肩幅に応じて範囲を変更される有効車線領域と物標枠との重なり具合から、物標枠で特定される物体が車線内にある物体かどうかが判断されるので、路肩幅の狭い道路において道路外の路側物を物標化したときの物標枠が車線内にはみ出したとしても、それを車線内の物標として誤検出することは抑えられる。この効果について図を用いて説明する。 According to the object recognition processing performed in the above procedure, the object specified by the target frame is in the lane based on the overlap between the effective lane area whose range is changed according to the shoulder width and the target frame. Therefore, even if the roadside object outside the road on the road with a narrow shoulder width is outside the road, the target frame may be misdetected as a target in the lane. Is suppressed. This effect will be described with reference to the drawings.
図9は、従来の物体認識処理による認識結果を示す図である。ここでは、車線から離れた位置に路側物1があり、車線に近い位置に路側物2がある場合を例に取って説明する。自律認識センサにより得た測距データに基づいてそれぞれの路側物1,2を物標化した場合、図9に示すように、実際の路側物1,2に対して物標枠1,2が傾くことがある。このとき、路側物1を示す物標枠1は、その位置における路肩幅が広いので車線内までは届かない。しかし、路側物2を示す物標枠2は、その位置における路肩幅が狭いために傾きによって車線内にはみ出してしまう。従来の物体認識処理によると、車線と物標枠とが重なっている場合、その物標枠で特定される物体は車線内の物体として検出される。このため、物標枠2が車線内にはみ出すことで、あたかもそこに物体が存在しているかのように認識されてしまう。その結果、その物体との衝突を回避するように、自動運転システムによって、予期しない急制動や車線変更等が行われる可能性がある。
FIG. 9 is a diagram illustrating a recognition result obtained by a conventional object recognition process. Here, the case where the
図10は、上述の手順で行われる物体認識処理による認識結果を示す図である。路側物2の位置における路肩幅は狭いため、その位置では区間線(路肩側車線境界線)から有効車線領域までの余裕代が大きく取られる。ゆえに、路側物2を示す物標枠2に傾きがあり車線内に物標枠2がはみ出したとしても、余裕代があるために有効車線領域には侵入しない。よって、上述の手順で行われる物体認識処理によれば、物標枠2で特定される物体、つまり、路側物2が車線内の物体として誤検出されることは防止される。路側物が車線内の物体として誤検出されることが低減されれば、自動運転システムによる予期しない制御も低減される。
FIG. 10 is a diagram illustrating a recognition result by the object recognition process performed in the above-described procedure. Since the shoulder width at the position of the
以上、本発明の実施の形態について説明したが、先にも述べた通り、本発明はこの実施の形態に限定されるものではない。例えば、図2では車線境界線は点列で表現されているが、地図データに登録される車線境界線は線分の集合でもよいし、曲線の集合でもよい。 Although the embodiment of the present invention has been described above, as described above, the present invention is not limited to this embodiment. For example, in FIG. 2, the lane boundary line is represented by a point sequence, but the lane boundary line registered in the map data may be a set of line segments or a set of curves.
自車両の位置及び姿勢を推定する手段は、GPS信号には限定されない。例えば、ライダー2やステレオカメラ4の出力から得られた特徴点と、地図上に登録してある看板や白線等の特徴点とを対応付けることによって自車両の位置及び姿勢を推定してもよい。
Means for estimating the position and orientation of the host vehicle are not limited to GPS signals. For example, the position and orientation of the host vehicle may be estimated by associating feature points obtained from the output of the
車線境界線情報の取得は、地図データベース6からの取得には限定されない。例えば、ステレオカメラ4により自車両の前方を撮影し、得られた撮影画像に対する白線認識処理によって車線境界線情報を取得してもよい。
Acquisition of lane boundary information is not limited to acquisition from the
1 自動運転システム
2 ライダー
3 レーダー
4 ステレオカメラ
5 GPS受信機
6 地図データベース
7 ナビゲーションシステム
8 HMI
9 アクチュエータ
10 制御装置(物体認識装置)
11 物標情報取得部(物標情報取得手段)
12 車線境界線情報取得部(車線境界線情報取得手段)
13 路肩情報取得部(路肩情報取得手段)
14 有効車線領域設定部(有効車線領域設定手段)
15 車線内外判断部(判断手段)
1
9
11 Target information acquisition unit (target information acquisition means)
12 Lane boundary information acquisition unit (lane boundary information acquisition means)
13 Road shoulder information acquisition unit (road shoulder information acquisition means)
14 Effective lane area setting part (Effective lane area setting means)
15 Lane inside / outside judgment part (judgment means)
Claims (1)
前記自車両が走行する道路の車線境界線の位置と形状とに関する車線境界線情報を取得する車線境界線情報取得手段と、
前記自車両が走行する道路の路肩領域の幅に関する路肩情報を取得する路肩情報取得手段と、
前記車線境界線情報と前記路肩情報とに基づいて、前記路肩領域に隣接する隣接車線と前記路肩領域とを区画する路肩側車線境界線の内側に、有効車線領域を設定する有効車線領域設定手段と、
前記物標情報に含まれる物標枠と前記有効車線領域との重なり具合に基づいて、前記物標枠で特定される物体が前記隣接車線内に位置する物体か或いは前記隣接車線外に位置する物体か判断する判断手段とを備え、
前記有効車線領域設定手段は、前記路肩領域の幅が広いほど前記路肩側車線境界線から前記有効車線領域までの余裕代を小さくし、前記路肩領域の幅が狭いほど前記路肩側車線境界線から前記有効車線領域までの余裕代を大きくするように前記有効車線領域を設定することを特徴とする物体認識装置。 Target information acquisition means for acquiring target information related to an object existing around the host vehicle;
Lane boundary information acquisition means for acquiring lane boundary information regarding the position and shape of the lane boundary of the road on which the host vehicle travels;
Shoulder information acquisition means for acquiring shoulder information related to the width of the shoulder region of the road on which the host vehicle travels;
Based on the lane boundary information and the road shoulder information, effective lane area setting means for setting an effective lane area inside a roadside lane boundary line that divides the adjacent lane adjacent to the road shoulder area and the road shoulder area. When,
Based on the degree of overlap between the target frame included in the target information and the effective lane area, the object specified by the target frame is an object located in the adjacent lane or located outside the adjacent lane. A determination means for determining whether the object is an object,
The effective lane area setting means reduces the margin from the roadside lane boundary line to the effective lane area as the width of the roadside area increases, and decreases from the roadside lane boundary line as the width of the roadside area decreases. The object recognition apparatus, wherein the effective lane region is set so as to increase a margin to the effective lane region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016228088A JP6690510B2 (en) | 2016-11-24 | 2016-11-24 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016228088A JP6690510B2 (en) | 2016-11-24 | 2016-11-24 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018084987A true JP2018084987A (en) | 2018-05-31 |
JP6690510B2 JP6690510B2 (en) | 2020-04-28 |
Family
ID=62238439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016228088A Active JP6690510B2 (en) | 2016-11-24 | 2016-11-24 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6690510B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112455448A (en) * | 2019-09-09 | 2021-03-09 | 大陆泰密克汽车系统(上海)有限公司 | Automatic control method of vehicle and vehicle |
CN112673230A (en) * | 2018-07-04 | 2021-04-16 | 日产自动车株式会社 | Driving assistance method and driving assistance device |
CN113487901A (en) * | 2021-07-30 | 2021-10-08 | 重庆长安汽车股份有限公司 | Lane width checking method and system based on camera perception |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004157935A (en) * | 2002-11-08 | 2004-06-03 | Komatsu Ltd | Travel controller for vehicle |
JP2010096584A (en) * | 2008-10-15 | 2010-04-30 | Kajima Corp | Obstacle detector and obstacle detection method |
JP2012014520A (en) * | 2010-07-01 | 2012-01-19 | Toyota Motor Corp | Obstacle detection device |
JP2013210905A (en) * | 2012-03-30 | 2013-10-10 | Aisin Aw Co Ltd | Probe information statistical system, probe information statistical method and probe information statistical program |
-
2016
- 2016-11-24 JP JP2016228088A patent/JP6690510B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004157935A (en) * | 2002-11-08 | 2004-06-03 | Komatsu Ltd | Travel controller for vehicle |
JP2010096584A (en) * | 2008-10-15 | 2010-04-30 | Kajima Corp | Obstacle detector and obstacle detection method |
JP2012014520A (en) * | 2010-07-01 | 2012-01-19 | Toyota Motor Corp | Obstacle detection device |
JP2013210905A (en) * | 2012-03-30 | 2013-10-10 | Aisin Aw Co Ltd | Probe information statistical system, probe information statistical method and probe information statistical program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112673230A (en) * | 2018-07-04 | 2021-04-16 | 日产自动车株式会社 | Driving assistance method and driving assistance device |
CN112455448A (en) * | 2019-09-09 | 2021-03-09 | 大陆泰密克汽车系统(上海)有限公司 | Automatic control method of vehicle and vehicle |
CN113487901A (en) * | 2021-07-30 | 2021-10-08 | 重庆长安汽车股份有限公司 | Lane width checking method and system based on camera perception |
Also Published As
Publication number | Publication date |
---|---|
JP6690510B2 (en) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109669451B (en) | Autonomous driving support apparatus and method | |
EP3285485B1 (en) | Stereo camera-based autonomous driving method and apparatus | |
KR102558055B1 (en) | Suboptimal estimation method | |
CN105984464B (en) | Controller of vehicle | |
JP6747269B2 (en) | Object recognition device | |
US8363104B2 (en) | Lane determining device and navigation system | |
CN107251127B (en) | Vehicle travel control device and travel control method | |
US9796378B2 (en) | Vehicle travel path generating apparatus | |
JP2019108116A (en) | Device and method for controlling speed of vehicle in longitudinal direction | |
JP6654923B2 (en) | Map information output device | |
JP6911312B2 (en) | Object identification device | |
KR20190045308A (en) | A vehicle judging method, a traveling path correcting method, a vehicle judging device, and a traveling path correcting device | |
KR20160038645A (en) | Cruise control system and cruise control method thereof | |
JP7229052B2 (en) | vehicle control device, vehicle control system | |
JP6941178B2 (en) | Automatic operation control device and method | |
JP2021197009A (en) | Risk determination system and risk determination program | |
JP6690510B2 (en) | Object recognition device | |
CN114728657A (en) | Vehicle control method and vehicle control device | |
JP7043765B2 (en) | Vehicle driving control method and equipment | |
KR101588787B1 (en) | Method for determining lateral distance of forward vehicle and head up display system using the same | |
JP6115429B2 (en) | Own vehicle position recognition device | |
JP5974923B2 (en) | Road edge detection system, method and program | |
KR101980509B1 (en) | Inter-vehicle distance estimation method and inter-vehicle distance estimation device | |
JP2019027995A (en) | Information processing device, program, and method for estimating vehicle position | |
JP3864729B2 (en) | Departure determination device for vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200323 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6690510 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |