JP7228219B2 - Lateral position estimation device and lateral position estimation method - Google Patents
Lateral position estimation device and lateral position estimation method Download PDFInfo
- Publication number
- JP7228219B2 JP7228219B2 JP2018124564A JP2018124564A JP7228219B2 JP 7228219 B2 JP7228219 B2 JP 7228219B2 JP 2018124564 A JP2018124564 A JP 2018124564A JP 2018124564 A JP2018124564 A JP 2018124564A JP 7228219 B2 JP7228219 B2 JP 7228219B2
- Authority
- JP
- Japan
- Prior art keywords
- lateral position
- edge profile
- image data
- road
- eigenvector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
本発明は、移動体の走行方向に対する横方向位置を推定する横方向位置推定装置及び横方向位置推定方法に関する。 The present invention relates to a lateral position estimating device and a lateral position estimating method for estimating the lateral position of a moving body with respect to the running direction.
現在、車両などの移動体の自動運転に関する研究が企業および大学などにおいて活発に進められている(非特許文献1、2など参照)。車両が公道で自動運転を行うためには、道路における車両の位置を正確に推定する必要がある。特に、車両の走行方向に対する横方向位置の正確な推定が、安全な自動運転を実現するために必要である。
Currently, companies, universities, and the like are actively conducting research on automatic driving of moving bodies such as vehicles (see Non-Patent
例えば、非特許文献1には、予め生成された地図と、車両からLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)の観測値との類似度を計算することで、車両の位置を推定する技術が開示されている。
For example, in Non-Patent
車両が公道で自動運転を行うためには、道路の周辺環境、天候などの条件に関わらず、正確に車両の横方向位置を推定する必要がある。しかしながら、例えば、降雪などに起因して、路面状況が変化する場合には、路面状況変化前に生成された地図と、路面状況変化後に取得されたLIDARの観測値とが合致しないことがある。このため、上記非特許文献1に記載の技術を含む従来の技術では必ずしも精度良く位置推定できない。
In order for a vehicle to operate automatically on public roads, it is necessary to accurately estimate the lateral position of the vehicle regardless of the road environment, weather, and other conditions. However, for example, when the road surface condition changes due to snowfall, the map generated before the road surface condition change and the LIDAR observation value acquired after the road surface condition change may not match. For this reason, the conventional techniques including the technique described in
そこで、本発明は、かかる問題に鑑みてなされたものであって、移動体の横方向位置を精度良く推定できる横方向位置推定装置及び横方向位置推定方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a lateral position estimating device and a lateral position estimating method capable of accurately estimating the lateral position of a moving object.
上記目的を達成するために、本発明の一態様に係る横方向位置推定装置は、移動体の走行方向に対する横方向位置を推定する横方向位置推定装置であって、前記移動体が走行している道路を前記移動体から撮像した画像データを取得する取得部と、前記画像データにおける前記横方向位置と、前記横方向位置に対する前記画像データにおける輝度の変化率を示すエッジ強度との関係を示すエッジプロファイルにおいて、前記エッジ強度を強調することによって前記エッジプロファイルの再構成を行う再構成部と、再構成された前記エッジプロファイルと、前記画像データに対応する道路のマップ情報から得られる前記横方向位置と前記エッジ強度との関係を示すマップエッジプロファイルと、を照合することによって、前記移動体の横方向位置を算出する照合部とを備える。 In order to achieve the above object, a lateral position estimation device according to one aspect of the present invention is a lateral position estimation device for estimating a lateral position of a moving object with respect to a running direction, the moving object running. 1 shows a relationship between an acquisition unit that acquires image data obtained by capturing an image of a road on which the vehicle is located from the moving body, the lateral position in the image data, and an edge strength that indicates a rate of change in luminance in the image data with respect to the lateral position; In the edge profile, a reconstruction unit that reconstructs the edge profile by emphasizing the edge strength; and the reconstructed edge profile and the lateral direction obtained from road map information corresponding to the image data. a matching unit for calculating the lateral position of the moving object by matching a map edge profile showing the relationship between the position and the edge strength.
また、上記目的を達成するために、本発明の一態様に係る横方向位置推定方法は、移動体の走行方向に対する横方向位置を推定する横方向位置推定方法であって、前記移動体が走行している道路を前記移動体から撮像した画像データを取得する取得ステップと、前記画像データにおける前記横方向位置と、前記横方向位置に対する前記画像データにおける輝度の変化率を示すエッジ強度との関係を示すエッジプロファイルにおいて、前記エッジ強度を強調することによって前記エッジプロファイルの再構成を行う再構成ステップと、再構成された前記エッジプロファイルと、前記画像データに対応する道路のマップ情報から得られる前記横方向位置と前記エッジ強度との関係を示すマップエッジプロファイルと、を照合することによって、前記移動体の横方向位置を算出する照合ステップとを含む。 In order to achieve the above object, a lateral position estimation method according to one aspect of the present invention is a lateral position estimation method for estimating a lateral position of a moving object with respect to a running direction, the method comprising: an acquisition step of acquiring image data obtained by capturing an image of a road on which the vehicle is moving from the moving body; the relationship between the horizontal position in the image data and edge strength indicating a rate of change in luminance in the image data with respect to the horizontal position; a reconstruction step of reconstructing the edge profile by emphasizing the edge strength; and the reconstructed edge profile and the road map information corresponding to the image data. and a collation step of calculating the lateral position of the moving body by collating a map edge profile indicating the relationship between the lateral position and the edge strength.
このような横方向位置推定装置及び横方向位置推定方法では、画像データから得られるエッジプロファイルにおけるエッジ強度が横方向位置推定を精度良く行うために不十分である場合にも、画像データから得られるエッジプロファイルにおけるエッジ強度を再構成部によって強調することで、精度良く横方向位置を推定できる。 With such a lateral position estimating device and lateral position estimating method, even if the edge intensity in the edge profile obtained from the image data is insufficient for accurately estimating the lateral position, the By enhancing the edge intensity in the edge profile by the reconstructor, the lateral position can be estimated with high accuracy.
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. and any combination of recording media.
本発明の横方向位置推定装置及び横方向位置推定方法によれば、移動体の横方向位置を精度良く推定できる。 According to the lateral position estimating device and lateral position estimating method of the present invention, the lateral position of a moving object can be accurately estimated.
(本発明の基礎となった知見)
本発明の説明に先立って、本発明の基礎となった知見について説明する。
(Knowledge on which the present invention is based)
Prior to the description of the present invention, the knowledge on which the present invention is based will be described.
図1は、車両1000の横方向位置を説明する模式図である。図1に示すように、車両1000の横方向位置とは、道路R0を走行する車両1000の走行方向に対して横断方向における位置を意味する。横方向位置を推定することで、車両1000の自動運転において、道路R0の走行車線における適切な位置にあるか否かを判断できる。例えば、日本の道路R0においては、図1に示すように、横断方向の端部である二つの端縁Erの中央付近に中央線Lcが示されている。また、道路R0においては、車道の外側の端部を示す車道外側線Lsが示されている。道路R0において、中央線Lcの左側であって、中央線Lcと、車道外側線Lsとの間が、走行する車両1000の適切な横方向位置である。
FIG. 1 is a schematic diagram illustrating the lateral position of a
ここで、LIDARを用いた車両の横方向位置の推定方法について図2A~図2Cを用いて説明する。図2Aは、LIDARの観測値から得られる道路の画像データの一例を示す図である。図2Bは、図2Aに示される道路のマップ情報を示す図である。図2Cは、図2Aに示す画像データと図2Bに示すマップ情報とを照合した結果を示す図である。 Here, a method for estimating the lateral position of a vehicle using LIDAR will be described with reference to FIGS. 2A to 2C. FIG. 2A is a diagram showing an example of road image data obtained from LIDAR observation values. FIG. 2B is a diagram showing map information of the road shown in FIG. 2A. FIG. 2C is a diagram showing a result of comparing the image data shown in FIG. 2A and the map information shown in FIG. 2B.
図2Aに示すように、LIDARによって、道路の端縁Erと、路面に示される車道境界線(中央線Lc、車道外側線Ls)などの標識とを検出できる。これらの情報と、図2Bに示されるマップ情報における車道境界線などとを照合することで、図2Cに示されるように、LIDARから得られる画像データとマップ情報との関係を推定できる。図2Cに示される例では、マップ情報を示す図において、白線枠で囲まれた内部が、図2Aに示される画像データと一致している。これにより、画像データによって示される領域のマップ上における位置を推定できる。したがって、予め得られている画像データにおける車両の位置情報から車両の横方向位置を推定できる。 As shown in FIG. 2A, LIDAR can detect road edges Er and road markings such as road boundary lines (central line Lc, roadway outer line Ls) indicated on the road surface. By comparing this information with the roadway boundary lines and the like in the map information shown in FIG. 2B, the relationship between the image data obtained from LIDAR and the map information can be estimated as shown in FIG. 2C. In the example shown in FIG. 2C, in the diagram showing the map information, the inside surrounded by the white line frame matches the image data shown in FIG. 2A. This makes it possible to estimate the position of the area indicated by the image data on the map. Therefore, the lateral position of the vehicle can be estimated from the vehicle position information in the image data obtained in advance.
しかしながら、このような推定方法では、車両の横方向位置を精度良く推定できない場合がある。以下、その一例を図3A~図3Cを用いて説明する。 However, such an estimation method may not accurately estimate the lateral position of the vehicle. An example thereof will be described below with reference to FIGS. 3A to 3C.
図3Aは、車両が走行する道路の一例を示す写真である。図3Bは、図3Aに示される道路のマップ情報を示す図である。図3Cは、図3Aに示される道路を走行する車両に設置されたLIDARの観測値から得られる道路の画像データを示す図である。 FIG. 3A is a photograph showing an example of a road on which vehicles travel. FIG. 3B is a diagram showing map information of the road shown in FIG. 3A. FIG. 3C is a diagram showing road image data obtained from LIDAR observations installed on a vehicle traveling on the road shown in FIG. 3A.
図3Aに示されるように、道路に雪が積もっている場合がある。図3Bは、図3Aに示される道路に雪が積もっていない場合のマップ情報が示されている。図3Cに示されるように、雪が積もっている道路を走行する車両に設置されたLIDARの観測値から得られる画像データには、雪によって形成される線状の模様が形成されていることが認められる。また、図3Cにおいて車道外側線は、雪によって隠れている。このため、図3Bと、図3Cとを照合する場合に、図3Cの画像データの図3Bのマップ上での位置を精度良く推定できない。以上のように、道路状況は、天候などに応じてダイナミックに変化し得るため、上記の方法では、位置を精度良く推定できないという問題がある。 As shown in FIG. 3A, the road may be covered with snow. FIG. 3B shows map information when the road shown in FIG. 3A is not covered with snow. As shown in FIG. 3C, it is recognized that linear patterns formed by snow are formed in the image data obtained from the observation values of the LIDAR installed on the vehicle traveling on the snow-covered road. be done. Also, in FIG. 3C, the roadway outside line is hidden by snow. Therefore, when comparing FIG. 3B and FIG. 3C, the position of the image data of FIG. 3C on the map of FIG. 3B cannot be estimated with high accuracy. As described above, the road conditions can change dynamically depending on the weather and the like, so there is a problem that the above method cannot accurately estimate the position.
本発明は、以上のような問題を解決するためのものであって、車両などの移動体の横方向位置を精度良く推定できる横方向位置推定装置及び横方向位置推定方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a lateral position estimating device and a lateral position estimating method capable of accurately estimating the lateral position of a moving object such as a vehicle. and
以下、本発明の横方向位置推定装置及び横方向位置推定方法における実施の形態について、図面を参照しながら具体的に説明する。 Embodiments of the lateral position estimation device and the lateral position estimation method of the present invention will be specifically described below with reference to the drawings.
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that the embodiments described below are all comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples and are not intended to limit the present invention. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in independent claims representing the highest concept will be described as arbitrary constituent elements.
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。 Each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same code|symbol is attached|subjected about the same component.
(実施の形態1)
実施の形態1に係る横方向位置推定装置及び推定方法について説明する。
(Embodiment 1)
A lateral position estimation device and an estimation method according to
[1-1.装置構成]
まず、本実施の形態に係る横方向位置推定装置の構成について図4を用いて説明する。
[1-1. Device configuration]
First, the configuration of the lateral position estimation device according to this embodiment will be described with reference to FIG.
図4は、本実施の形態に係る横方向位置推定装置100の構成の一例を示すブロック図である。
FIG. 4 is a block diagram showing an example of the configuration of lateral
本実施の形態に係る横方向位置推定装置100は、車両V10などの移動体に搭載され、移動体の走行方向に対する横方向位置を推定する装置である。横方向位置推定装置100は、取得部10と、再構成部20と、照合部30と、位置検出部40と、記憶部50とを備える。
A lateral
取得部10は、車両V10などの移動体が走行している道路を移動体から撮像した画像データを取得する。本実施の形態では、取得部10は、車両V10に搭載されたLIDARを有し、車両V10が走行している道路のLIDARによる観測値である計測反射率から二次元の画像データを取得する。取得部10は、例えば、車両V10の周囲の32m×32mの領域の画像データを10Hzで取得する。画像データにおける画素数は、例えば、192×192ピクセルである。より詳しくは、LIDARによって、三次元画像データを取得できるが、本実施の形態では、三次元画像データのうち、路面から30cmの高さにおける二次元画像データを切り取って用いる。これにより、二次元画像データによって、路面から30cm程度以下における道路の情報として、車道境界線、路面標識、道路の端縁及び縁石のような一般的な道路に共通するランドマークを表すことができる。
The
再構成部20は、取得部10が取得した画像データにおける横方向位置と、横方向位置に対する画像データにおける輝度の変化率を示すエッジ強度との関係を示すエッジプロファイルにおいて、エッジ強度を強調することによってエッジプロファイルの再構成を行う。エッジプロファイルを用いることによって、画像データの横方向における特性を抽出することができる。このため、エッジプロファイルは、横方向位置を推定するための効果的なツールとなり得る。本実施の形態では、再構成部20は、取得部10が取得した画像データに基づいて、エッジプロファイルを生成し、当該エッジプロファイルを再構成する。エッジプロファイル及びその再構成については後述する。
The
位置検出部40は、車両V10の概略位置を検出する。位置検出部40として、例えば、GNSS(Global Navigation Satellite System)/INS(Inertial Navigation System)複合航法装置を用いることができる。これにより、車両V10の三次元位置及び姿勢を100Hz程度で計測できる。
The
記憶部50は、横方向位置推定装置100において使用されるマップ情報を記憶する。記憶部50は、横方向位置推定装置100において使用される他の情報を記憶してもよい。ここで、マップ情報とは、道路の構造及び標識を示す情報である。マップ情報には、例えば、道路の構造を示す情報として、例えば、道路の端縁の位置、道路の側溝の位置、ガードレールの位置などを示す情報が含まれる。また、マップ情報には、例えば、道路の標識を示す情報として、例えば、道路に示される中央線、車道外側線、横断歩道などの位置の情報が示される。マップ情報は、例えば、天候のいいときに、LIDARなどを用いて観測することで生成されてもよいし、他の方法で生成されてもよい。
照合部30は、再構成されたエッジプロファイルと、取得部10によって取得された画像データに対応する道路のマップ情報から得られる横方向位置とエッジ強度との関係を示すマップエッジプロファイルと、を照合することによって、移動体の横方向位置を算出する。本実施の形態では、照合部30は、位置検出部40が検出した車両V10の概略位置に基いて、記憶部50から、当該概略位置に対応するマップ情報を取得する。ここで、当該マップ情報は、取得部10が取得する画像データが示す領域より十分広い領域の情報である。照合部30は、当該マップ情報から得られるマップエッジプロファイルと、画像データから得られるエッジプロファイルとを照合することによって、車両V10の横方向位置を推定する。より具体的には、位置検出部40によって得られた車両V10の横方向位置と、照合の結果に基づいて得られる横方向位置とのずれを推定する。照合部30における照合方法の詳細については後述する。
A
[1-2.再構成方法及び照合方法]
次に、再構成部20においてエッジプロファイルを再構成する方法及び照合部30における照合方法について説明する。まず、再構成部20によって再構成される対象となるエッジプロファイルの例について、図5及び図6を用いて説明する。図5は、車両V10が走行する道路、及び、その道路における位置推定結果の一例を示す図である。図6は、車両V10が走行する道路、及び、その道路における位置推定結果の他の一例を示す図である。図5には、夏の晴天時の道路における位置推定結果の一例が示されている。一方、図6には、冬の降雪時の図5と同じ道路及び横方向位置における位置推定結果の一例が示されている。図5及び図6の各写真(a)は、位置推定を行った道路の外観を示す写真である。図5及び図6の各グラフ(b)は、位置推定を行った道路のマップ情報から得られるマップエッジプロファイルを示す。図5及び図6の各グラフ(c)は、取得部10が取得する画像データ(つまり、LIDARによって取得された画像)から得られるエッジプロファイルを示す。図5及び図6の各グラフ(d)は、各グラフ(a)のマップエッジプロファイルと各グラフ(b)のエッジプロファイルとを照合することによって求められた類似度を示すプロファイルである。類似度の詳細については、後述する。図5及び図6の各グラフ(e)は、各グラフ(d)の類似度に基いて、各グラフ(b)のマップエッジプロファイルと各グラフ(c)のエッジプロファイルとを重ねたグラフである。各グラフ(e)の実線は、各マップエッジプロファイルを示し、点線は、エッジプロファイルを示す。図5及び図6の各画像(f)は、各グラフ(d)の類似度に基いて、各マップ情報と、取得部10が取得した画像データとを重ねた画像である。各画像(f)では、マップ情報上に、白枠で囲まれた画像データが重ね合わされている。なお、図5及び図6の各グラフ(b)~(e)の縦軸は横方向位置を示し、各グラフ(b)~(c)及び(e)の横軸はエッジ強度を示す。なお、各グラフ(d)の横軸は、後述する類似度REdgeを示す。
[1-2. Reconstruction method and collation method]
Next, a method for reconstructing an edge profile in the
図5及び図6の各グラフ(c)に示されるエッジプロファイルとは、上述のとおり、取得部10が取得した画像データから得られる横方向位置とエッジ強度との関係を示す。具体的には、エッジプロファイルは、取得部10が取得した画像データにおいて、例えば、ソーベルフィルタを用いて検出できる。ソーベルフィルタを適用することで、エッジ強度E(u,v)と方向θE(u,v)は以下の式(1)及び式(2)で表される。
The edge profile shown in each graph (c) of FIGS. 5 and 6 indicates the relationship between the lateral position and the edge strength obtained from the image data acquired by the
ここで、EU及びEVは、それぞれu方向及びv方向における勾配成分である。本実施の形態では、各方向における20度より急な勾配(変化率)だけをエッジとして抽出する。これにより、図5及び図6の各グラフ(c)に示されるようなエッジプロファイルを生成できる。本実施の形態では、車両V10の道路に対する横方向位置(図5及び図6の各グラフの縦軸方向位置)におけるエッジプロファイルの画素数は192である。このため、図5及び図6のグラフ(c)の縦軸の画素数は192である。 where E U and E V are the gradient components in the u and v directions, respectively. In this embodiment, only gradients (rates of change) steeper than 20 degrees in each direction are extracted as edges. As a result, edge profiles as shown in graphs (c) of FIGS. 5 and 6 can be generated. In this embodiment, the number of pixels of the edge profile is 192 at the lateral position of the vehicle V10 with respect to the road (the vertical position in each graph of FIGS. 5 and 6). Therefore, the number of pixels on the vertical axis of the graphs (c) in FIGS. 5 and 6 is 192. FIG.
また、車両V10の走行方向(Longitudinal Direction)及び横方向(Lateral Direction)をそれぞれu方向及びv方向とすると、図5及び図6の各グラフ(b)に示されるようなマップエッジプロファイルEdMap(v)及び図5及び図6の各グラフ(c)に示されるようなエッジプロファイルEdObs(v)は、以下の式(3)を用いて照合される。 Further, when the traveling direction (Longitudinal Direction) and the lateral direction (Lateral Direction) of the vehicle V10 are the u direction and the v direction, respectively, the map edge profile Ed Map ( v) and the edge profile Ed Obs (v) as shown in graphs (c) of FIGS. 5 and 6 are matched using equation (3) below.
ここで、ηは正規化定数であり、vcはスキャンの刻み幅(step)であり、Vは、エッジプロファイルEdObs(v)の画素数である。式(3)で表される類似度REdgeが最大となるマップ上の位置が、画像データのマップ上の位置と推定される。図5及び図6に示される例では、マップエッジプロファイルの横方向(図5及び図6の各グラフ(b)の縦軸方向)における画素数は256であるため、照合する位置の候補は、64(=256-192)点ある(図5及び図6の各グラフ(d)参照)。これらの候補点のうち、最も類似度REdgeが高くなる点が、エッジプロファイルとマップエッジプロファイルとが合致する点(図5及び図6のグラフ(d)に示される円マークの点)と推定される。 where η is a normalization constant, v c is the scanning step, and V is the number of pixels in the edge profile Ed Obs (v). The position on the map where the similarity R Edge represented by Equation (3) is maximized is estimated to be the position on the map of the image data. In the examples shown in FIGS. 5 and 6, the number of pixels in the horizontal direction of the map edge profile (the vertical axis direction of each graph (b) in FIGS. 5 and 6) is 256, so the matching position candidate is There are 64 (=256-192) points (see graphs (d) in FIGS. 5 and 6). Among these candidate points, the point with the highest similarity R Edge is presumed to be the point where the edge profile and the map edge profile match (circle mark points shown in graphs (d) of FIGS. 5 and 6). be done.
例えば、図5の画像(f)に示されるように、式(3)で表される類似度REdgeに基いて、マップ情報に対する取得部10が取得した画像データの横方向の相対位置を正確に推定できる。このように、エッジプロファイルを用いることによって、画像データの横方向における特性を抽出することができる。これにより、道路の端縁の位置、道路の車道境界線などの標識の位置と、それらに対応するエッジの強度とを抽出できるため、エッジプロファイルは、横方向位置を推定するための効果的なツールとなり得る。
For example, as shown in the image (f) of FIG. 5, the horizontal relative position of the image data acquired by the
ただし、取得部10が取得する画像データは、天候などの環境条件、道路工事などの状況に応じて変動し得る。例えば、図6に示されるように、道路に雪が積もっている場合には、画像データから得られるエッジプロファイルも変化する。
However, the image data acquired by the
夏の晴天時のエッジプロファイルを示す図5のグラフ(c)と、冬の降雪時のエッジプロファイルを示す図6のグラフ(c)とを比較すると、図5のグラフ(c)では、高いピーク値を有する部分が三か所程度あるのに対して、図6のグラフ(c)では、高いピーク値を有する部分が一か所となっている。これは、降雪時には、車道外側線が雪によって隠れることで、エッジプロファイルにおける車道外側線に対応するエッジが、不鮮明となっているためと考えらえる。 Comparing the graph (c) of FIG. 5 showing the edge profile during fine weather in summer with the graph (c) of FIG. 6 showing the edge profile during snowfall in winter, graph (c) of FIG. While there are about three portions with high values, graph (c) in FIG. 6 has only one portion with a high peak value. This is probably because the edge of the edge profile corresponding to the line outside the roadway is obscured because the line outside the roadway is hidden by the snow when it snows.
図6のグラフ(c)のようなエッジプロファイルとグラフ(b)のマップエッジプロファイルとの類似度を算出することによって横方向位置推定を行うと、図6のグラフ(e)及び画像(f)に示されるように、画像データのマップ情報に対する相対位置が推定される。図6のエッジプロファイルを示すグラフ(c)は、図5のグラフ(c)と同様の位置で取得されたものであるため、図6の画像(f)において白枠で囲まれた画像データは、図5の画像(f)において白枠で囲まれた画像データと同様の位置に重ね合わされるべきである。しかしながら、雪による画像データ及びエッジプロファイルへの影響に起因して、図6の画像(f)における画像データの位置は、正しい横方向位置(図5の画像(f)における白枠の位置)に推定されていない。 When lateral position estimation is performed by calculating the similarity between the edge profile shown in graph (c) in FIG. 6 and the map edge profile shown in graph (b), graph (e) and image (f) in FIG. , the relative position of the image data to the map information is estimated. Graph (c) showing the edge profile in FIG. 6 was obtained at the same position as graph (c) in FIG. , should be superimposed at the same position as the image data surrounded by the white frame in the image (f) of FIG. However, due to the effect of snow on the image data and edge profile, the position of the image data in image (f) of FIG. Not estimated.
以上で述べたような降雪の場合だけでなく、降雨、道路工事、道路周辺の草木の状況などに起因して、エッジプロファイルを用いた横方向位置推定方法においても、正しく横方向位置を推定できない場合がある。 Not only in the case of snowfall as described above, but also due to rainfall, road construction, vegetation around the road, etc., even with the lateral position estimation method using the edge profile, the lateral position cannot be estimated correctly. Sometimes.
そこで、本実施の形態に係る再構成部20では、図6のグラフ(c)に示されるようなエッジプロファイルのうち、道路の構造及び標識を示すエッジを強調し、雪などに起因するマップ情報にないエッジを低減することで、図5のグラフ(c)に示されるマップエッジプロファイルに近いエッジプロファイルに再構成する。
Therefore, in the
以下、本実施の形態に係る再構成部20による再構成方法について説明する。
A reconstruction method by the
再構成部20は、機械学習によって再構成のアルゴリズムを予め決定する。これにより、機械学習で用いるトレーニングデータを十分に準備することで、容易に横方向位置推定の精度を高めることができる。本実施の形態では、機械学習においてPCA(Principal Component Analysis)を用いる。なお、本実施の形態では、機械学習において、PCAを用いるが、機械学習において用いることができる方法は、PCAに限定されない。例えば、後述するニューラルネットワークなどを用いてもよい。
The
以下、PCAの一般的な構成を示す。まず、未加工のデータEdmap_i(i=1、2、・・・、M)に関して、データの平均値がゼロとなるように新たな変数Ed’map_iを以下の式(4)で定義する。 The general configuration of PCA is shown below. First , regarding the raw data Ed map_i (i=1, 2, .
ここで、平均値がゼロであるデータの共分散行列Cが以下の式(5)のように計算される。 Here, the covariance matrix C of the data whose average value is zero is calculated as shown in the following equation (5).
また、共分散行列Cの固有ベクトル行列Ω及び固有値λは、以下の式(6)を解くことによって求められる。 Also, the eigenvector matrix Ω and the eigenvalue λ of the covariance matrix C are obtained by solving the following equation (6).
これにより、データEdmap_iは、以下の式(7)のように、変数Ed’map_iに関する固有ベクトルの線形結合で表される。 As a result, the data Ed map_i is represented by a linear combination of eigenvectors relating to the variable Ed' map_i , as shown in Equation (7) below.
ここで、Biは、各固有ベクトルの投影値を含む1×Nベクトルである。 where B i is a 1×N vector containing the projection values of each eigenvector.
本実施の形態では、M個のベクトルのセットからなるデータによって様々な道路のエッジプロファイルを表す。エッジプロファイルは、道路の端縁、標識などを示すためにマップ情報から抽出される。マップ情報は、横方向位置推定装置100を使用する道路及び当該道路と同様の構成を有する道路の情報を含む。マップ情報は、例えば、本実施の形態に係る横方向位置推定装置100が備えるLIDARと同様の装置によって取得される。
In this embodiment, the edge profiles of various roads are represented by data consisting of a set of M vectors. Edge profiles are extracted from map information to indicate road edges, signs, and the like. The map information includes information on roads on which the lateral
上述した共分散行列Cの対角成分は、エッジプロファイルのM個の各ピクセルの変化を示す。また、共分散行列Cの対角成分以外の成分は、エッジプロファイル全体の互いに異なるピクセル間の相関を示す。 The diagonal entries of the covariance matrix C described above indicate the change of each of the M pixels of the edge profile. Also, the non-diagonal components of the covariance matrix C indicate correlations between different pixels in the entire edge profile.
PCAの重要な特性の一つは、データの構造を暗にモデル化することにある。共分散行列の固有ベクトルは、エッジプロファイルのうち最も変化が大きい方向を示す。このような変化は、エッジのピークの配置、強度、及び、道路の構造の特性の変化に起因する。よって、各固有ベクトルは、対応する固有値に従って、これらの特性の異なるパターンを示すことが想定される。 One of the key properties of PCA is that it implicitly models the structure of data. The eigenvectors of the covariance matrix indicate the direction of the edge profile that varies the most. Such variations are due to variations in edge peak placement, intensity, and road structure characteristics. Thus, each eigenvector is assumed to exhibit different patterns of these properties according to the corresponding eigenvalues.
以上で述べた固有ベクトルの例について図7を用いて説明する。図7は、本実施の形態に係る固有ベクトルの振る舞いを示すグラフである。図7には、固有値の大きい五つの固有ベクトルの、-3λiから+3λiまで振る舞いが示されている。図7の各グラフの縦軸が道路における横方向位置を示し、横軸が固有ベクトルの各要素の強度を示す。 An example of the eigenvectors described above will be described with reference to FIG. FIG. 7 is a graph showing the behavior of eigenvectors according to this embodiment. FIG. 7 shows the behavior of five eigenvectors with large eigenvalues from −3λi to + 3λi . The vertical axis of each graph in FIG. 7 indicates the lateral position on the road, and the horizontal axis indicates the strength of each element of the eigenvector.
図7の最上段のグラフ(a)で示される第一(1st)の固有ベクトルは、エッジプロファイルにおける複数のピークの配置の変化を符号化する。図7に示される全範囲で、当該複数のピークは、それぞれ2ピクセル分だけ等しくシフトする。ここで、2ピクセル分とは、実空間における25cmに相当する。図7のグラフ(a)に示されるように、複数のピークは、道路の端縁Er、中央線Lc、車道外側線Lsなどに対応する。図7の上から二段目のグラフ(b)で示される第二(2nd)の固有ベクトルは、車道境界線のピークにほぼ比例する強度の変化を符号化する。図7の上から三段目のグラフ(c)で示される第三(3rd)の固有ベクトルは、道路の中央線に対応するピークと、道路の端縁のピークとの強度の関係を符号化する。図7の上から四段目のグラフ(d)で示される第四(4th)の固有ベクトルは、二つの車道外側線の強度の関係を示す。図7の最下段のグラフ(e)で示される第五(5th)の固有ベクトルは、中央のピークが変化する範囲を示す。 The first (1st) eigenvector shown in the top graph (a) of FIG. 7 encodes the change in placement of multiple peaks in the edge profile. Over the entire range shown in FIG. 7, the peaks shift equally by two pixels each. Here, 2 pixels corresponds to 25 cm in real space. As shown in graph (a) of FIG. 7, the plurality of peaks correspond to the road edge Er, the center line Lc, the roadway outer line Ls, and the like. The second (2nd) eigenvector shown in graph (b) on the second row from the top of FIG. 7 encodes a change in intensity approximately proportional to the peak of the road boundary line. The third (3rd) eigenvector shown in the third row graph (c) of FIG. 7 encodes the intensity relationship between the peak corresponding to the centerline of the road and the peaks at the edges of the road. . The fourth (4th) eigenvector shown in graph (d) in the fourth row from the top of FIG. 7 indicates the relationship between the strengths of the two roadway outside lines. The fifth (5th) eigenvector shown in graph (e) at the bottom of FIG. 7 indicates the range in which the central peak varies.
続いて、エッジプロファイルの再構成の具体的な手順について図8A~図8Cを用いて説明する。図8Aは、マップ情報から得られるマップエッジプロファイルの第一及び第二の固有ベクトルの配置を示すグラフである。図8Bは、標準的な範囲からずれたピークを有するプロファイルの一例を示すグラフである。図8Cは、図8Bに示されるプロファイルを再構成して得られるプロファイルを示すグラフである。 Next, specific procedures for reconstructing the edge profile will be described with reference to FIGS. 8A to 8C. FIG. 8A is a graph showing placement of first and second eigenvectors of a map edge profile obtained from map information. FIG. 8B is a graph showing an example of a profile with out-of-range peaks. FIG. 8C is a graph showing a profile obtained by reconstructing the profile shown in FIG. 8B.
図8Aに示すように、固有ベクトルの分布は、一点鎖線の楕円で囲まれた領域内に概ね集中する。この楕円で囲まれた領域は、各固有ベクトルにおいて符号化されたパターンに基いて標準的なプロファイルを再構成するためのプラットフォームになると考えられる。例えば、図8Bに示されるプロファイルは、標準的でない負のピークを有する。図8Bに示されるプロファイルは、図8Aの三角印で示される点に対応する。プロファイルの固有空間における位置は、以下の式(8)で求められる。 As shown in FIG. 8A, the distribution of eigenvectors is generally concentrated within the region enclosed by the dash-dotted ellipse. This elliptical region is believed to be the platform for reconstructing the canonical profile based on the pattern encoded in each eigenvector. For example, the profile shown in FIG. 8B has an unusual negative peak. The profile shown in FIG. 8B corresponds to the points indicated by the triangles in FIG. 8A. The position of the profile in eigenspace is determined by Equation (8) below.
上記式(8)におけるベクトルBは、第一の固有ベクトル及び第二の固有ベクトルへの投影値を含む。図8Aに示される三角印の点の第一の固有ベクトルへの投影値は上記楕円の内部にあるのに対して、第二の固有ベクトルへの投影値は楕円の外側にある。上述のとおり第二の固有ベクトルは、強度の変化を符号化するため、第二の固有ベクトルへの投影値が楕円の外側にあることは、プロファイルの強度における変形があることを示唆する。そこで、図8Aの楕円上の白丸印で示される点に、三角印の点を投影する。このように投影された固有ベクトルを再構成において用いる。つまり、上記式(7)において、投影された固有ベクトルを用いることで、図8Cに示されるような再構成されたプロファイルを得ることができる。 The vector B in equation (8) above contains the projection values onto the first eigenvector and the second eigenvector. The projection of the triangle points shown in FIG. 8A onto the first eigenvector lies inside the ellipse, whereas the projection onto the second eigenvector lies outside the ellipse. As described above, the second eigenvector encodes a change in intensity, so that the values projected onto the second eigenvector lie outside the ellipse, suggesting that there is a deformation in the intensity of the profile. Therefore, the points marked with triangles are projected onto the points marked with white circles on the ellipse in FIG. 8A. The eigenvectors thus projected are used in the reconstruction. That is, by using the projected eigenvectors in the above equation (7), a reconstructed profile as shown in FIG. 8C can be obtained.
以上のように、第二の固有値に基いて第二の固有ベクトルの投影値が修正される。これにより、図8Aの楕円の外部にある三角印の点を楕円上の白丸印で示される点にシフトされる。そして、第二の固有ベクトルに関する白丸印の点の新たな投影値は、ベクトルBnewに結合され、上記式(7)と類似する以下の式(9)に適用されることによってエッジプロファイルの再構成のために用いられる。 As described above, the projection value of the second eigenvector is modified based on the second eigenvalue. This shifts the triangular points outside the ellipse in FIG. 8A to the points indicated by the white circles on the ellipse. The new projection values of the points marked with open circles for the second eigenvector are then combined into vector B new and reconstructed the edge profile by applying equation (9) below, which is similar to equation (7) above. used for
ここで、Edreconstructedは、再構成されたエッジプロファイルを表す。 Here, Ed reconstructed represents the reconstructed edge profile.
すべての固有ベクトルを固有空間に投影し、所定の範囲外にある固有ベクトルを当該所定の範囲内に投影する。これにより、標準的でないプロファイルを標準的なプロファイルに再構成できる。 All eigenvectors are projected into the eigenspace, and eigenvectors outside a predetermined range are projected into the predetermined range. This allows non-standard profiles to be reconfigured into standard profiles.
固有ベクトルは固定されているが、エッジプロファイルの投影値は、楕円の境界に従って修正又は変更される。ここで二次元平面における楕円は、第一の固有ベクトル及び第二の固有ベクトルの固有値を表す。 The eigenvectors are fixed, but the edge profile projection values are modified or changed according to the boundaries of the ellipse. Here the ellipses in the two-dimensional plane represent the eigenvalues of the first eigenvector and the second eigenvector.
本実施の形態に係る横方向位置推定装置100では、再構成のアルゴリズムを決定するためのトレーニングデータとして、64m×64mの領域に対する画素数が192×192である340枚の画像データを用いる。また、上述のとおり、取得部10のLIDARは、192×192画素の画像データを取得するため、エッジプロファイルは、1×192ベクトルである。一方、記憶部50が有するマップ情報のマップエッジプロファイルは、1×256ベクトルである。これらのベクトルを照合することにより、最も合致した横方向位置を求める。
In lateral
また、主要な固有ベクトルによって、トレーニングデータから得られるプロファイルのピーク間の最も重要な特性及び関係を表現し得る。したがって、LIDARによって得られるエッジプロファイルを、主要な14個の固有ベクトルだけで十分に再構成できることが分かった。再構成に必要な固有ベクトルの個数について、図9を用いて説明する。図9は、本実施の形態に係る再構成において使用する固有ベクトルと、当該固有ベクトルを用いた符号化によってプロファイルに生じる変化の大きさとの関係を示すグラフである。図9に示されるように、最初の14個の固有ベクトルだけで、全変化量の約75%の変化を生じさせることができる。 Also, the dominant eigenvectors may represent the most important properties and relationships between profile peaks obtained from the training data. Therefore, it was found that only the 14 main eigenvectors are sufficient to reconstruct the edge profile obtained by LIDAR. The number of eigenvectors required for reconstruction will be described with reference to FIG. FIG. 9 is a graph showing the relationship between the eigenvectors used in the reconstruction according to the present embodiment and the magnitude of change in profile caused by encoding using the eigenvectors. As shown in FIG. 9, the first 14 eigenvectors alone can produce about 75% of the total change.
[1-3.横方向位置推定方法]
次に、本実施の形態に係る横方向位置推定装置100において用いられる横方向位置推定方法について、動作例を参照しながら説明する。図10は、本実施の形態に係る横方向位置推定方法を示すフローチャートである。図11は、本実施の形態に係る横方向位置推定装置100の動作例を示す図である。図11においては、図5~図7を用いて上述した雪が積もった道路における動作例が示されている。図11の画像(a)は、マップ情報を示す画像である。図11のグラフ(b)は、上記の式(1)及び式(2)を用いてマップ情報から生成されたマップエッジプロファイルである。図11のグラフ(c)は、グラフ(b)に示されるマップエッジプロファイルと、グラフ(f)に示される再構成前のエッジプロファイルとを上記式(3)に入力することによって求められたオフセット量に基いて、グラフ(f)に示される再構成前のエッジプロファイルをグラフ(b)に示されるマップエッジプロファイルに重ね合わせたグラフである。なお、グラフ(c)では、マップエッジプロファイル及びエッジプロファイルがそれぞれ実線及び点線で示されている。図11の画像(d)は、グラフ(c)に示される照合結果に基いて、マップ情報を示す画像(a)と画像(e)とを重ね合わせた図である。図11の画像(e)は、取得部10によって取得された画像データを示す画像である。図11のグラフ(f)は、上記の式(1)及び式(2)を用いて、画像(e)に示される画像データから生成されたエッジプロファイルを示す。図11のグラフ(g)は、上記の式(9)によって得られた再構成されたエッジプロファイルである。図11のグラフ(h)は、グラフ(f)に示される再構成される前のエッジプロファイルと、グラフ(g)に示される再構成されたエッジプロファイルとを重ね合わせたグラフである。図11のグラフ(i)は、グラフ(b)に示されるマップエッジプロファイルと、グラフ(g)に示される再構成後のエッジプロファイルとを上記式(3)に入力することによって求められたオフセット量に基いて、グラフ(f)に示される再構成前のエッジプロファイルをグラフ(b)に示されるマップエッジプロファイルに重ね合わせたグラフである。ここで、図11のグラフ(c)及びグラフ(i)は、いずれもグラフ(b)とグラフ(f)とを重ね合わせたグラフであるが、上記式(3)に入力するエッジプロファイルが異なるため、オフセット量が異なる。グラフ(i)の方がグラフ(c)より正しい位置にグラフ(f)が重ね合わされている。
[1-3. Lateral position estimation method]
Next, the lateral position estimation method used in lateral
図11の画像(j)は、グラフ(i)に示される照合結果に基いてマップ情報を示す画像(a)と画像(e)とを重ね合わせた図である。なお、再構成後のエッジプロファイルを示すグラフ(g)を基にデータ画像を復元することができないので、画像(j)においては元のデータ画像である画像(e)をそのまま使用している。グラフ(i)と同様に、上記式(3)に用いた入力として、再構成前のグラフ(f)でなく、再構成後のグラフ(g)を使っているので、画像(e)の位置が、画像(d)における位置と少し変わっている。画像(j)においては、画像(d)より正しい位置に画像(e)が重ね合わされている。 Image (j) in FIG. 11 is a diagram obtained by superimposing image (a) and image (e) showing map information based on the matching result shown in graph (i). Since the data image cannot be restored based on the graph (g) showing the edge profile after reconstruction, the image (e), which is the original data image, is used as it is for the image (j). As with graph (i), the graph (g) after reconstruction is used as the input used in equation (3) above, not the graph (f) before reconstruction, so the position of image (e) is is slightly different from the position in image (d). In the image (j), the image (e) is overlaid in a more correct position than the image (d).
図10に示されるように、横方向位置推定装置100の取得部10は、車両V10が走行している道路を車両V10から撮像した画像データを取得する(S10)。例えば、図11の画像(e)に示されるような画像をLIDARの観測値から取得する。なお、図11の画像(e)は、図7の画像(a)と同じ画像データである。
As shown in FIG. 10, the
続いて、再構成部20は、取得部10が取得した画像データから得られる横方向位置とエッジ強度との関係を示すエッジプロファイルを取得する(S20)。再構成部20は、図11の画像(e)に示すような画像データから、図11のグラフ(f)に示すようなエッジプロファイルを生成する。
Subsequently, the
続いて、エッジプロファイルにおけるエッジ強度を強調することによってエッジプロファイルの再構成を行う(S30)。ここでは、上述した再構成方法により、エッジプロファイルの再構成を行うことにより、図11のグラフ(g)に示されるようなエッジプロファイルを得る。なお、図11のグラフ(h)は、再構成前のエッジプロファイル(点線)と再構成後のエッジプロファイル(実線)とを重ねて示したグラフである。図11のグラフ(h)に示されるように、再構成によって、エッジプロファイルのうち、道路の車道境界線に対応する横方向位置のエッジなどの強度が強調されている。また、同時に、雪などに起因するマップ情報にないエッジを低減する。 Subsequently, the edge profile is reconstructed by emphasizing the edge intensity in the edge profile (S30). Here, the edge profile as shown in graph (g) of FIG. 11 is obtained by reconstructing the edge profile by the reconstruction method described above. Graph (h) in FIG. 11 is a graph in which the edge profile before reconstruction (dotted line) and the edge profile after reconstruction (solid line) are superimposed. As shown in graph (h) of FIG. 11, the reconstruction emphasizes the strength of the edge profile, such as edges at lateral locations corresponding to the carriageway boundaries of the road. At the same time, edges not found in the map information due to snow or the like are reduced.
続いて、照合部30は、取得部10によって取得された画像データに対応する道路のマップ情報から得られる横方向位置とエッジ強度との関係を示すマップエッジプロファイルを取得する(S40)。本実施の形態では、照合部30は、図11の画像(a)に示されるようなマップ情報を記憶部50から取得し、図11のグラフ(b)に示されるようなマップエッジプロファイルを生成する。
Subsequently, the matching
続いて、照合部30は、再構成されたエッジプロファイルと、マップエッジプロファイルと、を照合する(S50)。具体的には、照合部30は、図11のグラフ(b)に示されるような、マップエッジプロファイルと、グラフ(g)に示されるような再構成されたエッジプロファイルと、を照合する。本実施の形態に係る照合においては、上記式(3)が用いられる。この結果、再構成されたエッジプロファイルとマップエッジプロファイルとの位置関係が、図11のグラフ(i)に示されている。
Subsequently, the collating
続いて、照合部30は、照合の結果に基づいて、車両V10の横方向位置を算出する(S60)。図11の画像(j)は、照合の結果を示す画像である。図11の画像(j)は、マップ情報を示す画像(a)における画像(e)の位置を示す。図11の画像(j)の白線枠内が画像(e)に対応する位置である。図11の画像(j)に示されるように、画像(e)の位置が精度良く求められている。
Subsequently, the
一方、再構成前のエッジプロファイルをそのまま用いて照合を行った場合には、エッジプロファイルとマップエッジプロファイルとは、図11のグラフ(c)に示されるように照合される。図11の画像(d)は、照合の結果を示す画像である。図11の画像(d)は、画像(j)と同様にマップ情報を示す画像(a)における画像(e)の位置を示す。図11の画像(d)に示されるように、再構成を行わない場合には、画像データの位置が画像(j)の場合より下方にずれており、正しく照合されていないことがわかる。 On the other hand, when matching is performed using the edge profile before reconstruction as it is, the edge profile and the map edge profile are matched as shown in the graph (c) of FIG. Image (d) in FIG. 11 is an image showing the result of matching. Image (d) in FIG. 11 shows the position of image (e) in image (a) showing map information, like image (j). As shown in image (d) of FIG. 11, when reconstruction is not performed, the position of the image data is shifted downward compared to image (j), indicating that matching is not correct.
以上のように、本実施の形態に係る横方向位置推定装置及び横方向位置推定方法によれば、エッジプロファイルの再構成を行うことによって、再構成を行わない場合より、精度良く横方向位置を推定できる。 As described above, according to the lateral position estimation device and the lateral position estimation method according to the present embodiment, by reconstructing the edge profile, the lateral position can be determined more accurately than when reconstruction is not performed. can be estimated.
続いて、他の動作例について図12~図14を用いて説明する。図12~図14は、本実施の形態に係る横方向位置推定装置100の他の動作例を示す図である。図12~図14には、図11と同様に動作例が示されている。図12~図14の画像(a)は、マップ情報を示す画像である。図12~図14のグラフ(b)は、上記の式(1)及び式(2)を用いてマップ情報から生成されたマップエッジプロファイルである。図12~図14のグラフ(c)は、マップエッジプロファイルと、再構成前のエッジプロファイルとを上記式(3)を用いて照合した結果を示すグラフである。つまり、各グラフ(c)は、各グラフ(b)のマップエッジプロファイルと、グラフ(f)に示されるエッジプロファイルとを重ね合わせたグラフである。図12~図14の画像(d)は、グラフ(c)に示される照合結果に基いて、マップ情報を示す画像(a)と画像(e)とを重ね合わせた図である。図12~図14の画像(e)は、取得部10によって取得された画像データを示す画像である。図12~図14のグラフ(f)は、上記の式(1)及び式(2)を用いて、画像(e)に示される画像データから生成されたエッジプロファイルを示す。図12~図14のグラフ(g)は、上記の式(9)によって得られた再構成されたエッジプロファイルである。図12~図14のグラフ(h)は、グラフ(f)に示される再構成される前のエッジプロファイルと、グラフ(g)に示される再構成されたエッジプロファイルとを重ね合わせたグラフである。図12~図14のグラフ(i)は、上記の式(3)を用いた照合結果に基いて、グラフ(b)に示されるマップエッジプロファイルと、グラフ(f)に示される再構成前のエッジプロファイルとを重ね合わせたグラフである。図12~図14の画像(j)は、上記の式(3)を用いた照合結果に基いてマップ情報を示す画像(a)と画像(e)とを重ね合わせた図である。
Next, another operation example will be described with reference to FIGS. 12 to 14. FIG. 12 to 14 are diagrams showing other operation examples of lateral
図12に示される動作例は、舗装工事中の道路における動作を示す例である。図12の画像(e)に示されるように、舗装工事中であるため、車道境界線がほとんど認められない。このような道路状況においても、エッジプロファイルを再構成することで、画像(j)に示されるように、横方向位置を精度良く推定できる。一方、エッジプロファイルを再構成しない場合には、図12の画像(d)に示されるように、画像データの位置が画像(j)の場合より上方にずれており、正しく照合されていないことがわかる。 The operation example shown in FIG. 12 is an example showing the operation on a road during paving work. As shown in the image (e) of FIG. 12, the boundary line of the roadway is hardly visible because the road is under construction. Even in such road conditions, the lateral position can be accurately estimated by reconstructing the edge profile, as shown in image (j). On the other hand, when the edge profile is not reconstructed, as shown in the image (d) of FIG. 12, the position of the image data is shifted upward compared to the image (j), indicating that the matching is not correct. Recognize.
図13に示される動作例は、車道境界線が不鮮明であり、かつ、車道の外側に雪が積もっている道路における動作を示す例である。この場合、レーザに対する車道境界線での反射率が低下し、図13の画像(e)に示されるように、車道境界線の鮮明度が低下する。一方、レーザに対する雪の反射率が比較的高いため、雪によって形成されるエッジが照合において支配的となり得る。このような道路状況においても、エッジプロファイルを再構成することで、画像(j)に示されるように、横方向位置を精度良く推定できる。一方、エッジプロファイルを再構成しない場合には、図13の画像(d)に示されるように、雪によって形成されるエッジの影響で画像データの位置が画像(j)の場合より下方にずれており、正しく照合されていないことがわかる。 The example of operation shown in FIG. 13 is an example of operation on a road where the boundary line of the roadway is unclear and the outside of the roadway is covered with snow. In this case, the reflectance of the laser at the roadway boundary line is reduced, and the visibility of the roadway boundary line is reduced as shown in image (e) of FIG. 13 . On the other hand, due to the relatively high reflectivity of snow to the laser, edges formed by snow can dominate in matching. Even in such road conditions, the lateral position can be accurately estimated by reconstructing the edge profile, as shown in image (j). On the other hand, when the edge profile is not reconstructed, as shown in image (d) of FIG. It can be seen that they are not collated correctly.
図14に示される動作例は、路面が濡れている道路における動作を示す例である。この場合、レーザに対する車道境界線での反射率が低下し、図14の画像(e)に示されるように、車道境界線の位置情報がほとんど得られない。このような道路状況においても、エッジプロファイルを再構成することで、画像(j)に示されるように、横方向位置を精度良く推定できる。一方、エッジプロファイルを再構成しない場合には、図14の画像(d)に示されるように、画像データの位置が画像(j)の場合より情報にずれており、正しく照合されていないことがわかる。 The operation example shown in FIG. 14 is an example showing the operation on a wet road. In this case, the reflectance of the laser at the boundary line of the roadway is lowered, and as shown in the image (e) of FIG. 14, the position information of the boundary line of the roadway is hardly obtained. Even in such road conditions, the lateral position can be accurately estimated by reconstructing the edge profile, as shown in image (j). On the other hand, when the edge profile is not reconstructed, as shown in the image (d) of FIG. 14, the position of the image data is shifted from the information in the image (j), indicating that the matching is not correct. Recognize.
以上のように、本実施の形態に係る横方向位置推定方法及び横方向位置推定装置100によれば、車道境界線などの標識の情報の少なくとも一部が失われていても、エッジプロファイルを再構成することで精度良く横方向位置を推定できる。また、本実施の形態によれば、雪などが、道路の標識などと誤認され得る場合にも、エッジプロファイルを再構成することで、精度良く横方向位置を推定できる。言い換えると、本実施の形態では、道路状況のダイナミックに変化に対してロバストな横方向位置推定装置及び横方向位置推定方法を実現できる。なお、上述した例以外にも、例えば、道路上及び道路付近の植物の状態などによっても、エッジプロファイルは変化し得るが、このような場合も含めてあらゆる道路状況のダイナミックな変化に対して本実施の形態に係る横方向位置推定装置及び横方向位置推定方法はロバストである。
As described above, according to the lateral position estimation method and the lateral
発明者らが条件の異なる多数の道路において実験した結果によれば、再構成を行わなかった場合は、精度良く推定できたのは31%程度に留まったのに対して、再構成を行った場合には、83%程度の実験において精度よく推定できた。 According to the results of experiments conducted by the inventors on a large number of roads with different conditions, when reconstruction was not performed, only about 31% could be accurately estimated, whereas reconstruction was performed. In some cases, accurate estimation was possible in about 83% of the experiments.
車両V10の自動運転を実現するためには、天候などに起因する道路状況のダイナミックな変化がある場合にも、安全性を確保することが必要である。このため、本実施の形態に係る横方向位置推定装置及び横方向位置推定方法は、自動運転を行う車両V10に特に有効である。また、本実施の形態に係る横方向位置推定方法は、車両V10の自動運転において、リアルタイムで横方向位置を推定することができる程度にシンプルな演算によって実現できる。 In order to realize automatic driving of the vehicle V10, it is necessary to ensure safety even when there are dynamic changes in road conditions due to weather or the like. Therefore, the lateral position estimating device and lateral position estimating method according to the present embodiment are particularly effective for the vehicle V10 that is automatically driven. Further, the lateral position estimation method according to the present embodiment can be realized by simple calculations to the extent that the lateral position can be estimated in real time during automatic driving of the vehicle V10.
[1-4.まとめ]
以上のように、本実施の形態に係る横方向位置推定装置100は、移動体の走行方向に対する横方向位置を推定する横方向位置推定装置であって、移動体が走行している道路を移動体から撮像した画像データを取得する取得部10と、画像データにおける横方向位置と、横方向位置に対する画像データにおける輝度の変化率を示すエッジ強度との関係を示すエッジプロファイルにおいて、エッジ強度を強調することによってエッジプロファイルの再構成を行う再構成部20と、再構成されたエッジプロファイルと、画像データに対応する道路のマップ情報から得られる横方向位置とエッジ強度との関係を示すマップエッジプロファイルと、を照合することによって、移動体の横方向位置を算出する照合部30とを備える。
[1-4. summary]
As described above, the lateral
これにより、画像データから得られるエッジプロファイルの強度が横方向位置推定を精度良く行うために不十分である場合にも、画像データから得られるエッジプロファイルにおけるエッジ強度を再構成部によって強調することで、精度良く横方向位置を推定できる。言い換えると、本実施の形態では、道路状況のダイナミックに変化に対してロバストな横方向位置推定装置を実現できる。したがって、本実施の形態に係る横方向位置推定装置を例えば自動運転を行う車両に適用することで、自動運転における安全性を高めることができる。また、車両V10の自動運転を実現するためには、天候などに起因する道路状況のダイナミックな変化がある場合にも、安全性を確保することが必要である。このため、本実施の形態に係る横方向位置推定装置及び横方向位置推定方法は、自動運転を行う車両V10に特に有効である。また、本実施の形態に係る横方向位置推定方法は、車両V10の自動運転において、リアルタイムで横方向位置を推定することができる程度にシンプルな演算によって実現できる。 As a result, even if the strength of the edge profile obtained from the image data is insufficient for accurate lateral position estimation, the reconstruction unit can emphasize the edge strength in the edge profile obtained from the image data. , the lateral position can be estimated with high accuracy. In other words, in this embodiment, it is possible to realize a lateral position estimation device that is robust against dynamic changes in road conditions. Therefore, by applying the lateral position estimating device according to the present embodiment to a vehicle that automatically drives, for example, it is possible to improve safety in automatic driving. In addition, in order to realize automatic driving of the vehicle V10, it is necessary to ensure safety even when there are dynamic changes in road conditions due to weather or the like. Therefore, the lateral position estimating device and lateral position estimating method according to the present embodiment are particularly effective for the vehicle V10 that is automatically driven. Further, the lateral position estimation method according to the present embodiment can be realized by simple calculations to the extent that the lateral position can be estimated in real time during automatic driving of the vehicle V10.
また、本実施の形態に係る横方向位置推定方法は、移動体の走行方向に対する横方向位置を推定する横方向位置推定方法であって、移動体が走行している道路を移動体から撮像した画像データを取得する取得ステップと、画像データにおける横方向位置と、横方向位置に対する画像データにおける輝度の変化率を示すエッジ強度との関係を示すエッジプロファイルにおいて、エッジ強度を強調することによってエッジプロファイルの再構成を行う再構成ステップと、再構成されたエッジプロファイルと、画像データに対応する道路のマップ情報から得られる横方向位置とエッジ強度との関係を示すマップエッジプロファイルと、を照合することによって、移動体の横方向位置を算出する照合ステップとを含む。 Further, the lateral position estimation method according to the present embodiment is a lateral position estimation method for estimating the lateral position of a moving body with respect to the running direction, and is a method of estimating a lateral position of a moving body in which a road on which the moving body is running is captured from the moving body. In an acquisition step of acquiring image data and an edge profile showing the relationship between lateral position in the image data and edge strength indicating the rate of change in brightness in the image data with respect to lateral position, the edge profile is obtained by enhancing the edge strength. and a reconstructed edge profile and a map edge profile indicating the relationship between lateral position and edge strength obtained from road map information corresponding to the image data. and a collating step of calculating the lateral position of the moving object.
これにより、上述の横方向位置推定装置と同様の効果を得ることができる。 As a result, it is possible to obtain the same effect as the lateral position estimation device described above.
また、横方向位置推定装置100において、再構成部20は、機械学習によって再構成のアルゴリズムを予め決定してもよい。
Further, in the lateral
これにより、機械学習で用いるトレーニングデータを十分に準備することで、容易に横方向位置推定の精度を高めることができる。 As a result, it is possible to easily improve the accuracy of lateral position estimation by sufficiently preparing training data used in machine learning.
また、横方向位置推定装置100において、再構成部20は、機械学習においてPCAを用いてもよい。
In the lateral
これにより、マップ情報のデータの構造をモデル化できる。 This makes it possible to model the data structure of the map information.
(実施の形態2)
実施の形態2に係る横方向位置推定装置及び横方向位置推定方法について説明する。実施の形態1に係る横方向位置推定装置及び横方向位置推定方法においては、エッジプロファイルの再構成のアルゴリズムの決定においてPCAを用いたが、本実施の形態では、ニューラルネットワークを用いる。以下、本実施の形態に係る再構成のアルゴリズム決定方法について説明する。
(Embodiment 2)
A lateral position estimation device and a lateral position estimation method according to
上述のとおり、本実施の形態にでは、ニューラルネットワークを用いた機械学習によって、再構成のアルゴリズムを決定する。 As described above, in this embodiment, a reconstruction algorithm is determined by machine learning using a neural network.
本実施の形態に係る再構成部には、取得部によって取得された複数のサンプルとなる画像データから得られるエッジプロファイルと、当該画像データに対応するマップ情報から得られるマップエッジプロファイルとが予め入力される。なお、ここで画像データは、取得部が取得する画像データと同様の画像データであればよく、必ずしも取得部によって取得されなくてもよい。 In the reconstruction unit according to the present embodiment, an edge profile obtained from image data that is a plurality of samples acquired by the acquisition unit and a map edge profile obtained from map information corresponding to the image data are input in advance. be done. Note that the image data here may be image data similar to the image data acquired by the acquisition unit, and does not necessarily have to be acquired by the acquisition unit.
再構成部にエッジプロファイルが入力される際、再構成部には、マップエッジプロファイルにおけるエッジプロファイルが対応する位置の情報も入力される。これらの情報を用いて、再構成部は、エッジプロファイルをマップエッジプロファイルに近いプロファイルに再構成するアルゴリズムを学習する。再構成部に、十分多くのエッジプロファイル及びマップエッジプロファイルを入力して学習させることにより、エッジプロファイルを精度良く再構成するアルゴリズムを決定できる。つまり、本実施の形態によれば、横方向位置を精度良く推定できる。さらに、本実施の形態に係る再構成部及び再構成方法によれば、機械学習量を増大させるほど、横方向位置推定の精度をより一層向上させることができる。したがって、本実施の形態によれば、実施の形態1より一層精度良く横方向位置を推定できる。 When the edge profile is input to the reconstructor, the reconstructor also receives information about the position to which the edge profile corresponds in the map edge profile. Using this information, the reconstructor learns an algorithm that reconstructs the edge profile to a profile closer to the map edge profile. By inputting a sufficiently large number of edge profiles and map edge profiles to the reconstruction unit for learning, an algorithm for reconstructing edge profiles with high accuracy can be determined. That is, according to this embodiment, the lateral position can be estimated with high accuracy. Furthermore, according to the reconstruction unit and the reconstruction method according to the present embodiment, the accuracy of lateral position estimation can be further improved as the amount of machine learning is increased. Therefore, according to the present embodiment, the lateral position can be estimated with higher accuracy than the first embodiment.
(変形例など)
以上、本発明の一態様に係る横方向位置推定装置及び横方向位置推定方法について、各実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を各実施の形態に施したものも、本発明の範囲内に含まれてもよい。
(Modified example, etc.)
Although the lateral position estimation device and the lateral position estimation method according to one aspect of the present invention have been described above based on each embodiment, the present invention is not limited to these embodiments. As long as they do not deviate from the spirit of the present invention, various modifications conceived by those skilled in the art may be included in the scope of the present invention.
例えば、上記各実施の形態では、取得部10が、LIDARによって画像データを取得する例を示したが、取得部10は、LIDAR以外の検出器を用いて画像データを取得してもよい。例えば、カメラなどの他の撮像装置を用いて画像データを取得してもよい。
For example, in each of the embodiments described above, an example in which the
また、上記各実施の形態に係る横方向位置推定装置及び横方向位置推定方法において、マップ情報及び画像データとして、上述のとおり、路面から30cmの高さにおける二次元画像データを用いることができる。このような二次元画像データによって、路面から30cm程度以下における道路の情報として、車道境界線、路面標識、道路の端縁及び縁石のような一般的な道路に共通するランドマークを表すことができる。これらのランドマークは都市では非常に一般的に存在するものである。上記各実施の形態におけるエッジプロファイルは、これらのランドマークのパターンを、車道境界線、路面標識、道路の端縁、縁石等のピークによって表す。上記各実施の形態に係る横方向位置推定装置及び横方向位置推定方法は、機械学習及び移動のために路面の情報のみを使用するため、上記のピークの分布及び振幅の異なるパターンを学習することにより、学習を行った都市又は国と異なる都市又は国でも使用することができる。 In addition, in the lateral position estimation device and lateral position estimation method according to the above-described embodiments, two-dimensional image data at a height of 30 cm from the road surface can be used as map information and image data, as described above. Such two-dimensional image data can represent common road landmarks such as road boundaries, road markings, road edges, and curbs as road information about 30 cm or less from the road surface. . These landmarks are very common in cities. The edge profile in each of the embodiments described above represents the pattern of these landmarks by peaks of roadway boundaries, road markings, road edges, curbs, and the like. Since the lateral position estimating device and lateral position estimating method according to each of the above embodiments use only road surface information for machine learning and movement, it is possible to learn patterns with different peak distributions and amplitudes. Therefore, it can be used in a city or country different from the city or country in which the study was conducted.
また、上記各実施の形態では、エッジプロファイルは、再構成部20において生成されたが、エッジプロファイルは、再構成部20以外の構成要素によって生成されてもよい。例えば、エッジプロファイルは、取得部10で生成されてもよい。
Also, in each of the above embodiments, the edge profile was generated by the
また、上記各実施の形態では、移動体の一例として車両V10を用いる例を示したが、移動体は、車両V10に限定されない。道路上を移動し得る物体であればよい。 Further, in each of the above-described embodiments, an example of using the vehicle V10 as an example of a moving object has been described, but the moving object is not limited to the vehicle V10. Any object that can move on the road may be used.
なお、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態の横方向位置推定装置100などを実現するソフトウェアは、図10に示されるフローチャートに含まれる各ステップをコンピュータに実行させるプログラムである。
In the above embodiments, each component may be implemented by dedicated hardware or by executing a software program suitable for each component. Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor. Here, the software that implements the lateral
本発明の一態様に係る横方向位置推定装置及び横方向位置推定方法は、車両などの移動体の横方向位置を精度良く推定できるという効果を奏し、例えば、自動運転のために車両などに適用することができる。 INDUSTRIAL APPLICABILITY A lateral position estimation device and a lateral position estimation method according to an aspect of the present invention have the effect of accurately estimating the lateral position of a moving body such as a vehicle. can do.
10 取得部
20 再構成部
30 照合部
40 位置検出部
50 記憶部
100 横方向位置推定装置
V10 車両
10
Claims (2)
前記移動体が走行している道路を前記移動体から撮像した画像データを取得する取得部と、
前記画像データにおける前記横方向位置と、前記横方向位置に対する前記画像データにおける輝度の変化率を示すエッジ強度との関係を示すエッジプロファイルの全体において、前記エッジ強度を強調することによって前記エッジプロファイルの再構成を行う再構成部と、
再構成された前記エッジプロファイルと、前記画像データに対応する道路のマップ情報から得られる前記横方向位置と前記エッジ強度との関係を示すマップエッジプロファイルと、を照合することによって、前記移動体の横方向位置を算出する照合部とを備え、
前記再構成部は、機械学習によって前記再構成のアルゴリズムを予め決定し、
前記再構成部は、
前記機械学習においてPCA(Principal Component Analysis)を用い、
前記エッジプロファイルにおける複数のピークの配置の変化を符号化する第一の固有ベクトルと、車道境界線のピークに比例する強度の変化を符号化する第二の固有ベクトルとを用いて、前記エッジプロファイルを再構成し、
前記第一の固有ベクトル及び前記第二の固有ベクトルの配置を示すグラフにおいて、前記エッジプロファイルを表す固有ベクトルのうち、前記第一の固有ベクトル及び前記第二の固有ベクトルの固有値を表す楕円の外部に位置する固有ベクトルを、前記楕円上にシフトすることによって、前記エッジプロファイルを再構成する
横方向位置推定装置。 A lateral position estimating device for estimating a lateral position of a moving body with respect to a traveling direction,
an acquisition unit that acquires image data obtained by imaging a road on which the mobile body is traveling, from the mobile body;
In the entire edge profile showing the relationship between the horizontal position in the image data and the edge strength indicating the luminance change rate in the image data with respect to the horizontal position, the edge strength is emphasized to improve the edge profile. a reconstruction unit that performs reconstruction;
By collating the reconstructed edge profile with a map edge profile indicating the relationship between the lateral position and the edge strength obtained from road map information corresponding to the image data, and a collation unit that calculates the lateral position ,
The reconstruction unit predetermines the reconstruction algorithm by machine learning,
The reconstruction unit
Using PCA (Principal Component Analysis) in the machine learning,
Reproducing the edge profile using a first eigenvector encoding a change in placement of peaks in the edge profile and a second eigenvector encoding a change in intensity proportional to a road boundary peak. compose and
In the graph showing the arrangement of the first eigenvector and the second eigenvector, among the eigenvectors representing the edge profile, the eigenvector positioned outside the ellipse representing the eigenvalues of the first eigenvector and the second eigenvector , reconstruct the edge profile by shifting on the ellipse
Lateral position estimator.
前記移動体が走行している道路を前記移動体から撮像した画像データを取得する取得ステップと、
前記画像データにおける前記横方向位置と、前記横方向位置に対する前記画像データにおける輝度の変化率を示すエッジ強度との関係を示すエッジプロファイルの全体において、前記エッジ強度を強調することによって前記エッジプロファイルの再構成を行う再構成ステップと、
再構成された前記エッジプロファイルと、前記画像データに対応する道路のマップ情報から得られる前記横方向位置と前記エッジ強度との関係を示すマップエッジプロファイルと、を照合することによって、前記移動体の横方向位置を算出する照合ステップとを含み、
前記再構成ステップにおいて、機械学習によって前記再構成のアルゴリズムを予め決定し、
前記機械学習において、
PCA(Principal Component Analysis)を用い、
前記再構成ステップにおいて、
前記エッジプロファイルにおける複数のピークの配置の変化を符号化する第一の固有ベクトルと、車道境界線のピークに比例する強度の変化を符号化する第二の固有ベクトルとを用いて、前記エッジプロファイルを再構成し、
前記第一の固有ベクトル及び前記第二の固有ベクトルの配置を示すグラフにおいて、前記エッジプロファイルを表す固有ベクトルのうち、前記第一の固有ベクトル及び前記第二の固有ベクトルの固有値を表す楕円の外部に位置する固有ベクトルを、前記楕円上にシフトすることによって、前記エッジプロファイルを再構成する
横方向位置推定方法。 A lateral position estimation method for estimating a lateral position of a moving body with respect to a running direction, comprising:
an acquisition step of acquiring image data of a road on which the mobile body is traveling, taken from the mobile body;
In the entire edge profile showing the relationship between the horizontal position in the image data and the edge strength indicating the luminance change rate in the image data with respect to the horizontal position, the edge strength is emphasized to improve the edge profile. a reconstruction step for reconstructing;
By collating the reconstructed edge profile with a map edge profile indicating the relationship between the lateral position and the edge strength obtained from road map information corresponding to the image data, a matching step of calculating the lateral position ;
In the reconstruction step, predetermining the reconstruction algorithm by machine learning,
In the machine learning,
Using PCA (Principal Component Analysis),
In the reconstruction step,
Reproducing the edge profile using a first eigenvector encoding a change in placement of peaks in the edge profile and a second eigenvector encoding a change in intensity proportional to a road boundary peak. compose and
In the graph showing the arrangement of the first eigenvector and the second eigenvector, among the eigenvectors representing the edge profile, the eigenvector positioned outside the ellipse representing the eigenvalues of the first eigenvector and the second eigenvector , reconstruct the edge profile by shifting on the ellipse
Lateral position estimation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018124564A JP7228219B2 (en) | 2018-06-29 | 2018-06-29 | Lateral position estimation device and lateral position estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018124564A JP7228219B2 (en) | 2018-06-29 | 2018-06-29 | Lateral position estimation device and lateral position estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020003400A JP2020003400A (en) | 2020-01-09 |
JP7228219B2 true JP7228219B2 (en) | 2023-02-24 |
Family
ID=69099450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018124564A Active JP7228219B2 (en) | 2018-06-29 | 2018-06-29 | Lateral position estimation device and lateral position estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7228219B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113494915A (en) * | 2020-04-02 | 2021-10-12 | 广州汽车集团股份有限公司 | Vehicle transverse positioning method, device and system |
DE102022109423A1 (en) * | 2022-04-19 | 2023-10-19 | Valeo Schalter Und Sensoren Gmbh | Method for the lateral localization of a vehicle on a road, computer program and driver assistance system |
CN116225028B (en) * | 2023-05-04 | 2023-07-21 | 尚特杰电力科技有限公司 | Forward driving deviation correcting method and deviation correcting device for cleaning robot |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331787A (en) | 2000-05-19 | 2001-11-30 | Toyota Central Res & Dev Lab Inc | Road shape estimating device |
JP2007328631A (en) | 2006-06-08 | 2007-12-20 | Fujitsu Ten Ltd | Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device |
JP2010079414A (en) | 2008-09-24 | 2010-04-08 | Nikon Corp | Program, camera, and contour extraction method of image |
US20100191391A1 (en) | 2009-01-26 | 2010-07-29 | Gm Global Technology Operations, Inc. | multiobject fusion module for collision preparation system |
JP2016081361A (en) | 2014-10-20 | 2016-05-16 | 株式会社日本自動車部品総合研究所 | Travel compartment line recognition apparatus |
US20170160744A1 (en) | 2015-12-08 | 2017-06-08 | Delphi Technologies, Inc. | Lane Extension Of Lane-Keeping System By Ranging-Sensor For Automated Vehicle |
JP2017533482A (en) | 2015-09-10 | 2017-11-09 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Lane data processing method, apparatus, storage medium and equipment |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08202877A (en) * | 1995-01-31 | 1996-08-09 | Toyota Motor Corp | Picture recognition device |
-
2018
- 2018-06-29 JP JP2018124564A patent/JP7228219B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331787A (en) | 2000-05-19 | 2001-11-30 | Toyota Central Res & Dev Lab Inc | Road shape estimating device |
JP2007328631A (en) | 2006-06-08 | 2007-12-20 | Fujitsu Ten Ltd | Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device |
JP2010079414A (en) | 2008-09-24 | 2010-04-08 | Nikon Corp | Program, camera, and contour extraction method of image |
US20100191391A1 (en) | 2009-01-26 | 2010-07-29 | Gm Global Technology Operations, Inc. | multiobject fusion module for collision preparation system |
JP2016081361A (en) | 2014-10-20 | 2016-05-16 | 株式会社日本自動車部品総合研究所 | Travel compartment line recognition apparatus |
JP2017533482A (en) | 2015-09-10 | 2017-11-09 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Lane data processing method, apparatus, storage medium and equipment |
US20170160744A1 (en) | 2015-12-08 | 2017-06-08 | Delphi Technologies, Inc. | Lane Extension Of Lane-Keeping System By Ranging-Sensor For Automated Vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2020003400A (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Oniga et al. | Processing dense stereo data using elevation maps: Road surface, traffic isle, and obstacle detection | |
US11403774B2 (en) | Image annotation | |
Guan et al. | Automated road information extraction from mobile laser scanning data | |
Yang et al. | Semi-automated extraction and delineation of 3D roads of street scene from mobile laser scanning point clouds | |
Guo et al. | Lane detection method based on improved RANSAC algorithm | |
JP7228219B2 (en) | Lateral position estimation device and lateral position estimation method | |
US8958980B2 (en) | Method of generating a geodetic reference database product | |
Guo et al. | Automatic reconstruction of road surface features by using terrestrial mobile lidar | |
US20090169052A1 (en) | Object Detector | |
Gern et al. | Vision-based lane recognition under adverse weather conditions using optical flow | |
KR102218881B1 (en) | Method and system for determining position of vehicle | |
WO2006016664A1 (en) | Plane detector and detecting method | |
JP6977887B2 (en) | Lane estimator, method and program | |
EP3690817B1 (en) | Method for providing robust object distance estimation based on camera by performing pitch calibration of camera more precisely with fusion of information acquired through camera and information acquired through v2v communication and device using the same | |
Ravi et al. | Lane width estimation in work zones using LiDAR-based mobile mapping systems | |
Revilloud et al. | An improved approach for robust road marking detection and tracking applied to multi-lane estimation | |
Kühnl et al. | Visual ego-vehicle lane assignment using spatial ray features | |
TWI682361B (en) | Method and system for road image reconstruction and vehicle positioning | |
CN110399664A (en) | A kind of determination method and device of drive speed | |
TW201024664A (en) | Method of generating a geodetic reference database product | |
Zhao | Recognizing features in mobile laser scanning point clouds towards 3D high-definition road maps for autonomous vehicles | |
KR20220151572A (en) | Method and System for change detection and automatic updating of road marking in HD map through IPM image and HD map fitting | |
KR101706455B1 (en) | Road sign detection-based driving lane estimation method and apparatus | |
Gakne et al. | Skyline-based positioning in urban canyons using a narrow fov upward-facing camera | |
Kumar et al. | Automated road extraction from terrestrial based mobile laser scanning system using the GVF snake model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221205 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221205 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221213 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7228219 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |