JP7028206B2 - Map generator and program - Google Patents
Map generator and program Download PDFInfo
- Publication number
- JP7028206B2 JP7028206B2 JP2019036877A JP2019036877A JP7028206B2 JP 7028206 B2 JP7028206 B2 JP 7028206B2 JP 2019036877 A JP2019036877 A JP 2019036877A JP 2019036877 A JP2019036877 A JP 2019036877A JP 7028206 B2 JP7028206 B2 JP 7028206B2
- Authority
- JP
- Japan
- Prior art keywords
- series
- line segment
- unit
- line
- line segments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本開示は、地図生成装置及びプログラムに関する。 The present disclosure relates to a map generator and a program.
従来より、車両に搭載されたカメラ等の撮像装置により撮像された複数の撮像画像を用いて地図を生成する技術が知られている。例えば、特許文献1及び2に記載の技術では、カメラにより撮像された複数の撮像画像から、道路の車線(区画線)等の線分等を検出して、地図の作成に用いている。
Conventionally, there has been known a technique of generating a map using a plurality of captured images captured by an imaging device such as a camera mounted on a vehicle. For example, in the techniques described in
しかしながら、上記従来の技術では、車線等の線分の位置に測位誤差が生じていたり、誤検出をした線分が含まれていたりする場合がある。また、上記従来の技術では、未検出の車線が生じている場合もある。このような場合、上記従来の技術では、誤差等を検出できず、また、未検出の車線については補間されないため、実際の位置にある線分が検出されない場合がある。 However, in the above-mentioned conventional technique, a positioning error may occur at the position of a line segment such as a lane, or a line segment that has been erroneously detected may be included. Further, in the above-mentioned conventional technique, an undetected lane may occur. In such a case, the above-mentioned conventional technique cannot detect an error or the like, and since the undetected lane is not interpolated, the line segment at the actual position may not be detected.
本開示は上記の技術を考慮してなされたものであり、高精度な線地図を生成することができる地図生成装置及びプログラムを提供することを目的とする。 The present disclosure has been made in consideration of the above techniques, and an object of the present disclosure is to provide a map generator and a program capable of generating a highly accurate line map.
上記目的を達成するために、本開示の第1の態様の地図生成装置は、車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部と、前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の両端点の位置を表す座標を鳥瞰図における絶対座標に変換する投影部と、前記線分検出部が検出した複数の線分を前記複数の撮像画像毎に1つの系列とし、前記両端点の前記絶対座標に基づく位置に基づいて、前記複数の撮像画像毎の各系列のうちから自系列の線分の両端点と他系列の線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記自系列と、前記他系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部と、前記線分対応付部により対応付けられた前記自系列と、前記他系列との2系列間の線分の対応付けに基づいて、対応付けられた線分同士の対応する端点の中間の位置に端点が設けられた新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、前記線分対応付部による線分の対応付けと、前記平均化部による前記新たな線分から成る系列の生成とを、全ての系列に対して行わせて生成された複数の前記新たな線分の各々からなる複数の系列の集合を再構築する一連の処理を、繰り返し行わせることで、前記複数の撮像画像毎の各系列を1つの系列に統合する統合部と、を備える。 In order to achieve the above object, the map generator of the first aspect of the present disclosure is a plurality of line segments from each of a plurality of captured images in which the same traveling section is captured by an imaging unit mounted on a vehicle. For each of the line segment detection unit that detects the line segment and the plurality of line segments detected by the line segment detection unit, each line segment is based on the position information of the vehicle associated with each of the plurality of captured images. The projection unit that converts the coordinates representing the positions of both end points into absolute coordinates in the bird's-eye view, and the plurality of line segments detected by the line segment detection unit are made into one series for each of the plurality of captured images, and the end points are described. Based on the position based on the absolute coordinates, the position difference amount between the end points of the line segment of the own series and the end points of the line segment of the other series was calculated from each series of the plurality of captured images . Based on the position difference amount, the line segment corresponding portion that associates the line segments so that the position difference amount becomes smaller between the two series of the own series and the other series, and the line segment correspondence. An end point is provided at a position in the middle of the corresponding end points of the associated line segments based on the correspondence of the line segments between the self-series and the other series associated with each other by the attachment part. A series consisting of an averaging unit that generates a new line segment and a series consisting of the new line segment, a line segment correspondence by the line segment corresponding portion, and the new line segment by the averaging unit. By repeating a series of processes for reconstructing a set of a plurality of series consisting of each of the plurality of new line segments generated by performing the generation of the plurality of series. It is provided with an integration unit that integrates each series of each captured image into one series .
本開示の第2の態様の地図生成装置は、第1の態様の地図生成装置において、前記統合部は、対応付けられた前記線分の位置を中心位置に収束させることで、前記2系列を統合する。 The map generator according to the second aspect of the present disclosure is the map generator according to the first aspect, wherein the integrated unit converges the position of the associated line segment to the center position to form the two sequences. Integrate.
本開示の第3の態様の地図生成装置は、第1の態様または第2の態様の地図生成装置において、前記線分検出部は、前記複数の撮像画像各々から区画線の芯線を線分として検出する。 The map generator according to the third aspect of the present disclosure is the map generator according to the first aspect or the second aspect , wherein the line segment detection unit uses the core line of the dividing line as a line segment from each of the plurality of captured images. To detect.
本開示の第4の態様の地図生成装置は、第1の態様から第3の態様のいずれか1態様の地図生成装置において、前記平均化部は、前記系列の集合内で位置誤差の大きい上位n(nは1以上の整数)組の系列と、前記n組以外の系列を平均化する場合、前記n組以外の系列の線分の位置に近寄らせた線分を生成する。 The map generator according to the fourth aspect of the present disclosure is the map generator according to any one of the first to third aspects, wherein the averaging unit has a large position error in the set of the series. When averaging a series of n (n is an integer of 1 or more) and a series other than the n sets, a line segment is generated that is close to the position of the line segment of the series other than the n sets.
本開示の第5の態様の地図生成装置は、第1の態様から第4の態様のいずれか1態様の地図生成装置において、前記統合部は、前記平均化部で生成された複数の前記新たな線分の各々からなる複数の系列のうち、前記新たな線分の一致性が高い上位の系列を選別し、選別した系列の集合を再構築する。 The map generator according to the fifth aspect of the present disclosure is the map generator according to any one of the first to fourth aspects, wherein the integrated unit is a plurality of new devices generated by the averaging unit. From a plurality of series consisting of each of the line segments, the higher-order series having high matching of the new line segment is selected, and the set of the selected series is reconstructed.
また、上記目的を達成するために本開示の第8の態様のプログラムは、コンピュータを、車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部、前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の両端点の位置を表す座標を鳥瞰図における絶対座標に変換する投影部、前記線分検出部が検出した複数の線分を前記複数の撮像画像毎に1つの系列とし、前記両端点の前記絶対座標に基づく位置に基づいて、前記複数の撮像画像毎の各系列のうちから自系列の線分の両端点と他系列の線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記自系列と、前記他系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部、前記線分対応付部により対応付けられた前記自系列と、前記他系列との2系列間の線分の対応付けに基づいて、対応付けられた線分同士の対応する端点の中間の位置に端点が設けられた新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、前記線分対応付部による線分の対応付けと、前記平均化部による前記新たな線分から成る系列の生成とを、全ての系列に対して行わせて生成された複数の前記新たな線分の各々からなる複数の系列の集合を再構築する一連の処理を、繰り返し行わせることで、前記複数の撮像画像毎の各系列を1つの系列に統合する統合部、として機能させるためのものである。 Further, in order to achieve the above object, the program of the eighth aspect of the present disclosure uses a computer as a plurality of captured images obtained by capturing the same traveling section by an imaging unit mounted on a vehicle. For each of the line segment detection unit that detects the line segment and the plurality of line segments detected by the line segment detection unit, each line is based on the position information of the vehicle associated with each of the plurality of captured images. A projection unit that converts the coordinates representing the positions of both end points of a minute into absolute coordinates in a bird's-eye view, and a plurality of line segments detected by the line segment detection unit are made into one series for each of the plurality of captured images, and the end points are described. Based on the position based on the absolute coordinates, the position difference amount between the end points of the line segment of the own series and the end points of the line segment of the other series was calculated from each series of the plurality of captured images . With a line segment correspondence part that associates line segments so that the position difference amount becomes smaller between the two series of the own series and the other series based on the position difference amount, with the line segment correspondence. An end point is provided at a position in the middle of the corresponding end points of the associated line segments based on the correspondence of the line segments between the self-series and the other series associated with each other by the unit. A averaging unit that generates a new line segment and generates a series consisting of the new line segments , a line segment mapping by the line segment corresponding portion, and a series consisting of the new line segment by the averaging unit. By repeatedly performing a series of processes for reconstructing a set of a plurality of series consisting of each of the plurality of new line segments generated by performing the generation on all the series, the plurality of said. The purpose is to function as an integrated unit that integrates each series of captured images into one series .
本開示によれば、高精度な線地図を生成することができる、という効果が得られる。 According to the present disclosure, it is possible to obtain an effect that a highly accurate line map can be generated.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
まず、本実施形態の地図生成システムの全体構成について説明する。
図1は、本実施形態の地図生成システム1の全体構成の一例を示すブロック図である。本実施形態の地図生成システム1は、車両2に搭載された撮像部12により撮像された撮像画像から地図を生成する地図生成システムである。
First, the overall configuration of the map generation system of the present embodiment will be described.
FIG. 1 is a block diagram showing an example of the overall configuration of the
図1に示すように、地図生成システム1は、地図生成装置10、撮像部12、測位部14、撮像画像データベース15、及び地図データベース18を備える。
As shown in FIG. 1, the
撮像部12及び測位部14は、車両2に搭載されている。撮像部12は、具体的にはカメラ等であり、車両2の前方の道路を被写体とし、動画像の撮影、または所定のタイミングで静止画像の撮影を行う。測位部14は、車両2の現在位置を計測する機能を有しており、例えば、GPS(Global Positioning System)装置等が挙げられる。
The
車両2からは、撮像部12により撮像された撮像画像に、当該撮像画像を撮像した際の測位部14の測位結果である車両2の位置が対応付けられた状態で、撮像画像データベース15に出力される。
The vehicle 2 outputs to the captured
本実施形態の地図生成システム1では、同一の走行区間について、当該走行区間を走行する車両2に搭載された撮像部12により撮像された複数の撮像画像が、測位部14により得られた車両2の位置と対応付けられた状態で、撮像画像データベース15に記憶される。換言すると、撮像画像データベース15は、同一走行区間が撮影された複数の撮像画像を、撮像位置と対応付けられた状態で記憶する。
In the
なお、図1には車両2を1台のみ図示したが、1台の車両2が、当該走行区間を複数回走行し、走行する毎に撮像部12により撮像された撮像画像を取得する形態であってもよいし、複数の車両2が同一の走行区間を走行する際に撮像部12により撮像された撮像画像を取得する形態であってもよい。図2に示す、本開示の技術の一例の概要では、車両21~24の4台の車両の各々が、撮像部12及び測位部14を搭載しており、道路Rを走行した際に、道路Rを撮像した形態を示している。この場合、撮像画像データベース15には、道路Rの撮像画像に、道路Rに対応する各車両21~24の位置が撮影位置として対応付けられた状態で記憶される。
Although only one vehicle 2 is shown in FIG. 1, one vehicle 2 travels in the traveling section a plurality of times, and each time the vehicle 2 travels, an image captured by the
地図生成装置10は、線分検出部20、投影部22、線分対応付部24、平均化部26、及び統合部28を備える。
The
図3は地図生成装置10のハードウエア構成の一例を示す図である。図3に示すように、地図生成装置10は、各種制御及び各種演算を行うコンピュータとして構成されている。即ち、地図生成装置10は、CPU(Central Processing Unit)30A、ROM(Read Only Memory)30B、RAM(Random Access Memory)30C、不揮発性記憶部30D、入出力インターフェース(I/O)30E、及び通信部31を備えている。CPU30A、ROM30B、RAM30C、不揮発性記憶部30D、及びI/O30Eの各々は、バス30Fを介して接続されている。
FIG. 3 is a diagram showing an example of the hardware configuration of the
通信部31は、I/O30Eに接続されている。通信部31は、通信回線を介して撮像画像データベース15や地図データベース18等の外部装置と通信を行うためのインターフェースである。
The
本実施形態の地図生成装置10では、ROM30Bには、後述する「線地図生成処理」を実行するためのプログラムが記憶されている。CPU30Aは、ROM30Bに記憶されたプログラムを読み出し、RAM30Cをワークエリアとして使用してプログラムを実行する。CPU30Aが、ROM30Bに記憶されたプログラムを実行することにより、CPU30Aが、線分検出部20、投影部22、線分対応付部24、平均化部26、及び統合部28の各々として機能する。
In the
線分検出部20は、撮像画像データベース15から取得した複数の撮像画像の各々から、特徴点の組を線分として検出する。線分検出部20は、撮像画像から、道路Rの区間線分等を含む複数の線分を検出する。線分検出部20は、線分の検出結果と、撮像位置が対応付けられた撮像画像とを、投影部22に出力する。
The line
投影部22は、線分検出部20が検出した複数の線分の各々について、各撮像画像の撮像位置に基づいて、各線分の位置を表す座標を絶対座標に変換する。以下、説明の便宜上、各撮像画像から検出された複数の線分を、絶対座標に変換した画像を「投影画像」という。図2に示した例では、車両211により撮像された撮像画像からは、区画線90を表す線分911を含む投影画像501が得られる。同様に、車両212により撮像された撮像画像からは、区画線90を表す線分912を含む投影画像502が得られ、車両213により撮像された撮像画像からは、区画線90を表す線分913を含む投影画像503が得られ、車両214により撮像された撮像画像からは、区画線90を表す線分914を含む投影画像504が得られる。
The
なお、以下では、各投影画像(撮像画像)毎に検出した複数の線分を1つの系列として扱う。 In the following, a plurality of line segments detected for each projected image (captured image) will be treated as one series.
線分対応付部24は、各系列の線分について、他系列の線分の端点と、自系列の線分の端点との位置の誤差が、各系列における複数の線分全体で最も小さくなるように各線分の対応付けを行う。線分対応付部24は、各線分についての対応付結果を平均化部26に出力する。
In the line
平均化部26は、線分対応付部24により対応付けられた2系列各々の線分に対し、線分の中間の位置に新たな線分を生成する。図2に示した例では、投影画像501における線分の系列と、投影画像502における線分の系列とに対し、線分対応付部24による線分対応付けを行い、平均化部26により、投影画像50
1
における線分の系列に含まれる線分91
1
と、投影画像50
2
における線分の系列に含まれる線分91
2
とから線分9212を生成した状態を示している。また、投影画像503における線分の系列と、投影画像504における線分の系列とに対し、線分対応付部24による線分対応付けを行い、平均化部26により、投影画像50
3
における線分の系列に含まれる線分91
3
と、投影画像50
4
における線分の系列に含まれる線分91
4
とから線分9234を生成した状態を示している。
The averaging
統合部28は、平均化部26が生成した線分に基づいて、複数の系列間で対応付けられた複数の線分を統合する。具体的には、統合部28は、上記線分対応付部24及び平均化部26の各処理を繰り返し行わせ、各線分の位置を、収束させる。図2に示した例では、統合部28は、線分9212を含む系列と、線分9234を含む系列とについて、線分対応付部24及び平均化部26の各処理を繰り返させて、線分9212と線分9234とを、線分941234の位置に収束させる。なお、本実施形態での統合部28は、複数の系列について、線分対応付部24及び平均化部26の各処理を繰り返させる際、平均化部26で線分音一致性が高い系列を選別することで、複数の系列により成る集合を再構築する(詳細後述)。
The integration unit 28 integrates a plurality of line segments associated with each other among the plurality of series based on the line segments generated by the averaging
統合部28により収束された線分の位置を表す情報は、地図データベース18に出力される。地図生成装置10は、複数の走行区間毎に、上記線分検出部20~統合部28の処理を繰り返し、各線分の位置を表す情報を地図データベース18に出力する。本実施形態の地図生成システム1では、各走行区間毎の各線分の位置を表す情報を、走行区間の位置に応じて繋げることで、線地図が得られる。
The information representing the position of the line segment converged by the integration unit 28 is output to the map database 18. The
次に、本実施形態の地図生成装置10の作用について詳細に説明する。CPU30AがROM30Bに記憶されたプログラムを実行することによって、図4に示す線地図生成処理が実行される。図4には、本実施形態の地図生成装置10で実行される線地図生成処理の流れの一例を表すフローチャートが示されている。なお、一例として本実施形態の地図生成装置10では、予め定められたタイミング毎や、各走行区間毎に予め定められた数の撮像画像が撮像画像データベース15に格納されたタイミング毎に、図4に一例を示した線地図生成処理が実行される。
Next, the operation of the
ステップS100で線分検出部20は、撮像画像データベース15から取得した撮像画像から線分を検出する。線分検出部20が、撮像画像から線分を検出する方法は特に限定されないが、一例として本実施形態の線分検出部20は、撮像画像から、区画線の芯線を表す線分を、二値化、距離変換、及びハフ変換を行うことにより検出する。線分検出部20は、距離変換した撮像画像の各行に対し、距離値について、当該距離値が左右の画素における距離値よりも大きい峰部分をハフ空間に投影する。検出する線分の上下の端点は、距離値が0(ゼロ)ではない上限及び下限より求められる。
In step S100, the line
なお、本実施形態の線分検出部20は、同一走行区間を撮像した複数の撮像画像について、本処理及び以下の処理を行う。
The line
次のステップS102で投影部22は、上記ステップS100で検出した線分を投影し、鳥瞰図における絶対座標にする。一例として、本実施形態の投影部22は、検出した線分を右が東、上が北となるEN(East-North)座標に変換する。下記(1)式~(4)式の変換式により、各線分の端点の座標を変換する。
In the next step S102, the
具体的には、撮像画像の撮像面が、道路Rの路面に対し、ほぼ垂直と仮定した場合の、撮像画像の座標と、撮像部12の中心座標との変換を、(1)式及び(2)式により行う。
f:(v-v0)=z:y ・・・(1)
f:(u-u0)=z:x ・・・(2)
Specifically, when it is assumed that the image pickup surface of the image pickup image is substantially perpendicular to the road surface of the road R, the conversion between the coordinates of the image pickup image and the center coordinates of the
f: (vv 0 ) = z: y ... (1)
f: (u-u 0 ) = z: x ... (2)
なお、上記(1)式及び(2)式において、(u,v)は、撮像画像中の座標[pix]であり、(x、z)は、撮像部12の中心座標、右手方向x[m]と進行方向z[m]である。また、fは、撮像部12の焦点距離[pix]であり、yは、車両2における撮像部12が設置されている位置の高さ[m]であり、(u0,v0)は、撮像画像中の消失点の座標[pix]である。
In the above equations (1) and (2), (u, v) are the coordinates [pix] in the captured image, and (x, z) are the center coordinates of the
また、撮像部12の中心座標からEN座標への変換には、下記(3)式及び(4)式を用いる。
e=e0+(x+Δx)cosθ+(z+Δz)sinθ ・・・(3)
n=n0+(x+Δx)sinθ+(z+Δz)cosθ ・・・(4)
Further, the following equations (3) and (4) are used for the conversion from the center coordinates of the
e = e 0 + (x + Δx) cosθ + (z + Δz) sinθ ・ ・ ・ (3)
n = n 0 + (x + Δx) sinθ + (z + Δz) cosθ ... (4)
なお、上記(3)式及び(4)式において、(e,n)は、EN座標[m]であり、(e0,n0)は、測位部14により得られた車両2の基準位置のEN座標[m]である。また、(Δx,Δz)は、車両2の基準位置に対する撮像部12の相対位置[m]であり、θは、車両2の方位角(北が0で、時計回りを正とする)[rad]である。
In the above equations (3) and (4), (e, n) is the EN coordinate [m], and (e 0 , n 0 ) is the reference position of the vehicle 2 obtained by the
図5には、車両2の撮像部12により撮像された撮像画像から線分検出部20により検出された線分を、投影部22によりEN座標にプロットした図(EN座標図)の一例を示す。図5に例示したように、区間線以外の不要物体の線分等も後検出されている。
FIG. 5 shows an example of a diagram (EN coordinate diagram) in which a line segment detected by the line
次のステップS104で線分対応付部24は、上記ステップS102によりEN座標に変換された各線分の端点に、下記参考文献1のスペクトル照合を応用し、複数の系列の線分について1体1の対応付けを導出する。
[参考文献1]M. Leordeanu and M. Hebert, “A spectral technique for correspondence problems using pairwise constraints," Proc. 10th IEEE Int. Conf. on Computer Vision, vol. 2, pp. 1482-1489, Beijing, China, Oct. 2005.
In the next step S104, the line
[Reference 1] M. Leordeanu and M. Hebert, “A spectral technique for correspondence problems using pairwise constraints,” Proc. 10th IEEE Int. Conf. On Computer Vision, vol. 2, pp. 1482-1489, Beijing, China , Oct. 2005.
ここで、参考として、系列Pに含まれる複数の特徴点と、系列Qに含まれる複数の特徴点を対応付ける問題を考える。以下、系列Pに含まれる特徴点数を|P|とし、系列Qに含まれる特徴点数を|Q|とする。系列P、及び系列Qの各々から2点ずつ特徴点を抽出し、各々pi1,pj1∈P、及びqi2,qj2∈Qと表す。点pi1及び点qi2との対応関係が、点pj1及び点qj2との間にも成立するとき、(i1,i2)と、(j1,j2)とは、インライアを構成する組とみなす。図6には、平行移動により重なる特徴点の組をインライアと判定する例を示す。 Here, as a reference, consider the problem of associating a plurality of feature points included in the series P with a plurality of feature points included in the series Q. Hereinafter, the number of feature points included in the series P is | P |, and the number of feature points included in the series Q is | Q |. Two feature points are extracted from each of the series P and the series Q, and are expressed as p i1 , p j1 ∈ P, and q i2 , q j2 ∈ Q, respectively. When the correspondence between the points p i1 and the point q i2 also holds between the points p j1 and the point q j2 , (i1, i2) and (j1, j2) are the set constituting the inlier. I reckon. FIG. 6 shows an example of determining a set of feature points that overlap due to translation as an inlier.
(i1,i2)と、(j1,j2)とは同じ平行移動量により重なる組である一方、別の点qk2∈Qを含む(j1,k2)の組は、これを満たさない。この事象を表現するために、要素数|P||Q|×|P||Q|の行列Mを定義し、上記に対応する要素M((i1,i2),(j1,j2))に「1」を、そうではない組に「0」を設定する。全要素の設定後、下記処理により全体で最適かつ重複のない要素間対応付け結果を求められる。 While (i1, i2) and (j1, j2) are overlapping sets with the same translation amount, the set of (j1, k2) including another point q k2 ∈ Q does not satisfy this. In order to express this event, a matrix M of the number of elements | P || Q | × | P || Q | is defined, and the elements M ((i1, i2), (j1, j2)) corresponding to the above are defined. Set "1" and "0" for other pairs. After setting all the elements, the following processing is used to obtain the optimum and consistent inter-element mapping result as a whole.
まず、行列Mの第1主成分に対応する固有ベクトルxをべき乗法により求める。そして、要素数|P||Q|×1のxを要素数|P|×|Q|の行列Xに再編成する。さらに、Hungarian法を適用し、1対1対応の対応関係を求める。例えば、図6に示した例では、インライアの組(i1,i2);(j1,j2)は、行列Mから再編成された行列Xの要素より識別できる。 First, the eigenvector x corresponding to the first principal component of the matrix M is obtained by the power method. Then, x of the number of elements | P | | Q | × 1 is reorganized into the matrix X of the number of elements | P | × | Q |. Furthermore, the Hungarian method is applied to obtain a one-to-one correspondence. For example, in the example shown in FIG. 6, the set of inliers (i1, i2); (j1, j2) can be identified by the elements of the matrix X reorganized from the matrix M.
次に、上記ステップS102により得られた、ある投影画像における系列P、及び他の投影画像における系列Q中の線分を対応付ける問題を考える。上記参考文献1における手法との相違点は、照合の単位を点から線分に置き換えていること、及び行列Mに格納する値を線分の端点位置差分に置き換えていることである。線分はEN座標を要素とする両端点2点により表される。図7に示す例のように、各走行より2線分を選択し、pi1,p’i1,pj1,p’j1∈P、qi2,q’i2,qj2,q’j2∈Qと表す。組(i1,i2)に対応する位置差分量vi1,i2を下記(5)式により導出する。
続いて、組(i1,i2)及び(j1,j2)のインライアらしさを表す値を、上記(5)式により得られる位置差分量を適用後の端点位置差分をもとに算出し、行列Mに格納する。行列Mは、下記(6)式により表される。
この値は、両線分の端点が位置差分量を適用後に完全に一致するとき「1」となり、離れるほど「0」に近付く。上記(6)式におけるλは。大きな平行移動量を抑制するための重みであり、測位精度を考慮し下記(7)式により定義する。
系列Pまたは、系列Qに含める線分は次のように選別する。上記ステップS100及びS102により得られた投影画像各々における複数の線分の中で、両端点の位置の一致(例えば、距離が0.5m未満)する線分が複数フレームに存在するものの確信度を1とし、照合対象とする。それ以外の線分は、確信度を0とし、本処理(線分対応付)には用いない。なお、本処理に用いなかった線分も後段の処理(S108の処理)には用いる。 The line segments included in the series P or the series Q are selected as follows. Among the plurality of line segments in each of the projected images obtained in steps S100 and S102, the certainty that the line segments in which the positions of both end points match (for example, the distance is less than 0.5 m) exists in the plurality of frames. It is set to 1 and is used as a collation target. The other line segments have a certainty of 0 and are not used in this processing (with line segment correspondence). The line segment not used in this process is also used in the subsequent process (process of S108).
すなわち、位置差分量適用後における線分の両端の位置の差分が小さい組は、インライアとなる。これにより、体表的な点を対応付けて、線分を合わせるポイントを抽出する。 That is, a set in which the difference between the positions at both ends of the line segment after applying the amount of position difference is small is an inlier. As a result, the points on which the line segments are aligned are extracted by associating the points on the body surface.
次のステップS106で線分対応付部24は、線分の移動量を補間する。まず、インライアと判定された線分の組について、上記(5)式の位置差分量が算出されたものとする。もし、系列P及び系列Qが大局的な平行移動により一致する場合は、固有ベクトルxの最大要素に対応する線分組の位置差分量が、系列P,Q間の位置差分量とみなせる。しかし実際は、測位部14の軌跡誤差の影響等で局所的な歪みが発生する。したがって、線分対応付部24によって得られた1対1対応の線分組の中から、固有ベクトルxの要素の大きい、上位n組を利用する。本処理によって、適切なnの値が求められる。後段の処理では、上位n組の線分の組を制御点とし、その中間に存在する線分の位置差分量を線形補間することで、系列を重ね合わせることができる。
In the next step S106, the line
図5に、線分対応付部24による補間の例を示す。組(i1,i2)及び(k1,k2)は、上位n組に該当するインライアとする。進行方向に沿ってそれらの中間に位置する線分pj1p’j1∈Pの位置差分量vj1は、前後の両線分pi1p’i1,pk1p’k1∈Pの位置差分量から、下記(8)式及び(9)式により導出される。
なお、片側のみに制御点が存在する場合は、外挿せず最近傍の位置差分量をそのまま適用する。例えば、パラメータnの上限を10として、その範囲で系列P,Q間全体の線分の位置差分が最も小さくなるように、パラメータnを決定する。全体の線分の位置差分は下記(10)式により導出される。
次のステップS108で平均化部26は、各線分を平均化する。本ステップの処理は、上記確信度の値に関わらず、全ての線分を処理の対象とする。パラメータnが定まり、統合に用いる対応付けの組が確定したら、線分対応付部24によって導出された位置差分量に基づいて、系列P及び系列Q各々の全線分に平行移動処理を適用する。
In the next step S108, the averaging
位置差分量の算出には上記(8)式及び(9)式の補間式を利用する。系列Pの線分j1の平行移動量tj1は下記(11)式で導出され、系列Qの線分j2の平行移動量tj2は下記(12)式で導出される。下記(11)式及び(12)式に示すように、平行移動量の導出には、線分対応付部24により導出された固有ベクトルxの最大要素を与える組の位置差分量v*を利用する。断りのない限り、係数kを1/2(k=1/2)とする。v*/2ずつ平行移動させた位置は、系列P,Q間の最も信頼できる中間位置とみなすことができるからである。なお、詳細は後述するが、いずれかの系列が信用できない(位置が外れている)場合等は、k=1/2とせず、係数kの値を信用できる系列に合わせた値に調整する。
平均化部26は、線分対応付部24の結果に基づいて、入力系列P,Qを平均化し、新たに平均化後の系列Rを生成する。一例として、図9には、系列Pの線分pj1p’j1と系列Rの線分qj2q’j2を平均化し、系列Rの線分rj1,j2r’j1,j2を生成した例を示す。
The averaging
系列Rの線分を、rj1,j2r’j1,j2と表し、確信度をc(rj1,j2)と表すと、系列Rの線分の端点の位置rj1,j2は下記(13)式で表され、両端点の距離dは下記(14)式で表され、及び確信度c(rj1,j2)は下記(15)式で表される。なお、下記(13)式~(15)式において、線分pj1p’j1の確信度をc(pj1)、線分qj2q’j2の確信度をc(qj2)とする。
1線分に対し他系列の複数の線分が対象となる場合、確信度c(rj1,j2)が最大となる線分の組に対し出力系列Rの線分rj1,j2r’j1,j2を生成する。 When multiple line segments of other series are targeted for one line segment, the line segment of the output series R r j1, j2 r'j1 for the set of line segments having the maximum certainty c (r j1 , j2 ). , J2 is generated.
なお、確信度が1となる系列Rの線分を生成しなかった系列P,Qにおける確信度が1の線分については、平行移動適用後の線分を系列Rに確信度を1として登録する。例えば、図9に示した例では、系列Pにおける確信度が1の線分pl1p’l1について、対応付けられた系列Qの線分がなく、確信度が1とな系列Rの線分を生成しなかったため、平行移動適用後の線分rl1,*r’l1,*を系列Rに確信度を1として登録する。 For the line segments with a certainty of 1 in the series P and Q that did not generate the line segment of the series R with a certainty of 1, the line segment after the translation application is registered in the series R with the certainty of 1. do. For example, in the example shown in FIG. 9, for the line segment p l1 p'l1 with a certainty degree of 1 in the series P, there is no line segment of the associated series Q and the line segment of the series R has a certainty degree of 1. Is not generated, so the line segments r l1, * r'l1, * after translation application are registered in the series R with a certainty of 1.
次のステップS110で統合部28は、集団内の全系列の組の処理を完了したか否かを判定する。未だ集団内の全系列の組の処理を完了していない場合、ステップS110の判定が否定判定となり、ステップS112へ移行する。ステップS112で統合部28は、正規化確信度に基づいて、系列を再構築した後、ステップS104に戻り、再構築した系列に基づいてステップS104~S108の各処理を繰り返す。一方、集団内の全系列の組の処理を完了した場合、ステップS110の判定が肯定判定となり、本線地図生成処理を終了する。 In the next step S110, the integration unit 28 determines whether or not the processing of all the sets in the group has been completed. If the processing of all the sets in the group has not been completed yet, the determination in step S110 becomes a negative determination, and the process proceeds to step S112. In step S112, the integration unit 28 reconstructs the sequence based on the normalization certainty, then returns to step S104, and repeats each process of steps S104 to S108 based on the reconstructed sequence. On the other hand, when the processing of all the sets in the group is completed, the determination in step S110 becomes an affirmative determination, and the main line map generation processing ends.
本実施形態では、複数系列の線分を統合する場合、例えば、道路Rの車線毎に系列の集合{A1,A2,A3,A4・・・}、及び{B1,b2,b3,b4・・・}を定義し、各集合内の全組み合わせについて、上記ステップS108の平均化部26による平均化を実施する。
In the present embodiment, when integrating a plurality of line segments, for example, a set of series {A1, A2, A3, A4 ...} For each lane of the road R, and {B1, b2, b3, b4 ... •} Is defined, and all combinations in each set are averaged by the averaging
ステップS108の処理により確信度が「未定」とされた線分については、集合内で1組でも他系列と対応付けが可能な事例があった場合は、確信度を1とし、当該事例がなかった場合は、確信度を0とする。 For line segments whose conviction is "undecided" by the processing of step S108, if there is a case in which even one set can be associated with another series, the conviction is set to 1 and there is no such case. If so, the degree of certainty is set to 0.
正規化確信度の大きい順に出力数系列(例えば、8系列)を選別し、次のステップ用の集合を再構築する。正規化確信度は、例えば、下記(16)式により表される。
正規化確信度=(上記(15)式のexp(-d)を出力系列内で総和した値)/(検出線分数×走行距離) ・・・(16)
The output number series (for example, 8 series) is selected in descending order of normalization certainty, and the set for the next step is reconstructed. The normalization conviction is expressed by, for example, the following equation (16).
Normalization certainty = (value obtained by summing exp (-d) of the above equation (15) in the output series) / (detection line fraction x mileage) ... (16)
同じ系列の組み合わせが重複する場合、例えば、図10に示した例では、「A123」の場合、正規化確信度が最大の系列を採用する。 When the combination of the same series is duplicated, for example, in the example shown in FIG. 10, in the case of "A123", the series having the maximum normalization certainty is adopted.
測位部14における大きな測定誤差を除外するため、移動量v*のノルム||v*||を集合中で平均した値が大きい順に、上位の何割か(例えば、4割等)に入る系列を、位置の外れた系列とみなし、線分(端点)の位置を調整する。対応付ける系列を系列P、Qとした場合、以下のいずれかの態様をとる。
In order to exclude a large measurement error in the
系列Pが上記に該当する場合、上記(11)式及び(12)式において係数kを1(k=1)とする。また、系列Qが上記に該当する場合、上記(11)式及び(12)式において係数kを0(k=0)とする。また、系列P,Qの両方が上記に該当する場合、系列P,Qから系列P,Q以外への移動量v*を小集団内で平均した移動量を加算する。 When the series P corresponds to the above, the coefficient k is set to 1 (k = 1) in the above equations (11) and (12). When the series Q corresponds to the above, the coefficient k is set to 0 (k = 0) in the above equations (11) and (12). If both the series P and Q correspond to the above, the movement amount obtained by averaging the movement amount v * from the series P and Q to other than the series P and Q is added.
一例としては、集合内の統合回数を2回、集合間の統合回数を1回とし、統合部28は、最終的に正規化確信度が最大の系列を統合結果として地図データベース18へ出力する。 As an example, the number of integrations in the set is set to 2 and the number of integrations between the sets is set to 1, and the integration unit 28 finally outputs the series having the maximum normalization certainty to the map database 18 as the integration result.
例えば図10に示した例では、ある車線について、各々異なる系列から検出された線分A1、A2、A3、及びA4を用い、上記S104~S108の処理により線分A1及び線分A2から線分A12を生成し、線分A1及び線分A3から線分A13を生成し、線分A2及び線分A3から線分A23を生成し、線分A3及び線分A4から線分A34を生成した場合を示している。さらに、上記ステップS104~S108の処理を繰り返し、線分A12及び線分A13から線分A123を生成し、線分A13及び線分A23から線分A123を生成し、線分A12及び線分A34から線分A1234を生成する。この場合、線分A123は重複するため、正規化確信度が高い組み合わせの線分、図10に示した例では、線分A12及び線分A13の組み合わせによる線分A123を採用する。 For example, in the example shown in FIG. 10, for a certain lane, the lines A1, A2, A3, and A4 detected from different sequences are used, and the lines A1 and A2 are separated by the processing of S104 to S108. When A12 is generated, line A13 is generated from line A1 and line A3, line A23 is generated from line A2 and line A3, and line A34 is generated from line A3 and line A4. Is shown. Further, the processes of steps S104 to S108 are repeated to generate line segment A123 from line segment A12 and line segment A13, line segment A123 from line segment A13 and line segment A23, and line segment A12 and line segment A34. Generate line segment A1234. In this case, since the line segments A123 overlap, a line segment A123 having a high degree of certainty of normalization, and in the example shown in FIG. 10, a combination of the line segments A12 and the line segment A13 is adopted.
また、各々異なる系列から検出された線分B1、B2、B3、及びB4を用い、上記S104~S108の処理により線分B1及び線分B2から線分B12を生成し、線分B1及び線分B3から線分B13を生成し、線分B2及び線分B4から線分B24を生成し、線分B3及び線分B4から線分B34を生成した場合を示している。さらに、上記ステップS104~S108の処理を繰り返し、線分B13及び線分B24から線分B1234を生成する。この場合、線分B12及び線分B34は正規化確信度が低い組み合わせの線分であるため、統合に用いない。 Further, using the line segments B1, B2, B3, and B4 detected from different series, the line segment B1 and the line segment B2 are generated from the line segment B1 and the line segment B2 by the processing of the above S104 to S108, and the line segment B1 and the line segment are generated. The case where the line segment B13 is generated from B3, the line segment B24 is generated from the line segment B2 and the line segment B4, and the line segment B34 is generated from the line segment B3 and the line segment B4 is shown. Further, the process of steps S104 to S108 is repeated to generate a line segment B1234 from the line segment B13 and the line segment B24. In this case, the line segment B12 and the line segment B34 are not used for integration because they are a combination of line segments having a low degree of certainty of normalization.
そして、統合部28は、集合Aの線分A1234と、集合Bの線分B1234を統合して、統合結果A1234B1234を導出し、地図データベース18に出力する。 Then, the integration unit 28 integrates the line segment A1234 of the set A and the line segment B1234 of the set B, derives the integration result A1234B1234, and outputs the integration result A1234B1234 to the map database 18.
本実施の形態の地図生成装置10の適用例について図11A及び図11Bに示す。図11Aに示した例では、系列P及び系列Q各々複数の線分を同一平面上に表しており、線分対応付部24により、系列Pの線分と系列Qの線分とが対応付けられた状態を示している。なお、図11Aに示した例では、対応付けられた線分同士を矢印で示している。また、図11Bに示した例では、統合部28により系列Pと系列Qとを統合して得られた統合結果の一例を示している。なお、図11Bでは、統合結果(インライア)の線分を実線で示し、アウトライアの線分を点線で示す。また、比較例として、図11Cには、図11Aにおける系列Pの各線分と、系列Qの各線分全体を平行移動させた場合の統合結果の例を示す。図11Cでは、図11Bと同様に、インライアの線分を実線で示し、アウトライアの線分を点線で示す。図11B及び図11Cを比較するとわかるように、本実施形態の地図生成装置10によれば、単純に系列の線分を平行移動させた場合に比べて、系列間で適切に線分の統合が行われていることがわかる。
11A and 11B show an application example of the
また、本実施の形態の地図生成装置10の適用例について図12A~図12Dに示す。図12Aに示した例では、線分検出部20により検出され投影部22により座標が変換された系列Pの複数の線分を示す投影図を示している。また、図12Bに示した例では、線分検出部20により検出され投影部22により座標が変換された系列Qの複数の線分を示す投影図を示している。系列P、及び系列Qの各々は、同一走行区間の道路Rの左右を撮像した撮像画像から得られた投影画像である。図12Cには、線分対応付部24により、図12Aに示した系列Pの線分と、図12Bに示した系列Qの線分とが対応付けられた状態を示している。図12Cでは、上記図11Aと同様に対応付けられた線分同士を矢印で示している。さらに、図12Dには、統合部28により系列Pと系列Qとを統合して得られた統合結果の一例を示している。なお、図12Dでは、上記図11Bと同様に、統合結果(インライア)の線分を実線で示し、アウトライアの線分を点線で示す。図12Dに示すように、本実施形態の地図生成装置10によれば、道路Rの左右を撮像した撮像画像を用いた場合、道路Rの中央付近の区画線を表す線分が統合により、適切に検出されていることがわかる。
Further, FIGS. 12A to 12D show an application example of the
以上説明したように、上記各実施形態の地図生成装置10は、線分検出部20、線分対応付部24、平均化部26、及び統合部28を備える。線分検出部20は、車両2に搭載された撮像部12により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する。線分対応付部24は、複数の撮像画像毎に、撮像画像から検出された線分の両端点と、他の撮像画像から検出された線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、撮像画像から検出された線分からなる系列と、他の撮像画像から検出された線分からなる系列との2系列間で、位置差分量が小さくなるように、線分の対応付けを行う。平均化部26は、線分対応付部24により対応付けられた2系列間の線分の対応付けに基づいて、対応付けられた線分の間の位置に新たな線分を生成し、新たな線分からなる系列を生成する。統合部28は、平均化部26が生成した、新たな線分からなる系列同士の2系列について、線分対応付部24による対応付け、及び平均化部26による生成を行わせて、新たな線分からなる系列同士の2系列を統合する。
As described above, the
このように本実施形態の地図生成装置10によれば、線分対応付部24により、線分の一致の度合いを表す確信度を指標とした対応付けにより、系列間の全体として最適、かつ重複のない線分の対応付けが行われる。また、平均化部26が、対応付け結果に基づいて、対応付いた2つの線分間の中間位置に、両線分を統合した新たな線分を生成する。また、線分対応付部24は、対応付けられなかった線分については、周囲の線分の対応関係をもとに移動量の補間を行い、位置を更新する。これらの処理により、測位部14の軌跡誤差等による線分分布の非線形な歪みを補完することができる。また、平均化部26及び統合部28では、平均化及び統合を繰り返す際に、位置が外れた系列、例えば、後検出された線分を除外しながら、統合することもできる。また、系列の数、換言すると撮像画像の数を増加させることで、統合後の線分は、実際の位置(真位置)へと収束に向かう。また、軌跡誤差による歪みも収束に向かう。このように、本実施形態の地図生成装置10によれば、単純に各系列の線分全体を平行移動させたのみでは重ならない歪みを吸収することができる。
As described above, according to the
従って、本実施形態の地図生成装置10によれば、高精度な線地図を生成することができる。
Therefore, according to the
本実施形態の地図生成装置10によって得られ、地図データベース18に記憶された線地図は、例えば、車両2の自己位置の推定や、自動運転等に利用することができる。
The line map obtained by the
なお、地図生成装置10には、各種ドライブが接続されていてもよい。各種ドライブは、フレキシブルディスク、光磁気ディスク、CD-ROMなどのコンピュータ読み取り可能な可搬性の記録媒体からデータを読み込んだり、記録媒体に対してデータを書き込んだりする装置である。各種ドライブを備える場合には、可搬性の記録媒体に制御プログラムを記録しておいて、これを対応するドライブで読み込んで実行してもよい。
Various drives may be connected to the
1 地図生成システム
10 地図生成装置
12 撮像部
14 測位部
20 線分検出部
22 投影部
24 線分対応付部
26 平均化部
28 統合部
1
Claims (6)
前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の両端点の位置を表す座標を鳥瞰図における絶対座標に変換する投影部と、
前記線分検出部が検出した複数の線分を前記複数の撮像画像毎に1つの系列とし、
前記両端点の前記絶対座標に基づく位置に基づいて、前記複数の撮像画像毎の各系列のうちから自系列の線分の両端点と他系列の線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記自系列と、前記他系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部と、
前記線分対応付部により対応付けられた前記自系列と、前記他系列との2系列間の線分の対応付けに基づいて、対応付けられた線分同士の対応する端点の中間の位置に端点が設けられた新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、
前記線分対応付部による線分の対応付けと、前記平均化部による前記新たな線分から成る系列の生成とを、全ての系列に対して行わせて生成された複数の前記新たな線分の各々からなる複数の系列の集合を再構築する一連の処理を、繰り返し行わせることで、前記複数の撮像画像毎の各系列を1つの系列に統合する統合部と、
を備えた地図生成装置。 A line segment detection unit that detects a plurality of line segments from each of a plurality of captured images captured in the same traveling section by an image pickup unit mounted on a vehicle.
For each of the plurality of line segments detected by the line segment detection unit, coordinates representing the positions of both end points of each line segment are obtained based on the position information of the vehicle associated with each of the plurality of captured images. A projection unit that converts to absolute coordinates in a bird's-eye view,
The plurality of line segments detected by the line segment detection unit are set as one series for each of the plurality of captured images.
Based on the position of the end point based on the absolute coordinates, the position difference amount between the end point of the line segment of the own series and the end point of the line segment of the other series is calculated from each series of the plurality of captured images. Then, based on the calculated position difference amount, the line segment corresponding portion that associates the line segments so that the position difference amount becomes small between the two series of the own series and the other series. ,
Based on the correspondence between the two series of the own series associated with the line segment corresponding portion and the other series, the position is in the middle of the corresponding end points of the associated line segments. An averaging unit that generates a new line segment provided with an end point and generates a series consisting of the new line segment.
A plurality of the new line segments generated by performing the mapping of the line segments by the line segment corresponding portion and the generation of the series consisting of the new line segments by the averaging section for all the series. An integration unit that integrates each series of each of the plurality of captured images into one series by repeatedly performing a series of processes for reconstructing a set of a plurality of series consisting of each of the above .
A map generator equipped with.
請求項1に記載の地図生成装置。 The integration unit integrates the two series by converging the position of the associated line segment to the center position.
The map generator according to claim 1.
請求項1または請求項2に記載の地図生成装置。 The line segment detection unit detects the core wire of the dividing line as a line segment from each of the plurality of captured images.
The map generator according to claim 1 or 2 .
請求項1から請求項3のいずれか1項に記載の地図生成装置。 When averaging a series of upper n (n is an integer of 1 or more) sets having a large position error in the set of the series and a series other than the n sets, the averaging unit is a series other than the n sets. Generate a line segment that is closer to the position of the line segment,
The map generator according to any one of claims 1 to 3 .
請求項1から請求項4のいずれか1項に記載の地図生成装置。 The integration unit selects and selects a higher -order series having high consistency of the new line segment from a plurality of series consisting of each of the plurality of new line segments generated by the averaging unit. Reconstructing a set of sequences,
The map generator according to any one of claims 1 to 4 .
車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部、
前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の両端点の位置を表す座標を鳥瞰図における絶対座標に変換する投影部、
前記線分検出部が検出した複数の線分を前記複数の撮像画像毎に1つの系列とし、
前記両端点の前記絶対座標に基づく位置に基づいて、前記複数の撮像画像毎の各系列のうちから自系列の線分の両端点と他系列の線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記自系列と、前記他系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部、
前記線分対応付部により対応付けられた前記自系列と、前記他系列との2系列間の線分の対応付けに基づいて、対応付けられた線分同士の対応する端点の中間の位置に端点が設けられた新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、
前記線分対応付部による線分の対応付けと、前記平均化部による前記新たな線分から成る系列の生成とを、全ての系列に対して行わせて生成された複数の前記新たな線分の各々からなる複数の系列の集合を再構築する一連の処理を、繰り返し行わせることで、前記複数の撮像画像毎の各系列を1つの系列に統合する統合部、
として機能させるためのプログラム。 Computer,
A line segment detection unit that detects a plurality of line segments from each of a plurality of captured images captured in the same traveling section by an image pickup unit mounted on a vehicle.
For each of the plurality of line segments detected by the line segment detection unit, coordinates representing the positions of both end points of each line segment are obtained based on the position information of the vehicle associated with each of the plurality of captured images. Projector that converts to absolute coordinates in a bird's-eye view,
The plurality of line segments detected by the line segment detection unit are set as one series for each of the plurality of captured images.
Based on the position of the end point based on the absolute coordinates, the position difference amount between the end point of the line segment of the own series and the end point of the line segment of the other series is calculated from each series of the plurality of captured images. Then, based on the calculated position difference amount, the line segment corresponding portion that associates the line segments between the two series of the own series and the other series so that the position difference amount becomes small.
Based on the correspondence between the two series of the own series associated with the line segment corresponding portion and the other series, the position is in the middle of the corresponding end points of the associated line segments. An averaging unit that generates a new line segment provided with an end point and generates a series consisting of the new line segment.
A plurality of the new line segments generated by performing the mapping of the line segments by the line segment corresponding portion and the generation of the series consisting of the new line segments by the averaging section for all the series. An integrated unit that integrates each series of each of the plurality of captured images into one series by repeatedly performing a series of processes for reconstructing a set of a plurality of series consisting of each of the above .
A program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019036877A JP7028206B2 (en) | 2019-02-28 | 2019-02-28 | Map generator and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019036877A JP7028206B2 (en) | 2019-02-28 | 2019-02-28 | Map generator and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020140566A JP2020140566A (en) | 2020-09-03 |
JP7028206B2 true JP7028206B2 (en) | 2022-03-02 |
Family
ID=72280400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019036877A Active JP7028206B2 (en) | 2019-02-28 | 2019-02-28 | Map generator and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7028206B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015004814A (en) | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | Lane map generation device and program |
JP2018116147A (en) | 2017-01-18 | 2018-07-26 | 株式会社デンソーアイティーラボラトリ | Map creation device, map creation method and map creation computer program |
-
2019
- 2019-02-28 JP JP2019036877A patent/JP7028206B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015004814A (en) | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | Lane map generation device and program |
JP2018116147A (en) | 2017-01-18 | 2018-07-26 | 株式会社デンソーアイティーラボラトリ | Map creation device, map creation method and map creation computer program |
Also Published As
Publication number | Publication date |
---|---|
JP2020140566A (en) | 2020-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111557665B (en) | Dense body marker estimation from camera data for patient positioning in medical imaging | |
JP6514624B2 (en) | Obstacle detection device | |
JP6107081B2 (en) | Image processing apparatus, image processing method, and program | |
US8805024B2 (en) | Motion capture apparatus and method | |
CN110111250B (en) | Robust automatic panoramic unmanned aerial vehicle image splicing method and device | |
US11138419B2 (en) | Distance image processing device, distance image processing system, distance image processing method, and non-transitory computer readable recording medium | |
CN107578376B (en) | Image splicing method based on feature point clustering four-way division and local transformation matrix | |
JP2007310707A (en) | Apparatus and method for estimating posture | |
CN104484648A (en) | Variable-viewing angle obstacle detection method for robot based on outline recognition | |
US20140334675A1 (en) | Apparatus and method for extracting movement path of mutual geometric relationship fixed camera group | |
CN109754459B (en) | Method and system for constructing human body three-dimensional model | |
CN105976377B (en) | The method of vehicle-mounted fish-eye camera self-calibration | |
JP2013178656A (en) | Image processing device, image processing method, and image processing program | |
CN110462685B (en) | Three-dimensional model reconstruction method and system | |
Gu et al. | Histograms of the normalized inverse depth and line scanning for urban road detection | |
KR101745493B1 (en) | Apparatus and method for depth map generation | |
JP5501084B2 (en) | Planar area detection apparatus and stereo camera system | |
JP2017130067A (en) | Automatic image processing system for improving position accuracy level of satellite image and method thereof | |
KR101677230B1 (en) | Apparatus and method for estimating quality of heterogenic image fusion algorithm | |
JP7028206B2 (en) | Map generator and program | |
JP4340722B2 (en) | Image composition method, image input device, and recording medium recording image composition program | |
JP2016004486A (en) | Information processor, information processing program and information processing system | |
JP2009237846A (en) | Information processor, information processing method, and computer program | |
JP7121936B2 (en) | Camera calibration information acquisition device, image processing device, camera calibration information acquisition method and program | |
JP2009186287A (en) | Plane parameter estimating device, plane parameter estimating method, and plane parameter estimating program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7028206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |