JP7028206B2 - Map generator and program - Google Patents

Map generator and program Download PDF

Info

Publication number
JP7028206B2
JP7028206B2 JP2019036877A JP2019036877A JP7028206B2 JP 7028206 B2 JP7028206 B2 JP 7028206B2 JP 2019036877 A JP2019036877 A JP 2019036877A JP 2019036877 A JP2019036877 A JP 2019036877A JP 7028206 B2 JP7028206 B2 JP 7028206B2
Authority
JP
Japan
Prior art keywords
series
line segment
unit
line
line segments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019036877A
Other languages
Japanese (ja)
Other versions
JP2020140566A (en
Inventor
皓之 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2019036877A priority Critical patent/JP7028206B2/en
Publication of JP2020140566A publication Critical patent/JP2020140566A/en
Application granted granted Critical
Publication of JP7028206B2 publication Critical patent/JP7028206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、地図生成装置及びプログラムに関する。 The present disclosure relates to a map generator and a program.

従来より、車両に搭載されたカメラ等の撮像装置により撮像された複数の撮像画像を用いて地図を生成する技術が知られている。例えば、特許文献1及び2に記載の技術では、カメラにより撮像された複数の撮像画像から、道路の車線(区画線)等の線分等を検出して、地図の作成に用いている。 Conventionally, there has been known a technique of generating a map using a plurality of captured images captured by an imaging device such as a camera mounted on a vehicle. For example, in the techniques described in Patent Documents 1 and 2, line segments such as road lanes (section lines) are detected from a plurality of captured images captured by a camera and used for creating a map.

特開2017-182564号公報Japanese Unexamined Patent Publication No. 2017-182564 特開2017-10393号公報Japanese Unexamined Patent Publication No. 2017-10393

しかしながら、上記従来の技術では、車線等の線分の位置に測位誤差が生じていたり、誤検出をした線分が含まれていたりする場合がある。また、上記従来の技術では、未検出の車線が生じている場合もある。このような場合、上記従来の技術では、誤差等を検出できず、また、未検出の車線については補間されないため、実際の位置にある線分が検出されない場合がある。 However, in the above-mentioned conventional technique, a positioning error may occur at the position of a line segment such as a lane, or a line segment that has been erroneously detected may be included. Further, in the above-mentioned conventional technique, an undetected lane may occur. In such a case, the above-mentioned conventional technique cannot detect an error or the like, and since the undetected lane is not interpolated, the line segment at the actual position may not be detected.

本開示は上記の技術を考慮してなされたものであり、高精度な線地図を生成することができる地図生成装置及びプログラムを提供することを目的とする。 The present disclosure has been made in consideration of the above techniques, and an object of the present disclosure is to provide a map generator and a program capable of generating a highly accurate line map.

上記目的を達成するために、本開示の第1の態様の地図生成装置は、車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部と、前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の両端点の位置を表す座標を鳥瞰図における絶対座標に変換する投影部と、前記線分検出部が検出した複数の線分を前記複数の撮像画像毎に1つの系列とし、前記両端点の前記絶対座標に基づく位置に基づいて、前記複数の撮像画像毎の各系列のうちから自系列の線分の両端点と他系列の線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記自系列と、前記他系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部と、前記線分対応付部により対応付けられた前記自系列と、前記他系列との2系列間の線分の対応付けに基づいて、対応付けられた線分同士の対応する端点の中間の位置に端点が設けられた新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、前記線分対応付部による線分の対応付けと、前記平均化部による前記新たな線分から成る系列の生成とを、全ての系列に対して行わせて生成された複数の前記新たな線分の各々からなる複数の系列の集合を再構築する一連の処理を、繰り返し行わせることで、前記複数の撮像画像毎の各系列を1つの系列に統合する統合部と、を備える。 In order to achieve the above object, the map generator of the first aspect of the present disclosure is a plurality of line segments from each of a plurality of captured images in which the same traveling section is captured by an imaging unit mounted on a vehicle. For each of the line segment detection unit that detects the line segment and the plurality of line segments detected by the line segment detection unit, each line segment is based on the position information of the vehicle associated with each of the plurality of captured images. The projection unit that converts the coordinates representing the positions of both end points into absolute coordinates in the bird's-eye view, and the plurality of line segments detected by the line segment detection unit are made into one series for each of the plurality of captured images, and the end points are described. Based on the position based on the absolute coordinates, the position difference amount between the end points of the line segment of the own series and the end points of the line segment of the other series was calculated from each series of the plurality of captured images . Based on the position difference amount, the line segment corresponding portion that associates the line segments so that the position difference amount becomes smaller between the two series of the own series and the other series, and the line segment correspondence. An end point is provided at a position in the middle of the corresponding end points of the associated line segments based on the correspondence of the line segments between the self-series and the other series associated with each other by the attachment part. A series consisting of an averaging unit that generates a new line segment and a series consisting of the new line segment, a line segment correspondence by the line segment corresponding portion, and the new line segment by the averaging unit. By repeating a series of processes for reconstructing a set of a plurality of series consisting of each of the plurality of new line segments generated by performing the generation of the plurality of series. It is provided with an integration unit that integrates each series of each captured image into one series .

本開示の第2の態様の地図生成装置は、第1の態様の地図生成装置において、前記統合部は、対応付けられた前記線分の位置を中心位置に収束させることで、前記2系列を統合する。 The map generator according to the second aspect of the present disclosure is the map generator according to the first aspect, wherein the integrated unit converges the position of the associated line segment to the center position to form the two sequences. Integrate.

本開示の第の態様の地図生成装置は、第1の態様または第2の態様の地図生成装置において、前記線分検出部は、前記複数の撮像画像各々から区画線の芯線を線分として検出する。 The map generator according to the third aspect of the present disclosure is the map generator according to the first aspect or the second aspect , wherein the line segment detection unit uses the core line of the dividing line as a line segment from each of the plurality of captured images. To detect.

本開示の第の態様の地図生成装置は、第1の態様から第の態様のいずれか1態様の地図生成装置において、前記平均化部は、前記系列の集合内で位置誤差の大きい上位n(nは1以上の整数)組の系列と、前記n組以外の系列を平均化する場合、前記n組以外の系列の線分の位置に近寄らせた線分を生成する。 The map generator according to the fourth aspect of the present disclosure is the map generator according to any one of the first to third aspects, wherein the averaging unit has a large position error in the set of the series. When averaging a series of n (n is an integer of 1 or more) and a series other than the n sets, a line segment is generated that is close to the position of the line segment of the series other than the n sets.

本開示の第の態様の地図生成装置は、第1の態様から第の態様のいずれか1態様の地図生成装置において、前記統合部は、前記平均化部で生成された複数の前記新たな線分の各々からなる複数の系列のうち、前記新たな線分の一致性が高い上位の系列を選別し、選別した系列の集合を再構築する。 The map generator according to the fifth aspect of the present disclosure is the map generator according to any one of the first to fourth aspects, wherein the integrated unit is a plurality of new devices generated by the averaging unit. From a plurality of series consisting of each of the line segments, the higher-order series having high matching of the new line segment is selected, and the set of the selected series is reconstructed.

また、上記目的を達成するために本開示の第8の態様のプログラムは、コンピュータを、車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部、前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の両端点の位置を表す座標を鳥瞰図における絶対座標に変換する投影部、前記線分検出部が検出した複数の線分を前記複数の撮像画像毎に1つの系列とし、前記両端点の前記絶対座標に基づく位置に基づいて、前記複数の撮像画像毎の各系列のうちから自系列の線分の両端点と他系列の線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記自系列と、前記他系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部、前記線分対応付部により対応付けられた前記自系列と、前記他系列との2系列間の線分の対応付けに基づいて、対応付けられた線分同士の対応する端点の中間の位置に端点が設けられた新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、前記線分対応付部による線分の対応付けと、前記平均化部による前記新たな線分から成る系列の生成とを、全ての系列に対して行わせて生成された複数の前記新たな線分の各々からなる複数の系列の集合を再構築する一連の処理を、繰り返し行わせることで、前記複数の撮像画像毎の各系列を1つの系列に統合する統合部、として機能させるためのものである。 Further, in order to achieve the above object, the program of the eighth aspect of the present disclosure uses a computer as a plurality of captured images obtained by capturing the same traveling section by an imaging unit mounted on a vehicle. For each of the line segment detection unit that detects the line segment and the plurality of line segments detected by the line segment detection unit, each line is based on the position information of the vehicle associated with each of the plurality of captured images. A projection unit that converts the coordinates representing the positions of both end points of a minute into absolute coordinates in a bird's-eye view, and a plurality of line segments detected by the line segment detection unit are made into one series for each of the plurality of captured images, and the end points are described. Based on the position based on the absolute coordinates, the position difference amount between the end points of the line segment of the own series and the end points of the line segment of the other series was calculated from each series of the plurality of captured images . With a line segment correspondence part that associates line segments so that the position difference amount becomes smaller between the two series of the own series and the other series based on the position difference amount, with the line segment correspondence. An end point is provided at a position in the middle of the corresponding end points of the associated line segments based on the correspondence of the line segments between the self-series and the other series associated with each other by the unit. A averaging unit that generates a new line segment and generates a series consisting of the new line segments , a line segment mapping by the line segment corresponding portion, and a series consisting of the new line segment by the averaging unit. By repeatedly performing a series of processes for reconstructing a set of a plurality of series consisting of each of the plurality of new line segments generated by performing the generation on all the series, the plurality of said. The purpose is to function as an integrated unit that integrates each series of captured images into one series .

本開示によれば、高精度な線地図を生成することができる、という効果が得られる。 According to the present disclosure, it is possible to obtain an effect that a highly accurate line map can be generated.

実施形態の地図生成システムの全体構成の一例を示すブロック図である。It is a block diagram which shows an example of the whole structure of the map generation system of an embodiment. 本開示の技術の一例の概要を示す図である。It is a figure which shows the outline of an example of the technique of this disclosure. 実施形態の地図生成装置のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the map generation apparatus of embodiment. 地図生成装置により実行される線地図生成処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the line map generation processing executed by the map generation apparatus. 撮像画像から線分検出部により検出された線分を、投影部によりEN座標にプロットした図(EN座標図)の一例を示す図である。It is a figure which shows an example of the figure (EN coordinate diagram) in which the line segment detected by the line segment detection part from the captured image is plotted in the EN coordinate by the projection part. 平行移動により重なる特徴点の組をインライアと判定する例を説明するための図である。It is a figure for demonstrating an example which determines a set of feature points that overlap by translation as an inlier. 線分対応付部による線分の対応付けを説明するための図である。It is a figure for demonstrating the correspondence of the line segment by the line segment correspondence part. 線分対応付部による平行移動量の補間を説明するための図である。It is a figure for demonstrating the interpolation of the translation amount by the line segment correspondence part. 平均化部による線分の平均化処理を説明するための図である。It is a figure for demonstrating the averaging process of the line segment by the averaging part. 統合部による複数の系列の統合について説明するための図である。It is a figure for demonstrating the integration of a plurality of series by an integration part. 線分対応付部により2系列の線分が対応付けられた状態の一例を示す図である。It is a figure which shows an example of the state in which two series of line segments are associated with each other by the line segment correspondence part. 統合部による図11Aに示した系列の線分の統合結果の一例を示す図である。It is a figure which shows an example of the integration result of the line segment of the series shown in FIG. 11A by the integration part. 図11Aに示した各系列の線分全体を平行移動させた場合の統合結果の一例を示す図である。It is a figure which shows an example of the integration result when the whole line segment of each series shown in FIG. 11A is translated in parallel. 系列Pの線分の一例を示す投影図である。It is a projection drawing which shows an example of the line segment of the series P. 系列Qの線分の一例を示す投影図である。It is a projection drawing which shows an example of the line segment of the series Q. 線分対応付部により図12A及び図12Bの2系列の線分が対応付けられた状態の一例を示す図である。It is a figure which shows an example of the state in which the two series of line segments of FIG. 12A and FIG. 12B are associated with each other by the line segment correspondence part. 統合部による図12Cに示した系列の線分の統合結果の一例を示す図である。It is a figure which shows an example of the integration result of the line segment of the series shown in FIG. 12C by the integration part.

以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、本実施形態の地図生成システムの全体構成について説明する。
図1は、本実施形態の地図生成システム1の全体構成の一例を示すブロック図である。本実施形態の地図生成システム1は、車両2に搭載された撮像部12により撮像された撮像画像から地図を生成する地図生成システムである。
First, the overall configuration of the map generation system of the present embodiment will be described.
FIG. 1 is a block diagram showing an example of the overall configuration of the map generation system 1 of the present embodiment. The map generation system 1 of the present embodiment is a map generation system that generates a map from an image captured by an image pickup unit 12 mounted on a vehicle 2.

図1に示すように、地図生成システム1は、地図生成装置10、撮像部12、測位部14、撮像画像データベース15、及び地図データベース18を備える。 As shown in FIG. 1, the map generation system 1 includes a map generation device 10, an image pickup unit 12, a positioning unit 14, an image pickup image database 15, and a map database 18.

撮像部12及び測位部14は、車両2に搭載されている。撮像部12は、具体的にはカメラ等であり、車両2の前方の道路を被写体とし、動画像の撮影、または所定のタイミングで静止画像の撮影を行う。測位部14は、車両2の現在位置を計測する機能を有しており、例えば、GPS(Global Positioning System)装置等が挙げられる。 The image pickup unit 12 and the positioning unit 14 are mounted on the vehicle 2. Specifically, the image pickup unit 12 is a camera or the like, and takes a moving image or a still image at a predetermined timing with the road in front of the vehicle 2 as a subject. The positioning unit 14 has a function of measuring the current position of the vehicle 2, and examples thereof include a GPS (Global Positioning System) device.

車両2からは、撮像部12により撮像された撮像画像に、当該撮像画像を撮像した際の測位部14の測位結果である車両2の位置が対応付けられた状態で、撮像画像データベース15に出力される。 The vehicle 2 outputs to the captured image database 15 in a state where the captured image captured by the imaging unit 12 is associated with the position of the vehicle 2, which is the positioning result of the positioning unit 14 when the captured image is captured. Will be done.

本実施形態の地図生成システム1では、同一の走行区間について、当該走行区間を走行する車両2に搭載された撮像部12により撮像された複数の撮像画像が、測位部14により得られた車両2の位置と対応付けられた状態で、撮像画像データベース15に記憶される。換言すると、撮像画像データベース15は、同一走行区間が撮影された複数の撮像画像を、撮像位置と対応付けられた状態で記憶する。 In the map generation system 1 of the present embodiment, a plurality of captured images captured by the imaging unit 12 mounted on the vehicle 2 traveling in the traveling section for the same traveling section are obtained by the positioning unit 14 of the vehicle 2. It is stored in the captured image database 15 in a state associated with the position of. In other words, the captured image database 15 stores a plurality of captured images captured in the same traveling section in a state associated with the captured position.

なお、図1には車両2を1台のみ図示したが、1台の車両2が、当該走行区間を複数回走行し、走行する毎に撮像部12により撮像された撮像画像を取得する形態であってもよいし、複数の車両2が同一の走行区間を走行する際に撮像部12により撮像された撮像画像を取得する形態であってもよい。図2に示す、本開示の技術の一例の概要では、車両2~2の4台の車両の各々が、撮像部12及び測位部14を搭載しており、道路Rを走行した際に、道路Rを撮像した形態を示している。この場合、撮像画像データベース15には、道路Rの撮像画像に、道路Rに対応する各車両2~2の位置が撮影位置として対応付けられた状態で記憶される。 Although only one vehicle 2 is shown in FIG. 1, one vehicle 2 travels in the traveling section a plurality of times, and each time the vehicle 2 travels, an image captured by the image pickup unit 12 is acquired. It may be in the form of acquiring an image captured by the image pickup unit 12 when a plurality of vehicles 2 travel in the same traveling section. In the outline of an example of the technology of the present disclosure shown in FIG. 2 , each of the four vehicles of the vehicles 21 to 24 is equipped with the image pickup unit 12 and the positioning unit 14, and when the vehicle travels on the road R, the image pickup unit 12 and the positioning unit 14 are mounted. , The form in which the road R is imaged is shown. In this case, the captured image database 15 stores the captured image of the road R in a state in which the positions of the vehicles 21 to 24 corresponding to the road R are associated with each other as the shooting position.

地図生成装置10は、線分検出部20、投影部22、線分対応付部24、平均化部26、及び統合部28を備える。 The map generation device 10 includes a line segment detection unit 20, a projection unit 22, a line segment corresponding attachment unit 24, an averaging unit 26, and an integration unit 28.

図3は地図生成装置10のハードウエア構成の一例を示す図である。図3に示すように、地図生成装置10は、各種制御及び各種演算を行うコンピュータとして構成されている。即ち、地図生成装置10は、CPU(Central Processing Unit)30A、ROM(Read Only Memory)30B、RAM(Random Access Memory)30C、不揮発性記憶部30D、入出力インターフェース(I/O)30E、及び通信部31を備えている。CPU30A、ROM30B、RAM30C、不揮発性記憶部30D、及びI/O30Eの各々は、バス30Fを介して接続されている。 FIG. 3 is a diagram showing an example of the hardware configuration of the map generator 10. As shown in FIG. 3, the map generator 10 is configured as a computer that performs various controls and various operations. That is, the map generator 10 includes a CPU (Central Processing Unit) 30A, a ROM (Read Only Memory) 30B, a RAM (Random Access Memory) 30C, a non-volatile storage unit 30D, an input / output interface (I / O) 30E, and communication. The unit 31 is provided. Each of the CPU 30A, ROM 30B, RAM 30C, non-volatile storage unit 30D, and I / O 30E is connected via the bus 30F.

通信部31は、I/O30Eに接続されている。通信部31は、通信回線を介して撮像画像データベース15や地図データベース18等の外部装置と通信を行うためのインターフェースである。 The communication unit 31 is connected to the I / O 30E. The communication unit 31 is an interface for communicating with an external device such as a captured image database 15 or a map database 18 via a communication line.

本実施形態の地図生成装置10では、ROM30Bには、後述する「線地図生成処理」を実行するためのプログラムが記憶されている。CPU30Aは、ROM30Bに記憶されたプログラムを読み出し、RAM30Cをワークエリアとして使用してプログラムを実行する。CPU30Aが、ROM30Bに記憶されたプログラムを実行することにより、CPU30Aが、線分検出部20、投影部22、線分対応付部24、平均化部26、及び統合部28の各々として機能する。 In the map generation device 10 of the present embodiment, the ROM 30B stores a program for executing the "line map generation process" described later. The CPU 30A reads out the program stored in the ROM 30B and executes the program using the RAM 30C as a work area. When the CPU 30A executes the program stored in the ROM 30B, the CPU 30A functions as each of the line segment detection unit 20, the projection unit 22, the line segment corresponding unit 24, the averaging unit 26, and the integration unit 28.

線分検出部20は、撮像画像データベース15から取得した複数の撮像画像の各々から、特徴点の組を線分として検出する。線分検出部20は、撮像画像から、道路Rの区間線分等を含む複数の線分を検出する。線分検出部20は、線分の検出結果と、撮像位置が対応付けられた撮像画像とを、投影部22に出力する。 The line segment detection unit 20 detects a set of feature points as a line segment from each of the plurality of captured images acquired from the captured image database 15. The line segment detection unit 20 detects a plurality of line segments including a section line segment of the road R from the captured image. The line segment detection unit 20 outputs the line segment detection result and the captured image associated with the imaging position to the projection unit 22.

投影部22は、線分検出部20が検出した複数の線分の各々について、各撮像画像の撮像位置に基づいて、各線分の位置を表す座標を絶対座標に変換する。以下、説明の便宜上、各撮像画像から検出された複数の線分を、絶対座標に変換した画像を「投影画像」という。図2に示した例では、車両21により撮像された撮像画像からは、区画線90を表す線分91を含む投影画像50が得られる。同様に、車両21により撮像された撮像画像からは、区画線90を表す線分91を含む投影画像50が得られ、車両21により撮像された撮像画像からは、区画線90を表す線分91を含む投影画像50が得られ、車両21により撮像された撮像画像からは、区画線90を表す線分91を含む投影画像50が得られる。 The projection unit 22 converts the coordinates representing the position of each line segment into absolute coordinates for each of the plurality of line segments detected by the line segment detection unit 20 based on the imaging position of each captured image. Hereinafter, for convenience of explanation, an image obtained by converting a plurality of line segments detected from each captured image into absolute coordinates is referred to as a “projected image”. In the example shown in FIG. 2, the projected image 501 including the line segment 91 1 representing the lane marking 90 is obtained from the captured image captured by the vehicle 211. Similarly, a projected image 502 including a line segment 912 representing a line segment 90 is obtained from the captured image captured by the vehicle 211 , and a lane marking 90 is obtained from the captured image captured by the vehicle 213 . A projected image 503 including the line segment 913 representing the line segment 913 is obtained , and a projected image 504 including the line segment 914 representing the line segment 90 is obtained from the captured image captured by the vehicle 214 .

なお、以下では、各投影画像(撮像画像)毎に検出した複数の線分を1つの系列として扱う。 In the following, a plurality of line segments detected for each projected image (captured image) will be treated as one series.

線分対応付部24は、各系列の線分について、他系列の線分の端点と、自系列の線分の端点との位置の誤差が、各系列における複数の線分全体で最も小さくなるように各線分の対応付けを行う。線分対応付部24は、各線分についての対応付結果を平均化部26に出力する。 In the line segment corresponding portion 24, for each series of line segments, the difference in position between the end points of the line segments of the other series and the end points of the line segments of the own series is the smallest in all of the plurality of line segments in each series. The line segments are associated with each other as described above. The line segment correspondence unit 24 outputs the correspondence result for each line segment to the averaging unit 26.

平均化部26は、線分対応付部24により対応付けられた2系列各々の線分に対し、線分の中間の位置に新たな線分を生成する。図2に示した例では、投影画像50における線分の系列と、投影画像50における線分の系列とに対し、線分対応付部24による線分対応付けを行い、平均化部26により、投影画像50 における線分の系列に含まれる線分91 と、投影画像50 における線分の系列に含まれる線分91 とから線分9212を生成した状態を示している。また、投影画像50における線分の系列と、投影画像50における線分の系列とに対し、線分対応付部24による線分対応付けを行い、平均化部26により、投影画像50 における線分の系列に含まれる線分91 と、投影画像50 における線分の系列に含まれる線分91 とから線分9234を生成した状態を示している。 The averaging unit 26 generates a new line segment at a position in the middle of the line segment for each of the line segments of the two series associated with the line segment corresponding unit 24. In the example shown in FIG . 2 , the line segment sequence in the projected image 501 and the line segment sequence in the projected image 501 are associated with the line segment by the line segment corresponding unit 24, and the averaging unit 26 is used. The line segment 92 12 is generated from the line segment 91 1 included in the line segment series in the projected image 501 and the line segment 91 2 included in the line segment series in the projected image 501 . .. Further, the line segment sequence in the projected image 503 and the line segment sequence in the projected image 504 are associated with the line segment by the line segment corresponding portion 24 , and the projected image 503 is performed by the averaging unit 26. The state in which the line segment 92 34 is generated from the line segment 913 included in the line segment series in the above and the line segment 914 included in the line segment series in the projected image 504 is shown.

統合部28は、平均化部26が生成した線分に基づいて、複数の系列間で対応付けられた複数の線分を統合する。具体的には、統合部28は、上記線分対応付部24及び平均化部26の各処理を繰り返し行わせ、各線分の位置を、収束させる。図2に示した例では、統合部28は、線分9212を含む系列と、線分9234を含む系列とについて、線分対応付部24及び平均化部26の各処理を繰り返させて、線分9212と線分9234とを、線分941234の位置に収束させる。なお、本実施形態での統合部28は、複数の系列について、線分対応付部24及び平均化部26の各処理を繰り返させる際、平均化部26で線分音一致性が高い系列を選別することで、複数の系列により成る集合を再構築する(詳細後述)。 The integration unit 28 integrates a plurality of line segments associated with each other among the plurality of series based on the line segments generated by the averaging unit 26. Specifically, the integration unit 28 repeatedly performs each process of the line segment corresponding unit 24 and the averaging unit 26, and converges the position of each line segment. In the example shown in FIG. 2, the integrated unit 28 repeats each process of the line segment corresponding unit 24 and the averaging unit 26 for the series including the line segment 92 12 and the series including the line segment 92 34 . , The line segment 92 12 and the line segment 92 34 are converged to the position of the line segment 94 1234 . In addition, in the integrated unit 28 in the present embodiment, when each process of the line segment corresponding unit 24 and the averaging unit 26 is repeated for a plurality of series, the averaging unit 26 produces a series having high line segment sound matching. By sorting, a set consisting of multiple series is reconstructed (details will be described later).

統合部28により収束された線分の位置を表す情報は、地図データベース18に出力される。地図生成装置10は、複数の走行区間毎に、上記線分検出部20~統合部28の処理を繰り返し、各線分の位置を表す情報を地図データベース18に出力する。本実施形態の地図生成システム1では、各走行区間毎の各線分の位置を表す情報を、走行区間の位置に応じて繋げることで、線地図が得られる。 The information representing the position of the line segment converged by the integration unit 28 is output to the map database 18. The map generation device 10 repeats the processes of the line segment detection unit 20 to the integration unit 28 for each of the plurality of traveling sections, and outputs information indicating the position of each line segment to the map database 18. In the map generation system 1 of the present embodiment, a line map can be obtained by connecting information indicating the position of each line segment for each traveling section according to the position of the traveling section.

次に、本実施形態の地図生成装置10の作用について詳細に説明する。CPU30AがROM30Bに記憶されたプログラムを実行することによって、図4に示す線地図生成処理が実行される。図4には、本実施形態の地図生成装置10で実行される線地図生成処理の流れの一例を表すフローチャートが示されている。なお、一例として本実施形態の地図生成装置10では、予め定められたタイミング毎や、各走行区間毎に予め定められた数の撮像画像が撮像画像データベース15に格納されたタイミング毎に、図4に一例を示した線地図生成処理が実行される。 Next, the operation of the map generation device 10 of the present embodiment will be described in detail. When the CPU 30A executes the program stored in the ROM 30B, the line map generation process shown in FIG. 4 is executed. FIG. 4 shows a flowchart showing an example of the flow of the line map generation process executed by the map generation device 10 of the present embodiment. As an example, in the map generation device 10 of the present embodiment, FIG. 4 is taken at each predetermined timing and at each timing when a predetermined number of captured images are stored in the captured image database 15 for each traveling section. The line map generation process shown in 1 is executed.

ステップS100で線分検出部20は、撮像画像データベース15から取得した撮像画像から線分を検出する。線分検出部20が、撮像画像から線分を検出する方法は特に限定されないが、一例として本実施形態の線分検出部20は、撮像画像から、区画線の芯線を表す線分を、二値化、距離変換、及びハフ変換を行うことにより検出する。線分検出部20は、距離変換した撮像画像の各行に対し、距離値について、当該距離値が左右の画素における距離値よりも大きい峰部分をハフ空間に投影する。検出する線分の上下の端点は、距離値が0(ゼロ)ではない上限及び下限より求められる。 In step S100, the line segment detection unit 20 detects a line segment from the captured image acquired from the captured image database 15. The method by which the line segment detection unit 20 detects a line segment from the captured image is not particularly limited, but as an example, the line segment detection unit 20 of the present embodiment captures two line segments representing the core wire of the dividing line from the captured image. Detect by digitizing, distance transforming, and Hough transforming. The line segment detection unit 20 projects, with respect to each row of the captured image obtained from the distance conversion, a peak portion in which the distance value is larger than the distance value in the left and right pixels into the huff space. The upper and lower end points of the line segment to be detected are obtained from the upper limit and the lower limit where the distance value is not 0 (zero).

なお、本実施形態の線分検出部20は、同一走行区間を撮像した複数の撮像画像について、本処理及び以下の処理を行う。 The line segment detection unit 20 of the present embodiment performs this processing and the following processing on a plurality of captured images captured in the same traveling section.

次のステップS102で投影部22は、上記ステップS100で検出した線分を投影し、鳥瞰図における絶対座標にする。一例として、本実施形態の投影部22は、検出した線分を右が東、上が北となるEN(East-North)座標に変換する。下記(1)式~(4)式の変換式により、各線分の端点の座標を変換する。 In the next step S102, the projection unit 22 projects the line segment detected in the step S100 to obtain the absolute coordinates in the bird's-eye view. As an example, the projection unit 22 of the present embodiment converts the detected line segment into EN (East-North) coordinates such that the right side is east and the top side is north. The coordinates of the end points of each line segment are converted by the conversion formulas (1) to (4) below.

具体的には、撮像画像の撮像面が、道路Rの路面に対し、ほぼ垂直と仮定した場合の、撮像画像の座標と、撮像部12の中心座標との変換を、(1)式及び(2)式により行う。
f:(v-v)=z:y ・・・(1)
f:(u-u)=z:x ・・・(2)
Specifically, when it is assumed that the image pickup surface of the image pickup image is substantially perpendicular to the road surface of the road R, the conversion between the coordinates of the image pickup image and the center coordinates of the image pickup unit 12 is performed in the equation (1) and (1). 2) Eq.
f: (vv 0 ) = z: y ... (1)
f: (u-u 0 ) = z: x ... (2)

なお、上記(1)式及び(2)式において、(u,v)は、撮像画像中の座標[pix]であり、(x、z)は、撮像部12の中心座標、右手方向x[m]と進行方向z[m]である。また、fは、撮像部12の焦点距離[pix]であり、yは、車両2における撮像部12が設置されている位置の高さ[m]であり、(u,v)は、撮像画像中の消失点の座標[pix]である。 In the above equations (1) and (2), (u, v) are the coordinates [pix] in the captured image, and (x, z) are the center coordinates of the imaging unit 12 and x [in the right-hand direction. m] and the traveling direction z [m]. Further, f is the focal length [pix] of the image pickup unit 12, y is the height [m] of the position where the image pickup unit 12 is installed in the vehicle 2, and (u 0 , v 0 ) is. The coordinates [pix] of the vanishing point in the captured image.

また、撮像部12の中心座標からEN座標への変換には、下記(3)式及び(4)式を用いる。
e=e+(x+Δx)cosθ+(z+Δz)sinθ ・・・(3)
n=n+(x+Δx)sinθ+(z+Δz)cosθ ・・・(4)
Further, the following equations (3) and (4) are used for the conversion from the center coordinates of the imaging unit 12 to the EN coordinates.
e = e 0 + (x + Δx) cosθ + (z + Δz) sinθ ・ ・ ・ (3)
n = n 0 + (x + Δx) sinθ + (z + Δz) cosθ ... (4)

なお、上記(3)式及び(4)式において、(e,n)は、EN座標[m]であり、(e,n)は、測位部14により得られた車両2の基準位置のEN座標[m]である。また、(Δx,Δz)は、車両2の基準位置に対する撮像部12の相対位置[m]であり、θは、車両2の方位角(北が0で、時計回りを正とする)[rad]である。 In the above equations (3) and (4), (e, n) is the EN coordinate [m], and (e 0 , n 0 ) is the reference position of the vehicle 2 obtained by the positioning unit 14. EN coordinate [m]. Further, (Δx, Δz) is the relative position [m] of the image pickup unit 12 with respect to the reference position of the vehicle 2, and θ is the azimuth angle of the vehicle 2 (north is 0 and clockwise is positive) [rad). ].

図5には、車両2の撮像部12により撮像された撮像画像から線分検出部20により検出された線分を、投影部22によりEN座標にプロットした図(EN座標図)の一例を示す。図5に例示したように、区間線以外の不要物体の線分等も後検出されている。 FIG. 5 shows an example of a diagram (EN coordinate diagram) in which a line segment detected by the line segment detection unit 20 from an image captured by the image pickup unit 12 of the vehicle 2 is plotted on EN coordinates by the projection unit 22. .. As illustrated in FIG. 5, line segments and the like of unnecessary objects other than section lines are also detected afterwards.

次のステップS104で線分対応付部24は、上記ステップS102によりEN座標に変換された各線分の端点に、下記参考文献1のスペクトル照合を応用し、複数の系列の線分について1体1の対応付けを導出する。
[参考文献1]M. Leordeanu and M. Hebert, “A spectral technique for correspondence problems using pairwise constraints," Proc. 10th IEEE Int. Conf. on Computer Vision, vol. 2, pp. 1482-1489, Beijing, China, Oct. 2005.
In the next step S104, the line segment corresponding unit 24 applies the spectral matching of the following reference 1 to the end points of each line segment converted into EN coordinates in the above step S102, and applies one body 1 for a plurality of series of line segments. Derivation of the mapping of.
[Reference 1] M. Leordeanu and M. Hebert, “A spectral technique for correspondence problems using pairwise constraints,” Proc. 10th IEEE Int. Conf. On Computer Vision, vol. 2, pp. 1482-1489, Beijing, China , Oct. 2005.

ここで、参考として、系列Pに含まれる複数の特徴点と、系列Qに含まれる複数の特徴点を対応付ける問題を考える。以下、系列Pに含まれる特徴点数を|P|とし、系列Qに含まれる特徴点数を|Q|とする。系列P、及び系列Qの各々から2点ずつ特徴点を抽出し、各々pi1,pj1∈P、及びqi2,qj2∈Qと表す。点pi1及び点qi2との対応関係が、点pj1及び点qj2との間にも成立するとき、(i1,i2)と、(j1,j2)とは、インライアを構成する組とみなす。図6には、平行移動により重なる特徴点の組をインライアと判定する例を示す。 Here, as a reference, consider the problem of associating a plurality of feature points included in the series P with a plurality of feature points included in the series Q. Hereinafter, the number of feature points included in the series P is | P |, and the number of feature points included in the series Q is | Q |. Two feature points are extracted from each of the series P and the series Q, and are expressed as p i1 , p j1 ∈ P, and q i2 , q j2 ∈ Q, respectively. When the correspondence between the points p i1 and the point q i2 also holds between the points p j1 and the point q j2 , (i1, i2) and (j1, j2) are the set constituting the inlier. I reckon. FIG. 6 shows an example of determining a set of feature points that overlap due to translation as an inlier.

(i1,i2)と、(j1,j2)とは同じ平行移動量により重なる組である一方、別の点qk2∈Qを含む(j1,k2)の組は、これを満たさない。この事象を表現するために、要素数|P||Q|×|P||Q|の行列Mを定義し、上記に対応する要素M((i1,i2),(j1,j2))に「1」を、そうではない組に「0」を設定する。全要素の設定後、下記処理により全体で最適かつ重複のない要素間対応付け結果を求められる。 While (i1, i2) and (j1, j2) are overlapping sets with the same translation amount, the set of (j1, k2) including another point q k2 ∈ Q does not satisfy this. In order to express this event, a matrix M of the number of elements | P || Q | × | P || Q | is defined, and the elements M ((i1, i2), (j1, j2)) corresponding to the above are defined. Set "1" and "0" for other pairs. After setting all the elements, the following processing is used to obtain the optimum and consistent inter-element mapping result as a whole.

まず、行列Mの第1主成分に対応する固有ベクトルxをべき乗法により求める。そして、要素数|P||Q|×1のxを要素数|P|×|Q|の行列Xに再編成する。さらに、Hungarian法を適用し、1対1対応の対応関係を求める。例えば、図6に示した例では、インライアの組(i1,i2);(j1,j2)は、行列Mから再編成された行列Xの要素より識別できる。 First, the eigenvector x corresponding to the first principal component of the matrix M is obtained by the power method. Then, x of the number of elements | P | | Q | × 1 is reorganized into the matrix X of the number of elements | P | × | Q |. Furthermore, the Hungarian method is applied to obtain a one-to-one correspondence. For example, in the example shown in FIG. 6, the set of inliers (i1, i2); (j1, j2) can be identified by the elements of the matrix X reorganized from the matrix M.

次に、上記ステップS102により得られた、ある投影画像における系列P、及び他の投影画像における系列Q中の線分を対応付ける問題を考える。上記参考文献1における手法との相違点は、照合の単位を点から線分に置き換えていること、及び行列Mに格納する値を線分の端点位置差分に置き換えていることである。線分はEN座標を要素とする両端点2点により表される。図7に示す例のように、各走行より2線分を選択し、pi1,p’i1,pj1,p’j1∈P、qi2,q’i2,qj2,q’j2∈Qと表す。組(i1,i2)に対応する位置差分量vi1,i2を下記(5)式により導出する。

Figure 0007028206000001
Next, consider the problem of associating the line segments in the sequence P in one projected image and the sequence Q in another projected image obtained in step S102. The difference from the method in Reference 1 is that the unit of collation is replaced with a line segment from a point, and the value stored in the matrix M is replaced with the end point position difference of the line segment. The line segment is represented by two points at both ends whose elements are EN coordinates. As shown in the example shown in FIG. 7, two line segments are selected from each run, and p i1 , p'i1 , p j1 , p'j1 ∈ P, q i2 , q'i2 , q j2 , q'j2 ∈ Q. It is expressed as. The position difference amount v i1 and i2 corresponding to the set (i1 and i2) are derived by the following equation (5).
Figure 0007028206000001

続いて、組(i1,i2)及び(j1,j2)のインライアらしさを表す値を、上記(5)式により得られる位置差分量を適用後の端点位置差分をもとに算出し、行列Mに格納する。行列Mは、下記(6)式により表される。

Figure 0007028206000002
Subsequently, the values representing the inliar-likeness of the sets (i1, i2) and (j1, j2) are calculated based on the endpoint position difference after applying the position difference amount obtained by the above equation (5), and the matrix M Store in. The matrix M is represented by the following equation (6).
Figure 0007028206000002

この値は、両線分の端点が位置差分量を適用後に完全に一致するとき「1」となり、離れるほど「0」に近付く。上記(6)式におけるλは。大きな平行移動量を抑制するための重みであり、測位精度を考慮し下記(7)式により定義する。

Figure 0007028206000003
This value becomes "1" when the end points of both line segments completely match after applying the position difference amount, and becomes closer to "0" as the distance increases. Λ in the above equation (6) is. It is a weight for suppressing a large amount of parallel movement, and is defined by the following equation (7) in consideration of positioning accuracy.
Figure 0007028206000003

系列Pまたは、系列Qに含める線分は次のように選別する。上記ステップS100及びS102により得られた投影画像各々における複数の線分の中で、両端点の位置の一致(例えば、距離が0.5m未満)する線分が複数フレームに存在するものの確信度を1とし、照合対象とする。それ以外の線分は、確信度を0とし、本処理(線分対応付)には用いない。なお、本処理に用いなかった線分も後段の処理(S108の処理)には用いる。 The line segments included in the series P or the series Q are selected as follows. Among the plurality of line segments in each of the projected images obtained in steps S100 and S102, the certainty that the line segments in which the positions of both end points match (for example, the distance is less than 0.5 m) exists in the plurality of frames. It is set to 1 and is used as a collation target. The other line segments have a certainty of 0 and are not used in this processing (with line segment correspondence). The line segment not used in this process is also used in the subsequent process (process of S108).

すなわち、位置差分量適用後における線分の両端の位置の差分が小さい組は、インライアとなる。これにより、体表的な点を対応付けて、線分を合わせるポイントを抽出する。 That is, a set in which the difference between the positions at both ends of the line segment after applying the amount of position difference is small is an inlier. As a result, the points on which the line segments are aligned are extracted by associating the points on the body surface.

次のステップS106で線分対応付部24は、線分の移動量を補間する。まず、インライアと判定された線分の組について、上記(5)式の位置差分量が算出されたものとする。もし、系列P及び系列Qが大局的な平行移動により一致する場合は、固有ベクトルxの最大要素に対応する線分組の位置差分量が、系列P,Q間の位置差分量とみなせる。しかし実際は、測位部14の軌跡誤差の影響等で局所的な歪みが発生する。したがって、線分対応付部24によって得られた1対1対応の線分組の中から、固有ベクトルxの要素の大きい、上位n組を利用する。本処理によって、適切なnの値が求められる。後段の処理では、上位n組の線分の組を制御点とし、その中間に存在する線分の位置差分量を線形補間することで、系列を重ね合わせることができる。 In the next step S106, the line segment corresponding unit 24 interpolates the movement amount of the line segment. First, it is assumed that the position difference amount in the above equation (5) is calculated for the set of line segments determined to be inliers. If the series P and the series Q match due to global translation, the position difference amount of the line segment set corresponding to the maximum element of the eigenvector x can be regarded as the position difference amount between the series P and Q. However, in reality, local distortion occurs due to the influence of the trajectory error of the positioning unit 14. Therefore, from the one-to-one correspondence line segment sets obtained by the line segment correspondence attachment unit 24, the upper n sets having a large element of the eigenvector x are used. By this process, an appropriate value of n is obtained. In the subsequent processing, the series can be superposed by linearly interpolating the position difference amount of the line segments existing in the middle of the control points of the upper n sets of line segments.

図5に、線分対応付部24による補間の例を示す。組(i1,i2)及び(k1,k2)は、上位n組に該当するインライアとする。進行方向に沿ってそれらの中間に位置する線分pj1p’j1∈Pの位置差分量vj1は、前後の両線分pi1p’i1,pk1p’k1∈Pの位置差分量から、下記(8)式及び(9)式により導出される。

Figure 0007028206000004
FIG. 5 shows an example of interpolation by the line segment corresponding portion 24. The pairs (i1, i2) and (k1, k2) are inliers corresponding to the upper n pairs. The position difference amount v j1 of the line segment p j1 p'j1 P located in the middle of them along the traveling direction is the position difference amount of the front and rear line segments p i1 p'i1 and p k1 p'k1 ∈ P. Is derived from the following equations (8) and (9).
Figure 0007028206000004

なお、片側のみに制御点が存在する場合は、外挿せず最近傍の位置差分量をそのまま適用する。例えば、パラメータnの上限を10として、その範囲で系列P,Q間全体の線分の位置差分が最も小さくなるように、パラメータnを決定する。全体の線分の位置差分は下記(10)式により導出される。

Figure 0007028206000005
If the control point exists on only one side, the nearest neighbor position difference amount is applied as it is without extrapolation. For example, the upper limit of the parameter n is set to 10, and the parameter n is determined so that the position difference of the entire line segment between the series P and Q is the smallest in that range. The position difference of the entire line segment is derived by the following equation (10).
Figure 0007028206000005

次のステップS108で平均化部26は、各線分を平均化する。本ステップの処理は、上記確信度の値に関わらず、全ての線分を処理の対象とする。パラメータnが定まり、統合に用いる対応付けの組が確定したら、線分対応付部24によって導出された位置差分量に基づいて、系列P及び系列Q各々の全線分に平行移動処理を適用する。 In the next step S108, the averaging unit 26 averages each line segment. In the processing of this step, all line segments are targeted for processing regardless of the above-mentioned certainty value. When the parameter n is determined and the set of correspondences used for integration is determined, the translation process is applied to all the line segments of the series P and the series Q based on the position difference amount derived by the line segment corresponding attachment unit 24.

位置差分量の算出には上記(8)式及び(9)式の補間式を利用する。系列Pの線分j1の平行移動量tj1は下記(11)式で導出され、系列Qの線分j2の平行移動量tj2は下記(12)式で導出される。下記(11)式及び(12)式に示すように、平行移動量の導出には、線分対応付部24により導出された固有ベクトルxの最大要素を与える組の位置差分量vを利用する。断りのない限り、係数kを1/2(k=1/2)とする。v/2ずつ平行移動させた位置は、系列P,Q間の最も信頼できる中間位置とみなすことができるからである。なお、詳細は後述するが、いずれかの系列が信用できない(位置が外れている)場合等は、k=1/2とせず、係数kの値を信用できる系列に合わせた値に調整する。

Figure 0007028206000006
The interpolation formulas of the above equations (8) and (9) are used to calculate the position difference amount. The translation amount t j1 of the line segment j1 of the series P is derived by the following equation (11), and the translation amount t j2 of the line segment j2 of the series Q is derived by the following equation (12). As shown in the following equations (11) and (12), the position difference amount v * of the set that gives the maximum element of the eigenvector x derived by the line segment corresponding unit 24 is used for deriving the translation amount. .. Unless otherwise specified, the coefficient k is 1/2 (k = 1/2). This is because the position translated by v * / 2 can be regarded as the most reliable intermediate position between the series P and Q. The details will be described later, but if any of the series is unreliable (the position is out of alignment), k = 1/2 is not set, and the value of the coefficient k is adjusted to a value that matches the reliable series.
Figure 0007028206000006

平均化部26は、線分対応付部24の結果に基づいて、入力系列P,Qを平均化し、新たに平均化後の系列Rを生成する。一例として、図9には、系列Pの線分pj1p’j1と系列Rの線分qj2q’j2を平均化し、系列Rの線分rj1,j2r’j1,j2を生成した例を示す。 The averaging unit 26 averages the input series P and Q based on the result of the line segment corresponding unit 24, and newly generates the averaging series R. As an example, in FIG. 9, the line segment p j1 p'j1 of the sequence P and the line segment q j2 q'j2 of the sequence R are averaged to generate the line segments r j1, j2 r'j1, j2 of the sequence R. An example is shown.

系列Rの線分を、rj1,j2r’j1,j2と表し、確信度をc(rj1,j2)と表すと、系列Rの線分の端点の位置rj1,j2は下記(13)式で表され、両端点の距離dは下記(14)式で表され、及び確信度c(rj1,j2)は下記(15)式で表される。なお、下記(13)式~(15)式において、線分pj1p’j1の確信度をc(pj1)、線分qj2q’j2の確信度をc(qj2)とする。

Figure 0007028206000007
When the line segment of the series R is expressed as r j1, j2 r'j1, j2 and the certainty is expressed as c (r j1, j2 ), the positions r j1 and j2 of the end points of the line segment of the series R are as follows (13). ), The distance d between both ends is expressed by the following equation (14), and the certainty c (r j1, j2 ) is expressed by the following equation (15). In the following equations (13) to (15), the certainty of the line segment p j1 p'j1 is c (p j1 ), and the certainty of the line segment q j2 q'j2 is c (q j2 ).
Figure 0007028206000007

1線分に対し他系列の複数の線分が対象となる場合、確信度c(rj1,j2)が最大となる線分の組に対し出力系列Rの線分rj1,j2r’j1,j2を生成する。 When multiple line segments of other series are targeted for one line segment, the line segment of the output series R r j1, j2 r'j1 for the set of line segments having the maximum certainty c (r j1 , j2 ). , J2 is generated.

なお、確信度が1となる系列Rの線分を生成しなかった系列P,Qにおける確信度が1の線分については、平行移動適用後の線分を系列Rに確信度を1として登録する。例えば、図9に示した例では、系列Pにおける確信度が1の線分pl1p’l1について、対応付けられた系列Qの線分がなく、確信度が1とな系列Rの線分を生成しなかったため、平行移動適用後の線分rl1,*r’l1,*を系列Rに確信度を1として登録する。 For the line segments with a certainty of 1 in the series P and Q that did not generate the line segment of the series R with a certainty of 1, the line segment after the translation application is registered in the series R with the certainty of 1. do. For example, in the example shown in FIG. 9, for the line segment p l1 p'l1 with a certainty degree of 1 in the series P, there is no line segment of the associated series Q and the line segment of the series R has a certainty degree of 1. Is not generated, so the line segments r l1, * r'l1, * after translation application are registered in the series R with a certainty of 1.

次のステップS110で統合部28は、集団内の全系列の組の処理を完了したか否かを判定する。未だ集団内の全系列の組の処理を完了していない場合、ステップS110の判定が否定判定となり、ステップS112へ移行する。ステップS112で統合部28は、正規化確信度に基づいて、系列を再構築した後、ステップS104に戻り、再構築した系列に基づいてステップS104~S108の各処理を繰り返す。一方、集団内の全系列の組の処理を完了した場合、ステップS110の判定が肯定判定となり、本線地図生成処理を終了する。 In the next step S110, the integration unit 28 determines whether or not the processing of all the sets in the group has been completed. If the processing of all the sets in the group has not been completed yet, the determination in step S110 becomes a negative determination, and the process proceeds to step S112. In step S112, the integration unit 28 reconstructs the sequence based on the normalization certainty, then returns to step S104, and repeats each process of steps S104 to S108 based on the reconstructed sequence. On the other hand, when the processing of all the sets in the group is completed, the determination in step S110 becomes an affirmative determination, and the main line map generation processing ends.

本実施形態では、複数系列の線分を統合する場合、例えば、道路Rの車線毎に系列の集合{A1,A2,A3,A4・・・}、及び{B1,b2,b3,b4・・・}を定義し、各集合内の全組み合わせについて、上記ステップS108の平均化部26による平均化を実施する。 In the present embodiment, when integrating a plurality of line segments, for example, a set of series {A1, A2, A3, A4 ...} For each lane of the road R, and {B1, b2, b3, b4 ... •} Is defined, and all combinations in each set are averaged by the averaging unit 26 in step S108.

ステップS108の処理により確信度が「未定」とされた線分については、集合内で1組でも他系列と対応付けが可能な事例があった場合は、確信度を1とし、当該事例がなかった場合は、確信度を0とする。 For line segments whose conviction is "undecided" by the processing of step S108, if there is a case in which even one set can be associated with another series, the conviction is set to 1 and there is no such case. If so, the degree of certainty is set to 0.

正規化確信度の大きい順に出力数系列(例えば、8系列)を選別し、次のステップ用の集合を再構築する。正規化確信度は、例えば、下記(16)式により表される。
正規化確信度=(上記(15)式のexp(-d)を出力系列内で総和した値)/(検出線分数×走行距離) ・・・(16)
The output number series (for example, 8 series) is selected in descending order of normalization certainty, and the set for the next step is reconstructed. The normalization conviction is expressed by, for example, the following equation (16).
Normalization certainty = (value obtained by summing exp (-d) of the above equation (15) in the output series) / (detection line fraction x mileage) ... (16)

同じ系列の組み合わせが重複する場合、例えば、図10に示した例では、「A123」の場合、正規化確信度が最大の系列を採用する。 When the combination of the same series is duplicated, for example, in the example shown in FIG. 10, in the case of "A123", the series having the maximum normalization certainty is adopted.

測位部14における大きな測定誤差を除外するため、移動量vのノルム||v||を集合中で平均した値が大きい順に、上位の何割か(例えば、4割等)に入る系列を、位置の外れた系列とみなし、線分(端点)の位置を調整する。対応付ける系列を系列P、Qとした場合、以下のいずれかの態様をとる。 In order to exclude a large measurement error in the positioning unit 14, a series that is in the top percentage (for example, 40%) in descending order of the average value of the norm || v * || of the movement amount v * in the set is selected. , It is regarded as a series that is out of position, and the position of the line segment (end point) is adjusted. When the associated series is the series P and Q, one of the following modes is taken.

系列Pが上記に該当する場合、上記(11)式及び(12)式において係数kを1(k=1)とする。また、系列Qが上記に該当する場合、上記(11)式及び(12)式において係数kを0(k=0)とする。また、系列P,Qの両方が上記に該当する場合、系列P,Qから系列P,Q以外への移動量vを小集団内で平均した移動量を加算する。 When the series P corresponds to the above, the coefficient k is set to 1 (k = 1) in the above equations (11) and (12). When the series Q corresponds to the above, the coefficient k is set to 0 (k = 0) in the above equations (11) and (12). If both the series P and Q correspond to the above, the movement amount obtained by averaging the movement amount v * from the series P and Q to other than the series P and Q is added.

一例としては、集合内の統合回数を2回、集合間の統合回数を1回とし、統合部28は、最終的に正規化確信度が最大の系列を統合結果として地図データベース18へ出力する。 As an example, the number of integrations in the set is set to 2 and the number of integrations between the sets is set to 1, and the integration unit 28 finally outputs the series having the maximum normalization certainty to the map database 18 as the integration result.

例えば図10に示した例では、ある車線について、各々異なる系列から検出された線分A1、A2、A3、及びA4を用い、上記S104~S108の処理により線分A1及び線分A2から線分A12を生成し、線分A1及び線分A3から線分A13を生成し、線分A2及び線分A3から線分A23を生成し、線分A3及び線分A4から線分A34を生成した場合を示している。さらに、上記ステップS104~S108の処理を繰り返し、線分A12及び線分A13から線分A123を生成し、線分A13及び線分A23から線分A123を生成し、線分A12及び線分A34から線分A1234を生成する。この場合、線分A123は重複するため、正規化確信度が高い組み合わせの線分、図10に示した例では、線分A12及び線分A13の組み合わせによる線分A123を採用する。 For example, in the example shown in FIG. 10, for a certain lane, the lines A1, A2, A3, and A4 detected from different sequences are used, and the lines A1 and A2 are separated by the processing of S104 to S108. When A12 is generated, line A13 is generated from line A1 and line A3, line A23 is generated from line A2 and line A3, and line A34 is generated from line A3 and line A4. Is shown. Further, the processes of steps S104 to S108 are repeated to generate line segment A123 from line segment A12 and line segment A13, line segment A123 from line segment A13 and line segment A23, and line segment A12 and line segment A34. Generate line segment A1234. In this case, since the line segments A123 overlap, a line segment A123 having a high degree of certainty of normalization, and in the example shown in FIG. 10, a combination of the line segments A12 and the line segment A13 is adopted.

また、各々異なる系列から検出された線分B1、B2、B3、及びB4を用い、上記S104~S108の処理により線分B1及び線分B2から線分B12を生成し、線分B1及び線分B3から線分B13を生成し、線分B2及び線分B4から線分B24を生成し、線分B3及び線分B4から線分B34を生成した場合を示している。さらに、上記ステップS104~S108の処理を繰り返し、線分B13及び線分B24から線分B1234を生成する。この場合、線分B12及び線分B34は正規化確信度が低い組み合わせの線分であるため、統合に用いない。 Further, using the line segments B1, B2, B3, and B4 detected from different series, the line segment B1 and the line segment B2 are generated from the line segment B1 and the line segment B2 by the processing of the above S104 to S108, and the line segment B1 and the line segment are generated. The case where the line segment B13 is generated from B3, the line segment B24 is generated from the line segment B2 and the line segment B4, and the line segment B34 is generated from the line segment B3 and the line segment B4 is shown. Further, the process of steps S104 to S108 is repeated to generate a line segment B1234 from the line segment B13 and the line segment B24. In this case, the line segment B12 and the line segment B34 are not used for integration because they are a combination of line segments having a low degree of certainty of normalization.

そして、統合部28は、集合Aの線分A1234と、集合Bの線分B1234を統合して、統合結果A1234B1234を導出し、地図データベース18に出力する。 Then, the integration unit 28 integrates the line segment A1234 of the set A and the line segment B1234 of the set B, derives the integration result A1234B1234, and outputs the integration result A1234B1234 to the map database 18.

本実施の形態の地図生成装置10の適用例について図11A及び図11Bに示す。図11Aに示した例では、系列P及び系列Q各々複数の線分を同一平面上に表しており、線分対応付部24により、系列Pの線分と系列Qの線分とが対応付けられた状態を示している。なお、図11Aに示した例では、対応付けられた線分同士を矢印で示している。また、図11Bに示した例では、統合部28により系列Pと系列Qとを統合して得られた統合結果の一例を示している。なお、図11Bでは、統合結果(インライア)の線分を実線で示し、アウトライアの線分を点線で示す。また、比較例として、図11Cには、図11Aにおける系列Pの各線分と、系列Qの各線分全体を平行移動させた場合の統合結果の例を示す。図11Cでは、図11Bと同様に、インライアの線分を実線で示し、アウトライアの線分を点線で示す。図11B及び図11Cを比較するとわかるように、本実施形態の地図生成装置10によれば、単純に系列の線分を平行移動させた場合に比べて、系列間で適切に線分の統合が行われていることがわかる。 11A and 11B show an application example of the map generator 10 of the present embodiment. In the example shown in FIG. 11A, a plurality of line segments each of the series P and the series Q are represented on the same plane, and the line segment of the series P and the line segment of the series Q are associated with each other by the line segment corresponding portion 24. It shows the state that was done. In the example shown in FIG. 11A, the associated line segments are indicated by arrows. Further, in the example shown in FIG. 11B, an example of the integration result obtained by integrating the sequence P and the sequence Q by the integration unit 28 is shown. In FIG. 11B, the line segment of the integration result (inlier) is shown by a solid line, and the line segment of the outlier is shown by a dotted line. Further, as a comparative example, FIG. 11C shows an example of the integration result when each line segment of the sequence P in FIG. 11A and the entire line segment of the sequence Q are translated in parallel. In FIG. 11C, similarly to FIG. 11B, the line segment of the inlier is shown by a solid line, and the line segment of the outlier is shown by a dotted line. As can be seen by comparing FIGS. 11B and 11C, according to the map generator 10 of the present embodiment, the line segments can be appropriately integrated between the series as compared with the case where the line segments of the series are simply translated. You can see that it is done.

また、本実施の形態の地図生成装置10の適用例について図12A~図12Dに示す。図12Aに示した例では、線分検出部20により検出され投影部22により座標が変換された系列Pの複数の線分を示す投影図を示している。また、図12Bに示した例では、線分検出部20により検出され投影部22により座標が変換された系列Qの複数の線分を示す投影図を示している。系列P、及び系列Qの各々は、同一走行区間の道路Rの左右を撮像した撮像画像から得られた投影画像である。図12Cには、線分対応付部24により、図12Aに示した系列Pの線分と、図12Bに示した系列Qの線分とが対応付けられた状態を示している。図12Cでは、上記図11Aと同様に対応付けられた線分同士を矢印で示している。さらに、図12Dには、統合部28により系列Pと系列Qとを統合して得られた統合結果の一例を示している。なお、図12Dでは、上記図11Bと同様に、統合結果(インライア)の線分を実線で示し、アウトライアの線分を点線で示す。図12Dに示すように、本実施形態の地図生成装置10によれば、道路Rの左右を撮像した撮像画像を用いた場合、道路Rの中央付近の区画線を表す線分が統合により、適切に検出されていることがわかる。 Further, FIGS. 12A to 12D show an application example of the map generation device 10 of the present embodiment. In the example shown in FIG. 12A, a projection drawing showing a plurality of line segments of the series P detected by the line segment detection unit 20 and whose coordinates are converted by the projection unit 22 is shown. Further, in the example shown in FIG. 12B, a projection drawing showing a plurality of line segments of the series Q detected by the line segment detection unit 20 and whose coordinates are converted by the projection unit 22 is shown. Each of the series P and the series Q is a projection image obtained from the captured images obtained by capturing the left and right sides of the road R in the same traveling section. FIG. 12C shows a state in which the line segment of the sequence P shown in FIG. 12A and the line segment of the sequence Q shown in FIG. 12B are associated with each other by the line segment corresponding portion 24. In FIG. 12C, the line segments associated with each other are indicated by arrows in the same manner as in FIG. 11A. Further, FIG. 12D shows an example of the integration result obtained by integrating the sequence P and the sequence Q by the integration unit 28. In FIG. 12D, as in FIG. 11B, the line segment of the integration result (inlier) is shown by a solid line, and the line segment of the outlier is shown by a dotted line. As shown in FIG. 12D, according to the map generator 10 of the present embodiment, when the captured image obtained by capturing the left and right sides of the road R is used, the line segment representing the lane marking near the center of the road R is appropriate due to the integration. It can be seen that it has been detected in.

以上説明したように、上記各実施形態の地図生成装置10は、線分検出部20、線分対応付部24、平均化部26、及び統合部28を備える。線分検出部20は、車両2に搭載された撮像部12により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する。線分対応付部24は、複数の撮像画像毎に、撮像画像から検出された線分の両端点と、他の撮像画像から検出された線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、撮像画像から検出された線分からなる系列と、他の撮像画像から検出された線分からなる系列との2系列間で、位置差分量が小さくなるように、線分の対応付けを行う。平均化部26は、線分対応付部24により対応付けられた2系列間の線分の対応付けに基づいて、対応付けられた線分の間の位置に新たな線分を生成し、新たな線分からなる系列を生成する。統合部28は、平均化部26が生成した、新たな線分からなる系列同士の2系列について、線分対応付部24による対応付け、及び平均化部26による生成を行わせて、新たな線分からなる系列同士の2系列を統合する。 As described above, the map generation device 10 of each of the above embodiments includes a line segment detection unit 20, a line segment corresponding unit 24, an averaging unit 26, and an integration unit 28. The line segment detection unit 20 detects a plurality of line segments from each of the plurality of captured images captured in the same traveling section by the image pickup unit 12 mounted on the vehicle 2. The line segment corresponding unit 24 calculates the position difference amount between the end points of the line segment detected from the captured image and the end points of the line segment detected from the other captured images for each of the plurality of captured images. Based on the calculated position difference amount, the position difference amount is reduced between the two series of the series consisting of the line segments detected from the captured image and the series consisting of the line segments detected from the other captured images. Associate line segments. The averaging unit 26 generates a new line segment at a position between the associated line segments based on the mapping of the line segments between the two series associated with the line segment corresponding unit 24, and newly generates a new line segment. Generate a series of line segments. The integration unit 28 causes the averaging unit 26 to associate the two series of the series consisting of the new line segments with each other by the line segment corresponding unit 24 and generate the new line by the averaging unit 26. Integrate two series of line segments.

このように本実施形態の地図生成装置10によれば、線分対応付部24により、線分の一致の度合いを表す確信度を指標とした対応付けにより、系列間の全体として最適、かつ重複のない線分の対応付けが行われる。また、平均化部26が、対応付け結果に基づいて、対応付いた2つの線分間の中間位置に、両線分を統合した新たな線分を生成する。また、線分対応付部24は、対応付けられなかった線分については、周囲の線分の対応関係をもとに移動量の補間を行い、位置を更新する。これらの処理により、測位部14の軌跡誤差等による線分分布の非線形な歪みを補完することができる。また、平均化部26及び統合部28では、平均化及び統合を繰り返す際に、位置が外れた系列、例えば、後検出された線分を除外しながら、統合することもできる。また、系列の数、換言すると撮像画像の数を増加させることで、統合後の線分は、実際の位置(真位置)へと収束に向かう。また、軌跡誤差による歪みも収束に向かう。このように、本実施形態の地図生成装置10によれば、単純に各系列の線分全体を平行移動させたのみでは重ならない歪みを吸収することができる。 As described above, according to the map generation device 10 of the present embodiment, the line segment correspondence unit 24 is optimally and duplicated as a whole between the series by the mapping using the conviction degree indicating the degree of line segment matching as an index. The line segment without a line segment is associated. Further, the averaging unit 26 generates a new line segment by integrating both line segments at an intermediate position between the two corresponding line segments based on the matching result. Further, the line segment correspondence unit 24 performs interpolation of the movement amount based on the correspondence relationship of the surrounding line segments for the line segments that are not associated with each other, and updates the position. By these processes, it is possible to supplement the non-linear distortion of the line segment distribution due to the locus error of the positioning unit 14. Further, in the averaging unit 26 and the integration unit 28, when the averaging and integration are repeated, the series that are out of position, for example, the line segment detected afterwards can be excluded and integrated. Further, by increasing the number of series, in other words, the number of captured images, the line segment after integration tends to converge to the actual position (true position). In addition, the distortion due to the trajectory error also tends to converge. As described above, according to the map generation device 10 of the present embodiment, it is possible to absorb distortions that do not overlap by simply translating the entire line segment of each series.

従って、本実施形態の地図生成装置10によれば、高精度な線地図を生成することができる。 Therefore, according to the map generation device 10 of the present embodiment, it is possible to generate a highly accurate line map.

本実施形態の地図生成装置10によって得られ、地図データベース18に記憶された線地図は、例えば、車両2の自己位置の推定や、自動運転等に利用することができる。 The line map obtained by the map generation device 10 of the present embodiment and stored in the map database 18 can be used, for example, for estimating the self-position of the vehicle 2 and for automatic driving.

なお、地図生成装置10には、各種ドライブが接続されていてもよい。各種ドライブは、フレキシブルディスク、光磁気ディスク、CD-ROMなどのコンピュータ読み取り可能な可搬性の記録媒体からデータを読み込んだり、記録媒体に対してデータを書き込んだりする装置である。各種ドライブを備える場合には、可搬性の記録媒体に制御プログラムを記録しておいて、これを対応するドライブで読み込んで実行してもよい。 Various drives may be connected to the map generator 10. Various drives are devices that read data from a computer-readable and portable recording medium such as a flexible disk, magneto-optical disk, or CD-ROM, or write data to the recording medium. When various drives are provided, the control program may be recorded on a portable recording medium, and the control program may be read and executed by the corresponding drive.

1 地図生成システム
10 地図生成装置
12 撮像部
14 測位部
20 線分検出部
22 投影部
24 線分対応付部
26 平均化部
28 統合部
1 Map generation system 10 Map generation device 12 Imaging unit 14 Positioning unit 20 Line segment detection unit 22 Projection unit 24 Line segment correspondence unit 26 Average unit 28 Integration unit

Claims (6)

車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部と、
前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の両端点の位置を表す座標を鳥瞰図における絶対座標に変換する投影部と、
前記線分検出部が検出した複数の線分を前記複数の撮像画像毎に1つの系列とし、
前記両端点の前記絶対座標に基づく位置に基づいて、前記複数の撮像画像毎の各系列のうちから自系列の線分の両端点と他系列の線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記自系列と、前記他系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部と、
前記線分対応付部により対応付けられた前記自系列と、前記他系列との2系列間の線分の対応付けに基づいて、対応付けられた線分同士の対応する端点の中間の位置に端点が設けられた新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、
前記線分対応付部による線分の対応付けと、前記平均化部による前記新たな線分から成る系列の生成とを、全ての系列に対して行わせて生成された複数の前記新たな線分の各々からなる複数の系列の集合を再構築する一連の処理を、繰り返し行わせることで、前記複数の撮像画像毎の各系列を1つの系列に統合する統合部と、
を備えた地図生成装置。
A line segment detection unit that detects a plurality of line segments from each of a plurality of captured images captured in the same traveling section by an image pickup unit mounted on a vehicle.
For each of the plurality of line segments detected by the line segment detection unit, coordinates representing the positions of both end points of each line segment are obtained based on the position information of the vehicle associated with each of the plurality of captured images. A projection unit that converts to absolute coordinates in a bird's-eye view,
The plurality of line segments detected by the line segment detection unit are set as one series for each of the plurality of captured images.
Based on the position of the end point based on the absolute coordinates, the position difference amount between the end point of the line segment of the own series and the end point of the line segment of the other series is calculated from each series of the plurality of captured images. Then, based on the calculated position difference amount, the line segment corresponding portion that associates the line segments so that the position difference amount becomes small between the two series of the own series and the other series. ,
Based on the correspondence between the two series of the own series associated with the line segment corresponding portion and the other series, the position is in the middle of the corresponding end points of the associated line segments. An averaging unit that generates a new line segment provided with an end point and generates a series consisting of the new line segment.
A plurality of the new line segments generated by performing the mapping of the line segments by the line segment corresponding portion and the generation of the series consisting of the new line segments by the averaging section for all the series. An integration unit that integrates each series of each of the plurality of captured images into one series by repeatedly performing a series of processes for reconstructing a set of a plurality of series consisting of each of the above .
A map generator equipped with.
前記統合部は、対応付けられた前記線分の位置を中心位置に収束させることで、前記2系列を統合する、
請求項1に記載の地図生成装置。
The integration unit integrates the two series by converging the position of the associated line segment to the center position.
The map generator according to claim 1.
前記線分検出部は、前記複数の撮像画像各々から区画線の芯線を線分として検出する、
請求項1または請求項2に記載の地図生成装置。
The line segment detection unit detects the core wire of the dividing line as a line segment from each of the plurality of captured images.
The map generator according to claim 1 or 2 .
前記平均化部は、前記系列の集合内で位置誤差の大きい上位n(nは1以上の整数)組の系列と、前記n組以外の系列を平均化する場合、前記n組以外の系列の線分の位置に近寄らせた線分を生成する、
請求項1から請求項のいずれか1項に記載の地図生成装置。
When averaging a series of upper n (n is an integer of 1 or more) sets having a large position error in the set of the series and a series other than the n sets, the averaging unit is a series other than the n sets. Generate a line segment that is closer to the position of the line segment,
The map generator according to any one of claims 1 to 3 .
前記統合部は、前記平均化部で生成された複数の前記新たな線分の各々からなる複数の系列のうち、前記新たな線分の一致性が高い上位の系列を選別し、選別した系列の集合を再構築する、
請求項1から請求項のいずれか1項に記載の地図生成装置。
The integration unit selects and selects a higher -order series having high consistency of the new line segment from a plurality of series consisting of each of the plurality of new line segments generated by the averaging unit. Reconstructing a set of sequences,
The map generator according to any one of claims 1 to 4 .
コンピュータを、
車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部、
前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の両端点の位置を表す座標を鳥瞰図における絶対座標に変換する投影部、
前記線分検出部が検出した複数の線分を前記複数の撮像画像毎に1つの系列とし、
前記両端点の前記絶対座標に基づく位置に基づいて、前記複数の撮像画像毎の各系列のうちから自系列の線分の両端点と他系列の線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記自系列と、前記他系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部、
前記線分対応付部により対応付けられた前記自系列と、前記他系列との2系列間の線分の対応付けに基づいて、対応付けられた線分同士の対応する端点の中間の位置に端点が設けられた新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、
前記線分対応付部による線分の対応付けと、前記平均化部による前記新たな線分から成る系列の生成とを、全ての系列に対して行わせて生成された複数の前記新たな線分の各々からなる複数の系列の集合を再構築する一連の処理を、繰り返し行わせることで、前記複数の撮像画像毎の各系列を1つの系列に統合する統合部、
として機能させるためのプログラム。
Computer,
A line segment detection unit that detects a plurality of line segments from each of a plurality of captured images captured in the same traveling section by an image pickup unit mounted on a vehicle.
For each of the plurality of line segments detected by the line segment detection unit, coordinates representing the positions of both end points of each line segment are obtained based on the position information of the vehicle associated with each of the plurality of captured images. Projector that converts to absolute coordinates in a bird's-eye view,
The plurality of line segments detected by the line segment detection unit are set as one series for each of the plurality of captured images.
Based on the position of the end point based on the absolute coordinates, the position difference amount between the end point of the line segment of the own series and the end point of the line segment of the other series is calculated from each series of the plurality of captured images. Then, based on the calculated position difference amount, the line segment corresponding portion that associates the line segments between the two series of the own series and the other series so that the position difference amount becomes small.
Based on the correspondence between the two series of the own series associated with the line segment corresponding portion and the other series, the position is in the middle of the corresponding end points of the associated line segments. An averaging unit that generates a new line segment provided with an end point and generates a series consisting of the new line segment.
A plurality of the new line segments generated by performing the mapping of the line segments by the line segment corresponding portion and the generation of the series consisting of the new line segments by the averaging section for all the series. An integrated unit that integrates each series of each of the plurality of captured images into one series by repeatedly performing a series of processes for reconstructing a set of a plurality of series consisting of each of the above .
A program to function as.
JP2019036877A 2019-02-28 2019-02-28 Map generator and program Active JP7028206B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019036877A JP7028206B2 (en) 2019-02-28 2019-02-28 Map generator and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019036877A JP7028206B2 (en) 2019-02-28 2019-02-28 Map generator and program

Publications (2)

Publication Number Publication Date
JP2020140566A JP2020140566A (en) 2020-09-03
JP7028206B2 true JP7028206B2 (en) 2022-03-02

Family

ID=72280400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019036877A Active JP7028206B2 (en) 2019-02-28 2019-02-28 Map generator and program

Country Status (1)

Country Link
JP (1) JP7028206B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004814A (en) 2013-06-20 2015-01-08 株式会社豊田中央研究所 Lane map generation device and program
JP2018116147A (en) 2017-01-18 2018-07-26 株式会社デンソーアイティーラボラトリ Map creation device, map creation method and map creation computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004814A (en) 2013-06-20 2015-01-08 株式会社豊田中央研究所 Lane map generation device and program
JP2018116147A (en) 2017-01-18 2018-07-26 株式会社デンソーアイティーラボラトリ Map creation device, map creation method and map creation computer program

Also Published As

Publication number Publication date
JP2020140566A (en) 2020-09-03

Similar Documents

Publication Publication Date Title
CN111557665B (en) Dense body marker estimation from camera data for patient positioning in medical imaging
JP6514624B2 (en) Obstacle detection device
JP6107081B2 (en) Image processing apparatus, image processing method, and program
US8805024B2 (en) Motion capture apparatus and method
CN110111250B (en) Robust automatic panoramic unmanned aerial vehicle image splicing method and device
US11138419B2 (en) Distance image processing device, distance image processing system, distance image processing method, and non-transitory computer readable recording medium
CN107578376B (en) Image splicing method based on feature point clustering four-way division and local transformation matrix
JP2007310707A (en) Apparatus and method for estimating posture
CN104484648A (en) Variable-viewing angle obstacle detection method for robot based on outline recognition
US20140334675A1 (en) Apparatus and method for extracting movement path of mutual geometric relationship fixed camera group
CN109754459B (en) Method and system for constructing human body three-dimensional model
CN105976377B (en) The method of vehicle-mounted fish-eye camera self-calibration
JP2013178656A (en) Image processing device, image processing method, and image processing program
CN110462685B (en) Three-dimensional model reconstruction method and system
Gu et al. Histograms of the normalized inverse depth and line scanning for urban road detection
KR101745493B1 (en) Apparatus and method for depth map generation
JP5501084B2 (en) Planar area detection apparatus and stereo camera system
JP2017130067A (en) Automatic image processing system for improving position accuracy level of satellite image and method thereof
KR101677230B1 (en) Apparatus and method for estimating quality of heterogenic image fusion algorithm
JP7028206B2 (en) Map generator and program
JP4340722B2 (en) Image composition method, image input device, and recording medium recording image composition program
JP2016004486A (en) Information processor, information processing program and information processing system
JP2009237846A (en) Information processor, information processing method, and computer program
JP7121936B2 (en) Camera calibration information acquisition device, image processing device, camera calibration information acquisition method and program
JP2009186287A (en) Plane parameter estimating device, plane parameter estimating method, and plane parameter estimating program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7028206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150