JP2020140566A - Map generation device and program - Google Patents

Map generation device and program Download PDF

Info

Publication number
JP2020140566A
JP2020140566A JP2019036877A JP2019036877A JP2020140566A JP 2020140566 A JP2020140566 A JP 2020140566A JP 2019036877 A JP2019036877 A JP 2019036877A JP 2019036877 A JP2019036877 A JP 2019036877A JP 2020140566 A JP2020140566 A JP 2020140566A
Authority
JP
Japan
Prior art keywords
line segment
series
line
unit
line segments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019036877A
Other languages
Japanese (ja)
Other versions
JP7028206B2 (en
Inventor
皓之 石田
Hiroyuki Ishida
皓之 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2019036877A priority Critical patent/JP7028206B2/en
Publication of JP2020140566A publication Critical patent/JP2020140566A/en
Application granted granted Critical
Publication of JP7028206B2 publication Critical patent/JP7028206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To generate a highly accurate line map.SOLUTION: A map generation device 30 includes a line segment detection part 20, a line segment association part 24, an averaging part 26 and an integration part 28. The line segment detection part 20 detects a set of feature points as a line segment from each of a plurality of photographic images in which the same travel sections are imaged by an imaging part 12 mounted on a vehicle 2, and thereby detects a plurality of line segments from each of the plurality of photographic images. The line segment association part 24 associates line segments between series with the smallest error between the end point of the line segment of the other series and the position of the end point of the line segment of own series for the plurality of line segments as the series in the whole of the plurality of line segments in each of the series with each other, for each of the plurality of photographic images. The averaging part 26 generates a new line segment at the intermediate position of the line segment for each of the line segments of the two series associated by the line segment association part 24. The integration part 28 integrates the plurality of line segments associated between the plurality of series on the basis of the new line segment generated by the averaging part 26.SELECTED DRAWING: Figure 1

Description

本開示は、地図生成装置及びプログラムに関する。 The present disclosure relates to a map generator and a program.

従来より、車両に搭載されたカメラ等の撮像装置により撮像された複数の撮像画像を用いて地図を生成する技術が知られている。例えば、特許文献1及び2に記載の技術では、カメラにより撮像された複数の撮像画像から、道路の車線(区画線)等の線分等を検出して、地図の作成に用いている。 Conventionally, there has been known a technique for generating a map using a plurality of captured images captured by an imaging device such as a camera mounted on a vehicle. For example, in the techniques described in Patent Documents 1 and 2, line segments such as road lanes (section lines) are detected from a plurality of captured images captured by a camera and used for creating a map.

特開2017−182564号公報JP-A-2017-182564 特開2017−10393号公報Japanese Unexamined Patent Publication No. 2017-10393

しかしながら、上記従来の技術では、車線等の線分の位置に測位誤差が生じていたり、誤検出をした線分が含まれていたりする場合がある。また、上記従来の技術では、未検出の車線が生じている場合もある。このような場合、上記従来の技術では、誤差等を検出できず、また、未検出の車線については補間されないため、実際の位置にある線分が検出されない場合がある。 However, in the above-mentioned conventional technique, a positioning error may occur at the position of a line segment such as a lane, or a line segment that has been erroneously detected may be included. Further, in the above-mentioned conventional technique, an undetected lane may occur. In such a case, in the above-mentioned conventional technique, an error or the like cannot be detected, and the undetected lane is not interpolated, so that the line segment at the actual position may not be detected.

本開示は上記の技術を考慮してなされたものであり、高精度な線地図を生成することができる地図生成装置及びプログラムを提供することを目的とする。 The present disclosure has been made in consideration of the above techniques, and an object of the present disclosure is to provide a map generator and a program capable of generating a highly accurate line map.

上記目的を達成するために、本開示の第1の態様の地図生成装置は、車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部と、前記複数の撮像画像毎に、前記撮像画像から検出された線分の両端点と、他の撮像画像から検出された線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記撮像画像から検出された線分からなる系列と、他の撮像画像から検出された線分からなる系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部と、前記線分対応付部により対応付けられた2系列間の線分の対応付けに基づいて、対応付けられた線分の間の位置に新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、前記平均化部が生成した、前記新たな線分からなる系列同士の2系列について、前記線分対応付部による対応付け、及び前記平均化部による生成を行わせて、前記新たな線分からなる系列同士の2系列を統合する統合部と、を備える。 In order to achieve the above object, the map generation device of the first aspect of the present disclosure is a plurality of line segments from each of a plurality of captured images in which the same traveling section is captured by an imaging unit mounted on a vehicle. The position difference between the line segment detection unit that detects the above and the end points of the line segment detected from the captured image and the end points of the line segment detected from the other captured images for each of the plurality of captured images. Based on the calculated position difference amount, the position difference amount is calculated between the two series of the series consisting of the line segments detected from the captured image and the series consisting of the line segments detected from the other captured images. Based on the line segment correspondence attachment part that associates the line segments and the line segment correspondence between the two series associated by the line segment correspondence attachment part so as to be smaller, the associated line segment The lines are about two series, one is an averaging unit that generates a new line segment at a position between them and generates a series consisting of the new line segments, and the other is a series consisting of the new line segments generated by the averaging unit. It is provided with an integration unit that integrates two series of the series consisting of the new line segments by associating with the division correspondence unit and generating by the averaging unit.

本開示の第2の態様の地図生成装置は、第1の態様の地図生成装置において、前記統合部は、対応付けられた前記線分の位置を中心位置に収束させることで、前記2系列を統合する。 The map generation device of the second aspect of the present disclosure is the map generation device of the first aspect, in which the integration unit converges the position of the associated line segment to the central position to form the two series. Integrate.

本開示の第3の態様の地図生成装置は、第1の態様または第2の態様の地図生成装置において、前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の位置を表す座標を絶対座標に変換する投影部をさらに備え、前記線分対応付部は、前記両端点の前記絶対座標に基づく位置に基づいて、対応付けを行う。 The map generator of the third aspect of the present disclosure is the map generator of the first aspect or the second aspect, for each of the plurality of line segments detected by the line segment detection unit, the plurality of captured images. A projection unit that converts the coordinates representing the position of each line segment into absolute coordinates based on the position information of the vehicle associated with each is further provided, and the line segment corresponding portion is the absolute of the end point. Correspondence is performed based on the position based on the coordinates.

本開示の第4の態様の地図生成装置は、第3の態様の地図生成装置において、前記投影部は前記両端点を表す座標を、鳥瞰図における前記絶対座標に変換する。 The map generation device of the fourth aspect of the present disclosure is the map generation device of the third aspect, in which the projection unit converts the coordinates representing the both end points into the absolute coordinates in the bird's-eye view.

本開示の第5の態様の地図生成装置は、第1の態様から第4の態様のいずれか1態様の地図生成装置において、前記線分検出部は、前記複数の撮像画像各々から区画線の芯線を線分として検出する。 The map generator according to the fifth aspect of the present disclosure is the map generator according to any one of the first to fourth aspects, wherein the line segment detection unit is a division line from each of the plurality of captured images. The core wire is detected as a line segment.

本開示の第6の態様の地図生成装置は、第1の態様から第5の態様のいずれか1態様の地図生成装置において、前記平均化部は、前記系列の集合内で位置誤差の大きい上位n(nは1以上の整数)組の系列と、前記n組以外の系列を平均化する場合、前記n組以外の系列の線分の位置に近寄らせた線分を生成する。 The map generator according to the sixth aspect of the present disclosure is the map generator according to any one of the first to fifth aspects, wherein the averaging unit has a large position error in the set of the series. When averaging a series of n (n is an integer of 1 or more) and a series other than the n sets, a line segment approaching the position of the line segment of the series other than the n sets is generated.

本開示の第7の態様の地図生成装置は、第1の態様から第6の態様のいずれか1態様の地図生成装置において、前記統合部は、前記平均化部で線分の一致性が高い上位の出力系列を選別し、系列の集合を再構築する。 The map generator according to the seventh aspect of the present disclosure is the map generator according to any one of the first to sixth aspects, wherein the integrated unit has high line segment consistency in the averaging unit. Select the upper output series and reconstruct the set of series.

また、上記目的を達成するために本開示の第8の態様のプログラムは、コンピュータを、車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部、前記複数の撮像画像毎に、前記撮像画像から検出された線分の両端点と、他の撮像画像から検出された線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記撮像画像から検出された線分からなる系列と、他の撮像画像から検出された線分からなる系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部、前記線分対応付部により対応付けられた2系列間の線分の対応付けに基づいて、対応付けられた線分の間の位置に新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部、前記平均化部が生成した、前記新たな線分からなる系列同士の2系列について、前記線分対応付部による対応付け、及び前記平均化部による生成を行わせて、前記新たな線分からなる系列同士の2系列を統合する統合部、として機能させるためのものである。 Further, in order to achieve the above object, the program of the eighth aspect of the present disclosure uses a computer as a plurality of captured images obtained by capturing the same traveling section by an imaging unit mounted on a vehicle. A line segment detection unit that detects a line segment, the amount of position difference between the end points of the line segment detected from the captured image and the end points of the line segment detected from other captured images for each of the plurality of captured images. Is calculated, and based on the calculated position difference amount, the position difference amount is between two series, that is, a series consisting of line segments detected from the captured image and a series consisting of line segments detected from other captured images. Based on the line segment correspondence attachment part that associates the line segments and the line segment association between the two series associated by the line segment correspondence attachment part, the associated line segment is reduced. The line segment is about two series of a series consisting of the new line segment generated by the averaging unit and an averaging unit that generates a new line segment at a position between the new line segments. This is for functioning as an integrated unit that integrates two series of the new line segments by associating them with each other and generating them by the averaging unit.

本開示によれば、高精度な線地図を生成することができる、という効果が得られる。 According to the present disclosure, it is possible to obtain an effect that a highly accurate line map can be generated.

実施形態の地図生成システムの全体構成の一例を示すブロック図である。It is a block diagram which shows an example of the whole structure of the map generation system of embodiment. 本開示の技術の一例の概要を示す図である。It is a figure which shows the outline of an example of the technique of this disclosure. 実施形態の地図生成装置のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the map generator of embodiment. 地図生成装置により実行される線地図生成処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the line map generation processing executed by the map generation apparatus. 撮像画像から線分検出部により検出された線分を、投影部によりEN座標にプロットした図(EN座標図)の一例を示す図である。It is a figure which shows an example of the figure (EN coordinate figure) which plotted the line segment detected by the line segment detection part from the captured image in EN coordinate by the projection part. 平行移動により重なる特徴点の組をインライアと判定する例を説明するための図である。It is a figure for demonstrating an example of determining a set of feature points overlapping by parallel movement as an inlier. 線分対応付部による線分の対応付けを説明するための図である。It is a figure for demonstrating the correspondence of a line segment by the line segment correspondence part. 線分対応付部による平行移動量の補間を説明するための図である。It is a figure for demonstrating the interpolation of the parallel movement amount by the line segment correspondence part. 平均化部による線分の平均化処理を説明するための図である。It is a figure for demonstrating the averaging process of the line segment by the averaging part. 統合部による複数の系列の統合について説明するための図である。It is a figure for demonstrating the integration of a plurality of series by the integration part. 線分対応付部により2系列の線分が対応付けられた状態の一例を示す図である。It is a figure which shows an example of the state in which two series of line segments are associated with the line segment correspondence part. 統合部による図11Aに示した系列の線分の統合結果の一例を示す図である。It is a figure which shows an example of the integration result of the line segment of the series shown in FIG. 11A by the integration part. 図11Aに示した各系列の線分全体を平行移動させた場合の統合結果の一例を示す図である。It is a figure which shows an example of the integration result when the whole line segment of each series shown in FIG. 11A is translated in parallel. 系列Pの線分の一例を示す投影図である。It is a projection drawing which shows an example of the line segment of the series P. 系列Qの線分の一例を示す投影図である。It is a projection drawing which shows an example of the line segment of the series Q. 線分対応付部により図12A及び図12Bの2系列の線分が対応付けられた状態の一例を示す図である。It is a figure which shows an example of the state in which the line segment of 2 series of FIG. 12A and FIG. 12B is associated by the line segment correspondence part. 統合部による図12Cに示した系列の線分の統合結果の一例を示す図である。It is a figure which shows an example of the integration result of the line segment of the series shown in FIG. 12C by the integration part.

以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、本実施形態の地図生成システムの全体構成について説明する。
図1は、本実施形態の地図生成システム1の全体構成の一例を示すブロック図である。本実施形態の地図生成システム1は、車両2に搭載された撮像部12により撮像された撮像画像から地図を生成する地図生成システムである。
First, the overall configuration of the map generation system of the present embodiment will be described.
FIG. 1 is a block diagram showing an example of the overall configuration of the map generation system 1 of the present embodiment. The map generation system 1 of the present embodiment is a map generation system that generates a map from an captured image captured by an imaging unit 12 mounted on a vehicle 2.

図1に示すように、地図生成システム1は、地図生成装置10、撮像部12、測位部14、撮像画像データベース15、及び地図データベース18を備える。 As shown in FIG. 1, the map generation system 1 includes a map generation device 10, an imaging unit 12, a positioning unit 14, an captured image database 15, and a map database 18.

撮像部12及び測位部14は、車両2に搭載されている。撮像部12は、具体的にはカメラ等であり、車両2の前方の道路を被写体とし、動画像の撮影、または所定のタイミングで静止画像の撮影を行う。測位部14は、車両2の現在位置を計測する機能を有しており、例えば、GPS(Global Positioning System)装置等が挙げられる。 The imaging unit 12 and the positioning unit 14 are mounted on the vehicle 2. Specifically, the image pickup unit 12 is a camera or the like, and takes a moving image or a still image at a predetermined timing with the road in front of the vehicle 2 as a subject. The positioning unit 14 has a function of measuring the current position of the vehicle 2, and examples thereof include a GPS (Global Positioning System) device.

車両2からは、撮像部12により撮像された撮像画像に、当該撮像画像を撮像した際の測位部14の測位結果である車両2の位置が対応付けられた状態で、撮像画像データベース15に出力される。 The vehicle 2 outputs to the captured image database 15 in a state in which the captured image captured by the imaging unit 12 is associated with the position of the vehicle 2, which is the positioning result of the positioning unit 14 when the captured image is captured. Will be done.

本実施形態の地図生成システム1では、同一の走行区間について、当該走行区間を走行する車両2に搭載された撮像部12により撮像された複数の撮像画像が、測位部14により得られた車両2の位置と対応付けられた状態で、撮像画像データベース15に記憶される。換言すると、撮像画像データベース15は、同一走行区間が撮影された複数の撮像画像を、撮像位置と対応付けられた状態で記憶する。 In the map generation system 1 of the present embodiment, a plurality of captured images captured by the imaging unit 12 mounted on the vehicle 2 traveling in the traveling section are obtained by the positioning unit 14 for the same traveling section. It is stored in the captured image database 15 in a state associated with the position of. In other words, the captured image database 15 stores a plurality of captured images captured in the same traveling section in a state associated with the imaging position.

なお、図1には車両2を1台のみ図示したが、1台の車両2が、当該走行区間を複数回走行し、走行する毎に撮像部12により撮像された撮像画像を取得する形態であってもよいし、複数の車両2が同一の走行区間を走行する際に撮像部12により撮像された撮像画像を取得する形態であってもよい。図2に示す、本開示の技術の一例の概要では、車両2〜2の4台の車両の各々が、撮像部12及び測位部14を搭載しており、道路Rを走行した際に、道路Rを撮像した形態を示している。この場合、撮像画像データベース15には、道路Rの撮像画像に、道路Rに対応する各車両2〜2の位置が撮影位置として対応付けられた状態で記憶される。 Although only one vehicle 2 is shown in FIG. 1, one vehicle 2 travels a plurality of times in the traveling section, and each time the vehicle 2 travels, an image captured by the imaging unit 12 is acquired. It may be in the form of acquiring the captured image captured by the imaging unit 12 when the plurality of vehicles 2 travel in the same traveling section. 2, in the summary of an example of the techniques of this disclosure, each of the four vehicles of the vehicle 2 1 to 2 4, equipped with a pickup unit 12 and the positioning unit 14, when traveling on a road R , The form in which the road R is imaged is shown. In this case, the captured image database 15, the captured image of the road R, the position of each vehicle 21 to 24 corresponding to the road R is stored in a state associated with the shooting position.

地図生成装置10は、線分検出部20、投影部22、線分対応付部24、平均化部26、及び統合部28を備える。 The map generation device 10 includes a line segment detection unit 20, a projection unit 22, a line segment correspondence unit 24, an averaging unit 26, and an integration unit 28.

図3は地図生成装置10のハードウエア構成の一例を示す図である。図3に示すように、地図生成装置10は、各種制御及び各種演算を行うコンピュータとして構成されている。即ち、地図生成装置10は、CPU(Central Processing Unit)30A、ROM(Read Only Memory)30B、RAM(Random Access Memory)30C、不揮発性記憶部30D、入出力インターフェース(I/O)30E、及び通信部31を備えている。CPU30A、ROM30B、RAM30C、不揮発性記憶部30D、及びI/O30Eの各々は、バス30Fを介して接続されている。 FIG. 3 is a diagram showing an example of the hardware configuration of the map generator 10. As shown in FIG. 3, the map generator 10 is configured as a computer that performs various controls and various calculations. That is, the map generator 10 includes a CPU (Central Processing Unit) 30A, a ROM (Read Only Memory) 30B, a RAM (Random Access Memory) 30C, a non-volatile storage unit 30D, an input / output interface (I / O) 30E, and communication. The unit 31 is provided. Each of the CPU 30A, ROM 30B, RAM 30C, non-volatile storage unit 30D, and I / O 30E is connected via the bus 30F.

通信部31は、I/O30Eに接続されている。通信部31は、通信回線を介して撮像画像データベース15や地図データベース18等の外部装置と通信を行うためのインターフェースである。 The communication unit 31 is connected to the I / O 30E. The communication unit 31 is an interface for communicating with an external device such as the captured image database 15 and the map database 18 via a communication line.

本実施形態の地図生成装置10では、ROM30Bには、後述する「線地図生成処理」を実行するためのプログラムが記憶されている。CPU30Aは、ROM30Bに記憶されたプログラムを読み出し、RAM30Cをワークエリアとして使用してプログラムを実行する。CPU30Aが、ROM30Bに記憶されたプログラムを実行することにより、CPU30Aが、線分検出部20、投影部22、線分対応付部24、平均化部26、及び統合部28の各々として機能する。 In the map generation device 10 of the present embodiment, the ROM 30B stores a program for executing the "line map generation process" described later. The CPU 30A reads the program stored in the ROM 30B and executes the program using the RAM 30C as a work area. When the CPU 30A executes the program stored in the ROM 30B, the CPU 30A functions as each of the line segment detection unit 20, the projection unit 22, the line segment corresponding unit 24, the averaging unit 26, and the integration unit 28.

線分検出部20は、撮像画像データベース15から取得した複数の撮像画像の各々から、特徴点の組を線分として検出する。線分検出部20は、撮像画像から、道路Rの区間線分等を含む複数の線分を検出する。線分検出部20は、線分の検出結果と、撮像位置が対応付けられた撮像画像とを、投影部22に出力する。 The line segment detection unit 20 detects a set of feature points as a line segment from each of the plurality of captured images acquired from the captured image database 15. The line segment detection unit 20 detects a plurality of line segments including a section line segment of the road R from the captured image. The line segment detection unit 20 outputs the line segment detection result and the captured image associated with the imaging position to the projection unit 22.

投影部22は、線分検出部20が検出した複数の線分の各々について、各撮像画像の撮像位置に基づいて、各線分の位置を表す座標を絶対座標に変換する。以下、説明の便宜上、各撮像画像から検出された複数の線分を、絶対座標に変換した画像を「投影画像」という。図2に示した例では、車両21により撮像された撮像画像からは、区画線90を表す線分91を含む投影画像50が得られる。同様に、車両21により撮像された撮像画像からは、区画線90を表す線分91を含む投影画像50が得られ、車両21により撮像された撮像画像からは、区画線90を表す線分91を含む投影画像50が得られ、車両21により撮像された撮像画像からは、区画線90を表す線分91を含む投影画像50が得られる。 The projection unit 22 converts the coordinates representing the position of each line segment into absolute coordinates for each of the plurality of line segments detected by the line segment detection unit 20 based on the imaging position of each captured image. Hereinafter, for convenience of explanation, an image obtained by converting a plurality of line segments detected from each captured image into absolute coordinates is referred to as a “projected image”. In the example shown in FIG. 2, from the captured photographed image by the vehicle 21 1, the projected image 50 1 including a line segment 91 1 representing the division line 90 is obtained. Similarly, from the captured photographed image by the vehicle 21 2, the projected image 50 2 is obtained comprising a line segment 91 2 which represents the division line 90, from the captured photographed image by the vehicle 21 3, the partition line 90 projected image 50 3 including a line segment 91 3 obtained representing, from the captured photographed image by the vehicle 21 4, the projected image 50 4 containing segments 91 4 representing the division line 90 is obtained.

なお、以下では、各投影画像(撮像画像)毎に検出した複数の線分を1つの系列として扱う。 In the following, a plurality of line segments detected for each projected image (captured image) will be treated as one series.

線分対応付部24は、各系列の線分について、他系列の線分の端点と、自系列の線分の端点との位置の誤差が、各系列における複数の線分全体で最も小さくなるように各線分の対応付けを行う。線分対応付部24は、各線分についての対応付結果を平均化部26に出力する。 In the line segment corresponding portion 24, for each series of line segments, the positional error between the end points of the line segments of the other series and the end points of the line segments of the own series is the smallest for all the plurality of line segments in each series. The line segments are associated with each other as described above. The line segment correspondence unit 24 outputs the correspondence result for each line segment to the averaging unit 26.

平均化部26は、線分対応付部24により対応付けられた2系列各々の線分に対し、線分の中間の位置に新たな線分を生成する。図2に示した例では、投影画像50における線分の系列と、投影画像50における線分の系列とに対し、線分対応付部24による線分対応付けを行い、平均化部26により、線分9212を生成した状態を示している。また、投影画像50における線分の系列と、投影画像50における線分の系列とに対し、線分対応付部24による線分対応付けを行い、平均化部26により、線分9234を生成した状態を示している。 The averaging unit 26 generates a new line segment at a position intermediate between the line segments of each of the two series associated with the line segment corresponding unit 24. In the example shown in FIG. 2 performs a line segment of a sequence in the projection image 50 1, to the line segment sequence in the projection image 50 2, a line segment correspondence by segment association unit 24, the averaging unit 26 Indicates a state in which the line segment 92 12 is generated. Further, the line segment of the sequence in the projected image 50 3, with respect to a line segment of a sequence in the projection image 50 4 performs line correlation by the line correspondence unit 24, the averaging portion 26, the line segment 92 34 Is shown in the generated state.

統合部28は、平均化部26が生成した線分に基づいて、複数の系列間で対応付けられた複数の線分を統合する。具体的には、統合部28は、上記線分対応付部24及び平均化部26の各処理を繰り返し行わせ、各線分の位置を、収束させる。図2に示した例では、統合部28は、線分9212を含む系列と、線分9234を含む系列とについて、線分対応付部24及び平均化部26の各処理を繰り返させて、線分9212と線分9234とを、線分941234の位置に収束させる。なお、本実施形態での統合部28は、複数の系列について、線分対応付部24及び平均化部26の各処理を繰り返させる際、平均化部26で線分音一致性が高い系列を選別することで、複数の系列により成る集合を再構築する(詳細後述)。 The integration unit 28 integrates a plurality of line segments associated with each other based on the line segments generated by the averaging unit 26. Specifically, the integration unit 28 repeatedly performs each process of the line segment corresponding unit 24 and the averaging unit 26 to converge the positions of the line segments. In the example shown in FIG. 2, the integrating unit 28 repeats each process of the line segment corresponding unit 24 and the averaging unit 26 for the series including the line segment 92 12 and the series including the line segment 92 34. , The line segment 92 12 and the line segment 92 34 are converged to the position of the line segment 94 1234 . In addition, when the integration unit 28 in the present embodiment repeats each process of the line segment corresponding unit 24 and the averaging unit 26 for a plurality of series, the averaging unit 26 selects a series having high line segment sound matching. By sorting, a set consisting of multiple series is reconstructed (details will be described later).

統合部28により収束された線分の位置を表す情報は、地図データベース18に出力される。地図生成装置10は、複数の走行区間毎に、上記線分検出部20〜統合部28の処理を繰り返し、各線分の位置を表す情報を地図データベース18に出力する。本実施形態の地図生成システム1では、各走行区間毎の各線分の位置を表す情報を、走行区間の位置に応じて繋げることで、線地図が得られる。 Information representing the position of the line segment converged by the integration unit 28 is output to the map database 18. The map generation device 10 repeats the processes of the line segment detection unit 20 to the integration unit 28 for each of a plurality of traveling sections, and outputs information indicating the position of each line segment to the map database 18. In the map generation system 1 of the present embodiment, a line map can be obtained by connecting information indicating the position of each line segment for each traveling section according to the position of the traveling section.

次に、本実施形態の地図生成装置10の作用について詳細に説明する。CPU30AがROM30Bに記憶されたプログラムを実行することによって、図4に示す線地図生成処理が実行される。図4には、本実施形態の地図生成装置10で実行される線地図生成処理の流れの一例を表すフローチャートが示されている。なお、一例として本実施形態の地図生成装置10では、予め定められたタイミング毎や、各走行区間毎に予め定められた数の撮像画像が撮像画像データベース15に格納されたタイミング毎に、図4に一例を示した線地図生成処理が実行される。 Next, the operation of the map generator 10 of the present embodiment will be described in detail. When the CPU 30A executes the program stored in the ROM 30B, the line map generation process shown in FIG. 4 is executed. FIG. 4 shows a flowchart showing an example of the flow of the line map generation process executed by the map generation device 10 of the present embodiment. As an example, in the map generation device 10 of the present embodiment, FIG. 4 shows each predetermined timing and each timing when a predetermined number of captured images are stored in the captured image database 15 for each traveling section. The line map generation process shown in 1 is executed.

ステップS100で線分検出部20は、撮像画像データベース15から取得した撮像画像から線分を検出する。線分検出部20が、撮像画像から線分を検出する方法は特に限定されないが、一例として本実施形態の線分検出部20は、撮像画像から、区画線の芯線を表す線分を、二値化、距離変換、及びハフ変換を行うことにより検出する。線分検出部20は、距離変換した撮像画像の各行に対し、距離値について、当該距離値が左右の画素における距離値よりも大きい峰部分をハフ空間に投影する。検出する線分の上下の端点は、距離値が0(ゼロ)ではない上限及び下限より求められる。 In step S100, the line segment detection unit 20 detects the line segment from the captured image acquired from the captured image database 15. The method by which the line segment detection unit 20 detects a line segment from the captured image is not particularly limited, but as an example, the line segment detection unit 20 of the present embodiment obtains two line segments representing the core wire of the dividing line from the captured image. Detected by digitizing, distance transforming, and Hough transforming. The line segment detection unit 20 projects, with respect to each line of the captured image obtained by distance conversion, a peak portion in which the distance value is larger than the distance value in the left and right pixels into the huff space. The upper and lower end points of the line segment to be detected are obtained from the upper and lower limits where the distance value is not 0 (zero).

なお、本実施形態の線分検出部20は、同一走行区間を撮像した複数の撮像画像について、本処理及び以下の処理を行う。 The line segment detection unit 20 of the present embodiment performs this processing and the following processing on a plurality of captured images captured in the same traveling section.

次のステップS102で投影部22は、上記ステップS100で検出した線分を投影し、鳥瞰図における絶対座標にする。一例として、本実施形態の投影部22は、検出した線分を右が東、上が北となるEN(East-North)座標に変換する。下記(1)式〜(4)式の変換式により、各線分の端点の座標を変換する。 In the next step S102, the projection unit 22 projects the line segment detected in the step S100 to obtain the absolute coordinates in the bird's-eye view. As an example, the projection unit 22 of the present embodiment converts the detected line segment into EN (East-North) coordinates in which the right side is east and the top side is north. The coordinates of the end points of each line segment are converted by the conversion formulas (1) to (4) below.

具体的には、撮像画像の撮像面が、道路Rの路面に対し、ほぼ垂直と仮定した場合の、撮像画像の座標と、撮像部12の中心座標との変換を、(1)式及び(2)式により行う。
f:(v−v)=z:y ・・・(1)
f:(u−u)=z:x ・・・(2)
Specifically, when it is assumed that the imaging surface of the captured image is substantially perpendicular to the road surface of the road R, the conversion between the coordinates of the captured image and the center coordinates of the imaging unit 12 is performed by the equation (1) and (1). 2) Eq.
f: (vv 0 ) = z: y ... (1)
f: (u-u 0 ) = z: x ... (2)

なお、上記(1)式及び(2)式において、(u,v)は、撮像画像中の座標[pix]であり、(x、z)は、撮像部12の中心座標、右手方向x[m]と進行方向z[m]である。また、fは、撮像部12の焦点距離[pix]であり、yは、車両2における撮像部12が設置されている位置の高さ[m]であり、(u,v)は、撮像画像中の消失点の座標[pix]である。 In the above equations (1) and (2), (u, v) are the coordinates [pix] in the captured image, and (x, z) are the center coordinates of the imaging unit 12 and the right-hand direction x [. m] and the direction of travel z [m]. Further, f is the focal length [pix] of the imaging unit 12, y is the height [m] of the position where the imaging unit 12 is installed in the vehicle 2, and (u 0 , v 0 ) is. The coordinates [pix] of the vanishing point in the captured image.

また、撮像部12の中心座標からEN座標への変換には、下記(3)式及び(4)式を用いる。
e=e+(x+Δx)cosθ+(z+Δz)sinθ ・・・(3)
n=n+(x+Δx)sinθ+(z+Δz)cosθ ・・・(4)
Further, the following equations (3) and (4) are used for conversion from the center coordinate of the imaging unit 12 to the EN coordinate.
e = e 0 + (x + Δx) cosθ + (z + Δz) sinθ ・ ・ ・ (3)
n = n 0 + (x + Δx) sinθ + (z + Δz) cosθ ・ ・ ・ (4)

なお、上記(3)式及び(4)式において、(e,n)は、EN座標[m]であり、(e,n)は、測位部14により得られた車両2の基準位置のEN座標[m]である。また、(Δx,Δz)は、車両2の基準位置に対する撮像部12の相対位置[m]であり、θは、車両2の方位角(北が0で、時計回りを正とする)[rad]である。 In the above equations (3) and (4), (e, n) is the EN coordinate [m], and (e 0 , n 0 ) is the reference position of the vehicle 2 obtained by the positioning unit 14. EN coordinate [m]. Further, (Δx, Δz) is the relative position [m] of the imaging unit 12 with respect to the reference position of the vehicle 2, and θ is the azimuth angle of the vehicle 2 (north is 0 and clockwise is positive) [rad. ].

図5には、車両2の撮像部12により撮像された撮像画像から線分検出部20により検出された線分を、投影部22によりEN座標にプロットした図(EN座標図)の一例を示す。図5に例示したように、区間線以外の不要物体の線分等も後検出されている。 FIG. 5 shows an example of a diagram (EN coordinate diagram) in which the line segment detected by the line segment detection unit 20 from the image captured by the image pickup unit 12 of the vehicle 2 is plotted in EN coordinates by the projection unit 22. .. As illustrated in FIG. 5, line segments of unnecessary objects other than section lines are also detected later.

次のステップS104で線分対応付部24は、上記ステップS102によりEN座標に変換された各線分の端点に、下記参考文献1のスペクトル照合を応用し、複数の系列の線分について1体1の対応付けを導出する。
[参考文献1]M. Leordeanu and M. Hebert, “A spectral technique for correspondence problems using pairwise constraints," Proc. 10th IEEE Int. Conf. on Computer Vision, vol. 2, pp. 1482-1489, Beijing, China, Oct. 2005.
In the next step S104, the line segment correspondence attachment unit 24 applies the spectrum matching of the following reference 1 to the end points of each line segment converted into EN coordinates in the above step S102, and applies one body 1 for a plurality of series of line segments. Derivation of the correspondence of.
[Reference 1] M. Leordeanu and M. Hebert, “A spectral technique for correspondence problems using pairwise constraints,” Proc. 10th IEEE Int. Conf. On Computer Vision, vol. 2, pp. 1482-1489, Beijing, China , Oct. 2005.

ここで、参考として、系列Pに含まれる複数の特徴点と、系列Qに含まれる複数の特徴点を対応付ける問題を考える。以下、系列Pに含まれる特徴点数を|P|とし、系列Qに含まれる特徴点数を|Q|とする。系列P、及び系列Qの各々から2点ずつ特徴点を抽出し、各々pi1,pj1∈P、及びqi2,qj2∈Qと表す。点pi1及び点qi2との対応関係が、点pj1及び点qj2との間にも成立するとき、(i1,i2)と、(j1,j2)とは、インライアを構成する組とみなす。図6には、平行移動により重なる特徴点の組をインライアと判定する例を示す。 Here, as a reference, consider the problem of associating a plurality of feature points included in the series P with a plurality of feature points included in the series Q. Hereinafter, the number of feature points included in the series P is | P |, and the number of feature points included in the series Q is | Q |. Series P, and feature points extracted by 2 points from each of the series Q, denoted respectively p i1, p j1 ∈P, and q i2, q j2 ∈Q. When the correspondence between the points p i1 and the point q i2 also holds between the points p j1 and the point q j2 , (i1, i2) and (j1, j2) are the sets constituting the inlier. I reckon. FIG. 6 shows an example of determining a set of feature points that overlap due to parallel movement as an inlier.

(i1,i2)と、(j1,j2)とは同じ平行移動量により重なる組である一方、別の点qk2∈Qを含む(j1,k2)の組は、これを満たさない。この事象を表現するために、要素数|P||Q|×|P||Q|の行列Mを定義し、上記に対応する要素M((i1,i2),(j1,j2))に「1」を、そうではない組に「0」を設定する。全要素の設定後、下記処理により全体で最適かつ重複のない要素間対応付け結果を求められる。 While (i1, i2) and (j1, j2) are pairs that overlap due to the same translation amount, the pair of (j1, k2) that includes another point q k2 ∈ Q does not satisfy this. In order to express this event, a matrix M of the number of elements | P || Q | × | P || Q | is defined, and the elements M ((i1, i2), (j1, j2)) corresponding to the above are set. Set "1" and "0" for other pairs. After setting all the elements, the optimum and unique inter-element association result can be obtained by the following processing.

まず、行列Mの第1主成分に対応する固有ベクトルxをべき乗法により求める。そして、要素数|P||Q|×1のxを要素数|P|×|Q|の行列Xに再編成する。さらに、Hungarian法を適用し、1対1対応の対応関係を求める。例えば、図6に示した例では、インライアの組(i1,i2);(j1,j2)は、行列Mから再編成された行列Xの要素より識別できる。 First, the eigenvector x corresponding to the first principal component of the matrix M is obtained by the power method. Then, x of the number of elements | P || Q | × 1 is reorganized into the matrix X of the number of elements | P | × | Q |. Furthermore, the Hungarian method is applied to obtain a one-to-one correspondence. For example, in the example shown in FIG. 6, the pair of inliers (i1, i2); (j1, j2) can be identified by the elements of the matrix X reorganized from the matrix M.

次に、上記ステップS102により得られた、ある投影画像における系列P、及び他の投影画像における系列Q中の線分を対応付ける問題を考える。上記参考文献1における手法との相違点は、照合の単位を点から線分に置き換えていること、及び行列Mに格納する値を線分の端点位置差分に置き換えていることである。線分はEN座標を要素とする両端点2点により表される。図7に示す例のように、各走行より2線分を選択し、pi1,p’i1,pj1,p’j1∈P、qi2,q’i2,qj2,q’j2∈Qと表す。組(i1,i2)に対応する位置差分量vi1,i2を下記(5)式により導出する。
Next, consider the problem of associating the line segments in the series P in a certain projected image and the series Q in another projected image obtained in step S102. The difference from the method in Reference 1 above is that the unit of collation is replaced with a line segment from a point, and the value stored in the matrix M is replaced with the end point position difference of the line segment. A line segment is represented by two points at both ends whose elements are EN coordinates. As in the example shown in FIG. 7, select 2 line from each run, p i1, p 'i1, p j1, p' j1 ∈P, q i2, q 'i2, q j2, q' j2 ∈Q It is expressed as. The position difference amounts v i1 and i2 corresponding to the set (i1, i2) are derived by the following equation (5).

続いて、組(i1,i2)及び(j1,j2)のインライアらしさを表す値を、上記(5)式により得られる位置差分量を適用後の端点位置差分をもとに算出し、行列Mに格納する。行列Mは、下記(6)式により表される。
Subsequently, the values representing the inlier characteristics of the sets (i1, i2) and (j1, j2) are calculated based on the end point position difference after applying the position difference amount obtained by the above equation (5), and the matrix M Store in. The matrix M is represented by the following equation (6).

この値は、両線分の端点が位置差分量を適用後に完全に一致するとき「1」となり、離れるほど「0」に近付く。上記(6)式におけるλは。大きな平行移動量を抑制するための重みであり、測位精度を考慮し下記(7)式により定義する。
This value becomes "1" when the end points of both line segments completely match after applying the position difference amount, and approaches "0" as the distance increases. Λ in the above equation (6) is. It is a weight for suppressing a large amount of parallel movement, and is defined by the following equation (7) in consideration of positioning accuracy.

系列Pまたは、系列Qに含める線分は次のように選別する。上記ステップS100及びS102により得られた投影画像各々における複数の線分の中で、両端点の位置の一致(例えば、距離が0.5m未満)する線分が複数フレームに存在するものの確信度を1とし、照合対象とする。それ以外の線分は、確信度を0とし、本処理(線分対応付)には用いない。なお、本処理に用いなかった線分も後段の処理(S108の処理)には用いる。 The line segments included in the series P or the series Q are selected as follows. Among the plurality of line segments in each of the projected images obtained in steps S100 and S102, the certainty that the line segments in which the positions of both end points match (for example, the distance is less than 0.5 m) exists in the plurality of frames. Set to 1 and set as the collation target. For other line segments, the certainty level is set to 0, and they are not used in this processing (with line segment correspondence). The line segment not used in this process is also used in the subsequent process (process of S108).

すなわち、位置差分量適用後における線分の両端の位置の差分が小さい組は、インライアとなる。これにより、体表的な点を対応付けて、線分を合わせるポイントを抽出する。 That is, a set in which the difference between the positions at both ends of the line segment after applying the amount of position difference is small is an inlier. As a result, the points on which the line segments are aligned are extracted by associating the points on the body surface.

次のステップS106で線分対応付部24は、線分の移動量を補間する。まず、インライアと判定された線分の組について、上記(5)式の位置差分量が算出されたものとする。もし、系列P及び系列Qが大局的な平行移動により一致する場合は、固有ベクトルxの最大要素に対応する線分組の位置差分量が、系列P,Q間の位置差分量とみなせる。しかし実際は、測位部14の軌跡誤差の影響等で局所的な歪みが発生する。したがって、線分対応付部24によって得られた1対1対応の線分組の中から、固有ベクトルxの要素の大きい、上位n組を利用する。本処理によって、適切なnの値が求められる。後段の処理では、上位n組の線分の組を制御点とし、その中間に存在する線分の位置差分量を線形補間することで、系列を重ね合わせることができる。 In the next step S106, the line segment corresponding unit 24 interpolates the movement amount of the line segment. First, it is assumed that the position difference amount of the above equation (5) is calculated for the set of line segments determined to be inliers. If the series P and the series Q match due to global parallel movement, the position difference amount of the line segment set corresponding to the maximum element of the eigenvector x can be regarded as the position difference amount between the series P and Q. However, in reality, local distortion occurs due to the influence of the trajectory error of the positioning unit 14. Therefore, from the one-to-one correspondence line segment sets obtained by the line segment correspondence attachment unit 24, the upper n sets having a large element of the eigenvector x are used. By this process, an appropriate value of n is obtained. In the subsequent processing, the series can be superposed by linearly interpolating the position difference amount of the line segments existing in the middle of the control points of the upper n sets of line segments.

図5に、線分対応付部24による補間の例を示す。組(i1,i2)及び(k1,k2)は、上位n組に該当するインライアとする。進行方向に沿ってそれらの中間に位置する線分pj1p’j1∈Pの位置差分量vj1は、前後の両線分pi1p’i1,pk1p’k1∈Pの位置差分量から、下記(8)式及び(9)式により導出される。
FIG. 5 shows an example of interpolation by the line segment corresponding portion 24. The pairs (i1, i2) and (k1, k2) are inliers corresponding to the upper n pairs. Segment p j1 p located intermediate between them along the traveling direction 'j1 position difference amount of ∈P v j1 is both segments p i1 p before and after' i1, p k1 p 'position difference amount k1 ∈P Is derived from the following equations (8) and (9).

なお、片側のみに制御点が存在する場合は、外挿せず最近傍の位置差分量をそのまま適用する。例えば、パラメータnの上限を10として、その範囲で系列P,Q間全体の線分の位置差分が最も小さくなるように、パラメータnを決定する。全体の線分の位置差分は下記(10)式により導出される。
If the control point exists on only one side, the nearest neighbor position difference amount is applied as it is without extrapolation. For example, the upper limit of the parameter n is set to 10, and the parameter n is determined so that the position difference of the entire line segment between the series P and Q is the smallest in that range. The position difference of the entire line segment is derived by the following equation (10).

次のステップS108で平均化部26は、各線分を平均化する。本ステップの処理は、上記確信度の値に関わらず、全ての線分を処理の対象とする。パラメータnが定まり、統合に用いる対応付けの組が確定したら、線分対応付部24によって導出された位置差分量に基づいて、系列P及び系列Q各々の全線分に平行移動処理を適用する。 In the next step S108, the averaging unit 26 averages each line segment. In the processing of this step, all line segments are processed regardless of the above-mentioned certainty value. When the parameter n is determined and the set of associations used for integration is determined, the translation process is applied to all the line segments of the series P and the series Q based on the position difference amount derived by the line segment corresponding attachment unit 24.

位置差分量の算出には上記(8)式及び(9)式の補間式を利用する。系列Pの線分j1の平行移動量tj1は下記(11)式で導出され、系列Qの線分j2の平行移動量tj2は下記(12)式で導出される。下記(11)式及び(12)式に示すように、平行移動量の導出には、線分対応付部24により導出された固有ベクトルxの最大要素を与える組の位置差分量vを利用する。断りのない限り、係数kを1/2(k=1/2)とする。v/2ずつ平行移動させた位置は、系列P,Q間の最も信頼できる中間位置とみなすことができるからである。なお、詳細は後述するが、いずれかの系列が信用できない(位置が外れている)場合等は、k=1/2とせず、係数kの値を信用できる系列に合わせた値に調整する。
The interpolation formulas of the above equations (8) and (9) are used to calculate the position difference amount. The translation amount t j1 of the line segment j1 of the series P is derived by the following equation (11), and the translation amount t j2 of the line segment j2 of the series Q is derived by the following equation (12). As shown in the following equations (11) and (12), the position difference amount v * of the set that gives the maximum element of the eigenvector x derived by the line segment correspondence attachment unit 24 is used to derive the translation amount. .. Unless otherwise specified, the coefficient k is set to 1/2 (k = 1/2). This is because the position translated by v * / 2 can be regarded as the most reliable intermediate position between the series P and Q. Although the details will be described later, when one of the series is unreliable (the position is out of alignment), k = 1/2 is not set, and the value of the coefficient k is adjusted to a value suitable for the reliable series.

平均化部26は、線分対応付部24の結果に基づいて、入力系列P,Qを平均化し、新たに平均化後の系列Rを生成する。一例として、図9には、系列Pの線分pj1p’j1と系列Rの線分qj2q’j2を平均化し、系列Rの線分rj1,j2r’j1,j2を生成した例を示す。 The averaging unit 26 averages the input series P and Q based on the result of the line segment corresponding unit 24, and newly generates the averaging series R. As an example, in FIG. 9, the j2 'segment q j2 q of j1 and sequence R' segment p j1 p series P averaged to produce a line segment r j1, j2 r 'j1, j2 series R An example is shown.

系列Rの線分を、rj1,j2r’j1,j2と表し、確信度をc(rj1,j2)と表すと、系列Rの線分の端点の位置rj1,j2は下記(13)式で表され、両端点の距離dは下記(14)式で表され、及び確信度c(rj1,j2)は下記(15)式で表される。なお、下記(13)式〜(15)式において、線分pj1p’j1の確信度をc(pj1)、線分qj2q’j2の確信度をc(qj2)とする。
When the line segment of the series R is expressed as r j1, j2 r'j1, j2 and the certainty is expressed as c (r j1, j2 ), the positions of the end points of the line segment of the series R r j1, j2 are as follows (13). ), The distance d between both ends is expressed by the following equation (14), and the certainty c (r j1, j2 ) is expressed by the following equation (15). In the following (13) to (15), the line segment p j1 p 'j1 confidence the c (p j1), the segment q j2 q' confidences of j2 and c (q j2).

1線分に対し他系列の複数の線分が対象となる場合、確信度c(rj1,j2)が最大となる線分の組に対し出力系列Rの線分rj1,j2r’j1,j2を生成する。 1 when a plurality of line segments of the other series to line segment of interest, confidence c (r j1, j2) line segments the output sequence R to a set of line segments having the largest r j1, j2 r 'j1 , J2 is generated.

なお、確信度が1となる系列Rの線分を生成しなかった系列P,Qにおける確信度が1の線分については、平行移動適用後の線分を系列Rに確信度を1として登録する。例えば、図9に示した例では、系列Pにおける確信度が1の線分pl1p’l1について、対応付けられた系列Qの線分がなく、確信度が1とな系列Rの線分を生成しなかったため、平行移動適用後の線分rl1,*r’l1,*を系列Rに確信度を1として登録する。 For the line segments with a certainty of 1 in the series P and Q that did not generate the line segment of the series R with a certainty of 1, the line segment after applying the translation is registered in the series R with the certainty of 1. To do. For example, in the example shown in FIG. 9, the line segment p l1 p 'l1 confidence is 1 in the sequence P, no segment of the associated series Q, confidence is 1 Do sequence R line because it did not produce a line segment r l1 after translation application, * r 'l1, it registers the confidence as 1 * in the sequence R.

次のステップS110で統合部28は、集団内の全系列の組の処理を完了したか否かを判定する。未だ集団内の全系列の組の処理を完了していない場合、ステップS110の判定が否定判定となり、ステップS112へ移行する。ステップS112で統合部28は、正規化確信度に基づいて、系列を再構築した後、ステップS104に戻り、再構築した系列に基づいてステップS104〜S108の各処理を繰り返す。一方、集団内の全系列の組の処理を完了した場合、ステップS110の判定が肯定判定となり、本線地図生成処理を終了する。 In the next step S110, the integration unit 28 determines whether or not the processing of all the sets in the group has been completed. If the processing of all the sets in the group has not been completed yet, the determination in step S110 becomes a negative determination, and the process proceeds to step S112. In step S112, the integration unit 28 reconstructs the sequence based on the normalization certainty, then returns to step S104, and repeats each process of steps S104 to S108 based on the reconstructed sequence. On the other hand, when the processing of all the sets in the group is completed, the determination in step S110 becomes an affirmative determination, and the main line map generation processing ends.

本実施形態では、複数系列の線分を統合する場合、例えば、道路Rの車線毎に系列の集合{A1,A2,A3,A4・・・}、及び{B1,b2,b3,b4・・・}を定義し、各集合内の全組み合わせについて、上記ステップS108の平均化部26による平均化を実施する。 In the present embodiment, when integrating a plurality of line segments, for example, a set of series {A1, A2, A3, A4 ...} For each lane of the road R, and {B1, b2, b3, b4 ... •} Is defined, and all combinations in each set are averaged by the averaging unit 26 in step S108.

ステップS108の処理により確信度が「未定」とされた線分については、集合内で1組でも他系列と対応付けが可能な事例があった場合は、確信度を1とし、当該事例がなかった場合は、確信度を0とする。 For a line segment whose certainty is "undecided" by the processing of step S108, if there is a case in the set that can be associated with another series, the certainty is set to 1 and there is no such case. If so, the certainty level is set to 0.

正規化確信度の大きい順に出力数系列(例えば、8系列)を選別し、次のステップ用の集合を再構築する。正規化確信度は、例えば、下記(16)式により表される。
正規化確信度=(上記(15)式のexp(−d)を出力系列内で総和した値)/(検出線分数×走行距離) ・・・(16)
The output number series (for example, 8 series) is selected in descending order of normalization certainty, and the set for the next step is reconstructed. The normalization certainty is expressed by, for example, the following equation (16).
Normalization certainty = (value obtained by summing exp (-d) of the above equation (15) in the output series) / (detection line fraction x mileage) ... (16)

同じ系列の組み合わせが重複する場合、例えば、図10に示した例では、「A123」の場合、正規化確信度が最大の系列を採用する。 When the combination of the same series overlaps, for example, in the example shown in FIG. 10, in the case of "A123", the series having the maximum normalization certainty is adopted.

測位部14における大きな測定誤差を除外するため、移動量vのノルム||v||を集合中で平均した値が大きい順に、上位の何割か(例えば、4割等)に入る系列を、位置の外れた系列とみなし、線分(端点)の位置を調整する。対応付ける系列を系列P、Qとした場合、以下のいずれかの態様をとる。 In order to exclude a large measurement error in the positioning unit 14, the series in which the norms of the movement amount v * || v * || are placed in the top percentage (for example, 40%) in descending order of the average value in the set are selected. , It is regarded as a series that is out of position, and the position of the line segment (end point) is adjusted. When the associated series is the series P and Q, one of the following modes is taken.

系列Pが上記に該当する場合、上記(11)式及び(12)式において係数kを1(k=1)とする。また、系列Qが上記に該当する場合、上記(11)式及び(12)式において係数kを0(k=0)とする。また、系列P,Qの両方が上記に該当する場合、系列P,Qから系列P,Q以外への移動量vを小集団内で平均した移動量を加算する。 When the series P corresponds to the above, the coefficient k is set to 1 (k = 1) in the above equations (11) and (12). When the series Q corresponds to the above, the coefficient k is set to 0 (k = 0) in the above equations (11) and (12). If both the series P and Q correspond to the above, the movement amount obtained by averaging the movement amount v * from the series P and Q to other than the series P and Q in the small group is added.

一例としては、集合内の統合回数を2回、集合間の統合回数を1回とし、統合部28は、最終的に正規化確信度が最大の系列を統合結果として地図データベース18へ出力する。 As an example, the number of integrations within the set is set to 2 and the number of integrations between sets is set to 1, and the integration unit 28 finally outputs the sequence having the maximum normalization certainty to the map database 18 as the integration result.

例えば図10に示した例では、ある車線について、各々異なる系列から検出された線分A1、A2、A3、及びA4を用い、上記S104〜S108の処理により線分A1及び線分A2から線分A12を生成し、線分A1及び線分A3から線分A13を生成し、線分A2及び線分A3から線分A23を生成し、線分A3及び線分A4から線分A34を生成した場合を示している。さらに、上記ステップS104〜S108の処理を繰り返し、線分A12及び線分A13から線分A123を生成し、線分A13及び線分A23から線分A123を生成し、線分A12及び線分A34から線分A1234を生成する。この場合、線分A123は重複するため、正規化確信度が高い組み合わせの線分、図10に示した例では、線分A12及び線分A13の組み合わせによる線分A123を採用する。 For example, in the example shown in FIG. 10, for a certain lane, line segments A1, A2, A3, and A4 detected from different sequences are used, and the line segments A1 and A2 are separated by the processing of S104 to S108. When A12 is generated, line segment A13 is generated from line segment A1 and line segment A3, line segment A23 is generated from line segment A2 and line segment A3, and line segment A34 is generated from line segment A3 and line segment A4. Is shown. Further, the processes of steps S104 to S108 are repeated to generate line segment A123 from line segment A12 and line segment A13, line segment A123 from line segment A13 and line segment A23, and line segment A12 and line segment A34. Generate line segment A1234. In this case, since the line segments A123 overlap, a line segment A123 having a combination of line segments A12 and A13 with a high degree of certainty of normalization is adopted in the example shown in FIG.

また、各々異なる系列から検出された線分B1、B2、B3、及びB4を用い、上記S104〜S108の処理により線分B1及び線分B2から線分B12を生成し、線分B1及び線分B3から線分B13を生成し、線分B2及び線分B4から線分B24を生成し、線分B3及び線分B4から線分B34を生成した場合を示している。さらに、上記ステップS104〜S108の処理を繰り返し、線分B13及び線分B24から線分B1234を生成する。この場合、線分B12及び線分B34は正規化確信度が低い組み合わせの線分であるため、統合に用いない。 Further, using line segments B1, B2, B3, and B4 detected from different series, line segment B1 and line segment B2 are generated from line segment B1 and line segment B2 by the processing of S104 to S108, and line segment B1 and line segment are generated. The case where the line segment B13 is generated from B3, the line segment B24 is generated from the line segment B2 and the line segment B4, and the line segment B34 is generated from the line segment B3 and the line segment B4 is shown. Further, the process of steps S104 to S108 is repeated to generate a line segment B1234 from the line segment B13 and the line segment B24. In this case, the line segment B12 and the line segment B34 are not used for integration because they are a combination of line segments having low normalization certainty.

そして、統合部28は、集合Aの線分A1234と、集合Bの線分B1234を統合して、統合結果A1234B1234を導出し、地図データベース18に出力する。 Then, the integration unit 28 integrates the line segment A1234 of the set A and the line segment B1234 of the set B, derives the integration result A1234B1234, and outputs it to the map database 18.

本実施の形態の地図生成装置10の適用例について図11A及び図11Bに示す。図11Aに示した例では、系列P及び系列Q各々複数の線分を同一平面上に表しており、線分対応付部24により、系列Pの線分と系列Qの線分とが対応付けられた状態を示している。なお、図11Aに示した例では、対応付けられた線分同士を矢印で示している。また、図11Bに示した例では、統合部28により系列Pと系列Qとを統合して得られた統合結果の一例を示している。なお、図11Bでは、統合結果(インライア)の線分を実線で示し、アウトライアの線分を点線で示す。また、比較例として、図11Cには、図11Aにおける系列Pの各線分と、系列Qの各線分全体を平行移動させた場合の統合結果の例を示す。図11Cでは、図11Bと同様に、インライアの線分を実線で示し、アウトライアの線分を点線で示す。図11B及び図11Cを比較するとわかるように、本実施形態の地図生成装置10によれば、単純に系列の線分を平行移動させた場合に比べて、系列間で適切に線分の統合が行われていることがわかる。 An application example of the map generator 10 of the present embodiment is shown in FIGS. 11A and 11B. In the example shown in FIG. 11A, a plurality of line segments of each of the series P and the series Q are represented on the same plane, and the line segment of the series P and the line segment of the series Q are associated with each other by the line segment corresponding portion 24. It shows the state of being In the example shown in FIG. 11A, the associated line segments are indicated by arrows. Further, in the example shown in FIG. 11B, an example of the integration result obtained by integrating the series P and the series Q by the integration unit 28 is shown. In FIG. 11B, the line segment of the integration result (inlier) is shown by a solid line, and the line segment of the outlier is shown by a dotted line. Further, as a comparative example, FIG. 11C shows an example of the integration result when each line segment of the series P in FIG. 11A and the entire line segment of the series Q are translated in parallel. In FIG. 11C, similarly to FIG. 11B, the line segment of the inlier is shown by a solid line, and the line segment of the outlier is shown by a dotted line. As can be seen by comparing FIGS. 11B and 11C, according to the map generator 10 of the present embodiment, the line segments can be appropriately integrated between the series as compared with the case where the line segments of the series are simply translated. You can see that it is being done.

また、本実施の形態の地図生成装置10の適用例について図12A〜図12Dに示す。図12Aに示した例では、線分検出部20により検出され投影部22により座標が変換された系列Pの複数の線分を示す投影図を示している。また、図12Bに示した例では、線分検出部20により検出され投影部22により座標が変換された系列Qの複数の線分を示す投影図を示している。系列P、及び系列Qの各々は、同一走行区間の道路Rの左右を撮像した撮像画像から得られた投影画像である。図12Cには、線分対応付部24により、図12Aに示した系列Pの線分と、図12Bに示した系列Qの線分とが対応付けられた状態を示している。図12Cでは、上記図11Aと同様に対応付けられた線分同士を矢印で示している。さらに、図12Dには、統合部28により系列Pと系列Qとを統合して得られた統合結果の一例を示している。なお、図12Dでは、上記図11Bと同様に、統合結果(インライア)の線分を実線で示し、アウトライアの線分を点線で示す。図12Dに示すように、本実施形態の地図生成装置10によれば、道路Rの左右を撮像した撮像画像を用いた場合、道路Rの中央付近の区画線を表す線分が統合により、適切に検出されていることがわかる。 Further, FIGS. 12A to 12D show an application example of the map generator 10 of the present embodiment. In the example shown in FIG. 12A, a projection drawing showing a plurality of line segments of the series P detected by the line segment detection unit 20 and whose coordinates are converted by the projection unit 22 is shown. Further, in the example shown in FIG. 12B, a projection drawing showing a plurality of line segments of the series Q detected by the line segment detection unit 20 and whose coordinates are converted by the projection unit 22 is shown. Each of the series P and the series Q is a projection image obtained from an captured image of the left and right sides of the road R in the same traveling section. FIG. 12C shows a state in which the line segment of the series P shown in FIG. 12A and the line segment of the series Q shown in FIG. 12B are associated with each other by the line segment corresponding portion 24. In FIG. 12C, the line segments associated with each other are indicated by arrows in the same manner as in FIG. 11A. Further, FIG. 12D shows an example of the integration result obtained by integrating the series P and the series Q by the integration unit 28. In FIG. 12D, similarly to FIG. 11B, the line segment of the integration result (inlier) is shown by a solid line, and the line segment of the outlier is shown by a dotted line. As shown in FIG. 12D, according to the map generator 10 of the present embodiment, when the captured images of the left and right sides of the road R are used, the line segments representing the lane markings near the center of the road R are appropriate due to the integration. It can be seen that it has been detected in.

以上説明したように、上記各実施形態の地図生成装置10は、線分検出部20、線分対応付部24、平均化部26、及び統合部28を備える。線分検出部20は、車両2に搭載された撮像部12により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する。線分対応付部24は、複数の撮像画像毎に、撮像画像から検出された線分の両端点と、他の撮像画像から検出された線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、撮像画像から検出された線分からなる系列と、他の撮像画像から検出された線分からなる系列との2系列間で、位置差分量が小さくなるように、線分の対応付けを行う。平均化部26は、線分対応付部24により対応付けられた2系列間の線分の対応付けに基づいて、対応付けられた線分の間の位置に新たな線分を生成し、新たな線分からなる系列を生成する。統合部28は、平均化部26が生成した、新たな線分からなる系列同士の2系列について、線分対応付部24による対応付け、及び平均化部26による生成を行わせて、新たな線分からなる系列同士の2系列を統合する。 As described above, the map generation device 10 of each of the above embodiments includes a line segment detection unit 20, a line segment correspondence unit 24, an averaging unit 26, and an integration unit 28. The line segment detection unit 20 detects a plurality of line segments from each of a plurality of captured images in which the same traveling section is captured by the image pickup unit 12 mounted on the vehicle 2. The line segment corresponding unit 24 calculates the position difference amount between the end points of the line segment detected from the captured image and the end points of the line segment detected from the other captured images for each of the plurality of captured images. Based on the calculated position difference amount, the position difference amount is reduced between the two series consisting of the line segments detected from the captured image and the series consisting of the line segments detected from the other captured images. Associate line segments. The averaging unit 26 generates a new line segment at a position between the associated line segments based on the association of the line segments between the two series associated with the line segment corresponding unit 24, and newly generates a new line segment. Generate a series of line segments. The integration unit 28 causes the averaging unit 26 to associate the two series of the series consisting of the new line segments with each other by the line segment corresponding unit 24 and generate the new line segment. Integrate two series of line segments.

このように本実施形態の地図生成装置10によれば、線分対応付部24により、線分の一致の度合いを表す確信度を指標とした対応付けにより、系列間の全体として最適、かつ重複のない線分の対応付けが行われる。また、平均化部26が、対応付け結果に基づいて、対応付いた2つの線分間の中間位置に、両線分を統合した新たな線分を生成する。また、線分対応付部24は、対応付けられなかった線分については、周囲の線分の対応関係をもとに移動量の補間を行い、位置を更新する。これらの処理により、測位部14の軌跡誤差等による線分分布の非線形な歪みを補完することができる。また、平均化部26及び統合部28では、平均化及び統合を繰り返す際に、位置が外れた系列、例えば、後検出された線分を除外しながら、統合することもできる。また、系列の数、換言すると撮像画像の数を増加させることで、統合後の線分は、実際の位置(真位置)へと収束に向かう。また、軌跡誤差による歪みも収束に向かう。このように、本実施形態の地図生成装置10によれば、単純に各系列の線分全体を平行移動させたのみでは重ならない歪みを吸収することができる。 As described above, according to the map generation device 10 of the present embodiment, the line segment corresponding portion 24 is optimally and duplicated as a whole between the series by the association using the certainty degree indicating the degree of line segment matching as an index. Line segments without a line segment are associated. Further, the averaging unit 26 generates a new line segment that integrates both line segments at an intermediate position between the two corresponding line segments based on the association result. Further, the line segment correspondence unit 24 updates the position of the line segment that is not associated with the line segment by interpolating the movement amount based on the correspondence relationship of the surrounding line segments. By these processes, it is possible to supplement the non-linear distortion of the line segment distribution due to the trajectory error of the positioning unit 14. Further, in the averaging unit 26 and the integration unit 28, when the averaging and integration are repeated, the series can be integrated while excluding the misaligned series, for example, the line segment detected afterwards. Further, by increasing the number of series, in other words, the number of captured images, the line segment after integration tends to converge to the actual position (true position). In addition, the distortion due to the trajectory error also tends to converge. As described above, according to the map generator 10 of the present embodiment, it is possible to absorb distortions that do not overlap by simply translating the entire line segment of each series.

従って、本実施形態の地図生成装置10によれば、高精度な線地図を生成することができる。 Therefore, according to the map generation device 10 of the present embodiment, it is possible to generate a highly accurate line map.

本実施形態の地図生成装置10によって得られ、地図データベース18に記憶された線地図は、例えば、車両2の自己位置の推定や、自動運転等に利用することができる。 The line map obtained by the map generation device 10 of the present embodiment and stored in the map database 18 can be used, for example, for estimating the self-position of the vehicle 2 and for automatic driving.

なお、地図生成装置10には、各種ドライブが接続されていてもよい。各種ドライブは、フレキシブルディスク、光磁気ディスク、CD−ROMなどのコンピュータ読み取り可能な可搬性の記録媒体からデータを読み込んだり、記録媒体に対してデータを書き込んだりする装置である。各種ドライブを備える場合には、可搬性の記録媒体に制御プログラムを記録しておいて、これを対応するドライブで読み込んで実行してもよい。 Various drives may be connected to the map generator 10. Various drives are devices that read data from a computer-readable portable recording medium such as a flexible disk, magneto-optical disk, or CD-ROM, or write data to the recording medium. When various drives are provided, the control program may be recorded on a portable recording medium, read by the corresponding drive, and executed.

1 地図生成システム
10 地図生成装置
12 撮像部
14 測位部
20 線分検出部
22 投影部
24 線分対応付部
26 平均化部
28 統合部
1 Map generation system 10 Map generation device 12 Imaging unit 14 Positioning unit 20 Line segment detection unit 22 Projection unit 24 Line segment correspondence unit 26 Average unit 28 Integration unit

Claims (8)

車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部と、
前記複数の撮像画像毎に、前記撮像画像から検出された線分の両端点と、他の撮像画像から検出された線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記撮像画像から検出された線分からなる系列と、他の撮像画像から検出された線分からなる系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部と、
前記線分対応付部により対応付けられた2系列間の線分の対応付けに基づいて、対応付けられた線分の間の位置に新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部と、
前記平均化部が生成した、前記新たな線分からなる系列同士の2系列について、前記線分対応付部による対応付け、及び前記平均化部による生成を行わせて、前記新たな線分からなる系列同士の2系列を統合する統合部と、
を備えた地図生成装置。
A line segment detection unit that detects a plurality of line segments from each of a plurality of captured images captured in the same traveling section by an imaging unit mounted on a vehicle.
For each of the plurality of captured images, the position difference amount between the end points of the line segment detected from the captured image and the end points of the line segment detected from the other captured images is calculated, and the calculated position difference amount is calculated. Correspondence of the line segments so that the position difference amount becomes small between the two series consisting of the line segments detected from the captured image and the series consisting of the line segments detected from the other captured images. With the line segment corresponding part to attach
A new line segment is generated at a position between the associated line segments based on the correspondence of the line segments between the two line segments associated with the line segment corresponding portion, and the series consisting of the new line segments. With the averaging section that generates
The two series of the series consisting of the new line segments generated by the averaging unit are associated with each other by the line segment corresponding portion and generated by the averaging unit, and the series consisting of the new line segment is performed. An integration unit that integrates two lines of each other,
A map generator equipped with.
前記統合部は、対応付けられた前記線分の位置を中心位置に収束させることで、前記2系列を統合する、
請求項1に記載の地図生成装置。
The integration unit integrates the two series by converging the position of the associated line segment to the center position.
The map generator according to claim 1.
前記線分検出部が検出した複数の線分の各々について、前記複数の撮像画像の各々に対応付けられている、前記車両の位置情報に基づいて、各線分の位置を表す座標を絶対座標に変換する投影部をさらに備え、
前記線分対応付部は、前記両端点の前記絶対座標に基づく位置に基づいて、対応付けを行う、
請求項1または請求項2に記載の地図生成装置。
For each of the plurality of line segments detected by the line segment detection unit, the coordinates representing the position of each line segment are set to absolute coordinates based on the position information of the vehicle associated with each of the plurality of captured images. It also has a projection unit to convert,
The line segment corresponding portion associates the end points based on the positions based on the absolute coordinates.
The map generator according to claim 1 or 2.
前記投影部は前記両端点を表す座標を、鳥瞰図における前記絶対座標に変換する、
請求項3に記載の地図生成装置。
The projection unit converts the coordinates representing the both end points into the absolute coordinates in the bird's-eye view.
The map generator according to claim 3.
前記線分検出部は、前記複数の撮像画像各々から区画線の芯線を線分として検出する、
請求項1から請求項4のいずれか1項に記載の地図生成装置。
The line segment detection unit detects the core wire of the section line as a line segment from each of the plurality of captured images.
The map generator according to any one of claims 1 to 4.
前記平均化部は、前記系列の集合内で位置誤差の大きい上位n(nは1以上の整数)組の系列と、前記n組以外の系列を平均化する場合、前記n組以外の系列の線分の位置に近寄らせた線分を生成する、
請求項1から請求項5のいずれか1項に記載の地図生成装置。
When averaging a series of upper n (n is an integer of 1 or more) sets having a large position error in the set of the series and a series other than the n sets, the averaging unit is a series other than the n sets. Generate a line segment that is closer to the position of the line segment,
The map generator according to any one of claims 1 to 5.
前記統合部は、前記平均化部で線分の一致性が高い上位の出力系列を選別し、系列の集合を再構築する、
請求項1から請求項6のいずれか1項に記載の地図生成装置。
The integration unit selects the upper output series having high line segment matching in the averaging unit and reconstructs a set of series.
The map generator according to any one of claims 1 to 6.
コンピュータを、
車両に搭載された撮像部により、同一の走行区間が撮影された複数の撮像画像の各々から、複数の線分を検出する線分検出部、
前記複数の撮像画像毎に、前記撮像画像から検出された線分の両端点と、他の撮像画像から検出された線分の両端点との位置差分量を算出し、算出された位置差分量に基づいて、前記撮像画像から検出された線分からなる系列と、他の撮像画像から検出された線分からなる系列との2系列間で、前記位置差分量が小さくなるように、線分の対応付けを行う線分対応付部、
前記線分対応付部により対応付けられた2系列間の線分の対応付けに基づいて、対応付けられた線分の間の位置に新たな線分を生成し、前記新たな線分からなる系列を生成する平均化部、
前記平均化部が生成した、前記新たな線分からなる系列同士の2系列について、前記線分対応付部による対応付け、及び前記平均化部による生成を行わせて、前記新たな線分からなる系列同士の2系列を統合する統合部、
として機能させるためのプログラム。
Computer,
A line segment detection unit that detects a plurality of line segments from each of a plurality of captured images captured in the same traveling section by an imaging unit mounted on a vehicle.
For each of the plurality of captured images, the position difference amount between the end points of the line segment detected from the captured image and the end points of the line segment detected from the other captured images is calculated, and the calculated position difference amount is calculated. Correspondence of the line segments so that the position difference amount becomes small between the two series consisting of the line segments detected from the captured image and the series consisting of the line segments detected from the other captured images. Line segment corresponding part to attach,
A new line segment is generated at a position between the associated line segments based on the correspondence of the line segments between the two line segments associated with the line segment corresponding portion, and the series consisting of the new line segments. The averaging section, which produces
The two series of the series consisting of the new line segments generated by the averaging unit are associated with each other by the line segment corresponding portion and generated by the averaging unit, and the series consisting of the new line segment is performed. An integration unit that integrates two lines of each other,
A program to function as.
JP2019036877A 2019-02-28 2019-02-28 Map generator and program Active JP7028206B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019036877A JP7028206B2 (en) 2019-02-28 2019-02-28 Map generator and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019036877A JP7028206B2 (en) 2019-02-28 2019-02-28 Map generator and program

Publications (2)

Publication Number Publication Date
JP2020140566A true JP2020140566A (en) 2020-09-03
JP7028206B2 JP7028206B2 (en) 2022-03-02

Family

ID=72280400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019036877A Active JP7028206B2 (en) 2019-02-28 2019-02-28 Map generator and program

Country Status (1)

Country Link
JP (1) JP7028206B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004814A (en) * 2013-06-20 2015-01-08 株式会社豊田中央研究所 Lane map generation device and program
JP2018116147A (en) * 2017-01-18 2018-07-26 株式会社デンソーアイティーラボラトリ Map creation device, map creation method and map creation computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004814A (en) * 2013-06-20 2015-01-08 株式会社豊田中央研究所 Lane map generation device and program
JP2018116147A (en) * 2017-01-18 2018-07-26 株式会社デンソーアイティーラボラトリ Map creation device, map creation method and map creation computer program

Also Published As

Publication number Publication date
JP7028206B2 (en) 2022-03-02

Similar Documents

Publication Publication Date Title
Klingner et al. Street view motion-from-structure-from-motion
CN111557665B (en) Dense body marker estimation from camera data for patient positioning in medical imaging
JP6514624B2 (en) Obstacle detection device
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
CN108020827B (en) Mobile imaging platform calibration
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
US6819318B1 (en) Method and apparatus for modeling via a three-dimensional image mosaic system
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
US9619892B2 (en) Apparatus and method for extracting movement path of mutual geometric relationship fixed camera group
JP6782903B2 (en) Self-motion estimation system, control method and program of self-motion estimation system
CN109754459B (en) Method and system for constructing human body three-dimensional model
JP6194610B2 (en) Moving distance estimation apparatus, moving distance estimation method, and program
JP2007310707A (en) Apparatus and method for estimating posture
WO2018235923A1 (en) Position estimating device, position estimating method, and program
US20190102910A1 (en) Estimating program, estimating method, and estimating system for camera parameter
CN110462685B (en) Three-dimensional model reconstruction method and system
KR102289688B1 (en) Method for Estimating 3D Marker Cordinetes of Optical Position Tracking System
Gu et al. Histograms of the normalized inverse depth and line scanning for urban road detection
Daraei et al. Velocity and shape from tightly-coupled LiDAR and camera
JP5501084B2 (en) Planar area detection apparatus and stereo camera system
KR101677230B1 (en) Apparatus and method for estimating quality of heterogenic image fusion algorithm
JP7028206B2 (en) Map generator and program
JP2009237846A (en) Information processor, information processing method, and computer program
JP2006113832A (en) Stereoscopic image processor and program
JP2008185417A (en) Information processing device, information processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7028206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150