JP2018116147A - Map creation device, map creation method and map creation computer program - Google Patents

Map creation device, map creation method and map creation computer program Download PDF

Info

Publication number
JP2018116147A
JP2018116147A JP2017006917A JP2017006917A JP2018116147A JP 2018116147 A JP2018116147 A JP 2018116147A JP 2017006917 A JP2017006917 A JP 2017006917A JP 2017006917 A JP2017006917 A JP 2017006917A JP 2018116147 A JP2018116147 A JP 2018116147A
Authority
JP
Japan
Prior art keywords
line segment
vehicle
images
real space
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017006917A
Other languages
Japanese (ja)
Inventor
孝介 原
Kosuke Hara
孝介 原
啓 上原
Hiroshi Uehara
啓 上原
斎藤 英雄
Hideo Saito
英雄 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Denso IT Laboratory Inc
Original Assignee
Keio University
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University, Denso IT Laboratory Inc filed Critical Keio University
Priority to JP2017006917A priority Critical patent/JP2018116147A/en
Publication of JP2018116147A publication Critical patent/JP2018116147A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a map creation device which can improve the accuracy of information indicated on a map formed of an image which is created by an on-vehicle camera.SOLUTION: A map creation device extracts a plurality of line components from a plurality of images around a vehicle (10), makes the extracted line components corresponding to line components in the same actual space between the plurality of images associated with one another, estimates a position of the vehicle (10) at the time of acquisition of the images on the basis of an evaluation value in which an angle which is formed of the line components in the actual space corresponding to orientations of the line components in the actual space which are calculated on the basis of a candidate position of the vehicle (10) at the time of acquisition of the images and the line components which are associated with one another between the images, and a progressing direction of the vehicle (10) in the candidate position of the vehicle (10) at the time of acquisition of any images is calculated from a likelihood in which the line components in the angle which is formed of the progressing direction of the vehicle (10) and the line components around the vehicle (10) are line components having prescribed orientations, and creates a map by acquiring positions of the line components in the actual space corresponding to the line components which are associated with one another between the images on the basis of the estimated position of the vehicle (10).SELECTED DRAWING: Figure 2

Description

本発明は、車載のカメラにより得られた車両周囲の画像から地図を作成する地図作成装置、地図作成方法及び地図作成用コンピュータプログラムに関する。   The present invention relates to a map creation device, a map creation method, and a map creation computer program for creating a map from an image around a vehicle obtained by an in-vehicle camera.

近年、運転支援などの目的で、車両には、1台以上のカメラが取り付けられることがある。このような場合、カメラにより得られた画像を有効に利用するために、異なるカメラにより生成された複数の画像間で、あるいは、異なる位置で同一のカメラにより生成された複数の画像間で、実空間上の同一の点あるいは線に対応する画像上の特徴点または線分同士を対応付けることが提案されている(例えば、特許文献1及び非特許文献1〜3を参照)。   In recent years, one or more cameras may be attached to a vehicle for the purpose of driving assistance or the like. In such a case, in order to effectively use the image obtained by the camera, it can be used between a plurality of images generated by different cameras or between a plurality of images generated by the same camera at different positions. It has been proposed to associate feature points or line segments on an image corresponding to the same point or line in space (see, for example, Patent Document 1 and Non-Patent Documents 1 to 3).

例えば、特許文献1には、路面上にある、マンホールの蓋の中心、白線の端部などの特徴点を、移動体の直進時における移動前後の移動体に取り付けられたカメラにより撮影された画像間で、物体追跡処理を用いて対応付けることが提案されている。   For example, Patent Document 1 discloses an image in which characteristic points such as the center of a manhole cover and the end of a white line on a road surface are photographed by a camera attached to the moving body before and after moving when the moving body goes straight. In the meantime, it has been proposed to associate using object tracking processing.

また、非特許文献1には、車両に搭載された前方を写すカメラと左側または右側を写すカメラ間で、連続する二つのフレームについてSURF特徴を抽出し、照合することが記載されている。さらに、非特許文献2には、一方の画像上の特徴点周囲の領域をワーピングにより変形させて、対応付けを行う他方の画像上での対応点を検出することが提案されている。さらにまた、非特許文献3には、環境地図の作成(Simultaneous Localization and Mapping,SLAM)を実行するために、異なるフレームのそれぞれから検出された線分同士を対応付けることが提案されている。   Non-Patent Document 1 describes that SURF features are extracted and collated for two consecutive frames between a camera mounted on a vehicle that captures the front and a camera that captures the left or right side. Further, Non-Patent Document 2 proposes that a region around a feature point on one image is deformed by warping to detect a corresponding point on the other image to be associated. Furthermore, Non-Patent Document 3 proposes that line segments detected from different frames are associated with each other in order to create an environment map (Simultaneous Localization and Mapping, SLAM).

特開2014−101075号公報JP, 2014-101075, A

Gim Hee Lee他、「Motion Estimation for Self-Driving Cars With a Generalized Camera」、Computer Vision and Pattern Recognition (CVPR)、2013 IEEE Conference on. IEEE、2013年Gim Hee Lee et al., "Motion Estimation for Self-Driving Cars With a Generalized Camera", Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on. IEEE, 2013 Simon Baker他、「Lucas-Kanade 20 Years On: A Unifying Framework: Part 1」、International journal of computer vision 56.3、pp.221-255、2004年Simon Baker et al., `` Lucas-Kanade 20 Years On: A Unifying Framework: Part 1 '', International journal of computer vision 56.3, pp. 221-255, 2004 Keisuke Hirose他、「Fast Line Description for Line-based SLAM」BMVC 2012、2012年Keisuke Hirose et al., "Fast Line Description for Line-based SLAM" BMVC 2012, 2012

自動運転システムあるいは先進運転支援システムなどでは、自動運転または運転支援を行うために、地図に示されている道路の情報(例えば、車線区画線または横断歩道などの道路標示)などが利用される。そこでこの地図では、路面に描画されている道路標示などの情報ができるだけ精度良く再現されていることが好ましい。そのため、車載のカメラにより得られた画像から検出された線分などに基づいて、道路標示などの情報が高精度に再現される地図を作成する技術が求められている。   In an automatic driving system or an advanced driving support system, information on a road (for example, a road marking such as a lane line or a pedestrian crossing) shown on a map is used to perform automatic driving or driving support. Therefore, in this map, it is preferable that information such as road markings drawn on the road surface is reproduced as accurately as possible. Therefore, there is a need for a technique for creating a map on which information such as road markings is reproduced with high accuracy based on a line segment detected from an image obtained by an in-vehicle camera.

そこで、本発明は、車両に搭載されたカメラにより生成された画像から作成される地図に表される情報の精度を向上できる地図作成装置、位置合わせ方法及び位置合わせ用コンピュータプログラムを提供することを目的とする。   Therefore, the present invention provides a map creation device, a registration method, and a registration computer program capable of improving the accuracy of information represented on a map created from an image generated by a camera mounted on a vehicle. Objective.

請求項1の記載によれば、本発明の一つの形態として、地図作成装置が提供される。係る地図作成装置は、車両(10)の進行方向と車両(10)の周囲における線分とがなす角における、その線分が所定の向きの線分である確率を表す確率分布を記憶する記憶部(11)と、車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出する線分抽出部(21)と、複数の画像間で、複数の画像のそれぞれから抽出された複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付ける対応付け部(23)と、複数の画像のそれぞれの取得時の車両(10)の候補位置と複数の画像間で対応付けられた線分とに基づいて算出される実空間の線分の向きに応じた、その実空間の線分と、複数の画像のそれぞれの取得時の何れかの車両(10)の候補位置における車両(10)の進行方向とがなす角を上記の確率分布に入力して得られる、その実空間の線分が所定の向きの線分である尤度から算出される評価値に基づいて、複数の画像のそれぞれの取得時の車両(10)の位置を推定する位置推定部(24)と、複数の画像のそれぞれの取得時の推定された車両(10)の位置に基づいて、複数の画像間で対応付けられた線分に対応する実空間の線分の位置を求めることで地図を作成する地図作成部(25)とを有する。
本発明に係る地図作成装置は、上記の構成を有することにより、車両に搭載されたカメラにより生成された画像から作成される地図に表される情報の精度を向上できる。
According to the first aspect of the present invention, a map creation device is provided as one aspect of the present invention. The map creating apparatus stores a probability distribution representing a probability that the line segment is a line segment in a predetermined direction at an angle formed by the traveling direction of the vehicle (10) and the line segment around the vehicle (10). From each of a plurality of images around the vehicle (10) generated at different times by the unit (11) and at least one imaging unit (2-1, 2-2) attached to the vehicle (10), A line segment extraction unit (21) that extracts a plurality of line segments, and a plurality of line segments that are extracted from each of the plurality of images and that correspond to the line segments in the same real space. A line segment in the real space calculated based on the associating unit (23) for associating the vehicle, the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images, and the line segment associated between the plurality of images. Depending on the orientation of the real space line segment and multiple The line segment of the real space obtained by inputting the angle formed by the traveling direction of the vehicle (10) at the candidate position of any vehicle (10) at the time of acquisition of each image into the probability distribution is a predetermined direction A position estimation unit (24) for estimating the position of the vehicle (10) at the time of acquisition of each of the plurality of images based on an evaluation value calculated from the likelihood of the line segment, and acquisition of each of the plurality of images Based on the estimated position of the vehicle (10) at the time, a map creation unit (25) that creates a map by obtaining the position of the line segment in the real space corresponding to the line segment associated between the plurality of images And have.
The map creation device according to the present invention can improve the accuracy of information represented on a map created from an image generated by a camera mounted on a vehicle by having the above-described configuration.

また請求項2の記載によれば、所定の向きは、道路の延伸方向と平行な第1の方向と、道路の延伸方向に対して直交する第2の方向とを含み、確率分布は、車両(10)の進行方向と車両(10)の周囲における線分とがなす角における、第1の方向の線分である確率を表す第1の確率分布と、そのなす角における、第2の方向の線分である確率を表す第2の確率分布とを含むことが好ましい。
これにより、地図作成装置は、画像間で対応付けられた線分に対応する実空間の線分が、道路上に標示される何れかの線分であるか否かを精度良く評価することができるので、その結果として、各画像取得時の車両の位置の推定精度を向上できる。
According to a second aspect of the present invention, the predetermined direction includes a first direction parallel to the road extending direction and a second direction orthogonal to the road extending direction, and the probability distribution includes the vehicle The first probability distribution representing the probability of being a line segment in the first direction at the angle formed by the traveling direction of (10) and the line segment around the vehicle (10), and the second direction at the formed angle And a second probability distribution representing the probability of the line segment.
Thereby, the map creation device can accurately evaluate whether or not the line segment in the real space corresponding to the line segment associated between the images is any line segment marked on the road. As a result, the estimation accuracy of the position of the vehicle at the time of acquiring each image can be improved.

あるいは、請求項3の記載によれば、位置推定部(24)は、評価値が最小となるときの複数の画像のそれぞれの取得時の車両(10)の候補位置を、複数の画像のそれぞれの取得時の車両(10)の位置として推定することが好ましい。
これにより、地図作成装置は、各画像取得時の車両の位置をより正確に推定できる。
Alternatively, according to the description of claim 3, the position estimation unit (24) determines the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images when the evaluation value is minimized, for each of the plurality of images. It is preferable to estimate the position of the vehicle (10) at the time of acquisition.
Thereby, the map creation apparatus can estimate the position of the vehicle at the time of acquiring each image more accurately.

さらに、請求項4の記載によれば、位置推定部(24)は、実空間の線分が所定の向きの線分である尤度と、複数の画像のそれぞれについての、実空間の線分をその画像の取得時の車両(10)の候補位置に基づいてその画像に投影したときの位置と、その画像上での対応付けられた線分間の位置ずれに応じた値とに基づいて評価値を算出することが好ましい。
これにより、地図作成装置は、各画像取得時の候補位置の正しさをより正確に評価できるので、各画像取得時の車両の位置をより正確に推定できる。
Furthermore, according to the description of claim 4, the position estimation unit (24) includes a likelihood that the line segment in the real space is a line segment in a predetermined direction, and a line segment in the real space for each of the plurality of images. Is evaluated based on the position when the image is projected on the image based on the candidate position of the vehicle (10) at the time of acquiring the image, and the value corresponding to the positional deviation between the line segments associated on the image It is preferable to calculate the value.
Thereby, since the map creation apparatus can evaluate the correctness of the candidate position at the time of each image acquisition more correctly, it can estimate the position of the vehicle at the time of each image acquisition more accurately.

さらに、請求項5の記載によれば、線分抽出部(21)は、少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された車両(10)の周囲の複数の第2の画像のそれぞれから、複数の線分を抽出し、対応付け部(23)は、複数の第2の画像間で、複数の第2の画像のそれぞれから抽出された複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けることが好ましい。そして地図作成装置は、複数の第2の画像のそれぞれの取得時の車両(10)の候補位置と複数の第2の画像間で対応付けられた線分とに基づいて算出される、複数の第2の画像間で対応付けられた線分に対応する実空間の線分の向きに応じた、その実空間の線分と、複数の第2の画像のそれぞれの取得時の何れかの車両(10)の候補位置における車両(10)の進行方向とがなす角に基づいて上記の確率分布を学習する学習部(26)をさらに有することが好ましい。
これにより、地図作成装置は、実際に車両(10)が走行したときの実空間の線分と車両の進行方向とがなす角ごとの線分の分布を確率分布に反映させることができる。その結果として、この地図作成装置は、各画像取得時の車両の位置の推定精度を向上できる。
Furthermore, according to the description of claim 5, the line segment extraction unit (21) includes a plurality of surroundings of the vehicle (10) generated at different times by the at least one imaging unit (2-1, 2-2). The plurality of line segments are extracted from each of the second images, and the associating unit (23) extracts the plurality of line segments extracted from each of the plurality of second images between the plurality of second images. Among these, it is preferable to associate line segments corresponding to line segments in the same real space. The map creation device calculates the plurality of second images based on the candidate positions of the vehicle (10) at the time of acquisition and the line segments associated between the plurality of second images. According to the direction of the line segment of the real space corresponding to the line segment associated between the second images, and any vehicle at the time of acquiring each of the line segment of the real space and the plurality of second images ( It is preferable to further include a learning unit (26) that learns the probability distribution based on an angle formed by the traveling direction of the vehicle (10) at the candidate position of 10).
Thereby, the map creation apparatus can reflect the distribution of the line segment for each angle formed by the line segment in the real space when the vehicle (10) actually travels and the traveling direction of the vehicle in the probability distribution. As a result, this map creation device can improve the estimation accuracy of the position of the vehicle when each image is acquired.

さらに、請求項6の記載によれば、本発明の他の形態として、地図作成方法が提供される。係る地図作成方法は、車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出するステップと、複数の画像間で、複数の画像のそれぞれから抽出された複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けるステップと、複数の画像のそれぞれの取得時の車両(10)の候補位置と複数の画像間で対応付けられた線分とに基づいて算出される実空間の線分の向きに応じた、その実空間の線分と、複数の画像のそれぞれの取得時の何れかの車両(10)の候補位置における車両(10)の進行方向とがなす角を、車両(10)の進行方向と車両(10)の周囲における線分とがなす角における、その線分が所定の向きの線分である確率を表す確率分布に入力して得られる、その実空間の線分が所定の向きの線分である尤度から算出される評価値に基づいて、複数の画像のそれぞれの取得時の車両(10)の位置を推定するステップと、複数の画像のそれぞれの取得時の推定された車両(10)の位置に基づいて、複数の画像間で対応付けられた線分に対応する実空間の線分の位置を求めることで地図を作成するステップとを含む。
本発明に係る地図作成方法は、上記のステップを有することにより、車両に搭載されたカメラにより生成された画像から作成される地図に表される情報の精度を向上できる。
Furthermore, according to the description of claim 6, a map creation method is provided as another embodiment of the present invention. The map creation method is based on each of a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). Extracting a plurality of line segments; associating line segments corresponding to line segments in the same real space among a plurality of line segments extracted from each of the plurality of images; The line segment of the real space according to the direction of the line segment of the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the images and the line segment associated between the plurality of images And the angle formed by the traveling direction of the vehicle (10) at the candidate position of any vehicle (10) at the time of acquisition of each of the plurality of images, the traveling direction of the vehicle (10) and the surroundings of the vehicle (10) At the angle formed by the line segment, Based on the evaluation value calculated from the likelihood that the line segment in the real space is a line segment in the predetermined direction, which is obtained by inputting into a probability distribution representing the probability that the line segment in the predetermined direction is a line segment in the predetermined direction, Associating between the plurality of images based on the step of estimating the position of the vehicle (10) at the time of acquiring each of the plurality of images and the estimated position of the vehicle (10) at the time of acquiring each of the plurality of images. Creating a map by determining the position of a line segment in real space corresponding to the line segment.
The map creation method according to the present invention can improve the accuracy of information represented on a map created from an image generated by a camera mounted on a vehicle by having the above steps.

また請求項7の記載によれば、本発明のさらに他の形態として、地図作成用コンピュータプログラムが提供される。係る地図作成用コンピュータプログラムは、車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出するステップと、複数の画像間で、複数の画像のそれぞれから抽出された複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けるステップと、複数の画像のそれぞれの取得時の車両(10)の候補位置と複数の画像間で対応付けられた線分とに基づいて算出される実空間の線分の向きに応じた、その実空間の線分と、複数の画像のそれぞれの取得時の何れかの車両(10)の候補位置における車両(10)の進行方向とがなす角を、車両(10)の進行方向と車両(10)の周囲における線分とがなす角における、その線分が所定の向きの線分である確率を表す確率分布に入力して得られる、その実空間の線分が所定の向きの線分である尤度から算出される評価値に基づいて、複数の画像のそれぞれの取得時の車両(10)の位置を推定するステップと、複数の画像のそれぞれの取得時の推定された車両(10)の位置に基づいて、複数の画像間で対応付けられた線分に対応する実空間の線分の位置を求めることで地図を作成するステップと、をコンピュータに実行させるための命令を含む。
本発明に係る地図作成用コンピュータプログラムは、上記の命令を有することにより、車両に搭載されたカメラにより生成された画像から作成される地図に表される情報の精度を向上できる。
According to a seventh aspect of the present invention, a computer program for creating a map is provided as still another aspect of the present invention. Such a computer program for creating a map includes a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). A step of extracting a plurality of line segments, and a step of associating line segments corresponding to a line segment in the same real space among a plurality of line segments extracted from each of the plurality of images between the plurality of images. The real space according to the direction of the line segment of the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images and the line segment associated with the plurality of images. The angle formed by the line segment and the traveling direction of the vehicle (10) at the candidate position of any vehicle (10) when each of the plurality of images is acquired is defined as the traveling direction of the vehicle (10) and the traveling direction of the vehicle (10). Line segment around An evaluation calculated from the likelihood that a line segment in the real space is a line segment in a predetermined direction obtained by inputting into a probability distribution representing the probability that the line segment is a line segment in a predetermined direction at an angle formed by Based on the value, the step of estimating the position of the vehicle (10) at the time of acquiring each of the plurality of images, and the position of the estimated vehicle (10) at the time of acquiring each of the plurality of images A step of creating a map by obtaining a position of a line segment in real space corresponding to a line segment associated between images, and a command for causing a computer to execute the map.
The computer program for map creation according to the present invention can improve the accuracy of information represented on a map created from an image generated by a camera mounted on a vehicle by having the above-described command.

上記各部に付した括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示す一例である。   The reference numerals in parentheses attached to the above-described parts are examples that show the correspondence with specific means described in the embodiments described later.

本発明の一つの実施形態に係る地図作成装置の概略構成図である。It is a schematic block diagram of the map creation apparatus which concerns on one Embodiment of this invention. 本発明の一つの実施形態に係る地図作成装置の制御部の機能ブロック図である。It is a functional block diagram of the control part of the map creation apparatus which concerns on one Embodiment of this invention. 二つのカメラのそれぞれについてのカメラ座標系と車両座標系の関係を示す図である。It is a figure which shows the relationship between the camera coordinate system about each of two cameras, and a vehicle coordinate system. (a)〜(c)は、それぞれ、ブロックマッチングを行うマッチング範囲であるパッチの一例を示す図である。(A)-(c) is a figure which shows an example of the patch which is a matching range which performs block matching, respectively. Manhattan-World仮説に基づく、実空間上の点と車両の位置関係を示す図である。It is a figure which shows the positional relationship between the point in real space, and a vehicle based on the Manhattan-World hypothesis. 位置合わせ処理の動作フローチャートである。It is an operation | movement flowchart of a positioning process. 道路上で検出される線分の例を示す図である。It is a figure which shows the example of the line segment detected on a road. 線分の向きごとの確率分布の一例を示す図である。It is a figure which shows an example of probability distribution for every direction of a line segment. (a)は、車両が走行した道路の一例を表す図であり、(b)は(a)に示された道路に対応する、本実施形態による地図作成装置を利用して作成された地図の一例を表す図である。(A) is a figure showing an example of the road where the vehicle traveled, (b) is a map created using the map creation device according to the present embodiment, corresponding to the road shown in (a). It is a figure showing an example. 地図生成処理の動作フローチャートである。It is an operation | movement flowchart of a map production | generation process. 変形例による、制御部の概略構成図である。It is a schematic block diagram of the control part by a modification.

以下、図を参照しつつ、一つの実施形態による、地図作成装置について説明する。
この地図作成装置は、車両に搭載され、異なる方向に向けられた二つのカメラのそれぞれにより、互いに異なるタイミングで生成された二つの画像間で、実空間上の同一の構造物の線(構造物の形状による線だけでなく、構造物上に描画された図形または文字などによる線も含む)に対応する画像上の線分同士を対応付ける。そしてこの地図作成装置は、画像間で対応付けられた線分に基づいて地図を作成する。その際、この地図作成装置は、各画像取得時の車両の推定位置の評価値が最小となるように、車両の推定位置を求め、その推定位置に従って画像間で対応付けられた線分に対応する実空間の線分の位置を求める。その際、この地図作成装置は、路面上に描画された線分の多くは、道路の延伸方向に平行あるいは直交しているという仮定に基づいて事前に求められた、実空間の線分と車両の進行方向とがなす角の確率分布を利用して、画像間で対応付けられた線分に対応する実空間の線分が所定の向きの線分である尤度に基づいて評価値を算出する。これにより、この地図作成装置は、車両の位置の推定精度を向上するとともに、道路表示などの情報が高精度に再現された地図を作成することを可能とする。
Hereinafter, a map creation device according to one embodiment will be described with reference to the drawings.
This cartography device is mounted on a vehicle and has two lines of the same structure in real space (structures) between two images generated at different timings by two cameras directed in different directions. The line segments on the image corresponding to the shape (including not only the line based on the shape of the figure but also the line based on the figure or the character drawn on the structure) are associated with each other. And this map creation apparatus creates a map based on the line segment matched between images. At that time, the map creation device obtains the estimated position of the vehicle so that the evaluation value of the estimated position of the vehicle at the time of each image acquisition is minimized, and corresponds to the line segment associated between the images according to the estimated position. Find the position of the line segment in real space. At that time, the map creation device uses a real space line segment and a vehicle that are obtained in advance based on the assumption that many of the line segments drawn on the road surface are parallel or orthogonal to the extending direction of the road. The evaluation value is calculated based on the likelihood that the line segment in the real space corresponding to the line segment associated between images is a line segment in a predetermined direction using the probability distribution of the angle formed by the traveling direction of To do. As a result, the map creation device can improve the estimation accuracy of the position of the vehicle and can create a map in which information such as road display is reproduced with high accuracy.

図1は、一つの実施形態による地図作成装置の概略構成図である。図1に示すように、地図作成装置1は、車両10に搭載され、カメラ2−1及び2−2、慣性計測装置(IMU)3、車輪速センサ4、及び電子制御ユニット(ECU)5と、コントロールエリアネットワーク(以下、CANという)6を介して互いに接続されている。なお、図1では、説明の都合のため、地図作成装置1など、車両10に搭載されている各構成要素及び車両10の形状、サイズ及び配置は、実際のものとは異なっている。   FIG. 1 is a schematic configuration diagram of a map creation device according to one embodiment. As shown in FIG. 1, a map creation device 1 is mounted on a vehicle 10 and includes cameras 2-1 and 2-2, an inertial measurement device (IMU) 3, a wheel speed sensor 4, and an electronic control unit (ECU) 5. Are connected to each other via a control area network (hereinafter referred to as CAN) 6. In FIG. 1, for convenience of explanation, each component mounted on the vehicle 10 such as the map creation device 1 and the shape, size, and arrangement of the vehicle 10 are different from actual ones.

カメラ2−1、2−2は、それぞれ、撮像部の一例である。本実施形態では、カメラ2−1、2−2は、それぞれ、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2−1は、結像光学系の光軸が地面に対して略平行となり、かつ車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2−1は、所定の撮影周期(例えば1/30秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。一方、カメラ2−2は、結像光学系の光軸が地面に対して略平行となり、かつ車両10の後方を向くように、車両10の後端部に取り付けられる。そしてカメラ2−2は、所定の撮影周期ごとに車両10の後方領域を撮影し、その後方領域が写った画像を生成する。カメラ2−1、2−2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。   Each of the cameras 2-1 and 2-2 is an example of an imaging unit. In the present embodiment, each of the cameras 2-1 and 2-2 includes a two-dimensional detector composed of an array of photoelectric conversion elements having sensitivity to visible light, such as CCD or C-MOS, and the two-dimensional detector. An imaging optical system that forms an image of a region to be photographed on is provided. The camera 2-1 is attached to, for example, the vehicle interior of the vehicle 10 so that the optical axis of the imaging optical system is substantially parallel to the ground and faces the front of the vehicle 10. Then, the camera 2-1 captures a front area of the vehicle 10 at a predetermined shooting period (for example, 1/30 second), and generates an image in which the front area is captured. On the other hand, the camera 2-2 is attached to the rear end of the vehicle 10 so that the optical axis of the imaging optical system is substantially parallel to the ground and faces the rear of the vehicle 10. And the camera 2-2 image | photographs the back area | region of the vehicle 10 for every predetermined | prescribed imaging | photography period, and produces | generates the image which the back area | region was reflected. The images obtained by the cameras 2-1 and 2-2 may be color images or gray images.

カメラ2−1、2−2は、それぞれ、画像を生成する度に、その生成した画像を地図作成装置1へ出力する。   Each time the cameras 2-1 and 2-2 generate an image, they output the generated image to the map creation device 1.

地図作成装置1は、記憶部11と、通信部12と、制御部13とを有する。
記憶部11は、例えば、電気的に書き換え可能な不揮発性メモリ及び揮発性メモリなどの半導体メモリを有する。そして記憶部11は、地図作成装置1を制御するための各種プログラム、及び、地図作成処理で利用される各種の情報、カメラ2−1またはカメラ2−2により生成された画像、及び制御部13による一時的な演算結果などを記憶する。
The map creation device 1 includes a storage unit 11, a communication unit 12, and a control unit 13.
The storage unit 11 includes, for example, a semiconductor memory such as an electrically rewritable nonvolatile memory and a volatile memory. The storage unit 11 includes various programs for controlling the map creation device 1, various types of information used in the map creation process, images generated by the camera 2-1 or the camera 2-2, and the control unit 13. Stores temporary calculation results by.

通信部12は、カメラ2−1、2−2、IMU3、車輪速センサ4、及びECU5などとCAN6を通じて通信する通信インターフェース及びその制御回路を有する。そして通信部12は、カメラ2−1、2-2から画像を受け取り、その画像を制御部13へ渡す。また通信部12は、地図作成処理を実行する周期ごとに、IMU3から、車両10の速度及び移動量などを表すオドメトリ情報を取得したり、あるいは、車輪速センサ4から車輪速を取得して、制御部13へ渡す。   The communication unit 12 includes a communication interface that communicates with the cameras 2-1, 2-2, the IMU 3, the wheel speed sensor 4, the ECU 5, and the like through the CAN 6 and its control circuit. The communication unit 12 receives images from the cameras 2-1 and 2-2 and passes the images to the control unit 13. In addition, the communication unit 12 acquires odometry information representing the speed and movement amount of the vehicle 10 from the IMU 3 or acquires the wheel speed from the wheel speed sensor 4 for each cycle of executing the map creation process. It passes to the control unit 13.

制御部13は、1個もしくは複数個の図示してないプロセッサ及びその周辺回路を有する。そして制御部13は、地図作成装置1全体を制御する。
図2に、制御部13の機能ブロック図を示す。図2に示すように、制御部13は、線分抽出部21と、投影部22と、対応付け部23と、位置推定部24と、地図作成部25とを有する。制御部13が有するこれらの各部は、例えば、制御部13が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。
The control unit 13 includes one or a plurality of processors (not shown) and their peripheral circuits. And the control part 13 controls the map creation apparatus 1 whole.
FIG. 2 shows a functional block diagram of the control unit 13. As illustrated in FIG. 2, the control unit 13 includes a line segment extraction unit 21, a projection unit 22, an association unit 23, a position estimation unit 24, and a map creation unit 25. Each of these units included in the control unit 13 is implemented as, for example, a functional module realized by a computer program executed on a processor included in the control unit 13.

本実施形態では、制御部13は、ある時刻n(ここでは、フレーム間隔を単位とする時刻を表す。秒、分などを単位とする時刻については、実時刻と呼ぶ)において車両10の後方を撮影するカメラ2−2により生成された画像上の線分を、その時刻よりもkフレーム前の時刻(n-k)において車両10の前方を撮影するカメラ2−1により生成された画像上の線分と対応付ける。これは、車両10が前進している場合、車両10の後方を撮影するカメラ2−2により時刻nで撮影された範囲は、それより前の時刻(n-k)にて車両10の前方を撮影するカメラ2−1により撮影された範囲と重なる部分があると想定されるためである。そして制御部13は、上記のような対応付けを逐次行うことで、3枚以上の画像にわたって対応付けられる線分を特定する。そして制御部13は、その3枚以上の画像のそれぞれにおいて対応付けられた線分を用いて各画像の取得時の車両の位置を推定し、その推定された車両の位置に従って画像間で対応付けられた線分に対応する実空間の線分の位置を求めて地図に書き込む。
なお、以下では、説明の便宜上、カメラ2-1により生成された画像を前方画像と呼び、カメラ2−2により生成された画像を後方画像と呼ぶ。また、地図作成処理のうち、線分抽出部21、投影部22及び対応付け部23により実行される、画像間での線分の対応付けに関する処理を位置合わせ処理と呼ぶことがある。
In the present embodiment, the control unit 13 displays the rear of the vehicle 10 at a certain time n (here, the time is expressed in units of frame intervals, and the time in units of seconds, minutes, etc. is referred to as real time). The line segment on the image generated by the camera 2-2 that captures the front side of the vehicle 10 at the time (nk) k frames before the time. Correlate with. This is because, when the vehicle 10 is moving forward, the range photographed at the time n by the camera 2-2 for photographing the rear of the vehicle 10 is to photograph the front of the vehicle 10 at a time (nk) before that. This is because it is assumed that there is a portion that overlaps the range photographed by the camera 2-1. And the control part 13 specifies the line segment matched over three or more images by performing the above associations sequentially. And the control part 13 estimates the position of the vehicle at the time of acquisition of each image using the line segment matched in each of the three or more images, and matches between images according to the estimated position of the vehicle. The position of the line segment in the real space corresponding to the given line segment is obtained and written on the map.
Hereinafter, for convenience of explanation, an image generated by the camera 2-1 is referred to as a front image, and an image generated by the camera 2-2 is referred to as a rear image. In the map creation process, the process related to the line segment association between the images, which is executed by the line segment extraction unit 21, the projection unit 22, and the association unit 23 may be referred to as an alignment process.

線分抽出部21は、カメラ2−2から制御部13が後方画像を受け取る度に、その後方画像から、カメラ2−2の撮影領域内にある、路面、道路標識、看板、あるいは建築物といった構造物の線に対応する線分を抽出する。そのために、線分抽出部21は、例えば、線分検出器を用いて後方画像上の線分を検出する。線分抽出部21は、線分検出器として、例えば、R.G. von Gioi他、"A fast line segment detector with a false detection control"、 IEEE Transactions on Pattern Analysis & Machine Intelligence、 (4)、2008年、pp.722-732に開示されたアルゴリズムを利用できる。あるいは、線分抽出部21は、画像から線分を検出できる他の線分検出器を利用してもよい。
線分抽出部21は、後方画像ごとに、その後方画像の取得時刻とその後方画像から抽出した線分を表す後方画像上のその線分の中点の座標と向き及び長さを表すベクトルを投影部22へ渡す。
Each time the control unit 13 receives a rear image from the camera 2-2, the line segment extraction unit 21 uses a road surface, a road sign, a signboard, or a building in the shooting area of the camera 2-2 from the rear image. A line segment corresponding to the line of the structure is extracted. For this purpose, the line segment extraction unit 21 detects a line segment on the rear image using, for example, a line segment detector. The line segment extraction unit 21 is, for example, RG von Gioi et al., “A fast line segment detector with a false detection control”, IEEE Transactions on Pattern Analysis & Machine Intelligence, (4), 2008, pp. The algorithm disclosed in .722-732 can be used. Alternatively, the line segment extraction unit 21 may use another line segment detector that can detect a line segment from an image.
The line segment extraction unit 21 calculates, for each rear image, a vector representing the acquisition time of the rear image and the coordinates, direction, and length of the midpoint of the line segment on the rear image representing the line segment extracted from the rear image. It passes to the projection unit 22.

同様に、線分抽出部21は、カメラ2−1から制御部13が前方画像を受け取る度に、その前方画像から線分を抽出する。そして線分抽出部21は、抽出した線分の中点の座標と向き及び長さを表すベクトルを、前方画像の取得時刻とともに記憶部11に記憶する。   Similarly, every time the control unit 13 receives a front image from the camera 2-1, the line segment extraction unit 21 extracts a line segment from the front image. Then, the line segment extraction unit 21 stores a vector representing the coordinates, direction, and length of the midpoint of the extracted line segment in the storage unit 11 together with the acquisition time of the front image.

投影部22は、後方画像上の線分ごとに、その線分を中心とするブロックマッチング用のパッチを設定し、実空間上でそのパッチに相当する領域を特定する。そして投影部22は、実空間上でのパッチの対応領域を、後方画像よりもkフレーム前に取得された前方画像上に投影する。
この投影処理には、画像上の座標と、実空間上での座標間の変換が必要となる。そこで先ず、その変換に利用される座標系について説明する。
For each line segment on the rear image, the projection unit 22 sets a block matching patch centered on the line segment, and specifies an area corresponding to the patch in real space. Then, the projection unit 22 projects the corresponding area of the patch in the real space on the front image acquired k frames before the rear image.
This projection processing requires conversion between coordinates on the image and coordinates in the real space. First, a coordinate system used for the conversion will be described.

図3は、二つのカメラのそれぞれについてのカメラ座標系と車両座標系の関係を示す図である。カメラ2-1を基準とする実空間の座標系であるカメラ座標系(以下、便宜上、前方カメラ座標系と呼ぶ)C1は、カメラ2−1の像側焦点を原点とし、車両10の直進方向をz軸、路面と平行かつz軸と直交する方向をx軸、路面に垂直な方向をy軸とする座標系である。そしてz軸について、車両10の前方へ向かう方向を正とし、x軸の正方向は右手座標系により規定される。また、カメラ2-2を基準とする実空間の座標系であるカメラ座標系(以下、便宜上、後方カメラ座標系と呼ぶ)C2は、カメラ2−2の像側焦点を原点とし、車両10の直進方向をz軸、路面と平行かつz軸と直交する方向をx軸、路面に垂直な方向をy軸とする座標系である。そしてz軸について、車両10の後方へ向かう方向を正とし、x軸の正方向は右手座標系により規定される。   FIG. 3 is a diagram illustrating the relationship between the camera coordinate system and the vehicle coordinate system for each of the two cameras. A camera coordinate system (hereinafter referred to as a forward camera coordinate system for convenience) C1, which is a coordinate system in the real space with the camera 2-1 as a reference, uses the image-side focal point of the camera 2-1 as an origin, and a straight traveling direction of the vehicle 10 Is a coordinate system with the z axis, the direction parallel to the road surface and perpendicular to the z axis as the x axis, and the direction perpendicular to the road surface as the y axis. With respect to the z axis, the forward direction of the vehicle 10 is positive, and the positive direction of the x axis is defined by the right-handed coordinate system. Further, a camera coordinate system (hereinafter referred to as a rear camera coordinate system for convenience) C2 which is a coordinate system in the real space with the camera 2-2 as a reference has an image side focal point of the camera 2-2 as an origin, and the vehicle 10 This is a coordinate system in which the straight direction is the z axis, the direction parallel to the road surface and perpendicular to the z axis is the x axis, and the direction perpendicular to the road surface is the y axis. For the z axis, the direction toward the rear of the vehicle 10 is positive, and the positive direction of the x axis is defined by the right-handed coordinate system.

また、車両10を基準とする実空間の座標系である車両座標系Vは、車両10の任意の点、例えば、前側の車輪間の中点、後ろ側の車輪間の中点、あるいは前側の車輪間の中点と後ろ側の車輪間の中点との中点を原点とし、車両10の直進方向をz軸、路面と平行かつz軸と直交する方向をx軸、路面に垂直な方向をy軸とする座標系である。そしてz軸について、車両10の前方へ向かう方向を正とし、x軸の正方向は右手座標系により規定される。また、これらの座標系において、xz平面における、z軸とのなす角はθで表される。   The vehicle coordinate system V, which is a coordinate system in the real space with respect to the vehicle 10, is an arbitrary point of the vehicle 10, for example, a midpoint between front wheels, a midpoint between rear wheels, or a front side The midpoint between the midpoint between the wheels and the midpoint between the rear wheels is the origin, and the straight direction of the vehicle 10 is the z axis, the direction parallel to the road surface and perpendicular to the z axis is the x axis, and the direction perpendicular to the road surface Is the coordinate system with y-axis. With respect to the z axis, the forward direction of the vehicle 10 is positive, and the positive direction of the x axis is defined by the right-handed coordinate system. In these coordinate systems, the angle formed with the z axis in the xz plane is represented by θ.

図4(a)〜図4(c)は、それぞれ、ブロックマッチングを行うマッチング範囲であるパッチの一例を示す図である。図4(a)に示される例では、パッチ401は、着目する線分410と平行な方向に沿って線分410と同じ長さを持ち、かつ、線分410と直交する方向に所定の幅(例えば、10〜20ピクセル)を持つ矩形領域として設定される。また、図4(b)に示される例では、パッチ402は、着目する線分410と直交する方向に所定の幅(例えば、10〜20ピクセル)を持ち、かつ、線分410と平行な方向に沿って、線分410よりも所定長(例えば、10〜20ピクセル)だけ長い矩形領域として設定される。さらに、図4(c)に示される例では、パッチ403は、着目する線分410までの距離が所定値(例えば、10〜20ピクセル)以下となる領域として設定される。   FIG. 4A to FIG. 4C are diagrams illustrating examples of patches that are matching ranges in which block matching is performed. In the example shown in FIG. 4A, the patch 401 has the same length as the line segment 410 along the direction parallel to the line segment 410 of interest, and a predetermined width in the direction orthogonal to the line segment 410. It is set as a rectangular area having (for example, 10 to 20 pixels). In the example shown in FIG. 4B, the patch 402 has a predetermined width (for example, 10 to 20 pixels) in a direction orthogonal to the focused line segment 410 and is parallel to the line segment 410. A rectangular region longer than the line segment 410 by a predetermined length (for example, 10 to 20 pixels) is set. Furthermore, in the example shown in FIG. 4C, the patch 403 is set as a region where the distance to the focused line segment 410 is a predetermined value (for example, 10 to 20 pixels) or less.

本実施形態では、ブロックマッチングを行うマッチング範囲であるパッチはupは、例えば、次式のように定義される。

Figure 2018116147
ここで、(um,2,vm,2)は、後方画像上での着目する線分の中点の座標を表し、α、βは、それぞれ、後方画像上でのパッチup内の画素の線分の中点からの水平方向及び垂直方向の距離を表す。なお、αの取り得る値の範囲[α0, α1]、及び、βの取り得る値の範囲[β0, β1]は、それぞれ、垂直方向の位置及び水平方向の位置についての関数として表される。そしてその関数は、線分の向き、及び、図4(a)〜図4(c)に示される、パッチの形状に応じて決定される。 In this embodiment, the patch is u p a matching range for performing block matching, for example, is defined as follows:.
Figure 2018116147
Here, (u m, 2, v m, 2) represents the coordinates of the midpoint of the target line segment on the rearward image, alpha, beta, respectively, in the patch u p on the rear image It represents the distance in the horizontal and vertical directions from the midpoint of the line segment of the pixel. Note that the range of values [α 0 , α 1 ] that can be taken by α and the range [β 0 , β 1 ] that can be taken of β are respectively expressed as functions of the vertical position and the horizontal position. expressed. The function is determined according to the direction of the line segment and the shape of the patch shown in FIGS. 4 (a) to 4 (c).

また、投影部22は、後方画像上の線分に基づいて設定されるパッチupから、車両10と車両10の周囲の構造物の位置関係を規定する所定の条件に従って実空間上での対応領域を特定する。そして投影部22は、その対応領域について、後方カメラ座標系→時刻nにおける車両座標系→実空間の絶対座標である世界座標系→時刻(n-k)における車両座標系→前方カメラ座標系→前方画像上の順に投影する。
そこで先ず、パッチupに対応する実空間上での領域についてのカメラ座標系での座標の導出について説明する。
The projection 22 from the patch u p to be set on the basis of the line segment on the rearward image, corresponding in the real space in accordance with a predetermined condition which defines the positional relationship of the structure in the vicinity of the vehicle 10 and the vehicle 10 Identify the area. Then, the projection unit 22 for the corresponding region, the rear camera coordinate system → the vehicle coordinate system at time n → the world coordinate system that is the absolute coordinate in real space → the vehicle coordinate system at time (nk) → the front camera coordinate system → the front image Project in the order above.
Thus is described first coordinates are derived in the camera coordinate system for the area in the real space corresponding to the patch u p.

後方画像あるいは前方画像上の座標(2次元座標)をカメラ座標系の座標(3次元座標)に変換する際、本実施形態では、ピンホールカメラモデルが適用される。この場合、後方画像上でのパッチup内の各画素の座標は、次式に従って正規化座標系上の座標Unに変換される。

Figure 2018116147
ここで、(cu,cv)は後方画像の中心の座標、すなわち、カメラ2−2の光軸上の位置に相当する後方画像上の位置の座標を表す。またfu、fvは、それぞれ、後方画像上の画素の水平方向及び垂直方向のサイズを考慮した、水平方向及び垂直方向に相当するカメラ2−2の焦点距離を表す。そして(un、vn)は、線分の中点(um,2,vm,2)に対応する正規化座標であり、Un=(unn,vnn)は、正規化座標系でのパッチup内の各画素の座標である。そして(x,y,z)は、Unに対応するカメラ座標系上の点の座標である。 In converting the coordinates on the rear image or the front image (two-dimensional coordinates) to the coordinates (three-dimensional coordinates) of the camera coordinate system, a pinhole camera model is applied in the present embodiment. In this case, the coordinates of each pixel in the patch u p on the rearward image, is converted into the coordinate U n on the normalized coordinate system in accordance with the following equation.
Figure 2018116147
Here, (c u , c v ) represents the coordinates of the center of the rear image, that is, the coordinates of the position on the rear image corresponding to the position on the optical axis of the camera 2-2. Further, f u and f v represent the focal lengths of the camera 2-2 corresponding to the horizontal direction and the vertical direction, respectively, in consideration of the size of the pixel on the rear image in the horizontal direction and the vertical direction. And (u n , v n ) is a normalized coordinate corresponding to the midpoint of the line segment (u m, 2 , v m, 2 ), and U n = (u n + α n , v n + β n ) are the coordinates of each pixel in the patch u p in a normalized coordinate system. (X, y, z) are the coordinates of a point on the camera coordinate system corresponding to U n .

本実施形態では、車両10と車両10の周囲の構造物の位置関係を規定する所定の条件として、Manhattan-World仮説を導入する。そしてManhattan-World仮説に基づいて、各線分についてのパッチに対応する実空間上の領域を特定する。Manhattan-World仮説では、画像上の線分に対応する実空間上の構造物の線は、以下の3種類の何れかである。
(1)車両10の直進方向と平行な建物の側壁上の線
(2)車両10の直進方向と直交する建物の側壁上の線
(3)路面上の線
また、画像上の線分に対応する実空間上の構造物の線の周囲は平面になっていると仮定される。
In the present embodiment, the Manhattan-World hypothesis is introduced as a predetermined condition that defines the positional relationship between the vehicle 10 and the structures around the vehicle 10. Based on the Manhattan-World hypothesis, the real space region corresponding to the patch for each line segment is specified. In the Manhattan-World hypothesis, the line of the structure in the real space corresponding to the line segment on the image is one of the following three types.
(1) A line on the side wall of the building parallel to the straight direction of the vehicle 10 (2) A line on the side wall of the building orthogonal to the straight direction of the vehicle 10 (3) A line on the road surface or a line segment on the image It is assumed that the line around the structure in real space is a plane.

図5は、本実施形態による、Manhattan-World仮説に基づく、実空間上の構造物の線と車両の位置関係を示す図である。本実施形態では、カメラ2−1は車両10の前方を向いており、一方、カメラ2−2は、車両10の後方を向いているので、上記の(2)に相当する線については、両方のカメラから見えることはなく、一方の画像上の線分が他方の画像上の線分と対応付けられることはない。したがって、(1)に相当する、車両10の直進方向と平行な側壁上の線501に対応する線分、あるいは、(3)に相当する、路面上の線502に対応する線分が、前方画像と後方画像の間で対応付けられる。   FIG. 5 is a diagram showing the positional relationship between the line of the structure in the real space and the vehicle based on the Manhattan-World hypothesis according to the present embodiment. In the present embodiment, since the camera 2-1 faces the front of the vehicle 10, while the camera 2-2 faces the rear of the vehicle 10, both of the lines corresponding to the above (2) are used. The line segment on one image is not associated with the line segment on the other image. Therefore, a line segment corresponding to line 501 on the side wall parallel to the straight traveling direction of the vehicle 10 corresponding to (1) or a line segment corresponding to line 502 on the road surface corresponding to (3) is Corresponding between the image and the back image.

線501にように、画像上の線分に対応する実空間上の構造物の線が車両10の直進方向と平行な建物500の側壁にある場合、その線分のパッチに対応する実空間上の領域に含まれる各点について、カメラ座標系ではx=dとなる。なお、dは、車両10とその線分に対応する実空間上での線までの距離である。したがって、上記の(1)の条件が仮定される場合、パッチupに対応する実空間上の領域内の各点についてのカメラ座標系での座標Ppは次式で表される。

Figure 2018116147
When the line of the structure in the real space corresponding to the line segment on the image is on the side wall of the building 500 parallel to the straight traveling direction of the vehicle 10, as in the line 501, on the real space corresponding to the patch of the line segment For each point included in the region, x = d in the camera coordinate system. In addition, d is the distance to the line in the real space corresponding to the vehicle 10 and its line segment. Therefore, if the above condition (1) is assumed, the coordinates P p in the camera coordinate system for each point in the area in the real space corresponding to the patch u p is expressed by the following equation.
Figure 2018116147

一方、線502にように、画像上の線分に対応する実空間上の構造物の線が路面上にある場合、その線分のパッチに対応する実空間上の領域に含まれる各点について、カメラ座標系ではy=hとなる。なお、hは路面からカメラ2−2までの高さであり、予め記憶部11に記憶される。したがって、上記の(3)の条件が仮定される場合、パッチupに対応する実空間上の領域内の各点についてのカメラ座標系での座標Ppは次式で表される。

Figure 2018116147
On the other hand, when the line of the structure in the real space corresponding to the line segment on the image is on the road surface like the line 502, each point included in the area on the real space corresponding to the patch of the line segment In the camera coordinate system, y = h. Note that h is the height from the road surface to the camera 2-2 and is stored in the storage unit 11 in advance. Therefore, if the above condition (3) is assumed, the coordinates P p in the camera coordinate system for each point in the area in the real space corresponding to the patch u p is expressed by the following equation.
Figure 2018116147

投影部22は、(2)式と(3)式、または(2)式と(4)式にしたがって、後方画像上の各線分についてのパッチupに対応する実空間上の領域内の各点のカメラ座標系上の座標Ppを求める。なお、dについては、任意の所定区間、例えば、[1,20](m)の区間で、1m単位で変化させる。すなわち、各線分について、dの値ごとに(2)式と(3)式に基づいて求められる20個の領域の座標Ppと、(2)式と(4)式に基づいて求められる1個の領域の座標Ppが求められる。 Projection 22 (2) and (3), or (2) and (4) according to wherein each of the regions in the real space corresponding to the patch u p of each line segment on the rearward image A coordinate P p on the camera coordinate system of the point is obtained. Note that d is changed in units of 1 m in an arbitrary predetermined section, for example, a section of [1,20] (m). That is, for each line segment, for each value of d, 20 areas of coordinates P p obtained based on the expressions (2) and (3) and 1 obtained based on the expressions (2) and (4) The coordinates P p of the individual areas are obtained.

なお、投影部22は、バンドル調整によりdの区間を上記の所定区間よりも狭く設定してもよい。この場合には、投影部22は、例えば、画像上の線分に対応する、実空間上の構造物の線を、カメラ2−2により異なる時間での撮影により得られた二つの後方画像間で線分の対応付けを行うことで特定する。そして投影部22は、その二つの後方画像の生成時に対応する二つの車両の位置を利用した三角測量によって車両10からその線分上の点(例えば、中点)に対応する実空間上の点までの距離を測定し、その測定された距離を含むようにdの区間を設定すればよい。   Note that the projection unit 22 may set the section d to be narrower than the predetermined section by bundle adjustment. In this case, the projection unit 22, for example, between the two rear images obtained by photographing the line of the structure in the real space corresponding to the line segment on the image at different times with the camera 2-2. Specify by associating line segments with. Then, the projection unit 22 performs a point in the real space corresponding to a point (for example, a midpoint) on the line segment from the vehicle 10 by triangulation using the positions of the two vehicles corresponding to the generation of the two rear images. And the interval d may be set so as to include the measured distance.

投影部22は、後方画像上の各線分のパッチについて、そのパッチに対応する実空間上の領域のそれぞれを前方画像上に投影するwarping関数は、次式で表される。

Figure 2018116147
ここで、un'は、座標Ppに対応する、前方画像上の領域の座標である。また関数πvc1()は、車両座標系からカメラ2-1のカメラ座標系への変換関数であり、関数πvc2()は、車両座標系からカメラ2-2のカメラ座標系への変換関数である。なお、これらの逆関数は、それぞれ、対応するカメラ座標系から車両座標系への変換関数となる。なお、車両座標系とカメラ座標系間の変換は、それぞれの座標系の原点の差に相当する並進行列Tvc1,Tvc2と、車両10の直進方向とカメラの光軸間の傾きに相当する回転行列Rvc1,Rvc2により表される。 For the patch of each line segment on the rear image, the projection unit 22 projects a warping function for projecting each of the areas on the real space corresponding to the patch onto the front image.
Figure 2018116147
Here, u n ′ is a coordinate of a region on the front image corresponding to the coordinate P p . The function π vc1 () is a conversion function from the vehicle coordinate system to the camera coordinate system of the camera 2-1, and the function π vc2 () is a conversion function from the vehicle coordinate system to the camera coordinate system of the camera 2-2. It is. Each of these inverse functions is a conversion function from the corresponding camera coordinate system to the vehicle coordinate system. The conversion between the vehicle coordinate system and the camera coordinate system corresponds to the parallel progression trains T vc1 , T vc2 corresponding to the difference between the origins of the respective coordinate systems, and the inclination between the straight traveling direction of the vehicle 10 and the optical axis of the camera. Represented by rotation matrices R vc1 and R vc2 .

また、関数πci()は、カメラ座標系から画像上の座標への変換関数であり、(2)式のカメラ座標(x,y,z)から画像上の座標(un,vn)への変換に相当する。 The function π ci () is a conversion function from the camera coordinate system to the coordinates on the image, and the coordinates (u n , v n ) on the image from the camera coordinates (x, y, z) in equation (2). Equivalent to conversion to

また、関数πn wv()は、時刻nにおける世界座標系から車両座標系への変換関数である。一方、その逆関数πn wv -1()は、時刻nにおける車両座標系から世界座標系への変換関数である。 The function π n wv () is a conversion function from the world coordinate system to the vehicle coordinate system at time n. On the other hand, the inverse function π n wv −1 () is a conversion function from the vehicle coordinate system to the world coordinate system at time n.

以下に、関数πn wv()の詳細について説明する。Xn=t(xn,znn)を、世界座標系での時刻nにおける車両10の位置及び向きを表す位置ベクトルとする。この場合、Xnは、時刻(n-k)における車両10の位置Xn-k=t(xn-k,zn-kn-k)との間に、次式で表される関係が成立する。

Figure 2018116147
ここで、unは、オドメトリ情報であり、vn,right、vn,leftは、それぞれ、時刻nにおける車両10の右側後輪の車輪速、及び左側後輪の車輪速を表す。そしてωn、vnは、それぞれ、時刻nにおける車両10の角速度及び速度を表す。またdaは、車両10の左右の後輪間の間隔である。さらに、Δtは、時刻(n-k)と時刻n間の実時刻の差であり、Δt=k×fで表される。なお、fは、カメラ2−1、2−2のフレーム周期(撮影間隔)である。またεxは、移動量の誤差を確率分布で表す誤差モデルである。本実施形態では、誤差モデルεxは、ガウス分布で表されるものとし、その共分散Σxは、x軸方向、z軸方向及びθに関して、以下のように定義される。
Figure 2018116147
ここで、σx、σz及びσθは、例えば、オドメトリ情報あるいは車輪速の誤差に基づいて設定され、例えば、σxz=0.1[m]であり、σθ=2π/360[rad]である。 Details of the function π n wv () will be described below. Let X n = t (x n , z n , θ n ) be a position vector representing the position and orientation of the vehicle 10 at time n in the world coordinate system. In this case, X n is the time (nk) of the vehicle 10 at the position X nk = t (x nk, z nk, θ nk) between the relationship is established as represented by the following formula.
Figure 2018116147
Here, u n is odometry information, and v n, right and v n, left represent the wheel speed of the right rear wheel and the left rear wheel of the vehicle 10 at time n, respectively. Ω n and v n represent the angular velocity and speed of the vehicle 10 at time n, respectively. D a is the distance between the left and right rear wheels of the vehicle 10. Furthermore, Δt is the difference in real time between time (nk) and time n, and is represented by Δt = k × f. Note that f is the frame period (photographing interval) of the cameras 2-1 and 2-2. Further, ε x is an error model that expresses an error in the movement amount by a probability distribution. In the present embodiment, the error model ε x is represented by a Gaussian distribution, and the covariance Σ x is defined as follows with respect to the x-axis direction, the z-axis direction, and θ.
Figure 2018116147
Here, σ x , σ z, and σ θ are set based on, for example, odometry information or wheel speed error. For example, σ x = σ z = 0.1 [m], and σ θ = 2π / 360 [ rad].

時刻nにおける、世界座標系から車両座標系への変換を表す回転行列Rt及び並進行列Ttは、時刻nにおける車両10の位置ベクトルXnを用いて次式で表される。

Figure 2018116147
したがって、関数πn wv()は、次式で表される。
Figure 2018116147
ここで、Pwは、世界座標系での着目点の座標を表し、Pvは、Pwに対応する点の車両座標系での座標を表す。なお、(5)式における、πn-k wv()では、xn=xn-k、zn=zn-k、θnn-kとすればよい。 The rotation matrix R t and the parallel progression T t representing the transformation from the world coordinate system to the vehicle coordinate system at time n are expressed by the following equations using the position vector X n of the vehicle 10 at time n.
Figure 2018116147
Therefore, the function π n wv () is expressed by the following equation.
Figure 2018116147
Here, P w represents the coordinates of the point of interest in the world coordinate system, and P v represents the coordinates of the point corresponding to P w in the vehicle coordinate system. In π nk wv () in equation (5), x n = x nk , z n = z nk , θ n = θ nk may be set.

また、後方画像上の線分を基準として、前方画像上の対応する線分をより正確に特定するためには、後方画像上での線分の向きに対応する、前方画像上での線分の向きが求められることが好ましい。また、実空間での線分は、その線分上の点(例えば、中点)の3次元の座標p(px,py,pz)とその線分の向きを表す3次元ベクトルr(rx,ry,rz)とで表される。したがって、世界座標系での線分の向きを表す3次元ベクトルrを、カメラ2−1を基準とするカメラ座標系のベクトルA1へ変換する変換式、及び、カメラ2−2を基準とするカメラ座標系のベクトルA2へ変換する変換式は、次式で表される。

Figure 2018116147
ここでRi vwは、時刻iにおける、変換式πi wvに含まれる回転行列Rの逆行列であり、(8)式及び(9)式に従って算出される。 Further, in order to more accurately identify the corresponding line segment on the front image with reference to the line segment on the rear image, the line segment on the front image corresponding to the direction of the line segment on the rear image. It is preferable that the orientation of is required. In addition, a line segment in the real space includes a three-dimensional vector r (rx, px) representing the three-dimensional coordinates p (px, py, pz) of the point on the line segment (for example, the midpoint) and the direction of the line segment. ry, rz). Therefore, the conversion formula for converting the three-dimensional vector r representing the direction of the line segment in the world coordinate system into the vector A 1 of the camera coordinate system based on the camera 2-1, and the camera 2-2 as a reference. A conversion formula for converting to the vector A 2 in the camera coordinate system is expressed by the following formula.
Figure 2018116147
Here, R i vw is an inverse matrix of the rotation matrix R included in the conversion equation π i wv at time i, and is calculated according to the equations (8) and (9).

また、カメラ座標系のベクトルA1を前方画像へ投影して前方画像上の対応ベクトルa1を算出する式、及び、カメラ座標系のベクトルA2を後方画像へ投影して後方画像上の対応ベクトルa2を算出する式は、次式で表される。

Figure 2018116147
ここで、q1(x1,y1,z1)は、カメラ2−1を基準とするカメラ座標系での線分上の点pの座標を表し、q2(x2,y2,z2)は、カメラ2−2を基準とするカメラ座標系での線分上の点pの座標を表し、それぞれ、(5)〜(9)式に従って算出される。したがって、投影部22は、後方画像上の各線分について、その線分の向きを表すベクトルを、カメラ2−2に関する(10)式及び(11)式の逆変換に従って世界座標系でのベクトルに変換し、その後、カメラ2−1に関する(10)式及び(11)式に従って、世界座標系でのベクトルから、前方画像上での対応ベクトルを求めることができる。 In addition, an expression for projecting the camera coordinate system vector A 1 to the front image and calculating the corresponding vector a 1 on the front image, and a camera coordinate system vector A 2 to the rear image and corresponding on the rear image An expression for calculating the vector a 2 is expressed by the following expression.
Figure 2018116147
Here, q 1 (x 1 , y 1 , z 1 ) represents the coordinates of the point p on the line segment in the camera coordinate system with respect to the camera 2-1, and q 2 (x 2 , y 2 , z 2 ) represents the coordinates of the point p on the line segment in the camera coordinate system with respect to the camera 2-2, and is calculated according to equations (5) to (9), respectively. Therefore, the projection unit 22 converts the vector representing the direction of each line segment on the rear image into a vector in the world coordinate system according to the inverse transformation of the expressions (10) and (11) regarding the camera 2-2. Then, the corresponding vector on the front image can be obtained from the vector in the world coordinate system according to the equations (10) and (11) regarding the camera 2-1.

上記のように、パッチupに対応する、実空間上の領域を前方画像上へ投影することで、パッチup内の各画素に対応する前方画像上の位置、すなわち、パッチupを前方画像上に投影した領域が求められる。
投影部22は、後方画像上の各線分についてのパッチup内の各画素に対応する、kフレーム前の前方画像上での画素の座標及び線分の向きを表すベクトルを対応付け部23へ出力する。
As described above, corresponding to the patch u p, a region in the real space by projecting into the forward image, the position of the forward image corresponding to each pixel in the patch u p, i.e., front patch u p An area projected on the image is obtained.
Projection unit 22, corresponding to each pixel in the patch u p of each line segment on the rearward image, k frames before the pixel in the forward image coordinates and the line segment orientation to the associated portion 23 of the vector representing the Output.

対応付け部23は、後方画像上の各線分についてのパッチupに対応する、kフレーム前の前方画像上での領域と、前方画像との間でブロックマッチングを行って互いに類似する領域を特定することで、後方画像上の各線分に前方画像上の線分を対応付ける。 Associating unit 23, the particular corresponding to the patch u p of each line segment on the rearward image, and the region on the k frames before the front image, the area to be similar to each other by performing block matching between the front image By doing so, the line segment on the front image is associated with each line segment on the rear image.

本実施形態では、対応付け部23は、後方画像上の各線分について、対応する前方画像上の線分の探索を行う探索範囲を誤差モデルに基づく誤差楕円として設定する。その際、誤差楕円は、次式により算出される共分散行列ΣFにより定められる。

Figure 2018116147
なお、wは、(5)式の右辺を表す。 In the present embodiment, the associating unit 23 sets, for each line segment on the rear image, a search range for searching for a line segment on the corresponding front image as an error ellipse based on the error model. At that time, the error ellipse is determined by a covariance matrix Σ F calculated by the following equation.
Figure 2018116147
Note that w represents the right side of equation (5).

対応付け部23は、共分散行列ΣFの固有値λ1、λ2と、固有ベクトルv1、v2を算出する。ただし、大きい方の固有値をλ1とする。このとき、誤差楕円の長径a及び短径bは、次式で表される。

Figure 2018116147
ここで、χ2は、χ二乗分布であり、誤差楕円の信用区間を表す。また、前方画像上の水平方向に対して誤差楕円の長径がなす角θεは、次式で表される。
Figure 2018116147
Associating unit 23 calculates eigenvalues lambda 1 of the covariance matrix sigma F, and lambda 2, the eigenvector v 1, v 2. However, the larger eigenvalue is λ 1 . At this time, the major axis a and minor axis b of the error ellipse are expressed by the following equations.
Figure 2018116147
Here, χ 2 is a χ square distribution and represents the confidence interval of the error ellipse. Further, the angle θ ε formed by the major axis of the error ellipse with respect to the horizontal direction on the front image is expressed by the following equation.
Figure 2018116147

対応付け部23は、後方画像上の各線分について、kフレーム前の前方画像上の探索範囲である誤差楕円内にあり、かつ、前方画像上に投影したときのその線分となす角が所定角度(例えば、3°〜5°)以下となる、前方画像上の線分を、後方画像上の線分に対応付ける候補として検出する。なお、対応付け部23は、次式を満たす前方画像上の線分を、探索範囲に含まれると判定する。

Figure 2018116147
ここで、(u'c,v'c)は、後方画像上の着目する線分に対応する前方画像上での線分の中点の座標を表す。そして(u',v')は、前方画像上で検出された線分の中点の座標である。 For each line segment on the rear image, the associating unit 23 is within an error ellipse that is a search range on the front image k frames before, and the angle formed with the line segment when projected onto the front image is predetermined. A line segment on the front image having an angle (for example, 3 ° to 5 °) or less is detected as a candidate associated with the line segment on the rear image. Note that the associating unit 23 determines that the line segment on the forward image that satisfies the following expression is included in the search range.
Figure 2018116147
Here, (u ′ c , v ′ c ) represents the coordinates of the midpoint of the line segment on the front image corresponding to the line segment of interest on the rear image. (U ′, v ′) is the coordinates of the midpoint of the line segment detected on the front image.

対応付け部23は、後方画像上の各線分について、kフレーム前の前方画像上の探索範囲内にある線分のそれぞれについて、ブロックマッチングを行って正規化相互相関値を算出する。その際、対応付け部23は、パッチが投影された前方画像上の領域の中心、すなわち、後方画像上の線分が前方画像上に投影された位置と、ブロックマッチングの対象となる前方画像上の線分間の位置の差を打ち消すように、前方画像上に投影されたパッチ内の各画素の位置を平行移動させることで、後方画像上のパッチ内の各画素に対応する前方画像上の画素を特定すればよい。そして対応付け部23は、後方画像上のパッチ内の各画素の輝度値と、対応する前方画像上の画素の輝度値に基づいて正規化相互相関値を算出できる。対応付け部23は、その正規化相互相関値が最大となる前方画像上の線分を、後方画像上の着目する線分に対応付ける。なお、対応付け部23は、正規化相互相関値の最大値が所定の閾値(例えば、0.6〜0.7)以上である場合に限り、その二つの線分を対応付けてもよい。   For each line segment on the rear image, the associating unit 23 calculates a normalized cross-correlation value by performing block matching for each line segment within the search range on the front image before k frames. At this time, the associating unit 23 determines the center of the area on the front image on which the patch is projected, that is, the position at which the line segment on the rear image is projected on the front image and the front image on which block matching is performed. Pixels on the front image corresponding to each pixel in the patch on the rear image by translating the position of each pixel in the patch projected on the front image so as to cancel the position difference between the line segments of Should be specified. The association unit 23 can calculate a normalized cross-correlation value based on the luminance value of each pixel in the patch on the rear image and the luminance value of the pixel on the corresponding front image. The associating unit 23 associates the line segment on the front image having the maximum normalized cross-correlation value with the line segment of interest on the rear image. Note that the association unit 23 may associate the two line segments only when the maximum value of the normalized cross-correlation values is equal to or greater than a predetermined threshold (for example, 0.6 to 0.7).

なお、対応付け部23は、演算量を軽減するために、探索範囲を、後方画像上の線分の中点に対応する前方画像上の座標を中心とする、予め設定された所定の範囲に設定してもよい。この場合、所定の範囲は、例えば、水平方向について、パッチの水平方向サイズの2〜3倍とし、垂直方向について、パッチの垂直方向サイズの2〜3倍とすることができる。   In order to reduce the amount of calculation, the association unit 23 sets the search range to a predetermined range that is centered on the coordinates on the front image corresponding to the midpoint of the line segment on the rear image. It may be set. In this case, the predetermined range may be, for example, 2 to 3 times the horizontal size of the patch in the horizontal direction and 2 to 3 times the vertical size of the patch in the vertical direction.

なお、変形例によれば、パッチの形状自体に、後方画像上での線分の向きの情報が含まれているので、対応付け部23は、kフレーム前の前方画像上の探索範囲にある前方画像上の線分の全てを、後方画像上の線分に対応付ける候補としてもよい。   Note that, according to the modification, since the patch shape itself includes information on the direction of the line segment on the rear image, the associating unit 23 is in the search range on the front image before k frames. All the line segments on the front image may be candidates to be associated with the line segments on the rear image.

また、他の変形例によれば、対応付け部23は、後方画像上の各線分について、対応する探索範囲内の各画素をそれぞれパッチの中心に対応させるよう、パッチを平行移動させてそれぞれ正規化相互相関値を算出し、その正規化相互相関値が最大となる画素を、後方画像上の着目する線分に対応する前方画像上の線分の中点とし、着目する線分の向きに対応する前方画像上での向きを、その対応する線分の向きとしてもよい。この場合には、線分抽出部21は、前方画像から線分を抽出しなくてもよい。   Further, according to another modification, the associating unit 23 translates the patch so that each pixel in the corresponding search range corresponds to the center of the patch for each line segment on the rear image, respectively. The cross-correlation value is calculated, and the pixel having the maximum normalized cross-correlation value is set as the midpoint of the line segment on the front image corresponding to the line segment of interest on the rear image, and the direction of the line segment of interest is calculated. The direction on the corresponding front image may be the direction of the corresponding line segment. In this case, the line segment extraction unit 21 may not extract a line segment from the front image.

対応付け部23は、後方画像上の線分と対応付けられた前方画像上の線分のそれぞれの中点の座標及び向きを表すベクトルの組、及び、対応する後方画像の取得時刻と前方画像の取得時刻の組とを関連付けて、記憶部11に記憶する。   The associating unit 23 includes a set of vectors representing the coordinates and orientations of the midpoints of the respective line segments on the front image associated with the line segments on the rear image, and the corresponding rear image acquisition time and front image. Are stored in the storage unit 11 in association with each other.

図6に、制御部13により制御される、位置合わせ処理の動作フローチャートを示す。なお、制御部13は、後方画像ごとに、この動作フローチャートにしたがって位置合わせ処理を実行する。   FIG. 6 shows an operation flowchart of the alignment process controlled by the control unit 13. In addition, the control part 13 performs the alignment process according to this operation | movement flowchart for every back image.

線分抽出部21は、後方画像及び前方画像のそれぞれから線分を抽出する(ステップS101)。そして線分抽出部21は、前方画像から抽出した各線分の中点の座標及び向きを表すベクトルを記憶部11に記憶する。また線分抽出部21は、後方画像から抽出した各線分の中点の座標及び向きを表すベクトルを投影部22へ渡す。   The line segment extraction unit 21 extracts line segments from each of the rear image and the front image (step S101). The line segment extraction unit 21 stores a vector representing the coordinates and orientation of the midpoint of each line segment extracted from the front image in the storage unit 11. Further, the line segment extraction unit 21 passes a vector representing the coordinates and direction of the midpoint of each line segment extracted from the rear image to the projection unit 22.

投影部22は、後方画像から抽出した各線分について、その線分の中点を中心とするパッチを設定し、そのパッチに対応する実空間上の1以上の領域をManhattan-World仮説に従って設定する(ステップS102)。そして投影部22は、後方画像から抽出した各線分について、パッチに対応する実空間上の各領域を、後方画像の取得時よりもkフレーム前に取得された前方画像上へ投影する(ステップS103)。   For each line segment extracted from the rear image, the projection unit 22 sets a patch centered on the midpoint of the line segment, and sets one or more regions on the real space corresponding to the patch according to the Manhattan-World hypothesis. (Step S102). Then, the projection unit 22 projects each region in the real space corresponding to the patch on the front image acquired k frames before the rear image is acquired for each line segment extracted from the rear image (step S103). ).

対応付け部23は、後方画像から抽出した各線分について、パッチに対応する実空間上の領域の中心の前方画像上の投影位置を中心として探索範囲を設定する(ステップS104)。そして対応付け部23は、探索範囲内にある前方画像上の線分の周囲の領域と、前方画像上でのパッチに対応する実空間上の領域の投影範囲との間でのブロックマッチングで最も一致する線分を、後方画像上の線分と対応付ける(ステップS105)。そして制御部13は、位置合わせ処理を終了する。   For each line segment extracted from the rear image, the associating unit 23 sets a search range centered on the projection position on the front image at the center of the area on the real space corresponding to the patch (step S104). Then, the associating unit 23 performs the block matching between the area around the line segment on the front image within the search range and the projection range of the area on the real space corresponding to the patch on the front image. The matching line segment is associated with the line segment on the rear image (step S105). Then, the control unit 13 ends the alignment process.

位置推定部24は、画像間で互いに対応付けられる複数の線分(以下、単に線分と呼ぶことがある)を含む、前方画像と後方画像の3枚以上の組のそれぞれについて、各線分に基づいて車両の推定位置の確からしさを表す評価値を算出する。そして位置推定部24は、その評価値に基づいて車両の位置を推定する。位置推定部24は、画像の組ごとに同一の処理を実行すればよいので、以下では、一つの画像の組に対する処理について説明する。   The position estimation unit 24 includes, for each of the three or more sets of the front image and the rear image, each including a plurality of line segments (hereinafter, simply referred to as line segments) associated with each other. Based on this, an evaluation value representing the certainty of the estimated position of the vehicle is calculated. And the position estimation part 24 estimates the position of a vehicle based on the evaluation value. Since the position estimation unit 24 only needs to execute the same processing for each set of images, processing for one set of images will be described below.

本実施形態では、位置推定部24は、先ず、画像間で対応付けられた各線分について、画像の組のうちの2枚のそれぞれの取得時の車両の位置の候補(以下、単に候補位置と呼ぶ)の初期値に基づいて、3角測量の原理に従って、その線分に対応する実空間の線分Liの位置(向きを含む、以下同じ)を求める。なお、車両の候補位置の初期値は、例えば、(6)式において第2項εxを無くしたものとすることができる。また、実空間の線分Liは、例えば、その中点の座標piと、線分Liの向き及び長さを表すベクトルri=(ri x,ri y,ri z)との組(pi,ri)で表現される。 In the present embodiment, the position estimation unit 24 firstly, for each line segment associated between images, two vehicle position candidates at the time of acquisition (hereinafter simply referred to as candidate positions) of two sets of images. based on the initial value of the called), according to the principle of triangulation, the position of the line segment L i in the real space corresponding to the line segment containing (orientation, obtaining the same below). Note that the initial value of the candidate position of the vehicle can be obtained by, for example, eliminating the second term ε x in the equation (6). In addition, the line segment L i in the real space includes, for example, the coordinates p i of the midpoint and a vector r i = (r i x , r i y , r i z ) representing the direction and length of the line segment L i. And (p i , r i ).

位置推定部24は、世界座標系で表された実空間の各線分Liを、各画像に投影する。その際、位置推定部24は、車両の候補位置の初期値に基づいて、(9)式、(5)式及び(2)式にしたがって、実空間上の各線分Liの両端点に対応する、各画像上での座標を求めることで、画像上に投影された線分liを求めればよい。 Position estimator 24, each line segment L i in the real space represented in the world coordinate system is projected on each image. At that time, the position estimation unit 24, based on the initial value of the candidate position of the vehicle, (9), according to (5) and (2), corresponding to the two end points of each line segment L i in the real space Then, the line segment l i projected on the image may be obtained by obtaining the coordinates on each image.

そして位置推定部24は、実空間の各線分Liについて、画像上に投影されたその線分(以下、対応する、画像上で検出され、かつ、画像間で対応付けられた線分と区別するために投影線分と呼ぶ)liと、対応する画像上の線分の端点との距離、及び、実空間の各線分Liと車両10の進行方向とがなす角に基づいて評価値を算出する。例えば、位置推定部24は、次式に従って評価値Eを算出する。

Figure 2018116147
ここで、(ui,vi)は、投影線分liの中点の画像上での座標であり、(dxi, dyi)は、投影線分liの向きを表す単位ベクトルである。また、gn i=(gxn i,gyn i)(n=1,2)は、投影線分liに対応する、画像上で検出され、かつ、他の画像上の線分と対応付けられた線分の両端点の座標を表す。この評価値Eは、(9)式における回転行列R及び並進行列T(すなわち、車両10の候補位置)と実空間の各線分Liの位置及び向きとの関数となる。 The position estimating unit 24, each line segment L i in the real space, the line segment which is projected on the image (hereinafter, the corresponding, detected on the image, and distinguished from the segment associated between images The evaluation value is based on the distance between l i and the end point of the corresponding line segment on the image, and the angle formed by each line segment L i in real space and the traveling direction of the vehicle 10. Is calculated. For example, the position estimation unit 24 calculates the evaluation value E according to the following equation.
Figure 2018116147
Here, (u i , v i ) are the coordinates of the midpoint of the projection line segment l i on the image, and (dx i , dy i ) is a unit vector that represents the direction of the projection line segment l i. is there. G n i = (g xn i , g yn i ) (n = 1,2) is detected on the image corresponding to the projected line segment l i and corresponds to a line segment on another image Represents the coordinates of the endpoints of the attached line segment. The evaluation value E is a function of the rotation matrix R and translation matrix T (i.e., a candidate position of the vehicle 10) the location and orientation of each line segment L i between the real space in equation (9).

さらに、dθ mは、実空間上のm番目の線分Lm=(pm,rm)と、何れかの画像取得時、例えば、最新の画像取得時における、車両10の候補位置における車両10の進行方向とがなす角を表す。例えば、dθ mは、次式に従って算出される。

Figure 2018116147
ここでF=(Fx,Fy,Fz)は、車両10の進行方向を表す。そしてPj(dθ m)(j=1,2,3,4)は、実空間上のm番目の線分が、j番目の所定の向きの線分である尤度を表す。本実施形態では、所定の向きは、道路の延伸方向と平行な方向と、道路の延伸方向に対して時計回りに90°回転した方向と、道路の延伸方向に対して反時計回りに90°回転した方向と、その他の方向とを含む。 Further, d θ m is the m-th line segment L m = (p m , r m ) in the real space and at the candidate position of the vehicle 10 when any image is acquired, for example, when the latest image is acquired. An angle formed by the traveling direction of the vehicle 10 is represented. For example, d θ m is calculated according to the following equation.
Figure 2018116147
Here, F = (F x , F y , F z ) represents the traveling direction of the vehicle 10. P j (d θ m ) (j = 1, 2, 3, 4) represents the likelihood that the m-th line segment in the real space is the j-th predetermined line segment. In the present embodiment, the predetermined direction includes a direction parallel to the road extending direction, a direction rotated 90 ° clockwise relative to the road extending direction, and 90 ° counterclockwise relative to the road extending direction. Includes rotated direction and other directions.

図7は、道路上で検出される線分の例を示す図である。車両区画線、あるいは、車道と歩道との境界などは、道路700の延伸方向に沿っている。そのため、車両区画線または車道と歩道との境界において検出される線分701は、道路の延伸方向と略平行となる。一方、横断歩道、あるいは、停止線といった線は、道路の延伸方向と略直交するように描画される。そのため、これらの線に沿って検出される線分702は、道路の延伸方向と略直交する。さらに、道路上に描画される文字または記号などの輪郭の一部は、道路の延伸方向に対して平行でも、垂直でもないため、そのような輪郭の一部に沿って検出される線分703は、道路の延伸方向に対して平行でもなく、垂直でもない。また、道路の延伸方向に沿った線分、または、道路の延伸方向と直交する方向の線分は、比較的多く存在するのに対して、それ以外の線分は比較的少ないと想定される。このことから、道路上で検出される線分は、道路の延伸方向に略平行な線分、道路の延伸方向に対して略直交する線分、または、その他の線分の何れかに分類することができる。また、一般に、車両10は道路700の延伸方向に沿って走行する。したがって、車両10の進行方向と道路の延伸方向とは略一致する。したがって、画像間で対応付けられた線分に対応する、実空間での線分が、道路の延伸方向に沿った線分である確からしさは、車両の進行方向と実空間での線分とがなす角に応じた確率分布で表される。同様に、その実空間での線分が、道路の延伸方向と直交する線分である確からしさ、及び、その他の線分である確からしさも、車両の進行方向と実空間での線分とがなす角に応じた確率分布で表される。したがって、Pj(dθ m)は、例えば、以下のようにガウス分布で表される。

Figure 2018116147
ここで、σ1 2及びμ1(=0)は、道路の延伸方向と略平行な線分と車両10の進行方向とがなす角の分散及び平均値を表す。同様に、σ2 2及μ2(=π/2)は、道路の延伸方向に対して時計回りに略90°回転した線分と車両10の進行方向とがなす角の分散及び平均値を表す。また、σ3 2及びμ3(=-π/2)は、道路の延伸方向に対して反時計回りに略90°回転した線分と車両10の進行方向とがなす角の分散及び平均値を表す。そしてσ4 2及びμ4(=0)は、その他の向きの線分と車両の進行方向がなす角の分散及び平均値を表す。なお、道路の延伸方向と略直交する線分についての確率分布が二つ存在するのは、画像間で対応付けられた線分の向きが、その線分の一端から他端へ向かうベクトルで規定されるため、対応する実空間の線分にも同様の向きが規定されることによる。
なお、これらの4種類の線分の向きの確率分布全体が、一つの混合ガウス分布で表されてもよい。この場合には、Pj(dθ m)ごとに重み係数が規定される。
Pj(dθ m)を表すパラメータ(すなわち、分散σj 2及び平均値μj)は、予め記憶部11に保存される。 FIG. 7 is a diagram illustrating an example of a line segment detected on a road. A lane marking or a boundary between a roadway and a sidewalk is along the extending direction of the road 700. Therefore, the line segment 701 detected at the boundary between the lane marking or the roadway and the sidewalk is substantially parallel to the extending direction of the road. On the other hand, a line such as a pedestrian crossing or a stop line is drawn so as to be substantially orthogonal to the extending direction of the road. Therefore, the line segment 702 detected along these lines is substantially orthogonal to the extending direction of the road. Further, since a part of the contour such as a character or a symbol drawn on the road is neither parallel nor perpendicular to the extending direction of the road, a line segment 703 detected along the part of the contour is detected. Is neither parallel nor perpendicular to the direction of road stretch. In addition, it is assumed that there are relatively many line segments along the road extending direction or in a direction perpendicular to the road extending direction, while other line segments are relatively small. . Therefore, the line segment detected on the road is classified into a line segment substantially parallel to the road extending direction, a line segment substantially orthogonal to the road extending direction, or another line segment. be able to. In general, the vehicle 10 travels along the extending direction of the road 700. Accordingly, the traveling direction of the vehicle 10 and the extending direction of the road substantially coincide. Therefore, the probability that the line segment in the real space corresponding to the line segment associated between the images is a line segment along the extending direction of the road depends on the traveling direction of the vehicle and the line segment in the real space. It is represented by a probability distribution according to the angle formed by. Similarly, the probability that the line segment in the real space is a line segment orthogonal to the extending direction of the road, and the probability that the line segment in the other space is other than the traveling direction of the vehicle and the line segment in the real space. It is represented by a probability distribution according to the angle formed. Therefore, P j (d θ m ) is expressed by a Gaussian distribution as follows, for example.
Figure 2018116147
Here, σ 1 2 and μ 1 (= 0) represent a variance and an average value of angles formed by a line segment substantially parallel to the road extending direction and the traveling direction of the vehicle 10. Similarly, σ 2 2 and μ 2 (= π / 2) are the dispersion and average value of the angle formed by the line segment rotated approximately 90 ° clockwise relative to the road extending direction and the traveling direction of the vehicle 10. Represent. Further, σ 3 2 and μ 3 (= −π / 2) are the dispersion and average value of the angle formed by the line segment rotated approximately 90 ° counterclockwise with respect to the road extending direction and the traveling direction of the vehicle 10. Represents. Σ 4 2 and μ 4 (= 0) represent the dispersion and average value of the angles formed by the line segments in other directions and the traveling direction of the vehicle. Note that there are two probability distributions for a line segment that is substantially orthogonal to the direction of road extension because the direction of the line segment associated between images is defined by a vector from one end of the line segment to the other. Therefore, the same direction is defined for the corresponding line segment in the real space.
Note that the entire probability distribution in the direction of these four types of line segments may be represented by one mixed Gaussian distribution. In this case, a weighting factor is defined for each P j (d θ m ).
Parameters representing P j (d θ m ) (that is, variance σ j 2 and average value μ j ) are stored in the storage unit 11 in advance.

図8は、実空間での線分の向きごとの確率分布の一例を示す図である。図8において、横軸は車両の進行方向と線分とがなす角dθを表し、縦軸は確率を表す。グラフ801は、道路の延伸方向と略平行な線分についての確率分布を表す。また、グラフ802及びグラフ803は、それぞれ、道路の延伸方向と略直交する線分についての確率分布を表す。そしてグラフ804は、その他の線分についての確率分布を表す。グラフ801〜803に示されるように、道路の延伸方向と略平行な線分、及び、道路の延伸方向と略直交する線分については、dθの平均値において相対的に高い確率となるものの、dθが平均値から離れるにつれて急激に確率が低下する。一方、グラフ804に示されるように、その他の線分と車両10の進行方向とがなす角dθは広い範囲にわたって分布するので、角dθ全体にわたって相対的に低い確率となる。 FIG. 8 is a diagram illustrating an example of a probability distribution for each direction of a line segment in the real space. 8, the horizontal axis represents the angle d theta is the traveling direction and the line of the vehicle, the vertical axis represents the probability. A graph 801 represents a probability distribution for a line segment substantially parallel to the road extending direction. A graph 802 and a graph 803 respectively represent probability distributions for line segments that are substantially orthogonal to the road extending direction. A graph 804 represents the probability distribution for the other line segments. As shown in the graph 801 to 803, the stretching direction substantially parallel to the line of the road, and, for the line segments substantially perpendicular to the stretching direction of the road, although the relatively high probability in the average value of d theta , D θ decreases rapidly as it departs from the average value. On the other hand, as shown in the graph 804, since the other traveling direction and the angle between the line segment and the vehicle 10 d theta distributed over a wide range, a relatively low probability across corners d theta.

位置推定部24は、評価値が減少するように、各画像取得時の車両10の候補位置及び実空間の各線分Liの位置及び向きの少なくとも何れかを更新し、更新した各画像取得時の車両10の候補位置及び各線分Liの位置及び向きに基づいて評価値を再算出する。そして位置推定部24は、評価値が最小値となったと想定される終了条件が満たされたときに、各候補位置及び実空間の各線分Liの位置及び向きの更新を終了する。そして位置推定部24は、終了条件がみたされたときの評価値の最小値に対応する各画像取得時の車両10の候補位置を、各画像取得時の実際の車両10の位置として推定するとともに、評価値の最小値に対応する実空間の各線分Liの位置及び向きを、実空間にある実際の線分の位置及び向きとする。なお、終了条件は、例えば、前回の車両10の候補位置に基づく評価値と、最新の車両10の候補位置に基づく評価値間の変化量が所定の変化量閾値以下となったとき、車両10の候補位置の更新回数が所定回数に達したとき、あるいは、評価値が所定の閾値以下となったときとすることができる。 Position estimator 24, as evaluation value decreases, the position and update at least one of the orientation of the line segments L i of the candidate positions and the real space of the vehicle 10 during each image acquisition, at each image acquisition updating re calculates an evaluation value based on the position and orientation of the candidate position of the vehicle 10 and the line segment L i. The position estimating unit 24, when the end condition evaluation value is assumed to have the minimum value is satisfied, and ends the position and orientation of the update of each line segment L i of each candidate location and the real space. Then, the position estimating unit 24 estimates the candidate position of the vehicle 10 at the time of each image acquisition corresponding to the minimum evaluation value when the end condition is met as the actual position of the vehicle 10 at the time of image acquisition. , the position and orientation of each line segment L i in the real space corresponding to the minimum value of the evaluation value, the position and orientation of the real line segment in the real space. The end condition is, for example, when the change amount between the evaluation value based on the previous candidate position of the vehicle 10 and the evaluation value based on the latest candidate position of the vehicle 10 is equal to or less than a predetermined change amount threshold value. When the number of updates of the candidate position reaches a predetermined number, or when the evaluation value becomes a predetermined threshold value or less.

位置推定部24は、評価値の最小値を求めるために、例えば、Levenberg-Marquardt(LM)法に従って各画像取得時の車両10の候補位置を更新する。あるいは、位置推定部24は、他の最適化手法、例えば、最急降下法、あるいは、シミュレーティッドアニーリング法に従って各画像取得時の車両10の候補位置を更新してもよい。   The position estimation unit 24 updates the candidate position of the vehicle 10 at the time of acquiring each image, for example, according to the Levenberg-Marquardt (LM) method in order to obtain the minimum value of the evaluation value. Or the position estimation part 24 may update the candidate position of the vehicle 10 at the time of each image acquisition according to another optimization method, for example, the steepest descent method or the simulated annealing method.

位置推定部24は、各画像取得時の車両の推定位置(あるいは、その推定位置に対応する、車両座標系と世界座標系間の変換を表す回転行列及び並進行列)を地図作成部25へわたす。   The position estimation unit 24 passes the estimated position of the vehicle at the time of each image acquisition (or a rotation matrix and a parallel progression representing the conversion between the vehicle coordinate system and the world coordinate system corresponding to the estimated position) to the map creation unit 25. .

地図作成部25は、位置推定部24により車両の推定位置が求められた画像の組ごとに、その組に含まれる画像間で対応付けられた各線分に対応する実空間の線分の世界座標系で表される位置を地図に書き込むことで地図を作成する。すなわち、地図作成部25は、評価値の最小値に対応する実空間の各線分Liを地図に書き込めばよい。 For each set of images for which the estimated position of the vehicle has been obtained by the position estimation unit 24, the map creation unit 25 uses the world coordinates of the line segment in the real space corresponding to each line segment associated between the images included in the set. A map is created by writing the position represented by the system on the map. That is, the mapping unit 25, each line segment L i in the real space corresponding to the minimum value of the evaluation value may be written to the map.

なお、地図作成部25は、上記のManhattan-World仮説における(3)の条件に基づいて対応付けられた後方画像上の線分と前方画像上の線分の組のみを、地図作成に利用することが好ましい。これにより、路面以外の構造物の線が地図に書き込まれることが抑制される。   Note that the map creation unit 25 uses only the pair of the line segment on the rear image and the line segment on the front image associated with each other based on the condition (3) in the Manhattan-World hypothesis for map creation. It is preferable. Thereby, it is suppressed that the line of structures other than a road surface is written in a map.

図9(a)は、車両が走行した道路の一例を表す図であり、図9(b)は、図9(a)に示された道路に対応する、本実施形態による地図作成装置を利用して作成された地図の一例を表す図である。図9(a)には、車両10が走行した道路900が示されている。一方、図9(b)において、地図910は、本実施形態による地図作成装置を利用して作成された地図であり、点線911は、車両10が道路900を通行した際の車両10の軌跡を表す。   FIG. 9A is a diagram illustrating an example of a road on which a vehicle has traveled, and FIG. 9B uses the map creation device according to the present embodiment corresponding to the road shown in FIG. 9A. It is a figure showing an example of the map created in this way. FIG. 9A shows a road 900 on which the vehicle 10 has traveled. On the other hand, in FIG. 9B, a map 910 is a map created using the map creation device according to the present embodiment, and a dotted line 911 shows the trajectory of the vehicle 10 when the vehicle 10 passes the road 900. Represent.

図9(a)及び図9(b)に示されるように、道路900の形状及び道路900上に示された道路表示が、地図910上でも良好に再現されていることが分かる。   As shown in FIG. 9A and FIG. 9B, it can be seen that the shape of the road 900 and the road display shown on the road 900 are reproduced well on the map 910 as well.

図10は、地図生成処理の動作フローチャートである。制御部13は、3枚以上の画像の組ごとに、下記の動作フローチャートに従って地図生成処理を実行する。   FIG. 10 is an operation flowchart of the map generation process. The control unit 13 executes map generation processing according to the following operation flowchart for each set of three or more images.

位置推定部24は、画像取得時の車両の候補位置の初期値を設定する(ステップS201)。そして位置推定部24は、各画像間で対応付けられた線分のそれぞれについて、各画像の候補位置に従った三角測量により、対応する実空間の線分の位置を算出する(ステップS202)。そして位置推定部24は、各画像に、実空間の各線分を、その画像の取得時の車両の候補位置に従って投影する(ステップS203)。また位置推定部24は、実空間の各線分について、何れかの画像取得時の車両の候補位置における車両の進行方向とその線分とのなす角dθ mを算出する(ステップS204)。 The position estimation unit 24 sets an initial value of the candidate position of the vehicle at the time of image acquisition (step S201). Then, the position estimation unit 24 calculates the position of the corresponding line segment in the real space by triangulation according to the candidate position of each image for each line segment associated with each image (step S202). Then, the position estimating unit 24 projects each line segment of the real space on each image according to the candidate position of the vehicle at the time of acquiring the image (step S203). In addition, the position estimation unit 24 calculates, for each line segment in the real space, an angle d θ m formed by the traveling direction of the vehicle at the candidate position of the vehicle at the time of image acquisition and the line segment (step S204).

位置推定部24は、各画像における、投影された線分のそれぞれごとに、その投影された線分と対応する画像上の線分との距離の和と、実空間で表された各線分について算出された角dθ mに対応する、その線分が所定の向きの線分である尤度に応じた値との和となる評価値を算出する(ステップS205)。そして位置推定部24は、評価値が終了条件を満たすか否か判定する(ステップS206)。 For each projected line segment in each image, the position estimation unit 24 calculates the sum of the distance between the projected line segment and the corresponding line segment on the image, and each line segment represented in real space. An evaluation value corresponding to the calculated angle d θ m is calculated that is a sum of values corresponding to the likelihood that the line segment is a line segment in a predetermined direction (step S205). Then, the position estimation unit 24 determines whether or not the evaluation value satisfies the end condition (Step S206).

評価値が終了条件を満たさない場合(ステップS206−No)、位置推定部24は、所定の最適化手法に従って、評価値が減少するように、各画像取得時の車両の候補位置及び実空間の各線分の少なくとも何れかを更新する(ステップS207)。そして位置推定部24は、更新された候補位置に基づいて、ステップS202以降の処理を繰り返す。   When the evaluation value does not satisfy the termination condition (No in step S206), the position estimation unit 24 follows the predetermined optimization method so that the evaluation value decreases according to a predetermined optimization method. At least one of each line segment is updated (step S207). And the position estimation part 24 repeats the process after step S202 based on the updated candidate position.

一方、評価値が終了条件を満たす場合(ステップS206−Yes)、位置推定部24は、評価値が最小となるときの各画像取得時の車両の候補位置を、それぞれ、車両の推定位置とする(ステップS208)。   On the other hand, when the evaluation value satisfies the termination condition (step S206—Yes), the position estimation unit 24 sets the vehicle candidate position at the time of each image acquisition when the evaluation value is minimized as the estimated position of the vehicle. (Step S208).

地図作成部25は、各画像取得時の車両の推定位置に従って、画像間で対応付けられた各線分に対応する実空間の線分を地図に書き込むことで地図を作成する(ステップS209)。そして制御部13は、地図作成処理を終了する。   The map creation unit 25 creates a map by writing a line segment in the real space corresponding to each line segment associated between the images in accordance with the estimated position of the vehicle at the time of each image acquisition (step S209). Then, the control unit 13 ends the map creation process.

以上説明してきたように、地図作成装置は、異なるカメラにより、異なるタイミングで生成された二つの画像間で、実空間上の同一の構造物の線に対応する線分同士を対応付ける。そしてこの地図作成装置は、画像間で対応付けられた各線分に対応する実空間上の線分を各画像に投影したときの、画像上の対応線分との位置ずれ、及び、実空間上の線分と車両の進行方向とのなす角に応じた、その線分が所定の向きの線分である尤度とに基づく、各画像取得時の車両の候補位置の評価値を算出する。そしてこの地図作成装置は、評価値が最小となるように、各画像取得時の車両の候補位置を更新し、評価値が最小となったときの各画像取得時の車両の候補位置を、それぞれ、各画像取得時の車両の推定位置とする。そしてこの地図作成装置は、各画像取得時の車両の推定位置に基づいて、各画像間で対応付けられた線分を世界座標系に投影することで地図を作成する。このように、この地図作成装置は、実空間上の線分を各画像に投影したときの、画像上の線分との位置ずれだけでなく、実空間の線分と車両の進行方向とがなす角に応じた評価値を利用するので、各画像取得時の車両の位置を正確に推定できる。その結果として、この地図作成装置は、高精度な地図を作成できる。   As described above, the map creation device associates line segments corresponding to lines of the same structure in real space between two images generated at different timings by different cameras. And this map creation device, when the line segment on the real space corresponding to each line segment associated between the images is projected on each image, the positional deviation from the corresponding line segment on the image, and on the real space The evaluation value of the candidate position of the vehicle at the time of each image acquisition is calculated based on the likelihood that the line segment is a line segment in a predetermined direction according to the angle between the line segment and the traveling direction of the vehicle. And this map creation device updates the candidate position of the vehicle at the time of each image acquisition so that the evaluation value becomes the minimum, and the candidate position of the vehicle at the time of each image acquisition when the evaluation value becomes the minimum, respectively The estimated position of the vehicle at the time of each image acquisition. And this map creation apparatus creates a map by projecting the line segment matched between each image on a world coordinate system based on the estimated position of the vehicle at the time of each image acquisition. As described above, this map creation device not only detects the positional deviation from the line segment on the image when the line segment on the real space is projected on each image, but also the line segment in the real space and the traveling direction of the vehicle. Since the evaluation value corresponding to the angle formed is used, the position of the vehicle at the time of acquiring each image can be accurately estimated. As a result, this map creation device can create a highly accurate map.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、制御部13は、一つの後方画像上の線分との対応付けを行う前方画像を複数選択し、その複数の前方画像に対して投影部22及び対応付け部23の処理を行って、線分同士の対応付けを行ってもよい。これにより、一つの後方画像を介して、3枚以上の前方画像間でも線分同士の対応付けが可能となる。したがって、制御部13は、3枚以上の前方画像の組に基づいて、位置推定部24及び地図作成部25の処理を行ってもよい。同様に、制御部13は、一つの前方画像を介して、3枚以上の後方画像間で線分同士の対応付けを行い、3枚以上の後方画像の組に基づいて、位置推定部24及び地図作成部25の処理を行ってもよい。また、制御部13は、画像間で線分を対応付ける他の方法、例えば、非特許文献3に記載された方法に従って、画像間で線分の対応付けを行ってもよい。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, the control unit 13 selects a plurality of front images to be associated with a line segment on one rear image, performs the processing of the projection unit 22 and the association unit 23 on the plurality of front images, The line segments may be associated with each other. Thereby, it becomes possible to associate line segments between three or more front images via one rear image. Therefore, the control unit 13 may perform the processing of the position estimation unit 24 and the map creation unit 25 based on a set of three or more front images. Similarly, the control unit 13 associates line segments between three or more rear images via one front image, and based on a set of three or more rear images, the position estimation unit 24 and You may perform the process of the map preparation part 25. FIG. Further, the control unit 13 may associate the line segments between the images according to another method for associating the line segments between the images, for example, the method described in Non-Patent Document 3.

また他の変形例によれば、位置推定部24は、(16)式における右辺の第2項を次式に示されるもの変更して、評価値を算出してもよい。

Figure 2018116147
あるいは、位置推定部24は、(16)式における右辺の第2項を次式に示されるもの変更して、評価値を算出してもよい。
Figure 2018116147
あるいはまた、位置推定部24は、(16)式における右辺の第2項を次式に示されるもの変更して、評価値を算出してもよい。
Figure 2018116147
According to another modification, the position estimation unit 24 may calculate the evaluation value by changing the second term on the right side in the equation (16) as shown in the following equation.
Figure 2018116147
Alternatively, the position estimation unit 24 may calculate the evaluation value by changing the second term on the right side in the equation (16) shown in the following equation.
Figure 2018116147
Alternatively, the position estimation unit 24 may calculate the evaluation value by changing the second term on the right side in the equation (16) as shown in the following equation.
Figure 2018116147

さらに他の変形例によれば、制御部13は、所定の向きの線分についての確率分布を、地図作成処理を行う前の期間(以下、学習期間と呼ぶ)に得られた複数の画像間で対応付けられた複数の線分に基づいて学習してもよい。   According to yet another modification, the control unit 13 uses a probability distribution for a line segment in a predetermined direction between a plurality of images obtained in a period before the map creation process (hereinafter referred to as a learning period). You may learn based on the some line segment matched by.

図11は、この変形例による、制御部13の概略構成図である。この変形例による制御部13は、線分抽出部21と、投影部22と、対応付け部23と、位置推定部24と、地図作成部25と、学習部26とを有する。上記の実施形態による制御部13と比較して、この変形例による制御部13は、学習部26を有する点で異なる。そこで以下では、学習部26及びその関連部分について説明する。   FIG. 11 is a schematic configuration diagram of the control unit 13 according to this modification. The control unit 13 according to this modification includes a line segment extraction unit 21, a projection unit 22, an association unit 23, a position estimation unit 24, a map creation unit 25, and a learning unit 26. Compared with the control unit 13 according to the above-described embodiment, the control unit 13 according to this modification is different in that the learning unit 26 is provided. Therefore, the learning unit 26 and related parts will be described below.

学習部26は、学習期間中に得られた複数の画像間で対応付けられた線分のそれぞれについて、位置推定部24と同様に、各画像取得時の車両の候補位置に基づいて、その対応付けられた線分に対応する実空間上の線分の位置を算出する。なお、学習部26は、各画像取得時の車両の候補位置として、例えば、(6)式において第2項εxを無くしたものとすることができる。そして学習部26は、実空間上の線分ごとに、その線分と車両の候補位置に基づいて定められる車両の進行方向とのなす角を算出する。そして学習部26は、実空間上の線分ごとに算出された車両の進行方向とのなす角に基づいて、線分の向きごとの確率分布を学習する。その際、学習部26は、例えば、EM法に従って線分の向きごとの確率分布を学習すればよい。また、向きごとの確率分布が一つの混合ガウス分布で表される場合、学習部26は、向きごとのガウス分布に対応する重み係数も、EM法に従って学習すればよい。
そして学習部26は、その学習によって求められた、線分の向きごとの確率分布を表すパラメータを記憶部11に保存する。この場合、位置推定部24は、学習部26により学習された、線分の向きごとの確率分布を表すパラメータを用いて、評価値を算出すればよい。
The learning unit 26, for each of the line segments associated between the plurality of images obtained during the learning period, similarly to the position estimation unit 24, based on the candidate position of the vehicle at the time of each image acquisition. The position of the line segment in the real space corresponding to the attached line segment is calculated. Note that the learning unit 26 can eliminate the second term ε x in the equation (6), for example, as a candidate vehicle position at the time of acquiring each image. Then, for each line segment in the real space, the learning unit 26 calculates an angle between the line segment and the vehicle traveling direction determined based on the vehicle candidate position. Then, the learning unit 26 learns the probability distribution for each direction of the line segment based on the angle formed with the traveling direction of the vehicle calculated for each line segment in the real space. In that case, the learning part 26 should just learn probability distribution for every direction of a line segment, for example according to EM method. In addition, when the probability distribution for each direction is represented by one mixed Gaussian distribution, the learning unit 26 may learn the weighting coefficient corresponding to the Gaussian distribution for each direction according to the EM method.
Then, the learning unit 26 stores, in the storage unit 11, a parameter that represents the probability distribution for each line segment direction obtained by the learning. In this case, the position estimation unit 24 may calculate an evaluation value using a parameter that is learned by the learning unit 26 and represents a probability distribution for each direction of the line segment.

この変形例によれば、地図作成装置は、実際に車両が走行した道路およびその周辺を撮影した画像から検出される線分に基づいて、実空間での線分の向きごとの確率分布をもとめることができるので、線分の向きごとの確率分布の精度を向上できる。   According to this modification, the map creation device determines the probability distribution for each direction of the line segment in the real space based on the line segment detected from the image of the road on which the vehicle actually traveled and the surrounding area. Therefore, the accuracy of the probability distribution for each direction of the line segment can be improved.

さらに他の変形例によれば、線分の向きごとの確率分布は、ニューラルネットワークにより表されてもよい。この場合には、学習部26は、ボルツマンマシンなどの教師無し学習法に従って線分の向きごとの確率分布を学習すればよい。そして学習部26は、その学習によって求められた、線分の向きごとの確率分布を表すニューラルネットワークのパラメータ(各ノード間の接続を表す係数、各ノードのバイアスなど)を記憶部11に保存する。この場合、位置推定部24は、学習部26により学習された、線分の向きごとの確率分布を表すニューラスネットワークに、車両の候補位置に応じた線分と車両の進行方向とがなす角を入力して得られる出力値を(16)式における第2項の値として用いて、評価値を算出すればよい。   According to another modification, the probability distribution for each direction of the line segment may be represented by a neural network. In this case, the learning unit 26 may learn a probability distribution for each direction of the line segment according to an unsupervised learning method such as a Boltzmann machine. The learning unit 26 stores the neural network parameters (coefficients representing connections between the nodes, biases of the nodes, etc.) obtained by the learning and representing the probability distribution for each direction of the line segment in the storage unit 11. . In this case, the position estimation unit 24 uses the angle formed by the line segment corresponding to the candidate position of the vehicle and the traveling direction of the vehicle in the neural network representing the probability distribution for each direction of the line segment learned by the learning unit 26. The evaluation value may be calculated using the output value obtained by inputting as the value of the second term in equation (16).

この変形例によれば、地図作成装置は、線分の向きごとの確率分布が複雑な形状をしている場合でも、その確率分布を正確に表すことができる。そのため、地図作成装置は、車両の位置の推定精度を向上できるので、その結果として、作成される地図の精度を向上できる。   According to this modification, the map creation device can accurately represent the probability distribution even when the probability distribution for each direction of the line segment has a complicated shape. Therefore, since the map creation device can improve the estimation accuracy of the position of the vehicle, as a result, the accuracy of the created map can be improved.

さらに他の変形例によれば、位置推定部24及び地図作成部25の処理は、制御部13とは異なる装置、例えば、車両10とは別個に設けられたサーバにおいて実行されてもよい。この場合には、画像の組ごとに、各画像の取得時刻及びその取得時刻ごとの車両10のオドメトリ情報、画像間で対応付けられた各線分の各画像上での位置及び向き、各カメラの設置位置、焦点距離などの情報が記憶部11に保存される。そしてそれらの情報が、図示しない通信インターフェースを介してサーバに送られ、サーバが位置推定部24及び地図作成部25の処理を実行すればよい。   According to still another modification, the processing of the position estimation unit 24 and the map creation unit 25 may be executed in a device different from the control unit 13, for example, a server provided separately from the vehicle 10. In this case, for each set of images, the acquisition time of each image, the odometry information of the vehicle 10 at each acquisition time, the position and orientation on each image of each line segment associated between the images, Information such as the installation position and focal length is stored in the storage unit 11. These pieces of information may be sent to the server via a communication interface (not shown), and the server may execute the processing of the position estimation unit 24 and the map creation unit 25.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。   As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

1 地図作成装置
2−1、2−2 カメラ
3 IMU
4 車輪速センサ
5 ECU
6 CAN
11 記憶部
12 通信部
13 制御部
21 線分抽出部
22 投影部
23 対応付け部
24 位置推定部
25 地図作成部
26 学習部
1 Map making device 2-1, 2-2 Camera 3 IMU
4 Wheel speed sensor 5 ECU
6 CAN
DESCRIPTION OF SYMBOLS 11 Memory | storage part 12 Communication part 13 Control part 21 Line segment extraction part 22 Projection part 23 Association part 24 Position estimation part 25 Map preparation part 26 Learning part

Claims (7)

車両(10)の進行方向と前記車両(10)の周囲における線分とがなす角における、当該線分が所定の向きの線分である確率を表す確率分布を記憶する記憶部(11)と、
前記車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された前記車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出する線分抽出部(21)と、
前記複数の画像間で、前記複数の画像のそれぞれから抽出された前記複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付ける対応付け部(23)と、
前記複数の画像のそれぞれの取得時の前記車両(10)の候補位置と前記対応付けられた線分とに基づいて算出される前記実空間の線分の向きに応じた、当該実空間の線分と、前記複数の画像のそれぞれの取得時の何れかの前記車両(10)の候補位置における前記車両(10)の進行方向とがなす角を前記確率分布に入力して得られる、当該実空間の線分が前記所定の向きの線分である尤度から算出される評価値に基づいて、前記複数の画像のそれぞれの取得時の前記車両(10)の位置を推定する位置推定部(24)と、
前記複数の画像のそれぞれの取得時の推定された前記車両(10)の位置に基づいて、前記対応付けられた線分に対応する前記実空間の線分の位置を求めることで地図を作成する地図作成部(25)と、
を有する地図作成装置。
A storage unit (11) for storing a probability distribution representing a probability that the line segment is a line segment in a predetermined direction at an angle formed by a traveling direction of the vehicle (10) and a line segment around the vehicle (10); ,
A plurality of line segments from each of a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). A line segment extraction unit (21) for extracting
An association unit (23) for associating line segments corresponding to line segments in the same real space among the plurality of line segments extracted from each of the plurality of images between the plurality of images;
A line in the real space according to the direction of the line segment in the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images and the associated line segment The actual angle obtained by inputting the angle and the angle formed by the traveling direction of the vehicle (10) at the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images into the probability distribution. A position estimation unit that estimates the position of the vehicle (10) at the time of acquisition of each of the plurality of images based on an evaluation value calculated from the likelihood that a line segment in space is a line segment in the predetermined direction. 24)
Based on the estimated position of the vehicle (10) at the time of acquisition of each of the plurality of images, a map is created by obtaining the position of the line segment in the real space corresponding to the associated line segment. A map creation unit (25);
A cartography device having
前記所定の向きは、道路の延伸方向と平行な第1の方向と、道路の延伸方向に対して直交する第2の方向とを含み、前記確率分布は、前記なす角における、前記第1の方向の線分である確率を表す第1の確率分布と、前記なす角における、前記第2の方向の線分である確率を表す第2の確率分布とを含む、請求項1に記載の地図作成装置。   The predetermined direction includes a first direction parallel to a road extending direction, and a second direction orthogonal to the road extending direction, and the probability distribution includes the first direction at the angle formed by the first direction. 2. The map according to claim 1, comprising: a first probability distribution representing a probability of being a line segment in a direction; and a second probability distribution representing a probability of being a line segment in the second direction at the formed angle. Creation device. 前記位置推定部(24)は、前記評価値が最小となるときの前記複数の画像のそれぞれの取得時の前記車両(10)の候補位置を、前記複数の画像のそれぞれの取得時の前記車両(10)の位置として推定する、請求項1または2に記載の地図作成装置。   The position estimation unit (24) determines the candidate position of the vehicle (10) when each of the plurality of images is acquired when the evaluation value is the minimum, and the vehicle when each of the plurality of images is acquired. The map creation device according to claim 1, wherein the map creation device estimates the position of (10). 前記位置推定部(24)は、前記尤度と、前記複数の画像のそれぞれについての、前記実空間の線分を当該画像の取得時の前記車両(10)の候補位置に基づいて当該画像に投影したときの位置と、当該画像上での前記対応付けられた線分間の位置ずれに応じた値とに基づいて前記評価値を算出する、請求項1〜3の何れか一項に記載の地図作成装置。   The position estimation unit (24) converts the likelihood and a line segment of the real space for each of the plurality of images into the image based on the candidate position of the vehicle (10) at the time of acquiring the image. The evaluation value is calculated according to any one of claims 1 to 3, wherein the evaluation value is calculated based on a position when projected and a value corresponding to a positional deviation between the associated line segments on the image. Map making device. 前記線分抽出部(21)は、前記少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された前記車両(10)の周囲の複数の第2の画像のそれぞれから、複数の線分を抽出し、
前記対応付け部(23)は、前記複数の第2の画像間で、前記複数の第2の画像のそれぞれから抽出された前記複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付け、
前記複数の第2の画像のそれぞれの取得時の前記車両(10)の候補位置と前記対応付けられた線分とに基づいて算出される、前記複数の第2の画像間で対応付けられた線分に対応する実空間の線分の向きに応じた、当該実空間の線分と、前記複数の第2の画像のそれぞれの取得時の何れかの前記車両(10)の候補位置における前記車両(10)の進行方向とがなす角に基づいて前記確率分布を学習する学習部(26)をさらに有する、請求項1〜4の何れか一項に記載の地図作成装置。
The line segment extraction unit (21) includes a plurality of second images around the vehicle (10) generated at different times by the at least one imaging unit (2-1, 2-2). , Extract multiple line segments,
The associating unit (23) is a line corresponding to a line segment in the same real space among the plurality of line segments extracted from each of the plurality of second images between the plurality of second images. Match minutes,
Corresponding between the plurality of second images calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of second images and the associated line segment The line segment in the real space according to the direction of the line segment in the real space corresponding to the line segment and the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of second images. The map creation device according to any one of claims 1 to 4, further comprising a learning unit (26) that learns the probability distribution based on an angle formed by a traveling direction of the vehicle (10).
車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された前記車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出するステップと、
前記複数の画像間で、前記複数の画像のそれぞれから抽出された前記複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けるステップと、
前記複数の画像のそれぞれの取得時の前記車両(10)の候補位置と前記対応付けられた線分とに基づいて算出される前記実空間の線分の向きに応じた、当該実空間の線分と、前記複数の画像のそれぞれの取得時の何れかの前記車両(10)の候補位置における前記車両(10)の進行方向とがなす角を、前記車両(10)の進行方向と前記車両(10)の周囲における線分とがなす角における、当該線分が所定の向きの線分である確率を表す確率分布に入力して得られる、当該実空間の線分が前記所定の向きの線分である尤度から算出される評価値に基づいて、前記複数の画像のそれぞれの取得時の前記車両(10)の位置を推定するステップと、
前記複数の画像のそれぞれの取得時の推定された前記車両(10)の位置に基づいて、前記対応付けられた線分に対応する前記実空間の線分の位置を求めることで地図を作成するステップと、
を含む方法。
A plurality of line segments are obtained from each of a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). Extracting, and
Correlating line segments corresponding to line segments in the same real space among the plurality of line segments extracted from each of the plurality of images between the plurality of images;
A line in the real space according to the direction of the line segment in the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images and the associated line segment And the angle formed by the traveling direction of the vehicle (10) at the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images, and the traveling direction of the vehicle (10) and the vehicle The line segment in the real space obtained by inputting into a probability distribution representing the probability that the line segment is a line segment in a predetermined direction at an angle formed by the line segment in the periphery of (10) Estimating a position of the vehicle (10) at the time of acquisition of each of the plurality of images based on an evaluation value calculated from a likelihood that is a line segment;
Based on the estimated position of the vehicle (10) at the time of acquisition of each of the plurality of images, a map is created by obtaining the position of the line segment in the real space corresponding to the associated line segment. Steps,
Including methods.
車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された前記車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出するステップと、
前記複数の画像間で、前記複数の画像のそれぞれから抽出された前記複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けるステップと、
前記複数の画像のそれぞれの取得時の前記車両(10)の候補位置と前記対応付けられた線分とに基づいて算出される前記実空間の線分の向きに応じた、当該実空間の線分と、前記複数の画像のそれぞれの取得時の何れかの前記車両(10)の候補位置における前記車両(10)の進行方向とがなす角を、前記車両(10)の進行方向と前記車両(10)の周囲における線分とがなす角における、当該線分が所定の向きの線分である確率を表す確率分布に入力して得られる、当該実空間の線分が前記所定の向きの線分である尤度から算出される評価値に基づいて、前記複数の画像のそれぞれの取得時の前記車両(10)の位置を推定するステップと、
前記複数の画像のそれぞれの取得時の推定された前記車両(10)の位置に基づいて、前記対応付けられた線分に対応する前記実空間の線分の位置を求めることで地図を作成するステップと、
をコンピュータに実行させるための位置合わせ用コンピュータプログラム。
A plurality of line segments are obtained from each of a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). Extracting, and
Correlating line segments corresponding to line segments in the same real space among the plurality of line segments extracted from each of the plurality of images between the plurality of images;
A line in the real space according to the direction of the line segment in the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images and the associated line segment And the angle formed by the traveling direction of the vehicle (10) at the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images, and the traveling direction of the vehicle (10) and the vehicle The line segment in the real space obtained by inputting into a probability distribution representing the probability that the line segment is a line segment in a predetermined direction at an angle formed by the line segment in the periphery of (10) Estimating a position of the vehicle (10) at the time of acquisition of each of the plurality of images based on an evaluation value calculated from a likelihood that is a line segment;
Based on the estimated position of the vehicle (10) at the time of acquisition of each of the plurality of images, a map is created by obtaining the position of the line segment in the real space corresponding to the associated line segment. Steps,
A computer program for alignment for causing a computer to execute.
JP2017006917A 2017-01-18 2017-01-18 Map creation device, map creation method and map creation computer program Pending JP2018116147A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017006917A JP2018116147A (en) 2017-01-18 2017-01-18 Map creation device, map creation method and map creation computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017006917A JP2018116147A (en) 2017-01-18 2017-01-18 Map creation device, map creation method and map creation computer program

Publications (1)

Publication Number Publication Date
JP2018116147A true JP2018116147A (en) 2018-07-26

Family

ID=62985423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017006917A Pending JP2018116147A (en) 2017-01-18 2017-01-18 Map creation device, map creation method and map creation computer program

Country Status (1)

Country Link
JP (1) JP2018116147A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038622A (en) * 2018-09-04 2020-03-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Lane line tracking method and device
JP2020140566A (en) * 2019-02-28 2020-09-03 株式会社豊田中央研究所 Map generation device and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038622A (en) * 2018-09-04 2020-03-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Lane line tracking method and device
US11100341B2 (en) 2018-09-04 2021-08-24 Baidu Online Network Technology (Beijing) Co., Ltd. Lane line tracking method and device
JP7179695B2 (en) 2018-09-04 2022-11-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Lane tracking method and device
JP2020140566A (en) * 2019-02-28 2020-09-03 株式会社豊田中央研究所 Map generation device and program
JP7028206B2 (en) 2019-02-28 2022-03-02 株式会社豊田中央研究所 Map generator and program

Similar Documents

Publication Publication Date Title
CN109993113B (en) Pose estimation method based on RGB-D and IMU information fusion
US10268201B2 (en) Vehicle automated parking system and method
Rambach et al. Learning to fuse: A deep learning approach to visual-inertial camera pose estimation
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
CN109472828B (en) Positioning method, positioning device, electronic equipment and computer readable storage medium
US20150235367A1 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
JP2018124787A (en) Information processing device, data managing device, data managing system, method, and program
JP2019124537A (en) Information processor, method for controlling the same, program, and vehicle operation supporting system
Berrio et al. Camera-LIDAR integration: Probabilistic sensor fusion for semantic mapping
CN108332752B (en) Indoor robot positioning method and device
CN111210477A (en) Method and system for positioning moving target
US20220319042A1 (en) Detection, 3d reconstruction and tracking of multiple rigid objects moving in relation to one another
CN110942470B (en) Image processing apparatus and method
CN111862201A (en) Deep learning-based spatial non-cooperative target relative pose estimation method
CN111738032B (en) Vehicle driving information determination method and device and vehicle-mounted terminal
WO2019136613A1 (en) Indoor locating method and device for robot
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
CN112767546B (en) Binocular image-based visual map generation method for mobile robot
JP2017181476A (en) Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program
CN111998862A (en) Dense binocular SLAM method based on BNN
CN108544494A (en) A kind of positioning device, method and robot based on inertia and visual signature
Alliez et al. Real-time multi-SLAM system for agent localization and 3D mapping in dynamic scenarios
KR101803340B1 (en) Visual odometry system and method
CN113971697A (en) Air-ground cooperative vehicle positioning and orienting method
JP2018116147A (en) Map creation device, map creation method and map creation computer program