JP2018116147A - Map creation device, map creation method and map creation computer program - Google Patents
Map creation device, map creation method and map creation computer program Download PDFInfo
- Publication number
- JP2018116147A JP2018116147A JP2017006917A JP2017006917A JP2018116147A JP 2018116147 A JP2018116147 A JP 2018116147A JP 2017006917 A JP2017006917 A JP 2017006917A JP 2017006917 A JP2017006917 A JP 2017006917A JP 2018116147 A JP2018116147 A JP 2018116147A
- Authority
- JP
- Japan
- Prior art keywords
- line segment
- vehicle
- images
- real space
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車載のカメラにより得られた車両周囲の画像から地図を作成する地図作成装置、地図作成方法及び地図作成用コンピュータプログラムに関する。 The present invention relates to a map creation device, a map creation method, and a map creation computer program for creating a map from an image around a vehicle obtained by an in-vehicle camera.
近年、運転支援などの目的で、車両には、1台以上のカメラが取り付けられることがある。このような場合、カメラにより得られた画像を有効に利用するために、異なるカメラにより生成された複数の画像間で、あるいは、異なる位置で同一のカメラにより生成された複数の画像間で、実空間上の同一の点あるいは線に対応する画像上の特徴点または線分同士を対応付けることが提案されている(例えば、特許文献1及び非特許文献1〜3を参照)。
In recent years, one or more cameras may be attached to a vehicle for the purpose of driving assistance or the like. In such a case, in order to effectively use the image obtained by the camera, it can be used between a plurality of images generated by different cameras or between a plurality of images generated by the same camera at different positions. It has been proposed to associate feature points or line segments on an image corresponding to the same point or line in space (see, for example,
例えば、特許文献1には、路面上にある、マンホールの蓋の中心、白線の端部などの特徴点を、移動体の直進時における移動前後の移動体に取り付けられたカメラにより撮影された画像間で、物体追跡処理を用いて対応付けることが提案されている。
For example,
また、非特許文献1には、車両に搭載された前方を写すカメラと左側または右側を写すカメラ間で、連続する二つのフレームについてSURF特徴を抽出し、照合することが記載されている。さらに、非特許文献2には、一方の画像上の特徴点周囲の領域をワーピングにより変形させて、対応付けを行う他方の画像上での対応点を検出することが提案されている。さらにまた、非特許文献3には、環境地図の作成(Simultaneous Localization and Mapping,SLAM)を実行するために、異なるフレームのそれぞれから検出された線分同士を対応付けることが提案されている。
Non-Patent
自動運転システムあるいは先進運転支援システムなどでは、自動運転または運転支援を行うために、地図に示されている道路の情報(例えば、車線区画線または横断歩道などの道路標示)などが利用される。そこでこの地図では、路面に描画されている道路標示などの情報ができるだけ精度良く再現されていることが好ましい。そのため、車載のカメラにより得られた画像から検出された線分などに基づいて、道路標示などの情報が高精度に再現される地図を作成する技術が求められている。 In an automatic driving system or an advanced driving support system, information on a road (for example, a road marking such as a lane line or a pedestrian crossing) shown on a map is used to perform automatic driving or driving support. Therefore, in this map, it is preferable that information such as road markings drawn on the road surface is reproduced as accurately as possible. Therefore, there is a need for a technique for creating a map on which information such as road markings is reproduced with high accuracy based on a line segment detected from an image obtained by an in-vehicle camera.
そこで、本発明は、車両に搭載されたカメラにより生成された画像から作成される地図に表される情報の精度を向上できる地図作成装置、位置合わせ方法及び位置合わせ用コンピュータプログラムを提供することを目的とする。 Therefore, the present invention provides a map creation device, a registration method, and a registration computer program capable of improving the accuracy of information represented on a map created from an image generated by a camera mounted on a vehicle. Objective.
請求項1の記載によれば、本発明の一つの形態として、地図作成装置が提供される。係る地図作成装置は、車両(10)の進行方向と車両(10)の周囲における線分とがなす角における、その線分が所定の向きの線分である確率を表す確率分布を記憶する記憶部(11)と、車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出する線分抽出部(21)と、複数の画像間で、複数の画像のそれぞれから抽出された複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付ける対応付け部(23)と、複数の画像のそれぞれの取得時の車両(10)の候補位置と複数の画像間で対応付けられた線分とに基づいて算出される実空間の線分の向きに応じた、その実空間の線分と、複数の画像のそれぞれの取得時の何れかの車両(10)の候補位置における車両(10)の進行方向とがなす角を上記の確率分布に入力して得られる、その実空間の線分が所定の向きの線分である尤度から算出される評価値に基づいて、複数の画像のそれぞれの取得時の車両(10)の位置を推定する位置推定部(24)と、複数の画像のそれぞれの取得時の推定された車両(10)の位置に基づいて、複数の画像間で対応付けられた線分に対応する実空間の線分の位置を求めることで地図を作成する地図作成部(25)とを有する。
本発明に係る地図作成装置は、上記の構成を有することにより、車両に搭載されたカメラにより生成された画像から作成される地図に表される情報の精度を向上できる。
According to the first aspect of the present invention, a map creation device is provided as one aspect of the present invention. The map creating apparatus stores a probability distribution representing a probability that the line segment is a line segment in a predetermined direction at an angle formed by the traveling direction of the vehicle (10) and the line segment around the vehicle (10). From each of a plurality of images around the vehicle (10) generated at different times by the unit (11) and at least one imaging unit (2-1, 2-2) attached to the vehicle (10), A line segment extraction unit (21) that extracts a plurality of line segments, and a plurality of line segments that are extracted from each of the plurality of images and that correspond to the line segments in the same real space. A line segment in the real space calculated based on the associating unit (23) for associating the vehicle, the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images, and the line segment associated between the plurality of images. Depending on the orientation of the real space line segment and multiple The line segment of the real space obtained by inputting the angle formed by the traveling direction of the vehicle (10) at the candidate position of any vehicle (10) at the time of acquisition of each image into the probability distribution is a predetermined direction A position estimation unit (24) for estimating the position of the vehicle (10) at the time of acquisition of each of the plurality of images based on an evaluation value calculated from the likelihood of the line segment, and acquisition of each of the plurality of images Based on the estimated position of the vehicle (10) at the time, a map creation unit (25) that creates a map by obtaining the position of the line segment in the real space corresponding to the line segment associated between the plurality of images And have.
The map creation device according to the present invention can improve the accuracy of information represented on a map created from an image generated by a camera mounted on a vehicle by having the above-described configuration.
また請求項2の記載によれば、所定の向きは、道路の延伸方向と平行な第1の方向と、道路の延伸方向に対して直交する第2の方向とを含み、確率分布は、車両(10)の進行方向と車両(10)の周囲における線分とがなす角における、第1の方向の線分である確率を表す第1の確率分布と、そのなす角における、第2の方向の線分である確率を表す第2の確率分布とを含むことが好ましい。
これにより、地図作成装置は、画像間で対応付けられた線分に対応する実空間の線分が、道路上に標示される何れかの線分であるか否かを精度良く評価することができるので、その結果として、各画像取得時の車両の位置の推定精度を向上できる。
According to a second aspect of the present invention, the predetermined direction includes a first direction parallel to the road extending direction and a second direction orthogonal to the road extending direction, and the probability distribution includes the vehicle The first probability distribution representing the probability of being a line segment in the first direction at the angle formed by the traveling direction of (10) and the line segment around the vehicle (10), and the second direction at the formed angle And a second probability distribution representing the probability of the line segment.
Thereby, the map creation device can accurately evaluate whether or not the line segment in the real space corresponding to the line segment associated between the images is any line segment marked on the road. As a result, the estimation accuracy of the position of the vehicle at the time of acquiring each image can be improved.
あるいは、請求項3の記載によれば、位置推定部(24)は、評価値が最小となるときの複数の画像のそれぞれの取得時の車両(10)の候補位置を、複数の画像のそれぞれの取得時の車両(10)の位置として推定することが好ましい。
これにより、地図作成装置は、各画像取得時の車両の位置をより正確に推定できる。
Alternatively, according to the description of
Thereby, the map creation apparatus can estimate the position of the vehicle at the time of acquiring each image more accurately.
さらに、請求項4の記載によれば、位置推定部(24)は、実空間の線分が所定の向きの線分である尤度と、複数の画像のそれぞれについての、実空間の線分をその画像の取得時の車両(10)の候補位置に基づいてその画像に投影したときの位置と、その画像上での対応付けられた線分間の位置ずれに応じた値とに基づいて評価値を算出することが好ましい。
これにより、地図作成装置は、各画像取得時の候補位置の正しさをより正確に評価できるので、各画像取得時の車両の位置をより正確に推定できる。
Furthermore, according to the description of
Thereby, since the map creation apparatus can evaluate the correctness of the candidate position at the time of each image acquisition more correctly, it can estimate the position of the vehicle at the time of each image acquisition more accurately.
さらに、請求項5の記載によれば、線分抽出部(21)は、少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された車両(10)の周囲の複数の第2の画像のそれぞれから、複数の線分を抽出し、対応付け部(23)は、複数の第2の画像間で、複数の第2の画像のそれぞれから抽出された複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けることが好ましい。そして地図作成装置は、複数の第2の画像のそれぞれの取得時の車両(10)の候補位置と複数の第2の画像間で対応付けられた線分とに基づいて算出される、複数の第2の画像間で対応付けられた線分に対応する実空間の線分の向きに応じた、その実空間の線分と、複数の第2の画像のそれぞれの取得時の何れかの車両(10)の候補位置における車両(10)の進行方向とがなす角に基づいて上記の確率分布を学習する学習部(26)をさらに有することが好ましい。
これにより、地図作成装置は、実際に車両(10)が走行したときの実空間の線分と車両の進行方向とがなす角ごとの線分の分布を確率分布に反映させることができる。その結果として、この地図作成装置は、各画像取得時の車両の位置の推定精度を向上できる。
Furthermore, according to the description of
Thereby, the map creation apparatus can reflect the distribution of the line segment for each angle formed by the line segment in the real space when the vehicle (10) actually travels and the traveling direction of the vehicle in the probability distribution. As a result, this map creation device can improve the estimation accuracy of the position of the vehicle when each image is acquired.
さらに、請求項6の記載によれば、本発明の他の形態として、地図作成方法が提供される。係る地図作成方法は、車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出するステップと、複数の画像間で、複数の画像のそれぞれから抽出された複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けるステップと、複数の画像のそれぞれの取得時の車両(10)の候補位置と複数の画像間で対応付けられた線分とに基づいて算出される実空間の線分の向きに応じた、その実空間の線分と、複数の画像のそれぞれの取得時の何れかの車両(10)の候補位置における車両(10)の進行方向とがなす角を、車両(10)の進行方向と車両(10)の周囲における線分とがなす角における、その線分が所定の向きの線分である確率を表す確率分布に入力して得られる、その実空間の線分が所定の向きの線分である尤度から算出される評価値に基づいて、複数の画像のそれぞれの取得時の車両(10)の位置を推定するステップと、複数の画像のそれぞれの取得時の推定された車両(10)の位置に基づいて、複数の画像間で対応付けられた線分に対応する実空間の線分の位置を求めることで地図を作成するステップとを含む。
本発明に係る地図作成方法は、上記のステップを有することにより、車両に搭載されたカメラにより生成された画像から作成される地図に表される情報の精度を向上できる。
Furthermore, according to the description of claim 6, a map creation method is provided as another embodiment of the present invention. The map creation method is based on each of a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). Extracting a plurality of line segments; associating line segments corresponding to line segments in the same real space among a plurality of line segments extracted from each of the plurality of images; The line segment of the real space according to the direction of the line segment of the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the images and the line segment associated between the plurality of images And the angle formed by the traveling direction of the vehicle (10) at the candidate position of any vehicle (10) at the time of acquisition of each of the plurality of images, the traveling direction of the vehicle (10) and the surroundings of the vehicle (10) At the angle formed by the line segment, Based on the evaluation value calculated from the likelihood that the line segment in the real space is a line segment in the predetermined direction, which is obtained by inputting into a probability distribution representing the probability that the line segment in the predetermined direction is a line segment in the predetermined direction, Associating between the plurality of images based on the step of estimating the position of the vehicle (10) at the time of acquiring each of the plurality of images and the estimated position of the vehicle (10) at the time of acquiring each of the plurality of images. Creating a map by determining the position of a line segment in real space corresponding to the line segment.
The map creation method according to the present invention can improve the accuracy of information represented on a map created from an image generated by a camera mounted on a vehicle by having the above steps.
また請求項7の記載によれば、本発明のさらに他の形態として、地図作成用コンピュータプログラムが提供される。係る地図作成用コンピュータプログラムは、車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出するステップと、複数の画像間で、複数の画像のそれぞれから抽出された複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けるステップと、複数の画像のそれぞれの取得時の車両(10)の候補位置と複数の画像間で対応付けられた線分とに基づいて算出される実空間の線分の向きに応じた、その実空間の線分と、複数の画像のそれぞれの取得時の何れかの車両(10)の候補位置における車両(10)の進行方向とがなす角を、車両(10)の進行方向と車両(10)の周囲における線分とがなす角における、その線分が所定の向きの線分である確率を表す確率分布に入力して得られる、その実空間の線分が所定の向きの線分である尤度から算出される評価値に基づいて、複数の画像のそれぞれの取得時の車両(10)の位置を推定するステップと、複数の画像のそれぞれの取得時の推定された車両(10)の位置に基づいて、複数の画像間で対応付けられた線分に対応する実空間の線分の位置を求めることで地図を作成するステップと、をコンピュータに実行させるための命令を含む。
本発明に係る地図作成用コンピュータプログラムは、上記の命令を有することにより、車両に搭載されたカメラにより生成された画像から作成される地図に表される情報の精度を向上できる。
According to a seventh aspect of the present invention, a computer program for creating a map is provided as still another aspect of the present invention. Such a computer program for creating a map includes a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). A step of extracting a plurality of line segments, and a step of associating line segments corresponding to a line segment in the same real space among a plurality of line segments extracted from each of the plurality of images between the plurality of images. The real space according to the direction of the line segment of the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images and the line segment associated with the plurality of images. The angle formed by the line segment and the traveling direction of the vehicle (10) at the candidate position of any vehicle (10) when each of the plurality of images is acquired is defined as the traveling direction of the vehicle (10) and the traveling direction of the vehicle (10). Line segment around An evaluation calculated from the likelihood that a line segment in the real space is a line segment in a predetermined direction obtained by inputting into a probability distribution representing the probability that the line segment is a line segment in a predetermined direction at an angle formed by Based on the value, the step of estimating the position of the vehicle (10) at the time of acquiring each of the plurality of images, and the position of the estimated vehicle (10) at the time of acquiring each of the plurality of images A step of creating a map by obtaining a position of a line segment in real space corresponding to a line segment associated between images, and a command for causing a computer to execute the map.
The computer program for map creation according to the present invention can improve the accuracy of information represented on a map created from an image generated by a camera mounted on a vehicle by having the above-described command.
上記各部に付した括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示す一例である。 The reference numerals in parentheses attached to the above-described parts are examples that show the correspondence with specific means described in the embodiments described later.
以下、図を参照しつつ、一つの実施形態による、地図作成装置について説明する。
この地図作成装置は、車両に搭載され、異なる方向に向けられた二つのカメラのそれぞれにより、互いに異なるタイミングで生成された二つの画像間で、実空間上の同一の構造物の線(構造物の形状による線だけでなく、構造物上に描画された図形または文字などによる線も含む)に対応する画像上の線分同士を対応付ける。そしてこの地図作成装置は、画像間で対応付けられた線分に基づいて地図を作成する。その際、この地図作成装置は、各画像取得時の車両の推定位置の評価値が最小となるように、車両の推定位置を求め、その推定位置に従って画像間で対応付けられた線分に対応する実空間の線分の位置を求める。その際、この地図作成装置は、路面上に描画された線分の多くは、道路の延伸方向に平行あるいは直交しているという仮定に基づいて事前に求められた、実空間の線分と車両の進行方向とがなす角の確率分布を利用して、画像間で対応付けられた線分に対応する実空間の線分が所定の向きの線分である尤度に基づいて評価値を算出する。これにより、この地図作成装置は、車両の位置の推定精度を向上するとともに、道路表示などの情報が高精度に再現された地図を作成することを可能とする。
Hereinafter, a map creation device according to one embodiment will be described with reference to the drawings.
This cartography device is mounted on a vehicle and has two lines of the same structure in real space (structures) between two images generated at different timings by two cameras directed in different directions. The line segments on the image corresponding to the shape (including not only the line based on the shape of the figure but also the line based on the figure or the character drawn on the structure) are associated with each other. And this map creation apparatus creates a map based on the line segment matched between images. At that time, the map creation device obtains the estimated position of the vehicle so that the evaluation value of the estimated position of the vehicle at the time of each image acquisition is minimized, and corresponds to the line segment associated between the images according to the estimated position. Find the position of the line segment in real space. At that time, the map creation device uses a real space line segment and a vehicle that are obtained in advance based on the assumption that many of the line segments drawn on the road surface are parallel or orthogonal to the extending direction of the road. The evaluation value is calculated based on the likelihood that the line segment in the real space corresponding to the line segment associated between images is a line segment in a predetermined direction using the probability distribution of the angle formed by the traveling direction of To do. As a result, the map creation device can improve the estimation accuracy of the position of the vehicle and can create a map in which information such as road display is reproduced with high accuracy.
図1は、一つの実施形態による地図作成装置の概略構成図である。図1に示すように、地図作成装置1は、車両10に搭載され、カメラ2−1及び2−2、慣性計測装置(IMU)3、車輪速センサ4、及び電子制御ユニット(ECU)5と、コントロールエリアネットワーク(以下、CANという)6を介して互いに接続されている。なお、図1では、説明の都合のため、地図作成装置1など、車両10に搭載されている各構成要素及び車両10の形状、サイズ及び配置は、実際のものとは異なっている。
FIG. 1 is a schematic configuration diagram of a map creation device according to one embodiment. As shown in FIG. 1, a
カメラ2−1、2−2は、それぞれ、撮像部の一例である。本実施形態では、カメラ2−1、2−2は、それぞれ、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2−1は、結像光学系の光軸が地面に対して略平行となり、かつ車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2−1は、所定の撮影周期(例えば1/30秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。一方、カメラ2−2は、結像光学系の光軸が地面に対して略平行となり、かつ車両10の後方を向くように、車両10の後端部に取り付けられる。そしてカメラ2−2は、所定の撮影周期ごとに車両10の後方領域を撮影し、その後方領域が写った画像を生成する。カメラ2−1、2−2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。
Each of the cameras 2-1 and 2-2 is an example of an imaging unit. In the present embodiment, each of the cameras 2-1 and 2-2 includes a two-dimensional detector composed of an array of photoelectric conversion elements having sensitivity to visible light, such as CCD or C-MOS, and the two-dimensional detector. An imaging optical system that forms an image of a region to be photographed on is provided. The camera 2-1 is attached to, for example, the vehicle interior of the
カメラ2−1、2−2は、それぞれ、画像を生成する度に、その生成した画像を地図作成装置1へ出力する。
Each time the cameras 2-1 and 2-2 generate an image, they output the generated image to the
地図作成装置1は、記憶部11と、通信部12と、制御部13とを有する。
記憶部11は、例えば、電気的に書き換え可能な不揮発性メモリ及び揮発性メモリなどの半導体メモリを有する。そして記憶部11は、地図作成装置1を制御するための各種プログラム、及び、地図作成処理で利用される各種の情報、カメラ2−1またはカメラ2−2により生成された画像、及び制御部13による一時的な演算結果などを記憶する。
The
The storage unit 11 includes, for example, a semiconductor memory such as an electrically rewritable nonvolatile memory and a volatile memory. The storage unit 11 includes various programs for controlling the
通信部12は、カメラ2−1、2−2、IMU3、車輪速センサ4、及びECU5などとCAN6を通じて通信する通信インターフェース及びその制御回路を有する。そして通信部12は、カメラ2−1、2-2から画像を受け取り、その画像を制御部13へ渡す。また通信部12は、地図作成処理を実行する周期ごとに、IMU3から、車両10の速度及び移動量などを表すオドメトリ情報を取得したり、あるいは、車輪速センサ4から車輪速を取得して、制御部13へ渡す。
The
制御部13は、1個もしくは複数個の図示してないプロセッサ及びその周辺回路を有する。そして制御部13は、地図作成装置1全体を制御する。
図2に、制御部13の機能ブロック図を示す。図2に示すように、制御部13は、線分抽出部21と、投影部22と、対応付け部23と、位置推定部24と、地図作成部25とを有する。制御部13が有するこれらの各部は、例えば、制御部13が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。
The
FIG. 2 shows a functional block diagram of the
本実施形態では、制御部13は、ある時刻n(ここでは、フレーム間隔を単位とする時刻を表す。秒、分などを単位とする時刻については、実時刻と呼ぶ)において車両10の後方を撮影するカメラ2−2により生成された画像上の線分を、その時刻よりもkフレーム前の時刻(n-k)において車両10の前方を撮影するカメラ2−1により生成された画像上の線分と対応付ける。これは、車両10が前進している場合、車両10の後方を撮影するカメラ2−2により時刻nで撮影された範囲は、それより前の時刻(n-k)にて車両10の前方を撮影するカメラ2−1により撮影された範囲と重なる部分があると想定されるためである。そして制御部13は、上記のような対応付けを逐次行うことで、3枚以上の画像にわたって対応付けられる線分を特定する。そして制御部13は、その3枚以上の画像のそれぞれにおいて対応付けられた線分を用いて各画像の取得時の車両の位置を推定し、その推定された車両の位置に従って画像間で対応付けられた線分に対応する実空間の線分の位置を求めて地図に書き込む。
なお、以下では、説明の便宜上、カメラ2-1により生成された画像を前方画像と呼び、カメラ2−2により生成された画像を後方画像と呼ぶ。また、地図作成処理のうち、線分抽出部21、投影部22及び対応付け部23により実行される、画像間での線分の対応付けに関する処理を位置合わせ処理と呼ぶことがある。
In the present embodiment, the
Hereinafter, for convenience of explanation, an image generated by the camera 2-1 is referred to as a front image, and an image generated by the camera 2-2 is referred to as a rear image. In the map creation process, the process related to the line segment association between the images, which is executed by the line
線分抽出部21は、カメラ2−2から制御部13が後方画像を受け取る度に、その後方画像から、カメラ2−2の撮影領域内にある、路面、道路標識、看板、あるいは建築物といった構造物の線に対応する線分を抽出する。そのために、線分抽出部21は、例えば、線分検出器を用いて後方画像上の線分を検出する。線分抽出部21は、線分検出器として、例えば、R.G. von Gioi他、"A fast line segment detector with a false detection control"、 IEEE Transactions on Pattern Analysis & Machine Intelligence、 (4)、2008年、pp.722-732に開示されたアルゴリズムを利用できる。あるいは、線分抽出部21は、画像から線分を検出できる他の線分検出器を利用してもよい。
線分抽出部21は、後方画像ごとに、その後方画像の取得時刻とその後方画像から抽出した線分を表す後方画像上のその線分の中点の座標と向き及び長さを表すベクトルを投影部22へ渡す。
Each time the
The line
同様に、線分抽出部21は、カメラ2−1から制御部13が前方画像を受け取る度に、その前方画像から線分を抽出する。そして線分抽出部21は、抽出した線分の中点の座標と向き及び長さを表すベクトルを、前方画像の取得時刻とともに記憶部11に記憶する。
Similarly, every time the
投影部22は、後方画像上の線分ごとに、その線分を中心とするブロックマッチング用のパッチを設定し、実空間上でそのパッチに相当する領域を特定する。そして投影部22は、実空間上でのパッチの対応領域を、後方画像よりもkフレーム前に取得された前方画像上に投影する。
この投影処理には、画像上の座標と、実空間上での座標間の変換が必要となる。そこで先ず、その変換に利用される座標系について説明する。
For each line segment on the rear image, the
This projection processing requires conversion between coordinates on the image and coordinates in the real space. First, a coordinate system used for the conversion will be described.
図3は、二つのカメラのそれぞれについてのカメラ座標系と車両座標系の関係を示す図である。カメラ2-1を基準とする実空間の座標系であるカメラ座標系(以下、便宜上、前方カメラ座標系と呼ぶ)C1は、カメラ2−1の像側焦点を原点とし、車両10の直進方向をz軸、路面と平行かつz軸と直交する方向をx軸、路面に垂直な方向をy軸とする座標系である。そしてz軸について、車両10の前方へ向かう方向を正とし、x軸の正方向は右手座標系により規定される。また、カメラ2-2を基準とする実空間の座標系であるカメラ座標系(以下、便宜上、後方カメラ座標系と呼ぶ)C2は、カメラ2−2の像側焦点を原点とし、車両10の直進方向をz軸、路面と平行かつz軸と直交する方向をx軸、路面に垂直な方向をy軸とする座標系である。そしてz軸について、車両10の後方へ向かう方向を正とし、x軸の正方向は右手座標系により規定される。
FIG. 3 is a diagram illustrating the relationship between the camera coordinate system and the vehicle coordinate system for each of the two cameras. A camera coordinate system (hereinafter referred to as a forward camera coordinate system for convenience) C1, which is a coordinate system in the real space with the camera 2-1 as a reference, uses the image-side focal point of the camera 2-1 as an origin, and a straight traveling direction of the
また、車両10を基準とする実空間の座標系である車両座標系Vは、車両10の任意の点、例えば、前側の車輪間の中点、後ろ側の車輪間の中点、あるいは前側の車輪間の中点と後ろ側の車輪間の中点との中点を原点とし、車両10の直進方向をz軸、路面と平行かつz軸と直交する方向をx軸、路面に垂直な方向をy軸とする座標系である。そしてz軸について、車両10の前方へ向かう方向を正とし、x軸の正方向は右手座標系により規定される。また、これらの座標系において、xz平面における、z軸とのなす角はθで表される。
The vehicle coordinate system V, which is a coordinate system in the real space with respect to the
図4(a)〜図4(c)は、それぞれ、ブロックマッチングを行うマッチング範囲であるパッチの一例を示す図である。図4(a)に示される例では、パッチ401は、着目する線分410と平行な方向に沿って線分410と同じ長さを持ち、かつ、線分410と直交する方向に所定の幅(例えば、10〜20ピクセル)を持つ矩形領域として設定される。また、図4(b)に示される例では、パッチ402は、着目する線分410と直交する方向に所定の幅(例えば、10〜20ピクセル)を持ち、かつ、線分410と平行な方向に沿って、線分410よりも所定長(例えば、10〜20ピクセル)だけ長い矩形領域として設定される。さらに、図4(c)に示される例では、パッチ403は、着目する線分410までの距離が所定値(例えば、10〜20ピクセル)以下となる領域として設定される。
FIG. 4A to FIG. 4C are diagrams illustrating examples of patches that are matching ranges in which block matching is performed. In the example shown in FIG. 4A, the
本実施形態では、ブロックマッチングを行うマッチング範囲であるパッチはupは、例えば、次式のように定義される。
また、投影部22は、後方画像上の線分に基づいて設定されるパッチupから、車両10と車両10の周囲の構造物の位置関係を規定する所定の条件に従って実空間上での対応領域を特定する。そして投影部22は、その対応領域について、後方カメラ座標系→時刻nにおける車両座標系→実空間の絶対座標である世界座標系→時刻(n-k)における車両座標系→前方カメラ座標系→前方画像上の順に投影する。
そこで先ず、パッチupに対応する実空間上での領域についてのカメラ座標系での座標の導出について説明する。
The
Thus is described first coordinates are derived in the camera coordinate system for the area in the real space corresponding to the patch u p.
後方画像あるいは前方画像上の座標(2次元座標)をカメラ座標系の座標(3次元座標)に変換する際、本実施形態では、ピンホールカメラモデルが適用される。この場合、後方画像上でのパッチup内の各画素の座標は、次式に従って正規化座標系上の座標Unに変換される。
本実施形態では、車両10と車両10の周囲の構造物の位置関係を規定する所定の条件として、Manhattan-World仮説を導入する。そしてManhattan-World仮説に基づいて、各線分についてのパッチに対応する実空間上の領域を特定する。Manhattan-World仮説では、画像上の線分に対応する実空間上の構造物の線は、以下の3種類の何れかである。
(1)車両10の直進方向と平行な建物の側壁上の線
(2)車両10の直進方向と直交する建物の側壁上の線
(3)路面上の線
また、画像上の線分に対応する実空間上の構造物の線の周囲は平面になっていると仮定される。
In the present embodiment, the Manhattan-World hypothesis is introduced as a predetermined condition that defines the positional relationship between the
(1) A line on the side wall of the building parallel to the straight direction of the vehicle 10 (2) A line on the side wall of the building orthogonal to the straight direction of the vehicle 10 (3) A line on the road surface or a line segment on the image It is assumed that the line around the structure in real space is a plane.
図5は、本実施形態による、Manhattan-World仮説に基づく、実空間上の構造物の線と車両の位置関係を示す図である。本実施形態では、カメラ2−1は車両10の前方を向いており、一方、カメラ2−2は、車両10の後方を向いているので、上記の(2)に相当する線については、両方のカメラから見えることはなく、一方の画像上の線分が他方の画像上の線分と対応付けられることはない。したがって、(1)に相当する、車両10の直進方向と平行な側壁上の線501に対応する線分、あるいは、(3)に相当する、路面上の線502に対応する線分が、前方画像と後方画像の間で対応付けられる。
FIG. 5 is a diagram showing the positional relationship between the line of the structure in the real space and the vehicle based on the Manhattan-World hypothesis according to the present embodiment. In the present embodiment, since the camera 2-1 faces the front of the
線501にように、画像上の線分に対応する実空間上の構造物の線が車両10の直進方向と平行な建物500の側壁にある場合、その線分のパッチに対応する実空間上の領域に含まれる各点について、カメラ座標系ではx=dとなる。なお、dは、車両10とその線分に対応する実空間上での線までの距離である。したがって、上記の(1)の条件が仮定される場合、パッチupに対応する実空間上の領域内の各点についてのカメラ座標系での座標Ppは次式で表される。
一方、線502にように、画像上の線分に対応する実空間上の構造物の線が路面上にある場合、その線分のパッチに対応する実空間上の領域に含まれる各点について、カメラ座標系ではy=hとなる。なお、hは路面からカメラ2−2までの高さであり、予め記憶部11に記憶される。したがって、上記の(3)の条件が仮定される場合、パッチupに対応する実空間上の領域内の各点についてのカメラ座標系での座標Ppは次式で表される。
投影部22は、(2)式と(3)式、または(2)式と(4)式にしたがって、後方画像上の各線分についてのパッチupに対応する実空間上の領域内の各点のカメラ座標系上の座標Ppを求める。なお、dについては、任意の所定区間、例えば、[1,20](m)の区間で、1m単位で変化させる。すなわち、各線分について、dの値ごとに(2)式と(3)式に基づいて求められる20個の領域の座標Ppと、(2)式と(4)式に基づいて求められる1個の領域の座標Ppが求められる。 Projection 22 (2) and (3), or (2) and (4) according to wherein each of the regions in the real space corresponding to the patch u p of each line segment on the rearward image A coordinate P p on the camera coordinate system of the point is obtained. Note that d is changed in units of 1 m in an arbitrary predetermined section, for example, a section of [1,20] (m). That is, for each line segment, for each value of d, 20 areas of coordinates P p obtained based on the expressions (2) and (3) and 1 obtained based on the expressions (2) and (4) The coordinates P p of the individual areas are obtained.
なお、投影部22は、バンドル調整によりdの区間を上記の所定区間よりも狭く設定してもよい。この場合には、投影部22は、例えば、画像上の線分に対応する、実空間上の構造物の線を、カメラ2−2により異なる時間での撮影により得られた二つの後方画像間で線分の対応付けを行うことで特定する。そして投影部22は、その二つの後方画像の生成時に対応する二つの車両の位置を利用した三角測量によって車両10からその線分上の点(例えば、中点)に対応する実空間上の点までの距離を測定し、その測定された距離を含むようにdの区間を設定すればよい。
Note that the
投影部22は、後方画像上の各線分のパッチについて、そのパッチに対応する実空間上の領域のそれぞれを前方画像上に投影するwarping関数は、次式で表される。
また、関数πci()は、カメラ座標系から画像上の座標への変換関数であり、(2)式のカメラ座標(x,y,z)から画像上の座標(un,vn)への変換に相当する。 The function π ci () is a conversion function from the camera coordinate system to the coordinates on the image, and the coordinates (u n , v n ) on the image from the camera coordinates (x, y, z) in equation (2). Equivalent to conversion to
また、関数πn wv()は、時刻nにおける世界座標系から車両座標系への変換関数である。一方、その逆関数πn wv -1()は、時刻nにおける車両座標系から世界座標系への変換関数である。 The function π n wv () is a conversion function from the world coordinate system to the vehicle coordinate system at time n. On the other hand, the inverse function π n wv −1 () is a conversion function from the vehicle coordinate system to the world coordinate system at time n.
以下に、関数πn wv()の詳細について説明する。Xn=t(xn,zn,θn)を、世界座標系での時刻nにおける車両10の位置及び向きを表す位置ベクトルとする。この場合、Xnは、時刻(n-k)における車両10の位置Xn-k=t(xn-k,zn-k,θn-k)との間に、次式で表される関係が成立する。
時刻nにおける、世界座標系から車両座標系への変換を表す回転行列Rt及び並進行列Ttは、時刻nにおける車両10の位置ベクトルXnを用いて次式で表される。
また、後方画像上の線分を基準として、前方画像上の対応する線分をより正確に特定するためには、後方画像上での線分の向きに対応する、前方画像上での線分の向きが求められることが好ましい。また、実空間での線分は、その線分上の点(例えば、中点)の3次元の座標p(px,py,pz)とその線分の向きを表す3次元ベクトルr(rx,ry,rz)とで表される。したがって、世界座標系での線分の向きを表す3次元ベクトルrを、カメラ2−1を基準とするカメラ座標系のベクトルA1へ変換する変換式、及び、カメラ2−2を基準とするカメラ座標系のベクトルA2へ変換する変換式は、次式で表される。
また、カメラ座標系のベクトルA1を前方画像へ投影して前方画像上の対応ベクトルa1を算出する式、及び、カメラ座標系のベクトルA2を後方画像へ投影して後方画像上の対応ベクトルa2を算出する式は、次式で表される。
上記のように、パッチupに対応する、実空間上の領域を前方画像上へ投影することで、パッチup内の各画素に対応する前方画像上の位置、すなわち、パッチupを前方画像上に投影した領域が求められる。
投影部22は、後方画像上の各線分についてのパッチup内の各画素に対応する、kフレーム前の前方画像上での画素の座標及び線分の向きを表すベクトルを対応付け部23へ出力する。
As described above, corresponding to the patch u p, a region in the real space by projecting into the forward image, the position of the forward image corresponding to each pixel in the patch u p, i.e., front patch u p An area projected on the image is obtained.
対応付け部23は、後方画像上の各線分についてのパッチupに対応する、kフレーム前の前方画像上での領域と、前方画像との間でブロックマッチングを行って互いに類似する領域を特定することで、後方画像上の各線分に前方画像上の線分を対応付ける。
Associating
本実施形態では、対応付け部23は、後方画像上の各線分について、対応する前方画像上の線分の探索を行う探索範囲を誤差モデルに基づく誤差楕円として設定する。その際、誤差楕円は、次式により算出される共分散行列ΣFにより定められる。
対応付け部23は、共分散行列ΣFの固有値λ1、λ2と、固有ベクトルv1、v2を算出する。ただし、大きい方の固有値をλ1とする。このとき、誤差楕円の長径a及び短径bは、次式で表される。
対応付け部23は、後方画像上の各線分について、kフレーム前の前方画像上の探索範囲である誤差楕円内にあり、かつ、前方画像上に投影したときのその線分となす角が所定角度(例えば、3°〜5°)以下となる、前方画像上の線分を、後方画像上の線分に対応付ける候補として検出する。なお、対応付け部23は、次式を満たす前方画像上の線分を、探索範囲に含まれると判定する。
対応付け部23は、後方画像上の各線分について、kフレーム前の前方画像上の探索範囲内にある線分のそれぞれについて、ブロックマッチングを行って正規化相互相関値を算出する。その際、対応付け部23は、パッチが投影された前方画像上の領域の中心、すなわち、後方画像上の線分が前方画像上に投影された位置と、ブロックマッチングの対象となる前方画像上の線分間の位置の差を打ち消すように、前方画像上に投影されたパッチ内の各画素の位置を平行移動させることで、後方画像上のパッチ内の各画素に対応する前方画像上の画素を特定すればよい。そして対応付け部23は、後方画像上のパッチ内の各画素の輝度値と、対応する前方画像上の画素の輝度値に基づいて正規化相互相関値を算出できる。対応付け部23は、その正規化相互相関値が最大となる前方画像上の線分を、後方画像上の着目する線分に対応付ける。なお、対応付け部23は、正規化相互相関値の最大値が所定の閾値(例えば、0.6〜0.7)以上である場合に限り、その二つの線分を対応付けてもよい。
For each line segment on the rear image, the associating
なお、対応付け部23は、演算量を軽減するために、探索範囲を、後方画像上の線分の中点に対応する前方画像上の座標を中心とする、予め設定された所定の範囲に設定してもよい。この場合、所定の範囲は、例えば、水平方向について、パッチの水平方向サイズの2〜3倍とし、垂直方向について、パッチの垂直方向サイズの2〜3倍とすることができる。
In order to reduce the amount of calculation, the
なお、変形例によれば、パッチの形状自体に、後方画像上での線分の向きの情報が含まれているので、対応付け部23は、kフレーム前の前方画像上の探索範囲にある前方画像上の線分の全てを、後方画像上の線分に対応付ける候補としてもよい。
Note that, according to the modification, since the patch shape itself includes information on the direction of the line segment on the rear image, the associating
また、他の変形例によれば、対応付け部23は、後方画像上の各線分について、対応する探索範囲内の各画素をそれぞれパッチの中心に対応させるよう、パッチを平行移動させてそれぞれ正規化相互相関値を算出し、その正規化相互相関値が最大となる画素を、後方画像上の着目する線分に対応する前方画像上の線分の中点とし、着目する線分の向きに対応する前方画像上での向きを、その対応する線分の向きとしてもよい。この場合には、線分抽出部21は、前方画像から線分を抽出しなくてもよい。
Further, according to another modification, the associating
対応付け部23は、後方画像上の線分と対応付けられた前方画像上の線分のそれぞれの中点の座標及び向きを表すベクトルの組、及び、対応する後方画像の取得時刻と前方画像の取得時刻の組とを関連付けて、記憶部11に記憶する。
The associating
図6に、制御部13により制御される、位置合わせ処理の動作フローチャートを示す。なお、制御部13は、後方画像ごとに、この動作フローチャートにしたがって位置合わせ処理を実行する。
FIG. 6 shows an operation flowchart of the alignment process controlled by the
線分抽出部21は、後方画像及び前方画像のそれぞれから線分を抽出する(ステップS101)。そして線分抽出部21は、前方画像から抽出した各線分の中点の座標及び向きを表すベクトルを記憶部11に記憶する。また線分抽出部21は、後方画像から抽出した各線分の中点の座標及び向きを表すベクトルを投影部22へ渡す。
The line
投影部22は、後方画像から抽出した各線分について、その線分の中点を中心とするパッチを設定し、そのパッチに対応する実空間上の1以上の領域をManhattan-World仮説に従って設定する(ステップS102)。そして投影部22は、後方画像から抽出した各線分について、パッチに対応する実空間上の各領域を、後方画像の取得時よりもkフレーム前に取得された前方画像上へ投影する(ステップS103)。
For each line segment extracted from the rear image, the
対応付け部23は、後方画像から抽出した各線分について、パッチに対応する実空間上の領域の中心の前方画像上の投影位置を中心として探索範囲を設定する(ステップS104)。そして対応付け部23は、探索範囲内にある前方画像上の線分の周囲の領域と、前方画像上でのパッチに対応する実空間上の領域の投影範囲との間でのブロックマッチングで最も一致する線分を、後方画像上の線分と対応付ける(ステップS105)。そして制御部13は、位置合わせ処理を終了する。
For each line segment extracted from the rear image, the associating
位置推定部24は、画像間で互いに対応付けられる複数の線分(以下、単に線分と呼ぶことがある)を含む、前方画像と後方画像の3枚以上の組のそれぞれについて、各線分に基づいて車両の推定位置の確からしさを表す評価値を算出する。そして位置推定部24は、その評価値に基づいて車両の位置を推定する。位置推定部24は、画像の組ごとに同一の処理を実行すればよいので、以下では、一つの画像の組に対する処理について説明する。
The
本実施形態では、位置推定部24は、先ず、画像間で対応付けられた各線分について、画像の組のうちの2枚のそれぞれの取得時の車両の位置の候補(以下、単に候補位置と呼ぶ)の初期値に基づいて、3角測量の原理に従って、その線分に対応する実空間の線分Liの位置(向きを含む、以下同じ)を求める。なお、車両の候補位置の初期値は、例えば、(6)式において第2項εxを無くしたものとすることができる。また、実空間の線分Liは、例えば、その中点の座標piと、線分Liの向き及び長さを表すベクトルri=(ri x,ri y,ri z)との組(pi,ri)で表現される。
In the present embodiment, the
位置推定部24は、世界座標系で表された実空間の各線分Liを、各画像に投影する。その際、位置推定部24は、車両の候補位置の初期値に基づいて、(9)式、(5)式及び(2)式にしたがって、実空間上の各線分Liの両端点に対応する、各画像上での座標を求めることで、画像上に投影された線分liを求めればよい。
そして位置推定部24は、実空間の各線分Liについて、画像上に投影されたその線分(以下、対応する、画像上で検出され、かつ、画像間で対応付けられた線分と区別するために投影線分と呼ぶ)liと、対応する画像上の線分の端点との距離、及び、実空間の各線分Liと車両10の進行方向とがなす角に基づいて評価値を算出する。例えば、位置推定部24は、次式に従って評価値Eを算出する。
さらに、dθ mは、実空間上のm番目の線分Lm=(pm,rm)と、何れかの画像取得時、例えば、最新の画像取得時における、車両10の候補位置における車両10の進行方向とがなす角を表す。例えば、dθ mは、次式に従って算出される。
図7は、道路上で検出される線分の例を示す図である。車両区画線、あるいは、車道と歩道との境界などは、道路700の延伸方向に沿っている。そのため、車両区画線または車道と歩道との境界において検出される線分701は、道路の延伸方向と略平行となる。一方、横断歩道、あるいは、停止線といった線は、道路の延伸方向と略直交するように描画される。そのため、これらの線に沿って検出される線分702は、道路の延伸方向と略直交する。さらに、道路上に描画される文字または記号などの輪郭の一部は、道路の延伸方向に対して平行でも、垂直でもないため、そのような輪郭の一部に沿って検出される線分703は、道路の延伸方向に対して平行でもなく、垂直でもない。また、道路の延伸方向に沿った線分、または、道路の延伸方向と直交する方向の線分は、比較的多く存在するのに対して、それ以外の線分は比較的少ないと想定される。このことから、道路上で検出される線分は、道路の延伸方向に略平行な線分、道路の延伸方向に対して略直交する線分、または、その他の線分の何れかに分類することができる。また、一般に、車両10は道路700の延伸方向に沿って走行する。したがって、車両10の進行方向と道路の延伸方向とは略一致する。したがって、画像間で対応付けられた線分に対応する、実空間での線分が、道路の延伸方向に沿った線分である確からしさは、車両の進行方向と実空間での線分とがなす角に応じた確率分布で表される。同様に、その実空間での線分が、道路の延伸方向と直交する線分である確からしさ、及び、その他の線分である確からしさも、車両の進行方向と実空間での線分とがなす角に応じた確率分布で表される。したがって、Pj(dθ m)は、例えば、以下のようにガウス分布で表される。
なお、これらの4種類の線分の向きの確率分布全体が、一つの混合ガウス分布で表されてもよい。この場合には、Pj(dθ m)ごとに重み係数が規定される。
Pj(dθ m)を表すパラメータ(すなわち、分散σj 2及び平均値μj)は、予め記憶部11に保存される。
FIG. 7 is a diagram illustrating an example of a line segment detected on a road. A lane marking or a boundary between a roadway and a sidewalk is along the extending direction of the
Note that the entire probability distribution in the direction of these four types of line segments may be represented by one mixed Gaussian distribution. In this case, a weighting factor is defined for each P j (d θ m ).
Parameters representing P j (d θ m ) (that is, variance σ j 2 and average value μ j ) are stored in the storage unit 11 in advance.
図8は、実空間での線分の向きごとの確率分布の一例を示す図である。図8において、横軸は車両の進行方向と線分とがなす角dθを表し、縦軸は確率を表す。グラフ801は、道路の延伸方向と略平行な線分についての確率分布を表す。また、グラフ802及びグラフ803は、それぞれ、道路の延伸方向と略直交する線分についての確率分布を表す。そしてグラフ804は、その他の線分についての確率分布を表す。グラフ801〜803に示されるように、道路の延伸方向と略平行な線分、及び、道路の延伸方向と略直交する線分については、dθの平均値において相対的に高い確率となるものの、dθが平均値から離れるにつれて急激に確率が低下する。一方、グラフ804に示されるように、その他の線分と車両10の進行方向とがなす角dθは広い範囲にわたって分布するので、角dθ全体にわたって相対的に低い確率となる。
FIG. 8 is a diagram illustrating an example of a probability distribution for each direction of a line segment in the real space. 8, the horizontal axis represents the angle d theta is the traveling direction and the line of the vehicle, the vertical axis represents the probability. A
位置推定部24は、評価値が減少するように、各画像取得時の車両10の候補位置及び実空間の各線分Liの位置及び向きの少なくとも何れかを更新し、更新した各画像取得時の車両10の候補位置及び各線分Liの位置及び向きに基づいて評価値を再算出する。そして位置推定部24は、評価値が最小値となったと想定される終了条件が満たされたときに、各候補位置及び実空間の各線分Liの位置及び向きの更新を終了する。そして位置推定部24は、終了条件がみたされたときの評価値の最小値に対応する各画像取得時の車両10の候補位置を、各画像取得時の実際の車両10の位置として推定するとともに、評価値の最小値に対応する実空間の各線分Liの位置及び向きを、実空間にある実際の線分の位置及び向きとする。なお、終了条件は、例えば、前回の車両10の候補位置に基づく評価値と、最新の車両10の候補位置に基づく評価値間の変化量が所定の変化量閾値以下となったとき、車両10の候補位置の更新回数が所定回数に達したとき、あるいは、評価値が所定の閾値以下となったときとすることができる。
位置推定部24は、評価値の最小値を求めるために、例えば、Levenberg-Marquardt(LM)法に従って各画像取得時の車両10の候補位置を更新する。あるいは、位置推定部24は、他の最適化手法、例えば、最急降下法、あるいは、シミュレーティッドアニーリング法に従って各画像取得時の車両10の候補位置を更新してもよい。
The
位置推定部24は、各画像取得時の車両の推定位置(あるいは、その推定位置に対応する、車両座標系と世界座標系間の変換を表す回転行列及び並進行列)を地図作成部25へわたす。
The
地図作成部25は、位置推定部24により車両の推定位置が求められた画像の組ごとに、その組に含まれる画像間で対応付けられた各線分に対応する実空間の線分の世界座標系で表される位置を地図に書き込むことで地図を作成する。すなわち、地図作成部25は、評価値の最小値に対応する実空間の各線分Liを地図に書き込めばよい。
For each set of images for which the estimated position of the vehicle has been obtained by the
なお、地図作成部25は、上記のManhattan-World仮説における(3)の条件に基づいて対応付けられた後方画像上の線分と前方画像上の線分の組のみを、地図作成に利用することが好ましい。これにより、路面以外の構造物の線が地図に書き込まれることが抑制される。
Note that the
図9(a)は、車両が走行した道路の一例を表す図であり、図9(b)は、図9(a)に示された道路に対応する、本実施形態による地図作成装置を利用して作成された地図の一例を表す図である。図9(a)には、車両10が走行した道路900が示されている。一方、図9(b)において、地図910は、本実施形態による地図作成装置を利用して作成された地図であり、点線911は、車両10が道路900を通行した際の車両10の軌跡を表す。
FIG. 9A is a diagram illustrating an example of a road on which a vehicle has traveled, and FIG. 9B uses the map creation device according to the present embodiment corresponding to the road shown in FIG. 9A. It is a figure showing an example of the map created in this way. FIG. 9A shows a
図9(a)及び図9(b)に示されるように、道路900の形状及び道路900上に示された道路表示が、地図910上でも良好に再現されていることが分かる。
As shown in FIG. 9A and FIG. 9B, it can be seen that the shape of the
図10は、地図生成処理の動作フローチャートである。制御部13は、3枚以上の画像の組ごとに、下記の動作フローチャートに従って地図生成処理を実行する。
FIG. 10 is an operation flowchart of the map generation process. The
位置推定部24は、画像取得時の車両の候補位置の初期値を設定する(ステップS201)。そして位置推定部24は、各画像間で対応付けられた線分のそれぞれについて、各画像の候補位置に従った三角測量により、対応する実空間の線分の位置を算出する(ステップS202)。そして位置推定部24は、各画像に、実空間の各線分を、その画像の取得時の車両の候補位置に従って投影する(ステップS203)。また位置推定部24は、実空間の各線分について、何れかの画像取得時の車両の候補位置における車両の進行方向とその線分とのなす角dθ mを算出する(ステップS204)。
The
位置推定部24は、各画像における、投影された線分のそれぞれごとに、その投影された線分と対応する画像上の線分との距離の和と、実空間で表された各線分について算出された角dθ mに対応する、その線分が所定の向きの線分である尤度に応じた値との和となる評価値を算出する(ステップS205)。そして位置推定部24は、評価値が終了条件を満たすか否か判定する(ステップS206)。
For each projected line segment in each image, the
評価値が終了条件を満たさない場合(ステップS206−No)、位置推定部24は、所定の最適化手法に従って、評価値が減少するように、各画像取得時の車両の候補位置及び実空間の各線分の少なくとも何れかを更新する(ステップS207)。そして位置推定部24は、更新された候補位置に基づいて、ステップS202以降の処理を繰り返す。
When the evaluation value does not satisfy the termination condition (No in step S206), the
一方、評価値が終了条件を満たす場合(ステップS206−Yes)、位置推定部24は、評価値が最小となるときの各画像取得時の車両の候補位置を、それぞれ、車両の推定位置とする(ステップS208)。
On the other hand, when the evaluation value satisfies the termination condition (step S206—Yes), the
地図作成部25は、各画像取得時の車両の推定位置に従って、画像間で対応付けられた各線分に対応する実空間の線分を地図に書き込むことで地図を作成する(ステップS209)。そして制御部13は、地図作成処理を終了する。
The
以上説明してきたように、地図作成装置は、異なるカメラにより、異なるタイミングで生成された二つの画像間で、実空間上の同一の構造物の線に対応する線分同士を対応付ける。そしてこの地図作成装置は、画像間で対応付けられた各線分に対応する実空間上の線分を各画像に投影したときの、画像上の対応線分との位置ずれ、及び、実空間上の線分と車両の進行方向とのなす角に応じた、その線分が所定の向きの線分である尤度とに基づく、各画像取得時の車両の候補位置の評価値を算出する。そしてこの地図作成装置は、評価値が最小となるように、各画像取得時の車両の候補位置を更新し、評価値が最小となったときの各画像取得時の車両の候補位置を、それぞれ、各画像取得時の車両の推定位置とする。そしてこの地図作成装置は、各画像取得時の車両の推定位置に基づいて、各画像間で対応付けられた線分を世界座標系に投影することで地図を作成する。このように、この地図作成装置は、実空間上の線分を各画像に投影したときの、画像上の線分との位置ずれだけでなく、実空間の線分と車両の進行方向とがなす角に応じた評価値を利用するので、各画像取得時の車両の位置を正確に推定できる。その結果として、この地図作成装置は、高精度な地図を作成できる。 As described above, the map creation device associates line segments corresponding to lines of the same structure in real space between two images generated at different timings by different cameras. And this map creation device, when the line segment on the real space corresponding to each line segment associated between the images is projected on each image, the positional deviation from the corresponding line segment on the image, and on the real space The evaluation value of the candidate position of the vehicle at the time of each image acquisition is calculated based on the likelihood that the line segment is a line segment in a predetermined direction according to the angle between the line segment and the traveling direction of the vehicle. And this map creation device updates the candidate position of the vehicle at the time of each image acquisition so that the evaluation value becomes the minimum, and the candidate position of the vehicle at the time of each image acquisition when the evaluation value becomes the minimum, respectively The estimated position of the vehicle at the time of each image acquisition. And this map creation apparatus creates a map by projecting the line segment matched between each image on a world coordinate system based on the estimated position of the vehicle at the time of each image acquisition. As described above, this map creation device not only detects the positional deviation from the line segment on the image when the line segment on the real space is projected on each image, but also the line segment in the real space and the traveling direction of the vehicle. Since the evaluation value corresponding to the angle formed is used, the position of the vehicle at the time of acquiring each image can be accurately estimated. As a result, this map creation device can create a highly accurate map.
以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、制御部13は、一つの後方画像上の線分との対応付けを行う前方画像を複数選択し、その複数の前方画像に対して投影部22及び対応付け部23の処理を行って、線分同士の対応付けを行ってもよい。これにより、一つの後方画像を介して、3枚以上の前方画像間でも線分同士の対応付けが可能となる。したがって、制御部13は、3枚以上の前方画像の組に基づいて、位置推定部24及び地図作成部25の処理を行ってもよい。同様に、制御部13は、一つの前方画像を介して、3枚以上の後方画像間で線分同士の対応付けを行い、3枚以上の後方画像の組に基づいて、位置推定部24及び地図作成部25の処理を行ってもよい。また、制御部13は、画像間で線分を対応付ける他の方法、例えば、非特許文献3に記載された方法に従って、画像間で線分の対応付けを行ってもよい。
The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, the
また他の変形例によれば、位置推定部24は、(16)式における右辺の第2項を次式に示されるもの変更して、評価値を算出してもよい。
さらに他の変形例によれば、制御部13は、所定の向きの線分についての確率分布を、地図作成処理を行う前の期間(以下、学習期間と呼ぶ)に得られた複数の画像間で対応付けられた複数の線分に基づいて学習してもよい。
According to yet another modification, the
図11は、この変形例による、制御部13の概略構成図である。この変形例による制御部13は、線分抽出部21と、投影部22と、対応付け部23と、位置推定部24と、地図作成部25と、学習部26とを有する。上記の実施形態による制御部13と比較して、この変形例による制御部13は、学習部26を有する点で異なる。そこで以下では、学習部26及びその関連部分について説明する。
FIG. 11 is a schematic configuration diagram of the
学習部26は、学習期間中に得られた複数の画像間で対応付けられた線分のそれぞれについて、位置推定部24と同様に、各画像取得時の車両の候補位置に基づいて、その対応付けられた線分に対応する実空間上の線分の位置を算出する。なお、学習部26は、各画像取得時の車両の候補位置として、例えば、(6)式において第2項εxを無くしたものとすることができる。そして学習部26は、実空間上の線分ごとに、その線分と車両の候補位置に基づいて定められる車両の進行方向とのなす角を算出する。そして学習部26は、実空間上の線分ごとに算出された車両の進行方向とのなす角に基づいて、線分の向きごとの確率分布を学習する。その際、学習部26は、例えば、EM法に従って線分の向きごとの確率分布を学習すればよい。また、向きごとの確率分布が一つの混合ガウス分布で表される場合、学習部26は、向きごとのガウス分布に対応する重み係数も、EM法に従って学習すればよい。
そして学習部26は、その学習によって求められた、線分の向きごとの確率分布を表すパラメータを記憶部11に保存する。この場合、位置推定部24は、学習部26により学習された、線分の向きごとの確率分布を表すパラメータを用いて、評価値を算出すればよい。
The
Then, the
この変形例によれば、地図作成装置は、実際に車両が走行した道路およびその周辺を撮影した画像から検出される線分に基づいて、実空間での線分の向きごとの確率分布をもとめることができるので、線分の向きごとの確率分布の精度を向上できる。 According to this modification, the map creation device determines the probability distribution for each direction of the line segment in the real space based on the line segment detected from the image of the road on which the vehicle actually traveled and the surrounding area. Therefore, the accuracy of the probability distribution for each direction of the line segment can be improved.
さらに他の変形例によれば、線分の向きごとの確率分布は、ニューラルネットワークにより表されてもよい。この場合には、学習部26は、ボルツマンマシンなどの教師無し学習法に従って線分の向きごとの確率分布を学習すればよい。そして学習部26は、その学習によって求められた、線分の向きごとの確率分布を表すニューラルネットワークのパラメータ(各ノード間の接続を表す係数、各ノードのバイアスなど)を記憶部11に保存する。この場合、位置推定部24は、学習部26により学習された、線分の向きごとの確率分布を表すニューラスネットワークに、車両の候補位置に応じた線分と車両の進行方向とがなす角を入力して得られる出力値を(16)式における第2項の値として用いて、評価値を算出すればよい。
According to another modification, the probability distribution for each direction of the line segment may be represented by a neural network. In this case, the
この変形例によれば、地図作成装置は、線分の向きごとの確率分布が複雑な形状をしている場合でも、その確率分布を正確に表すことができる。そのため、地図作成装置は、車両の位置の推定精度を向上できるので、その結果として、作成される地図の精度を向上できる。 According to this modification, the map creation device can accurately represent the probability distribution even when the probability distribution for each direction of the line segment has a complicated shape. Therefore, since the map creation device can improve the estimation accuracy of the position of the vehicle, as a result, the accuracy of the created map can be improved.
さらに他の変形例によれば、位置推定部24及び地図作成部25の処理は、制御部13とは異なる装置、例えば、車両10とは別個に設けられたサーバにおいて実行されてもよい。この場合には、画像の組ごとに、各画像の取得時刻及びその取得時刻ごとの車両10のオドメトリ情報、画像間で対応付けられた各線分の各画像上での位置及び向き、各カメラの設置位置、焦点距離などの情報が記憶部11に保存される。そしてそれらの情報が、図示しない通信インターフェースを介してサーバに送られ、サーバが位置推定部24及び地図作成部25の処理を実行すればよい。
According to still another modification, the processing of the
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.
1 地図作成装置
2−1、2−2 カメラ
3 IMU
4 車輪速センサ
5 ECU
6 CAN
11 記憶部
12 通信部
13 制御部
21 線分抽出部
22 投影部
23 対応付け部
24 位置推定部
25 地図作成部
26 学習部
1 Map making device 2-1, 2-2
4
6 CAN
DESCRIPTION OF SYMBOLS 11 Memory |
Claims (7)
前記車両(10)に取り付けられた少なくとも一つの撮像部(2−1、2−2)により互いに異なる時刻において生成された前記車両(10)の周囲の複数の画像のそれぞれから、複数の線分を抽出する線分抽出部(21)と、
前記複数の画像間で、前記複数の画像のそれぞれから抽出された前記複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付ける対応付け部(23)と、
前記複数の画像のそれぞれの取得時の前記車両(10)の候補位置と前記対応付けられた線分とに基づいて算出される前記実空間の線分の向きに応じた、当該実空間の線分と、前記複数の画像のそれぞれの取得時の何れかの前記車両(10)の候補位置における前記車両(10)の進行方向とがなす角を前記確率分布に入力して得られる、当該実空間の線分が前記所定の向きの線分である尤度から算出される評価値に基づいて、前記複数の画像のそれぞれの取得時の前記車両(10)の位置を推定する位置推定部(24)と、
前記複数の画像のそれぞれの取得時の推定された前記車両(10)の位置に基づいて、前記対応付けられた線分に対応する前記実空間の線分の位置を求めることで地図を作成する地図作成部(25)と、
を有する地図作成装置。 A storage unit (11) for storing a probability distribution representing a probability that the line segment is a line segment in a predetermined direction at an angle formed by a traveling direction of the vehicle (10) and a line segment around the vehicle (10); ,
A plurality of line segments from each of a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). A line segment extraction unit (21) for extracting
An association unit (23) for associating line segments corresponding to line segments in the same real space among the plurality of line segments extracted from each of the plurality of images between the plurality of images;
A line in the real space according to the direction of the line segment in the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images and the associated line segment The actual angle obtained by inputting the angle and the angle formed by the traveling direction of the vehicle (10) at the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images into the probability distribution. A position estimation unit that estimates the position of the vehicle (10) at the time of acquisition of each of the plurality of images based on an evaluation value calculated from the likelihood that a line segment in space is a line segment in the predetermined direction. 24)
Based on the estimated position of the vehicle (10) at the time of acquisition of each of the plurality of images, a map is created by obtaining the position of the line segment in the real space corresponding to the associated line segment. A map creation unit (25);
A cartography device having
前記対応付け部(23)は、前記複数の第2の画像間で、前記複数の第2の画像のそれぞれから抽出された前記複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付け、
前記複数の第2の画像のそれぞれの取得時の前記車両(10)の候補位置と前記対応付けられた線分とに基づいて算出される、前記複数の第2の画像間で対応付けられた線分に対応する実空間の線分の向きに応じた、当該実空間の線分と、前記複数の第2の画像のそれぞれの取得時の何れかの前記車両(10)の候補位置における前記車両(10)の進行方向とがなす角に基づいて前記確率分布を学習する学習部(26)をさらに有する、請求項1〜4の何れか一項に記載の地図作成装置。 The line segment extraction unit (21) includes a plurality of second images around the vehicle (10) generated at different times by the at least one imaging unit (2-1, 2-2). , Extract multiple line segments,
The associating unit (23) is a line corresponding to a line segment in the same real space among the plurality of line segments extracted from each of the plurality of second images between the plurality of second images. Match minutes,
Corresponding between the plurality of second images calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of second images and the associated line segment The line segment in the real space according to the direction of the line segment in the real space corresponding to the line segment and the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of second images. The map creation device according to any one of claims 1 to 4, further comprising a learning unit (26) that learns the probability distribution based on an angle formed by a traveling direction of the vehicle (10).
前記複数の画像間で、前記複数の画像のそれぞれから抽出された前記複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けるステップと、
前記複数の画像のそれぞれの取得時の前記車両(10)の候補位置と前記対応付けられた線分とに基づいて算出される前記実空間の線分の向きに応じた、当該実空間の線分と、前記複数の画像のそれぞれの取得時の何れかの前記車両(10)の候補位置における前記車両(10)の進行方向とがなす角を、前記車両(10)の進行方向と前記車両(10)の周囲における線分とがなす角における、当該線分が所定の向きの線分である確率を表す確率分布に入力して得られる、当該実空間の線分が前記所定の向きの線分である尤度から算出される評価値に基づいて、前記複数の画像のそれぞれの取得時の前記車両(10)の位置を推定するステップと、
前記複数の画像のそれぞれの取得時の推定された前記車両(10)の位置に基づいて、前記対応付けられた線分に対応する前記実空間の線分の位置を求めることで地図を作成するステップと、
を含む方法。 A plurality of line segments are obtained from each of a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). Extracting, and
Correlating line segments corresponding to line segments in the same real space among the plurality of line segments extracted from each of the plurality of images between the plurality of images;
A line in the real space according to the direction of the line segment in the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images and the associated line segment And the angle formed by the traveling direction of the vehicle (10) at the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images, and the traveling direction of the vehicle (10) and the vehicle The line segment in the real space obtained by inputting into a probability distribution representing the probability that the line segment is a line segment in a predetermined direction at an angle formed by the line segment in the periphery of (10) Estimating a position of the vehicle (10) at the time of acquisition of each of the plurality of images based on an evaluation value calculated from a likelihood that is a line segment;
Based on the estimated position of the vehicle (10) at the time of acquisition of each of the plurality of images, a map is created by obtaining the position of the line segment in the real space corresponding to the associated line segment. Steps,
Including methods.
前記複数の画像間で、前記複数の画像のそれぞれから抽出された前記複数の線分のうち、同じ実空間の線分に対応する線分同士を対応付けるステップと、
前記複数の画像のそれぞれの取得時の前記車両(10)の候補位置と前記対応付けられた線分とに基づいて算出される前記実空間の線分の向きに応じた、当該実空間の線分と、前記複数の画像のそれぞれの取得時の何れかの前記車両(10)の候補位置における前記車両(10)の進行方向とがなす角を、前記車両(10)の進行方向と前記車両(10)の周囲における線分とがなす角における、当該線分が所定の向きの線分である確率を表す確率分布に入力して得られる、当該実空間の線分が前記所定の向きの線分である尤度から算出される評価値に基づいて、前記複数の画像のそれぞれの取得時の前記車両(10)の位置を推定するステップと、
前記複数の画像のそれぞれの取得時の推定された前記車両(10)の位置に基づいて、前記対応付けられた線分に対応する前記実空間の線分の位置を求めることで地図を作成するステップと、
をコンピュータに実行させるための位置合わせ用コンピュータプログラム。 A plurality of line segments are obtained from each of a plurality of images around the vehicle (10) generated at different times by at least one imaging unit (2-1, 2-2) attached to the vehicle (10). Extracting, and
Correlating line segments corresponding to line segments in the same real space among the plurality of line segments extracted from each of the plurality of images between the plurality of images;
A line in the real space according to the direction of the line segment in the real space calculated based on the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images and the associated line segment And the angle formed by the traveling direction of the vehicle (10) at the candidate position of the vehicle (10) at the time of acquisition of each of the plurality of images, and the traveling direction of the vehicle (10) and the vehicle The line segment in the real space obtained by inputting into a probability distribution representing the probability that the line segment is a line segment in a predetermined direction at an angle formed by the line segment in the periphery of (10) Estimating a position of the vehicle (10) at the time of acquisition of each of the plurality of images based on an evaluation value calculated from a likelihood that is a line segment;
Based on the estimated position of the vehicle (10) at the time of acquisition of each of the plurality of images, a map is created by obtaining the position of the line segment in the real space corresponding to the associated line segment. Steps,
A computer program for alignment for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017006917A JP2018116147A (en) | 2017-01-18 | 2017-01-18 | Map creation device, map creation method and map creation computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017006917A JP2018116147A (en) | 2017-01-18 | 2017-01-18 | Map creation device, map creation method and map creation computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018116147A true JP2018116147A (en) | 2018-07-26 |
Family
ID=62985423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017006917A Pending JP2018116147A (en) | 2017-01-18 | 2017-01-18 | Map creation device, map creation method and map creation computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018116147A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020038622A (en) * | 2018-09-04 | 2020-03-12 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Lane line tracking method and device |
JP2020140566A (en) * | 2019-02-28 | 2020-09-03 | 株式会社豊田中央研究所 | Map generation device and program |
-
2017
- 2017-01-18 JP JP2017006917A patent/JP2018116147A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020038622A (en) * | 2018-09-04 | 2020-03-12 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Lane line tracking method and device |
US11100341B2 (en) | 2018-09-04 | 2021-08-24 | Baidu Online Network Technology (Beijing) Co., Ltd. | Lane line tracking method and device |
JP7179695B2 (en) | 2018-09-04 | 2022-11-29 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Lane tracking method and device |
JP2020140566A (en) * | 2019-02-28 | 2020-09-03 | 株式会社豊田中央研究所 | Map generation device and program |
JP7028206B2 (en) | 2019-02-28 | 2022-03-02 | 株式会社豊田中央研究所 | Map generator and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993113B (en) | Pose estimation method based on RGB-D and IMU information fusion | |
US10268201B2 (en) | Vehicle automated parking system and method | |
Rambach et al. | Learning to fuse: A deep learning approach to visual-inertial camera pose estimation | |
JP5588812B2 (en) | Image processing apparatus and imaging apparatus using the same | |
CN109472828B (en) | Positioning method, positioning device, electronic equipment and computer readable storage medium | |
US20150235367A1 (en) | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image | |
JP2018124787A (en) | Information processing device, data managing device, data managing system, method, and program | |
JP2019124537A (en) | Information processor, method for controlling the same, program, and vehicle operation supporting system | |
Berrio et al. | Camera-LIDAR integration: Probabilistic sensor fusion for semantic mapping | |
CN108332752B (en) | Indoor robot positioning method and device | |
CN111210477A (en) | Method and system for positioning moving target | |
US20220319042A1 (en) | Detection, 3d reconstruction and tracking of multiple rigid objects moving in relation to one another | |
CN110942470B (en) | Image processing apparatus and method | |
CN111862201A (en) | Deep learning-based spatial non-cooperative target relative pose estimation method | |
CN111738032B (en) | Vehicle driving information determination method and device and vehicle-mounted terminal | |
WO2019136613A1 (en) | Indoor locating method and device for robot | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
CN112767546B (en) | Binocular image-based visual map generation method for mobile robot | |
JP2017181476A (en) | Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program | |
CN111998862A (en) | Dense binocular SLAM method based on BNN | |
CN108544494A (en) | A kind of positioning device, method and robot based on inertia and visual signature | |
Alliez et al. | Real-time multi-SLAM system for agent localization and 3D mapping in dynamic scenarios | |
KR101803340B1 (en) | Visual odometry system and method | |
CN113971697A (en) | Air-ground cooperative vehicle positioning and orienting method | |
JP2018116147A (en) | Map creation device, map creation method and map creation computer program |