JP2017182564A - Positioning device, positioning method, and positioning computer program - Google Patents

Positioning device, positioning method, and positioning computer program Download PDF

Info

Publication number
JP2017182564A
JP2017182564A JP2016070811A JP2016070811A JP2017182564A JP 2017182564 A JP2017182564 A JP 2017182564A JP 2016070811 A JP2016070811 A JP 2016070811A JP 2016070811 A JP2016070811 A JP 2016070811A JP 2017182564 A JP2017182564 A JP 2017182564A
Authority
JP
Japan
Prior art keywords
image
vehicle
line segment
range
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016070811A
Other languages
Japanese (ja)
Other versions
JP6886136B2 (en
Inventor
孝介 原
Kosuke Hara
孝介 原
敦史 川崎
Atsushi Kawasaki
敦史 川崎
斎藤 英雄
Hideo Saito
英雄 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Denso IT Laboratory Inc
Original Assignee
Keio University
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University, Denso IT Laboratory Inc filed Critical Keio University
Priority to JP2016070811A priority Critical patent/JP6886136B2/en
Publication of JP2017182564A publication Critical patent/JP2017182564A/en
Application granted granted Critical
Publication of JP6886136B2 publication Critical patent/JP6886136B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a positioning device capable of accurately associating a plurality of line segments, each of which corresponds to a specific line included in a target structure in a real space and is in an image created by a camera of a plurality of cameras mounted on a car, with each other.SOLUTION: A positioning device comprises: a line segment extraction unit (21) for extracting a first line segment from a first image created at a first time by a first imaging unit (2-2) mounted on a vehicle (10); a projection unit (22) for identifying a first area in a real space corresponding to a matching area including the first line segment in the first image satisfying predetermined conditions for specifying the relationship of the vehicle (10) with structures around the vehicle (10) and for identifying an area in a second image corresponding to the matching area by projecting the first area on the second image created at a second time by a second imaging unit (2-1) mounted on the vehicle (10); and an associating unit (23) for associating a line segment in an area that is most similar to the matching area on the second image with a second line segment corresponding to the first line segment.SELECTED DRAWING: Figure 2

Description

本発明は、互いに異なる方向に向けられた車載の複数のカメラにより撮影された画像上の線分同士を対応付ける位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラムに関する。   The present invention relates to an alignment apparatus, an alignment method, and an alignment computer program for associating line segments on images taken by a plurality of in-vehicle cameras directed in different directions.

近年、運転支援などの目的で、車両には、1台以上のカメラが取り付けられることがある。このような場合、カメラにより得られた画像を有効に利用するために、異なるカメラにより生成された複数の画像間で、あるいは、異なる位置で同一のカメラにより生成された複数の画像間で、実空間上の同一の点あるいは線に対応する画像上の特徴点または線分同士を対応付けることが提案されている(例えば、特許文献1及び非特許文献1〜3を参照)。   In recent years, one or more cameras may be attached to a vehicle for the purpose of driving assistance or the like. In such a case, in order to effectively use the image obtained by the camera, it can be used between a plurality of images generated by different cameras or between a plurality of images generated by the same camera at different positions. It has been proposed to associate feature points or line segments on an image corresponding to the same point or line in space (see, for example, Patent Document 1 and Non-Patent Documents 1 to 3).

例えば、特許文献1には、路面上にある、マンホールの蓋の中心、白線の端部などの特徴点を、移動体の直進時における移動前後の移動体に取り付けられたカメラにより撮影された画像間で、物体追跡処理を用いて対応付けることが提案されている。   For example, Patent Document 1 discloses an image in which characteristic points such as the center of a manhole cover and the end of a white line on a road surface are photographed by a camera attached to the moving body before and after moving when the moving body goes straight. In the meantime, it has been proposed to associate using object tracking processing.

また、非特許文献1には、車両に搭載された前方を写すカメラと左側または右側を写すカメラ間で、連続する二つのフレームについてSURF特徴を抽出し、照合することが記載されている。さらに、非特許文献2には、一方の画像上の特徴点周囲の領域をワーピングにより変形させて、対応付けを行う他方の画像上での対応点を検出することが提案されている。さらにまた、非特許文献3には、環境地図の作成(Simultaneous Localization and Mapping,SLAM)を実行するために、異なるフレームのそれぞれから検出された線分同士を対応付けることが提案されている。   Non-Patent Document 1 describes that SURF features are extracted and collated for two consecutive frames between a camera mounted on a vehicle that captures the front and a camera that captures the left or right side. Further, Non-Patent Document 2 proposes that a region around a feature point on one image is deformed by warping to detect a corresponding point on the other image to be associated. Furthermore, Non-Patent Document 3 proposes that line segments detected from different frames are associated with each other in order to create an environment map (Simultaneous Localization and Mapping, SLAM).

特開2014−101075号公報JP, 2014-101075, A

Gim Hee Lee他、「Motion Estimation for Self-Driving Cars With a Generalized Camera」、Computer Vision and Pattern Recognition (CVPR)、2013 IEEE Conference on. IEEE、2013年Gim Hee Lee et al., "Motion Estimation for Self-Driving Cars With a Generalized Camera", Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on. IEEE, 2013 Simon Baker他、「Lucas-Kanade 20 Years On: A Unifying Framework: Part 1」、International journal of computer vision 56.3、pp.221-255、2004年Simon Baker et al., `` Lucas-Kanade 20 Years On: A Unifying Framework: Part 1 '', International journal of computer vision 56.3, pp. 221-255, 2004 Keisuke Hirose他、「Fast Line Description for Line-based SLAM」BMVC 2012、2012年Keisuke Hirose et al., "Fast Line Description for Line-based SLAM" BMVC 2012, 2012

特許文献1に開示された技術では、二つの画像間での対応付けが行われるのは、路面上の点に限られている。しかしながら、用途によっては、路面以外の点に相当する特徴点同士を画像間で対応付けることが要求されることもある。   In the technique disclosed in Patent Literature 1, the association between two images is limited to points on the road surface. However, depending on applications, it may be required to associate feature points corresponding to points other than the road surface between images.

また、非特許文献1〜3に開示された技術では、実空間の同じ位置を撮影した二つの画像のそれぞれについて、その位置を見る視点が異なっているために、画像上でもその位置の見え方が異なっている。そのため、特徴点あるいは線分の対応付けに関して、十分な精度が得られないおそれがあった。   Further, in the technologies disclosed in Non-Patent Documents 1 to 3, since the viewpoints for viewing the positions of the two images taken at the same position in the real space are different, how the position is seen on the images as well. Is different. For this reason, there is a possibility that sufficient accuracy cannot be obtained in association with the feature points or the line segments.

そこで、本発明は、車両に搭載された複数のカメラのそれぞれにより生成された画像間で、実空間上の同じ構造物の線に対応する画像上の線分同士の対応付けの精度を向上できる位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラムを提供することを目的とする。   Therefore, the present invention can improve the accuracy of the correspondence between the line segments on the image corresponding to the line of the same structure in the real space between the images generated by each of the plurality of cameras mounted on the vehicle. An object is to provide an alignment apparatus, an alignment method, and an alignment computer program.

請求項1の記載によれば、本発明の一つの形態として、位置合わせ装置が提供される。係る位置合わせ装置は、車両(10)に対して第1の方向を向くように取り付けられた第1の撮像部(2−2)により第1の時刻において生成された第1の画像から、少なくとも一つの第1の線分を抽出する線分抽出部(21)と、第1の画像上の第1の線分を含むマッチング範囲に対応する、実空間上の第1の領域を、車両(10)と車両(10)の周囲の構造物の位置関係を規定する所定の条件に従って特定し、第1の領域を、車両(10)に対して第1の方向と異なる第2の方向を向くように取り付けられた第2の撮像部(2−1)により、第1の時刻と異なる第2の時刻において生成された第2の画像上に投影することで、マッチング範囲に対応する第2の画像上の範囲を特定する投影部(22)と、第2の画像上の所定の探索範囲内で、マッチング範囲に対応する第2の画像上の範囲の相対的な位置を変えながらマッチング範囲と第2の画像間でブロックマッチングを行うことで、マッチング範囲と最も類似する領域を特定し、その最も類似する領域内の線分を第1の線分に対応する第2の線分とする対応付け部(23)とを有する。
本発明に係る位置合わせ装置は、上記の構成を有することにより、車両に搭載された複数のカメラのそれぞれにより生成された画像間で、実空間上の同じ構造物の線に対応する画像上の線分同士の対応付けの精度を向上できる。
According to the first aspect of the present invention, an alignment apparatus is provided as one aspect of the present invention. The alignment device according to the present invention includes at least a first image generated at a first time by a first imaging unit (2-2) attached to the vehicle (10) so as to face the first direction. A line segment extraction unit (21) for extracting one first line segment, and a first area in real space corresponding to a matching range including the first line segment on the first image, 10) and the vehicle (10) are specified in accordance with a predetermined condition that defines the positional relationship between the structures around the vehicle (10), and the first region is directed in a second direction different from the first direction with respect to the vehicle (10). By projecting onto the second image generated at the second time different from the first time by the second imaging unit (2-1) attached in this way, the second corresponding to the matching range A projection unit (22) for specifying a range on the image, and a predetermined search range on the second image Then, by performing block matching between the matching range and the second image while changing the relative position of the range on the second image corresponding to the matching range, an area most similar to the matching range is identified, And an associating unit (23) that sets the line segment in the most similar region as the second line segment corresponding to the first line segment.
The alignment apparatus according to the present invention has the above-described configuration, so that an image corresponding to a line of the same structure in real space is generated between images generated by each of a plurality of cameras mounted on the vehicle. The accuracy of correspondence between line segments can be improved.

また請求項2の記載によれば、所定の条件は、マッチング範囲に対応する第1の領域が車両(10)の直進方向と平行でかつ路面に垂直な面上、または路面上に有るとする条件であることが好ましい。
これにより、位置合わせ装置は、マッチング範囲に対応する第2の画像上の範囲を適切に決定できる。
According to the second aspect of the present invention, the predetermined condition is that the first region corresponding to the matching range is on a plane parallel to the straight traveling direction of the vehicle (10) and perpendicular to the road surface, or on the road surface. The conditions are preferable.
Thereby, the alignment apparatus can appropriately determine the range on the second image corresponding to the matching range.

あるいは、請求項3の記載によれば、所定の条件は、マッチング範囲に対応する第1の領域が、第1の時刻における車両(10)の位置と第2の時刻における車両(10)の位置間にける、車両(10)が走行する道路の何れかの位置での道路と平行でかつ路面に垂直な面上にあるとする条件であることが好ましい。
これにより、位置合わせ装置は、第1の時刻と第2の時刻の間で車両が道路に沿って曲線状に移動していても、マッチング範囲に対応する第2の画像上の範囲を適切に決定できる。
Alternatively, according to the third aspect, the predetermined condition is that the first region corresponding to the matching range is the position of the vehicle (10) at the first time and the position of the vehicle (10) at the second time. It is preferable that the conditions are such that the vehicle (10) is on a plane parallel to and perpendicular to the road at any position of the road on which the vehicle (10) travels.
As a result, the alignment apparatus appropriately sets the range on the second image corresponding to the matching range even if the vehicle moves in a curved line along the road between the first time and the second time. Can be determined.

さらに、請求項4の記載によれば、投影部(22)は、車両(10)に搭載された車両(10)の移動量または速度を検知するセンサから取得したセンサ情報に基づいて求められた、第1の時刻と第2の時刻間の車両(10)の移動量に基づいて、第1の撮像部を基準とする座標系における第1の領域の座標を第2の撮像部を基準とする第1の領域の座標に変換し、変換された第1の領域の座標を第2の画像上へ投影することで、マッチング範囲に対応する第2の画像上の範囲を特定することが好ましい。
これにより、位置合わせ装置は、二つの画像の生成時刻間で車両が移動していても、マッチング範囲に対応する第2の画像上の範囲を適切に特定できる。
According to the fourth aspect of the present invention, the projection unit (22) is obtained based on sensor information acquired from a sensor that detects a movement amount or speed of the vehicle (10) mounted on the vehicle (10). Based on the amount of movement of the vehicle (10) between the first time and the second time, the coordinates of the first region in the coordinate system with the first imaging unit as a reference are used as the reference for the second imaging unit. It is preferable to specify a range on the second image corresponding to the matching range by converting the coordinates of the first region to be converted and projecting the converted coordinates of the first region onto the second image. .
Thereby, even if the vehicle is moving between the production | generation times of two images, the alignment apparatus can specify the range on the 2nd image corresponding to a matching range appropriately.

さらに、請求項5の記載によれば、投影部(22)は、第2の撮像部(2−1)により互いに異なる時刻で生成された複数の画像のうち、その画像について求められたマッチング範囲に対応する範囲がその画像内に含まれる場合、その画像を第2の画像とすることが好ましい。
これにより、位置合わせ装置は、線分同士の対応付けを行う第2の画像を適切に決定できる。
Furthermore, according to the description of claim 5, the projection unit (22) includes the matching range obtained for the image among the plurality of images generated at different times by the second imaging unit (2-1). When the range corresponding to is included in the image, the image is preferably the second image.
Thereby, the alignment apparatus can determine appropriately the 2nd image which matches line segments.

さらに、請求項6の記載によれば、投影部(22)は、第2の撮像部(2−1)により互いに異なる時刻で生成された複数の画像のうち、その画像が生成された時刻と第1の時刻間の車両(10)の移動量が所定範囲となる画像を第2の画像とすることが好ましい。
これにより、位置合わせ装置は、線分同士の対応付けを行う第2の画像を、簡単な演算で適切に決定できる。
Furthermore, according to the description of claim 6, the projection unit (22) includes the time when the image is generated among the plurality of images generated at different times by the second imaging unit (2-1). It is preferable that an image in which the amount of movement of the vehicle (10) during the first time falls within a predetermined range is the second image.
Thereby, the alignment apparatus can determine appropriately the 2nd image which matches line segments with simple calculation.

さらに、請求項7の記載によれば、位置合わせ装置は、第1の画像上で路面が写っている領域を検出する路面検出部をさらに有し、投影部(22)は、第1の線分が路面が写っている領域に含まれる場合、マッチング範囲に対応する第1の領域が路面上に有るとして特定することが好ましい。
これにより、位置合わせ装置は、マッチング範囲に対応する実空間上の領域をより適切に設定できる。
According to a seventh aspect of the present invention, the alignment apparatus further includes a road surface detection unit that detects an area in which the road surface is reflected on the first image, and the projection unit (22) includes the first line. When the minute is included in the area where the road surface is shown, it is preferable to specify that the first area corresponding to the matching range is on the road surface.
Thereby, the alignment apparatus can set the area | region on real space corresponding to a matching range more appropriately.

さらに、請求項8の記載によれば、位置合わせ装置は、第1の線分と第2の線分に対応する線分を地図上に書き込むことで地図を作成する地図作成部(24)をさらに有することが好ましい。
これにより、位置合わせ装置は、SLAMを実現することができる。
Furthermore, according to the description of claim 8, the alignment device includes a map creation unit (24) for creating a map by writing the line segments corresponding to the first line segment and the second line segment on the map. Furthermore, it is preferable to have.
Thereby, the alignment apparatus can implement SLAM.

また請求項9の記載によれば、本発明の他の形態として、位置合わせ方法が提供される。係る位置合わせ方法は、車両(10)に対して第1の方向を向くように取り付けられた第1の撮像部(2−2)により第1の時刻において生成された第1の画像から、少なくとも一つの第1の線分を抽出するステップと、第1の画像上の第1の線分を含むマッチング範囲に対応する、実空間上の第1の領域を、車両(10)と車両(10)の周囲の構造物の位置関係を規定する所定の条件に従って特定し、第1の領域を、車両(10)に対して第1の方向と異なる第2の方向を向くように取り付けられた第2の撮像部(2−1)により、第1の時刻と異なる第2の時刻において生成された第2の画像上に投影することで、マッチング範囲に対応する第2の画像上の範囲を特定するステップと、第2の画像上の所定の探索範囲内で、マッチング範囲に対応する第2の画像上の範囲の相対的な位置を変えながらマッチング範囲と第2の画像間でブロックマッチングを行うことで、マッチング範囲と最も類似する領域を特定し、その最も類似する領域内の線分を第1の線分に対応する第2の線分とするステップと、を含む。
本発明に係る位置合わせ方法は、上記のステップを有することにより、車両に搭載された複数のカメラのそれぞれにより生成された画像間で、実空間上の同じ構造物の線に対応する画像上の線分同士の対応付けの精度を向上できる。
According to a ninth aspect of the present invention, a positioning method is provided as another aspect of the present invention. Such an alignment method includes at least a first image generated at a first time by the first imaging unit (2-2) attached to the vehicle (10) so as to face the first direction. A step of extracting one first line segment, and a first area on the real space corresponding to the matching range including the first line segment on the first image are represented by a vehicle (10) and a vehicle (10 ) Is specified according to a predetermined condition that defines the positional relationship of the surrounding structures, and the first region is attached to the vehicle (10) so as to face a second direction different from the first direction. The range on the second image corresponding to the matching range is specified by projecting onto the second image generated at the second time different from the first time by the second imaging unit (2-1) And matching within a predetermined search range on the second image By performing block matching between the matching range and the second image while changing the relative position of the range on the second image corresponding to the encircling, the region most similar to the matching range is identified, and the most similar And making the line segment in the region a second line segment corresponding to the first line segment.
The alignment method according to the present invention includes the above-described steps, so that an image corresponding to a line of the same structure in real space is generated between images generated by each of a plurality of cameras mounted on the vehicle. The accuracy of correspondence between line segments can be improved.

また請求項10の記載によれば、本発明の他の形態として、位置合わせ用コンピュータプログラムが提供される。係る位置合わせ用コンピュータプログラムは、車両(10)に対して第1の方向を向くように取り付けられた第1の撮像部(2−2)により第1の時刻において生成された第1の画像から、少なくとも一つの第1の線分を抽出するステップと、第1の画像上の第1の線分を含むマッチング範囲に対応する、実空間上の第1の領域を、車両(10)と車両(10)の周囲の構造物の位置関係を規定する所定の条件に従って特定し、第1の領域を、車両(10)に対して第1の方向と異なる第2の方向を向くように取り付けられた第2の撮像部(2−1)により、第1の時刻と異なる第2の時刻において生成された第2の画像上に投影することで、マッチング範囲に対応する第2の画像上の範囲を特定するステップと、第2の画像上の所定の探索範囲内で、マッチング範囲に対応する第2の画像上の範囲の相対的な位置を変えながらマッチング範囲と第2の画像間でブロックマッチングを行うことで、マッチング範囲と最も類似する領域を特定し、その最も類似する領域内の線分を第1の線分に対応する第2の線分とするステップと、をコンピュータに実行させるための命令を含む。
本発明に係る位置合わせ用コンピュータプログラムは、上記の命令を有することにより、車両に搭載された複数のカメラのそれぞれにより生成された画像間で、実空間上の同じ構造物の線に対応する画像上の線分同士の対応付けの精度を向上できる。
According to a tenth aspect of the present invention, an alignment computer program is provided as another embodiment of the present invention. The computer program for alignment is based on the first image generated at the first time by the first imaging unit (2-2) attached so as to face the vehicle (10) in the first direction. A step of extracting at least one first line segment, and a first area in the real space corresponding to the matching range including the first line segment on the first image, the vehicle (10) and the vehicle The first region is attached to the vehicle (10) so as to face a second direction different from the first direction, according to a predetermined condition that defines the positional relationship of the surrounding structures of (10). A range on the second image corresponding to the matching range is projected by the second imaging unit (2-1) onto the second image generated at a second time different from the first time. And a predetermined search on the second image By performing block matching between the matching range and the second image while changing the relative position of the range on the second image corresponding to the matching range, the region most similar to the matching range is identified, And a step of causing the computer to execute the step of setting the line segment in the most similar region as the second line segment corresponding to the first line segment.
The computer program for alignment according to the present invention has the above-described instructions, so that an image corresponding to a line of the same structure in real space between images generated by each of a plurality of cameras mounted on the vehicle. The accuracy of the correspondence between the upper line segments can be improved.

上記各部に付した括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示す一例である。   The reference numerals in parentheses attached to the above-described parts are examples that show the correspondence with specific means described in the embodiments described later.

本発明の一つの実施形態に係る位置合わせ装置の概略構成図である。It is a schematic block diagram of the alignment apparatus which concerns on one Embodiment of this invention. 本発明の一つの実施形態に係る位置合わせ装置の制御部の機能ブロック図である。It is a functional block diagram of the control part of the alignment apparatus which concerns on one Embodiment of this invention. 二つのカメラのそれぞれについてのカメラ座標系と車両座標系の関係を示す図である。It is a figure which shows the relationship between the camera coordinate system about each of two cameras, and a vehicle coordinate system. (a)〜(c)は、それぞれ、ブロックマッチングを行うマッチング範囲であるパッチの一例を示す図である。(A)-(c) is a figure which shows an example of the patch which is a matching range which performs block matching, respectively. Manhattan-World仮説に基づく、実空間上の点と車両の位置関係を示す図である。It is a figure which shows the positional relationship between the point in real space, and a vehicle based on the Manhattan-World hypothesis. 位置合わせ処理の動作フローチャートである。It is an operation | movement flowchart of a position alignment process. (a)は、車両が走行した道路の一例を表す図であり、(b)は、(a)に示された道路に対応する、本実施形態による位置合わせ装置を利用して作成された地図の一例を表す図である。(A) is a figure showing an example of the road on which the vehicle traveled, and (b) is a map created by using the alignment device according to the present embodiment, corresponding to the road shown in (a). It is a figure showing an example. 変形例における、パッチに対応する実空間上の領域の例を示す図である。It is a figure which shows the example of the area | region on the real space corresponding to a patch in a modification.

以下、図を参照しつつ、一つの実施形態による、位置合わせ装置について説明する。
この位置合わせ装置は、車両に搭載され、異なる方向に向けられた二つのカメラのそれぞれにより、互いに異なるタイミングで生成された二つの画像間で、実空間上の同一の構造物の線(構造物の形状による線だけでなく、構造物上に描画された図形または文字などによる線も含む)に対応する画像上の線分同士を対応付ける。その際、この位置合わせ装置は、一方のカメラにより生成された画像から抽出された線分の周囲に設定される、ブロックマッチング用の領域であるパッチに対応する実空間上の領域を、Manhattan-World仮説に基づいて設定し、その実空間上の領域を他方のカメラにより生成された画像上に投影して他方の画像上でのブロックマッチングの対象領域を特定することで、線分同士の対応付けの精度を向上するとともに、演算量の削減を図る。
Hereinafter, an alignment apparatus according to an embodiment will be described with reference to the drawings.
This alignment device is mounted on a vehicle, and the two lines of the same structure in real space (structures) between two images generated at different timings by two cameras directed in different directions. The line segments on the image corresponding to the shape (including not only the line based on the shape of the figure but also the line based on the figure or the character drawn on the structure) are associated with each other. At this time, this alignment apparatus sets the area in the real space corresponding to the patch, which is an area for block matching, set around the line segment extracted from the image generated by one camera. Matching line segments by setting based on the World hypothesis, projecting the area in real space onto the image generated by the other camera, and specifying the target area for block matching on the other image In addition to improving the accuracy, the amount of computation is reduced.

図1は、一つの実施形態による位置合わせ装置の概略構成図である。図1に示すように、位置合わせ装置1は、車両10に搭載され、カメラ2−1及び2−2、慣性計測装置(IMU)3、車輪速センサ4、及び電子制御ユニット(ECU)5と、コントロールエリアネットワーク(以下、CANという)6を介して互いに接続されている。なお、図1では、説明の都合のため、位置合わせ装置1など、車両10に搭載されている各構成要素及び車両10の形状、サイズ及び配置は、実際のものとは異なっている。   FIG. 1 is a schematic configuration diagram of an alignment apparatus according to one embodiment. As shown in FIG. 1, the alignment device 1 is mounted on a vehicle 10 and includes cameras 2-1 and 2-2, an inertial measurement device (IMU) 3, a wheel speed sensor 4, and an electronic control unit (ECU) 5. Are connected to each other via a control area network (hereinafter referred to as CAN) 6. In FIG. 1, for convenience of explanation, each component mounted on the vehicle 10 such as the alignment device 1 and the shape, size, and arrangement of the vehicle 10 are different from the actual ones.

カメラ2−1、2−2は、それぞれ、撮像部の一例である。本実施形態では、カメラ2−1、2−2は、それぞれ、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2−1は、結像光学系の光軸が地面に対して略平行となり、かつ車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2−1は、所定の撮影周期(例えば1/30秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。一方、カメラ2−2は、結像光学系の光軸が地面に対して略平行となり、かつ車両10の後方を向くように、車両10の後端部に取り付けられる。そしてカメラ2−2は、所定の撮影周期ごとに車両10の後方領域を撮影し、その後方領域が写った画像を生成する。カメラ2−1、2−2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。   Each of the cameras 2-1 and 2-2 is an example of an imaging unit. In the present embodiment, each of the cameras 2-1 and 2-2 includes a two-dimensional detector composed of an array of photoelectric conversion elements having sensitivity to visible light, such as CCD or C-MOS, and the two-dimensional detector. An imaging optical system that forms an image of a region to be photographed on is provided. The camera 2-1 is attached to, for example, the vehicle interior of the vehicle 10 so that the optical axis of the imaging optical system is substantially parallel to the ground and faces the front of the vehicle 10. Then, the camera 2-1 captures a front area of the vehicle 10 at a predetermined shooting period (for example, 1/30 second), and generates an image in which the front area is captured. On the other hand, the camera 2-2 is attached to the rear end of the vehicle 10 so that the optical axis of the imaging optical system is substantially parallel to the ground and faces the rear of the vehicle 10. And the camera 2-2 image | photographs the back area | region of the vehicle 10 for every predetermined | prescribed imaging | photography period, and produces | generates the image which the back area | region was reflected. The images obtained by the cameras 2-1 and 2-2 may be color images or gray images.

カメラ2−1、2−2は、それぞれ、画像を生成する度に、その生成した画像を位置合わせ装置1へ出力する。   Each time the cameras 2-1 and 2-2 generate an image, they output the generated image to the alignment apparatus 1.

位置合わせ装置1は、記憶部11と、通信部12と、制御部13とを有する。
記憶部11は、例えば、電気的に書き換え可能な不揮発性メモリ及び揮発性メモリなどの半導体メモリを有する。そして記憶部11は、位置合わせ装置1を制御するための各種プログラム、及び、位置合わせ処理で利用される各種の情報、カメラ2−1またはカメラ2−2により生成された画像、及び制御部13による一時的な演算結果などを記憶する。
The alignment apparatus 1 includes a storage unit 11, a communication unit 12, and a control unit 13.
The storage unit 11 includes, for example, a semiconductor memory such as an electrically rewritable nonvolatile memory and a volatile memory. The storage unit 11 includes various programs for controlling the alignment apparatus 1, various types of information used in the alignment process, images generated by the camera 2-1 or the camera 2-2, and the control unit 13. Stores temporary calculation results by.

通信部12は、カメラ2−1、2−2、IMU3、車輪速センサ4、及びECU5などとCAN6を通じて通信する通信インターフェース及びその制御回路を有する。そして通信部12は、カメラ2−1、2-2から画像を受け取り、その画像を制御部13へ渡す。また通信部12は、位置合わせ処理を実行する周期ごとに、IMU3から、車両10の速度及び移動量などを表すオドメトリ情報を取得したり、あるいは、車輪速センサ4から車輪速を取得して、制御部13へ渡す。   The communication unit 12 includes a communication interface that communicates with the cameras 2-1, 2-2, the IMU 3, the wheel speed sensor 4, the ECU 5, and the like through the CAN 6 and its control circuit. The communication unit 12 receives images from the cameras 2-1 and 2-2 and passes the images to the control unit 13. In addition, the communication unit 12 acquires odometry information representing the speed and movement amount of the vehicle 10 from the IMU 3 or acquires the wheel speed from the wheel speed sensor 4 for each period of executing the alignment process. It passes to the control unit 13.

制御部13は、1個もしくは複数個の図示してないプロセッサ及びその周辺回路を有する。そして制御部13は、位置合わせ装置1全体を制御する。
図2に、制御部13の機能ブロック図を示す。図2に示すように、制御部13は、線分抽出部21と、投影部22と、対応付け部23と、地図作成部24とを有する。制御部13が有するこれらの各部は、例えば、制御部13が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。
The control unit 13 includes one or a plurality of processors (not shown) and their peripheral circuits. And the control part 13 controls the alignment apparatus 1 whole.
FIG. 2 shows a functional block diagram of the control unit 13. As illustrated in FIG. 2, the control unit 13 includes a line segment extraction unit 21, a projection unit 22, an association unit 23, and a map creation unit 24. Each of these units included in the control unit 13 is implemented as, for example, a functional module realized by a computer program executed on a processor included in the control unit 13.

本実施形態では、制御部13は、ある時刻n(ここでは、フレーム間隔を単位とする時刻を表す。秒、分などを単位とする時刻については、実時刻と呼ぶ)において車両10の後方を撮影するカメラ2−2により生成された画像上の線分を、その時刻よりもkフレーム前の時刻(n-k)において車両10の前方を撮影するカメラ2−1により生成された画像上の線分と対応付ける。これは、車両10が前進している場合、車両10の後方を撮影するカメラ2−2により時刻nで撮影された範囲は、それより前の時刻(n-k)にて車両10の前方を撮影するカメラ2−1により撮影された範囲と重なる部分があると想定されるためである。
なお、以下では、説明の便宜上、カメラ2-1により生成された画像を前方画像と呼び、カメラ2−2により生成された画像を後方画像と呼ぶ。
In the present embodiment, the control unit 13 displays the rear of the vehicle 10 at a certain time n (here, the time is expressed in units of frame intervals, and the time in units of seconds, minutes, etc. is referred to as real time). The line segment on the image generated by the camera 2-2 that captures the front side of the vehicle 10 at the time (nk) k frames before the time. Correlate with. This is because, when the vehicle 10 is moving forward, the range photographed at the time n by the camera 2-2 for photographing the rear of the vehicle 10 is to photograph the front of the vehicle 10 at a time (nk) before that. This is because it is assumed that there is a portion that overlaps the range photographed by the camera 2-1.
Hereinafter, for convenience of explanation, an image generated by the camera 2-1 is referred to as a front image, and an image generated by the camera 2-2 is referred to as a rear image.

線分抽出部21は、カメラ2−2から制御部13が後方画像を受け取る度に、その後方画像から、カメラ2−2の撮影領域内にある、路面、道路標識、看板、あるいは建築物といった構造物の線に対応する線分を抽出する。そのために、線分抽出部21は、例えば、線分検出器を用いて後方画像上の線分を検出する。線分抽出部21は、線分検出器として、例えば、R.G. von Gioi他、"A fast line segment detector with a false detection control"、 IEEE Transactions on Pattern Analysis & Machine Intelligence、 (4)、2008年、pp.722-732に開示されたアルゴリズムを利用できる。あるいは、線分抽出部21は、画像から線分を検出できる他の線分検出器を利用してもよい。
線分抽出部21は、後方画像ごとに、その後方画像の取得時刻とその後方画像から抽出した線分を表す後方画像上のその線分の中点の座標と向き及び長さを表すベクトルを投影部22へ渡す。
Each time the control unit 13 receives a rear image from the camera 2-2, the line segment extraction unit 21 uses a road surface, a road sign, a signboard, or a building in the shooting area of the camera 2-2 from the rear image. A line segment corresponding to the line of the structure is extracted. For this purpose, the line segment extraction unit 21 detects a line segment on the rear image using, for example, a line segment detector. The line segment extraction unit 21 is, for example, RG von Gioi et al., “A fast line segment detector with a false detection control”, IEEE Transactions on Pattern Analysis & Machine Intelligence, (4), 2008, pp. The algorithm disclosed in .722-732 can be used. Alternatively, the line segment extraction unit 21 may use another line segment detector that can detect a line segment from an image.
The line segment extraction unit 21 calculates, for each rear image, a vector representing the acquisition time of the rear image and the coordinates, direction, and length of the midpoint of the line segment on the rear image representing the line segment extracted from the rear image. It passes to the projection unit 22.

同様に、線分抽出部21は、カメラ2−1から制御部13が前方画像を受け取る度に、その前方画像から線分を抽出する。そして線分抽出部21は、抽出した線分の中点の座標と向き及び長さを表すベクトルを、前方画像の取得時刻とともに記憶部11に記憶する。   Similarly, every time the control unit 13 receives a front image from the camera 2-1, the line segment extraction unit 21 extracts a line segment from the front image. Then, the line segment extraction unit 21 stores a vector representing the coordinates, direction, and length of the midpoint of the extracted line segment in the storage unit 11 together with the acquisition time of the front image.

投影部22は、後方画像上の線分ごとに、その線分を中心とするブロックマッチング用のパッチを設定し、実空間上でそのパッチに相当する領域を特定する。そして投影部22は、実空間上でのパッチの対応領域を、後方画像よりもkフレーム前に取得された前方画像上に投影する。
この投影処理には、画像上の座標と、実空間上での座標間の変換が必要となる。そこで先ず、その変換に利用される座標系について説明する。
For each line segment on the rear image, the projection unit 22 sets a block matching patch centered on the line segment, and specifies an area corresponding to the patch in real space. Then, the projection unit 22 projects the corresponding area of the patch in the real space on the front image acquired k frames before the rear image.
This projection processing requires conversion between coordinates on the image and coordinates in the real space. First, a coordinate system used for the conversion will be described.

図3は、二つのカメラのそれぞれについてのカメラ座標系と車両座標系の関係を示す図である。カメラ2-1を基準とする実空間の座標系であるカメラ座標系(以下、便宜上、前方カメラ座標系と呼ぶ)C1は、カメラ2−1の像側焦点を原点とし、車両10の直進方向をz軸、路面と平行かつz軸と直交する方向をx軸、路面に垂直な方向をy軸とする座標系である。そしてz軸について、車両10の前方へ向かう方向を正とし、x軸の正方向は右手座標系により規定される。また、カメラ2-2を基準とする実空間の座標系であるカメラ座標系(以下、便宜上、後方カメラ座標系と呼ぶ)C2は、カメラ2−2の像側焦点を原点とし、車両10の直進方向をz軸、路面と平行かつz軸と直交する方向をx軸、路面に垂直な方向をy軸とする座標系である。そしてz軸について、車両10の後方へ向かう方向を正とし、x軸の正方向は右手座標系により規定される。   FIG. 3 is a diagram illustrating the relationship between the camera coordinate system and the vehicle coordinate system for each of the two cameras. A camera coordinate system (hereinafter referred to as a forward camera coordinate system for convenience) C1, which is a coordinate system in the real space with the camera 2-1 as a reference, uses the image-side focal point of the camera 2-1 as an origin and a straight traveling direction of the vehicle 10 Is a coordinate system with the z axis, the direction parallel to the road surface and perpendicular to the z axis as the x axis, and the direction perpendicular to the road surface as the y axis. With respect to the z axis, the forward direction of the vehicle 10 is positive, and the positive direction of the x axis is defined by the right-handed coordinate system. Further, a camera coordinate system (hereinafter referred to as a rear camera coordinate system for convenience) C2 which is a coordinate system in the real space with the camera 2-2 as a reference has an image side focal point of the camera 2-2 as an origin, and the vehicle 10 This is a coordinate system in which the straight direction is the z axis, the direction parallel to the road surface and perpendicular to the z axis is the x axis, and the direction perpendicular to the road surface is the y axis. For the z axis, the direction toward the rear of the vehicle 10 is positive, and the positive direction of the x axis is defined by the right-handed coordinate system.

また、車両10を基準とする実空間の座標系である車両座標系Vは、車両10の任意の点、例えば、前側の車輪間の中点、後ろ側の車輪間の中点、あるいは前側の車輪間の中点と後ろ側の車輪間の中点との中点を原点とし、車両10の直進方向をz軸、路面と平行かつz軸と直交する方向をx軸、路面に垂直な方向をy軸とする座標系である。そしてz軸について、車両10の前方へ向かう方向を正とし、x軸の正方向は右手座標系により規定される。また、これらの座標系において、xz平面における、z軸とのなす角はθで表される。   The vehicle coordinate system V, which is a coordinate system in the real space with respect to the vehicle 10, is an arbitrary point of the vehicle 10, for example, a midpoint between front wheels, a midpoint between rear wheels, or a front side The midpoint between the midpoint between the wheels and the midpoint between the rear wheels is the origin, and the straight direction of the vehicle 10 is the z axis, the direction parallel to the road surface and perpendicular to the z axis is the x axis, and the direction perpendicular to the road surface Is the coordinate system with y-axis. With respect to the z axis, the forward direction of the vehicle 10 is positive, and the positive direction of the x axis is defined by the right-handed coordinate system. In these coordinate systems, the angle formed with the z axis in the xz plane is represented by θ.

図4(a)〜図4(c)は、それぞれ、ブロックマッチングを行うマッチング範囲であるパッチの一例を示す図である。図4(a)に示される例では、パッチ401は、着目する線分410と平行な方向に沿って線分410と同じ長さを持ち、かつ、線分410と直交する方向に所定の幅(例えば、10〜20ピクセル)を持つ矩形領域として設定される。また、図4(b)に示される例では、パッチ402は、着目する線分410と直交する方向に所定の幅(例えば、10〜20ピクセル)を持ち、かつ、線分410と平行な方向に沿って、線分410よりも所定長(例えば、10〜20ピクセル)だけ長い矩形領域として設定される。さらに、図4(c)に示される例では、パッチ403は、着目する線分410までの距離が所定値(例えば、10〜20ピクセル)以下となる領域として設定される。   FIG. 4A to FIG. 4C are diagrams illustrating examples of patches that are matching ranges in which block matching is performed. In the example shown in FIG. 4A, the patch 401 has the same length as the line segment 410 along the direction parallel to the line segment 410 of interest, and a predetermined width in the direction orthogonal to the line segment 410. It is set as a rectangular area having (for example, 10 to 20 pixels). In the example shown in FIG. 4B, the patch 402 has a predetermined width (for example, 10 to 20 pixels) in a direction orthogonal to the focused line segment 410 and is parallel to the line segment 410. A rectangular region longer than the line segment 410 by a predetermined length (for example, 10 to 20 pixels) is set. Furthermore, in the example shown in FIG. 4C, the patch 403 is set as a region where the distance to the focused line segment 410 is a predetermined value (for example, 10 to 20 pixels) or less.

本実施形態では、ブロックマッチングを行うマッチング範囲であるパッチはupは、例えば、次式のように定義される。

Figure 2017182564
ここで、(um,2,vm,2)は、後方画像上での着目する線分の中点の座標を表し、α、βは、それぞれ、後方画像上でのパッチup内の画素の線分の中点からの水平方向及び垂直方向の距離を表す。なお、αの取り得る値の範囲[α0, α1]、及び、βの取り得る値の範囲[β0, β1]は、それぞれ、垂直方向の位置及び水平方向の位置についての関数として表される。そしてその関数は、線分の向き、及び、図4(a)〜図4(c)に示される、パッチの形状に応じて決定される。 In this embodiment, the patch is u p a matching range for performing block matching, for example, is defined as follows:.
Figure 2017182564
Here, (u m, 2, v m, 2) represents the coordinates of the midpoint of the target line segment on the rearward image, alpha, beta, respectively, in the patch u p on the rear image It represents the distance in the horizontal and vertical directions from the midpoint of the line segment of the pixel. Note that the range of values [α 0 , α 1 ] that can be taken by α and the range [β 0 , β 1 ] that can be taken of β are respectively expressed as functions of the vertical position and the horizontal position. expressed. The function is determined according to the direction of the line segment and the shape of the patch shown in FIGS. 4 (a) to 4 (c).

また、投影部22は、後方画像上の線分に基づいて設定されるパッチupから、車両10と車両10の周囲の構造物の位置関係を規定する所定の条件に従って実空間上での対応領域を特定する。そして投影部22は、その対応領域について、後方カメラ座標系→時刻nにおける車両座標系→実空間の絶対座標である世界座標系→時刻(n-k)における車両座標系→前方カメラ座標系→前方画像上の順に投影する。
そこで先ず、パッチupに対応する実空間上での領域についてのカメラ座標系での座標の導出について説明する。
The projection 22 from the patch u p to be set on the basis of the line segment on the rearward image, corresponding in the real space in accordance with a predetermined condition which defines the positional relationship of the structure in the vicinity of the vehicle 10 and the vehicle 10 Identify the area. Then, the projection unit 22 for the corresponding region, the rear camera coordinate system → the vehicle coordinate system at time n → the world coordinate system that is the absolute coordinate in real space → the vehicle coordinate system at time (nk) → the front camera coordinate system → the front image Project in the order above.
Thus is described first coordinates are derived in the camera coordinate system for the area in the real space corresponding to the patch u p.

後方画像あるいは前方画像上の座標(2次元座標)をカメラ座標系の座標(3次元座標)に変換する際、本実施形態では、ピンホールカメラモデルが適用される。この場合、後方画像上でのパッチup内の各画素の座標は、次式に従って正規化座標系上の座標Unに変換される。

Figure 2017182564
ここで、(cu,cv)は後方画像の中心の座標、すなわち、カメラ2−2の光軸上の位置に相当する後方画像上の位置の座標を表す。またfu、fvは、それぞれ、後方画像上の画素の水平方向及び垂直方向のサイズを考慮した、水平方向及び垂直方向に相当するカメラ2−2の焦点距離を表す。そして(un、vn)は、線分の中点(um,2,vm,2)に対応する正規化座標であり、Un=(unn,vnn)は、正規化座標系でのパッチup内の各画素の座標である。そして(x,y,z)は、Unに対応するカメラ座標系上の点の座標である。 In converting the coordinates on the rear image or the front image (two-dimensional coordinates) to the coordinates (three-dimensional coordinates) of the camera coordinate system, a pinhole camera model is applied in the present embodiment. In this case, the coordinates of each pixel in the patch u p on the rearward image, is converted into the coordinate U n on the normalized coordinate system in accordance with the following equation.
Figure 2017182564
Here, (c u , c v ) represents the coordinates of the center of the rear image, that is, the coordinates of the position on the rear image corresponding to the position on the optical axis of the camera 2-2. Further, f u and f v represent the focal lengths of the camera 2-2 corresponding to the horizontal direction and the vertical direction, respectively, in consideration of the size of the pixel on the rear image in the horizontal direction and the vertical direction. And (u n , v n ) is a normalized coordinate corresponding to the midpoint of the line segment (u m, 2 , v m, 2 ), and U n = (u n + α n , v n + β n ) are the coordinates of each pixel in the patch u p in a normalized coordinate system. (X, y, z) are the coordinates of a point on the camera coordinate system corresponding to U n .

本実施形態では、車両10と車両10の周囲の構造物の位置関係を規定する所定の条件として、Manhattan-World仮説を導入する。そしてManhattan-World仮説に基づいて、各線分についてのパッチに対応する実空間上の領域を特定する。Manhattan-World仮説では、画像上の線分に対応する実空間上の構造物の線は、以下の3種類の何れかである。
(1)車両10の直進方向と平行な建物の側壁上の線
(2)車両10の直進方向と直交する建物の側壁上の線
(3)路面上の線
また、画像上の線分に対応する実空間上の構造物の線の周囲は平面になっていると仮定される。
In the present embodiment, the Manhattan-World hypothesis is introduced as a predetermined condition that defines the positional relationship between the vehicle 10 and the structures around the vehicle 10. Based on the Manhattan-World hypothesis, the real space region corresponding to the patch for each line segment is specified. In the Manhattan-World hypothesis, the line of the structure in the real space corresponding to the line segment on the image is one of the following three types.
(1) A line on the side wall of the building parallel to the straight direction of the vehicle 10 (2) A line on the side wall of the building orthogonal to the straight direction of the vehicle 10 (3) A line on the road surface or a line segment on the image It is assumed that the line around the structure in real space is a plane.

図5は、本実施形態による、Manhattan-World仮説に基づく、実空間上の構造物の線と車両の位置関係を示す図である。本実施形態では、カメラ2−1は車両10の前方を向いており、一方、カメラ2−2は、車両10の後方を向いているので、上記の(2)に相当する線については、両方のカメラから見えることはなく、一方の画像上の線分が他方の画像上の線分と対応付けられることはない。したがって、(1)に相当する、車両10の直進方向と平行な側壁上の線501に対応する線分、あるいは、(3)に相当する、路面上の線502に対応する線分が、前方画像と後方画像の間で対応付けられる。   FIG. 5 is a diagram showing the positional relationship between the line of the structure in the real space and the vehicle based on the Manhattan-World hypothesis according to the present embodiment. In the present embodiment, since the camera 2-1 faces the front of the vehicle 10, while the camera 2-2 faces the rear of the vehicle 10, both of the lines corresponding to the above (2) are used. The line segment on one image is not associated with the line segment on the other image. Therefore, a line segment corresponding to line 501 on the side wall parallel to the straight traveling direction of the vehicle 10 corresponding to (1) or a line segment corresponding to line 502 on the road surface corresponding to (3) is Corresponding between the image and the back image.

線501にように、画像上の線分に対応する実空間上の構造物の線が車両10の直進方向と平行な建物500の側壁にある場合、その線分のパッチに対応する実空間上の領域に含まれる各点について、カメラ座標系ではx=dとなる。なお、dは、車両10とその線分に対応する実空間上での線までの距離である。したがって、上記の(1)の条件が仮定される場合、パッチupに対応する実空間上の領域内の各点についてのカメラ座標系での座標Ppは次式で表される。

Figure 2017182564
When the line of the structure in the real space corresponding to the line segment on the image is on the side wall of the building 500 parallel to the straight traveling direction of the vehicle 10, as in the line 501, on the real space corresponding to the patch of the line segment For each point included in the region, x = d in the camera coordinate system. In addition, d is the distance to the line in the real space corresponding to the vehicle 10 and its line segment. Therefore, if the above condition (1) is assumed, the coordinates P p in the camera coordinate system for each point in the area in the real space corresponding to the patch u p is expressed by the following equation.
Figure 2017182564

一方、点502にように、画像上の線分に対応する実空間上の構造物の線が路面上にある場合、その線分のパッチに対応する実空間上の領域に含まれる各点について、カメラ座標系ではy=hとなる。なお、hは路面からカメラ2−2までの高さであり、予め記憶部11に記憶される。したがって、上記の(3)の条件が仮定される場合、パッチupに対応する実空間上の領域内の各点についてのカメラ座標系での座標Ppは次式で表される。

Figure 2017182564
On the other hand, when the line of the structure in the real space corresponding to the line segment on the image is on the road surface, as in the point 502, for each point included in the area on the real space corresponding to the patch of the line segment In the camera coordinate system, y = h. Note that h is the height from the road surface to the camera 2-2 and is stored in the storage unit 11 in advance. Therefore, if the above condition (3) is assumed, the coordinates P p in the camera coordinate system for each point in the area in the real space corresponding to the patch u p is expressed by the following equation.
Figure 2017182564

投影部22は、(2)式と(3)式、または(2)式と(4)式にしたがって、後方画像上の各線分についてのパッチupに対応する実空間上の領域内の各点のカメラ座標系上の座標Ppを求める。なお、dについては、任意の所定区間、例えば、[1,20](m)の区間で、1m単位で変化させる。すなわち、各線分について、dの値ごとに(2)式と(3)式に基づいて求められる20個の領域の座標Ppと、(2)式と(4)式に基づいて求められる1個の領域の座標Ppが求められる。 Projection 22 (2) and (3), or (2) and (4) according to wherein each of the regions in the real space corresponding to the patch u p of each line segment on the rearward image A coordinate P p on the camera coordinate system of the point is obtained. Note that d is changed in units of 1 m in an arbitrary predetermined section, for example, a section of [1,20] (m). That is, for each line segment, for each value of d, 20 areas of coordinates P p obtained based on the expressions (2) and (3) and 1 obtained based on the expressions (2) and (4) The coordinates P p of the individual areas are obtained.

なお、投影部22は、バンドル調整によりdの区間を上記の所定区間よりも狭く設定してもよい。この場合には、投影部22は、例えば、画像上の線分に対応する、実空間上の構造物の線を、カメラ2−2により異なる時間での撮影により得られた二つの後方画像間で線分の対応付けを行うことで特定する。そして投影部22は、その二つの後方画像の生成時に対応する二つの車両の位置を利用した三角測量によって車両10からその線分上の点(例えば、中点)に対応する実空間上の点までの距離を測定し、その測定された距離を含むようにdの区間を設定すればよい。   Note that the projection unit 22 may set the section d to be narrower than the predetermined section by bundle adjustment. In this case, the projection unit 22, for example, between the two rear images obtained by photographing the line of the structure in the real space corresponding to the line segment on the image at different times with the camera 2-2. Specify by associating line segments with. Then, the projection unit 22 performs a point in the real space corresponding to a point (for example, a midpoint) on the line segment from the vehicle 10 by triangulation using the positions of the two vehicles corresponding to the generation of the two rear images. And the interval d may be set so as to include the measured distance.

投影部22は、後方画像上の各線分のパッチについて、そのパッチに対応する実空間上の領域のそれぞれを前方画像上に投影するwarping関数は、次式で表される。

Figure 2017182564
ここで、un'は、座標Ppに対応する、前方画像上の領域の座標である。また関数πvc1()は、車両座標系からカメラ2-1のカメラ座標系への変換関数であり、関数πvc2()は、車両座標系からカメラ2-2のカメラ座標系への変換関数である。なお、これらの逆関数は、それぞれ、対応するカメラ座標系から車両座標系への変換関数となる。なお、車両座標系とカメラ座標系間の変換は、それぞれの座標系の原点の差に相当する並進行列Tvc1,Tvc2と、車両10の直進方向とカメラの光軸間の傾きに相当する回転行列Rvc1,Rvc2により表される。 For the patch of each line segment on the rear image, the projection unit 22 projects a warping function for projecting each of the areas on the real space corresponding to the patch onto the front image.
Figure 2017182564
Here, u n ′ is a coordinate of a region on the front image corresponding to the coordinate P p . The function π vc1 () is a conversion function from the vehicle coordinate system to the camera coordinate system of the camera 2-1, and the function π vc2 () is a conversion function from the vehicle coordinate system to the camera coordinate system of the camera 2-2. It is. Each of these inverse functions is a conversion function from the corresponding camera coordinate system to the vehicle coordinate system. The conversion between the vehicle coordinate system and the camera coordinate system corresponds to the parallel progression trains T vc1 , T vc2 corresponding to the difference between the origins of the respective coordinate systems, and the inclination between the straight traveling direction of the vehicle 10 and the optical axis of the camera. Represented by rotation matrices R vc1 and R vc2 .

また、関数πci()は、カメラ座標系から画像上の座標への変換関数であり、(2)式のカメラ座標(x,y,z)から画像上の座標(un,vn)への変換に相当する。 The function π ci () is a conversion function from the camera coordinate system to the coordinates on the image, and the coordinates (u n , v n ) on the image from the camera coordinates (x, y, z) in equation (2). Equivalent to conversion to

また、関数πn wv()は、時刻nにおける世界座標系から車両座標系への変換関数である。一方、その逆関数πn wv -1()は、時刻nにおける車両座標系から世界座標系への変換関数である。 The function π n wv () is a conversion function from the world coordinate system to the vehicle coordinate system at time n. On the other hand, the inverse function π n wv −1 () is a conversion function from the vehicle coordinate system to the world coordinate system at time n.

以下に、関数πn wv()の詳細について説明する。Xn=t(xn,znn)を、世界座標系での時刻nにおける車両10の位置及び向きを表す位置ベクトルとする。この場合、Xnは、時刻(n-k)における車両10の位置Xn-k=t(xn-k,zn-kn-k)との間に、次式で表される関係が成立する。

Figure 2017182564
ここで、unは、オドメトリ情報であり、vn,right、vn,leftは、それぞれ、時刻nにおける車両10の右側後輪の車輪速、及び左側後輪の車輪速を表す。そしてωn、vnは、それぞれ、時刻nにおける車両10の角速度及び速度を表す。またdaは、車両10の左右の後輪間の間隔である。さらに、Δtは、時刻(n-k)と時刻n間の実時刻の差であり、Δt=k×fで表される。なお、fは、カメラ2−1、2−2のフレーム周期(撮影間隔)である。またεxは、移動量の誤差を確率分布で表す誤差モデルである。本実施形態では、誤差モデルεxは、ガウス分布で表されるものとし、その共分散Σxは、x軸方向、z軸方向及びθに関して、以下のように定義される。
Figure 2017182564
ここで、σx、σz及びσθは、例えば、オドメトリ情報あるいは車輪速の誤差に基づいて設定され、例えば、σxz=0.1[m]であり、σθ=2π/360[rad]である。 Details of the function π n wv () will be described below. Let X n = t (x n , z n , θ n ) be a position vector representing the position and orientation of the vehicle 10 at time n in the world coordinate system. In this case, X n is the time (nk) of the vehicle 10 at the position X nk = t (x nk, z nk, θ nk) between the relationship is established as represented by the following formula.
Figure 2017182564
Here, u n is odometry information, and v n, right and v n, left represent the wheel speed of the right rear wheel and the left rear wheel of the vehicle 10 at time n, respectively. Ω n and v n represent the angular velocity and speed of the vehicle 10 at time n, respectively. D a is the distance between the left and right rear wheels of the vehicle 10. Furthermore, Δt is the difference in real time between time (nk) and time n, and is represented by Δt = k × f. Note that f is the frame period (photographing interval) of the cameras 2-1 and 2-2. Further, ε x is an error model that expresses an error in the movement amount by a probability distribution. In the present embodiment, the error model ε x is represented by a Gaussian distribution, and the covariance Σ x is defined as follows with respect to the x-axis direction, the z-axis direction, and θ.
Figure 2017182564
Here, σ x , σ z, and σ θ are set based on, for example, odometry information or wheel speed error. For example, σ x = σ z = 0.1 [m], and σ θ = 2π / 360 [ rad].

時刻nにおける、世界座標系から車両座標系への変換を表す回転行列Rt及び並進行列Ttは、時刻nにおける車両10の位置ベクトルXnを用いて次式で表される。

Figure 2017182564
したがって、関数πn wv()は、次式で表される。
Figure 2017182564
ここで、Pwは、世界座標系での着目点の座標を表し、Pvは、Pwに対応する点の車両座標系での座標を表す。なお、(5)式における、πn-k wv()では、xn=xn-k、zn=zn-k、θnn-kとすればよい。 The rotation matrix R t and the parallel progression T t representing the transformation from the world coordinate system to the vehicle coordinate system at time n are expressed by the following equations using the position vector X n of the vehicle 10 at time n.
Figure 2017182564
Therefore, the function π n wv () is expressed by the following equation.
Figure 2017182564
Here, P w represents the coordinates of the point of interest in the world coordinate system, and P v represents the coordinates of the point corresponding to P w in the vehicle coordinate system. In π nk wv () in equation (5), x n = x nk , z n = z nk , θ n = θ nk may be set.

また、後方画像上の線分を基準として、前方画像上の対応する線分をより正確に特定するためには、後方画像上での線分の向きに対応する、前方画像上での線分の向きが求められることが好ましい。また、実空間での線分は、その線分上の点(例えば、中点)の3次元の座標p(px,py,pz)とその線分の向きを表す3次元ベクトルr(rx,ry,rz)とで表される。したがって、世界座標系での線分の向きを表す3次元ベクトルrを、カメラ2−1を基準とするカメラ座標系のベクトルA1へ変換する変換式、及び、カメラ2−2を基準とするカメラ座標系のベクトルA2へ変換する変換式は、次式で表される。

Figure 2017182564
ここでRi vwは、時刻iにおける、変換式πi wvに含まれる回転行列Rの逆行列であり、(8)式及び(9)式に従って算出される。 Further, in order to more accurately identify the corresponding line segment on the front image with reference to the line segment on the rear image, the line segment on the front image corresponding to the direction of the line segment on the rear image. It is preferable that the orientation of is required. In addition, a line segment in the real space includes a three-dimensional vector r (rx, px) representing the three-dimensional coordinates p (px, py, pz) of the point on the line segment (for example, the midpoint) and the direction of the line segment. ry, rz). Therefore, the conversion formula for converting the three-dimensional vector r representing the direction of the line segment in the world coordinate system into the vector A 1 of the camera coordinate system based on the camera 2-1, and the camera 2-2 as a reference. A conversion formula for converting to the vector A 2 in the camera coordinate system is expressed by the following formula.
Figure 2017182564
Here, R i vw is an inverse matrix of the rotation matrix R included in the conversion equation π i wv at time i, and is calculated according to the equations (8) and (9).

また、カメラ座標系のベクトルA1を前方画像へ投影して前方画像上の対応ベクトルa1を算出する式、及び、カメラ座標系のベクトルA2を後方画像へ投影して後方画像上の対応ベクトルa2を算出する式は、次式で表される。

Figure 2017182564
ここで、q1(x1,y1,z1)は、カメラ2−1を基準とするカメラ座標系での線分上の点pの座標を表し、q2(x2,y2,z2)は、カメラ2−2を基準とするカメラ座標系での線分上の点pの座標を表し、それぞれ、(5)〜(9)式に従って算出される。したがって、投影部22は、後方画像上の各線分について、その線分の向きを表すベクトルを、カメラ2−2に関する(10)式及び(11)式の逆変換に従って世界座標系でのベクトルに変換し、その後、カメラ2−1に関する(10)式及び(11)式に従って、世界座標系でのベクトルから、前方画像上での対応ベクトルを求めることができる。 In addition, an expression for projecting the camera coordinate system vector A 1 to the front image and calculating the corresponding vector a 1 on the front image, and a camera coordinate system vector A 2 to the rear image and corresponding on the rear image An expression for calculating the vector a 2 is expressed by the following expression.
Figure 2017182564
Here, q 1 (x 1 , y 1 , z 1 ) represents the coordinates of the point p on the line segment in the camera coordinate system with respect to the camera 2-1, and q 2 (x 2 , y 2 , z 2 ) represents the coordinates of the point p on the line segment in the camera coordinate system with respect to the camera 2-2, and is calculated according to equations (5) to (9), respectively. Therefore, the projection unit 22 converts the vector representing the direction of each line segment on the rear image into a vector in the world coordinate system according to the inverse transformation of the expressions (10) and (11) regarding the camera 2-2. Then, the corresponding vector on the front image can be obtained from the vector in the world coordinate system according to the equations (10) and (11) regarding the camera 2-1.

上記のように、パッチupに対応する、実空間上の領域を前方画像上へ投影することで、パッチup内の各画素に対応する前方画像上の位置、すなわち、パッチupを前方画像上に投影した領域が求められる。
投影部22は、後方画像上の各線分についてのパッチup内の各画素に対応する、kフレーム前の前方画像上での画素の座標及び線分の向きを表すベクトルを対応付け部23へ出力する。
As described above, corresponding to the patch u p, a region in the real space by projecting into the forward image, the position of the forward image corresponding to each pixel in the patch u p, i.e., front patch u p An area projected on the image is obtained.
Projection unit 22, corresponding to each pixel in the patch u p of each line segment on the rearward image, k frames before the pixel in the forward image coordinates and the line segment orientation to the associated portion 23 of the vector representing the Output.

対応付け部23は、後方画像上の各線分についてのパッチupに対応する、kフレーム前の前方画像上での領域と、前方画像との間でブロックマッチングを行って互いに類似する領域を特定することで、後方画像上の各線分に前方画像上の線分を対応付ける。 Associating unit 23, the particular corresponding to the patch u p of each line segment on the rearward image, and the region on the k frames before the front image, the area to be similar to each other by performing block matching between the front image By doing so, the line segment on the front image is associated with each line segment on the rear image.

本実施形態では、対応付け部23は、後方画像上の各線分について、対応する前方画像上の線分の探索を行う探索範囲を誤差モデルに基づく誤差楕円として設定する。その際、誤差楕円は、次式により算出される共分散行列ΣFにより定められる。

Figure 2017182564
なお、wは、(5)式の右辺を表す。 In the present embodiment, the associating unit 23 sets, for each line segment on the rear image, a search range for searching for a line segment on the corresponding front image as an error ellipse based on the error model. At that time, the error ellipse is determined by a covariance matrix Σ F calculated by the following equation.
Figure 2017182564
Note that w represents the right side of equation (5).

対応付け部23は、共分散行列ΣFの固有値λ1、λ2と、固有ベクトルv1、v2を算出する。ただし、大きい方の固有値をλ1とする。このとき、誤差楕円の長径a及び短径bは、次式で表される。

Figure 2017182564
ここで、χ2は、χ二乗分布であり、誤差楕円の信用区間を表す。また、前方画像上の水平方向に対して誤差楕円の長径がなす角θεは、次式で表される。
Figure 2017182564
Associating unit 23 calculates eigenvalues lambda 1 of the covariance matrix sigma F, and lambda 2, the eigenvector v 1, v 2. However, the larger eigenvalue is λ 1 . At this time, the major axis a and minor axis b of the error ellipse are expressed by the following equations.
Figure 2017182564
Here, χ 2 is a χ square distribution and represents the confidence interval of the error ellipse. Further, the angle θ ε formed by the major axis of the error ellipse with respect to the horizontal direction on the front image is expressed by the following equation.
Figure 2017182564

対応付け部23は、後方画像上の各線分について、kフレーム前の前方画像上の探索範囲である誤差楕円内にあり、かつ、前方画像上に投影したときのその線分となす角が所定角度(例えば、3°〜5°)以下となる、前方画像上の線分を、後方画像上の線分に対応付ける候補として検出する。なお、対応付け部23は、次式を満たす前方画像上の線分を、探索範囲に含まれると判定する。

Figure 2017182564
ここで、(u'c,v'c)は、後方画像上の着目する線分に対応する前方画像上での線分の中点の座標を表す。そして(u',v')は、前方画像上で検出された線分の中点の座標である。 For each line segment on the rear image, the associating unit 23 is within an error ellipse that is a search range on the front image k frames before, and the angle formed with the line segment when projected onto the front image is predetermined. A line segment on the front image having an angle (for example, 3 ° to 5 °) or less is detected as a candidate associated with the line segment on the rear image. Note that the associating unit 23 determines that the line segment on the forward image that satisfies the following expression is included in the search range.
Figure 2017182564
Here, (u ′ c , v ′ c ) represents the coordinates of the midpoint of the line segment on the front image corresponding to the line segment of interest on the rear image. (U ′, v ′) is the coordinates of the midpoint of the line segment detected on the front image.

対応付け部23は、後方画像上の各線分について、kフレーム前の前方画像上の探索範囲内にある線分のそれぞれについて、ブロックマッチングを行って正規化相互相関値を算出する。その際、対応付け部23は、パッチが投影された前方画像上の領域の中心、すなわち、後方画像上の線分が前方画像上に投影された位置と、ブロックマッチングの対象となる前方画像上の線分間の位置の差を打ち消すように、前方画像上に投影されたパッチ内の各画素の位置を平行移動させることで、後方画像上のパッチ内の各画素に対応する前方画像上の画素を特定すればよい。そして対応付け部23は、後方画像上のパッチ内の各画素の輝度値と、対応する前方画像上の画素の輝度値に基づいて正規化相互相関値を算出できる。対応付け部23は、その正規化相互相関値が最大となる前方画像上の線分を、後方画像上の着目する線分に対応付ける。なお、対応付け部23は、正規化相互相関値の最大値が所定の閾値(例えば、0.6〜0.7)以上である場合に限り、その二つの線分を対応付けてもよい。   For each line segment on the rear image, the associating unit 23 calculates a normalized cross-correlation value by performing block matching for each line segment within the search range on the front image before k frames. At this time, the associating unit 23 determines the center of the area on the front image on which the patch is projected, that is, the position at which the line segment on the rear image is projected on the front image and the front image on which block matching is performed. Pixels on the front image corresponding to each pixel in the patch on the rear image by translating the position of each pixel in the patch projected on the front image so as to cancel the position difference between the line segments of Should be specified. The association unit 23 can calculate a normalized cross-correlation value based on the luminance value of each pixel in the patch on the rear image and the luminance value of the pixel on the corresponding front image. The associating unit 23 associates the line segment on the front image having the maximum normalized cross-correlation value with the line segment of interest on the rear image. Note that the association unit 23 may associate the two line segments only when the maximum value of the normalized cross-correlation values is equal to or greater than a predetermined threshold (for example, 0.6 to 0.7).

なお、対応付け部23は、演算量を軽減するために、探索範囲を、後方画像上の線分の中点に対応する前方画像上の座標を中心とする、予め設定された所定の範囲に設定してもよい。この場合、所定の範囲は、例えば、水平方向について、パッチの水平方向サイズの2〜3倍とし、垂直方向について、パッチの垂直方向サイズの2〜3倍とすることができる。   In order to reduce the amount of calculation, the association unit 23 sets the search range to a predetermined range that is centered on the coordinates on the front image corresponding to the midpoint of the line segment on the rear image. It may be set. In this case, the predetermined range may be, for example, 2 to 3 times the horizontal size of the patch in the horizontal direction and 2 to 3 times the vertical size of the patch in the vertical direction.

なお、変形例によれば、パッチの形状自体に、後方画像上での線分の向きの情報が含まれているので、対応付け部23は、kフレーム前の前方画像上の探索範囲にある前方画像上の線分の全てを、後方画像上の線分に対応付ける候補としてもよい。   Note that, according to the modification, since the patch shape itself includes information on the direction of the line segment on the rear image, the associating unit 23 is in the search range on the front image before k frames. All the line segments on the front image may be candidates to be associated with the line segments on the rear image.

また、他の変形例によれば、対応付け部23は、後方画像上の各線分について、対応する探索範囲内の各画素をそれぞれパッチの中心に対応させるよう、パッチを平行移動させてそれぞれ正規化相互相関値を算出し、その正規化相互相関値が最大となる画素を、後方画像上の着目する線分に対応する前方画像上の線分の中点とし、着目する線分の向きに対応する前方画像上での向きを、その対応する線分の向きとしてもよい。この場合には、線分抽出部21は、前方画像から線分を抽出しなくてもよい。   Further, according to another modification, the associating unit 23 translates the patch so that each pixel in the corresponding search range corresponds to the center of the patch for each line segment on the rear image, respectively. The cross-correlation value is calculated, and the pixel having the maximum normalized cross-correlation value is set as the midpoint of the line segment on the front image corresponding to the line segment of interest on the rear image, and the direction of the line segment of interest is calculated. The direction on the corresponding front image may be the direction of the corresponding line segment. In this case, the line segment extraction unit 21 may not extract a line segment from the front image.

対応付け部23は、後方画像上の線分と対応付けられた前方画像上の線分のそれぞれの中点の座標及び向きを表すベクトルの組、及び、対応する後方画像の取得時刻と前方画像の取得時刻の組とを関連付けて、記憶部11に記憶する。   The associating unit 23 includes a set of vectors representing the coordinates and orientations of the midpoints of the respective line segments on the front image associated with the line segments on the rear image, and the corresponding rear image acquisition time and front image. Are stored in the storage unit 11 in association with each other.

地図作成部24は、後方画像上の線分と、対応する前方画像上の線分とに基づいて地図を作成する。地図作成部24は、例えば、バンドル調整(bundle adjustment)法にしたがって、互いに対応付けされた後方画像上の線分と前方画像上の線分の組ごとに、その組に対応する線分を地図に書き込むことで地図を作成する。なお、地図作成部24は、上記のManhattan-World仮説における(3)の条件に基づいて対応付けられた後方画像上の線分と前方画像上の線分の組のみを、地図作成に利用することが好ましい。これにより、路面以外の構造物の線が地図に書き込まれることが抑制される。   The map creation unit 24 creates a map based on the line segment on the rear image and the corresponding line segment on the front image. For example, according to the bundle adjustment method, the map creating unit 24 maps the line segments corresponding to the set for each line segment on the rear image and the line segment on the front image that are associated with each other. Create a map by writing to. Note that the map creation unit 24 uses only the pair of the line segment on the rear image and the line segment on the front image associated with each other based on the condition (3) in the Manhattan-World hypothesis for map creation. It is preferable. Thereby, it is suppressed that the line of structures other than a road surface is written in a map.

図6に、制御部13により制御される、位置合わせ処理の動作フローチャートを示す。なお、制御部13は、後方画像ごとに、この動作フローチャートにしたがって位置合わせ処理を実行する。   FIG. 6 shows an operation flowchart of the alignment process controlled by the control unit 13. In addition, the control part 13 performs the alignment process according to this operation | movement flowchart for every back image.

線分抽出部21は、後方画像及び前方画像のそれぞれから線分を抽出する(ステップS101)。そして線分抽出部21は、前方画像から抽出した各線分の中点の座標及び向きを表すベクトルを記憶部11に記憶する。また線分抽出部21は、後方画像から抽出した各線分の中点の座標及び向きを表すベクトルを投影部22へ渡す。   The line segment extraction unit 21 extracts line segments from each of the rear image and the front image (step S101). The line segment extraction unit 21 stores a vector representing the coordinates and orientation of the midpoint of each line segment extracted from the front image in the storage unit 11. Further, the line segment extraction unit 21 passes a vector representing the coordinates and direction of the midpoint of each line segment extracted from the rear image to the projection unit 22.

投影部22は、後方画像から抽出した各線分について、その線分の中点を中心とするパッチを設定し、そのパッチに対応する実空間上の1以上の領域をManhattan-World仮説に従って設定する(ステップS102)。そして投影部22は、後方画像から抽出した各線分について、パッチに対応する実空間上の各領域を、後方画像の取得時よりもkフレーム前に取得された前方画像上へ投影する(ステップS103)。   For each line segment extracted from the rear image, the projection unit 22 sets a patch centered on the midpoint of the line segment, and sets one or more regions on the real space corresponding to the patch according to the Manhattan-World hypothesis. (Step S102). Then, the projection unit 22 projects each region in the real space corresponding to the patch on the front image acquired k frames before the rear image is acquired for each line segment extracted from the rear image (step S103). ).

対応付け部23は、後方画像から抽出した各線分について、パッチに対応する実空間上の領域の中心の前方画像上の投影位置を中心として探索範囲を設定する(ステップS104)。そして対応付け部23は、探索範囲内にある前方画像上の線分の周囲の領域と、前方画像上でのパッチに対応する実空間上の領域の投影範囲との間でのブロックマッチングで最も一致する線分を、後方画像上の線分と対応付ける(ステップS105)。   For each line segment extracted from the rear image, the associating unit 23 sets a search range centered on the projection position on the front image at the center of the area on the real space corresponding to the patch (step S104). Then, the associating unit 23 performs the block matching between the area around the line segment on the front image within the search range and the projection range of the area on the real space corresponding to the patch on the front image. The matching line segment is associated with the line segment on the rear image (step S105).

地図作成部24は、互いに対応付けられた後方画像上の線分と前方画像上の線分の組に対応する線分を地図に書き込むことで地図を作成する(ステップS106)。そして制御部13は、位置合わせ処理を終了する。   The map creation unit 24 creates a map by writing a line segment corresponding to a set of line segments on the rear image and line segments on the front image, which are associated with each other, on the map (step S106). Then, the control unit 13 ends the alignment process.

図7(a)は、車両が走行した道路の一例を表す図であり、図7(b)は、図7(a)に示された道路に対応する、本実施形態による位置合わせ装置を利用して作成された地図の一例を表す図である。図7(a)には、車両10が走行した道路700が示されている。一方、図7(b)において、地図710は、本実施形態による位置合わせ装置を利用して作成された地図であり、点線711は、車両10が道路700を通行した際の車両10の軌跡を表す。   FIG. 7A is a diagram illustrating an example of a road on which a vehicle has traveled, and FIG. 7B uses the alignment apparatus according to the present embodiment corresponding to the road illustrated in FIG. It is a figure showing an example of the map created in this way. FIG. 7A shows a road 700 on which the vehicle 10 has traveled. On the other hand, in FIG. 7B, a map 710 is a map created by using the alignment apparatus according to the present embodiment, and a dotted line 711 indicates the trajectory of the vehicle 10 when the vehicle 10 passes the road 700. Represent.

図7(a)及び図7(b)に示されるように、道路700の形状及び道路700上に示された道路表示が、地図710上でも良好に再現されていることが分かる。   As shown in FIGS. 7A and 7B, it can be seen that the shape of the road 700 and the road display shown on the road 700 are reproduced well on the map 710.

以上説明してきたように、位置合わせ装置は、異なるカメラにより、異なるタイミングで生成された二つの画像間で、実空間上の同一の構造物の線に対応する線分同士を対応付ける際、Manhattan-World仮説に基づいて、一方の画像上の線分の周囲のパッチに相当する実空間上の領域を特定することで、そのパッチを他方の画像へ投影する際の精度を向上する。これにより、この位置合わせ装置は、線分同士の対応付けの精度を向上できる。またこの位置合わせ装置は、パッチに相当する実空間上の領域の数を減らせるので、演算量を削減できる。   As described above, when the alignment device associates line segments corresponding to lines of the same structure in the real space between two images generated at different timings by different cameras, the Manhattan- Based on the World hypothesis, an area in real space corresponding to a patch around a line segment on one image is specified, thereby improving the accuracy in projecting the patch onto the other image. Thereby, this alignment apparatus can improve the precision of matching of line segments. In addition, this alignment apparatus can reduce the number of areas in the real space corresponding to the patches, and thus the amount of calculation can be reduced.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、制御部13は、一つの後方画像上の線分との対応付けを行う前方画像を複数選択し、その複数の前方画像に対して投影部22及び対応付け部23の処理を行って、線分同士の対応付けを行ってもよい。その際、投影部22は、異なる時刻に生成された複数の前方画像のうち、後方画像上の着目する線分について設定されたパッチの投影範囲が含まれる前方画像のみを、その着目する線分についての対応付けを行う前方画像として選択してもよい。あるいは、投影部22は、異なる時刻に生成された複数の前方画像のうち、後方画像の取得時とその前方画像の取得時との間の車両10の移動量が、二つのカメラの撮影範囲が重なると想定される所定の移動距離範囲内に含まれる前方画像のみを、線分同士の対応付けを行う前方画像として選択してもよい。なお、車両10の移動量は、後方画像の取得時と前方画像の取得時間のオドメトリ情報または車輪速に基づいて算出される。さらに、制御部13は、オドメトリ情報などに基づいて、後方画像の取得時と、対応付けを行う前方画像の取得時との間で、車両10が直進していると判断される場合にのみ、後方画像上の線分と前方画像上の線分の対応付けを行ってもよい。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, the control unit 13 selects a plurality of front images to be associated with a line segment on one rear image, performs the processing of the projection unit 22 and the association unit 23 on the plurality of front images, The line segments may be associated with each other. At that time, the projection unit 22 selects only the front image including the projection range of the patch set for the target line segment on the rear image from among the plurality of front images generated at different times. You may select as a front image which matches about. Alternatively, the projection unit 22 has a movement range of the vehicle 10 between the time when the rear image is acquired and the time when the front image is acquired, among the plurality of front images generated at different times. Only a front image included in a predetermined moving distance range that is assumed to overlap may be selected as a front image for associating line segments. Note that the movement amount of the vehicle 10 is calculated based on odometry information or wheel speed of the acquisition time of the rear image and the acquisition time of the front image. Furthermore, only when the control unit 13 determines that the vehicle 10 is traveling straight between the acquisition of the rear image and the acquisition of the front image to be associated based on the odometry information. You may perform the matching of the line segment on a back image, and the line segment on a front image.

他の変形例によれば、制御部13は、後方画像上で路面を検出する路面検出部をさらに有していてもよい。この場合、投影部22は、後方画像上で抽出された線分のうち、検出された路面の範囲内にある線分については、(2)式と(4)式にしたがって、パッチに対応する実空間上の領域を設定すればよい。一方、投影部22は、後方画像上で抽出された線分のうち、検出された路面の範囲外にある線分については、(2)式と(3)式にしたがって、パッチに対応する実空間上の領域を設定すればよい。   According to another modification, the control unit 13 may further include a road surface detection unit that detects a road surface on the rear image. In this case, the projection unit 22 corresponds to the patch according to the equations (2) and (4) for the line segments within the detected road surface range among the line segments extracted on the rear image. An area in real space may be set. On the other hand, among the line segments extracted on the rear image, the projection unit 22 performs the actual processing corresponding to the patch according to the expressions (2) and (3) for the line segments outside the detected road surface range. What is necessary is just to set the area | region on space.

なお、路面検出部は、後方画像から路面を検出するために、画像上で路面が写っている領域を検出する様々な手法を利用できる。例えば、路面検出部は、自車両の両側の白線などの車線を表す線を、例えば、テンプレートマッチングなどにより検出して、その両側の車線を表す線で挟まれた領域を路面とする手法を利用できる。あるいは、路面検出部は、撮影範囲が重なる二つのカメラ(この場合には、カメラ2−2の他に、車両10の後方を撮影する別のカメラが必要とされる)によりそれぞれ生成された画像、あるいは、一つのカメラで異なる時間に撮影された二つの画像を利用した3次元計測により、路面を検出する手法(例えば、奥富他、「ステレオ動画像を用いた視覚誘導のための平坦部の連続推定」、情報処理学会論文誌、Vol.43、No.4、pp.1061-1069、2002年を参照)を利用してもよい。この場合には、位置合わせ装置は、パッチに対応する実空間上の領域をさらに限定できるので、線分間の対応付けの精度をより向上できる。   The road surface detection unit can use various methods for detecting a region where the road surface is shown on the image in order to detect the road surface from the rear image. For example, the road surface detection unit detects a line representing a lane such as a white line on both sides of the host vehicle by, for example, template matching, and uses a method in which an area sandwiched between lines representing the lanes on both sides is used as a road surface. it can. Alternatively, the road surface detection unit generates images respectively generated by two cameras whose shooting ranges overlap (in this case, another camera for shooting the rear of the vehicle 10 is required in addition to the camera 2-2). Alternatively, a method for detecting a road surface by three-dimensional measurement using two images taken at different times by a single camera (for example, Okutomi et al., “Flat part for visual guidance using stereo video images”). Continuous estimation ”, IPSJ Journal, Vol.43, No.4, pp.1061-1069, 2002) may be used. In this case, since the alignment apparatus can further limit the area in the real space corresponding to the patch, it is possible to further improve the accuracy of association between line segments.

さらに他の変形例によれば、対応付け部23は、パッチと前方画像上の対応領域間のブロックマッチングについて、正規化相互相関値を算出する代わりに、対応画素間の輝度値の差の絶対値の総和などを評価値として算出してもよい。この場合には、対応付け部23は、評価値が最小となる前方画像上の線分を、後方画像上の線分と対応付けてもよい。   According to yet another modification, the associating unit 23 calculates the absolute value of the difference in luminance value between corresponding pixels instead of calculating a normalized cross-correlation value for block matching between corresponding regions on the patch and the front image. The sum of the values may be calculated as the evaluation value. In this case, the associating unit 23 may associate the line segment on the front image with the smallest evaluation value with the line segment on the rear image.

さらにまた、他の変形例によれば、投影部22は、後方画像上の各線分について設定されるパッチに対応する実空間上の領域が、後方画像の生成時における車両10の位置と前方画像の生成時における車両10の位置との間にける、車両10が走行する道路の何れかの位置での道路と平行でかつ路面に垂直な面上にあるとしてもよい。
図8は、この変形例における、パッチに対応する実空間上の領域の例を示す図である。この場合、後方画像上の線分の座標により、その線分に対応する実空間上の構造物の線へ向かう方向とその後方画像生成時におけるカメラ2−2の光軸とのなす角が分かるので、その後方画像生成時における、車両10からその線分に対応する実空間上の構造物の線へ向かう方向が分かる。そこで投影部22は、例えば、記憶部11に記憶された、オドメトリ情報から求められる車両10の軌跡情報を参照して、後方画像生成時における車両10の位置からその線分に対応する実空間上の構造物の線の中点へ向かう方向の直線801から、車両10が走行してきた軌跡802へ下した垂線803の長さが、車両10と線分に対応する実空間上での構造物の線までの距離dの探索範囲(例えば、上記の実施形態と同様、1m〜20mとすることができる)に含まれる、線801上の位置を特定する。そして投影部22は、線分に対応する実空間上の構造物の線804は、その特定された位置から車両10の軌跡802に下した垂線803の足におけるその軌跡802の接線方向と平行でかつ路面に垂直な面805上にあると仮定する。なお、車両10は、道路と平行な方向に走行していると仮定できるので、その特定された位置から車両10の軌跡に下した垂線の足におけるその軌跡の接線方向は、道路と平行であるとみなせる。この場合、その線分について設定されるパッチに対応する実空間上の領域は、後方画像生成時の道路の延伸方向とその特定された位置での道路の延伸方向間の角度だけ、車両10の直進方向から傾き、かつ、路面に垂直な面内にあると仮定することで、そのパッチ内の各画素に対応する実空間上の領域内の各点の座標を求めればよい。
Furthermore, according to another modification, the projecting unit 22 determines that the area in the real space corresponding to the patch set for each line segment on the rear image is the position of the vehicle 10 and the front image when the rear image is generated. It may be on a plane parallel to the road at any position of the road on which the vehicle 10 travels and perpendicular to the road surface between the position of the vehicle 10 at the time of generation.
FIG. 8 is a diagram showing an example of an area on the real space corresponding to the patch in this modification. In this case, the angle between the direction of the line of the structure in the real space corresponding to the line segment and the optical axis of the camera 2-2 when generating the rear image can be determined from the coordinates of the line segment on the rear image. Therefore, the direction from the vehicle 10 toward the line of the structure in the real space corresponding to the line segment when the rear image is generated can be known. Therefore, for example, the projection unit 22 refers to the trajectory information of the vehicle 10 obtained from the odometry information stored in the storage unit 11 and refers to the real space corresponding to the line segment from the position of the vehicle 10 when the rear image is generated. The length of a perpendicular line 803 that extends from a straight line 801 in the direction toward the middle point of the structure line to a locus 802 on which the vehicle 10 has traveled is the length of the structure in the real space corresponding to the vehicle 10 and the line segment. A position on the line 801 that is included in the search range of the distance d to the line (for example, can be set to 1 to 20 m as in the above embodiment) is specified. In the projection unit 22, the line 804 of the structure in the real space corresponding to the line segment is parallel to the tangential direction of the trajectory 802 at the foot of the perpendicular line 803 that descends from the specified position to the trajectory 802 of the vehicle 10. Assume that the surface 805 is perpendicular to the road surface. Since it can be assumed that the vehicle 10 is traveling in a direction parallel to the road, the tangential direction of the trajectory of the perpendicular foot drawn from the specified position to the trajectory of the vehicle 10 is parallel to the road. Can be considered. In this case, the region in the real space corresponding to the patch set for the line segment is the angle of the vehicle 10 by the angle between the road extension direction when the rear image is generated and the road extension direction at the specified position. The coordinates of each point in the area in the real space corresponding to each pixel in the patch may be obtained by assuming that it is inclined from the straight direction and is in a plane perpendicular to the road surface.

さらにまた、他の変形例によれば、位置合わせ装置は、前方画像から抽出された各線分についてのパッチに相当する実空間上の領域をManhattan-World仮説に基づいて設定することで、上記と同様の処理を行って、後方画像上の線分との対応付けを行ってもよい。あるいは、線分同士の対応付けを行う画像を生成する二つのカメラは、車両の前方と後方を向いているものに限られず、互いに異なる方向を向き、かつ、車両の走行に伴って一方のカメラの撮影範囲に含まれていた領域が他方のカメラの撮影範囲に含まれるように取り付けられていればよい。   Furthermore, according to another modification, the alignment device sets an area in the real space corresponding to a patch for each line segment extracted from the forward image based on the Manhattan-World hypothesis as described above. Similar processing may be performed to associate the line segment on the rear image. Alternatively, the two cameras that generate the images for associating the line segments are not limited to those facing the front and the rear of the vehicle, but are directed in different directions, and one of the cameras as the vehicle travels It is only necessary that the area included in the imaging range is attached so as to be included in the imaging range of the other camera.

例えば、一方のカメラが車両10の前方を向くように車両10に取り付けられ、他方のカメラが車両10の側方を向くように取り付けられているとする。この場合には、車両10の進行方向に対して直交し、かつ、路面に対して垂直な面も、その二つのカメラの撮影範囲に含まれることになる。そこで、このような場合には、上記の(2)で示された、車両10の直進方向と直交する建物の側壁上の線(例えば、図5に示される線503)に対応する線分が、各カメラにより得られるそれぞれの画像において検出可能となる。   For example, it is assumed that one camera is attached to the vehicle 10 so as to face the front of the vehicle 10, and the other camera is attached so as to face the side of the vehicle 10. In this case, a plane perpendicular to the traveling direction of the vehicle 10 and perpendicular to the road surface is also included in the shooting range of the two cameras. Therefore, in such a case, the line segment corresponding to the line (for example, line 503 shown in FIG. 5) on the side wall of the building orthogonal to the straight traveling direction of the vehicle 10 shown in (2) above is obtained. It becomes possible to detect in each image obtained by each camera.

そこで、投影部22は、(2)式と(3)式、または(2)式と(4)式にしたがって、一方のカメラにより得られる画像上の各線分についてのパッチupに対応する実空間上の領域内の各点のカメラ座標系上の座標Ppを求めるだけでなく、各線分が、上記の(2)に相当する線である場合のパッチupに対応する実空間上の領域内の各点のカメラ座標系上の座標Ppも求める。 Therefore, the projection 22 (2) and (3), or (2) and (4) according to the real corresponding to the patch u p of each line segment in the image obtained by one camera not only determine the coordinates P p on the camera coordinate system of each point in the region of the space, each line segment, in the real space corresponding to the patch u p in the case where a line corresponding to the above (2) A coordinate P p on the camera coordinate system of each point in the region is also obtained.

線分に対応する実空間上の構造物の線が車両10の直進方向と直交する建物の側壁にある場合、その線分のパッチに対応する実空間上の領域に含まれる各点について、カメラ座標系では、車両10の進行方向におけるカメラからの距離d'は等しいので、z=d'となる。したがって、上記の(1)の条件が仮定される場合、パッチupに対応する実空間上の領域内の各点についてのカメラ座標系での座標Ppは次式で表される。

Figure 2017182564
When the line of the structure in the real space corresponding to the line segment is on the side wall of the building orthogonal to the straight traveling direction of the vehicle 10, the camera for each point included in the area in the real space corresponding to the patch of the line segment In the coordinate system, since the distance d ′ from the camera in the traveling direction of the vehicle 10 is equal, z = d ′. Therefore, if the above condition (1) is assumed, the coordinates P p in the camera coordinate system for each point in the area in the real space corresponding to the patch u p is expressed by the following equation.
Figure 2017182564

そこで、投影部22は、(2)式と(14)式にしたがって、線分に対応する実空間上の構造物の線が車両10の直進方向と直交する建物の側壁にある場合における、一方のカメラにより得られる画像上の各線分についてのパッチupに対応する実空間上の領域内の各点のカメラ座標系上の座標Ppを求めればよい。なお、d'については、任意の所定区間、例えば、[1,20](m)の区間で、1m単位で変化させればよい。 Therefore, the projection unit 22 is one in the case where the line of the structure in the real space corresponding to the line segment is on the side wall of the building orthogonal to the straight traveling direction of the vehicle 10 according to the expressions (2) and (14). may be obtained coordinates P p on the camera coordinate system of each point in the area in the real space corresponding to the patch u p of each line segment in the image obtained by the camera. Note that d ′ may be changed in units of 1 m in an arbitrary predetermined section, for example, a section of [1,20] (m).

以上の実施形態または変形例によって異なる画像間で対応付けられた線分の組は、上述したような地図の作成だけでなく、例えば、車両10の自己位置推定にも利用可能である。この場合、その線分の組に対応する二つの画像が生成されたときのカメラの位置間の距離、すなわち、基線長が長くなるので、その線分の組に対応する実空間上の構造物の線を特定する際の精度が向上する。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
A set of line segments associated with different images according to the embodiment or the modification described above can be used not only for the creation of a map as described above but also for the self-position estimation of the vehicle 10, for example. In this case, since the distance between the positions of the cameras when two images corresponding to the set of line segments are generated, that is, the base line length becomes long, the structure in the real space corresponding to the set of line segments. The accuracy in identifying the line is improved.
As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

1 位置合わせ装置
2−1、2−2 カメラ
3 IMU
4 車輪速センサ
5 ECU
6 CAN
11 記憶部
12 通信部
13 制御部
21 線分抽出部
22 投影部
23 対応付け部
24 地図作成部
1 Positioning device 2-1, 2-2 Camera 3 IMU
4 Wheel speed sensor 5 ECU
6 CAN
DESCRIPTION OF SYMBOLS 11 Memory | storage part 12 Communication part 13 Control part 21 Line segment extraction part 22 Projection part 23 Correlation part 24 Map preparation part

Claims (10)

車両(10)に対して第1の方向を向くように取り付けられた第1の撮像部(2−2)により第1の時刻において生成された第1の画像から、少なくとも一つの第1の線分を抽出する線分抽出部(21)と、
前記第1の画像上の前記第1の線分を含むマッチング範囲に対応する、実空間上の第1の領域を、前記車両(10)と前記車両(10)の周囲の構造物の位置関係を規定する所定の条件に従って特定し、前記第1の領域を、前記車両(10)に対して前記第1の方向と異なる第2の方向を向くように取り付けられた第2の撮像部(2−1)により、前記第1の時刻と異なる第2の時刻において生成された第2の画像上に投影することで、前記マッチング範囲に対応する前記第2の画像上の範囲を特定する投影部(22)と、
前記第2の画像上の所定の探索範囲内で、前記マッチング範囲に対応する前記第2の画像上の範囲の相対的な位置を変えながら前記マッチング範囲と前記第2の画像間でブロックマッチングを行うことで、前記マッチング範囲と最も類似する領域を特定し、該最も類似する領域内の線分を前記第1の線分に対応する第2の線分とする対応付け部(23)と、
を有する位置合わせ装置。
At least one first line from the first image generated at the first time by the first imaging unit (2-2) attached to the vehicle (10) so as to face the first direction. A line segment extraction unit (21) for extracting a minute;
The first region in the real space corresponding to the matching range including the first line segment on the first image is the positional relationship between the vehicle (10) and structures around the vehicle (10). And a second imaging unit (2) attached to the vehicle (10) so as to face a second direction different from the first direction. -1), the projection unit that specifies the range on the second image corresponding to the matching range by projecting onto the second image generated at the second time different from the first time (22)
Block matching is performed between the matching range and the second image while changing a relative position of the range on the second image corresponding to the matching range within a predetermined search range on the second image. An association unit (23) that identifies a region most similar to the matching range and sets a line segment in the most similar region as a second line segment corresponding to the first line segment;
An alignment device having
前記所定の条件は、前記マッチング範囲に対応する前記第1の領域が前記車両(10)の直進方向と平行でかつ路面に垂直な面上、または路面上に有るとする条件である、請求項1に記載の位置合わせ装置。   The predetermined condition is a condition that the first region corresponding to the matching range is on a plane parallel to a straight traveling direction of the vehicle (10) and perpendicular to a road surface, or on a road surface. 2. The alignment apparatus according to 1. 前記所定の条件は、前記マッチング範囲に対応する前記第1の領域が、前記第1の時刻における前記車両(10)の位置と前記第2の時刻における前記車両(10)の位置間にける、前記車両(10)が走行する道路の何れかの位置での前記道路と平行でかつ路面に垂直な面上にあるとする条件である、請求項1に記載の位置合わせ装置。   The predetermined condition is that the first region corresponding to the matching range is between the position of the vehicle (10) at the first time and the position of the vehicle (10) at the second time. The alignment apparatus according to claim 1, wherein the alignment device is on a plane parallel to the road and perpendicular to the road surface at any position of the road on which the vehicle (10) travels. 前記投影部(22)は、前記車両(10)に搭載された前記車両(10)の移動量または速度を検知するセンサから取得したセンサ情報に基づいて求められた、前記第1の時刻と前記第2の時刻間の前記車両(10)の移動量に基づいて、前記第1の撮像部を基準とする座標系における前記第1の領域の座標を前記第2の撮像部を基準とする前記第1の領域の座標に変換し、当該変換された前記第1の領域の座標を前記第2の画像上へ投影することで、前記マッチング範囲に対応する前記第2の画像上の範囲を特定する、請求項1〜3の何れか一項に記載の位置合わせ装置。   The projection unit (22) is configured to obtain the first time determined based on sensor information acquired from a sensor that detects a moving amount or speed of the vehicle (10) mounted on the vehicle (10) and the Based on the amount of movement of the vehicle (10) during a second time, the coordinates of the first region in the coordinate system with the first imaging unit as a reference are used with the second imaging unit as a reference. A range on the second image corresponding to the matching range is specified by converting the coordinates of the first region onto the second image by converting the converted coordinates of the first region onto the second image. The alignment apparatus according to any one of claims 1 to 3. 前記投影部(22)は、前記第2の撮像部(2−1)により互いに異なる時刻で生成された複数の画像のうち、当該画像について求められた前記マッチング範囲に対応する範囲が当該画像内に含まれる場合、当該画像を前記第2の画像とする、請求項1〜4の何れか一項に記載の位置合わせ装置。   The projection unit (22) includes a plurality of images generated at different times by the second imaging unit (2-1) so that a range corresponding to the matching range obtained for the image is within the image. The alignment apparatus according to any one of claims 1 to 4, wherein the image is the second image if included in the image. 前記投影部(22)は、前記第2の撮像部(2−1)により互いに異なる時刻で生成された複数の画像のうち、当該画像が生成された時刻と前記第1の時刻間の前記車両(10)の移動量が所定範囲となる画像を前記第2の画像とする、請求項1〜4の何れか一項に記載の位置合わせ装置。   The projection unit (22) includes the vehicle between the time when the image is generated and the first time among the plurality of images generated at different times by the second imaging unit (2-1). The alignment apparatus according to any one of claims 1 to 4, wherein an image in which the movement amount of (10) is within a predetermined range is the second image. 前記第1の画像上で路面が写っている領域を検出する路面検出部をさらに有し、
前記投影部(22)は、前記第1の線分が前記路面が写っている領域に含まれる場合、前記マッチング範囲に対応する前記第1の領域が路面上に有るとして特定する、請求項1〜6の何れか一項に記載の位置合わせ装置。
A road surface detection unit for detecting a region in which the road surface is reflected on the first image;
The said projection part (22) specifies that the said 1st area | region corresponding to the said matching range exists on a road surface, when the said 1st line segment is contained in the area | region where the said road surface is reflected. The alignment apparatus as described in any one of -6.
前記第1の線分と前記第2の線分に対応する線分を地図上に書き込むことで地図を作成する地図作成部(24)をさらに有する、請求項1〜7の何れか一項に記載の位置合わせ装置。   8. The apparatus according to claim 1, further comprising a map creation unit (24) that creates a map by writing a line segment corresponding to the first line segment and the second line segment on the map. 9. The alignment apparatus as described. 車両(10)に対して第1の方向を向くように取り付けられた第1の撮像部(2−2)により第1の時刻において生成された第1の画像から、少なくとも一つの第1の線分を抽出するステップと、
前記第1の画像上の前記第1の線分を含むマッチング範囲に対応する、実空間上の第1の領域を、前記車両(10)と前記車両(10)の周囲の構造物の位置関係を規定する所定の条件に従って特定し、前記第1の領域を、前記車両(10)に対して前記第1の方向と異なる第2の方向を向くように取り付けられた第2の撮像部(2−1)により、前記第1の時刻と異なる第2の時刻において生成された第2の画像上に投影することで、前記マッチング範囲に対応する前記第2の画像上の範囲を特定するステップと、
前記第2の画像上の所定の探索範囲内で、前記マッチング範囲に対応する前記第2の画像上の範囲の相対的な位置を変えながら前記マッチング範囲と前記第2の画像間でブロックマッチングを行うことで、前記マッチング範囲と最も類似する領域を特定し、該最も類似する領域内の線分を前記第1の線分に対応する第2の線分とするステップと、
を含む位置合わせ方法。
At least one first line from the first image generated at the first time by the first imaging unit (2-2) attached to the vehicle (10) so as to face the first direction. Extracting the minutes;
The first region in the real space corresponding to the matching range including the first line segment on the first image is the positional relationship between the vehicle (10) and structures around the vehicle (10). And a second imaging unit (2) attached to the vehicle (10) so as to face a second direction different from the first direction. -1), specifying a range on the second image corresponding to the matching range by projecting onto a second image generated at a second time different from the first time; ,
Block matching is performed between the matching range and the second image while changing a relative position of the range on the second image corresponding to the matching range within a predetermined search range on the second image. Identifying a region most similar to the matching range, and setting a line segment in the most similar region as a second line segment corresponding to the first line segment;
Including an alignment method.
車両(10)に対して第1の方向を向くように取り付けられた第1の撮像部(2−2)により第1の時刻において生成された第1の画像から、少なくとも一つの第1の線分を抽出するステップと、
前記第1の画像上の前記第1の線分を含むマッチング範囲に対応する、実空間上の第1の領域を、前記車両(10)と前記車両(10)の周囲の構造物の位置関係を規定する所定の条件に従って特定し、前記第1の領域を、前記車両(10)に対して前記第1の方向と異なる第2の方向を向くように取り付けられた第2の撮像部(2−1)により、前記第1の時刻と異なる第2の時刻において生成された第2の画像上に投影することで、前記マッチング範囲に対応する前記第2の画像上の範囲を特定するステップと、
前記第2の画像上の所定の探索範囲内で、前記マッチング範囲に対応する前記第2の画像上の範囲の相対的な位置を変えながら前記マッチング範囲と前記第2の画像間でブロックマッチングを行うことで、前記マッチング範囲と最も類似する領域を特定し、該最も類似する領域内の線分を前記第1の線分に対応する第2の線分とするステップと、
をコンピュータに実行させるための位置合わせ用コンピュータプログラム。
At least one first line from the first image generated at the first time by the first imaging unit (2-2) attached to the vehicle (10) so as to face the first direction. Extracting the minutes;
The first region in the real space corresponding to the matching range including the first line segment on the first image is the positional relationship between the vehicle (10) and structures around the vehicle (10). And a second imaging unit (2) attached to the vehicle (10) so as to face a second direction different from the first direction. -1), specifying a range on the second image corresponding to the matching range by projecting onto a second image generated at a second time different from the first time; ,
Block matching is performed between the matching range and the second image while changing a relative position of the range on the second image corresponding to the matching range within a predetermined search range on the second image. Identifying a region most similar to the matching range, and setting a line segment in the most similar region as a second line segment corresponding to the first line segment;
A computer program for alignment for causing a computer to execute.
JP2016070811A 2016-03-31 2016-03-31 Alignment device, alignment method and computer program for alignment Active JP6886136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016070811A JP6886136B2 (en) 2016-03-31 2016-03-31 Alignment device, alignment method and computer program for alignment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016070811A JP6886136B2 (en) 2016-03-31 2016-03-31 Alignment device, alignment method and computer program for alignment

Publications (2)

Publication Number Publication Date
JP2017182564A true JP2017182564A (en) 2017-10-05
JP6886136B2 JP6886136B2 (en) 2021-06-16

Family

ID=60006276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016070811A Active JP6886136B2 (en) 2016-03-31 2016-03-31 Alignment device, alignment method and computer program for alignment

Country Status (1)

Country Link
JP (1) JP6886136B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108305277A (en) * 2017-12-26 2018-07-20 中国航天电子技术研究院 A kind of heterologous image matching method based on straightway
WO2021100681A1 (en) * 2019-11-20 2021-05-27 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021196A (en) * 2006-07-14 2008-01-31 Hitachi Ltd Surrounding recognition device and system for vehicle
JP2010128744A (en) * 2008-11-27 2010-06-10 Toyota Infotechnology Center Co Ltd Corresponding block search apparatus
JP2010224918A (en) * 2009-03-24 2010-10-07 Fuji Heavy Ind Ltd Environment recognition device
JP2014089078A (en) * 2012-10-29 2014-05-15 Kokusai Kogyo Co Ltd Orientation method, orientation program, and orientation device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021196A (en) * 2006-07-14 2008-01-31 Hitachi Ltd Surrounding recognition device and system for vehicle
JP2010128744A (en) * 2008-11-27 2010-06-10 Toyota Infotechnology Center Co Ltd Corresponding block search apparatus
JP2010224918A (en) * 2009-03-24 2010-10-07 Fuji Heavy Ind Ltd Environment recognition device
JP2014089078A (en) * 2012-10-29 2014-05-15 Kokusai Kogyo Co Ltd Orientation method, orientation program, and orientation device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108305277A (en) * 2017-12-26 2018-07-20 中国航天电子技术研究院 A kind of heterologous image matching method based on straightway
CN108305277B (en) * 2017-12-26 2020-12-04 中国航天电子技术研究院 Heterogeneous image matching method based on straight line segments
WO2021100681A1 (en) * 2019-11-20 2021-05-27 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device
US11869146B2 (en) 2019-11-20 2024-01-09 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional model generation method and three-dimensional model generation device

Also Published As

Publication number Publication date
JP6886136B2 (en) 2021-06-16

Similar Documents

Publication Publication Date Title
CN112785702B (en) SLAM method based on tight coupling of 2D laser radar and binocular camera
CN108406731B (en) Positioning device, method and robot based on depth vision
Zhou et al. Ground-plane-based absolute scale estimation for monocular visual odometry
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
US10260862B2 (en) Pose estimation using sensors
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
EP3627446B1 (en) System, method and medium for generating a geometric model
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
JP6782903B2 (en) Self-motion estimation system, control method and program of self-motion estimation system
KR20150144730A (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
CN208323361U (en) A kind of positioning device and robot based on deep vision
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
KR102167835B1 (en) Apparatus and method of processing image
CN105324792B (en) For estimating method of the moving element relative to the angular displacement of reference direction
KR101203816B1 (en) Robot fish localization system using artificial markers and method of the same
CN108544494A (en) A kind of positioning device, method and robot based on inertia and visual signature
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
CN116804553A (en) Odometer system and method based on event camera/IMU/natural road sign
JP2018116147A (en) Map creation device, map creation method and map creation computer program
CN111862146A (en) Target object positioning method and device
KR101639264B1 (en) Apparatus and method for controling automatic termial
JP2020076714A (en) Position attitude estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191015

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200109

C116 Written invitation by the chief administrative judge to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C116

Effective date: 20200121

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200121

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200421

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200714

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210302

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210406

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210430

R150 Certificate of patent or registration of utility model

Ref document number: 6886136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150