JP6905390B2 - Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program - Google Patents

Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program Download PDF

Info

Publication number
JP6905390B2
JP6905390B2 JP2017109071A JP2017109071A JP6905390B2 JP 6905390 B2 JP6905390 B2 JP 6905390B2 JP 2017109071 A JP2017109071 A JP 2017109071A JP 2017109071 A JP2017109071 A JP 2017109071A JP 6905390 B2 JP6905390 B2 JP 6905390B2
Authority
JP
Japan
Prior art keywords
vehicle
feature points
captured image
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017109071A
Other languages
Japanese (ja)
Other versions
JP2018205950A (en
Inventor
浅井 彰司
彰司 浅井
浅海 周
周 浅海
博 石黒
博 石黒
和孝 早川
和孝 早川
崇士 鈴木
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2017109071A priority Critical patent/JP6905390B2/en
Publication of JP2018205950A publication Critical patent/JP2018205950A/en
Application granted granted Critical
Publication of JP6905390B2 publication Critical patent/JP6905390B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車の位置を推定するための地図を生成す自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラムに関する。 The present invention relates to an environment map generator for estimating the position of the own vehicle, an environment map generator for estimating the position of the own vehicle, an environment map generation program for estimating the position of the own vehicle, and an environment map generator for estimating the position of the own vehicle, which generates a map for estimating the position of the own vehicle. ..

移動体に搭載されたカメラ等の撮影部によって撮影された撮影画像に基づいて、3次元空間上における移動体の位置を推定する技術が提案されている。 A technique for estimating the position of a moving body in a three-dimensional space has been proposed based on a captured image taken by a photographing unit such as a camera mounted on the moving body.

例えば、特許文献1では、第1画像に関する第1データと、移動体の移動に伴う前記第1画像との差異を含む第2画像に関する第2データと、を含む情報を取得する取得部と、前記情報に基づいて移動体の移動に伴う回転の方向を推定する方向推定処理と、回転の方向に基づいて、第1画像内の第1領域内の複数の第1特徴点と、第1画像内の第2領域内の複数の第2特徴点と、を検出し、前記複数の第1特徴点の第1領域内における第1密度は、複数の第2特徴点の第2領域内における第2密度よりも高い検出処理と、第2画像内の第3領域内の複数の第1対応点であって、複数の第1対応点のそれぞれは複数の第1特徴点の少なくともいずれかのそれぞれに対応する複数の第1対応点を求め、複数の第1特徴点のそれぞれと、複数の第1対応点のそれぞれと、に基づいて、移動体の位置の変化を推定する位置推定処理と、を実施する処理部と、を備えた移動体位置推定装置が提案されている。 For example, in Patent Document 1, an acquisition unit that acquires information including first data relating to a first image and second data relating to a second image including a difference between the first image due to movement of a moving body and the like. A direction estimation process for estimating the direction of rotation accompanying the movement of the moving body based on the above information, a plurality of first feature points in the first region in the first image based on the direction of rotation, and a first image. A plurality of second feature points in the second feature point are detected, and the first density of the plurality of first feature points in the first region is the first density of the plurality of second feature points in the second region. Detection processing higher than 2 densities and a plurality of first correspondence points in a third region in the second image, each of the plurality of first correspondence points is at least one of a plurality of first feature points. A position estimation process for estimating a change in the position of a moving body based on each of a plurality of first feature points and each of a plurality of first corresponding points by obtaining a plurality of first corresponding points corresponding to the above. A moving body position estimation device including a processing unit for carrying out the above has been proposed.

また、特許文献1では、移動体の移動に伴う回転方向の推定を、取得して情報から推定する以外に、速度センサ、加速度センサと、角速度センサ、及び角加速度センサを用いて推定することが記載されている。 Further, in Patent Document 1, in addition to acquiring and estimating the rotation direction accompanying the movement of the moving body from the information, it is possible to estimate using a speed sensor, an acceleration sensor, an angular velocity sensor, and an angular acceleration sensor. Has been described.

特開2016−61604号公報Japanese Unexamined Patent Publication No. 2016-61604

しかしながら、特許文献1の技術のように、2つの撮影画像に基づいて移動体の移動に伴う移動体に搭載された撮影部の回転方向を推定する場合、回転方向を検出するために2つの撮影画像の特徴点等を比較する等の処理負荷が高くなるため、改善の余地がある。また、速度センサ、加速度センサと、角速度センサ、及び角加速度センサの検出結果に基づいて移動体の移動に伴う撮影部の回転方向を推定する場合には、加速度センサ、角速度センサ、及び角加速度センサはノイズが大きいため、移動体の移動に伴う撮影部の回転方向を安定的に推定する上で、改善の余地がある。特に、低速域では、移動体の移動に伴う撮影部の回転方向を安定的に推定できない。 However, as in the technique of Patent Document 1, when the rotation direction of the photographing unit mounted on the moving body is estimated based on the movement of the moving body based on the two captured images, two images are taken in order to detect the rotation direction. There is room for improvement because the processing load such as comparing the feature points of images becomes high. Further, when estimating the rotation direction of the photographing unit accompanying the movement of the moving body based on the detection results of the speed sensor, the acceleration sensor, the angular velocity sensor, and the angular acceleration sensor, the acceleration sensor, the angular velocity sensor, and the angular acceleration sensor are used. Since the noise is large, there is room for improvement in stably estimating the rotation direction of the photographing unit due to the movement of the moving object. In particular, in the low speed range, the rotation direction of the photographing unit due to the movement of the moving body cannot be stably estimated.

また、環境地図を生成する場合に、移動体の移動に伴う撮影部の回転方向を安定的に推定できないと、特徴点を抽出する画像領域を適切に設定できないため地図精度が低下し、移動体の位置の推定精度も低下する。 Further, when generating an environmental map, if the rotation direction of the photographing unit due to the movement of the moving object cannot be estimated stably, the image area for extracting the feature points cannot be set appropriately, so that the map accuracy is lowered and the moving object is generated. The estimation accuracy of the position of is also reduced.

本発明は、上記事実を考慮して成されたもので、撮影部の位置及び姿勢を安定的に推定可能な自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、並びに自車位置推定プログラムを提供することを目的とする。 The present invention has been made in consideration of the above facts, and is an environment map generation device for estimating the position of the own vehicle, a position estimation device for the own vehicle, and an estimation of the position of the own vehicle that can stably estimate the position and posture of the photographing unit. It is an object of the present invention to provide an environmental map generation program and a vehicle position estimation program.

上記目的を達成するために本発明に係る自車位置推定用環境地図生成装置は、車両の移動方向を撮影する撮影部と、車両の舵角を検出する検出部の検出結果を取得する取得部と、前記取得部によって取得した前記検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記取得部によって取得した前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、前記抽出部が抽出した特徴点と、異なる位置で撮影した他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する生成部と、を含む。 In order to achieve the above object, the vehicle position estimation environment map generator according to the present invention has an imaging unit that captures the moving direction of the vehicle and an acquisition unit that acquires the detection results of the detection unit that detects the steering angle of the vehicle. Then, using the detection result acquired by the acquisition unit, feature points are extracted from an area other than a predetermined range corresponding to the moving direction of the vehicle in the photographed image captured by the photographing unit, or Using the detection result acquired by the acquisition unit, feature points are extracted from the entire region of the captured image, and other regions are weighted than the weighting of regions in a predetermined range corresponding to the moving direction of the vehicle in the captured image. The position and orientation of the vehicle are estimated based on the correspondence between the extraction unit for increasing the size, the feature points extracted by the extraction unit, and the feature points of other captured images taken at different positions, and based on the estimation result. It includes a generation unit that obtains the three-dimensional position of the feature point and generates a local environmental map.

なお、前記生成部は、局所的な環境地図として、車両の走行経路に制約がある局所空間の環境地図を生成してもよい。 The generation unit may generate an environmental map of a local space having restrictions on the traveling route of the vehicle as a local environmental map.

また、上記目的を達成するために本発明に係る自車位置推定装置は、車両の移動方向を撮影する撮影部と、車両の舵角を検出する検出部の検出結果を取得する取得部と、前記取得部によって取得した前記検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記取得部によって取得した前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、前記抽出部が抽出した特徴点と、予め生成された三次元座標及び特徴量を含めた環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、自車両の位置を推定する推定部と、を含む。 Further, in order to achieve the above object, the own vehicle position estimation device according to the present invention includes a photographing unit that photographs the moving direction of the vehicle, an acquisition unit that acquires the detection result of the detecting unit that detects the steering angle of the vehicle, and the acquisition unit. Using the detection result acquired by the acquisition unit, feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the imaging unit, or the acquisition is performed. Using the detection result acquired by the unit, feature points are extracted from the entire region of the captured image, and the weighting of other regions is larger than the weighting of the region in the predetermined range corresponding to the moving direction of the vehicle in the captured image. The position and orientation of the vehicle are estimated based on the extraction unit, the feature points extracted by the extraction unit, and the corresponding feature points on the environmental map including the three-dimensional coordinates and the feature amount generated in advance. It includes an estimation unit that estimates the position of the own vehicle based on the estimation result.

また、上記目的を達成するために本発明に係る自車位置推定用環境地図生成プログラムは、車両の舵角を検出する検出部の検出結果を取得し、前記検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出する共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、抽出した特徴点と、異なる位置で撮影した他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する処理をコンピュータに実行させる。 Further, in order to achieve the above object, the own vehicle position estimation environment map generation program according to the present invention acquires the detection result of the detection unit that detects the steering angle of the vehicle, and uses the detection result to move the vehicle. Feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the photographing unit that captures the direction, or the entire area of the captured image is used by using the detection result. increasing the weighting of the other region than the weighting of the region of a predetermined range corresponding to the moving direction of the vehicle at both the captured image and extracts feature points from the extracted feature points has, captured another taken at different positions The position and attitude of the vehicle are estimated based on the correspondence with the feature points of the image, the three-dimensional position of the feature points is obtained based on the estimation result, and the process of generating a local environmental map is executed on the computer. Let me.

また、上記目的を達成するために本発明に係る自車位置推定プログラムは、車両の舵角を検出する検出部の検出結果を取得し、前記検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、抽出した特徴点と、予め生成された三次元座標及び特徴量を含めた環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、自車両の位置を推定する処理をコンピュータに実行させる。 Further, in order to achieve the above object, the own vehicle position estimation program according to the present invention acquires the detection result of the detection unit that detects the steering angle of the vehicle, and uses the detection result to photograph the moving direction of the vehicle. Feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the photographing unit, or the feature points are extracted from the entire region of the captured image using the detection result. In addition to extracting, the weighting of other areas is made larger than the weighting of the area in the predetermined range corresponding to the moving direction of the vehicle in the captured image, and the extracted feature points, the three-dimensional coordinates and the feature amount generated in advance are included. It was on the environmental map corresponding based on the feature points to estimate the position and orientation of the vehicle, based on the estimation result, thereby executing the process of estimating the position of the vehicle to the computer.

以上説明したように本発明によれば、撮影部の位置及び姿勢を安定的に推定することが可能となる、という効果がある。 As described above, according to the present invention, there is an effect that the position and orientation of the photographing unit can be stably estimated.

本実施形態に係る自車位置推定装置を搭載する車両を示す図である。It is a figure which shows the vehicle which carries the own vehicle position estimation device which concerns on this embodiment. 本実施形態に係る自車位置推定装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the own vehicle position estimation device which concerns on this embodiment. 2時刻の撮影画像及び当該撮影画像の進行方向の領域を示す図である。It is a figure which shows the photographed image at 2 time and the region in the traveling direction of the photographed image. (A)は現時刻の撮影画像の一例を示す図であり、(B)は前時刻の撮影画像の一例を示す図である。(A) is a diagram showing an example of a captured image at the current time, and (B) is a diagram showing an example of a captured image at the previous time. 本実施形態に係る自車位置推定装置において環境地図生成プログラムを実行することで行われる処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process performed by executing the environment map generation program in the own vehicle position estimation apparatus which concerns on this embodiment. 本実施形態に係る自車位置推定装置において自車位置推定プログラムを実行することで行われる処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process performed by executing the own vehicle position estimation program in the own vehicle position estimation apparatus which concerns on this embodiment.

以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る自車位置推定装置を搭載する車両20を示す図であり、図2は、本実施形態に係る自車位置推定装置の概略構成を示すブロック図である。 Hereinafter, an example of the embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a vehicle 20 equipped with the own vehicle position estimation device according to the present embodiment, and FIG. 2 is a block diagram showing a schematic configuration of the own vehicle position estimation device according to the present embodiment.

自車位置推定装置10は、撮影部としてのカメラ14を備えている。カメラ14は、車両後部のトランク等に設けられ、車両後方を撮影する。カメラ14は、例えば、図1に示すように、車幅方向の略中央部付近に設けられ、かつカメラ14の光軸が水平方向より若干下側を向くように配置されている。 The own vehicle position estimation device 10 includes a camera 14 as a photographing unit. The camera 14 is provided in a trunk or the like at the rear of the vehicle, and photographs the rear of the vehicle. For example, as shown in FIG. 1, the camera 14 is provided near a substantially central portion in the vehicle width direction, and is arranged so that the optical axis of the camera 14 faces slightly downward from the horizontal direction.

また、自車位置推定装置10は、自車位置を推定するための演算等を行う制御部12を備えている。制御部12は、例えば、図2に示すように、CPU12A、ROM12B、RAM12C、及びI/O(入出力インターフェース)12Dがバス12Eに接続されたコンピュータで構成される。 Further, the own vehicle position estimation device 10 includes a control unit 12 that performs calculations and the like for estimating the own vehicle position. As shown in FIG. 2, the control unit 12 includes, for example, a computer in which the CPU 12A, ROM 12B, RAM 12C, and I / O (input / output interface) 12D are connected to the bus 12E.

ROM12Bには、環境地図を生成するための環境地図生成プログラムや、自車位置を推定する自車位置推定プログラムを含む各種プログラムやデータ等が記憶されている。ROM12Bに記憶されたプログラムをRAM12Cに展開してCPU12Aが実行することにより、環境地図の生成や、自車位置の推定が行われる。 The ROM 12B stores various programs and data including an environment map generation program for generating an environment map and a vehicle position estimation program for estimating the vehicle position. By expanding the program stored in the ROM 12B into the RAM 12C and executing it by the CPU 12A, the environment map is generated and the position of the own vehicle is estimated.

I/O12Dには、カメラ14が接続されていると共に、車両20の操舵角度を検出する舵角センサ16が接続されている。そして、カメラ14の撮影画像及び舵角センサ16によって検出された操舵角度(以下、舵角という。)が制御部12に入力される。 A camera 14 is connected to the I / O 12D, and a steering angle sensor 16 that detects the steering angle of the vehicle 20 is connected to the I / O 12D. Then, the captured image of the camera 14 and the steering angle (hereinafter referred to as the steering angle) detected by the steering angle sensor 16 are input to the control unit 12.

また、I/O12Dには、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等の記憶部18が接続されている。なお、記憶部18は制御部12内に設けてもよいし、外部接続可能としてもよい。また、記憶部18には制御部12の制御によって生成した環境地図を記憶するが、環境地図生成プログラムや自車位置推定プログラムを記憶してもよい。 Further, a storage unit 18 such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), and a flash memory is connected to the I / O 12D. The storage unit 18 may be provided in the control unit 12 or may be externally connectable. Further, although the storage unit 18 stores the environment map generated by the control of the control unit 12, the environment map generation program and the own vehicle position estimation program may be stored.

制御部12は、環境地図生成プログラムを実行することにより、カメラ14によって撮影された撮影画像と、舵角センサ16によって検出された舵角と、に基づいて、3次元の点群の環境地図を生成して記憶部18に記憶する。また、制御部12は、自車位置推定プログラムを実行することにより、記憶部18に記憶された環境地図に基づいて自車位置を推定する。本実施形態では、制御部12が、生成する環境地図としては、局所的な環境地図を生成するが、より具体的には、車両20の走行経路に制約がある局所空間(例えば、駐車空間等)の環境地図を生成する。 By executing the environment map generation program, the control unit 12 creates an environment map of a three-dimensional point cloud based on the captured image taken by the camera 14 and the steering angle detected by the steering angle sensor 16. It is generated and stored in the storage unit 18. Further, the control unit 12 estimates the position of the own vehicle based on the environment map stored in the storage unit 18 by executing the own vehicle position estimation program. In the present embodiment, the control unit 12 generates a local environmental map as the generated environmental map, but more specifically, a local space (for example, a parking space or the like) in which the traveling route of the vehicle 20 is restricted. ) Generate an environmental map.

ここで、本実施形態に係る自車位置推定装置10による環境地図の作成方法について説明する。 Here, a method of creating an environmental map by the own vehicle position estimation device 10 according to the present embodiment will be described.

本実施形態に係る自車位置推定装置10の制御部12は、異なる2位置でカメラ14によって撮影された各撮影画像から特徴点をそれぞれ抽出して、対応する特徴点同士を対応付ける。そして、2つの撮影画像の対応する特徴点に基づいて、カメラ14の位置及び姿勢を推定し、特徴点の3次元座標を算出して、環境地図を生成する。 The control unit 12 of the own vehicle position estimation device 10 according to the present embodiment extracts feature points from each photographed image taken by the camera 14 at two different positions, and associates the corresponding feature points with each other. Then, the position and orientation of the camera 14 are estimated based on the corresponding feature points of the two captured images, the three-dimensional coordinates of the feature points are calculated, and an environmental map is generated.

具体的には、制御部12が、現時刻の撮影画像を取得し、前時刻の撮影画像とのペアを生成する。そして、舵角センサ16の検出結果に基づいて、図3に示すように、現時刻の撮影画像の進行方向の領域を特定する。そして、制御部12が、現時刻における撮影画像の進行方向の領域(図3の点線丸で示す領域)以外の特徴点を抽出する。前時刻における撮影画像についても、同様に、進行方向の領域以外の特徴点が既に抽出されているものとする。 Specifically, the control unit 12 acquires the captured image at the current time and generates a pair with the captured image at the previous time. Then, based on the detection result of the steering angle sensor 16, as shown in FIG. 3, a region in the traveling direction of the captured image at the current time is specified. Then, the control unit 12 extracts feature points other than the region in the traveling direction of the captured image at the current time (the region indicated by the dotted line circle in FIG. 3). Similarly, it is assumed that the feature points other than the region in the traveling direction have already been extracted from the captured image at the previous time.

ここで、進行方向の領域以外の領域は、本実施形態では、舵角センサ16によって検出された舵角に基づいて撮影画像の進行方向の領域を導出することにより特定する。すなわち、車両20の舵角が分かれば、進行方向は決定できるので、舵角センサ16によって検出された舵角から、撮影画像の進行方向の領域を特定することができる。これにより、2つの撮影画像を用いて進行方向の領域を決定する場合より、車両20の進行方向の領域を検出する際の処理負荷を低減することができる。また、加速度センサ、角速度センサ、及び角加速度センサの検出結果を用いて車両20の進行方向の領域を検出する場合より、安定した進行方向の検出が可能となる。特に、車両20が低速で移動している場合には、加速度センサ、角速度センサ、及び角加速度センサから車両20の進行方向を検出することが困難となるが、舵角センサ16の検出結果を用いることにより、安定した進行方向の検出が可能となる。なお、進行方向の領域は、舵角から検出した進行方向を含む予め定めた範囲の領域を特定する。例えば、進行方向の領域は、撮影画像を複数分割しておき、舵角センサ16によって検出された舵角に基づいて、撮影画像の複数分割してある領域の中から対応付けることで特定する。 Here, in the present embodiment, the region other than the region in the traveling direction is specified by deriving the region in the traveling direction of the captured image based on the steering angle detected by the steering angle sensor 16. That is, since the traveling direction can be determined if the steering angle of the vehicle 20 is known, the region of the traveling direction of the captured image can be specified from the steering angle detected by the steering angle sensor 16. As a result, the processing load when detecting the region in the traveling direction of the vehicle 20 can be reduced as compared with the case where the region in the traveling direction is determined using the two captured images. In addition, more stable detection of the traveling direction is possible than when the region of the vehicle 20 in the traveling direction is detected by using the detection results of the acceleration sensor, the angular velocity sensor, and the angular acceleration sensor. In particular, when the vehicle 20 is moving at a low speed, it is difficult to detect the traveling direction of the vehicle 20 from the acceleration sensor, the angular velocity sensor, and the angular acceleration sensor, but the detection result of the steering angle sensor 16 is used. This enables stable detection of the traveling direction. The region in the traveling direction specifies a region in a predetermined range including the traveling direction detected from the steering angle. For example, the region in the traveling direction is specified by dividing the captured image into a plurality of regions and associating the captured images with the regions divided into a plurality of captured images based on the steering angle detected by the steering angle sensor 16.

特徴点の抽出方法としては、例えば、ORB−SLAMを適用することができる。ORB−SLAMは、特徴点としてコーナーを検出し、検出手法にFAST(Features from Accelerated Segment Test)を用いるものである。また、ORB−SLAMは、特徴量の記述にORB(Oriented FAST and Rotated BRIEF)を用いる。ORBは、BRIEF(Binary Robust Independent Elementary Features)をベースとして、スケール不変性と回転不変性とを有するように発展させたものである。ORB−SLAMについては以下の参考文献1に開示されているため、詳細な説明を省略する。
[参考文献1]Raul Mur-Artal, J.M.M.Montiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015.
As a method for extracting feature points, for example, ORB-SLAM can be applied. ORB-SLAM detects a corner as a feature point and uses FAST (Features from Accelerated Segment Test) as a detection method. In addition, ORB-SLAM uses ORB (Oriented FAST and Rotated BRIEF) to describe the features. The ORB is based on BRIEF (Binary Robust Independent Elementary Features) and has been developed to have scale invariance and rotation invariance. Since ORB-SLAM is disclosed in Reference 1 below, detailed description thereof will be omitted.
[Reference 1] Raul Mur-Artal, JMMMontiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015.

例えば、現時刻の撮影画像の一例を図4(A)に示し、前時刻の撮影画像の一例を図4(B)に示す。この例の場合には、舵角センサ16の検出結果から特定したそれぞれの進行方向の領域は、図中の点線丸で示す領域とされ、この領域以外の領域の特徴点を抽出した結果を実線の丸で示す。 For example, an example of the captured image at the current time is shown in FIG. 4 (A), and an example of the captured image at the previous time is shown in FIG. 4 (B). In the case of this example, the region in each traveling direction specified from the detection result of the rudder angle sensor 16 is defined as the region indicated by the dotted line circle in the figure, and the result of extracting the feature points of the region other than this region is the solid line. It is indicated by a circle.

また、特徴点を抽出する際には、撮影画像における車両20の進行方向に対応する領域では、進行方向の領域以外の領域に比べて、特徴点の移動量が少ないため、進行方向の予め定めた領域以外の領域における特徴点を抽出する。これにより、撮影画像の全面の特徴点を抽出する場合に比べて特徴点を抽出する処理負荷を低減することができる。また、特徴点の移動量が大きくなる領域から特徴点を抽出することにより、以降の処理において特徴点の3次元位置を推定する際の視差に対応する撮影画像間の対応する特徴点のずれが大きくなるため、より正確な3次元位置の推定が可能となる。特に、駐車空間等のように車両20の走行経路に制約がある局所空間では、進行方向の予め定めた領域以外の領域における特徴点を抽出することにより、正確な3次元位置の推定が可能となる。 Further, when extracting the feature points, the moving amount of the feature points is smaller in the region corresponding to the traveling direction of the vehicle 20 in the captured image than in the region other than the region in the traveling direction, so that the traveling direction is predetermined. The feature points in the area other than the above area are extracted. As a result, the processing load for extracting the feature points can be reduced as compared with the case where the feature points on the entire surface of the captured image are extracted. In addition, by extracting the feature points from the region where the amount of movement of the feature points is large, the deviation of the corresponding feature points between the captured images corresponding to the parallax when estimating the three-dimensional position of the feature points in the subsequent processing is eliminated. As the size increases, more accurate three-dimensional position estimation becomes possible. In particular, in a local space such as a parking space where the traveling path of the vehicle 20 is restricted, it is possible to accurately estimate the three-dimensional position by extracting feature points in a region other than a predetermined region in the traveling direction. Become.

また、現時刻と前時刻のそれぞれの撮影画像間の特徴点の対応付けは、例えば、上述のORB等の特徴量を用いて現時刻の特徴点と前時刻の特徴点とを対応付ける。 Further, in the association of the feature points between the captured images of the current time and the previous time, for example, the feature points of the current time and the feature points of the previous time are associated with each other by using the feature amount such as ORB described above.

また、カメラ14の位置及び姿勢の推定と特徴点の3次元座標の算出とでは、初期化段階において、対応付けられた複数組の特徴点のペアから、例えば、5点法及び7点法等を用いて、前時刻の撮影画像を基準とする基本行列を推定する。なお、現時刻の撮影画像を基準とする基本行列を推定してもよい。 Further, in the estimation of the position and orientation of the camera 14 and the calculation of the three-dimensional coordinates of the feature points, in the initialization stage, for example, from the pair of the associated plurality of feature points, the 5-point method and the 7-point method, etc. Is used to estimate the basic matrix based on the captured image at the previous time. The elementary matrix may be estimated based on the captured image at the current time.

また、特異値分解等によって、推定して得られた基本行列から並進ベクトル及び回転行列を算出する。この並進ベクトル及び回転行列の算出により、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を基準とする現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を推定する。なお、前時刻の撮影画像の撮影時のカメラ14の位置を原点とし、前時刻の撮影画像の撮影時のカメラ14の姿勢を基準として、3次元の地図座標系を設定する。 In addition, the translation vector and the rotation matrix are calculated from the basic matrix obtained by estimation by singular value decomposition or the like. By calculating the translation vector and the rotation matrix, the position and orientation of the camera 14 at the time of shooting the captured image at the current time is estimated based on the position and orientation of the camera 14 at the time of capturing the captured image at the previous time. The three-dimensional map coordinate system is set with the position of the camera 14 at the time of shooting the captured image at the previous time as the origin and the posture of the camera 14 at the time of shooting the captured image at the previous time as a reference.

また、対応付けられた特徴点のペアの前時刻の撮影画像内の位置及び現時刻の撮影画像内の位置と、推定した、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換する。 In addition, the position in the captured image at the previous time and the position in the captured image at the current time of the pair of associated feature points, and the estimated position and orientation of the camera 14 at the time of capturing the captured image at the previous time. Using the position and orientation of the camera 14 at the time of shooting the captured image at the time, the three-dimensional coordinates of the feature points with respect to the position and orientation of the camera 14 at the time of capturing the captured image at the previous time are calculated by the principle of triangular surveying. do. Then, the three-dimensional coordinates are converted into the three-dimensional coordinates of the map coordinate system.

そして、各特徴点について求めた地図座標系の三次元座標及び特徴量を含めた環境地図情報を生成する。また、地図座標系における前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢と、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを求め、画像情報、及び画像に含まれる特徴点情報と共に、環境地図情報に格納する。 Then, the environment map information including the three-dimensional coordinates of the map coordinate system obtained for each feature point and the feature amount is generated. Further, the position and orientation of the camera 14 at the time of shooting the captured image at the previous time in the map coordinate system and the position and orientation of the camera 14 at the time of capturing the captured image at the current time are obtained and included in the image information and the image. It is stored in the environment map information together with the feature point information.

一方、初期化段階ではない場合、環境地図情報の各特徴点と、現時刻の撮影画像の特徴点とを照合して、地図座標系における現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を求める。 On the other hand, when it is not in the initialization stage, each feature point of the environmental map information is collated with the feature point of the captured image at the current time, and the position of the camera 14 at the time of capturing the captured image at the current time in the map coordinate system and Ask for a posture.

また、対応付けられた特徴点のうち、環境地図情報に登録されていない新しい特徴点が存在する場合には、当該新しい特徴点の現時刻の撮影画像内の位置及び他方の画像内の位置と、環境地図情報から得られる、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢と、求められた現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換する。 In addition, when there is a new feature point that is not registered in the environmental map information among the associated feature points, the position of the new feature point in the captured image at the current time and the position in the other image are used. , Triangular survey using the position and orientation of the camera 14 at the time of shooting the captured image at the previous time and the position and orientation of the camera 14 at the time of capturing the captured image at the obtained current time obtained from the environmental map information. According to the principle of, the three-dimensional coordinates of the feature points with respect to the position and orientation of the camera 14 at the time of shooting the captured image at the previous time are calculated. Then, the three-dimensional coordinates are converted into the three-dimensional coordinates of the map coordinate system.

そして、新しい特徴点について求めた地図座標系の三次元座標及び特徴量を環境地図情報に格納する。また、求められた現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を、画像情報、及び画像に含まれる特徴点情報と共に、環境地図情報に格納する。 Then, the three-dimensional coordinates and feature quantities of the map coordinate system obtained for the new feature points are stored in the environment map information. Further, the position and orientation of the camera 14 at the time of shooting the obtained captured image at the current time are stored in the environment map information together with the image information and the feature point information included in the image.

また、本実施形態に係る自車位置推定装置10の制御部12は、カメラ14によって撮影された撮影画像から特徴点を抽出し、環境地図情報に含まれる特徴点と照合して、地図座標系における撮影画像の撮影時のカメラ14の位置及び姿勢を求め、車両20の自己位置及び姿勢とする。このとき、環境地図を作成するときの同様に、舵角センサ16の検出結果に基づいて、現時刻の撮影画像の進行方向の領域を特定し、現時刻における撮影画像の進行方向の領域以外の特徴点を抽出する。 Further, the control unit 12 of the own vehicle position estimation device 10 according to the present embodiment extracts feature points from the captured image taken by the camera 14, collates them with the feature points included in the environmental map information, and collates the feature points with the map coordinate system. The position and orientation of the camera 14 at the time of taking the captured image in the above are obtained, and the self-position and orientation of the vehicle 20 are used. At this time, similarly to creating the environment map, the region in the traveling direction of the captured image at the current time is specified based on the detection result of the rudder angle sensor 16, and the region other than the region in the traveling direction of the captured image at the current time is specified. Extract feature points.

続いて、上述のように構成された本実施形態に係る自車位置推定装置10で行われる環境地図を生成する処理について説明する。図5は、本実施形態に係る自車位置推定装置10において環境地図生成プログラムを実行することで行われる処理の流れの一例を示すフローチャートであり、当該処理は、各時刻の撮影画像が取得される毎に繰り返し行われる。 Subsequently, the process of generating the environmental map performed by the own vehicle position estimation device 10 according to the present embodiment configured as described above will be described. FIG. 5 is a flowchart showing an example of the flow of processing performed by executing the environment map generation program in the own vehicle position estimation device 10 according to the present embodiment, and in the processing, captured images at each time are acquired. It is repeated every time.

ステップ100では、CPU12Aが、舵角センサ16の検出結果を取得してステップ102へ移行する。 In step 100, the CPU 12A acquires the detection result of the steering angle sensor 16 and proceeds to step 102.

ステップ102では、CPU12Aが、取得した舵角センサ16の検出結果に基づいて、車両20(カメラ14)の進行方向を算出してステップ104へ移行する。 In step 102, the CPU 12A calculates the traveling direction of the vehicle 20 (camera 14) based on the acquired detection result of the steering angle sensor 16 and proceeds to step 104.

ステップ104では、CPU12Aが、特徴点抽出領域を決定してステップ106へ移行する。特徴点抽出領域は、カメラ14の撮影画像における、ステップ102で算出した車両20の進行方向に対応する予め定めた範囲の領域以外の領域を特徴点の抽出領域として決定する。 In step 104, the CPU 12A determines the feature point extraction area and proceeds to step 106. The feature point extraction region is determined as a feature point extraction region in the image captured by the camera 14 other than the region in the predetermined range corresponding to the traveling direction of the vehicle 20 calculated in step 102.

ステップ106では、CPU12Aが、現時刻の撮影画像から特徴点を抽出してステップ108へ移行する。すなわち、ステップ104で決定した車両20の進行方向に対応する予め定めた範囲の領域以外の領域における特徴点を抽出する。例えば、FAST等を用いて車両20(カメラ14)の移動方向以外の領域から特徴点を抽出する。 In step 106, the CPU 12A extracts feature points from the captured image at the current time and proceeds to step 108. That is, feature points in a region other than the predetermined range corresponding to the traveling direction of the vehicle 20 determined in step 104 are extracted. For example, a feature point is extracted from a region other than the moving direction of the vehicle 20 (camera 14) by using FAST or the like.

ステップ108では、CPU12Aが、上記ステップ106で抽出された特徴点と、前時刻のステップ106で抽出された特徴点とに基づいて、前時刻の撮影画像と現時刻の撮影画像の画像間の特徴点を対応付けてステップ110へ移行する。すなわち、時刻の異なる撮影画像間の特徴点を対応付ける。例えば、ORB等の特徴量を用いて現時刻の特徴点と前時刻の特徴点とを対応付ける。なお、前時刻の撮影画像がない場合には、ステップ106以降の処理を行わずに終了する。 In step 108, the CPU 12A uses the feature points extracted in step 106 of the previous time and the feature points extracted in step 106 of the previous time to feature between the captured image at the previous time and the captured image at the current time. The points are associated with each other and the process proceeds to step 110. That is, the feature points between the captured images at different times are associated with each other. For example, a feature amount such as ORB is used to associate a feature point at the current time with a feature point at the previous time. If there is no captured image at the previous time, the process ends without performing the processes after step 106.

ステップ110では、CPU12Aが、初期化段階であるか否かを判定する。該判定は、地図上に特徴点が未登録であるか否かを判定する。該判定が肯定された場合にはステップ112へ移行し、否定された場合にはステップ116へ移行する。 In step 110, the CPU 12A determines whether or not it is in the initialization stage. The determination determines whether or not the feature points are not registered on the map. If the determination is affirmed, the process proceeds to step 112, and if the determination is denied, the process proceeds to step 116.

ステップ112では、CPU12Aが、対応付けた特徴点からカメラ14の位置及び姿勢を推定してステップ114へ移行する。例えば、前時刻の撮影画像を基準とする基本行列を推定する。また、特異値分解等によって、推定して得られた基本行列から並進ベクトル及び回転行列を算出し、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を基準とする現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を推定する。 In step 112, the CPU 12A estimates the position and orientation of the camera 14 from the associated feature points and proceeds to step 114. For example, an elementary matrix based on the captured image at the previous time is estimated. In addition, the translation vector and rotation matrix are calculated from the basic matrix estimated by singular value decomposition, etc., and the captured image at the current time is based on the position and orientation of the camera 14 at the time of capturing the captured image at the previous time. The position and orientation of the camera 14 at the time of shooting are estimated.

ステップ114では、CPU12Aが、カメラ14の位置及び姿勢に基づいて、特徴点の3次元位置を推定して地図に登録する。具体的には、対応付けられた特徴点のペアの前時刻の画撮影像内の位置及び現時刻の撮影画像内の位置と、推定した、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換して環境地図を生成し、生成した環境地図を記憶部18に記憶する。 In step 114, the CPU 12A estimates the three-dimensional position of the feature point based on the position and orientation of the camera 14 and registers it in the map. Specifically, the position in the image captured image at the previous time and the position in the captured image at the current time of the pair of associated feature points, and the estimated position of the camera 14 at the time of capturing the captured image at the previous time. Using the position and orientation of the camera 14 at the time of shooting the captured image at the current time with respect to the posture, the third order of the feature points with respect to the position and orientation of the camera 14 at the time of capturing the captured image at the current time by the principle of triangulation. Calculate the original coordinates. Then, the three-dimensional coordinates are converted into the three-dimensional coordinates of the map coordinate system to generate an environment map, and the generated environment map is stored in the storage unit 18.

一方、ステップ116では、CPU12Aが、地図上に既に登録された特徴点と、撮影画像上の特徴点から、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を推定してステップ118へ移行する。 On the other hand, in step 116, the CPU 12A estimates the position and orientation of the camera 14 at the time of shooting the captured image at the current time from the feature points already registered on the map and the feature points on the captured image, and proceeds to step 118. Transition.

ステップ118では、CPU12Aが、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に基づいて、新しい特徴点の3次元位置を推定して地図に登録することにより環境地図を生成する。すなわち、当該新しい特徴点の現時刻の撮影画像内の位置及び前時刻の撮影画像内の位置と、地図登録された、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢と、ステップ116で求めた現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換して環境地図を生成し、生成した環境地図を記憶部18に記憶する。 In step 118, the CPU 12A generates an environmental map by estimating the three-dimensional position of the new feature point and registering it in the map based on the position and orientation of the camera 14 at the time of shooting the captured image at the current time. That is, the position of the new feature point in the captured image at the current time, the position in the captured image at the previous time, the position and orientation of the camera 14 at the time of capturing the captured image at the previous time registered on the map, and step 116. Using the position and orientation of the camera 14 at the time of shooting the captured image at the current time obtained in the above, the third order of the feature points with respect to the position and orientation of the camera 14 at the time of capturing the captured image at the previous time according to the principle of triangulation. Calculate the original coordinates. Then, the three-dimensional coordinates are converted into the three-dimensional coordinates of the map coordinate system to generate an environment map, and the generated environment map is stored in the storage unit 18.

なお、図5の処理におけるステップ100〜106が自車位置推定用環境地図生成装置及び自車位置推定用環境地図生成プログラムの抽出部に対応し、ステップ108〜118が生成部に対応する。 In addition, steps 100 to 106 in the process of FIG. 5 correspond to the extraction unit of the own vehicle position estimation environment map generation device and the own vehicle position estimation environment map generation program, and steps 108 to 118 correspond to the generation unit.

次に、本実施形態に係る自車位置推定装置10で行われる自車位置を推定する処理について説明する。図6は、本実施形態に係る自車位置推定装置10において自車位置推定プログラムを実行することで行われる処理の流れの一例を示すフローチャートである。 Next, the process of estimating the own vehicle position performed by the own vehicle position estimation device 10 according to the present embodiment will be described. FIG. 6 is a flowchart showing an example of the flow of processing performed by executing the own vehicle position estimation program in the own vehicle position estimation device 10 according to the present embodiment.

ステップ200では、CPU12Aが、舵角センサ16の検出結果を取得してステップ202へ移行する。 In step 200, the CPU 12A acquires the detection result of the steering angle sensor 16 and proceeds to step 202.

ステップ202では、CPU12Aが、取得した舵角センサ16の検出結果に基づいて、車両20(カメラ14)の進行方向を算出してステップ204へ移行する。 In step 202, the CPU 12A calculates the traveling direction of the vehicle 20 (camera 14) based on the acquired detection result of the steering angle sensor 16 and proceeds to step 204.

ステップ204では、CPU12Aが、特徴点抽出領域を決定してステップ106へ移行する。特徴点抽出領域は、カメラ14の撮影画像における、ステップ202で算出した車両20の進行方向に対応する予め定めた範囲の領域以外の領域を特徴点の抽出領域として決定する。 In step 204, the CPU 12A determines the feature point extraction area and proceeds to step 106. The feature point extraction region is determined as a feature point extraction region in the image captured by the camera 14 other than the region in the predetermined range corresponding to the traveling direction of the vehicle 20 calculated in step 202.

ステップ206では、CPU12Aが、現時刻の撮影画像から特徴点を抽出してステップ208へ移行する。すなわち、ステップ204で決定した車両20の進行方向に対応する予め定めた範囲の領域以外の領域における特徴点を抽出する。例えば、FAST等を用いて車両20(カメラ14)の移動方向以外の領域から特徴点を抽出する。 In step 206, the CPU 12A extracts feature points from the captured image at the current time and proceeds to step 208. That is, feature points in a region other than the predetermined range corresponding to the traveling direction of the vehicle 20 determined in step 204 are extracted. For example, a feature point is extracted from a region other than the moving direction of the vehicle 20 (camera 14) by using FAST or the like.

ステップ208では、CPU12Aが、登録された環境地図に含まれる特徴点と、ステップ206で抽出された特徴点とを照合して、地図座標系における撮影画像の撮影時のカメラ14の位置及び姿勢を推定してステップ210へ移行する。 In step 208, the CPU 12A collates the feature points included in the registered environment map with the feature points extracted in step 206, and determines the position and orientation of the camera 14 at the time of shooting the captured image in the map coordinate system. Estimate and move to step 210.

ステップ210では、CPU12Aが、推定したカメラ14の位置及び姿勢から自車位置を推定して処理を終了する。すなわち、車両20に対するカメラ14の位置が分かっているので、カメラ14の位置及び姿勢から自車位置を推定する。 In step 210, the CPU 12A estimates the position of the own vehicle from the estimated position and orientation of the camera 14, and ends the process. That is, since the position of the camera 14 with respect to the vehicle 20 is known, the position of the own vehicle is estimated from the position and posture of the camera 14.

なお、図6の処理におけるステップ200〜206が自車位置推定装置及び自車位置推定プログラムの抽出部に対応し、ステップ208〜210が推定部に対応する。 Steps 200 to 206 in the process of FIG. 6 correspond to the extraction unit of the own vehicle position estimation device and the own vehicle position estimation program, and steps 208 to 210 correspond to the estimation unit.

以上説明したように、本実施形態では、車両20に搭載されたカメラ14によって撮影した撮影画像から進行方向の領域以外の領域の特徴点を抽出する際に、舵角センサ16の検出結果に基づいて撮影画像の進行方向を特定する。これにより、2つの撮影画像を用いて進行方向の領域を決定する場合より、車両20の進行方向の領域を検出する際の処理負荷を低減することができる。また、加速度センサ、角速度センサ、及び角加速度センサの検出結果を用いて車両20の進行方向の領域を検出する場合より、安定した進行方向の検出が可能となる。特に、車両20が低速で移動している場合には、加速度センサ、角速度センサ、及び角加速度センサから車両20の進行方向を検出することが困難となるが、舵角センサ16の検出結果を用いることにより、安定した進行方向の検出が可能となる。 As described above, in the present embodiment, when extracting feature points in a region other than the region in the traveling direction from the captured image taken by the camera 14 mounted on the vehicle 20, it is based on the detection result of the steering angle sensor 16. To specify the traveling direction of the captured image. As a result, the processing load when detecting the region in the traveling direction of the vehicle 20 can be reduced as compared with the case where the region in the traveling direction is determined using the two captured images. In addition, more stable detection of the traveling direction is possible than when the region of the vehicle 20 in the traveling direction is detected by using the detection results of the acceleration sensor, the angular velocity sensor, and the angular acceleration sensor. In particular, when the vehicle 20 is moving at a low speed, it is difficult to detect the traveling direction of the vehicle 20 from the acceleration sensor, the angular velocity sensor, and the angular acceleration sensor, but the detection result of the steering angle sensor 16 is used. This enables stable detection of the traveling direction.

また、特徴点を抽出する際に、進行方向の領域以外の領域を抽出するので、撮影画像の全域から特徴点の抽出を抽出するよりも処理負荷を軽減することができる。 Further, since the region other than the region in the traveling direction is extracted when the feature points are extracted, the processing load can be reduced as compared with the extraction of the feature points from the entire captured image.

さらに、特徴点の移動量が大きくなる進行方向以外の領域から特徴点を抽出するので、特徴点の3次元位置を推定する際の視差に対応する撮影画像間の特徴点のずれが大きくなるため、特徴点の3次元位置の位置精度が高い環境地図を生成することができる。特に、車両20の走行経路に制約がある駐車空間等のような局所空間における環境地図を生成する際の地図精度を向上できる。 Further, since the feature points are extracted from the region other than the traveling direction in which the movement amount of the feature points becomes large, the deviation of the feature points between the captured images corresponding to the parallax when estimating the three-dimensional position of the feature points becomes large. , It is possible to generate an environmental map with high positional accuracy of the three-dimensional positions of the feature points. In particular, it is possible to improve the map accuracy when generating an environmental map in a local space such as a parking space where the traveling route of the vehicle 20 is restricted.

そして、このように生成した環境地図を自動駐車システム等に適用した場合には、高精度の環境地図を用いて車両20を誘導できるので、狭い場所に駐車することが可能となる。 When the environmental map generated in this way is applied to an automatic parking system or the like, the vehicle 20 can be guided by using the high-precision environmental map, so that the vehicle 20 can be parked in a narrow place.

なお、上記の実施形態では、撮影画像における車両20の進行方向に対応する領域以外の領域における特徴点を抽出してカメラ14の位置及び姿勢を求めるようにしたが、これに限るものではない。例えば、撮影画像の全域の特徴点を抽出して、車両20の進行方向に対応する領域以外の領域の重み付けを高くしてカメラ14の位置及び姿勢を推定してもよい。例えば、前時刻の撮影画像における特徴点の位置から推定した現時刻の特徴点の位置と、現時刻における特徴点の位置との誤差を評価関数として、この評価関数が最小となるカメラ14の位置及び姿勢を推定する際に、評価関数に重みをかけてカメラ14の位置及び姿勢を推定する。 In the above embodiment, feature points in a region other than the region corresponding to the traveling direction of the vehicle 20 in the captured image are extracted to obtain the position and posture of the camera 14, but the present invention is not limited to this. For example, the position and orientation of the camera 14 may be estimated by extracting feature points in the entire region of the captured image and increasing the weighting of the region other than the region corresponding to the traveling direction of the vehicle 20. For example, the position of the camera 14 at which this evaluation function is minimized is set as the evaluation function by using the error between the position of the feature point at the current time estimated from the position of the feature point in the captured image at the previous time and the position of the feature point at the current time as an evaluation function. And when estimating the posture, the evaluation function is weighted to estimate the position and posture of the camera 14.

また、上記の実施形態における制御部12で行われる図5、6の処理は、コンピュータがプログラムを実行することにより行われるソフトウエア処理として説明したが、ハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアで行う処理とする場合のプログラムは、各種記憶媒体に記憶して流通させるようにしてもよい。 Further, although the processes of FIGS. 5 and 6 performed by the control unit 12 in the above embodiment have been described as software processes performed by executing a program by a computer, they may be processes performed by hardware. Alternatively, the processing may be a combination of both software and hardware. Further, the program to be processed by software may be stored in various storage media and distributed.

また、上記の実施形態では、カメラ14が車両20の後部に設けて、車両後方を撮影する形態を説明したが、これに限るものではない。例えば、車両20の前部に設けて、車両前方を撮影する形態や、車両20の側方に設けて、車両前側方及び車両後側方の少なくとも一方を撮影する形態としてもよい。 Further, in the above embodiment, the mode in which the camera 14 is provided at the rear of the vehicle 20 to photograph the rear of the vehicle has been described, but the present invention is not limited to this. For example, it may be provided in the front part of the vehicle 20 to photograph the front of the vehicle, or may be provided in the side of the vehicle 20 to photograph at least one of the front side of the vehicle and the rear side of the vehicle.

また、上記の実施形態では、環境地図生成プログラム及び自車位置推定プログラムを予め制御部12のROM12Bに記憶した形態として説明したが、これに限るものではない。例えば、環境地図生成プログラム及び自車位置推定プログラムは、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、環境地図生成プログラム及び自車位置推定プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。 Further, in the above embodiment, the environment map generation program and the own vehicle position estimation program have been described as being stored in the ROM 12B of the control unit 12 in advance, but the present invention is not limited to this. For example, the environment map generation program and the vehicle position estimation program can be used in recording media such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only Memory), and a USB (Universal Serial Bus) memory. It may be provided in recorded form. Further, the environment map generation program and the own vehicle position estimation program may be downloaded from an external device via a network.

さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。 Further, the present invention is not limited to the above, and it goes without saying that the present invention can be variously modified and implemented within a range not deviating from the gist thereof.

10 自車位置推定装置
12 制御部
14 カメラ
16 舵角センサ
18 記憶部
20 車両
10 Own vehicle position estimation device 12 Control unit 14 Camera 16 Steering angle sensor 18 Storage unit 20 Vehicle

Claims (5)

車両の移動方向を撮影する撮影部と、
車両の舵角を検出する検出部の検出結果を取得する取得部と、
前記取得部によって取得した前記検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記取得部によって取得した前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、
前記抽出部が抽出した特徴点と、異なる位置で撮影した他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する生成部と、
を含む自車位置推定用環境地図生成装置。
A shooting unit that captures the direction of movement of the vehicle,
An acquisition unit that acquires the detection result of the detection unit that detects the steering angle of the vehicle,
Using the detection result acquired by the acquisition unit, feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the imaging unit, or the acquisition is performed. Using the detection result acquired by the unit, feature points are extracted from the entire area of the captured image, and the weighting of other regions is larger than the weighting of the region in the predetermined range corresponding to the moving direction of the vehicle in the captured image. Extraction part and
The position and posture of the vehicle are estimated based on the correspondence between the feature points extracted by the extraction unit and the feature points of other captured images taken at different positions, and the three-dimensional feature points are estimated based on the estimation result. A generator that finds the position and generates a local environmental map,
Environmental map generator for vehicle position estimation including.
前記生成部は、局所的な環境地図として、車両の走行経路に制約がある駐車空間の環境地図を生成する請求項1に記載の自車位置推定用環境地図生成装置。 The environment map generation device for estimating the position of the own vehicle according to claim 1, wherein the generation unit generates an environment map of a parking space in which the traveling route of the vehicle is restricted as a local environment map. 車両の移動方向を撮影する撮影部と、
車両の舵角を検出する検出部の検出結果を取得する取得部と、
前記取得部によって取得した前記検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記取得部によって取得した前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、
前記抽出部が抽出した特徴点と、予め生成された三次元座標及び特徴量を含めた環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、自車両の位置を推定する推定部と、
を含む自車位置推定装置。
A shooting unit that captures the direction of movement of the vehicle,
An acquisition unit that acquires the detection result of the detection unit that detects the steering angle of the vehicle,
Using the detection result acquired by the acquisition unit, feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the imaging unit, or the acquisition is performed. Using the detection result acquired by the unit, feature points are extracted from the entire area of the captured image, and the weighting of other regions is larger than the weighting of the region in the predetermined range corresponding to the moving direction of the vehicle in the captured image. Extraction part and
The position and orientation of the vehicle are estimated based on the feature points extracted by the extraction unit and the corresponding feature points on the environmental map including the three-dimensional coordinates and the feature amount generated in advance, and based on the estimation result. , The estimation unit that estimates the position of the own vehicle,
Own vehicle position estimation device including.
車両の舵角を検出する検出部の検出結果を取得し、前記検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出する共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、
抽出した特徴点と、異なる位置で撮影した他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、
推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する処理をコンピュータに実行させるための自車位置推定用環境地図生成プログラム。
Acquire the detection result of the detection unit that detects the steering angle of the vehicle, and use the detection result to capture the moving direction of the vehicle. A predetermined range corresponding to the moving direction of the vehicle in the captured image taken by the photographing unit. The feature points are extracted from the region other than the region of, or the feature points are extracted from the entire region of the captured image by using the detection result, and the region of a predetermined range corresponding to the moving direction of the vehicle in the captured image. Increase the weighting of other areas than the weighting of
The position and orientation of the vehicle are estimated based on the correspondence between the extracted feature points and the feature points of other captured images taken at different positions.
An environment map generation program for estimating the position of the own vehicle for causing a computer to execute a process of generating a local environment map by obtaining a three-dimensional position of a feature point based on the estimation result.
車両の舵角を検出する検出部の検出結果を取得し、前記検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、
抽出した特徴点と、予め生成された三次元座標及び特徴量を含めた環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、
推定結果に基づいて、自車両の位置を推定する処理をコンピュータに実行させるための自車位置推定プログラム。
Acquire the detection result of the detection unit that detects the steering angle of the vehicle, and use the detection result to capture the moving direction of the vehicle. A predetermined range corresponding to the moving direction of the vehicle in the captured image taken by the photographing unit. The feature points are extracted from the region other than the region of the above, or the feature points are extracted from the entire region of the captured image by using the detection result, and the region of a predetermined range corresponding to the moving direction of the vehicle in the captured image. Increase the weighting of other areas than the weighting of
The position and orientation of the vehicle are estimated based on the extracted feature points and the corresponding feature points on the environmental map including the three-dimensional coordinates and feature quantities generated in advance.
A vehicle position estimation program for causing a computer to execute a process of estimating the position of the vehicle based on the estimation result.
JP2017109071A 2017-06-01 2017-06-01 Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program Active JP6905390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017109071A JP6905390B2 (en) 2017-06-01 2017-06-01 Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017109071A JP6905390B2 (en) 2017-06-01 2017-06-01 Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program

Publications (2)

Publication Number Publication Date
JP2018205950A JP2018205950A (en) 2018-12-27
JP6905390B2 true JP6905390B2 (en) 2021-07-21

Family

ID=64957164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017109071A Active JP6905390B2 (en) 2017-06-01 2017-06-01 Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program

Country Status (1)

Country Link
JP (1) JP6905390B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7173471B2 (en) * 2019-01-31 2022-11-16 株式会社豊田中央研究所 3D position estimation device and program
US11987287B2 (en) 2019-04-12 2024-05-21 Continental Autonomous Mobility US, LLC Autonomous truck-trailer maneuvering and parking
WO2020255408A1 (en) * 2019-06-21 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント Image taking data generation device, image taking data generation method, and program
CN110992420B (en) * 2019-12-18 2023-07-21 天地伟业技术有限公司 System and method for detecting granary vehicle carrying condition

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004114977A (en) * 2002-09-30 2004-04-15 Aisin Seiki Co Ltd Moving body periphery monitoring device
JP2007127525A (en) * 2005-11-04 2007-05-24 Aisin Aw Co Ltd Moving amount arithmetic unit
JP4341705B2 (en) * 2007-07-17 2009-10-07 トヨタ自動車株式会社 In-vehicle image processing device
KR20120021064A (en) * 2010-08-31 2012-03-08 엘지전자 주식회사 Mobile robot and controlling method of the same
JP5652239B2 (en) * 2011-02-15 2015-01-14 株式会社豊田中央研究所 Motion estimation apparatus and program
JP6234349B2 (en) * 2014-09-16 2017-11-22 株式会社東芝 Mobile object position estimation device, mobile object position estimation method, and mobile object position estimation program
JP2016157197A (en) * 2015-02-23 2016-09-01 株式会社リコー Self-position estimation device, self-position estimation method, and program

Also Published As

Publication number Publication date
JP2018205950A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
CN112785702B (en) SLAM method based on tight coupling of 2D laser radar and binocular camera
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101708659B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
JP6905390B2 (en) Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program
JP6658001B2 (en) Position estimation device, program, position estimation method
JP4943034B2 (en) Stereo image processing device
JP2009266224A (en) Method and system for real-time visual odometry
AU2015334707B2 (en) Optical Inertial Measurement Apparatus and Method
CN105324792B (en) For estimating method of the moving element relative to the angular displacement of reference direction
JP7173471B2 (en) 3D position estimation device and program
KR102001636B1 (en) Apparatus and method of processing a depth image using a relative angle between an image sensor and a target object
KR102559203B1 (en) Method and apparatus of outputting pose information
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP6116765B1 (en) Object detection apparatus and object detection method
Panahandeh et al. Vision-aided inertial navigation using planar terrain features
JP6872426B2 (en) Environmental map generation method, environmental map generation device, and environmental map generation program
US10977810B2 (en) Camera motion estimation
US20220277480A1 (en) Position estimation device, vehicle, position estimation method and position estimation program
JP2017196948A (en) Three-dimensional measurement device and three-dimensional measurement method for train facility
WO2019186677A1 (en) Robot position/posture estimation and 3d measurement device
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
JPWO2021166742A5 (en) Object ranging device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210625

R150 Certificate of patent or registration of utility model

Ref document number: 6905390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250