JP6905390B2 - Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program - Google Patents
Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program Download PDFInfo
- Publication number
- JP6905390B2 JP6905390B2 JP2017109071A JP2017109071A JP6905390B2 JP 6905390 B2 JP6905390 B2 JP 6905390B2 JP 2017109071 A JP2017109071 A JP 2017109071A JP 2017109071 A JP2017109071 A JP 2017109071A JP 6905390 B2 JP6905390 B2 JP 6905390B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- feature points
- captured image
- region
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 50
- 230000007613 environmental effect Effects 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、自車の位置を推定するための地図を生成す自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラムに関する。 The present invention relates to an environment map generator for estimating the position of the own vehicle, an environment map generator for estimating the position of the own vehicle, an environment map generation program for estimating the position of the own vehicle, and an environment map generator for estimating the position of the own vehicle, which generates a map for estimating the position of the own vehicle. ..
移動体に搭載されたカメラ等の撮影部によって撮影された撮影画像に基づいて、3次元空間上における移動体の位置を推定する技術が提案されている。 A technique for estimating the position of a moving body in a three-dimensional space has been proposed based on a captured image taken by a photographing unit such as a camera mounted on the moving body.
例えば、特許文献1では、第1画像に関する第1データと、移動体の移動に伴う前記第1画像との差異を含む第2画像に関する第2データと、を含む情報を取得する取得部と、前記情報に基づいて移動体の移動に伴う回転の方向を推定する方向推定処理と、回転の方向に基づいて、第1画像内の第1領域内の複数の第1特徴点と、第1画像内の第2領域内の複数の第2特徴点と、を検出し、前記複数の第1特徴点の第1領域内における第1密度は、複数の第2特徴点の第2領域内における第2密度よりも高い検出処理と、第2画像内の第3領域内の複数の第1対応点であって、複数の第1対応点のそれぞれは複数の第1特徴点の少なくともいずれかのそれぞれに対応する複数の第1対応点を求め、複数の第1特徴点のそれぞれと、複数の第1対応点のそれぞれと、に基づいて、移動体の位置の変化を推定する位置推定処理と、を実施する処理部と、を備えた移動体位置推定装置が提案されている。 For example, in Patent Document 1, an acquisition unit that acquires information including first data relating to a first image and second data relating to a second image including a difference between the first image due to movement of a moving body and the like. A direction estimation process for estimating the direction of rotation accompanying the movement of the moving body based on the above information, a plurality of first feature points in the first region in the first image based on the direction of rotation, and a first image. A plurality of second feature points in the second feature point are detected, and the first density of the plurality of first feature points in the first region is the first density of the plurality of second feature points in the second region. Detection processing higher than 2 densities and a plurality of first correspondence points in a third region in the second image, each of the plurality of first correspondence points is at least one of a plurality of first feature points. A position estimation process for estimating a change in the position of a moving body based on each of a plurality of first feature points and each of a plurality of first corresponding points by obtaining a plurality of first corresponding points corresponding to the above. A moving body position estimation device including a processing unit for carrying out the above has been proposed.
また、特許文献1では、移動体の移動に伴う回転方向の推定を、取得して情報から推定する以外に、速度センサ、加速度センサと、角速度センサ、及び角加速度センサを用いて推定することが記載されている。 Further, in Patent Document 1, in addition to acquiring and estimating the rotation direction accompanying the movement of the moving body from the information, it is possible to estimate using a speed sensor, an acceleration sensor, an angular velocity sensor, and an angular acceleration sensor. Has been described.
しかしながら、特許文献1の技術のように、2つの撮影画像に基づいて移動体の移動に伴う移動体に搭載された撮影部の回転方向を推定する場合、回転方向を検出するために2つの撮影画像の特徴点等を比較する等の処理負荷が高くなるため、改善の余地がある。また、速度センサ、加速度センサと、角速度センサ、及び角加速度センサの検出結果に基づいて移動体の移動に伴う撮影部の回転方向を推定する場合には、加速度センサ、角速度センサ、及び角加速度センサはノイズが大きいため、移動体の移動に伴う撮影部の回転方向を安定的に推定する上で、改善の余地がある。特に、低速域では、移動体の移動に伴う撮影部の回転方向を安定的に推定できない。 However, as in the technique of Patent Document 1, when the rotation direction of the photographing unit mounted on the moving body is estimated based on the movement of the moving body based on the two captured images, two images are taken in order to detect the rotation direction. There is room for improvement because the processing load such as comparing the feature points of images becomes high. Further, when estimating the rotation direction of the photographing unit accompanying the movement of the moving body based on the detection results of the speed sensor, the acceleration sensor, the angular velocity sensor, and the angular acceleration sensor, the acceleration sensor, the angular velocity sensor, and the angular acceleration sensor are used. Since the noise is large, there is room for improvement in stably estimating the rotation direction of the photographing unit due to the movement of the moving object. In particular, in the low speed range, the rotation direction of the photographing unit due to the movement of the moving body cannot be stably estimated.
また、環境地図を生成する場合に、移動体の移動に伴う撮影部の回転方向を安定的に推定できないと、特徴点を抽出する画像領域を適切に設定できないため地図精度が低下し、移動体の位置の推定精度も低下する。 Further, when generating an environmental map, if the rotation direction of the photographing unit due to the movement of the moving object cannot be estimated stably, the image area for extracting the feature points cannot be set appropriately, so that the map accuracy is lowered and the moving object is generated. The estimation accuracy of the position of is also reduced.
本発明は、上記事実を考慮して成されたもので、撮影部の位置及び姿勢を安定的に推定可能な自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、並びに自車位置推定プログラムを提供することを目的とする。 The present invention has been made in consideration of the above facts, and is an environment map generation device for estimating the position of the own vehicle, a position estimation device for the own vehicle, and an estimation of the position of the own vehicle that can stably estimate the position and posture of the photographing unit. It is an object of the present invention to provide an environmental map generation program and a vehicle position estimation program.
上記目的を達成するために本発明に係る自車位置推定用環境地図生成装置は、車両の移動方向を撮影する撮影部と、車両の舵角を検出する検出部の検出結果を取得する取得部と、前記取得部によって取得した前記検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記取得部によって取得した前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、前記抽出部が抽出した特徴点と、異なる位置で撮影した他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する生成部と、を含む。 In order to achieve the above object, the vehicle position estimation environment map generator according to the present invention has an imaging unit that captures the moving direction of the vehicle and an acquisition unit that acquires the detection results of the detection unit that detects the steering angle of the vehicle. Then, using the detection result acquired by the acquisition unit, feature points are extracted from an area other than a predetermined range corresponding to the moving direction of the vehicle in the photographed image captured by the photographing unit, or Using the detection result acquired by the acquisition unit, feature points are extracted from the entire region of the captured image, and other regions are weighted than the weighting of regions in a predetermined range corresponding to the moving direction of the vehicle in the captured image. The position and orientation of the vehicle are estimated based on the correspondence between the extraction unit for increasing the size, the feature points extracted by the extraction unit, and the feature points of other captured images taken at different positions, and based on the estimation result. It includes a generation unit that obtains the three-dimensional position of the feature point and generates a local environmental map.
なお、前記生成部は、局所的な環境地図として、車両の走行経路に制約がある局所空間の環境地図を生成してもよい。 The generation unit may generate an environmental map of a local space having restrictions on the traveling route of the vehicle as a local environmental map.
また、上記目的を達成するために本発明に係る自車位置推定装置は、車両の移動方向を撮影する撮影部と、車両の舵角を検出する検出部の検出結果を取得する取得部と、前記取得部によって取得した前記検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記取得部によって取得した前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、前記抽出部が抽出した特徴点と、予め生成された三次元座標及び特徴量を含めた環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、自車両の位置を推定する推定部と、を含む。 Further, in order to achieve the above object, the own vehicle position estimation device according to the present invention includes a photographing unit that photographs the moving direction of the vehicle, an acquisition unit that acquires the detection result of the detecting unit that detects the steering angle of the vehicle, and the acquisition unit. Using the detection result acquired by the acquisition unit, feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the imaging unit, or the acquisition is performed. Using the detection result acquired by the unit, feature points are extracted from the entire region of the captured image, and the weighting of other regions is larger than the weighting of the region in the predetermined range corresponding to the moving direction of the vehicle in the captured image. The position and orientation of the vehicle are estimated based on the extraction unit, the feature points extracted by the extraction unit, and the corresponding feature points on the environmental map including the three-dimensional coordinates and the feature amount generated in advance. It includes an estimation unit that estimates the position of the own vehicle based on the estimation result.
また、上記目的を達成するために本発明に係る自車位置推定用環境地図生成プログラムは、車両の舵角を検出する検出部の検出結果を取得し、前記検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出する共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、抽出した特徴点と、異なる位置で撮影した他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する処理をコンピュータに実行させる。 Further, in order to achieve the above object, the own vehicle position estimation environment map generation program according to the present invention acquires the detection result of the detection unit that detects the steering angle of the vehicle, and uses the detection result to move the vehicle. Feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the photographing unit that captures the direction, or the entire area of the captured image is used by using the detection result. increasing the weighting of the other region than the weighting of the region of a predetermined range corresponding to the moving direction of the vehicle at both the captured image and extracts feature points from the extracted feature points has, captured another taken at different positions The position and attitude of the vehicle are estimated based on the correspondence with the feature points of the image, the three-dimensional position of the feature points is obtained based on the estimation result, and the process of generating a local environmental map is executed on the computer. Let me.
また、上記目的を達成するために本発明に係る自車位置推定プログラムは、車両の舵角を検出する検出部の検出結果を取得し、前記検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、抽出した特徴点と、予め生成された三次元座標及び特徴量を含めた環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、自車両の位置を推定する処理をコンピュータに実行させる。 Further, in order to achieve the above object, the own vehicle position estimation program according to the present invention acquires the detection result of the detection unit that detects the steering angle of the vehicle, and uses the detection result to photograph the moving direction of the vehicle. Feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the photographing unit, or the feature points are extracted from the entire region of the captured image using the detection result. In addition to extracting, the weighting of other areas is made larger than the weighting of the area in the predetermined range corresponding to the moving direction of the vehicle in the captured image, and the extracted feature points, the three-dimensional coordinates and the feature amount generated in advance are included. It was on the environmental map corresponding based on the feature points to estimate the position and orientation of the vehicle, based on the estimation result, thereby executing the process of estimating the position of the vehicle to the computer.
以上説明したように本発明によれば、撮影部の位置及び姿勢を安定的に推定することが可能となる、という効果がある。 As described above, according to the present invention, there is an effect that the position and orientation of the photographing unit can be stably estimated.
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る自車位置推定装置を搭載する車両20を示す図であり、図2は、本実施形態に係る自車位置推定装置の概略構成を示すブロック図である。
Hereinafter, an example of the embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a
自車位置推定装置10は、撮影部としてのカメラ14を備えている。カメラ14は、車両後部のトランク等に設けられ、車両後方を撮影する。カメラ14は、例えば、図1に示すように、車幅方向の略中央部付近に設けられ、かつカメラ14の光軸が水平方向より若干下側を向くように配置されている。
The own vehicle
また、自車位置推定装置10は、自車位置を推定するための演算等を行う制御部12を備えている。制御部12は、例えば、図2に示すように、CPU12A、ROM12B、RAM12C、及びI/O(入出力インターフェース)12Dがバス12Eに接続されたコンピュータで構成される。
Further, the own vehicle
ROM12Bには、環境地図を生成するための環境地図生成プログラムや、自車位置を推定する自車位置推定プログラムを含む各種プログラムやデータ等が記憶されている。ROM12Bに記憶されたプログラムをRAM12Cに展開してCPU12Aが実行することにより、環境地図の生成や、自車位置の推定が行われる。
The
I/O12Dには、カメラ14が接続されていると共に、車両20の操舵角度を検出する舵角センサ16が接続されている。そして、カメラ14の撮影画像及び舵角センサ16によって検出された操舵角度(以下、舵角という。)が制御部12に入力される。
A
また、I/O12Dには、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等の記憶部18が接続されている。なお、記憶部18は制御部12内に設けてもよいし、外部接続可能としてもよい。また、記憶部18には制御部12の制御によって生成した環境地図を記憶するが、環境地図生成プログラムや自車位置推定プログラムを記憶してもよい。
Further, a storage unit 18 such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), and a flash memory is connected to the I /
制御部12は、環境地図生成プログラムを実行することにより、カメラ14によって撮影された撮影画像と、舵角センサ16によって検出された舵角と、に基づいて、3次元の点群の環境地図を生成して記憶部18に記憶する。また、制御部12は、自車位置推定プログラムを実行することにより、記憶部18に記憶された環境地図に基づいて自車位置を推定する。本実施形態では、制御部12が、生成する環境地図としては、局所的な環境地図を生成するが、より具体的には、車両20の走行経路に制約がある局所空間(例えば、駐車空間等)の環境地図を生成する。
By executing the environment map generation program, the
ここで、本実施形態に係る自車位置推定装置10による環境地図の作成方法について説明する。
Here, a method of creating an environmental map by the own vehicle
本実施形態に係る自車位置推定装置10の制御部12は、異なる2位置でカメラ14によって撮影された各撮影画像から特徴点をそれぞれ抽出して、対応する特徴点同士を対応付ける。そして、2つの撮影画像の対応する特徴点に基づいて、カメラ14の位置及び姿勢を推定し、特徴点の3次元座標を算出して、環境地図を生成する。
The
具体的には、制御部12が、現時刻の撮影画像を取得し、前時刻の撮影画像とのペアを生成する。そして、舵角センサ16の検出結果に基づいて、図3に示すように、現時刻の撮影画像の進行方向の領域を特定する。そして、制御部12が、現時刻における撮影画像の進行方向の領域(図3の点線丸で示す領域)以外の特徴点を抽出する。前時刻における撮影画像についても、同様に、進行方向の領域以外の特徴点が既に抽出されているものとする。
Specifically, the
ここで、進行方向の領域以外の領域は、本実施形態では、舵角センサ16によって検出された舵角に基づいて撮影画像の進行方向の領域を導出することにより特定する。すなわち、車両20の舵角が分かれば、進行方向は決定できるので、舵角センサ16によって検出された舵角から、撮影画像の進行方向の領域を特定することができる。これにより、2つの撮影画像を用いて進行方向の領域を決定する場合より、車両20の進行方向の領域を検出する際の処理負荷を低減することができる。また、加速度センサ、角速度センサ、及び角加速度センサの検出結果を用いて車両20の進行方向の領域を検出する場合より、安定した進行方向の検出が可能となる。特に、車両20が低速で移動している場合には、加速度センサ、角速度センサ、及び角加速度センサから車両20の進行方向を検出することが困難となるが、舵角センサ16の検出結果を用いることにより、安定した進行方向の検出が可能となる。なお、進行方向の領域は、舵角から検出した進行方向を含む予め定めた範囲の領域を特定する。例えば、進行方向の領域は、撮影画像を複数分割しておき、舵角センサ16によって検出された舵角に基づいて、撮影画像の複数分割してある領域の中から対応付けることで特定する。
Here, in the present embodiment, the region other than the region in the traveling direction is specified by deriving the region in the traveling direction of the captured image based on the steering angle detected by the steering angle sensor 16. That is, since the traveling direction can be determined if the steering angle of the
特徴点の抽出方法としては、例えば、ORB−SLAMを適用することができる。ORB−SLAMは、特徴点としてコーナーを検出し、検出手法にFAST(Features from Accelerated Segment Test)を用いるものである。また、ORB−SLAMは、特徴量の記述にORB(Oriented FAST and Rotated BRIEF)を用いる。ORBは、BRIEF(Binary Robust Independent Elementary Features)をベースとして、スケール不変性と回転不変性とを有するように発展させたものである。ORB−SLAMについては以下の参考文献1に開示されているため、詳細な説明を省略する。
[参考文献1]Raul Mur-Artal, J.M.M.Montiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015.
As a method for extracting feature points, for example, ORB-SLAM can be applied. ORB-SLAM detects a corner as a feature point and uses FAST (Features from Accelerated Segment Test) as a detection method. In addition, ORB-SLAM uses ORB (Oriented FAST and Rotated BRIEF) to describe the features. The ORB is based on BRIEF (Binary Robust Independent Elementary Features) and has been developed to have scale invariance and rotation invariance. Since ORB-SLAM is disclosed in Reference 1 below, detailed description thereof will be omitted.
[Reference 1] Raul Mur-Artal, JMMMontiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015.
例えば、現時刻の撮影画像の一例を図4(A)に示し、前時刻の撮影画像の一例を図4(B)に示す。この例の場合には、舵角センサ16の検出結果から特定したそれぞれの進行方向の領域は、図中の点線丸で示す領域とされ、この領域以外の領域の特徴点を抽出した結果を実線の丸で示す。 For example, an example of the captured image at the current time is shown in FIG. 4 (A), and an example of the captured image at the previous time is shown in FIG. 4 (B). In the case of this example, the region in each traveling direction specified from the detection result of the rudder angle sensor 16 is defined as the region indicated by the dotted line circle in the figure, and the result of extracting the feature points of the region other than this region is the solid line. It is indicated by a circle.
また、特徴点を抽出する際には、撮影画像における車両20の進行方向に対応する領域では、進行方向の領域以外の領域に比べて、特徴点の移動量が少ないため、進行方向の予め定めた領域以外の領域における特徴点を抽出する。これにより、撮影画像の全面の特徴点を抽出する場合に比べて特徴点を抽出する処理負荷を低減することができる。また、特徴点の移動量が大きくなる領域から特徴点を抽出することにより、以降の処理において特徴点の3次元位置を推定する際の視差に対応する撮影画像間の対応する特徴点のずれが大きくなるため、より正確な3次元位置の推定が可能となる。特に、駐車空間等のように車両20の走行経路に制約がある局所空間では、進行方向の予め定めた領域以外の領域における特徴点を抽出することにより、正確な3次元位置の推定が可能となる。
Further, when extracting the feature points, the moving amount of the feature points is smaller in the region corresponding to the traveling direction of the
また、現時刻と前時刻のそれぞれの撮影画像間の特徴点の対応付けは、例えば、上述のORB等の特徴量を用いて現時刻の特徴点と前時刻の特徴点とを対応付ける。 Further, in the association of the feature points between the captured images of the current time and the previous time, for example, the feature points of the current time and the feature points of the previous time are associated with each other by using the feature amount such as ORB described above.
また、カメラ14の位置及び姿勢の推定と特徴点の3次元座標の算出とでは、初期化段階において、対応付けられた複数組の特徴点のペアから、例えば、5点法及び7点法等を用いて、前時刻の撮影画像を基準とする基本行列を推定する。なお、現時刻の撮影画像を基準とする基本行列を推定してもよい。
Further, in the estimation of the position and orientation of the
また、特異値分解等によって、推定して得られた基本行列から並進ベクトル及び回転行列を算出する。この並進ベクトル及び回転行列の算出により、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を基準とする現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を推定する。なお、前時刻の撮影画像の撮影時のカメラ14の位置を原点とし、前時刻の撮影画像の撮影時のカメラ14の姿勢を基準として、3次元の地図座標系を設定する。
In addition, the translation vector and the rotation matrix are calculated from the basic matrix obtained by estimation by singular value decomposition or the like. By calculating the translation vector and the rotation matrix, the position and orientation of the
また、対応付けられた特徴点のペアの前時刻の撮影画像内の位置及び現時刻の撮影画像内の位置と、推定した、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換する。
In addition, the position in the captured image at the previous time and the position in the captured image at the current time of the pair of associated feature points, and the estimated position and orientation of the
そして、各特徴点について求めた地図座標系の三次元座標及び特徴量を含めた環境地図情報を生成する。また、地図座標系における前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢と、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを求め、画像情報、及び画像に含まれる特徴点情報と共に、環境地図情報に格納する。
Then, the environment map information including the three-dimensional coordinates of the map coordinate system obtained for each feature point and the feature amount is generated. Further, the position and orientation of the
一方、初期化段階ではない場合、環境地図情報の各特徴点と、現時刻の撮影画像の特徴点とを照合して、地図座標系における現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を求める。
On the other hand, when it is not in the initialization stage, each feature point of the environmental map information is collated with the feature point of the captured image at the current time, and the position of the
また、対応付けられた特徴点のうち、環境地図情報に登録されていない新しい特徴点が存在する場合には、当該新しい特徴点の現時刻の撮影画像内の位置及び他方の画像内の位置と、環境地図情報から得られる、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢と、求められた現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換する。
In addition, when there is a new feature point that is not registered in the environmental map information among the associated feature points, the position of the new feature point in the captured image at the current time and the position in the other image are used. , Triangular survey using the position and orientation of the
そして、新しい特徴点について求めた地図座標系の三次元座標及び特徴量を環境地図情報に格納する。また、求められた現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を、画像情報、及び画像に含まれる特徴点情報と共に、環境地図情報に格納する。
Then, the three-dimensional coordinates and feature quantities of the map coordinate system obtained for the new feature points are stored in the environment map information. Further, the position and orientation of the
また、本実施形態に係る自車位置推定装置10の制御部12は、カメラ14によって撮影された撮影画像から特徴点を抽出し、環境地図情報に含まれる特徴点と照合して、地図座標系における撮影画像の撮影時のカメラ14の位置及び姿勢を求め、車両20の自己位置及び姿勢とする。このとき、環境地図を作成するときの同様に、舵角センサ16の検出結果に基づいて、現時刻の撮影画像の進行方向の領域を特定し、現時刻における撮影画像の進行方向の領域以外の特徴点を抽出する。
Further, the
続いて、上述のように構成された本実施形態に係る自車位置推定装置10で行われる環境地図を生成する処理について説明する。図5は、本実施形態に係る自車位置推定装置10において環境地図生成プログラムを実行することで行われる処理の流れの一例を示すフローチャートであり、当該処理は、各時刻の撮影画像が取得される毎に繰り返し行われる。
Subsequently, the process of generating the environmental map performed by the own vehicle
ステップ100では、CPU12Aが、舵角センサ16の検出結果を取得してステップ102へ移行する。
In
ステップ102では、CPU12Aが、取得した舵角センサ16の検出結果に基づいて、車両20(カメラ14)の進行方向を算出してステップ104へ移行する。
In
ステップ104では、CPU12Aが、特徴点抽出領域を決定してステップ106へ移行する。特徴点抽出領域は、カメラ14の撮影画像における、ステップ102で算出した車両20の進行方向に対応する予め定めた範囲の領域以外の領域を特徴点の抽出領域として決定する。
In
ステップ106では、CPU12Aが、現時刻の撮影画像から特徴点を抽出してステップ108へ移行する。すなわち、ステップ104で決定した車両20の進行方向に対応する予め定めた範囲の領域以外の領域における特徴点を抽出する。例えば、FAST等を用いて車両20(カメラ14)の移動方向以外の領域から特徴点を抽出する。
In
ステップ108では、CPU12Aが、上記ステップ106で抽出された特徴点と、前時刻のステップ106で抽出された特徴点とに基づいて、前時刻の撮影画像と現時刻の撮影画像の画像間の特徴点を対応付けてステップ110へ移行する。すなわち、時刻の異なる撮影画像間の特徴点を対応付ける。例えば、ORB等の特徴量を用いて現時刻の特徴点と前時刻の特徴点とを対応付ける。なお、前時刻の撮影画像がない場合には、ステップ106以降の処理を行わずに終了する。
In
ステップ110では、CPU12Aが、初期化段階であるか否かを判定する。該判定は、地図上に特徴点が未登録であるか否かを判定する。該判定が肯定された場合にはステップ112へ移行し、否定された場合にはステップ116へ移行する。
In
ステップ112では、CPU12Aが、対応付けた特徴点からカメラ14の位置及び姿勢を推定してステップ114へ移行する。例えば、前時刻の撮影画像を基準とする基本行列を推定する。また、特異値分解等によって、推定して得られた基本行列から並進ベクトル及び回転行列を算出し、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を基準とする現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を推定する。
In
ステップ114では、CPU12Aが、カメラ14の位置及び姿勢に基づいて、特徴点の3次元位置を推定して地図に登録する。具体的には、対応付けられた特徴点のペアの前時刻の画撮影像内の位置及び現時刻の撮影画像内の位置と、推定した、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換して環境地図を生成し、生成した環境地図を記憶部18に記憶する。
In
一方、ステップ116では、CPU12Aが、地図上に既に登録された特徴点と、撮影画像上の特徴点から、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を推定してステップ118へ移行する。
On the other hand, in
ステップ118では、CPU12Aが、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に基づいて、新しい特徴点の3次元位置を推定して地図に登録することにより環境地図を生成する。すなわち、当該新しい特徴点の現時刻の撮影画像内の位置及び前時刻の撮影画像内の位置と、地図登録された、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢と、ステップ116で求めた現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換して環境地図を生成し、生成した環境地図を記憶部18に記憶する。
In
なお、図5の処理におけるステップ100〜106が自車位置推定用環境地図生成装置及び自車位置推定用環境地図生成プログラムの抽出部に対応し、ステップ108〜118が生成部に対応する。 In addition, steps 100 to 106 in the process of FIG. 5 correspond to the extraction unit of the own vehicle position estimation environment map generation device and the own vehicle position estimation environment map generation program, and steps 108 to 118 correspond to the generation unit.
次に、本実施形態に係る自車位置推定装置10で行われる自車位置を推定する処理について説明する。図6は、本実施形態に係る自車位置推定装置10において自車位置推定プログラムを実行することで行われる処理の流れの一例を示すフローチャートである。
Next, the process of estimating the own vehicle position performed by the own vehicle
ステップ200では、CPU12Aが、舵角センサ16の検出結果を取得してステップ202へ移行する。
In
ステップ202では、CPU12Aが、取得した舵角センサ16の検出結果に基づいて、車両20(カメラ14)の進行方向を算出してステップ204へ移行する。
In
ステップ204では、CPU12Aが、特徴点抽出領域を決定してステップ106へ移行する。特徴点抽出領域は、カメラ14の撮影画像における、ステップ202で算出した車両20の進行方向に対応する予め定めた範囲の領域以外の領域を特徴点の抽出領域として決定する。
In
ステップ206では、CPU12Aが、現時刻の撮影画像から特徴点を抽出してステップ208へ移行する。すなわち、ステップ204で決定した車両20の進行方向に対応する予め定めた範囲の領域以外の領域における特徴点を抽出する。例えば、FAST等を用いて車両20(カメラ14)の移動方向以外の領域から特徴点を抽出する。
In
ステップ208では、CPU12Aが、登録された環境地図に含まれる特徴点と、ステップ206で抽出された特徴点とを照合して、地図座標系における撮影画像の撮影時のカメラ14の位置及び姿勢を推定してステップ210へ移行する。
In
ステップ210では、CPU12Aが、推定したカメラ14の位置及び姿勢から自車位置を推定して処理を終了する。すなわち、車両20に対するカメラ14の位置が分かっているので、カメラ14の位置及び姿勢から自車位置を推定する。
In
なお、図6の処理におけるステップ200〜206が自車位置推定装置及び自車位置推定プログラムの抽出部に対応し、ステップ208〜210が推定部に対応する。
以上説明したように、本実施形態では、車両20に搭載されたカメラ14によって撮影した撮影画像から進行方向の領域以外の領域の特徴点を抽出する際に、舵角センサ16の検出結果に基づいて撮影画像の進行方向を特定する。これにより、2つの撮影画像を用いて進行方向の領域を決定する場合より、車両20の進行方向の領域を検出する際の処理負荷を低減することができる。また、加速度センサ、角速度センサ、及び角加速度センサの検出結果を用いて車両20の進行方向の領域を検出する場合より、安定した進行方向の検出が可能となる。特に、車両20が低速で移動している場合には、加速度センサ、角速度センサ、及び角加速度センサから車両20の進行方向を検出することが困難となるが、舵角センサ16の検出結果を用いることにより、安定した進行方向の検出が可能となる。
As described above, in the present embodiment, when extracting feature points in a region other than the region in the traveling direction from the captured image taken by the
また、特徴点を抽出する際に、進行方向の領域以外の領域を抽出するので、撮影画像の全域から特徴点の抽出を抽出するよりも処理負荷を軽減することができる。 Further, since the region other than the region in the traveling direction is extracted when the feature points are extracted, the processing load can be reduced as compared with the extraction of the feature points from the entire captured image.
さらに、特徴点の移動量が大きくなる進行方向以外の領域から特徴点を抽出するので、特徴点の3次元位置を推定する際の視差に対応する撮影画像間の特徴点のずれが大きくなるため、特徴点の3次元位置の位置精度が高い環境地図を生成することができる。特に、車両20の走行経路に制約がある駐車空間等のような局所空間における環境地図を生成する際の地図精度を向上できる。
Further, since the feature points are extracted from the region other than the traveling direction in which the movement amount of the feature points becomes large, the deviation of the feature points between the captured images corresponding to the parallax when estimating the three-dimensional position of the feature points becomes large. , It is possible to generate an environmental map with high positional accuracy of the three-dimensional positions of the feature points. In particular, it is possible to improve the map accuracy when generating an environmental map in a local space such as a parking space where the traveling route of the
そして、このように生成した環境地図を自動駐車システム等に適用した場合には、高精度の環境地図を用いて車両20を誘導できるので、狭い場所に駐車することが可能となる。
When the environmental map generated in this way is applied to an automatic parking system or the like, the
なお、上記の実施形態では、撮影画像における車両20の進行方向に対応する領域以外の領域における特徴点を抽出してカメラ14の位置及び姿勢を求めるようにしたが、これに限るものではない。例えば、撮影画像の全域の特徴点を抽出して、車両20の進行方向に対応する領域以外の領域の重み付けを高くしてカメラ14の位置及び姿勢を推定してもよい。例えば、前時刻の撮影画像における特徴点の位置から推定した現時刻の特徴点の位置と、現時刻における特徴点の位置との誤差を評価関数として、この評価関数が最小となるカメラ14の位置及び姿勢を推定する際に、評価関数に重みをかけてカメラ14の位置及び姿勢を推定する。
In the above embodiment, feature points in a region other than the region corresponding to the traveling direction of the
また、上記の実施形態における制御部12で行われる図5、6の処理は、コンピュータがプログラムを実行することにより行われるソフトウエア処理として説明したが、ハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアで行う処理とする場合のプログラムは、各種記憶媒体に記憶して流通させるようにしてもよい。
Further, although the processes of FIGS. 5 and 6 performed by the
また、上記の実施形態では、カメラ14が車両20の後部に設けて、車両後方を撮影する形態を説明したが、これに限るものではない。例えば、車両20の前部に設けて、車両前方を撮影する形態や、車両20の側方に設けて、車両前側方及び車両後側方の少なくとも一方を撮影する形態としてもよい。
Further, in the above embodiment, the mode in which the
また、上記の実施形態では、環境地図生成プログラム及び自車位置推定プログラムを予め制御部12のROM12Bに記憶した形態として説明したが、これに限るものではない。例えば、環境地図生成プログラム及び自車位置推定プログラムは、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、環境地図生成プログラム及び自車位置推定プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
Further, in the above embodiment, the environment map generation program and the own vehicle position estimation program have been described as being stored in the
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。 Further, the present invention is not limited to the above, and it goes without saying that the present invention can be variously modified and implemented within a range not deviating from the gist thereof.
10 自車位置推定装置
12 制御部
14 カメラ
16 舵角センサ
18 記憶部
20 車両
10 Own vehicle
Claims (5)
車両の舵角を検出する検出部の検出結果を取得する取得部と、
前記取得部によって取得した前記検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記取得部によって取得した前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、
前記抽出部が抽出した特徴点と、異なる位置で撮影した他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する生成部と、
を含む自車位置推定用環境地図生成装置。 A shooting unit that captures the direction of movement of the vehicle,
An acquisition unit that acquires the detection result of the detection unit that detects the steering angle of the vehicle,
Using the detection result acquired by the acquisition unit, feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the imaging unit, or the acquisition is performed. Using the detection result acquired by the unit, feature points are extracted from the entire area of the captured image, and the weighting of other regions is larger than the weighting of the region in the predetermined range corresponding to the moving direction of the vehicle in the captured image. Extraction part and
The position and posture of the vehicle are estimated based on the correspondence between the feature points extracted by the extraction unit and the feature points of other captured images taken at different positions, and the three-dimensional feature points are estimated based on the estimation result. A generator that finds the position and generates a local environmental map,
Environmental map generator for vehicle position estimation including.
車両の舵角を検出する検出部の検出結果を取得する取得部と、
前記取得部によって取得した前記検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記取得部によって取得した前記検出結果を用いて、前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、
前記抽出部が抽出した特徴点と、予め生成された三次元座標及び特徴量を含めた環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、自車両の位置を推定する推定部と、
を含む自車位置推定装置。 A shooting unit that captures the direction of movement of the vehicle,
An acquisition unit that acquires the detection result of the detection unit that detects the steering angle of the vehicle,
Using the detection result acquired by the acquisition unit, feature points are extracted from a region other than a predetermined range corresponding to the moving direction of the vehicle in the captured image captured by the imaging unit, or the acquisition is performed. Using the detection result acquired by the unit, feature points are extracted from the entire area of the captured image, and the weighting of other regions is larger than the weighting of the region in the predetermined range corresponding to the moving direction of the vehicle in the captured image. Extraction part and
The position and orientation of the vehicle are estimated based on the feature points extracted by the extraction unit and the corresponding feature points on the environmental map including the three-dimensional coordinates and the feature amount generated in advance, and based on the estimation result. , The estimation unit that estimates the position of the own vehicle,
Own vehicle position estimation device including.
抽出した特徴点と、異なる位置で撮影した他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、
推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する処理をコンピュータに実行させるための自車位置推定用環境地図生成プログラム。 Acquire the detection result of the detection unit that detects the steering angle of the vehicle, and use the detection result to capture the moving direction of the vehicle. A predetermined range corresponding to the moving direction of the vehicle in the captured image taken by the photographing unit. The feature points are extracted from the region other than the region of, or the feature points are extracted from the entire region of the captured image by using the detection result, and the region of a predetermined range corresponding to the moving direction of the vehicle in the captured image. Increase the weighting of other areas than the weighting of
The position and orientation of the vehicle are estimated based on the correspondence between the extracted feature points and the feature points of other captured images taken at different positions.
An environment map generation program for estimating the position of the own vehicle for causing a computer to execute a process of generating a local environment map by obtaining a three-dimensional position of a feature point based on the estimation result.
抽出した特徴点と、予め生成された三次元座標及び特徴量を含めた環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、
推定結果に基づいて、自車両の位置を推定する処理をコンピュータに実行させるための自車位置推定プログラム。 Acquire the detection result of the detection unit that detects the steering angle of the vehicle, and use the detection result to capture the moving direction of the vehicle. A predetermined range corresponding to the moving direction of the vehicle in the captured image taken by the photographing unit. The feature points are extracted from the region other than the region of the above, or the feature points are extracted from the entire region of the captured image by using the detection result, and the region of a predetermined range corresponding to the moving direction of the vehicle in the captured image. Increase the weighting of other areas than the weighting of
The position and orientation of the vehicle are estimated based on the extracted feature points and the corresponding feature points on the environmental map including the three-dimensional coordinates and feature quantities generated in advance.
A vehicle position estimation program for causing a computer to execute a process of estimating the position of the vehicle based on the estimation result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017109071A JP6905390B2 (en) | 2017-06-01 | 2017-06-01 | Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017109071A JP6905390B2 (en) | 2017-06-01 | 2017-06-01 | Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018205950A JP2018205950A (en) | 2018-12-27 |
JP6905390B2 true JP6905390B2 (en) | 2021-07-21 |
Family
ID=64957164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017109071A Active JP6905390B2 (en) | 2017-06-01 | 2017-06-01 | Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6905390B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7173471B2 (en) * | 2019-01-31 | 2022-11-16 | 株式会社豊田中央研究所 | 3D position estimation device and program |
US11987287B2 (en) | 2019-04-12 | 2024-05-21 | Continental Autonomous Mobility US, LLC | Autonomous truck-trailer maneuvering and parking |
WO2020255408A1 (en) * | 2019-06-21 | 2020-12-24 | 株式会社ソニー・インタラクティブエンタテインメント | Image taking data generation device, image taking data generation method, and program |
CN110992420B (en) * | 2019-12-18 | 2023-07-21 | 天地伟业技术有限公司 | System and method for detecting granary vehicle carrying condition |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004114977A (en) * | 2002-09-30 | 2004-04-15 | Aisin Seiki Co Ltd | Moving body periphery monitoring device |
JP2007127525A (en) * | 2005-11-04 | 2007-05-24 | Aisin Aw Co Ltd | Moving amount arithmetic unit |
JP4341705B2 (en) * | 2007-07-17 | 2009-10-07 | トヨタ自動車株式会社 | In-vehicle image processing device |
KR20120021064A (en) * | 2010-08-31 | 2012-03-08 | 엘지전자 주식회사 | Mobile robot and controlling method of the same |
JP5652239B2 (en) * | 2011-02-15 | 2015-01-14 | 株式会社豊田中央研究所 | Motion estimation apparatus and program |
JP6234349B2 (en) * | 2014-09-16 | 2017-11-22 | 株式会社東芝 | Mobile object position estimation device, mobile object position estimation method, and mobile object position estimation program |
JP2016157197A (en) * | 2015-02-23 | 2016-09-01 | 株式会社リコー | Self-position estimation device, self-position estimation method, and program |
-
2017
- 2017-06-01 JP JP2017109071A patent/JP6905390B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018205950A (en) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112785702B (en) | SLAM method based on tight coupling of 2D laser radar and binocular camera | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101708659B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101784183B1 (en) | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF | |
JP6905390B2 (en) | Own vehicle position estimation environment map generator, own vehicle position estimation device, own vehicle position estimation environment map generation program, and own vehicle position estimation program | |
JP6658001B2 (en) | Position estimation device, program, position estimation method | |
JP4943034B2 (en) | Stereo image processing device | |
JP2009266224A (en) | Method and system for real-time visual odometry | |
AU2015334707B2 (en) | Optical Inertial Measurement Apparatus and Method | |
CN105324792B (en) | For estimating method of the moving element relative to the angular displacement of reference direction | |
JP7173471B2 (en) | 3D position estimation device and program | |
KR102001636B1 (en) | Apparatus and method of processing a depth image using a relative angle between an image sensor and a target object | |
KR102559203B1 (en) | Method and apparatus of outputting pose information | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP6116765B1 (en) | Object detection apparatus and object detection method | |
Panahandeh et al. | Vision-aided inertial navigation using planar terrain features | |
JP6872426B2 (en) | Environmental map generation method, environmental map generation device, and environmental map generation program | |
US10977810B2 (en) | Camera motion estimation | |
US20220277480A1 (en) | Position estimation device, vehicle, position estimation method and position estimation program | |
JP2017196948A (en) | Three-dimensional measurement device and three-dimensional measurement method for train facility | |
WO2019186677A1 (en) | Robot position/posture estimation and 3d measurement device | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
JPWO2021166742A5 (en) | Object ranging device, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6905390 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |