JP6171849B2 - Moving body position / posture angle estimation apparatus and moving body position / posture angle estimation method - Google Patents

Moving body position / posture angle estimation apparatus and moving body position / posture angle estimation method Download PDF

Info

Publication number
JP6171849B2
JP6171849B2 JP2013224054A JP2013224054A JP6171849B2 JP 6171849 B2 JP6171849 B2 JP 6171849B2 JP 2013224054 A JP2013224054 A JP 2013224054A JP 2013224054 A JP2013224054 A JP 2013224054A JP 6171849 B2 JP6171849 B2 JP 6171849B2
Authority
JP
Japan
Prior art keywords
edge
posture angle
evaluation value
evaluation
projection image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013224054A
Other languages
Japanese (ja)
Other versions
JP2015087149A (en
Inventor
山口 一郎
一郎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2013224054A priority Critical patent/JP6171849B2/en
Publication of JP2015087149A publication Critical patent/JP2015087149A/en
Application granted granted Critical
Publication of JP6171849B2 publication Critical patent/JP6171849B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、パーティクルフィルタを用いて移動体の位置及び姿勢角を推定する移動体位置姿勢角推定装置及びその方法に関する。   The present invention relates to a moving body position / posture angle estimation apparatus and method for estimating the position and posture angle of a moving body using a particle filter.

三次元地図とカメラの撮像画像とを比較して移動体の位置を算出する技術として、特許文献1が開示されている。この技術では、移動体に搭載されたカメラで撮像した範囲内に映像的な特徴点の三次元情報を生成し、この三次元情報を記録した記録媒体と現実の映像とが一致する三次元座標上の地点と方向を求めて移動体の位置や姿勢角を求めていた。   Patent Document 1 discloses a technique for calculating the position of a moving object by comparing a three-dimensional map with a captured image of a camera. In this technology, 3D information of image-like feature points is generated within a range imaged by a camera mounted on a moving object, and 3D coordinates where the recording medium on which this 3D information is recorded and the actual image coincide with each other. The position and orientation angle of the moving object were obtained by finding the upper point and direction.

この従来技術では、算出される移動体の位置や姿勢角の誤差分布が大きくなる特徴点群を抽出し、この特徴点群を除いた残りの特徴点を用いて再演算を行って位置や姿勢角の算出精度を向上させていた。   In this conventional technique, a feature point group that increases the error distribution of the calculated position and posture angle of the moving object is extracted, and the remaining feature points excluding this feature point group are recalculated to perform position and orientation. The calculation accuracy of the corner was improved.

国際公開WO2005/038402A1号公報International Publication WO2005 / 038402A1

しかしながら、上述した従来の技術では、特徴点であるエッジの配置を考慮せずに移動体の位置と姿勢角を推定していたので、エッジが偏って存在している場合には移動体の位置と姿勢角の推定結果に大きな誤差を含んでいる恐れがあるという問題点があった。   However, in the above-described conventional technique, the position and posture angle of the moving body are estimated without considering the arrangement of the edge that is the feature point. There is a problem that the estimation result of the posture angle may include a large error.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することのできる移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法を提供することを目的とする。 Therefore, the present invention has been proposed in view of the above-described circumstances, and the mobile object position / posture angle estimation that can accurately estimate the position and posture angle of the mobile object even when the edges are unevenly present. It is an object of the present invention to provide an apparatus and a moving body position / posture angle estimation method.

上述した課題を解決するために、本発明は、投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、移動体の進行方向に第1方向の軸を設定し、移動体の進行方向と直交する移動体の横方向に第2方向の軸を設定する。そして、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、第1方向成分の長さの総和が小さい場合に第1方向を向いたエッジ上の評価値が増大するように評価値を補正する。   In order to solve the above-described problem, the present invention extracts a pair of edges that intersect in different directions from the edges set on the projection image, and sets the axis of the first direction in the traveling direction of the moving object. The axis of the second direction is set in the lateral direction of the moving body that is orthogonal to the traveling direction of the moving body. Then, the sum of the lengths of the first direction components of all edges on the projection image is compared with the sum of the lengths of the second direction components, and the first sum is obtained when the sum of the lengths of the first direction components is small. The evaluation value is corrected so that the evaluation value on the edge facing the direction increases.

本発明によれば、エッジの配置を考慮して評価値を補正できるので、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。   According to the present invention, the evaluation value can be corrected in consideration of the arrangement of the edges, so that the position and posture angle of the moving object can be accurately estimated even when the edges are unevenly present.

図1は、本発明の第1実施形態に係る移動体位置姿勢角推定装置を備えた移動体位置姿勢角推定システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a mobile body position / posture angle estimation system including a mobile body position / posture angle estimation apparatus according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係る移動体位置姿勢角推定装置による移動体の位置姿勢角推定処理の処理手順を示すフローチャートである。FIG. 2 is a flowchart showing a processing procedure of a mobile object position / posture angle estimation process by the mobile body position / posture angle estimation apparatus according to the first embodiment of the present invention. 図3は、本発明の第1実施形態に係る移動体位置姿勢角推定装置による評価値の補正方法を説明するための図である。FIG. 3 is a diagram for explaining an evaluation value correction method by the moving object position / posture angle estimation apparatus according to the first embodiment of the present invention. 図4は、本発明の第1実施形態に係る移動体位置姿勢角推定装置による評価値の補正方法を説明するための図である。FIG. 4 is a diagram for explaining a method for correcting an evaluation value by the moving body position / posture angle estimation apparatus according to the first embodiment of the present invention. 図5は、本発明の第1実施形態に係る移動体位置姿勢角推定装置による評価値の補正方法を説明するための図である。FIG. 5 is a diagram for explaining a method for correcting an evaluation value by the moving body position / posture angle estimation apparatus according to the first embodiment of the present invention. 図6は、本発明の第2実施形態に係る移動体位置姿勢角推定装置による評価値の補正方法を説明するための図である。FIG. 6 is a diagram for explaining a method of correcting an evaluation value by the moving body position / posture angle estimation apparatus according to the second embodiment of the present invention.

以下、本発明を適用した第1及び第2実施形態について図面を参照して説明する。   Hereinafter, first and second embodiments to which the present invention is applied will be described with reference to the drawings.

[第1実施形態]
[移動体位置姿勢角推定システムの構成]
図1は、本実施形態に係る移動体位置姿勢角推定装置を搭載した移動体位置姿勢角推定システムの構成を示すブロック図である。ただし、本実施形態では移動体の一例として、車両に適用した場合について説明する。
[First Embodiment]
[Configuration of moving body position / posture angle estimation system]
FIG. 1 is a block diagram showing a configuration of a mobile body position / posture angle estimation system equipped with a mobile body position / posture angle estimation apparatus according to the present embodiment. However, this embodiment demonstrates the case where it applies to a vehicle as an example of a mobile body.

図1に示すように、本実施形態に係る移動体位置姿勢角推定システムは、ECU1と、カメラ2と、三次元地図データベース3と、車両センサ群4とを備えている。   As shown in FIG. 1, the moving body position / posture angle estimation system according to the present embodiment includes an ECU 1, a camera 2, a three-dimensional map database 3, and a vehicle sensor group 4.

ここで、ECU1は、ROM、RAM、演算回路等によって構成された電子制御ユニットであり、本実施形態に係る移動体位置姿勢角推定装置10を備えている。尚、ECU1は他の制御に用いるECUと兼用してもよい。   Here, the ECU 1 is an electronic control unit configured by a ROM, a RAM, an arithmetic circuit, and the like, and includes the moving body position / posture angle estimation device 10 according to the present embodiment. The ECU 1 may also be used as an ECU used for other controls.

カメラ2は、例えばCCD等の固体撮像素子を用いたものであり、本実施形態では、車両のフロントバンパーに光軸が水平で、尚且つ車両前方が撮像可能となるように設置されている。撮像された画像はECU1へ送信される。   The camera 2 uses a solid-state imaging device such as a CCD, for example. In this embodiment, the camera 2 is installed on the front bumper of the vehicle so that the optical axis is horizontal and the front of the vehicle can be imaged. The captured image is transmitted to the ECU 1.

三次元地図データベース3は、三次元位置情報を記憶しており、例えば路面表示を含む周囲環境のエッジ等を記憶している。本実施形態では、少なくとも道路端部を示す区画線や縁石等の位置とその向きの三次元情報が記録されており、この他に白線、停止線、横断歩道、路面マーク等の路面表示の他に、建物等の構造物のエッジ情報も含まれている。尚、三次元地図データベース3のデータフォーマットとして、道路端部等の各地図情報は、エッジの集合体として定義されている。エッジが長い直線の場合には、例えば1m毎に区切られるため、極端に長いエッジは存在しない。直線の場合には、各エッジは、直線の両端点を示す三次元位置情報を持っている。曲線の場合には、各エッジは、曲線の両端点と中央点を示す三次元位置情報を持っている。   The three-dimensional map database 3 stores three-dimensional position information, and stores, for example, an edge of the surrounding environment including a road surface display. In the present embodiment, at least three-dimensional information of the position and direction of lane markings and curbs indicating road edges is recorded, and in addition to road surface indications such as white lines, stop lines, pedestrian crossings, road marks, etc. Also includes edge information of structures such as buildings. As the data format of the three-dimensional map database 3, each map information such as a road edge is defined as an aggregate of edges. In the case where the edge is a long straight line, for example, since it is divided every 1 m, there is no extremely long edge. In the case of a straight line, each edge has three-dimensional position information indicating both end points of the straight line. In the case of a curve, each edge has three-dimensional position information indicating the end points and the center point of the curve.

車両センサ群4は、GPS受信機41と、アクセルセンサ42と、ステアリングセンサ43と、ブレーキセンサ44と、車速センサ45と、加速度センサ46と、車輪速センサ47と、その他センサ48とを備えている。車両センサ群4は、ECU1に接続され、各センサ41〜48によって検出された各種の検出値をECU1に供給する。ECU1は、車両センサ群4の出力値を用いることによって、車両の概位置を算出したり、単位時間に車両が進んだ移動量を示すオドメトリを算出する。   The vehicle sensor group 4 includes a GPS receiver 41, an accelerator sensor 42, a steering sensor 43, a brake sensor 44, a vehicle speed sensor 45, an acceleration sensor 46, a wheel speed sensor 47, and other sensors 48. Yes. The vehicle sensor group 4 is connected to the ECU 1 and supplies various detection values detected by the sensors 41 to 48 to the ECU 1. The ECU 1 uses the output value of the vehicle sensor group 4 to calculate the approximate position of the vehicle or to calculate odometry indicating the amount of movement of the vehicle per unit time.

移動体位置姿勢角推定装置10は、パーティクルフィルタを用いて、車両の周囲環境を撮像した画像と三次元地図データのマッチングを行って車両の位置及び姿勢角を推定する装置である。そして、特定のプログラムを実行することにより、エッジ画像算出部12、オドメトリ算出部14、パーティクル存在分布範囲設定部16、パーティクル散布部18として動作する。さらに、投影画像作成部20、評価点設定部22、尤度算出部24、評価値補正部25、位置姿勢角推定部26として動作する。   The moving body position / posture angle estimation device 10 is a device that estimates the position and posture angle of a vehicle by matching a three-dimensional map data with an image of the surrounding environment of the vehicle using a particle filter. Then, by executing a specific program, it operates as an edge image calculation unit 12, an odometry calculation unit 14, a particle presence distribution range setting unit 16, and a particle scattering unit 18. Further, it operates as a projection image creation unit 20, an evaluation point setting unit 22, a likelihood calculation unit 24, an evaluation value correction unit 25, and a position / orientation angle estimation unit 26.

エッジ画像算出部12は、カメラ2から車両の周囲環境を撮像した画像を取得し、この画像からエッジを検出してエッジ画像を算出する。カメラ2で撮像された画像には、自車両の位置及び姿勢角を推定するために必要な路面情報として、少なくとも道路端部を示す区画線や縁石が撮像されている。また、この他に白線、停止線、横断歩道、路面マーク等の路面表示が撮像されていてもよい。   The edge image calculation unit 12 acquires an image obtained by capturing the surrounding environment of the vehicle from the camera 2, detects an edge from the image, and calculates an edge image. The image captured by the camera 2 captures at least a lane line and a curb indicating the road edge as road surface information necessary for estimating the position and posture angle of the host vehicle. In addition, a road surface display such as a white line, a stop line, a pedestrian crossing, and a road surface mark may be captured.

オドメトリ算出部14は、車両センサ群4から得られる各種センサ値を用いて、車両の単位時間当たりの移動量であるオドメトリを算出する。   The odometry calculation unit 14 calculates odometry, which is the amount of movement of the vehicle per unit time, using various sensor values obtained from the vehicle sensor group 4.

パーティクル存在分布範囲設定部16は、オドメトリ算出部14で算出されたオドメトリの分だけ移動した位置と姿勢角の近傍に所定範囲のパーティクルの存在分布範囲を設定する。   The particle presence distribution range setting unit 16 sets the presence distribution range of particles within a predetermined range in the vicinity of the position and posture angle moved by the odometry calculated by the odometry calculation unit 14.

パーティクル散布部18は、パーティクル存在分布範囲設定部16によって設定されたパーティクルの存在分布範囲内にパーティクルを散布する。   The particle distribution unit 18 distributes particles within the particle presence distribution range set by the particle presence distribution range setting unit 16.

投影画像作成部20は、パーティクル散布部18によって散布されたパーティクルのそれぞれについて投影画像を作成する。例えば、三次元地図データベース3に記憶されたエッジ等の三次元位置情報を、各パーティクルの位置及び姿勢角からカメラ2で撮像した画像となるように投影変換して投影画像を作成する。   The projection image creation unit 20 creates a projection image for each of the particles dispersed by the particle scattering unit 18. For example, a projection image is created by projecting and converting 3D position information such as edges stored in the 3D map database 3 so as to be an image captured by the camera 2 from the position and posture angle of each particle.

評価点設定部22は、投影画像とエッジ画像とを比較するための評価点を投影画像上に設定する。   The evaluation point setting unit 22 sets evaluation points for comparing the projection image and the edge image on the projection image.

尤度算出部24は、投影画像とエッジ画像とを比較して、エッジ画像上のエッジと一致する投影画像上の評価点を対象評価点とし、この対象評価点に対して所定の評価値を設定して、この評価値に基づいて尤度を算出する。ここで、尤度とは、各パーティクルの位置及び姿勢角が、どれぐらい実際の車両の位置及び姿勢角に対して尤もらしいかを示す指標であり、投影画像とエッジ画像との一致度が高いほど、尤度が高くなるように設定されている。   The likelihood calculating unit 24 compares the projection image with the edge image, sets an evaluation point on the projection image that matches the edge on the edge image as a target evaluation point, and sets a predetermined evaluation value for the target evaluation point. Then, the likelihood is calculated based on the evaluation value. Here, the likelihood is an index indicating how likely the position and posture angle of each particle is relative to the actual vehicle position and posture angle, and the degree of coincidence between the projection image and the edge image is high. The likelihood is set so as to increase.

評価値補正部25は、尤度算出部24によって設定された評価値を補正する。具体的に説明すると、評価値補正部25は、投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、車両の進行方向に第1方向の軸を設定し、車両の進行方向と直交する車両の横方向に第2方向の軸を設定する。そして、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価値が増大するように評価値を補正する。特に、本実施形態では、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点の数を増加させることで、評価値が増大するように補正する。   The evaluation value correction unit 25 corrects the evaluation value set by the likelihood calculation unit 24. More specifically, the evaluation value correction unit 25 extracts pairs of edges that intersect in different directions from the edges set on the projection image, and sets the axis in the first direction in the traveling direction of the vehicle. Then, an axis in the second direction is set in the lateral direction of the vehicle orthogonal to the traveling direction of the vehicle. Then, the sum of the lengths of the first direction components of all the edges on the projected image is compared with the sum of the lengths of the second direction components, and the direction in which the sum of the lengths of the pair of edges is smaller is directed. The evaluation value is corrected so that the evaluation value on the edge increases. In particular, in the present embodiment, the evaluation value is corrected so as to increase by increasing the number of evaluation points on the edge of the pair of edges facing the direction in which the total length is small.

位置姿勢角推定部26は、尤度算出部24によって算出された尤度に基づいて車両の位置及び姿勢角を推定する。例えば、尤度が最も高いパーティクルの位置及び姿勢角を、車両の実際の位置及び姿勢角の推定結果として算出する。   The position / orientation angle estimation unit 26 estimates the position and orientation angle of the vehicle based on the likelihood calculated by the likelihood calculation unit 24. For example, the position and posture angle of the particle having the highest likelihood are calculated as the estimation result of the actual position and posture angle of the vehicle.

尚、本実施形態では車両の6自由度の位置(前後方向,車幅方向,上下方向)及び姿勢角(ロール,ピッチ,ヨー)を求めている。しかし、例えばサスペンション等を備えていない工場等で使用される無人搬送車のように3自由度の位置(前後方向,横方向)及び姿勢角(ヨー)を推定する場合でも本技術を適用することは可能である。具体的に、このような車両では、上下方向の位置と姿勢角のロール及びピッチは固定となるので、予めこれらのパラメータを計測しておいて利用すればよい。   In this embodiment, the position of six degrees of freedom (front-rear direction, vehicle width direction, vertical direction) and posture angle (roll, pitch, yaw) of the vehicle are obtained. However, the present technology can be applied even when estimating a position (front-rear direction, lateral direction) and posture angle (yaw) with three degrees of freedom, such as an automatic guided vehicle used in a factory without a suspension or the like. Is possible. Specifically, in such a vehicle, the vertical position and posture angle roll and pitch are fixed, so these parameters may be measured and used in advance.

[移動体の位置姿勢角推定処理の手順]
次に、本実施形態に係る移動体の位置姿勢角推定処理の手順を図2のフローチャートを参照して説明する。尚、本実施形態では、車両の位置情報として進行方向、横方向(車幅方向)、上下方向、姿勢角情報としてロール、ピッチ、ヨーの合計6自由度の位置と姿勢角を推定する。ただし、ロールは車両の進行方向を軸とした回転方向であり、ピッチは車両の横方向を軸とした回転方向であり、ヨーは車両の上下方向を軸とした回転方向である。
[Procedure for estimating the position and orientation angle of a moving object]
Next, the procedure of the position / orientation angle estimation process of the moving body according to the present embodiment will be described with reference to the flowchart of FIG. In the present embodiment, the position and posture angle of a total of six degrees of freedom of roll, pitch, and yaw are estimated as traveling direction, lateral direction (vehicle width direction), vertical direction, and posture angle information as vehicle position information. However, the roll is a rotation direction with the traveling direction of the vehicle as an axis, the pitch is a rotation direction with the lateral direction of the vehicle as an axis, and the yaw is a rotation direction with the vertical direction of the vehicle as an axis.

また、以下で説明する移動体の位置姿勢角推定処理は、例えば100msec程度の間隔で連続的に行われる。   Moreover, the position / orientation angle estimation process of the moving body described below is continuously performed at intervals of, for example, about 100 msec.

図2に示すように、まずステップS110において、エッジ画像算出部12は、カメラ2の画像からエッジ画像を算出する。本実施形態におけるエッジとは、画素の輝度が鋭敏に変化している箇所を指している。エッジの検出方法としては、例えばCanny法を用いることができる。この他にも微分エッジ検出など様々な手法を使用してもよい。   As shown in FIG. 2, first, in step S <b> 110, the edge image calculation unit 12 calculates an edge image from the image of the camera 2. An edge in the present embodiment refers to a portion where the luminance of a pixel changes sharply. As an edge detection method, for example, the Canny method can be used. In addition, various methods such as differential edge detection may be used.

また、エッジ画像算出部12は、カメラ2の画像からエッジの輝度変化の方向やエッジ近辺のカラーなどについても抽出することが望ましい。これにより、後述するステップS160及びステップS170において、三次元地図データベース3に記録されているこれらエッジ以外の情報についても利用して尤度を設定し、自車両の位置及び姿勢角を算出することが可能になる。   In addition, it is desirable that the edge image calculation unit 12 also extracts the brightness change direction of the edge, the color near the edge, and the like from the image of the camera 2. Thereby, in step S160 and step S170, which will be described later, it is possible to set the likelihood using information other than these edges recorded in the 3D map database 3 and calculate the position and attitude angle of the host vehicle. It becomes possible.

次に、ステップS120において、オドメトリ算出部14は、車両センサ群4から得られるセンサ値に基づいて、1ループ前のステップS120で算出した時点から現在までの車両の移動量であるオドメトリを算出する。なお、プログラムを開始して最初のループの場合には、オドメトリをゼロとして算出する。   Next, in step S120, the odometry calculation unit 14 calculates odometry, which is the amount of movement of the vehicle from the time calculated in step S120 one loop before, based on the sensor value obtained from the vehicle sensor group 4. . In the case of the first loop after starting the program, the odometry is calculated as zero.

オドメトリ算出部14は、オドメトリの算出方法として、車両運動を平面上に限定した上で、左右輪の車輪速センサ47のエンコーダ値の差からヨー角方向の旋回量(旋回角)を算出する。そして、進行方向と横方向の移動量は、各車輪の車輪速センサ47のエンコーダ値から平均の移動量を求め、この移動量に対してヨー角方向の旋回角の余弦と正弦を取ることで求めることができる。また、各車輪の車輪速とヨーレートから単位時間での移動量と回転量を算出してもよい。さらに、車輪速を車速やGPS受信機41の測位値の差分で代用してもよく、ヨーレートを操舵角で代用してもよい。なお、オドメトリの算出方法は、様々な算出手法が考えられるが、オドメトリを算出できればどの手法を用いてもよい。   The odometry calculation unit 14 calculates the turning amount (turning angle) in the yaw angle direction from the difference between the encoder values of the wheel speed sensors 47 for the left and right wheels, while limiting the vehicle motion to a plane as a method for calculating the odometry. The moving amount in the traveling direction and the lateral direction is obtained by calculating an average moving amount from the encoder value of the wheel speed sensor 47 of each wheel, and taking the cosine and sine of the turning angle in the yaw angle direction with respect to this moving amount. Can be sought. Further, the movement amount and the rotation amount per unit time may be calculated from the wheel speed and yaw rate of each wheel. Further, the wheel speed may be substituted by the difference between the vehicle speed and the positioning value of the GPS receiver 41, and the yaw rate may be substituted by the steering angle. Various calculation methods can be considered as the odometry calculation method, but any method may be used as long as odometry can be calculated.

特に、横方向やヨー角方向の移動量をより正確に算出するために、例えば車速約10km/h以下の極低速ではアッカーマンステアリングジオメトリ(自動車の運動と制御 第3章、安部正人著、山海堂発行)に従ってオドメトリを求めてもよい。また、それ以上の車速ではタイヤの横滑り角を考慮できる線形2輪モデルの運動方程式(自動車の運動と制御 第3章3.2.1節P.56(3.12)及び(3.13)式、安部正人著、山海堂発行)を用いて算出するとなお良い。ただし、線形2輪モデルの運動方程式を用いる場合には予め各車輪のタイヤパラメータ(コーナーリングパラメータ)を測定しておく必要がある。   In particular, in order to calculate the amount of movement in the lateral direction and yaw angle direction more accurately, for example, at very low speeds of about 10 km / h or less, Ackerman steering geometry (automobile motion and control Chapter 3, written by Masato Abe, Sankaido Odometry may be obtained according to (Issuance). In addition, the equation of motion of a linear two-wheel model that can take into account the skid angle of the tire at higher vehicle speeds (motor motion and control, Chapter 3, Section 3.2.1, pages 56 (3.12) and (3.13), written by Masato Abe, It is even better to calculate using Sankai-do. However, when using the equation of motion of the linear two-wheel model, it is necessary to measure tire parameters (cornering parameters) of each wheel in advance.

次に、ステップS130において、パーティクル存在分布範囲設定部16は、1ループ前のステップS170で推定した各パーティクルの位置及び姿勢角を、今回のステップS120で算出したオドメトリの分だけ移動させる。ただし、プログラムを開始して初めてのループの場合には、前回の車両位置情報がないので、車両センサ群4に含まれるGPS受信機41からのデータを初期位置情報とする。また、前回の停車時に最後に算出した車両位置及び姿勢角を記憶しておき、初期位置及び姿勢角情報としてもよい。   Next, in step S130, the particle presence distribution range setting unit 16 moves the position and posture angle of each particle estimated in step S170 one loop before by the odometry calculated in this step S120. However, in the case of the first loop after starting the program, there is no previous vehicle position information, so the data from the GPS receiver 41 included in the vehicle sensor group 4 is used as the initial position information. Also, the vehicle position and posture angle calculated last when the vehicle stopped last time may be stored, and the initial position and posture angle information may be stored.

そして、オドメトリの分だけ移動させた車両の位置と姿勢角の近傍に車両の動特性や走行状態を考慮してパーティクルの存在分布範囲を設定する。   Then, a particle existence distribution range is set in the vicinity of the position and posture angle of the vehicle moved by the odometry in consideration of the dynamic characteristics and the running state of the vehicle.

尚、パーティクル存在分布範囲設定部16は、車両センサ群4の測定誤差や通信遅れによって生じるオドメトリの誤差や車両の動特性を考慮に入れて、車両の位置及び姿勢角の真値が取り得る可能性のある複数の予測位置と姿勢角の候補を生成する。この予測位置及び姿勢角の候補は、位置及び姿勢角の6自由度のパラメータに対してそれぞれ誤差の上下限を設定し、この誤差の上下限の範囲内で乱数表等を用いてランダムに設定する。本実施形態では、この予測位置及び姿勢角の候補を500個作成している。そして、予測位置及び姿勢角の6自由度のパラメータについて誤差の上下限を、順に±0.05[m],±0.05[m],±0.05[m],±0.5[deg] ,±0.5[deg],±0.5[deg]とする。   The particle presence distribution range setting unit 16 can take the true value of the vehicle position and posture angle in consideration of the measurement error of the vehicle sensor group 4, the odometry error caused by the communication delay, and the vehicle dynamic characteristics. A plurality of possible prediction positions and posture angle candidates are generated. The predicted position and posture angle candidates are set at random using a random number table or the like within the upper and lower limits of the error for the six-degree-of-freedom parameters of position and posture angle. To do. In the present embodiment, 500 candidates for the predicted position and posture angle are created. And the upper and lower limits of the error for the parameters of 6 degrees of freedom of predicted position and posture angle are ± 0.05 [m], ± 0.05 [m], ± 0.05 [m], ± 0.5 [deg], ± 0.5 [deg] in this order. , ± 0.5 [deg].

この予測位置及び姿勢角の候補を作成する数や、位置及び姿勢角の6自由度のパラメータについての誤差の上下限は、車両の運転状態や路面の状況を検出或いは推定して、適宜変更する。例えば、急旋回やスリップなどが発生している場合には、平面方向(進行方向、横方向、ヨー)の誤差が大きくなる可能性が高いので、これら3つのパラメータの誤差の上下限を大きくし、且つ予測位置の作成数を増やすようにする。   The number of the predicted position and attitude angle candidates to be created and the upper and lower limits of the error for the six-degree-of-freedom parameters of position and attitude angle are changed as appropriate by detecting or estimating the driving state of the vehicle and the road surface condition. . For example, when a sudden turn or slip occurs, the error in the plane direction (traveling direction, lateral direction, yaw) is likely to increase, so the upper and lower limits of the error of these three parameters are increased. In addition, the number of predicted positions to be created is increased.

次に、ステップS140において、パーティクル散布部18は、ステップS130で設定された存在分布範囲内にパーティクルを散布する。散布方法としては、パーティクルの位置及び姿勢角を規定する6自由度のパラメータに対して、それぞれステップS130で設定された範囲(上下限)の中で、乱数表等を用いてランダムに設定する。また、本実施形態では、パーティクルを常に500個作成する。   Next, in step S140, the particle distribution unit 18 distributes particles within the presence distribution range set in step S130. As a spraying method, random parameters are set using a random number table or the like within the range (upper and lower limits) set in step S130 for the six-degree-of-freedom parameters that define the position and posture angle of particles. In the present embodiment, 500 particles are always created.

尚、特開2010−224755号公報で開示された技術を用いてパーティクルを散布してもよい。この場合には、ステップS130でオドメトリの分だけ移動させた車両の位置と姿勢角が、ステップS170で算出した位置と姿勢角によってどれだけ補正されたかを算出し、この補正量に応じてパーティクルを散布する平均と分布を設定して散布すればよい。このとき、パーティクルを散布する範囲はステップS130で設定された存在分布範囲とする。また、存在分布範囲についても特開2010−224755号公報で開示された技術を用いて求め、ステップS130で設定された存在分布範囲とのORをとってもよい。さらに、パーティクルを散布する数についても、特開2010−224755号公報に開示された技術を用いてステップS130で設定された存在分布範囲に応じて動的に決定してもよい。   Note that particles may be dispersed using the technique disclosed in Japanese Patent Application Laid-Open No. 2010-224755. In this case, it is calculated how much the position and posture angle of the vehicle moved by the odometry in step S130 is corrected by the position and posture angle calculated in step S170, and particles are determined according to this correction amount. What is necessary is just to set and distribute the average and distribution to spread. At this time, the range in which the particles are dispersed is the presence distribution range set in step S130. Also, the existence distribution range may be obtained using the technique disclosed in Japanese Patent Application Laid-Open No. 2010-224755 and ORed with the existence distribution range set in step S130. Further, the number of particles to be dispersed may be determined dynamically according to the presence distribution range set in step S130 using the technique disclosed in Japanese Patent Application Laid-Open No. 2010-224755.

次に、ステップS150において、投影画像作成部20は、ステップS140で散布された複数のパーティクルについてそれぞれ投影画像(仮想画像)を作成する。このとき、評価点設定部22は、例えば三次元地図データベース3に記憶されたエッジ等の三次元位置情報を、それぞれの予測位置及び姿勢角候補でのカメラ画像に投影変換して評価点を設定する。これにより、評価用の投影画像が作成される。この投影画像に投影された評価点群は、後述するステップS160において、ステップS110で算出したエッジ画像上のエッジと比較される。   Next, in step S150, the projection image creation unit 20 creates a projection image (virtual image) for each of the plurality of particles dispersed in step S140. At this time, the evaluation point setting unit 22 sets the evaluation point by projecting and converting, for example, 3D position information such as an edge stored in the 3D map database 3 into a camera image at each predicted position and posture angle candidate. To do. Thereby, a projection image for evaluation is created. The evaluation point group projected on the projection image is compared with the edge on the edge image calculated in step S110 in step S160 described later.

尚、自車両周囲のエッジ情報の抽出方法は、三次元地図データベース3に記録された各エッジとカメラ2までの距離D(単位:m)を算出し、この距離が閾値Dth(m)以下のエッジ情報のみを抽出する。この距離の算出方法としては、厳密には各エッジの中央点とカメラ2の位置とで求めることが望ましいが、エッジの端点と車両位置で代替して計算コストを抑えてもよい。また、マッチングを行なうのはカメラ2の撮像範囲だけなので、カメラ2で撮像できる範囲のエッジのみを抽出してもよい。ただし、このとき用いる車両位置及び姿勢角は、ステップS130で求めた位置や姿勢角を用いる。すなわち、1ループ前のステップS170で推定した車両位置からステップS120で算出したオドメトリ分だけ移動させた位置や姿勢角を用いる。   In addition, the method of extracting edge information around the host vehicle calculates the distance D (unit: m) between each edge recorded in the three-dimensional map database 3 and the camera 2, and this distance is equal to or less than a threshold value Dth (m). Extract edge information only. Strictly speaking, it is desirable to calculate the distance by using the center point of each edge and the position of the camera 2. However, the calculation cost may be reduced by substituting the end point of the edge and the vehicle position. Further, since only the imaging range of the camera 2 is matched, only the edge of the range that can be captured by the camera 2 may be extracted. However, the position and posture angle obtained in step S130 are used as the vehicle position and posture angle used at this time. That is, the position and posture angle that are moved by the odometry calculated in step S120 from the vehicle position estimated in step S170 one loop before are used.

また、投影変換では、カメラ2の位置を示す外部パラメータと、カメラ2の内部パラメータとが必要となる。外部パラメータは、車両からカメラ2までの相対位置を予め計測しておくことによって、予測位置及び姿勢角候補から算出すればよい。また内部パラメータは、予めキャリブレーションをしておけばよい。   Further, in the projection conversion, an external parameter indicating the position of the camera 2 and an internal parameter of the camera 2 are required. The external parameter may be calculated from the predicted position and the posture angle candidate by measuring the relative position from the vehicle to the camera 2 in advance. The internal parameters may be calibrated in advance.

尚、ステップS110においてカメラ画像からエッジの輝度変化の方向やエッジ近辺のカラー等について抽出している場合には、それらを用いて投影画像を作成することが望ましい。   In step S110, when the edge luminance change direction, the color near the edge, and the like are extracted from the camera image, it is desirable to create a projection image using them.

次に、ステップS160において、尤度算出部24は、ステップS140で散布した複数のパーティクルのそれぞれについて、ステップS110で算出したエッジ画像と、ステップS150で作成した投影画像とを比較する。そして、比較した結果に基づいて、予測位置及び姿勢角候補であるパーティクルごとに尤度を算出する。この尤度とは、それぞれの予測位置及び姿勢角候補が、どれぐらい実際の車両の位置及び姿勢角に対して尤もらしいかを示す指標であり、投影画像とエッジ画像との一致度が高いほど、尤度が高くなるように設定されている。この尤度の求め方の一例を以下で説明する。   Next, in step S160, the likelihood calculating unit 24 compares the edge image calculated in step S110 with the projection image created in step S150 for each of the plurality of particles scattered in step S140. Then, based on the comparison result, the likelihood is calculated for each particle that is a predicted position and posture angle candidate. The likelihood is an index indicating how likely each predicted position and posture angle candidate is to the actual vehicle position and posture angle, and the higher the degree of coincidence between the projection image and the edge image, the higher the likelihood. The likelihood is set to be high. An example of how to obtain this likelihood will be described below.

まず、投影画像上において評価点を特定し、この評価点にエッジ画像上のエッジが存在するか否かを判定する。そして、エッジの有無が一致する場合には評価点を対象評価点とし、この対象評価点に対して評価値1を設定する。一方、エッジの有無が一致しない場合には評価値として0を設定する。次に、設定された評価値を、評価値補正部25によって補正し、このような処理を全評価点に対して行い、補正された評価値の総和である一致評価点の数を求める。そして、全ての予測位置及び姿勢角候補である各パーティクルについて一致評価点の数を算出したら、それぞれの合計値が1になるように正規化して尤度を算出する。尚、尤度の算出方法は、他にも多くの算出方法が考えられるので、それらの方法を用いてもよい。   First, an evaluation point is specified on the projection image, and it is determined whether or not an edge on the edge image exists at this evaluation point. If the presence or absence of an edge matches, an evaluation score is set as a target evaluation score, and an evaluation value 1 is set for the target evaluation score. On the other hand, if the presence or absence of an edge does not match, 0 is set as the evaluation value. Next, the set evaluation value is corrected by the evaluation value correction unit 25, and such processing is performed on all evaluation points, and the number of coincidence evaluation points, which is the sum of the corrected evaluation values, is obtained. After the number of coincidence evaluation points is calculated for each particle that is a candidate for all predicted positions and posture angles, the likelihood is calculated by normalization so that the total value is 1. In addition, since many other calculation methods can be considered as the calculation method of likelihood, you may use those methods.

ここで、評価値補正部25による評価値の補正方法について説明する。評価値補正部25は、投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、車両の進行方向に第1方向の軸を設定し、車両の進行方向と直交する車両の横方向に第2方向の軸を設定する。そして、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価値が増大するように補正する。特に、本実施形態では、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点の数を増加させることで、評価値が増大するように補正する。   Here, a method of correcting the evaluation value by the evaluation value correcting unit 25 will be described. The evaluation value correction unit 25 extracts a pair of edges that intersect in different directions from the edges set on the projection image, sets an axis in the first direction in the traveling direction of the vehicle, and sets the traveling direction of the vehicle The axis of the second direction is set in the lateral direction of the vehicle orthogonal to Then, the sum of the lengths of the first direction components of all the edges on the projected image is compared with the sum of the lengths of the second direction components, and the direction in which the sum of the lengths of the pair of edges is smaller is directed. Correction is performed so that the evaluation value on the edge increases. In particular, in the present embodiment, the evaluation value is corrected so as to increase by increasing the number of evaluation points on the edge of the pair of edges facing the direction in which the total length is small.

ただし、以下に示す一例では、第1方向成分の長さの総和が小さい場合に第1方向を向いたエッジ上の評価値が増大するように補正し、特に第1方向を向いたエッジ上の評価点の数を増加させることで、評価値が増大するように補正する。   However, in the example shown below, when the sum of the lengths of the first direction components is small, the evaluation value on the edge facing the first direction is corrected so as to increase, and particularly on the edge facing the first direction. By increasing the number of evaluation points, the evaluation value is corrected so as to increase.

ここで、図3を参照して、評価値補正部25による評価値の補正方法を具体的に説明する。図3に示すように、自車両31が道路上を走行し、カメラ2の撮像範囲W内にエッジE1〜E5が存在している場合について説明する。   Here, with reference to FIG. 3, the evaluation value correction method by the evaluation value correction unit 25 will be specifically described. As illustrated in FIG. 3, a case where the host vehicle 31 travels on a road and edges E1 to E5 exist within the imaging range W of the camera 2 will be described.

評価値補正部25は、投影画像の撮像範囲W内に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出する。例えば、E1とE3やE2とE4等がエッジのペアとして抽出される。ここで、エッジのペアを構成する2つのエッジは平行ではなく1次独立であればよい。したがって、道路左端の白線によるエッジと道路右端の白線によるエッジがエッジのペアを構成することはない。   The evaluation value correction unit 25 extracts a pair of edges that intersect in different directions from the edges set in the imaging range W of the projection image. For example, E1 and E3, E2 and E4, etc. are extracted as edge pairs. Here, the two edges constituting the pair of edges need not be parallel but may be linearly independent. Therefore, the edge formed by the white line at the left end of the road and the edge formed by the white line at the right end of the road do not form an edge pair.

そして、図3では、車両の進行方向であるX軸方向に第1方向の軸を設定し、車両の横方向(車幅方向)であるY軸方向に第2方向の軸を設定する。ただし、地面と平行な南北方向を第1方向の軸とし、地面と平行な東西方向を第2方向の軸としてもよく、その他の方向であってもよい。   In FIG. 3, an axis in the first direction is set in the X-axis direction that is the traveling direction of the vehicle, and an axis in the second direction is set in the Y-axis direction that is the lateral direction (vehicle width direction) of the vehicle. However, the north-south direction parallel to the ground may be used as the first direction axis, and the east-west direction parallel to the ground may be used as the second direction axis, or other directions may be used.

そして、投影画像内のすべてのエッジの第1方向成分の長さの総和Xa(単位:m)と第2方向成分の長さの総和Ya(単位:m)とを求める。図3では、エッジ画像内のエッジはE1〜E5となるので、
Xa=X1+X2
Ya=Y1+Y2+Y3
となる。
Then, the total length Xa (unit: m) of the lengths of the first direction components of all edges in the projection image and the total length Ya (unit: m) of the lengths of the second direction components are obtained. In FIG. 3, the edges in the edge image are E1 to E5.
Xa = X1 + X2
Ya = Y1 + Y2 + Y3
It becomes.

そして、評価値補正部25は、i番目のエッジEiの評価点の数Ni(小数点以下切り上げ)を、以下の式(1)に基づいて設定する。   Then, the evaluation value correction unit 25 sets the number of evaluation points Ni (rounded up after the decimal point) of the i-th edge Ei based on the following equation (1).

Ni=max[{Xi÷(Xa÷Na)},{Yi÷(Ya÷Na)},2]
=max[{(Xi・Na)/Xa},{(Yi・Na)/Ya},2] (1)
ここで、式(1)において、Naは各方向の評価点の総数であり、本実施形態では目安として1000個とする。また、Xiはi番目のエッジEiのX軸方向の長さ成分(単位:m)であり、Yiはi番目のエッジEiのY軸方向の長さ成分(単位:m)である。尚、評価点の数Niを2以上としているのは、エッジの端点には必ず評価点を設定するためである。
Ni = max [{Xi / (Xa / Na)}, {Yi / (Ya / Na)}, 2]
= Max [{(Xi · Na) / Xa}, {(Yi · Na) / Ya}, 2] (1)
Here, in the formula (1), Na is the total number of evaluation points in each direction, and is 1000 as a standard in this embodiment. Xi is the length component (unit: m) of the i-th edge Ei in the X-axis direction, and Yi is the length component (unit: m) of the i-th edge Ei in the Y-axis direction. The number Ni of evaluation points is set to 2 or more in order to always set evaluation points at the end points of the edge.

具体的に、式(1)を用いて図3のエッジE1について評価点の数N1を計算すると、Xi=X1、Yi=0となるので、N1は
N1=max[{(X1・Na)/Xa},{(0・Na)/Ya},2]
=(X1・Na)/Xa
となる。ただし、(X1・Na)/Xa<2の場合には、N1=2となる。
Specifically, if the number N1 of evaluation points is calculated for the edge E1 in FIG. 3 using the equation (1), Xi = X1 and Yi = 0, so that N1 is N1 = max [{(X1 · Na) / Xa}, {(0 · Na) / Ya}, 2]
= (X1 · Na) / Xa
It becomes. However, in the case of (X1 · Na) / Xa <2, N1 = 2.

このように、第1方向成分の長さの総和Xaと第2方向成分の長さの総和Yaのうち、Xa、Yaの値が小さいほうが(Xi・Na)/Xa、(Yi・Na)/Yaの値が大きくなる。したがって、評価点の数Niは、第1方向成分の長さの総和Xaと第2方向成分の長さの総和Yaとを比較して、長さの総和Xa、Yaの小さいほうの値に基づいて設定されることになる。   As described above, among the total length Xa of the first direction component and the total length Ya of the second direction component, the smaller value of Xa, Ya is (Xi · Na) / Xa, (Yi · Na) / The value of Ya increases. Therefore, the number Ni of evaluation points is based on a smaller value of the total lengths Xa and Ya by comparing the total length Xa of the first direction components with the total length Ya of the second direction components. Will be set.

その結果、長さの総和が小さい方向に多くの評価点が設定され、長さの総和が大きい方向に少ない評価点が設定されるので、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点の数を増加させることができる。これにより、長さの総和が小さい方向を向いたエッジ上の評価値が増大するように補正することができる。   As a result, many evaluation points are set in the direction in which the total length is smaller, and fewer evaluation points are set in the direction in which the total length is large. It is possible to increase the number of evaluation points on the edge. Thereby, it can correct | amend so that the evaluation value on the edge which faced the direction where the sum total of length is small may increase.

図3の例では、第1方向成分の長さの総和が小さいので、第1方向を向いたエッジ上の評価値が増大するように補正するために、特に第1方向を向いたエッジ上の評価点の数を増加させる。尚、長さの総和が小さい方向の評価点の数を増加させるのではなく、長さの総和が大きい方向の評価点の数を減少させてもよい。   In the example of FIG. 3, since the total sum of the lengths of the first direction components is small, in order to correct the evaluation value on the edge facing the first direction to increase, in particular on the edge facing the first direction. Increase the number of evaluation points. Instead of increasing the number of evaluation points in the direction in which the total length is small, the number of evaluation points in the direction in which the total length is large may be decreased.

このように評価点の数を設定することによって、X軸方向のエッジとY軸方向のエッジには長さにかかわらず評価点の数を同等に配置することができる。   By setting the number of evaluation points in this way, the number of evaluation points can be equally arranged on the edge in the X-axis direction and the edge in the Y-axis direction regardless of the length.

ただし、上述した式(1)を用いなくても、例えばXaがYaよりも小さい場合には、XiがYiよりも長いエッジEiの評価点の数を1つだけ増やす、または所定数だけ増やすという簡便な方法で評価点の数を増加させてもよい。   However, without using the above-described formula (1), for example, when Xa is smaller than Ya, Xi increases the number of evaluation points of edge Ei longer than Yi by one, or increases by a predetermined number. The number of evaluation points may be increased by a simple method.

そして、式(1)で算出した評価点の数Niで長さli(単位:m)のエッジEi上に評価点を設定する場合には、以下に示す式(2)で間隔Spi(単位:m)を求め、その間隔SpiでエッジEi上に評価点を配置する。   And when setting an evaluation point on the edge Ei of length li (unit: m) by the number Ni of the evaluation points calculated by the equation (1), an interval Spi (unit :) is expressed by the following equation (2). m) is obtained, and evaluation points are arranged on the edge Ei at the interval Spi.

Spi=li÷(Ni−1) (2)
こうして評価値補正部25は、エッジEi上に評価点を設定することができる。
Spi = li / (Ni-1) (2)
In this way, the evaluation value correction unit 25 can set an evaluation point on the edge Ei.

また、地面と平行な方向だけでなく、車両の鉛直方向にもう一つの軸(Z軸)を設定し、X軸、Y軸、Z軸方向で評価点の数が均一になるように設定してもよい。この場合、式(1)を式(3)に示すように置き換えて評価点の数を求めればよい。   In addition to the direction parallel to the ground, another axis (Z axis) is set in the vertical direction of the vehicle so that the number of evaluation points is uniform in the X axis, Y axis, and Z axis directions. May be. In this case, the number of evaluation points may be obtained by replacing equation (1) as shown in equation (3).

Ni=max[{Xi÷(Xa÷Na)},{Yi÷(Ya÷Na)},{Zi÷(Za÷Na)},2] (3)
ただし、Zaは投影画像内のすべてのエッジのZ軸方向成分の長さの総和(単位:m)、Ziはi番目のエッジEiのZ軸方向の長さ成分(単位:m)である。
Ni = max [{Xi ÷ (Xa ÷ Na)}, {Yi ÷ (Ya ÷ Na)}, {Zi ÷ (Za ÷ Na)}, 2] (3)
Here, Za is the total length (unit: m) of the Z-axis direction components of all edges in the projection image, and Zi is the length component (unit: m) of the i-th edge Ei in the Z-axis direction.

尚、上述の実施形態では、第1方向がX軸、第2方向がY軸の場合について説明したが、第1方向と第2方向がそれぞれY軸とZ軸でもよいし、X軸とZ軸でもよい。   In the above-described embodiment, the case where the first direction is the X axis and the second direction is the Y axis has been described. However, the first direction and the second direction may be the Y axis and the Z axis, respectively. An axis may be used.

また、評価点の密度が投影画像の解像度を上回るような場合には、解像度を上回った評価点を間引くようにしてもよい。   If the density of evaluation points exceeds the resolution of the projected image, evaluation points that exceed the resolution may be thinned out.

さらに、自車両(カメラ2)に近いエッジほど画面上では大きく写るので、式(1)、あるいは式(3)で求めた評価点の数を、自車両の近傍のエッジについては増加させ、遠方のエッジについては減少させるようにしてもよい。例えば、10m先のエッジについては評価点の数をその逆数である1/10にし、その増減の倍率を縦軸にとり、距離を横軸にとったマップを参照して演算するようにしてもよい。   Furthermore, since the edge closer to the own vehicle (camera 2) is shown larger on the screen, the number of evaluation points obtained by the equation (1) or (3) is increased for the edge near the own vehicle, and the distant The edges may be reduced. For example, for an edge 10 m ahead, the number of evaluation points may be set to 1/10, which is the reciprocal thereof, the magnification of the increase / decrease is taken on the vertical axis, and the distance may be calculated with reference to a map on the horizontal axis. .

次に、図4、5を参照して、本実施形態に係る移動体位置姿勢角推定装置10による効果を説明する。   Next, with reference to FIGS. 4 and 5, effects of the moving body position / posture angle estimation apparatus 10 according to the present embodiment will be described.

図4は、屋外駐車場において、自車両の横方向に白線のエッジが多数あり、自車両の進行方向にはエッジがほとんど存在しない場合の一例を示している。この場合に、白線上のエッジに均等な間隔で評価点を設定し、自車両の位置と姿勢角を適当に変化させながら、その都度、投影画像とエッジ画像とをマッチングさせて位置と姿勢角を推定する。   FIG. 4 shows an example in an outdoor parking lot where there are many white line edges in the lateral direction of the host vehicle and few edges exist in the traveling direction of the host vehicle. In this case, evaluation points are set at equal intervals on the edge on the white line, and the position and posture angle are matched by matching the projected image and the edge image each time while appropriately changing the position and posture angle of the host vehicle. Is estimated.

このとき、マッチングした評価点を黒丸、マッチングしなかった評価点を白丸で示すと、図4(a)に示すように、位置と姿勢角が真値に近い状態で投影画像とエッジ画像が重畳した場合には、全ての評価点でマッチングしていることが分かる。   At this time, if the matched evaluation points are indicated by black circles and the unmatched evaluation points are indicated by white circles, as shown in FIG. 4A, the projection image and the edge image are superimposed with the position and posture angle being close to true values. In this case, it can be seen that matching is made at all evaluation points.

これに対し、自車両の位置が真値から前方向、または右方向に同じ距離だけずれた状態ではそれぞれ図4(b)と図4(c)に示すように変化する。すなわち、同じ距離だけずれているにもかかわらず、前方向にずれた図4(b)では全ての評価点でマッチングしていない。これに対し、右方向にずれた図4(c)ではほとんどの評価点でマッチングしている。   On the other hand, when the position of the host vehicle deviates from the true value by the same distance in the forward direction or the right direction, it changes as shown in FIGS. 4B and 4C, respectively. In other words, in spite of being shifted by the same distance, not all the evaluation points are matched in FIG. On the other hand, in FIG. 4C shifted in the right direction, matching is performed at most evaluation points.

これは、エッジが横方向に極端に多く存在し、進行方向にはほとんど存在していないためである。したがって、エッジの長さに対して均等に評価点を設定していると、図4に示すようなエッジが偏って存在している状況では、自車両の位置と姿勢角を正確に推定することはできない。特に、図4では、横方向に誤差があっても検出しにくいので、横方向の位置を正確に検出することは困難であった。   This is because an extremely large number of edges are present in the lateral direction and hardly exist in the traveling direction. Therefore, if the evaluation points are set evenly with respect to the length of the edge, the position and posture angle of the host vehicle can be accurately estimated in the situation where the edges are unevenly present as shown in FIG. I can't. In particular, in FIG. 4, even if there is an error in the horizontal direction, it is difficult to detect, so it is difficult to accurately detect the position in the horizontal direction.

そこで、本実施形態では、評価値補正部25が、すべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、長さの総和が小さい方向の評価点の数を増加させることで、評価値が増大するように補正する。例えば、図4に示すように、車両の進行方向成分の長さの総和が小さい場合には、車両の進行方向の評価点の数を増加させるように補正する。   Therefore, in the present embodiment, the evaluation value correction unit 25 compares the sum of the lengths of the first direction components of all the edges with the sum of the lengths of the second direction components, and the direction in which the sum of the lengths is small. The evaluation value is corrected so as to increase by increasing the number of evaluation points. For example, as shown in FIG. 4, when the sum of the lengths of the traveling direction components of the vehicle is small, correction is made to increase the number of evaluation points in the traveling direction of the vehicle.

具体的に説明すると、図5(a)の拡大図に示すように、車両の進行方向にはエッジの端点のみに評価点が存在しているが、本実施形態では図5(b)に示すように車両の進行方向を向いたエッジに対して評価点を2つ増加させている。   More specifically, as shown in the enlarged view of FIG. 5A, evaluation points exist only at the end points of the edges in the traveling direction of the vehicle. In the present embodiment, the evaluation points are shown in FIG. 5B. Thus, two evaluation points are increased with respect to the edge facing the traveling direction of the vehicle.

これにより、エッジが一定の方向に偏って存在している場合でも評価点の数を調整して移動体の位置と姿勢角を正確に推定することが可能となる。また、評価点の偏重を軽減できるので、車両の横方向の位置の変化に対するマッチングの感度が、車両の進行方向の感度に近づくことになり、マッチングの精度や安定性を向上させることができる。   As a result, even when the edges are biased in a certain direction, it is possible to accurately estimate the position and posture angle of the moving body by adjusting the number of evaluation points. Further, since the unevenness of the evaluation points can be reduced, the sensitivity of matching with respect to a change in the lateral position of the vehicle approaches the sensitivity in the traveling direction of the vehicle, and the accuracy and stability of matching can be improved.

次に、ステップS170において、位置姿勢角推定部26は、ステップS160で算出した尤度情報を有する複数の予測位置及び姿勢角候補を用いて、最終的な車両の位置及び姿勢角を算出する。例えば、位置姿勢角推定部26は、尤度が最も高い予測位置及び姿勢角候補を、車両の実際の位置及び姿勢角として算出する。また、各予測位置及び姿勢角候補の尤度を用いて、予測位置及び姿勢角の重み付き平均を求め、その値を最終的な車両の位置及び姿勢角としてもよい。こうして車両の位置と姿勢角の推定結果が算出されると、本実施形態に係る移動体の位置姿勢角推定処理を終了する。   Next, in step S170, the position / orientation angle estimation unit 26 calculates the final position and orientation angle of the vehicle using the plurality of predicted position and attitude angle candidates having the likelihood information calculated in step S160. For example, the position / orientation angle estimation unit 26 calculates the predicted position and attitude angle candidate with the highest likelihood as the actual position and attitude angle of the vehicle. Further, a weighted average of the predicted position and posture angle may be obtained using the likelihood of each predicted position and posture angle candidate, and the values may be used as the final vehicle position and posture angle. When the estimation result of the position and posture angle of the vehicle is thus calculated, the position / posture angle estimation process of the moving body according to the present embodiment is terminated.

[第1実施形態の効果]
以上詳細に説明したように、本実施形態に係る移動体位置姿勢角推定装置では、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較する。そして、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価値が増大するように評価値を補正する。これにより、エッジの配置を考慮して評価値を補正できるので、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。
[Effect of the first embodiment]
As described above in detail, in the mobile object position / posture angle estimation device according to the present embodiment, the sum of the lengths of the first direction components and the length of the second direction components of all edges on the projection image Compare Then, the evaluation value is corrected so that the evaluation value on the edge facing the direction in which the total length of the pair of edges is small is increased. As a result, the evaluation value can be corrected in consideration of the arrangement of the edges, so that the position and posture angle of the moving body can be accurately estimated even when the edges are biased.

また、本実施形態に係る移動体位置姿勢角推定装置では、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点の数を増加させることで、評価値が増大するように評価値を補正する。これにより、長さの総和が大きい方向の評価点の数と小さい方向の評価点の数を均等にできるので、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。   Further, in the mobile object position / posture angle estimation apparatus according to the present embodiment, the evaluation value increases by increasing the number of evaluation points on the edge facing the direction in which the total length of the pair of edges is small. The evaluation value is corrected. This makes it possible to equalize the number of evaluation points in the direction with the larger total length and the number of evaluation points in the smaller direction, so that the position and posture angle of the moving object can be accurately estimated even when the edges are biased. can do.

[第2実施形態]
次に、本発明の第2実施形態に係る移動体位置姿勢角推定装置について図面を参照して説明する。
[Second Embodiment]
Next, a moving body position / posture angle estimation apparatus according to a second embodiment of the present invention will be described with reference to the drawings.

[移動体位置姿勢角推定システムの構成]
本実施形態に係る移動体位置姿勢角推定装置を搭載した移動体位置姿勢角推定システムの構成は、図1に示した第1実施形態と同一なので、同一の番号を付して詳細な説明は省略する。
[Configuration of moving body position / posture angle estimation system]
Since the configuration of the mobile object position / orientation angle estimation system equipped with the mobile object position / orientation angle estimation device according to this embodiment is the same as that of the first embodiment shown in FIG. Omitted.

ただし、本実施形態では、評価値補正部25の機能が第1実施形態と相違している。本実施形態の評価値補正部25は、異なる方向を向いて交差するエッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点に対して加算点を設定することで、評価値が増大するように評価値を補正する。そして、この加算点は、エッジの長さの総和の逆数に基づいて設定する。   However, in the present embodiment, the function of the evaluation value correction unit 25 is different from that of the first embodiment. The evaluation value correction unit 25 according to the present embodiment sets an addition point for an evaluation point on an edge that faces a direction in which the sum of lengths is small among pairs of edges that intersect in different directions. The evaluation value is corrected so that the value increases. This addition point is set based on the reciprocal of the sum of the edge lengths.

[移動体の位置姿勢角推定処理の手順]
本実施形態に係る移動体の位置姿勢角推定処理は、図2のステップS160で実行される評価値の補正方法が、第1実施形態と相違している。第1実施形態では、評価値補正部25が評価点の数を増加させていたが、本実施形態では、長さの総和が小さい方向を向いたエッジ上の評価点に対して加算点を設定する。
[Procedure for estimating the position and orientation angle of a moving object]
In the position / orientation angle estimation process of the moving body according to the present embodiment, the evaluation value correction method executed in step S160 of FIG. 2 is different from that of the first embodiment. In the first embodiment, the evaluation value correction unit 25 increases the number of evaluation points. However, in this embodiment, an additional point is set for the evaluation points on the edge facing the direction in which the total length is small. To do.

図2のステップS150において、評価点設定部22は、まず投影画像のエッジ上に評価点を設定する。このとき、本実施形態では評価点の数をエッジの長さに応じて均等に設定する場合について説明するが、上述した第1実施形態で説明したように、エッジの長さの総和が小さい方向の評価点の数を増加させるように設定してもよい。   In step S150 of FIG. 2, the evaluation point setting unit 22 first sets an evaluation point on the edge of the projection image. At this time, in this embodiment, the case where the number of evaluation points is set equally according to the length of the edge will be described. However, as described in the first embodiment, the direction in which the sum of the lengths of the edges is small is described. It may be set to increase the number of evaluation points.

そして、評価点を設定したら、ステップS160において、尤度算出部24が、投影画像とエッジ画像とを比較して、エッジ画像上のエッジと一致する投影画像上の評価点に対して評価値を設定する。例えば、エッジの有無が一致する場合には1を設定し、一致しない場合には0を設定する。   After the evaluation points are set, in step S160, the likelihood calculating unit 24 compares the projection image with the edge image, and sets an evaluation value for the evaluation point on the projection image that matches the edge on the edge image. Set. For example, 1 is set when the presence or absence of an edge matches, and 0 is set when they do not match.

ここで、設定された評価値を、評価値補正部25が補正する。具体的に説明すると、評価値補正部25は、投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点に対して加算点を設定する。   Here, the evaluation value correction unit 25 corrects the set evaluation value. More specifically, the evaluation value correction unit 25 compares the sum of the lengths of the first direction components of all the edges on the projection image with the sum of the lengths of the second direction components, and determines the pair of edges. An addition point is set for an evaluation point on an edge facing a direction in which the total length is small.

ただし、以下に示す一例では、第1方向成分の長さの総和が小さい場合に第1方向を向いたエッジ上の評価値が増大するように補正し、特に第1方向を向いたエッジ上の評価点に対して加算点を設定することで、評価値が増大するように補正する。   However, in the example shown below, when the sum of the lengths of the first direction components is small, the evaluation value on the edge facing the first direction is corrected so as to increase, and particularly on the edge facing the first direction. By setting an addition point for the evaluation point, the evaluation value is corrected so as to increase.

この加算点の設定方法を、第1実施形態の図3を例にして説明すると、評価値補正部25は、以下に示す式(4)に基づいて尤度の加算点Δiを設定する。   This adding point setting method will be described with reference to FIG. 3 of the first embodiment as an example. The evaluation value correcting unit 25 sets the likelihood adding point Δi based on the following equation (4).

Δi=max[(Xi÷Xa),(Yi÷Ya)] (4)
ただし、Xaは投影画像内のすべてのエッジの第1方向成分の長さの総和(単位:m)であり、Yaは第2方向成分の長さの総和(単位:m)である。また、Xiはi番目のエッジEiのX軸方向の長さ成分(単位:m)であり、Yiはi番目のエッジEiのY軸方向の長さ成分(単位:m)である。
Δi = max [(Xi ÷ Xa), (Yi ÷ Ya)] (4)
However, Xa is the total length (unit: m) of the first direction components of all edges in the projection image, and Ya is the total length (unit: m) of the second direction components. Xi is the length component (unit: m) of the i-th edge Ei in the X-axis direction, and Yi is the length component (unit: m) of the i-th edge Ei in the Y-axis direction.

このように、第1方向成分の長さの総和Xaと第2方向成分の長さの総和Yaの逆数に応じて加算点が設定されるので、加算点Δiは長さの総和Xa、Yaの小さいほうの値に基づいて設定される。その結果、長さの総和が小さい方向の加算点が大きくなるので、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価値を増大させることができる。   As described above, since the addition point is set according to the reciprocal of the total length Xa of the first direction component and the total length Ya of the second direction component, the addition point Δi is the sum of the lengths Xa and Ya. It is set based on the smaller value. As a result, the addition points in the direction in which the total length is small are increased, so that the evaluation value on the edge facing the direction in which the total length is small in the pair of edges can be increased.

図3の例では、第1方向成分の長さの総和が小さいので、第1方向を向いたエッジ上の評価値が増大するように補正するために、特に第1方向を向いたエッジ上の評価点に対して加算点を設定する。   In the example of FIG. 3, since the total sum of the lengths of the first direction components is small, in order to correct the evaluation value on the edge facing the first direction to increase, in particular on the edge facing the first direction. Add points for evaluation points.

ただし、上述した式(4)を用いなくても、例えばXaがYaよりも小さい場合には、XiがYiよりも長いエッジEi上の評価点における加算点を2倍にするという簡便な方法で評価値を補正してもよい。   However, even if Equation (4) described above is not used, for example, when Xa is smaller than Ya, a simple method of doubling the addition point at the evaluation point on edge Ei where Xi is longer than Yi. The evaluation value may be corrected.

こうして加算点Δiが設定されると、尤度算出部24は、各評価点に対して加算点Δiを加算して尤度を算出する。   When the addition point Δi is thus set, the likelihood calculating unit 24 calculates the likelihood by adding the addition point Δi to each evaluation point.

また、地面と平行な方向だけでなく、車両の鉛直方向にもう一つの軸(Z軸)を設定してもよい。この場合、式(4)を式(5)に示すように置き換えて加算点Δiを求めればよい。   Further, another axis (Z axis) may be set not only in the direction parallel to the ground but also in the vertical direction of the vehicle. In this case, the addition point Δi may be obtained by replacing equation (4) as shown in equation (5).

Δi=max[(Xi÷Xa),(Yi÷Ya),(Zi÷Za)] (5)
ただし、Zaは投影画像内のすべてのエッジのZ軸方向成分の長さの総和(単位:m)、Ziはi番目のエッジEiのZ軸方向の長さ成分(単位:m)である。
Δi = max [(Xi ÷ Xa), (Yi ÷ Ya), (Zi ÷ Za)] (5)
Here, Za is the total length (unit: m) of the Z-axis direction components of all edges in the projection image, and Zi is the length component (unit: m) of the i-th edge Ei in the Z-axis direction.

ここで、上述した加算点の設定方法について図6を参照して説明する。第1実施形態の図4で説明したように、エッジが車両の横方向に極端に多く存在し、車両の進行方向にほとんど存在していない場合には、エッジの長さに対して均等に評価点を設定すると、自車両の位置と姿勢角を正確に推定することができない。   Here, a method of setting the above-described addition point will be described with reference to FIG. As described with reference to FIG. 4 of the first embodiment, when there are an extremely large number of edges in the lateral direction of the vehicle and few in the traveling direction of the vehicle, the length of the edge is evaluated equally. If a point is set, the position and posture angle of the host vehicle cannot be accurately estimated.

そこで、本実施形態では、評価値補正部25が、長さの総和が小さい方向を向いたエッジ上の評価値が増大するように加算点を設定する。   Therefore, in this embodiment, the evaluation value correction unit 25 sets the addition point so that the evaluation value on the edge facing the direction in which the total length is small increases.

例えば、図6の拡大図に示すように、車両の進行方向を向いたエッジには、その端点に評価点P1、P2が存在しているだけなので、これらの評価点P1、P2に対して本実施形態では上述した式(4)に基づいて加算点Δiを設定する。そして、尤度算出部24は、尤度を算出する際に加算点Δiを加算して尤度を算出する。   For example, as shown in the enlarged view of FIG. 6, only the evaluation points P1 and P2 are present at the end points of the edge facing the traveling direction of the vehicle. In the embodiment, the addition point Δi is set based on the above-described equation (4). The likelihood calculating unit 24 calculates the likelihood by adding the addition point Δi when calculating the likelihood.

こうすることにより、長さの総和が小さい方向を向いたエッジ上の評価点において、尤度が大きく算出されることになる。したがって、エッジが一方向に偏って存在している場合でも正確に移動体の位置と姿勢角を推定することができる。   By doing so, the likelihood is calculated to be large at the evaluation point on the edge facing the direction in which the total length is small. Therefore, even when the edge is biased in one direction, the position and posture angle of the moving body can be accurately estimated.

[第2実施形態の効果]
以上詳細に説明したように、本実施形態に係る移動体位置姿勢角推定装置では、エッジのペアのうち長さの総和が小さい方向を向いたエッジ上の評価点に対して加算点を設定することで、評価値が増大するように補正する。これにより、長さの総和が小さい方向を向いたエッジ上の評価点の尤度が大きくなるので、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。
[Effects of Second Embodiment]
As described above in detail, in the mobile object position / orientation angle estimation device according to the present embodiment, an addition point is set for an evaluation point on an edge that faces a direction in which the total sum of lengths of the pair of edges is small. Thus, the evaluation value is corrected so as to increase. As a result, the likelihood of the evaluation points on the edges facing the direction in which the sum of the lengths is small increases, so that the position and posture angle of the moving object can be accurately estimated even when the edges are biased. it can.

また、本実施形態に係る移動体位置姿勢角推定装置では、エッジの長さの総和の逆数に基づいて加算点を設定するので、長さの総和が小さい方向を向いたエッジ上にある評価点の尤度を大きくできる。これにより、エッジが偏って存在している場合でも移動体の位置と姿勢角を正確に推定することができる。   Further, in the mobile object position / posture angle estimation device according to the present embodiment, since the addition point is set based on the reciprocal of the sum of the lengths of the edges, the evaluation points on the edges facing the direction in which the sum of the lengths is small The likelihood of can be increased. As a result, the position and posture angle of the moving body can be accurately estimated even when the edges are unevenly present.

なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and even if it is a form other than this embodiment, as long as it does not depart from the technical idea of the present invention, it depends on the design and the like. Of course, various modifications are possible.

1 ECU
2 カメラ
3 三次元地図データベース
4 車両センサ群
10 移動体位置姿勢角推定装置
12 エッジ画像算出部
14 オドメトリ算出部
16 パーティクル存在分布範囲設定部
18 パーティクル散布部
20 投影画像作成部
22 評価点設定部
24 尤度算出部
25 評価値補正部
26 位置姿勢角推定部
41 GPS受信機
42 アクセルセンサ
43 ステアリングセンサ
44 ブレーキセンサ
45 車速センサ
46 加速度センサ
47 車輪速センサ
48 その他センサ
1 ECU
2 camera 3 3D map database 4 vehicle sensor group 10 moving body position / posture angle estimation device 12 edge image calculation unit 14 odometry calculation unit 16 particle presence distribution range setting unit 18 particle scattering unit 20 projection image generation unit 22 evaluation point setting unit 24 Likelihood calculation unit 25 Evaluation value correction unit 26 Position / attitude angle estimation unit 41 GPS receiver 42 Accelerator sensor 43 Steering sensor 44 Brake sensor 45 Vehicle speed sensor 46 Acceleration sensor 47 Wheel speed sensor 48 Other sensors

Claims (5)

移動体の周囲環境を撮像した画像からエッジ画像を算出し、パーティクルフィルタを用いて散布されたパーティクルのそれぞれについて投影画像を作成し、前記投影画像と前記エッジ画像とを比較して尤度を算出することによって前記移動体の位置及び姿勢角を推定する移動体位置姿勢角推定装置であって、
前記投影画像を作成する際に前記投影画像上に評価点を設定する評価点設定部と、
前記投影画像と前記エッジ画像とを比較して、前記エッジ画像上のエッジと一致する前記投影画像上の評価点を対象評価点とし、前記対象評価点に対して所定の評価値を設定して前記評価値に基づいて尤度を算出する尤度算出部と、
前記尤度算出部によって設定された評価値を補正する評価値補正部とを備え、
前記評価値補正部は、前記投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、前記移動体の進行方向に第1方向の軸を設定し、前記移動体の進行方向と直交する前記移動体の横方向に第2方向の軸を設定し、前記投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、前記第1方向成分の長さの総和が小さい場合に前記第1方向を向いたエッジ上の評価値が増大するように前記評価値を補正することを特徴とする移動体位置姿勢角推定装置。
An edge image is calculated from an image of the surrounding environment of the moving object, a projection image is created for each of the dispersed particles using a particle filter, and the likelihood is calculated by comparing the projection image with the edge image. A mobile body position / posture angle estimation device that estimates the position and posture angle of the mobile body by:
An evaluation point setting unit for setting an evaluation point on the projection image when creating the projection image;
The projection image is compared with the edge image, and an evaluation point on the projection image that matches the edge on the edge image is set as a target evaluation point, and a predetermined evaluation value is set for the target evaluation point. A likelihood calculating unit for calculating likelihood based on the evaluation value;
An evaluation value correction unit that corrects the evaluation value set by the likelihood calculation unit,
The evaluation value correction unit extracts a pair of edges that intersect in different directions from the edges set on the projection image, sets an axis in a first direction as the traveling direction of the moving body, and An axis in the second direction is set in the lateral direction of the moving body perpendicular to the traveling direction of the moving body, and the sum of the lengths of the first direction components and the lengths of the second direction components of all edges on the projection image The evaluation value is corrected so that the evaluation value on the edge facing the first direction increases when the total sum of the lengths of the first direction components is small. Mobile body position / posture angle estimation device.
前記評価値補正部は、前記第1方向を向いたエッジ上の評価点の数を増加させることで、前記評価値が増大するように補正することを特徴とする請求項1に記載の移動体位置姿勢角推定装置。   The mobile object according to claim 1, wherein the evaluation value correction unit corrects the evaluation value so as to increase by increasing the number of evaluation points on the edge facing the first direction. Position and orientation angle estimation device. 前記評価値補正部は、前記第1方向を向いたエッジ上の評価点に対して加算点を設定することで、前記評価値が増大するように補正することを特徴とする請求項1または2に記載の移動体位置姿勢角推定装置。   The evaluation value correction unit corrects the evaluation value so as to increase by setting an addition point with respect to an evaluation point on an edge facing the first direction. The moving body position / posture angle estimation device according to claim 1. 前記加算点は、エッジの長さの総和の逆数に基づいて設定されることを特徴とする請求項3に記載の移動体位置姿勢角推定装置。   The mobile object position / posture angle estimation apparatus according to claim 3, wherein the addition point is set based on a reciprocal of a total sum of edge lengths. 移動体の周囲環境を撮像した画像からエッジ画像を算出し、パーティクルフィルタを用いて散布されたパーティクルのそれぞれについて投影画像を作成し、前記投影画像と前記エッジ画像とを比較して尤度を算出することによって前記移動体の位置及び姿勢角を推定する移動体位置姿勢角推定装置の移動体位置姿勢角推定方法であって、
前記投影画像を作成する際に前記投影画像上に評価点を設定し、
前記投影画像と前記エッジ画像とを比較して、前記エッジ画像上のエッジと一致する前記投影画像上の評価点を対象評価点とし、前記対象評価点に対して所定の評価値を設定して補正し、
前記評価値を補正するときには、前記投影画像上に設定されたエッジの中から異なる方向を向いて交差するエッジのペアを抽出し、前記移動体の進行方向に第1方向の軸を設定し、前記移動体の進行方向と直交する前記移動体の横方向に第2方向の軸を設定し、前記投影画像上のすべてのエッジの第1方向成分の長さの総和と第2方向成分の長さの総和とを比較して、前記第1方向成分の長さの総和が小さい場合に前記第1方向を向いたエッジ上の評価値が増大するように前記評価値を補正することを特徴とする移動体位置姿勢角推定方法。
An edge image is calculated from an image of the surrounding environment of the moving object, a projection image is created for each of the dispersed particles using a particle filter, and the likelihood is calculated by comparing the projection image with the edge image. A mobile body position / posture angle estimation method of a mobile body position / posture angle estimation apparatus for estimating the position and posture angle of the mobile body by
When creating the projection image, set an evaluation point on the projection image,
The projection image is compared with the edge image, and an evaluation point on the projection image that matches the edge on the edge image is set as a target evaluation point, and a predetermined evaluation value is set for the target evaluation point. Correct,
When correcting the evaluation value, a pair of edges that intersect in different directions is extracted from the edges set on the projection image, and an axis in the first direction is set in the traveling direction of the moving body, An axis in the second direction is set in the lateral direction of the moving body orthogonal to the traveling direction of the moving body, and the sum of the lengths of the first direction components of all edges on the projection image and the length of the second direction component are set. The evaluation value is corrected so that the evaluation value on the edge facing the first direction increases when the total length of the first direction component is small. A moving body position / posture angle estimation method.
JP2013224054A 2013-10-29 2013-10-29 Moving body position / posture angle estimation apparatus and moving body position / posture angle estimation method Expired - Fee Related JP6171849B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013224054A JP6171849B2 (en) 2013-10-29 2013-10-29 Moving body position / posture angle estimation apparatus and moving body position / posture angle estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013224054A JP6171849B2 (en) 2013-10-29 2013-10-29 Moving body position / posture angle estimation apparatus and moving body position / posture angle estimation method

Publications (2)

Publication Number Publication Date
JP2015087149A JP2015087149A (en) 2015-05-07
JP6171849B2 true JP6171849B2 (en) 2017-08-02

Family

ID=53050099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013224054A Expired - Fee Related JP6171849B2 (en) 2013-10-29 2013-10-29 Moving body position / posture angle estimation apparatus and moving body position / posture angle estimation method

Country Status (1)

Country Link
JP (1) JP6171849B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105279372B (en) 2015-09-29 2018-12-14 百度在线网络技术(北京)有限公司 A kind of method and apparatus of determining depth of building
JP7001985B2 (en) * 2016-12-16 2022-01-20 パナソニックIpマネジメント株式会社 Vehicle position estimation device, program, recording medium, and vehicle position estimation method
WO2018142580A1 (en) * 2017-02-03 2018-08-09 三菱電機株式会社 Display control apparatus and display control method
JP7032062B2 (en) * 2017-06-02 2022-03-08 株式会社Ihi Point cloud data processing device, mobile robot, mobile robot system, and point cloud data processing method
US11308346B2 (en) 2018-02-02 2022-04-19 Nec Corporation Sensor information integration system, sensor information integration method, and program
JP7010778B2 (en) * 2018-06-29 2022-01-26 国立大学法人東海国立大学機構 Observation position estimation device, its estimation method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011994A (en) * 2005-07-04 2007-01-18 Toyota Motor Corp Road recognition device
US9097532B2 (en) * 2010-01-20 2015-08-04 Honeywell International Inc. Systems and methods for monocular airborne object detection
JP5834933B2 (en) * 2012-01-17 2015-12-24 日産自動車株式会社 Vehicle position calculation device
JP5903901B2 (en) * 2012-01-17 2016-04-13 日産自動車株式会社 Vehicle position calculation device
JP5891802B2 (en) * 2012-01-17 2016-03-23 日産自動車株式会社 Vehicle position calculation device
JP5867176B2 (en) * 2012-03-06 2016-02-24 日産自動車株式会社 Moving object position and orientation estimation apparatus and method

Also Published As

Publication number Publication date
JP2015087149A (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP6171849B2 (en) Moving body position / posture angle estimation apparatus and moving body position / posture angle estimation method
JP6020729B2 (en) Vehicle position / posture angle estimation apparatus and vehicle position / posture angle estimation method
JP5867176B2 (en) Moving object position and orientation estimation apparatus and method
KR101880013B1 (en) Magnetic position estimating apparatus and magnetic position estimating method
JP5962771B2 (en) Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
US9912933B2 (en) Road surface detection device and road surface detection system
US9797981B2 (en) Moving-object position/attitude estimation apparatus and moving-object position/attitude estimation method
RU2678960C1 (en) Device for estimating vehicle position, method for estimating vehicle position
CN109923028B (en) Neutral point detection device and steering control system
CN110307791B (en) Vehicle length and speed calculation method based on three-dimensional vehicle boundary frame
CN110415298B (en) Calculation method for lane departure
JP6936098B2 (en) Object estimation device
WO2019031137A1 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
JP2007034989A (en) Slippage detection method and slippage correction method of imaging device, and imaging device
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method
JP6115429B2 (en) Own vehicle position recognition device
JP5561469B2 (en) Yaw rate correction apparatus and method
JP6690510B2 (en) Object recognition device
JP2015067030A (en) Driving assist system
JP2012159470A (en) Vehicle image recognition device
JP2013196401A (en) Road environment recognizing apparatus
JP7225079B2 (en) Obstacle recognition device
CN114730470A (en) Determining trailer orientation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R151 Written notification of patent or utility model registration

Ref document number: 6171849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees