JP6613961B2 - State estimation device, information terminal, information processing system, and program - Google Patents

State estimation device, information terminal, information processing system, and program Download PDF

Info

Publication number
JP6613961B2
JP6613961B2 JP2016037818A JP2016037818A JP6613961B2 JP 6613961 B2 JP6613961 B2 JP 6613961B2 JP 2016037818 A JP2016037818 A JP 2016037818A JP 2016037818 A JP2016037818 A JP 2016037818A JP 6613961 B2 JP6613961 B2 JP 6613961B2
Authority
JP
Japan
Prior art keywords
time
vehicle
moving body
cost
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016037818A
Other languages
Japanese (ja)
Other versions
JP2017156154A (en
Inventor
洪二郎 武山
清澄 城殿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2016037818A priority Critical patent/JP6613961B2/en
Publication of JP2017156154A publication Critical patent/JP2017156154A/en
Application granted granted Critical
Publication of JP6613961B2 publication Critical patent/JP6613961B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Image Analysis (AREA)

Description

本発明は、状態推定装置、情報端末、情報処理システム、及びプログラムに関する。   The present invention relates to a state estimation device, an information terminal, an information processing system, and a program.

従来、2時刻以上の連続するカメラ画像上で対応し合う特徴点の情報を利用することで自車両の姿勢角(3軸)と並進方向速度(3軸)とをそれぞれ求める技術が知られている。しかし、画像の特徴点の対応に誤りがある場合、推定結果に大きな誤差を生じる可能性がある。   Conventionally, there has been known a technique for obtaining a posture angle (three axes) and a translational speed (three axes) of a host vehicle by using feature point information corresponding to each other on two or more consecutive camera images. Yes. However, when there is an error in the correspondence between the feature points of the image, a large error may occur in the estimation result.

これに対し、特許文献1に記載の従来手法では、まず地磁気センサ・加速度センサなどを用いて姿勢角を既知とすることで、特徴点の誤差の影響を受けにくい状態で並進速度を推定する。次に、並進成分を既知とすることで誤対応を含む特徴点を検出・除外する。そして、最後に残った正しい特徴点を用いて移動体の姿勢及び並進方向速度を再計算することで、特徴点の対応に誤りがある場合でも精度の良い姿勢角および並進方向速度を得る。   On the other hand, in the conventional method described in Patent Document 1, first, the translational velocity is estimated in a state in which the posture angle is already known using a geomagnetic sensor, an acceleration sensor, or the like so as to be hardly affected by the error of the feature point. Next, feature points including erroneous correspondence are detected and excluded by making the translation component known. Then, by recalculating the posture and translational direction velocity of the moving body using the last correct feature point, accurate posture angle and translational direction velocity can be obtained even when there is an error in correspondence of the feature point.

特開2004−78315号公報JP 2004-78315 A

しかし、一般的に、複数画像を用いて姿勢・並進速度の推定を行う際には収束演算などを用いて観測方程式を解く必要があるが、もし特徴点の誤対応が少ない場合であったとしても、収束演算の初期値などの影響によって局所解に陥り大きな推定誤差が発生することがある。   However, in general, when estimating posture and translation speed using multiple images, it is necessary to solve the observation equation using convergence calculation, etc. However, a large estimation error may occur due to the local solution due to the influence of the initial value of the convergence calculation.

従来技術では外部センサを利用することで特徴点の誤対応の影響を軽減しているが、最終的に画像の特徴点情報のみを用いて姿勢・並進成分を推定するため、その際の初期値の設定などにより上記問題が生じ、最終的に大きく誤った推定結果が得られる可能性がある、という問題がある。   In the prior art, the effect of miscorresponding to feature points is reduced by using an external sensor, but since the posture and translation components are estimated using only the feature point information of the image, the initial values at that time There is a problem that the above problem may occur due to the setting of, and a large erroneous estimation result may be obtained in the end.

本発明は、上記の事情に鑑みてなされたもので、移動体の周辺の画像情報と移動体が取得した衛星情報とを考慮して、移動体の軌跡及び移動体の姿勢を精度良く推定することができる状態推定装置、情報端末、情報処理システム、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and accurately estimates the trajectory of the moving object and the posture of the moving object in consideration of the image information around the moving object and the satellite information acquired by the moving object. An object of the present invention is to provide a state estimation device, an information terminal, an information processing system, and a program.

上記目的を達成するために、本発明の状態推定装置は、移動体に搭載された受信手段によって受信された各時刻の衛星情報、及び移動体に搭載された撮像手段によって撮像された各時刻の前記移動体の周辺の画像を移動体情報として取得する取得手段と、前記取得手段によって取得された各時刻の前記画像の各々から特徴点を抽出し、各時刻の前記画像の各々において各特徴点を追跡する特徴点追跡手段と、前記特徴点追跡手段によって追跡された各特徴点の、各時刻の前記画像の各々における位置と、前記移動体の各時刻の位置、前記移動体の各時刻の姿勢、及び前記特徴点追跡手段によって追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の前記画像の各々における位置との差分、並びに前記取得手段によって取得された各時刻の前記衛星情報と、前記移動体の各時刻の姿勢との整合性を表すコストを最小化するように、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定する状態推定手段と、を含んで構成されている。   In order to achieve the above object, the state estimation apparatus of the present invention includes satellite information at each time received by the receiving means mounted on the moving body and each time imaged by the imaging means mounted on the moving body. An acquisition unit that acquires an image around the moving body as moving body information, and a feature point is extracted from each of the images at each time acquired by the acquisition unit, and each feature point in each of the images at each time A feature point tracking means for tracking the position of each of the feature points tracked by the feature point tracking means in each of the images at each time, a position of each time of the mobile object, and a time of each time of the mobile object Obtained from the posture and the three-dimensional position of each feature point tracked by the feature point tracking means, the difference of each feature point from the position in each of the images at each time, and acquired by the acquisition means The position of each time of the moving body and the posture of each time of the moving body are estimated so as to minimize the cost representing the consistency between the satellite information at each time and the posture of the moving body at each time. And state estimation means.

また、本発明のプログラムは、コンピュータを、移動体に搭載された受信手段によって受信された各時刻の衛星情報、及び移動体に搭載された撮像手段によって撮像された各時刻の前記移動体の周辺の画像を移動体情報として取得する取得手段、前記取得手段によって取得された各時刻の前記画像の各々から特徴点を抽出し、各時刻の前記画像の各々において各特徴点を追跡する特徴点追跡手段、及び前記特徴点追跡手段によって追跡された各特徴点の、各時刻の前記画像の各々における位置と、前記移動体の各時刻の位置、前記移動体の各時刻の姿勢、及び前記特徴点追跡手段によって追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の前記画像の各々における位置との差分、並びに前記取得手段によって取得された各時刻の前記衛星情報と、前記移動体の各時刻の姿勢との整合性を表すコストを最小化するように、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定する状態推定手段として機能させるためのプログラムである。   In addition, the program of the present invention is a program that includes a computer, satellite information at each time received by the receiving means mounted on the moving body, and the periphery of the moving body at each time imaged by the imaging means mounted on the moving body. Acquisition means for acquiring the image as moving body information, feature points are extracted from each of the images at each time acquired by the acquisition means, and each feature point is tracked in each of the images at each time And the position of each feature point tracked by the feature point tracking means in each of the images at each time, the position of each time of the mobile body, the posture of each time of the mobile body, and the feature points Each feature point obtained from the three-dimensional position of each feature point tracked by the tracking unit, the difference between each feature point and the position of each image at each time, and each time acquired by the acquisition unit State estimation for estimating the position of each time of the mobile body and the posture of each time of the mobile body so as to minimize the cost representing the consistency between the satellite information of the mobile body and the attitude of each time of the mobile body It is a program for functioning as a means.

本発明によれば、取得手段が、移動体に搭載された受信手段によって受信された各時刻の衛星情報、及び移動体に搭載された撮像手段によって撮像された各時刻の移動体の周辺の画像を移動体情報として取得する。   According to the present invention, the acquisition means includes satellite information at each time received by the receiving means mounted on the moving body, and an image of the periphery of the moving body at each time imaged by the imaging means mounted on the moving body. Is acquired as moving body information.

そして、特徴点追跡手段が、取得手段によって取得された各時刻の画像の各々から特徴点を抽出し、各時刻の画像の各々において各特徴点を追跡する。   Then, the feature point tracking means extracts feature points from each of the images at each time acquired by the acquisition means, and tracks each feature point in each of the images at each time.

そして、状態推定手段が、特徴点追跡手段によって追跡された各特徴点の、各時刻の画像の各々における位置と、移動体の各時刻の位置、移動体の各時刻の姿勢、及び特徴点追跡手段によって追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の画像の各々における位置との差分、並びに取得手段によって取得された各時刻の衛星情報と、移動体の各時刻の姿勢との整合性を表すコストを最小化するように、移動体の各時刻の位置及び移動体の各時刻の姿勢を推定する。   Then, the state estimation means detects the position of each feature point tracked by the feature point tracking means in each image at each time, the position of each time of the moving object, the posture of each time of the moving object, and the feature point tracking. Each feature point obtained from the three-dimensional position of each feature point tracked by the means, the difference between the position of each feature point in the image at each time, the satellite information at each time obtained by the obtaining means, and each of the moving objects The position of the moving body at each time and the posture of the moving body at each time are estimated so as to minimize the cost representing the consistency with the posture of the time.

このように、各時刻の自車両の周辺の画像の各々から特徴点を抽出し、各時刻の画像の各々において各特徴点を追跡し、追跡された各特徴点の、各時刻の画像の各々における位置と、自車両の各時刻の位置、自車両の各時刻の姿勢、及び追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の画像の各々における位置との差分、並びに取得された各時刻の衛星情報と、自車両の各時刻の姿勢との整合性を表すコストを最小化するように、自車両の各時刻の位置及び自車両の各時刻の姿勢を推定することにより、車両の周辺の画像情報と車両が取得した衛星情報とを考慮して、自車両の軌跡及び自車両の姿勢を精度良く推定することができる。   In this way, feature points are extracted from each of the surrounding images of the vehicle at each time, each feature point is tracked in each image at each time, and each image at each time of each tracked feature point is recorded. And the position of each feature point in each image of each time obtained from the position of each time of the own vehicle, the posture of each time of the own vehicle, and the three-dimensional position of each tracked feature point In addition, the position of the host vehicle at each time and the position of the host vehicle at each time are estimated so as to minimize the cost representing the consistency between the acquired satellite information at each time and the attitude of the host vehicle at each time. By doing so, it is possible to accurately estimate the trajectory of the host vehicle and the attitude of the host vehicle in consideration of the image information around the vehicle and the satellite information acquired by the vehicle.

また、本発明は、前記取得手段によって取得された各時刻の前記衛星情報に基づいて、各衛星についてのクロックドリフトを算出するクロックドリフト算出手段と、前記取得手段によって取得された各時刻の前記衛星情報に含まれる、各衛星の各時刻のドップラーシフトと、前記クロックドリフト算出手段によって算出された各衛星についてのクロックドリフト、及び前記移動体の各時刻の姿勢とに基づいて、前記ドップラーシフトから求められる前記移動体と各衛星との相対速度の観測値と、前記クロックドリフト及び前記移動体の各時刻の姿勢から求められる前記移動体と各衛星との相対速度の推定値との差分を表すドップラーコストを算出するドップラーコスト演算手段とを更に含み、前記状態推定手段は、前記差分と、前記ドップラーコスト演算手段によって算出された前記ドップラーコストとを含む前記コストを最小化するように、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定するようにすることができる。   The present invention also provides clock drift calculation means for calculating a clock drift for each satellite based on the satellite information at each time acquired by the acquisition means, and the satellite at each time acquired by the acquisition means. Obtained from the Doppler shift based on the Doppler shift at each time of each satellite, the clock drift for each satellite calculated by the clock drift calculating means, and the attitude of each time of the mobile body included in the information. Doppler representing the difference between the observed value of the relative speed between the mobile object and each satellite and the estimated value of the relative speed between the mobile object and each satellite obtained from the clock drift and the attitude of each time of the mobile object And a Doppler cost calculation means for calculating a cost, wherein the state estimation means includes the difference and the Doppler. The cost of including the said Doppler cost calculated by the cost calculation means so as to minimize, can be made to estimate the posture of each time the position and the moving body at each time of the moving body.

また、本発明は、ピッチ角算出手段を更に含み、前記取得手段は、前記移動体に搭載された速度センサによって検出された各時刻の速度と、前記移動体に搭載された加速度センサによって検出された各時刻の加速度と、前記移動体に搭載された角速度センサによって検出された各時刻の角速度とを前記移動体情報として更に取得し、前記ピッチ角算出手段は、前記取得手段によって取得された各時刻の前記速度及び各時刻の前記加速度に基づいて、前記移動体の各時刻のピッチ角を算出し、前記ピッチ角算出手段によって算出された前記移動体の各時刻のピッチ角と、前記移動体の姿勢のうちのピッチ角との差分を表すピッチ変化コストを算出するピッチ変化コスト演算手段と、前記取得手段によって取得された各時刻の前記速度から求められる移動体の位置の変化と、前記移動体の位置の変化との差分を表す位置変化コストを算出する位置変化コスト演算手段と、前記取得手段によって取得された各時刻の前記角速度から求められる移動体の方位角の変化と、前記移動体の姿勢のうちの方位角の変化との差分を表す方位変化コストを算出する方位変化コスト演算手段と、前記状態推定手段は、前記差分と、前記ドップラーコスト演算手段によって算出された前記ドップラーコストと、前記ピッチ変化コスト演算手段によって算出された前記ピッチ変化コストと、前記位置変化コスト演算手段によって算出された前記位置変化コストと、前記方位変化コスト演算手段によって算出された前記方位変化コストとを含む前記コストを最小化するように、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定するようにすることができる。   The present invention further includes pitch angle calculation means, and the acquisition means is detected by a speed at each time detected by a speed sensor mounted on the moving body and an acceleration sensor mounted on the moving body. Further, the acceleration at each time and the angular velocity at each time detected by the angular velocity sensor mounted on the mobile body are further acquired as the mobile body information, and the pitch angle calculation means is obtained by the acquisition means. Based on the speed of time and the acceleration at each time, the pitch angle at each time of the moving body is calculated, the pitch angle at each time of the moving body calculated by the pitch angle calculating means, and the moving body A pitch change cost calculating means for calculating a pitch change cost that represents a difference from the pitch angle of the postures, and the speed at each time obtained by the obtaining means. A position change cost calculating means for calculating a position change cost representing a difference between a change in the position of the moving body and a change in the position of the moving body, and a movement obtained from the angular velocity at each time obtained by the obtaining means. An azimuth change cost calculating means for calculating an azimuth change cost representing a difference between a change in an azimuth angle of a body and a change in an azimuth angle of the posture of the moving body; and the state estimating means, The Doppler cost calculated by the cost calculation means, the pitch change cost calculated by the pitch change cost calculation means, the position change cost calculated by the position change cost calculation means, and the direction change cost calculation means The position of each moving object and the previous time so as to minimize the cost including the direction change cost calculated by It can be made to estimate the posture of each time mobile.

また、本発明の前記状態推定手段は、予め定められた収束条件を満たすまで、前記移動体の各時刻の位置、及び前記移動体の各時刻の姿勢を推定することを繰り返す
ようにすることができる。
Further, the state estimation means of the present invention may repeatedly estimate the position of each time of the moving body and the posture of each time of the moving body until a predetermined convergence condition is satisfied. it can.

また、本発明の前記取得手段は、複数の前記移動体の各々について、前記移動体情報を取得し、前記状態推定手段は、複数の前記移動体の各々についての前記コストの総和を最小化するように、複数の前記移動体の各々について、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定するようにすることができる。   Further, the acquisition unit of the present invention acquires the mobile body information for each of the plurality of mobile bodies, and the state estimation unit minimizes the sum of the costs for each of the plurality of mobile bodies. In this way, for each of the plurality of moving bodies, the position of each time of the moving body and the posture of each time of the moving body can be estimated.

また、本発明は、測位手段を更に含み、前記取得手段は、定点観測地点において観測された各時刻の衛星情報及び前記定点観測地点に関する情報を更に取得し、前記測位手段は、複数の前記移動体の各々について、前記取得手段によって取得された前記定点観測地点の各時刻の前記衛星情報及び前記定点観測地点に関する情報に基づいて、前記移動体の各時刻の位置を推定し、前記状態推定手段は、複数の前記移動体の各々についての、前記測位手段によって推定された前記移動体の各時刻の位置と、前記移動体の各時刻の位置との差分を含む前記コストの総和を最小化するように、複数の前記移動体の各々について、前記移動体の各時刻の位置及び前記移動体の姿勢を推定するようにすることができる。   The present invention further includes positioning means, wherein the acquisition means further acquires satellite information at each time point observed at a fixed point observation point and information on the fixed point observation point, and the positioning means includes a plurality of the movements. For each of the bodies, based on the satellite information at each time of the fixed point observation point acquired by the acquisition unit and information on the fixed point observation point, the position of each time of the moving body is estimated, and the state estimation unit Minimizes the sum of the costs including the difference between the position of each time of the moving object estimated by the positioning means and the position of each time of the moving object for each of the plurality of moving objects. As described above, for each of the plurality of moving objects, the position of the moving object at each time and the posture of the moving object can be estimated.

また、本発明の情報端末は、移動体に搭載された情報端末であって、前記移動体に搭載された受信手段によって受信された各時刻の衛星情報、前記移動体に搭載された撮像手段によって撮像された各時刻の前記移動体の周辺の画像、前記移動体に搭載された速度センサによって検出された各時刻の速度、前記移動体に搭載された加速度センサによって検出された各時刻の加速度、及び前記移動体に搭載された角速度センサによって検出された各時刻の角速度の少なくとも1つを前記移動体情報として取得する情報取得手段と、前記情報取得手段によって取得された前記移動体情報を、本発明の状態推定装置へ送信する通信手段と、を含んで構成されている。   The information terminal according to the present invention is an information terminal mounted on a mobile body, and includes satellite information at each time received by a receiving unit mounted on the mobile body, and an imaging unit mounted on the mobile body. Images of the surroundings of the moving body at each time taken, speeds at each time detected by a speed sensor mounted on the moving body, accelerations at each time detected by an acceleration sensor mounted on the moving body, And information acquisition means for acquiring at least one angular velocity at each time detected by the angular velocity sensor mounted on the mobile body as the mobile body information, and the mobile body information acquired by the information acquisition means, And communication means for transmitting to the state estimation device of the invention.

また、本発明の情報処理システムは、本発明の状態推定装置と、本発明の情報端末とを含んで構成されている。   The information processing system of the present invention includes the state estimation device of the present invention and the information terminal of the present invention.

なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。   The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.

以上説明したように、本発明の状態推定装置、情報端末、情報処理システム、及びプログラムによれば、各時刻の移動体の周辺の画像の各々から抽出された各特徴点を追跡し、追跡された各特徴点の、各時刻の画像の各々における位置と、移動体の各時刻の位置、移動体の各時刻の姿勢、及び追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の画像の各々における位置との差分、並びに取得された各時刻の衛星情報と、移動体の各時刻の姿勢との整合性を表すコストを最小化するように、移動体の各時刻の位置及び移動体の各時刻の姿勢を推定することにより、移動体の周辺の画像情報と移動体が取得した衛星情報とを考慮して、移動体の軌跡及び移動体の姿勢を精度良く推定することができる、という効果が得られる。   As described above, according to the state estimation device, information terminal, information processing system, and program of the present invention, each feature point extracted from each of the images around the moving body at each time is tracked and tracked. Each feature point is obtained from the position of each feature point in each image at each time, the position of each time point of the moving object, the posture of each time point of the moving object, and the three-dimensional position of each tracked feature point. Each time of the mobile unit so as to minimize the difference between the position of each image at each time and the satellite information obtained at each time and the consistency between the attitude of each time of the mobile unit By estimating the position of the mobile object and the posture of the mobile object at each time, the trajectory of the mobile object and the posture of the mobile object are accurately estimated in consideration of the image information around the mobile object and the satellite information acquired by the mobile object. The effect that it can do is acquired.

本発明の第1の実施の形態に係る状態推定装置を示すブロック図である。It is a block diagram which shows the state estimation apparatus which concerns on the 1st Embodiment of this invention. 本発明の実施の形態に係る処理の流れを説明するための説明図である。It is explanatory drawing for demonstrating the flow of the process which concerns on embodiment of this invention. 自車両のピッチ角と自車両の方位角と3次元回転行列との関係を説明するための説明図である。It is explanatory drawing for demonstrating the relationship between the pitch angle of the own vehicle, the azimuth angle of the own vehicle, and a three-dimensional rotation matrix. 画像における特徴点と自車両の方位との関係を説明するための説明図である。It is explanatory drawing for demonstrating the relationship between the feature point in an image, and the direction of the own vehicle. 画像における特徴点と自車両の方位との関係を説明するための説明図である。It is explanatory drawing for demonstrating the relationship between the feature point in an image, and the direction of the own vehicle. 本発明の第1の実施の形態の効果を説明するための説明図である。It is explanatory drawing for demonstrating the effect of the 1st Embodiment of this invention. 本発明の第1の実施の形態における車両状態推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the vehicle state estimation process routine in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるコスト演算処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the cost calculation processing routine in the 1st Embodiment of this invention. 本発明の第2の実施の形態の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る情報処理システムを示すブロック図である。It is a block diagram which shows the information processing system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る車載装置を示すブロック図である。It is a block diagram which shows the vehicle-mounted apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る固定点観測装置を示すブロック図である。It is a block diagram which shows the fixed point observation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る状態推定装置を示すブロック図である。It is a block diagram which shows the state estimation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態の効果を説明するための説明図である。It is explanatory drawing for demonstrating the effect of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の効果を説明するための説明図である。It is explanatory drawing for demonstrating the effect of the 2nd Embodiment of this invention. 本発明の第2の実施の形態における車両状態推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the vehicle state estimation process routine in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるコスト演算処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the cost calculation processing routine in the 2nd Embodiment of this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<本発明の第1の実施の形態に係る状態推定装置10の構成> <Configuration of State Estimation Device 10 according to First Embodiment of the Present Invention>

図1に示すように、第1の実施の形態に係る状態推定装置10は、自車両の周辺の画像を逐次撮像するカメラ12と、自車両の加速度を逐次検出する加速度センサ14と、自車両の速度を逐次検出する速度センサ16と、自車両の角速度を逐次検出する角速度センサ18と、各測位衛星から送信される衛星情報を逐次受信するGPS(Global Positioning System)装置19と、自車両の各時刻の位置及姿勢を推定するコンピュータ20とを備えている。第1の実施の形態では、状態推定装置10が車両に搭載される場合について説明する。また、第1の実施の形態では、単独の車両がGPS装置、内部センサ、及びカメラによって得られた画像の情報を最適化することで自車両の軌跡及び自車両の各時刻の姿勢を精度良く推定する。   As shown in FIG. 1, the state estimation device 10 according to the first embodiment includes a camera 12 that sequentially captures images around a host vehicle, an acceleration sensor 14 that sequentially detects the acceleration of the host vehicle, and the host vehicle. Speed sensor 16 that sequentially detects the speed of the vehicle, angular velocity sensor 18 that sequentially detects the angular velocity of the host vehicle, a GPS (Global Positioning System) device 19 that sequentially receives satellite information transmitted from each positioning satellite, And a computer 20 for estimating the position and orientation at each time. 1st Embodiment demonstrates the case where the state estimation apparatus 10 is mounted in a vehicle. Further, in the first embodiment, a single vehicle optimizes the information of the images obtained by the GPS device, the internal sensor, and the camera so that the trajectory of the own vehicle and the posture of the own vehicle at each time can be accurately obtained. presume.

カメラ12は、各時刻の自車両の周辺の画像を撮像する。なお、カメラは1台のみでもよいし、複数台でもよい。また、カメラ12の撮像範囲は、自車両の進行方向を向いていてもよいし、後ろ向きまたは全方位でもよい。カメラ12は、撮像手段の一例である。   The camera 12 captures an image around the host vehicle at each time. Note that there may be only one camera or a plurality of cameras. Further, the imaging range of the camera 12 may face the traveling direction of the host vehicle, or may be backward or omnidirectional. The camera 12 is an example of an imaging unit.

加速度センサ14は、各時刻の自車両の加速度を検出する。本実施形態では、自車両の並進加速度を取得する。なお、本実施形態において、最低限必要であるのは車両進行方向への加速度であるが、車両横方向や上下方向の加速度も取得し同時に利用してもよい。   The acceleration sensor 14 detects the acceleration of the host vehicle at each time. In this embodiment, the translation acceleration of the host vehicle is acquired. In this embodiment, the minimum requirement is acceleration in the vehicle traveling direction. However, acceleration in the vehicle lateral direction and vertical direction may be acquired and used simultaneously.

速度センサ16は、各時刻の自車両の速度を検出する。なお、本実施形態では、速度センサ16は、自車両の車輪のオドメーターで計測される車輪速を取得する。なお、車輪速以外の車速推定手段(例えば、衛星情報、レーザレーダなどの測距情報、加速度センサなど)を利用してもよい。   The speed sensor 16 detects the speed of the host vehicle at each time. In the present embodiment, the speed sensor 16 acquires the wheel speed measured by the odometer of the wheel of the host vehicle. Note that vehicle speed estimation means other than the wheel speed (for example, satellite information, ranging information such as laser radar, an acceleration sensor, etc.) may be used.

角速度センサ18は、各時刻の自車両の角速度を検出する。本実施の形態では、角速度センサ18は、ヨーレイトを角速度として検出する。なお、本実施の形態では、角速度センサ18はヨーレイトを検出するが、ピッチ角速度またはロール角速度を併せて検出してもよい。   The angular velocity sensor 18 detects the angular velocity of the host vehicle at each time. In the present embodiment, the angular velocity sensor 18 detects the yaw rate as an angular velocity. In this embodiment, the angular velocity sensor 18 detects the yaw rate, but may also detect the pitch angular velocity or the roll angular velocity.

GPS装置19は、各時刻について、擬似距離、ドップラー周波数、衛星番号、衛星位置、衛星速度等を含む衛星情報を、各測位衛星から受信する。GPS装置19は、受信手段の一例である。   The GPS device 19 receives satellite information from each positioning satellite including pseudorange, Doppler frequency, satellite number, satellite position, satellite velocity, etc. for each time. The GPS device 19 is an example of a receiving unit.

コンピュータ20は、CPU、後述する車両状態推定処理ルーチンを実現するためのプログラムを記憶したROM、データを一時的に記憶するRAM、及びHDD等の記憶装置で構成されている。このコンピュータ20を機能ブロックで表すと、図1に示すように、画像取得部22と、加速度取得部24と、車速取得部26と、角速度取得部28と、衛星情報取得部30と、データ蓄積部32と、特徴点追跡部36と、車両ピッチ角算出部38と、クロックドリフト算出部40と、軌跡姿勢推定部42とを含んだ構成で表すことができる。画像取得部22、加速度取得部24、車速取得部26、角速度取得部28、及び衛星情報取得部30は、取得手段の一例である。また、軌跡姿勢推定部42は状態推定手段の一例である。   The computer 20 includes a CPU, a ROM that stores a program for realizing a vehicle state estimation processing routine that will be described later, a RAM that temporarily stores data, and a storage device such as an HDD. When the computer 20 is represented by functional blocks, as shown in FIG. 1, an image acquisition unit 22, an acceleration acquisition unit 24, a vehicle speed acquisition unit 26, an angular velocity acquisition unit 28, a satellite information acquisition unit 30, and data storage. It can be expressed by a configuration including a unit 32, a feature point tracking unit 36, a vehicle pitch angle calculation unit 38, a clock drift calculation unit 40, and a trajectory posture estimation unit 42. The image acquisition unit 22, the acceleration acquisition unit 24, the vehicle speed acquisition unit 26, the angular velocity acquisition unit 28, and the satellite information acquisition unit 30 are examples of acquisition means. The trajectory posture estimation unit 42 is an example of a state estimation unit.

画像取得部22は、カメラ12によって撮像された各時刻の自車両の周辺の画像を取得する。   The image acquisition unit 22 acquires an image around the host vehicle at each time imaged by the camera 12.

加速度取得部24は、加速度センサ14によって検出された自車両の各時刻の加速度を取得する。   The acceleration acquisition unit 24 acquires the acceleration at each time of the host vehicle detected by the acceleration sensor 14.

車速取得部26は、速度センサ16によって検出された自車両の各時刻の速度を取得する。   The vehicle speed acquisition unit 26 acquires the speed at each time of the host vehicle detected by the speed sensor 16.

角速度取得部28は、角速度センサ18によって検出された自車両の各時刻の角速度を取得する。なお、最低限必要な角速度はヨーレイトであるが、ピッチレイトやロールレイトも取得し同時に利用してもよい。   The angular velocity acquisition unit 28 acquires the angular velocity at each time of the host vehicle detected by the angular velocity sensor 18. The minimum required angular velocity is yaw rate, but pitch rate and roll rate may be acquired and used simultaneously.

衛星情報取得部30は、GPS装置19によって受信された各時刻の衛星情報を取得する。衛星情報の内容としては、一般的に使われるローデータ(例えば、疑似距離、ドップラーシフト、GPS時刻、SNR、搬送波位相)と衛星軌道情報、対流圏又は電離層補正係数とする。なお、GPSだけでなく、GLONASS(Global Navigation Satellite System)、Beidou(BeiDou Navigation Satellite System)、Gallileo、QZSS(Quasi Zenith Satellites System)などを利用してもよい。   The satellite information acquisition unit 30 acquires the satellite information at each time received by the GPS device 19. The contents of the satellite information include commonly used raw data (eg, pseudorange, Doppler shift, GPS time, SNR, carrier phase), satellite orbit information, troposphere or ionosphere correction factor. In addition to GPS, GLONASS (Global Navigation Satellite System), Beidou (BeiDou Navigation Satellite System), Gallileo, QZSS (Quasi Zenith Satellites System), and the like may be used.

データ蓄積部32には、画像取得部22によって取得された各時刻の画像と、加速度取得部24によって取得された各時刻の加速度と、車速取得部26によって取得された各時刻の速度と、角速度取得部28によって取得された各時刻の角速度と、衛星情報取得部30によって取得された各時刻の衛星情報とが、車両データとして時系列に蓄積される。本実施形態では、走行距離が1m増える毎にデータ蓄積を行い、蓄積データが100個を超えた場合は新たなデータを蓄積する毎に最古のデータを破棄する。ただし、蓄積のタイミングは任意のタイムステップ毎やデータ受信毎でもよいし、蓄積データ数は増減してもよい。データ蓄積部32に格納される各データは、移動体情報の一例である。   The data storage unit 32 includes an image at each time acquired by the image acquisition unit 22, an acceleration at each time acquired by the acceleration acquisition unit 24, a speed at each time acquired by the vehicle speed acquisition unit 26, and an angular velocity. The angular velocity at each time acquired by the acquisition unit 28 and the satellite information at each time acquired by the satellite information acquisition unit 30 are accumulated in time series as vehicle data. In this embodiment, data accumulation is performed every time the travel distance increases by 1 m, and when the accumulated data exceeds 100, the oldest data is discarded every time new data is accumulated. However, the accumulation timing may be every arbitrary time step or data reception, and the number of accumulated data may be increased or decreased. Each data stored in the data storage unit 32 is an example of mobile information.

特徴点追跡部36は、データ蓄積部32に格納された各時刻の画像の各々から特徴点を抽出し、各時刻の画像の各々において抽出された各特徴点を追跡する。特徴点は、画像から抽出される特徴的な画素パターンである。   The feature point tracking unit 36 extracts feature points from each image at each time stored in the data storage unit 32, and tracks each feature point extracted from each image at each time. A feature point is a characteristic pixel pattern extracted from an image.

具体的には、特徴点追跡部36は、まず初めに、データ蓄積部32に格納された最古の画像からN個の特徴点を抽出する。次に、特徴点追跡部36は、データ蓄積部32に格納された各画像について、特徴点を抽出した結果に基づいて、順次新しい時刻の画像において各特徴点を追跡する。   Specifically, the feature point tracking unit 36 first extracts N feature points from the oldest image stored in the data storage unit 32. Next, the feature point tracking unit 36 sequentially tracks each feature point in the image at the new time based on the result of extracting the feature points for each image stored in the data storage unit 32.

なお、特徴点追跡部36は、追跡の過程で、途中で特徴点の追跡が失敗した場合にはその特徴点はそれ以上追跡せず、その代わりとして当該時刻の画像中で新たに別の特徴点を抽出し追跡処理を行う。結果として特徴点追跡部36による処理によって、時刻tにおける特徴点iの画像上座標を格納した配列x(t,i)が算出される。   Note that the feature point tracking unit 36 does not track any more feature points if tracking of feature points fails during the tracking process. Instead, the feature point tracking unit 36 newly adds another feature in the image at that time. A point is extracted and a tracking process is performed. As a result, the processing by the feature point tracking unit 36 calculates an array x (t, i) that stores the on-image coordinates of the feature point i at time t.

特徴点の選び方としては多様な手法が提案されているが、ロバスト性の高いSIFT、実装が容易なHarris、計算負荷が低いFASTなど任意の手法でよい。また、点特徴以外にも、線や面などの特徴量を用いてもよい。特徴点の追跡方法はLucas−Kanadeなど一般的な手法でもよいし、その他の手法でもよい。   Various methods have been proposed for selecting feature points, but any method such as SIFT with high robustness, Harris with easy implementation, FAST with low calculation load, etc. may be used. In addition to point features, feature quantities such as lines and surfaces may be used. The feature point tracking method may be a general method such as Lucas-Kanade or another method.

車両ピッチ角算出部38は、データ蓄積部32に格納された、自車両の各時刻の速度及び各時刻の加速度に基づいて、自車両の各時刻のピッチ角を算出する。以下の式(1)にピッチ角の算出式を示す。   The vehicle pitch angle calculation unit 38 calculates the pitch angle at each time of the host vehicle based on the speed at each time and the acceleration at each time stored in the data storage unit 32. The following formula (1) shows a formula for calculating the pitch angle.

Figure 0006613961
Figure 0006613961

上記式(1)のφは自車両のピッチ角、Aは加速度取得部24で取得された自車両進行方向への加速度、vは車速取得部26で取得された速度、gは重力加速度、Tは現時刻、Δtは任意のタイムステップを示す。なお、ここではΔtを0.5sとするが、他の値でもよい。   In the above equation (1), φ is the pitch angle of the host vehicle, A is the acceleration in the traveling direction of the host vehicle acquired by the acceleration acquiring unit 24, v is the speed acquired by the vehicle speed acquiring unit 26, g is gravitational acceleration, T Indicates the current time, and Δt indicates an arbitrary time step. Here, Δt is 0.5 s, but other values may be used.

クロックドリフト算出部40は、データ蓄積部32に格納された各時刻の衛星情報に基づいて、各衛星についてのクロックドリフトを算出する。クロックドリフトは、衛星受信機の時計誤差変化率を表す。以下の式(2)に、一般的なクロックドリフト算出の式を示す。   The clock drift calculation unit 40 calculates the clock drift for each satellite based on the satellite information at each time stored in the data storage unit 32. Clock drift represents the rate of change in clock error of the satellite receiver. The following formula (2) shows a general clock drift calculation formula.

Figure 0006613961
Figure 0006613961

上記式(2)のインデックスiは衛星iの観測値であることを示し、Dはドップラーシフト[Hz]、f1は衛星信号の周波数[Hz]、cは光速[m/s]、Vは自車両の3次元速度ベクトル[m/s]、vは衛星iの3次元速度ベクトル[m/s]、ρは単位時間あたりの受信機内の時計誤差変化率(クロックドリフト)[s/s]を示す。また、Gは自車から衛星iへの視線方向単位ベクトルであり、自車の概算3次元位置X[m]、衛星iの3次元位置x[m]を用いて表される。 Index i of the expression (2) indicates that the observed value of the satellite i, D i is the Doppler shift [Hz], f1 is the frequency of the satellite signal [Hz], c is the speed of light [m / s], V is 3-dimensional velocity vector of the vehicle [m / s], v i is the three-dimensional velocity vector [m / s] of the satellite i, [rho watch error change rate of the receiver per unit time (clock drift) [s / s ] Is shown. G i is a line-of-sight direction unit vector from the own vehicle to the satellite i, and is expressed using an approximate three-dimensional position X [m] of the own vehicle and a three-dimensional position x i [m] of the satellite i.

上記式(2)中、Dは受信機から得られる観測値、f1、cは既知の固定値、v、xは衛星の軌道情報を用いて一般的により正確に算出できる既知の値、Xは疑似距離観測値を用いて一般的な方法で算出できる値であるため、未知数は自車の3次元速度ベクトルVとクロックドリフトρの4つとなる。 In the above equation (2), D i is an observed value obtained from the receiver, f 1 and c are known fixed values, and v i and x i are generally known values that can be calculated more accurately using satellite orbit information. , X is a value that can be calculated by a general method using the pseudorange observation value, and therefore, there are four unknowns: a three-dimensional velocity vector V of the own vehicle and a clock drift ρ.

このため、クロックドリフト算出部40は、衛星が4機以上観測された場合に、上記(2)式の観測方程式を解きクロックドリフトを算出する。   Therefore, when four or more satellites are observed, the clock drift calculation unit 40 calculates the clock drift by solving the observation equation (2).

以上では衛星情報のみを用いてクロックドリフトを算出する方法を示したが、衛星情報、ジャイロ、車輪速の時系列データを利用することで衛星受信環境に対するロバスト性を向上させたクロックドリフト算出手法(例えば、特開2013‐113789号公報を参照)を用いてもよい。   Although the method for calculating the clock drift using only satellite information has been described above, the clock drift calculation method that improves the robustness to the satellite reception environment by using the time series data of satellite information, gyroscope, and wheel speed ( For example, you may use Unexamined-Japanese-Patent No. 2013-113789).

軌跡姿勢推定部42は、データ蓄積部32に格納された各時刻の衛星情報と、特徴点追跡部36によって各時刻の画像の各々において抽出された各特徴点の追跡結果と、車両ピッチ角算出部38によって算出された自車両の各時刻のピッチ角と、クロックドリフト算出部40によって算出されたクロックドリフトに基づいて、自車両の各時刻の軌跡及び自車両の各時刻の姿勢を推定する。   The trajectory posture estimation unit 42 includes satellite information at each time stored in the data storage unit 32, tracking results of each feature point extracted in each of the images at each time by the feature point tracking unit 36, and vehicle pitch angle calculation. Based on the pitch angle at each time of the host vehicle calculated by the unit 38 and the clock drift calculated by the clock drift calculating unit 40, the trajectory of the host vehicle at each time and the posture of the host vehicle at each time are estimated.

軌跡姿勢推定部42は、暫定軌跡姿勢演算部44と、特徴点コスト演算部46と、ピッチ変化コスト演算部48と、位置変化コスト演算部50と、方位変化コスト演算部52と、ドップラーコスト演算部54と、最適軌跡姿勢決定部56とを備えている。   The trajectory posture estimation unit 42 includes a provisional trajectory posture calculation unit 44, a feature point cost calculation unit 46, a pitch change cost calculation unit 48, a position change cost calculation unit 50, an azimuth change cost calculation unit 52, and a Doppler cost calculation. A unit 54 and an optimum trajectory posture determination unit 56.

図2に、軌跡姿勢推定部42の処理を説明するための図を示す。軌跡姿勢推定部42では、図2に示すように、暫定軌跡姿勢演算部44によって、自車両の軌跡、自車両の姿勢、特徴点追跡部36によって各時刻の画像の各々において抽出された各特徴点の3次元位置の暫定値が算出される。次に、各コスト演算部によって、算出された暫定値に対するコストを演算される。そして、最適軌跡姿勢決定部56によって、予め定められた収束条件が満たされたか否かが判定され、最適な自車両の軌跡及び自車両の姿勢を出力する。以下、各処理について説明する。   FIG. 2 shows a diagram for explaining the processing of the trajectory posture estimation unit 42. In the trajectory posture estimation unit 42, as shown in FIG. 2, the trajectory of the host vehicle, the posture of the host vehicle, and the features extracted from the images at the respective times by the feature point tracking unit 36 by the provisional trajectory posture calculation unit 44. A provisional value of the three-dimensional position of the point is calculated. Next, the cost for the calculated provisional value is calculated by each cost calculation unit. Then, the optimal trajectory posture determination unit 56 determines whether or not a predetermined convergence condition is satisfied, and outputs the optimal trajectory of the host vehicle and the posture of the host vehicle. Hereinafter, each process will be described.

暫定軌跡姿勢演算部44は、収束演算が初回である場合、自車両の各時刻の軌跡、自車両の各時刻の姿勢、及び特徴点追跡部36によって追跡された各特徴点の3次元位置として、適当な値を初期値として設定する。   When the convergence calculation is the first time, the temporary trajectory posture calculation unit 44 uses the trajectory at each time of the host vehicle, the posture at each time of the host vehicle, and the three-dimensional position of each feature point tracked by the feature point tracking unit 36. An appropriate value is set as an initial value.

なお、自車両の姿勢の初期値は、データ蓄積部32に蓄積された方位角及びピッチ角をそのまま利用し、ロール角は0として設定してもよい。また、自車両の軌跡の初期値は、自車両の姿勢の初期値と、データ蓄積部32に蓄積された自車両の速度とに基づき単純に算出してもよい。また、自車両の軌跡及び自車両の姿勢の初期値が得られれば、一般的な三角測量の原理に基づき画像中の特徴点位置を実世界中の特徴点位置に変換し初期値として利用することができる。   The initial value of the attitude of the host vehicle may be set using the azimuth angle and pitch angle stored in the data storage unit 32 as they are, and the roll angle is set to zero. The initial value of the trajectory of the host vehicle may be simply calculated based on the initial value of the attitude of the host vehicle and the speed of the host vehicle stored in the data storage unit 32. If the initial values of the trajectory of the host vehicle and the attitude of the host vehicle are obtained, the feature point positions in the image are converted into feature point positions in the real world based on the general triangulation principle and used as initial values. be able to.

暫定軌跡姿勢演算部44は、収束演算が2回目以降である場合、後述する特徴点コスト演算部46、ピッチ変化コスト演算部48、位置変化コスト演算部50、方位変化コスト演算部52、及びドップラーコスト演算部54によって演算された各コストに基づいて、自車両の各時刻の軌跡及び自車両の各時刻の姿勢を推定する。収束演算の2回目以降では各コスト演算部の結果をフィードバックする形で出力値が逐次正しい値へ修正される。収束演算が2回目以降である場合の処理については、各コスト演算部の処理を説明した後に説明する。   When the convergence calculation is performed for the second time or later, the temporary trajectory posture calculation unit 44 includes a feature point cost calculation unit 46, a pitch change cost calculation unit 48, a position change cost calculation unit 50, an orientation change cost calculation unit 52, and a Doppler, which will be described later. Based on each cost calculated by the cost calculation unit 54, the trajectory of each time of the host vehicle and the attitude of each time of the host vehicle are estimated. In the second and subsequent convergence operations, the output value is sequentially corrected to a correct value by feeding back the result of each cost calculation unit. The process when the convergence calculation is performed for the second time or later will be described after the process of each cost calculation unit is described.

特徴点コスト演算部46は、特徴点追跡部36によって追跡された各特徴点の位置と、暫定軌跡姿勢演算部44によって得られた自車両の各時刻の位置、自車両の各時刻の姿勢、及び特徴点追跡部36によって追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の画像の各々における位置との差分を表す特徴点コストを演算する。   The feature point cost calculation unit 46 includes the position of each feature point tracked by the feature point tracking unit 36, the position of each time of the host vehicle obtained by the provisional trajectory posture calculation unit 44, the posture of each time of the host vehicle, And a feature point cost representing a difference between each feature point and each position of the image at each time, which is obtained from the three-dimensional position of each feature point tracked by the feature point tracking unit 36.

特徴点コスト演算部46で演算される特徴点コストは、画像の観測値(特徴点の位置)と、暫定軌跡姿勢演算部44によって暫定的に算出された自車両の軌跡及び自車両の姿勢との整合性を評価する指標であり、整合性が低いほど、特徴点コストは増加するように設定される。特徴点コストとしては、例えば以下の式(3)に示すようにコスト設定を行うことができる。   The feature point cost calculated by the feature point cost calculation unit 46 includes the observed value of the image (the position of the feature point), the trajectory of the host vehicle and the posture of the host vehicle tentatively calculated by the temporary trajectory posture calculation unit 44. The feature point cost is set so as to increase as the consistency decreases. As the feature point cost, for example, the cost can be set as shown in the following formula (3).

Figure 0006613961
Figure 0006613961

上記式(3)において、インデックスtは時刻インデックスを示し、mは特徴点インデックスを示す。また、Xt,m’は時刻tの特徴点mの画像中における2次元位置、Rは自車両の姿勢の暫定値(3次元回転行列)、Iは3次元単位行列、xは時刻tの自車両の3次元位置の暫定値、Xは実世界における特徴点mの3次元位置の暫定値、Kはカメラのキャリブレーション行列(3×3)、Mは推定に利用する特徴点の数、Tは推定に利用する時系列データ数、ecamは各観測値の残差、Ecamは残差の総和(コスト)を示す。また、自車両の姿勢のうちの時刻tのピッチ角φと、自車両の姿勢のうちの時刻tの方位角θと、自車両の姿勢を表す3次元回転行列Rとは、以下の式によって表される。 In the above formula (3), the index t indicates a time index, and m indicates a feature point index. X t, m ′ is a two-dimensional position in the image of the feature point m at time t, R t is a provisional value of the attitude of the host vehicle (three-dimensional rotation matrix), I is a three-dimensional unit matrix, and x t is a time provisional value of the three-dimensional position of the vehicle t, X m is the provisional value of the three-dimensional position of the feature point m in the real world, K is the calibration matrix of the camera (3 × 3), the feature point M is utilized to estimate , T is the number of time-series data used for estimation, e cam is the residual of each observation value, and E cam is the total sum (cost) of the residual. The pitch angle φ t at time t in the posture of the host vehicle, the azimuth angle θ t at time t in the posture of the host vehicle, and the three-dimensional rotation matrix R t representing the posture of the host vehicle are as follows: It is represented by the formula of

Figure 0006613961
Figure 0006613961

なお、上記式では、添え字tを省略して記載している。また、図3に示すように、X軸まわりの回転(ピッチ角)をφ、Y軸まわりの回転(方位角、ヨー角)をθ、Z軸まわりの回転(ロール角)をψで表す。   In the above formula, the suffix t is omitted. As shown in FIG. 3, the rotation around the X axis (pitch angle) is represented by φ, the rotation around the Y axis (azimuth angle, yaw angle) is represented by θ, and the rotation around the Z axis (roll angle) is represented by ψ.

なお、画像中の2次元位置座標は画像の中心点又は端点(左下端など)などを原点としピクセル単位で付与するものとする。また、実世界の3次元位置座標は任意の位置(t=0の位置など)を原点とした平面座標とし、[南北方向,東西方向,高さ方向]を位置座標の要素とする。   Note that the two-dimensional position coordinates in the image are given in units of pixels with the center point or end point (such as the lower left corner) of the image as the origin. Further, the three-dimensional position coordinates in the real world are plane coordinates with an arbitrary position (such as a position of t = 0) as the origin, and [north-south direction, east-west direction, height direction] are elements of position coordinates.

ピッチ変化コスト演算部48は、車両ピッチ角算出部38によって算出された自車両の各時刻のピッチ角と、暫定軌跡姿勢演算部44によって得られた自車両の姿勢のうちのピッチ角との差分を表すピッチ変化コストを算出する。   The pitch change cost calculation unit 48 calculates the difference between the pitch angle of the host vehicle at each time calculated by the vehicle pitch angle calculation unit 38 and the pitch angle of the host vehicle posture obtained by the provisional trajectory posture calculation unit 44. Is calculated.

ピッチ変化コスト演算部48で算出するピッチ変化コストは、車両ピッチ角算出部38で算出された車両ピッチ角と、暫定軌跡姿勢演算部44によって暫定的に算出された姿勢のうちのピッチ角との整合性を評価する指標であり、整合性が低い程コストは増加するように設定される。例えば以下の式(4)に示すようにコスト設定を行うことができる。   The pitch change cost calculated by the pitch change cost calculation unit 48 is the difference between the vehicle pitch angle calculated by the vehicle pitch angle calculation unit 38 and the pitch angle of the posture provisionally calculated by the temporary trajectory posture calculation unit 44. This is an index for evaluating consistency, and the cost is set so as to increase as the consistency decreases. For example, the cost can be set as shown in the following formula (4).

Figure 0006613961
Figure 0006613961

φ’は車両ピッチ角算出部38で算出された時刻tにおける車両ピッチ角、φは暫定軌跡姿勢演算部44で算出された時刻tにおけるピッチ角の暫定値、eΔpitchは各観測値の残差、EΔpitchは残差の総和(コスト)を示す。車両ピッチ角算出部38によって算出された車両ピッチ角と、暫定軌跡姿勢演算部44によって算出された暫定のピッチ角は、それぞれ加速度センサのピッチ角と車体のピッチ角であり常に一定の差を有するため、両者ともt=0からの変化量を比較対象として差分をとる。 φ t ′ is the vehicle pitch angle at time t calculated by the vehicle pitch angle calculation unit 38, φ t is the provisional value of the pitch angle at time t calculated by the provisional trajectory posture calculation unit 44, and e Δpitch is each observation value The residual, E Δpitch, represents the sum of the residuals (cost). The vehicle pitch angle calculated by the vehicle pitch angle calculation unit 38 and the temporary pitch angle calculated by the temporary trajectory posture calculation unit 44 are respectively the pitch angle of the acceleration sensor and the pitch angle of the vehicle body, and always have a certain difference. Therefore, both take the difference with the amount of change from t = 0 as the comparison target.

位置変化コスト演算部50は、データ蓄積部32に格納された自車両の各時刻の速度から求められる自車両の位置の変化と、暫定軌跡姿勢演算部44によって得られた自車両の位置の変化との差分を表す位置変化コストを算出する。   The position change cost calculation unit 50 changes the position of the own vehicle obtained from the speed of the own vehicle stored in the data storage unit 32 and the change in the position of the own vehicle obtained by the temporary trajectory posture calculation unit 44. The position change cost representing the difference between is calculated.

位置変化コスト演算部50では、データ蓄積部32に蓄積された自車両の速度と、暫定軌跡姿勢演算部44によって算出された自車両の軌跡とに基づき、位置変化コストが算出される。ここで算出する位置変化コストは、データ蓄積部32で蓄積された自車両の速度に基づく位置変化と、暫定軌跡姿勢演算部44によって暫定的に算出された自車両の軌跡に基づく変化量との整合性を評価する指標であり、整合性が低い程コストは増加するように設定される。例えば以下の式(5)に示すようにコスト設定を行うことができる。   The position change cost calculation unit 50 calculates the position change cost based on the speed of the host vehicle stored in the data storage unit 32 and the track of the host vehicle calculated by the provisional track posture calculation unit 44. The position change cost calculated here is the position change based on the speed of the own vehicle accumulated in the data accumulating unit 32 and the amount of change based on the trajectory of the own vehicle tentatively calculated by the temporary trajectory posture calculating unit 44. This is an index for evaluating consistency, and the cost is set so as to increase as the consistency decreases. For example, the cost can be set as shown in the following formula (5).

Figure 0006613961
Figure 0006613961

はデータ蓄積部32に蓄積された時刻tにおける自車両の速度、xは暫定軌跡姿勢演算部44によって算出された時刻tにおける自車両の軌跡の暫定値、Δtは蓄積データのタイムステップ、eΔposは各観測値の残差、EΔposは残差の総和(コスト)とする。 V t is the speed of the host vehicle at time t stored in the data storage unit 32, x t is a provisional value of the track of the host vehicle at time t calculated by the provisional track attitude calculation unit 44, and Δt is a time step of stored data. , E Δpos is the residual of each observed value, and E Δpos is the sum of the residuals (cost).

方位変化コスト演算部52は、データ蓄積部32に蓄積された各時刻の角速度から求められる自車両の方位角の変化と、暫定軌跡姿勢演算部44によって得られた自車両の姿勢のうちの方位角の変化との差分を表す方位変化コストを算出する。   The azimuth change cost calculation unit 52 includes a change in the azimuth angle of the host vehicle obtained from the angular velocity at each time stored in the data storage unit 32 and the azimuth among the posture of the host vehicle obtained by the provisional trajectory posture calculation unit 44. An azimuth change cost representing a difference from a change in angle is calculated.

方位変化コスト演算部52では、データ蓄積部32で蓄積されたヨーレイトと、暫定軌跡姿勢演算部44によって算出された自車両の姿勢のうちの方位角とに基づき、方位変化コストを算出する。ここで算出する方位変化コストは、データ蓄積部32で蓄積されたヨーレイトと、暫定的に算出した自車両の姿勢のうちの方位角の変化量との整合性を評価する指標であり、整合性が低い程コストは増加するように設定する。例えば以下の式(6)に示すようにコスト設定を行うことができる。   The azimuth change cost calculation unit 52 calculates the azimuth change cost based on the yaw rate accumulated in the data accumulation unit 32 and the azimuth angle in the posture of the host vehicle calculated by the temporary trajectory posture calculation unit 44. The azimuth change cost calculated here is an index for evaluating the consistency between the yaw rate accumulated in the data accumulation unit 32 and the azimuth angle change amount of the tentatively calculated attitude of the host vehicle. The lower the value, the higher the cost. For example, the cost can be set as shown in the following formula (6).

Figure 0006613961
Figure 0006613961

ωはデータ蓄積部32で蓄積された時刻tにおけるヨーレイト、θは暫定軌跡姿勢演算部44によって算出された時刻tにおける方位角の暫定値、Δtは蓄積データのタイムステップ、eΔheadingは各観測値の残差、EΔheadingは残差の総和(コスト)とする。 ω t is the yaw rate at time t accumulated in the data accumulation unit 32, θ t is the provisional value of the azimuth angle at time t calculated by the provisional trajectory posture calculation unit 44, Δt is the time step of accumulated data, and e Δheading is each The residual of the observed value, E Δheading, is the sum of the residuals (cost).

図4及び図5に、画像における特徴点と自車両の位置との関係を説明するための図を示す。   4 and 5 are diagrams for explaining the relationship between the feature points in the image and the position of the host vehicle.

図4に示すように、自車両の方位角において推定誤差が発生すると、画像における特徴点の位置と自車両の方位角の誤差とが相互に影響を与え、相乗的に推定誤差が増加していく。その結果、自車両の軌跡の推定誤差も増大する。   As shown in FIG. 4, when an estimation error occurs in the azimuth angle of the own vehicle, the position of the feature point in the image and the error in the azimuth angle of the own vehicle influence each other, and the estimation error increases synergistically. Go. As a result, the estimation error of the trajectory of the own vehicle also increases.

そこで、本実施の形態では、図5に示すように、後述するドップラーコスト演算部54で演算されるドップラーコストによって衛星情報を考慮する。衛星情報を考慮することにより、自車両の姿勢のうちの方位角の推定誤差が増加しなくなるため、特徴点の位置の推定誤差も増加しにくくなり、相乗的な推定誤差の低減の効果が得られる。その結果、自車両の軌跡の推定誤差も増加しにくくなる。   Therefore, in the present embodiment, as shown in FIG. 5, satellite information is taken into account by the Doppler cost calculated by the Doppler cost calculation unit 54 described later. By considering the satellite information, the estimation error of the azimuth angle in the attitude of the host vehicle does not increase, so that the estimation error of the position of the feature point is less likely to increase, and a synergistic reduction effect of the estimation error is obtained. It is done. As a result, the estimation error of the trajectory of the own vehicle is hardly increased.

ドップラーコスト演算部54は、データ蓄積部32に格納された各時刻の衛星情報と、暫定軌跡姿勢演算部44によって算出された自車両の各時刻の姿勢のうちの方位角との整合性を表すドップラーコストを演算する。   The Doppler cost calculation unit 54 represents the consistency between the satellite information at each time stored in the data storage unit 32 and the azimuth of the attitude at each time of the host vehicle calculated by the provisional trajectory posture calculation unit 44. Calculate the Doppler cost.

具体的には、ドップラーコスト演算部54は、データ蓄積部32に格納された各時刻の衛星情報に含まれる、各衛星の各時刻のドップラーシフトと、クロックドリフト算出部40によって算出された各衛星についてのクロックドリフト、及び暫定軌跡姿勢演算部44によって算出された自車両の各時刻の姿勢のうちの方位角とに基づいて、ドップラーシフトから求められる自車両と各衛星との相対速度の観測値と、クロックドリフト算出部40によって算出されたクロックドリフト及び自車両の各時刻の姿勢のうちの方位角から求められる自車両と各衛星との相対速度の推定値との差分を表すドップラーコストを算出する。   Specifically, the Doppler cost calculation unit 54 includes the Doppler shift at each time of each satellite included in the satellite information at each time stored in the data storage unit 32 and each satellite calculated by the clock drift calculation unit 40. Of the relative velocity between the vehicle and each satellite determined from the Doppler shift based on the clock drift and the azimuth of the vehicle's posture at each time calculated by the provisional trajectory posture calculation unit 44 And the Doppler cost representing the difference between the clock drift calculated by the clock drift calculation unit 40 and the azimuth angle of the attitude of the host vehicle at each time, and the estimated value of the relative speed between the host vehicle and each satellite. To do.

ドップラーコスト演算部54では、データ蓄積部32で蓄積された衛星情報のドップラーシフトと、暫定軌跡姿勢演算部44によって算出された自車両の姿勢のうちの方位角とに基づき、ドップラーコストを算出する。ここで算出するドップラーコストはデータ蓄積部32で蓄積した衛星情報のドップラーシフトと、暫定軌跡姿勢演算部44によって暫定的に算出された姿勢のうちの方位角との整合性を評価する指標であり、整合性が低い程コストは増加するように設定する。   The Doppler cost calculation unit 54 calculates the Doppler cost based on the Doppler shift of the satellite information stored in the data storage unit 32 and the azimuth of the vehicle attitude calculated by the provisional trajectory posture calculation unit 44. . The Doppler cost calculated here is an index for evaluating the consistency between the Doppler shift of the satellite information stored in the data storage unit 32 and the azimuth of the posture temporarily calculated by the temporary trajectory posture calculation unit 44. The cost is set to increase as the consistency decreases.

Figure 0006613961
Figure 0006613961

上記式(7)中のインデックスiは衛星iの観測値であることを示し、Dt,iは時刻tにおける衛星iのドップラーシフト、f1は衛星信号の周波数、cは光速、Vはデータ蓄積部32に蓄積された自車両の時刻tの速度、vt,iは時刻tにおける衛星iの3次元速度ベクトル[m/s]、ρはクロックドリフト算出部40で算出された時刻tのクロックドリフト、θは暫定軌跡姿勢演算部44によって算出された時刻tの自車両の姿勢のうちの方位角の暫定値を示す。Gt,iは時刻tにおける自車両から衛星iへの視線方向単位ベクトルであり、自車両の概算3次元位置Xと衛星iの3次元位置xt,iを用いて表される。また、Edopplerは残差の総和(コスト)とする。 The index i in the above equation (7) indicates that the observation value of the satellite i, D t, i is the Doppler shift of the satellite i at time t, f1 is the frequency of the satellite signal, c is the speed of light, and V t is the data The speed of the host vehicle accumulated at time t, v t, i is the three-dimensional velocity vector [m / s] of satellite i at time t, and ρ t is the time t calculated by the clock drift calculator 40. Clock drift, θ t , indicates a provisional value of the azimuth of the posture of the host vehicle at time t calculated by the provisional trajectory posture calculation unit 44. G t, i is a line-of-sight direction unit vector from the own vehicle to the satellite i at time t, and is expressed using the approximate three-dimensional position X t of the own vehicle and the three-dimensional position x t, i of the satellite i. Further, E doppler is the total sum (cost) of the residuals.

暫定軌跡姿勢演算部44は、収束演算が2回目以降である場合、特徴点コスト演算部46、ピッチ変化コスト演算部48、位置変化コスト演算部50、方位変化コスト演算部52、及びドップラーコスト演算部54によって演算された各コストに基づいて、自車両の各時刻の軌跡及び自車両の各時刻の姿勢を推定する。   When the convergence calculation is performed for the second time or later, the temporary trajectory posture calculation unit 44 performs a feature point cost calculation unit 46, a pitch change cost calculation unit 48, a position change cost calculation unit 50, an orientation change cost calculation unit 52, and a Doppler cost calculation. Based on each cost calculated by the unit 54, the trajectory of each time of the host vehicle and the attitude of each time of the host vehicle are estimated.

具体的には、暫定軌跡姿勢演算部44は、各コスト演算部の結果に基づいて、自車両の各時刻の位置、自車両の各時刻の姿勢、及び特徴点の3次元位置についての、前回値をからの修正量δpを、以下の式(8)に従い算出する。   Specifically, the provisional trajectory posture calculation unit 44 calculates the previous time for the position of the vehicle at each time, the posture of the vehicle at each time, and the three-dimensional position of the feature point based on the result of each cost calculation unit. A correction amount δp from the value is calculated according to the following equation (8).

Figure 0006613961
Figure 0006613961

そして、暫定軌跡姿勢演算部44は、前回の出力値pと上記で算出した修正量δpとを用いて以下の式(9)に示すように自車両の各時刻の位置、自車両の各時刻の姿勢、及び特徴点の3次元位置を更新する。これにより、各コスト演算部によって演算されたコストを最小化するように、自車両の各時刻の位置及び自車両の各時刻の姿勢が推定される。   Then, the temporary trajectory posture calculation unit 44 uses the previous output value p and the correction amount δp calculated above, as shown in the following equation (9), the time position of the host vehicle, and the time of the host vehicle. And the three-dimensional position of the feature point are updated. Thereby, the position of each time of the own vehicle and the attitude of each time of the own vehicle are estimated so as to minimize the cost calculated by each cost calculating unit.

Figure 0006613961
Figure 0006613961

なお、本実施形態では、一般的で簡単な最適化手法であるニュートン法の例を示したが、よりロバスト性の高いLevenberg-Marquardt法などを用いてもよい。   In the present embodiment, an example of the Newton method, which is a general and simple optimization method, is shown, but the more robust Levenberg-Marquardt method or the like may be used.

最適軌跡姿勢決定部56は、暫定軌跡姿勢演算部44で算出した結果が最適値であるか否かを判断し、最適値であると判断した場合はその値を最適な自車両の軌跡及び自車両の姿勢として出力する。最適値の決定条件は残差の総和であるEtotalの値が一定以下になった場合、またはEtotalの値が更新された時に前回値との差分が一定以下になった場合とする。また、それ以外の条件を設定してもよい。 The optimum trajectory posture determination unit 56 determines whether or not the result calculated by the provisional trajectory posture calculation unit 44 is an optimal value. If it is determined that the result is an optimal value, the optimal trajectory posture determination unit 56 determines the optimal trajectory and own vehicle trajectory. Output as the attitude of the vehicle. The optimum value is determined when the E total value, which is the sum of the residuals, is less than a certain value, or when the difference from the previous value is less than a certain value when the E total value is updated. Further, other conditions may be set.

図6に本実施の形態の効果を説明するための図を示す。図6に示すように、本実施形態では、各コスト演算部によって演算されるコストを最小化するように、自車両の軌跡及び自車両の姿勢が推定されるため、全ての観測値のつじつまが合うような自車両の軌跡及び自車両の姿勢が推定される。また、画像の特徴点と衛星情報から得られる自車両の姿勢とを用いることにより、自車両の軌跡及び自車両の姿勢が精度よく推定される。   FIG. 6 is a diagram for explaining the effect of the present embodiment. As shown in FIG. 6, in this embodiment, the trajectory of the host vehicle and the attitude of the host vehicle are estimated so as to minimize the cost calculated by each cost calculation unit. The trajectory of the subject vehicle and the posture of the subject vehicle are estimated. Further, by using the feature points of the image and the posture of the host vehicle obtained from the satellite information, the trajectory of the host vehicle and the posture of the host vehicle are accurately estimated.

<第1の実施の形態に係る状態推定装置10の作用> <Operation of the state estimation device 10 according to the first embodiment>

次に、第1の実施の形態に係る状態推定装置10の作用について説明する。   Next, the operation of the state estimation device 10 according to the first embodiment will be described.

各時刻において、GPS装置19が各測位衛星から衛星情報を受信し、各センサが自車両のデータを検出し、各取得部によって各センサによって検出された車両データがデータ蓄積部32に格納されているときに、コンピュータ20において、図7に示す車両状態推定処理ルーチンが実行される。   At each time, the GPS device 19 receives satellite information from each positioning satellite, each sensor detects its own vehicle data, and the vehicle data detected by each sensor by each acquisition unit is stored in the data storage unit 32. 7, the vehicle state estimation processing routine shown in FIG.

ステップS100において、データ蓄積部32に蓄積された各データを取得する。   In step S100, each data stored in the data storage unit 32 is acquired.

ステップS102において、特徴点追跡部36は、上記ステップS100で取得された各時刻の画像の各々から特徴点を抽出する。   In step S102, the feature point tracking unit 36 extracts feature points from each of the images at each time acquired in step S100.

ステップS104において、特徴点追跡部36は、上記ステップS102で各時刻の画像の各々から抽出された特徴点に基づいて、各時刻の画像の各々における各特徴点を追跡する。   In step S104, the feature point tracking unit 36 tracks each feature point in each image at each time based on the feature point extracted from each image at each time in step S102.

ステップS106において、車両ピッチ角算出部38は、上記ステップS100で取得された、自車両の各時刻の速度及び各時刻の加速度に基づいて、上記式(1)に従って、自車両の各時刻のピッチ角を算出する。   In step S106, the vehicle pitch angle calculation unit 38, based on the speed at each time and the acceleration at each time acquired in step S100, the pitch at each time of the own vehicle according to the above equation (1). Calculate the corner.

ステップS108において、クロックドリフト算出部40は、上記ステップS100で取得された各時刻の衛星情報に基づいて、上記式(2)に従って、各衛星についてのクロックドリフトを算出する。   In step S108, the clock drift calculation unit 40 calculates the clock drift for each satellite according to the above equation (2) based on the satellite information at each time acquired in step S100.

ステップS110において、暫定軌跡姿勢演算部44は、収束演算が初回である場合、自車両の各時刻の軌跡、自車両の各時刻の姿勢、及び特徴点追跡部36によって追跡された各特徴点の3次元位置として、適当な値を初期値として設定する。または、暫定軌跡姿勢演算部44は、収束演算が2回目以降である場合、前回のステップS112で演算された各コストに基づいて、上記式(8)〜(9)に従って、自車両の各時刻の軌跡及び自車両の各時刻の姿勢を推定する。   In step S110, when the convergence calculation is the first time, the provisional trajectory posture calculation unit 44 determines the trajectory of each time of the own vehicle, the posture of each time of the own vehicle, and the feature points tracked by the feature point tracking unit 36. As a three-dimensional position, an appropriate value is set as an initial value. Alternatively, when the convergence calculation is performed for the second time or later, the temporary trajectory posture calculation unit 44 determines each time of the host vehicle according to the above formulas (8) to (9) based on the costs calculated in the previous step S112. And the posture of the vehicle at each time are estimated.

ステップS112において、各コスト演算部は、ステップS110で得られた自車両の各時刻の軌跡、自車両の各時刻の姿勢、及び特徴点追跡部36によって追跡された各特徴点の3次元位置に基づいて、各コストを演算する。ステップS112は、図8に示すコスト演算処理ルーチンによって実現される。   In step S112, each cost calculation unit sets the trajectory of each time of the host vehicle obtained in step S110, the posture of each time of the host vehicle, and the three-dimensional position of each feature point tracked by the feature point tracking unit 36. Based on this, each cost is calculated. Step S112 is realized by the cost calculation processing routine shown in FIG.

<コスト演算処理ルーチン> <Cost calculation processing routine>

ステップS200において、特徴点コスト演算部46は、上記式(3)に従って、上記ステップS104で得られた追跡された各特徴点の位置と、上記ステップS110で得られた自車両の各時刻の位置、自車両の各時刻の姿勢、及び上記ステップS104で追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の画像の各々における位置との差分を表す特徴点コストを演算する。   In step S200, the feature point cost calculation unit 46, according to the above equation (3), the position of each tracked feature point obtained in step S104 and the position of each time of the host vehicle obtained in step S110. The feature point cost representing the difference between the position of each feature point in the image at each time, which is obtained from the attitude of the vehicle at each time, and the three-dimensional position of each feature point tracked in step S104 is calculated. To do.

ステップS202において、ピッチ変化コスト演算部48は、上記式(4)に従って、上記ステップS106で算出された自車両の各時刻のピッチ角と、上記ステップS110で得られた自車両の姿勢のうちのピッチ角との差分との差分を表すピッチ変化コストを算出する。   In step S202, the pitch change cost calculation unit 48 calculates the pitch angle at each time of the host vehicle calculated in step S106 and the attitude of the host vehicle obtained in step S110 according to the above equation (4). A pitch change cost representing a difference from the difference from the pitch angle is calculated.

ステップS204において、位置変化コスト演算部50は、上記式(5)に従って、上記ステップS100で取得された自車両の各時刻の速度から求められる自車両の位置の変化と、上記ステップS110で得られた自車両の位置の変化との差分を表す位置変化コストを算出する。   In step S204, the position change cost calculation unit 50 obtains the change in the position of the host vehicle obtained from the speed of the host vehicle obtained in step S100 according to the above equation (5) and the step S110. The position change cost representing the difference from the change in the position of the own vehicle is calculated.

ステップS206において、方位変化コスト演算部52は、上記式(6)に従って、上記ステップS100で取得された各時刻の角速度から求められる自車両の方位角の変化と、上記ステップS110で得られた自車両の姿勢のうちの方位角の変化との差分を表す方位変化コストを算出する。   In step S206, the azimuth change cost calculation unit 52 changes the azimuth angle of the host vehicle obtained from the angular velocity at each time obtained in step S100 according to the above equation (6), and the own change obtained in step S110. An azimuth change cost representing a difference from an azimuth change in the posture of the vehicle is calculated.

ステップS208において、ドップラーコスト演算部54は、上記式(7)に従って、上記ステップS100で取得された各時刻の衛星情報と、上記ステップS110で得られた自車両の各時刻の姿勢のうちの方位角との整合性を表すドップラーコストを演算する。   In step S208, the Doppler cost calculation unit 54, according to the above equation (7), the satellite information at each time acquired in step S100 and the orientation of the attitude of each time of the host vehicle obtained in step S110. The Doppler cost representing the consistency with the corner is calculated.

ステップS210において、上記ステップS200〜ステップS208で演算された各コストを結果として出力し、コスト演算処理ルーチンを終了する。   In step S210, each cost calculated in steps S200 to S208 is output as a result, and the cost calculation processing routine is terminated.

次に、図7に示す車両状態推定処理ルーチンのステップS114へ戻り、最適軌跡姿勢決定部56は、上記ステップS110で算出された結果が最適値であるか否かを判断する。上記ステップS110で算出された結果が最適値であると判断された場合には、ステップS116へ進む。一方、上記ステップS110で算出された結果が最適値でないと判断された場合には、ステップS110へ戻る。   Next, returning to step S114 of the vehicle state estimation processing routine shown in FIG. 7, the optimum trajectory posture determination unit 56 determines whether or not the result calculated in step S110 is an optimum value. If it is determined that the result calculated in step S110 is the optimum value, the process proceeds to step S116. On the other hand, if it is determined that the result calculated in step S110 is not the optimum value, the process returns to step S110.

ステップS116において、最適軌跡姿勢決定部56は、最適値であると判断した自車両の軌跡及び自車両の各時刻の姿勢を、結果として出力して、車両状態推定処理ルーチンを終了する。   In step S116, the optimal trajectory posture determination unit 56 outputs the trajectory of the host vehicle determined to be the optimum value and the posture of the host vehicle at each time as a result, and the vehicle state estimation processing routine is ended.

以上説明したように、本発明の実施の形態に係る車両状態推定装置によれば、各時刻の自車両の周辺の画像の各々から特徴点を抽出し、各時刻の画像の各々において各特徴点を追跡し、追跡された各特徴点の、各時刻の画像の各々における位置と、自車両の各時刻の位置、自車両の各時刻の姿勢、及び追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の画像の各々における位置との差分、並びに取得された各時刻の衛星情報と、自車両の各時刻の姿勢との整合性を表すコストを最小化するように、自車両の各時刻の位置及び自車両の各時刻の姿勢を推定することにより、車両の周辺の画像情報と車両が取得した衛星情報とを考慮して、自車両の軌跡及び自車両の姿勢を精度良く推定することができる。   As described above, according to the vehicle state estimation device according to the embodiment of the present invention, feature points are extracted from each of the images around the host vehicle at each time, and each feature point in each image at each time is extracted. From the position of each tracked feature point in each image at each time, the position of each time of the host vehicle, the posture of each time of the host vehicle, and the three-dimensional position of each tracked feature point In order to minimize the cost of representing the difference between the obtained position of each feature point in each image at each time and the consistency between the acquired satellite information at each time and the attitude of each vehicle at each time By estimating the position of the host vehicle at each time and the attitude of the host vehicle at each time, the trajectory of the host vehicle and the attitude of the host vehicle are considered in consideration of image information around the vehicle and satellite information acquired by the vehicle. Can be estimated with high accuracy.

また、画像情報以外の情報(ジャイロ、車輪速、GPS)の観測値との乖離度合を、最尤推定収束演算のコスト関数とすることで、誤った局所解への収束を回避できるため、自車両の軌跡及び自車両の姿勢の推定精度を向上させることができる。   In addition, since the degree of deviation from the observation value of information other than image information (gyro, wheel speed, GPS) is used as the cost function of the maximum likelihood estimation convergence calculation, convergence to an incorrect local solution can be avoided. The estimation accuracy of the trajectory of the vehicle and the posture of the host vehicle can be improved.

<第2の実施の形態>
次に、本発明の第2の実施の形態に係る状態推定装置210について説明する。なお、第1の実施の形態と同様の構成及び同様の処理については、同一の符号を付して説明を省略する。
<Second Embodiment>
Next, a state estimation apparatus 210 according to the second embodiment of the present invention will be described. In addition, about the structure similar to 1st Embodiment, and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第2の実施の形態では、状態推定装置210がサーバとして構成され、車載装置の各センサによって取得された情報を受信する点が、第1の実施の形態と異なる。第2の実施の形態では、複数の車両の車載装置が備えたGPS装置、内部センサ、及びカメラによって得られた各種情報及び画像が、外部のデータサーバである状態推定装置210に送信される。そして、状態推定装置210は、車両の車載装置から送信された車両データを蓄積する。そして、状態推定装置210は、図9に示すように、固定観測地点で観測された衛星情報に基づいて、各車両についてRTK(Real Time Kinematic)測位を行い、各車両の測位結果を組み合わせて全データを最適化することで、各車両の軌跡及び各車両の姿勢を精度良く推定する。   The second embodiment is different from the first embodiment in that the state estimation device 210 is configured as a server and receives information acquired by each sensor of the in-vehicle device. In the second embodiment, various information and images obtained by a GPS device, an internal sensor, and a camera included in an in-vehicle device of a plurality of vehicles are transmitted to the state estimation device 210 that is an external data server. And the state estimation apparatus 210 accumulate | stores the vehicle data transmitted from the vehicle-mounted apparatus of a vehicle. Then, as shown in FIG. 9, the state estimation device 210 performs RTK (Real Time Kinematic) positioning for each vehicle based on the satellite information observed at the fixed observation point, and combines the positioning results of each vehicle. By optimizing the data, the trajectory of each vehicle and the posture of each vehicle are accurately estimated.

<第2の実施の形態に係る情報処理システム100の構成>
図10に示すように、第2の実施の形態に係る情報処理システム100は、複数の車載装置102と、固定点観測装置110と、状態推定装置210とを備えている。複数の車載装置102と固定点観測装置110と状態推定装置210とは、例えばインターネットなどのネットワーク150を介して接続されている。通信手段は、WiFi(登録商標)や携帯電話の回線でもよいし、その他の手段でもよい。
<Configuration of Information Processing System 100 according to Second Embodiment>
As illustrated in FIG. 10, the information processing system 100 according to the second embodiment includes a plurality of in-vehicle devices 102, a fixed point observation device 110, and a state estimation device 210. The plurality of in-vehicle devices 102, the fixed point observation device 110, and the state estimation device 210 are connected via a network 150 such as the Internet. The communication means may be WiFi (registered trademark), a mobile phone line, or other means.

<車載装置>
車載装置102は、図11に示すように、自車両の周辺の画像を逐次撮像するカメラ12と、自車両の加速度を逐次検出する加速度センサ14と、自車両の速度を逐次検出する速度センサ16と、自車両の角速度を逐次検出する角速度センサ18と、各測位衛星から送信される衛星情報を逐次受信するGPS装置19と、各センサによって得られた情報を状態推定装置210へ送信するコンピュータ104とを備えている。車載装置102は、情報端末の一例である。
<In-vehicle device>
As shown in FIG. 11, the in-vehicle device 102 includes a camera 12 that sequentially captures images around the host vehicle, an acceleration sensor 14 that sequentially detects the acceleration of the host vehicle, and a speed sensor 16 that sequentially detects the speed of the host vehicle. An angular velocity sensor 18 that sequentially detects the angular velocity of the host vehicle, a GPS device 19 that sequentially receives satellite information transmitted from each positioning satellite, and a computer 104 that transmits information obtained by each sensor to the state estimation device 210. And. The in-vehicle device 102 is an example of an information terminal.

コンピュータ104は、CPU、各処理ルーチンを実現するためのプログラムを記憶したROM、データを一時的に記憶するRAM、及びHDD等の記憶装置で構成されている。このコンピュータ104を機能ブロックで表すと、図11に示すように、画像取得部22と、加速度取得部24と、車速取得部26と、角速度取得部28と、衛星情報取得部30と、車両データ送信部106とを含んだ構成で表すことができる。画像取得部22、加速度取得部24、車速取得部26、角速度取得部28、及び衛星情報取得部30は、情報取得手段の一例である。   The computer 104 includes a CPU, a ROM that stores a program for realizing each processing routine, a RAM that temporarily stores data, and a storage device such as an HDD. When this computer 104 is represented by functional blocks, as shown in FIG. 11, an image acquisition unit 22, an acceleration acquisition unit 24, a vehicle speed acquisition unit 26, an angular velocity acquisition unit 28, a satellite information acquisition unit 30, and vehicle data It can be expressed by a configuration including the transmission unit 106. The image acquisition unit 22, the acceleration acquisition unit 24, the vehicle speed acquisition unit 26, the angular velocity acquisition unit 28, and the satellite information acquisition unit 30 are examples of information acquisition means.

車両データ送信部106は、画像取得部22によって取得された各時刻の画像と、加速度取得部24によって取得された各時刻の加速度と、車速取得部26によって取得された各時刻の速度と、角速度取得部28によって取得された各時刻の角速度と、衛星情報取得部30によって取得された各時刻の衛星情報とを、車両データとして状態推定装置210へ逐次送信する。   The vehicle data transmission unit 106 includes an image at each time acquired by the image acquisition unit 22, an acceleration at each time acquired by the acceleration acquisition unit 24, a speed at each time acquired by the vehicle speed acquisition unit 26, and an angular velocity. The angular velocity at each time acquired by the acquisition unit 28 and the satellite information at each time acquired by the satellite information acquisition unit 30 are sequentially transmitted to the state estimation device 210 as vehicle data.

<固定点観測装置>
固定点観測装置110は、図12に示すように、各測位衛星から送信される衛星情報を逐次受信するGPS装置114と、GPS装置114によって受信された衛星情報と固定点観測地点に関する情報とを状態推定装置210へ送信するコンピュータ112とを備えている。本実施の形態では、固定点観測装置110は、基準局に設置される。固定点観測地点は、定点観測地点の一例である。
<Fixed point observation device>
As shown in FIG. 12, the fixed point observation device 110 sequentially receives the satellite information transmitted from each positioning satellite, the satellite information received by the GPS device 114, and information on the fixed point observation point. And a computer 112 for transmission to the state estimation device 210. In the present embodiment, fixed point observation apparatus 110 is installed at a reference station. The fixed point observation point is an example of a fixed point observation point.

コンピュータ112は、CPU、各処理ルーチンを実現するためのプログラムを記憶したROM、データを一時的に記憶するRAM、及びHDD等の記憶装置で構成されている。このコンピュータ112を機能ブロックで表すと、図12に示すように、GPS装置114によって受信された各時刻の衛星情報を取得する衛星情報取得部116と、衛星情報取得部116によって取得された固定点観測地点において観測された衛星情報及び固定点観測地点に関する情報とを状態推定装置210へ逐次送信する固定点観測データ送信部118とを含んだ構成で表すことができる。   The computer 112 includes a CPU, a ROM that stores programs for realizing each processing routine, a RAM that temporarily stores data, and a storage device such as an HDD. When this computer 112 is represented by functional blocks, as shown in FIG. 12, a satellite information acquisition unit 116 that acquires satellite information at each time received by the GPS device 114, and a fixed point acquired by the satellite information acquisition unit 116. It can be expressed by a configuration including a fixed point observation data transmission unit 118 that sequentially transmits satellite information observed at the observation point and information regarding the fixed point observation point to the state estimation device 210.

衛星情報取得部116は、電子基準点などの固定点観測地点で観測した衛星のローデータ(例えば、疑似距離、ドップラーシフト、GPS時刻、SNR(Signal to Noise Ratio)、及び搬送波位相)を取得する。   The satellite information acquisition unit 116 acquires raw data (for example, pseudorange, Doppler shift, GPS time, SNR (Signal to Noise Ratio), and carrier wave phase) observed at a fixed point observation point such as an electronic reference point. .

固定点観測データ送信部118は、衛星情報取得部116によって取得された衛星情報と固定点観測地点に関する情報とを、固定点観測データとして状態推定装置210へ送信する。また、基準局データはある都市などの地域内の固定点観測地点の観測データのみに限定してもよいし、全国または全世界などより広範囲の固定点観測地点の観測データを送信してもよい。   The fixed point observation data transmission unit 118 transmits the satellite information acquired by the satellite information acquisition unit 116 and the information regarding the fixed point observation point to the state estimation device 210 as fixed point observation data. Further, the reference station data may be limited to observation data at fixed point observation points in a certain area such as a city, or observation data at a wider range of fixed point observation points such as nationwide or the whole world may be transmitted.

<状態推定装置>
図13に示すように、第2の実施の形態に係る状態推定装置210は、CPU、後述する各処理ルーチンを実現するためのプログラム等を記憶したROM、データを一時的に記憶するRAM、記憶手段としてのメモリ、ネットワークインタフェース等を含むサーバで構成されており、機能的には、車両データ受信部230と、固定点観測データ受信部231と、データ蓄積部232と、特徴点追跡部36と、車両ピッチ角算出部38と、クロックドリフト算出部40と、高精度測位部241と、軌跡姿勢推定部242とを含んだ構成で表すことができる。なお、第2の実施の形態では、車両データ受信部230、及び固定点観測データ受信部231が、取得手段の一例である。また、軌跡姿勢推定部242は車両状態推定手段の一例である。
<State estimation device>
As shown in FIG. 13, the state estimation device 210 according to the second embodiment includes a CPU, a ROM that stores a program for realizing each processing routine described later, a RAM that temporarily stores data, a storage It is composed of a server including a memory, a network interface, etc. as means, and functionally, a vehicle data receiving unit 230, a fixed point observation data receiving unit 231, a data storage unit 232, and a feature point tracking unit 36 The vehicle pitch angle calculation unit 38, the clock drift calculation unit 40, the high-precision positioning unit 241, and the trajectory posture estimation unit 242 can be represented. In the second embodiment, the vehicle data receiving unit 230 and the fixed point observation data receiving unit 231 are examples of acquisition means. The trajectory posture estimation unit 242 is an example of vehicle state estimation means.

車両データ受信部230は、複数の車載装置102によって送信された車両データを受信する。   The vehicle data receiving unit 230 receives vehicle data transmitted by the plurality of in-vehicle devices 102.

固定点観測データ受信部231は、固定点観測装置110から送信された固定点観測データを受信する。   The fixed point observation data receiving unit 231 receives the fixed point observation data transmitted from the fixed point observation device 110.

データ蓄積部232には、車両データ受信部230によって受信された複数の車両の各々についての車両データと、固定点観測データ受信部231によって受信された固定点観測データとが、時系列に蓄積される。   The data storage unit 232 stores the vehicle data for each of the plurality of vehicles received by the vehicle data reception unit 230 and the fixed point observation data received by the fixed point observation data reception unit 231 in time series. The

特徴点追跡部236は、データ蓄積部232に格納された複数の車両データの各々について、当該車両データの各時刻の画像の各々から特徴点を抽出し、各時刻の画像の各々において抽出された各特徴点を追跡する。   The feature point tracking unit 236 extracts, for each of the plurality of vehicle data stored in the data storage unit 232, feature points from each of the images at each time of the vehicle data, and the feature points are extracted from each of the images at each time. Track each feature point.

車両ピッチ角算出部238は、データ蓄積部232に格納された複数の車両データの各々について、当該車両データの車両の各時刻の速度及び各時刻の加速度に基づいて、上記式(1)に従って、当該車両の各時刻のピッチ角を算出する。   The vehicle pitch angle calculation unit 238, for each of the plurality of vehicle data stored in the data storage unit 232, according to the above formula (1) based on the speed of the vehicle at each time and the acceleration at each time of the vehicle data. The pitch angle of each time of the vehicle is calculated.

クロックドリフト算出部240は、データ蓄積部232に格納された複数の車両データの各々について、当該車両データの各時刻の衛星情報に基づいて、各衛星についてのクロックドリフトを算出する。   For each of the plurality of vehicle data stored in the data storage unit 232, the clock drift calculation unit 240 calculates the clock drift for each satellite based on the satellite information at each time of the vehicle data.

高精度測位部241は、データ蓄積部232に格納された各時刻の固定点観測地点の衛星情報及び固定点観測地点に関する情報に基づいて、複数の車両の各時刻の位置を高精度に推定する。本実施形態では、一般的なRTK(Realtime Kinematic)測位の方法を用いて、複数の車両の各時刻の位置を高精度に推定する。高精度測位部241は、測位手段の一例である。   The high-accuracy positioning unit 241 estimates the positions of a plurality of vehicles at each time with high accuracy based on the satellite information of the fixed-point observation points at each time and the information related to the fixed-point observation points stored in the data storage unit 232. . In the present embodiment, the position of each time of a plurality of vehicles is estimated with high accuracy using a general RTK (Realtime Kinematic) positioning method. The high-precision positioning unit 241 is an example of a positioning unit.

軌跡姿勢推定部242は、暫定軌跡姿勢演算部244と、特徴点コスト演算部246と、ピッチ変化コスト演算部248と、位置変化コスト演算部250と、方位変化コスト演算部252と、ドップラーコスト演算部254と、位置コスト演算部255と、最適軌跡姿勢決定部56とを備えている。   The trajectory posture estimation unit 242 includes a temporary trajectory posture calculation unit 244, a feature point cost calculation unit 246, a pitch change cost calculation unit 248, a position change cost calculation unit 250, an orientation change cost calculation unit 252, and a Doppler cost calculation. A unit 254, a position cost calculation unit 255, and an optimum trajectory posture determination unit 56.

暫定軌跡姿勢演算部244は、収束演算が初回である場合、自車両の各時刻の軌跡、自車両の各時刻の姿勢、及び特徴点追跡部236によって追跡された各特徴点の3次元位置として、適当な値を初期値として設定する。   When the convergence calculation is the first time, the temporary trajectory posture calculation unit 244 uses the trajectory at each time of the host vehicle, the posture at each time of the host vehicle, and the three-dimensional position of each feature point tracked by the feature point tracking unit 236. An appropriate value is set as an initial value.

暫定軌跡姿勢演算部244は、収束演算が2回目以降である場合、特徴点コスト演算部246、ピッチ変化コスト演算部248、位置変化コスト演算部250、方位変化コスト演算部252、ドップラーコスト演算部254、及び後述する位置コスト演算部255によって演算された各コストに基づいて、各車両の各時刻の軌跡及び各車両の各時刻の姿勢を推定する。収束演算が2回目以降である場合の処理については、各コスト演算部の処理を説明した後に説明する。   When the convergence calculation is performed for the second time or later, the temporary trajectory posture calculation unit 244 has a feature point cost calculation unit 246, a pitch change cost calculation unit 248, a position change cost calculation unit 250, an orientation change cost calculation unit 252, and a Doppler cost calculation unit. Based on each cost calculated by H.254 and a position cost calculation unit 255 described later, the trajectory of each vehicle at each time and the attitude of each vehicle at each time are estimated. The process when the convergence calculation is performed for the second time or later will be described after the process of each cost calculation unit is described.

特徴点コスト演算部246は、複数の車両の各々について、特徴点追跡部236によって追跡された各特徴点に対し、異なる車両における特徴点同士を対応付ける。
そして、特徴点コスト演算部246は、複数の車両の各々について、特徴点追跡部236によって追跡された各特徴点の位置と、暫定軌跡姿勢演算部244によって得られた各車両の各時刻の位置、各車両の各時刻の姿勢、及び特徴点追跡部236によって追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の画像の各々における位置との差分を表す特徴点コストを演算する。
The feature point cost calculation unit 246 associates feature points in different vehicles with each feature point tracked by the feature point tracking unit 236 for each of the plurality of vehicles.
Then, the feature point cost calculation unit 246, for each of the plurality of vehicles, the position of each feature point tracked by the feature point tracking unit 236 and the position of each vehicle obtained by the provisional trajectory posture calculation unit 244 at each time. The feature point cost representing the difference between the position of each feature point in each image at each time, obtained from the posture of each vehicle at each time, and the three-dimensional position of each feature point tracked by the feature point tracking unit 236 Is calculated.

ピッチ変化コスト演算部248は、複数の車両の各々について、車両ピッチ角算出部238によって算出された各車両の各時刻のピッチ角と、暫定軌跡姿勢演算部244によって得られた各車両の姿勢のうちのピッチ角との差分との差分を表すピッチ変化コストを算出する。   For each of the plurality of vehicles, the pitch change cost calculation unit 248 calculates the pitch angle of each vehicle calculated by the vehicle pitch angle calculation unit 238 and the posture of each vehicle obtained by the provisional trajectory posture calculation unit 244. A pitch change cost representing a difference from the difference between the pitch angles is calculated.

位置変化コスト演算部250は、複数の車両の各々について、データ蓄積部232に格納された各車両の各時刻の速度から求められる各車両の位置の変化と、暫定軌跡姿勢演算部244によって得られた各車両の位置の変化との差分を表す位置変化コストを算出する。   The position change cost calculation unit 250 is obtained by the provisional trajectory posture calculation unit 244 and the change in the position of each vehicle obtained from the speed at each time of each vehicle stored in the data storage unit 232 for each of the plurality of vehicles. The position change cost representing the difference from the change in the position of each vehicle is calculated.

方位変化コスト演算部252は、複数の車両の各々について、データ蓄積部232に蓄積された各時刻の角速度から求められる各車両の方位角の変化と、暫定軌跡姿勢演算部244によって得られた各車両の姿勢のうちの方位角の変化との差分を表す方位変化コストを算出する。   The azimuth change cost calculation unit 252 changes the azimuth angle of each vehicle obtained from the angular velocities at each time stored in the data storage unit 232 for each of the plurality of vehicles, and each obtained by the temporary trajectory posture calculation unit 244. An azimuth change cost representing a difference from an azimuth change in the posture of the vehicle is calculated.

ドップラーコスト演算部254は、複数の車両の各々について、データ蓄積部232に格納された各時刻の衛星情報と、暫定軌跡姿勢演算部244によって算出された各車両の各時刻の姿勢のうちの方位角との整合性を表すドップラーコストを演算する。   For each of the plurality of vehicles, the Doppler cost calculation unit 254 includes the satellite information at each time stored in the data storage unit 232 and the azimuth among the postures at each time of each vehicle calculated by the provisional trajectory posture calculation unit 244. The Doppler cost representing the consistency with the corner is calculated.

位置コスト演算部255は、データ蓄積部232に格納された複数の車両データに対応する車両の各々について、高精度測位部241によって推定された車両の各時刻の位置から得られる車両の軌跡と、暫定軌跡姿勢演算部244によって算出された車両の軌跡との差分を表す位置コストを算出する。   The position cost calculation unit 255, for each of the vehicles corresponding to the plurality of vehicle data stored in the data storage unit 232, the vehicle trajectory obtained from the position of the vehicle at each time estimated by the high-precision positioning unit 241; A position cost representing a difference from the vehicle trajectory calculated by the provisional trajectory posture calculation unit 244 is calculated.

位置コスト演算部255で算出される位置コストは、複数の車両の各々について、高精度測位部241によって算出された車両の各時刻の位置と、暫定軌跡姿勢演算部244によって暫定的に算出された車両の軌跡との整合性を評価する指標であり、整合性が低い程コストは増加するように設定される。例えば、以下の式(10)に示すようにコスト設定を行うことができる。   The position cost calculated by the position cost calculation unit 255 is tentatively calculated for each of a plurality of vehicles by the position of the vehicle at each time calculated by the high-precision positioning unit 241 and the temporary trajectory posture calculation unit 244. It is an index for evaluating the consistency with the trajectory of the vehicle, and is set so that the cost increases as the consistency decreases. For example, the cost can be set as shown in the following formula (10).

Figure 0006613961
Figure 0006613961

’は高精度測位部241によって算出された時刻tにおける車両の位置、xは暫定軌跡姿勢演算部244によって算出された時刻tにおける車両の軌跡の暫定値、eposは各観測値の残差、Eposは残差の総和(コスト)とする。 x t ′ is the vehicle position at time t calculated by the high-precision positioning unit 241, x t is the provisional value of the vehicle trajectory at time t calculated by the provisional trajectory posture calculation unit 244, and e pos is the value of each observation value The residual, E pos, is the sum of the residuals (cost).

暫定軌跡姿勢演算部244は、収束演算が2回目以降である場合、特徴点コスト演算部46、ピッチ変化コスト演算部48、位置変化コスト演算部50、方位変化コスト演算部52、ドップラーコスト演算部54、及び位置コスト演算部255によって演算された各コストに基づいて、各車両の各時刻の軌跡及び各車両の各時刻の姿勢を推定する。   When the convergence calculation is performed for the second time or later, the temporary trajectory posture calculation unit 244 is a feature point cost calculation unit 46, a pitch change cost calculation unit 48, a position change cost calculation unit 50, an orientation change cost calculation unit 52, and a Doppler cost calculation unit. 54 and the cost calculated by the position cost calculation unit 255, the time trajectory of each vehicle and the attitude of each vehicle at each time are estimated.

具体的には、暫定軌跡姿勢演算部244は、各コスト演算部の結果に基づいて、各車両の各時刻の位置、各車両の各時刻の姿勢、及び特徴点の3次元位置についての、前回値をからの修正量δpを、以下の式(11)に従い算出する。   Specifically, the provisional trajectory posture calculation unit 244 determines the previous time position of each vehicle, the posture of each vehicle at each time, and the three-dimensional position of the feature point based on the result of each cost calculation unit. The correction amount δp from the value is calculated according to the following equation (11).

Figure 0006613961
Figure 0006613961

上記式(11)において、nは車両のインデックス、mは特徴点のインデックス、tは時刻のインデックスを示す。   In the above equation (11), n is a vehicle index, m is a feature point index, and t is a time index.

暫定軌跡姿勢演算部44は、上記式(11)に従って、各コスト演算部によって演算されたコストを最小化するように、各車両の各時刻の位置及び各車両の各時刻の姿勢が推定する。   The provisional trajectory posture calculation unit 44 estimates the position of each vehicle at each time and the posture of each vehicle at each time so as to minimize the cost calculated by each cost calculation unit according to the above equation (11).

そして、暫定軌跡姿勢演算部44は、前回の出力値pは上記で算出した修正量δpを用いて以下の式(12)に示すように各車両の各時刻の位置、各車両の各時刻の姿勢、及び特徴点の3次元位置を更新する。これにより、各コスト演算部によって演算されたコストを最小化するように、複数の車両の各々について、車両の各時刻の位置及び車両の各時刻の姿勢が推定される。   Then, the temporary trajectory posture calculation unit 44 uses the correction amount δp calculated above as the previous output value p, as shown in the following equation (12), at each time position of each vehicle and each time of each vehicle. The posture and the three-dimensional position of the feature point are updated. Thereby, the position of each time of the vehicle and the attitude of each time of the vehicle are estimated for each of the plurality of vehicles so as to minimize the cost calculated by each cost calculation unit.

Figure 0006613961
Figure 0006613961

なお、本実施形態では、一般的で簡単な最適化手法であるニュートン法の例を示したが、よりロバスト性の高いLevenberg-Marquardt法などを用いてもよい。   In the present embodiment, an example of the Newton method, which is a general and simple optimization method, is shown, but the more robust Levenberg-Marquardt method or the like may be used.

図14及び図15に第2の実施の形態の効果を説明するための図を示す。図14に示すように、単独の車両の軌跡を推定する場合、車両の走行と共にすこしずつ軌跡の誤差が累積する。この場合、特徴点の位置にも誤差が生じ、軌跡の補正が困難となる。   14 and 15 are diagrams for explaining the effects of the second embodiment. As shown in FIG. 14, when estimating the trajectory of a single vehicle, the trajectory errors accumulate little by little as the vehicle travels. In this case, an error also occurs in the position of the feature point, and it is difficult to correct the locus.

一方、図15に示すように、第2の実施の形態では、複数の車両の情報を収集するため、画像における特徴点の位置の誤差は、車両の台数分だけ平均化され、単独の車両の軌跡の推定に比べ、画像における特徴点の位置の誤差は低減される。さらに、第1の実施の形態と同様に、画像における特徴点の位置とつじつまが合うように、各車両の軌跡が最適化されるため、各車両の軌跡の推定誤差も低減される。   On the other hand, as shown in FIG. 15, in the second embodiment, since the information of a plurality of vehicles is collected, the error of the position of the feature point in the image is averaged by the number of vehicles, Compared with the estimation of the locus, the error of the position of the feature point in the image is reduced. Furthermore, as in the first embodiment, since the trajectory of each vehicle is optimized so that it matches the position of the feature point in the image, the estimation error of the trajectory of each vehicle is also reduced.

<第2の実施の形態に係る状態推定装置210の作用> <Operation of State Estimation Device 210 according to Second Embodiment>

次に、第2の実施の形態に係る状態推定装置210の作用について説明する。   Next, the operation of the state estimation device 210 according to the second embodiment will be described.

各時刻において、各車載装置102が各測位衛星から衛星情報を受信し、各センサが車両のデータを検出し、取得した車両データを状態推定装置210へ送信する。また、各時刻において、固定点観測装置110が各測位衛星から衛星情報を受信し、取得した固定点観測データを状態推定装置210へ送信する。そして、各時刻において、状態推定装置210が各車載装置102から送信された車両データと、固定点観測装置110から送信された固定点観測データとを受信し、車両データと固定点観測データとがデータ蓄積部232に格納されているときに、コンピュータ220において、図16に示す車両状態推定処理ルーチンが実行される。   At each time, each in-vehicle device 102 receives satellite information from each positioning satellite, each sensor detects vehicle data, and transmits the acquired vehicle data to the state estimation device 210. At each time, the fixed point observation device 110 receives satellite information from each positioning satellite and transmits the acquired fixed point observation data to the state estimation device 210. At each time, the state estimation device 210 receives the vehicle data transmitted from each in-vehicle device 102 and the fixed point observation data transmitted from the fixed point observation device 110, and the vehicle data and the fixed point observation data are received. When the data is stored in the data storage unit 232, the computer 220 executes a vehicle state estimation processing routine shown in FIG.

ステップS300において、データ蓄積部232に蓄積された各車両の車両データと固定点観測データとを取得する。   In step S300, the vehicle data and fixed point observation data of each vehicle stored in the data storage unit 232 are acquired.

ステップS302において、特徴点追跡部236は、複数の車両の各々について、上記ステップS300で取得された車両データに含まれる各時刻の画像の各々から特徴点を抽出する。   In step S302, the feature point tracking unit 236 extracts feature points from each of the images at each time included in the vehicle data acquired in step S300 for each of the plurality of vehicles.

ステップS304において、特徴点追跡部236は、複数の車両の各々について、上記ステップS302で各時刻の画像の各々から抽出された特徴点に基づいて、各時刻の画像の各々における各特徴点を追跡する。   In step S304, the feature point tracking unit 236 tracks each feature point in each of the images at each time based on the feature points extracted from each of the images at each time in step S302 for each of the plurality of vehicles. To do.

ステップS306において、車両ピッチ角算出部238は、複数の車両の各々について、上記ステップS300で取得された車両データに含まれる車両の各時刻の速度及び各時刻の加速度に基づいて、上記式(1)に従って、車両の各時刻のピッチ角を算出する。   In step S306, the vehicle pitch angle calculation unit 238, for each of the plurality of vehicles, based on the speed at each time and the acceleration at each time included in the vehicle data acquired in step S300, the above formula (1 ) To calculate the pitch angle at each time of the vehicle.

ステップS308において、クロックドリフト算出部240は、複数の車両の各々について、上記ステップS300で取得された車両データに含まれる各時刻の衛星情報に基づいて、上記式(2)に従って、各衛星についてのクロックドリフトを算出する。   In step S308, for each of the plurality of vehicles, the clock drift calculation unit 240 performs the calculation for each satellite according to the above equation (2) based on the satellite information at each time included in the vehicle data acquired in step S300. Calculate clock drift.

ステップS309において、高精度測位部241は、上記ステップS300で取得された固定点観測データに基づいて、複数の車両の各時刻の位置を高精度に推定する。   In step S309, the high-accuracy positioning unit 241 estimates the position of each time of a plurality of vehicles with high accuracy based on the fixed point observation data acquired in step S300.

ステップS310において、暫定軌跡姿勢演算部44は、収束演算が初回である場合、複数の車両の各々について、車両の各時刻の軌跡、車両の各時刻の姿勢、及び特徴点追跡部36によって追跡された各特徴点の3次元位置として、適当な値を初期値として設定する。または、暫定軌跡姿勢演算部44は、収束演算が2回目以降である場合、複数の車両の各々について、前回のステップS312で演算された各コストに基づいて、上記式(8)〜(9)に従って、車両の各時刻の軌跡及び車両の各時刻の姿勢を推定する。   In step S310, when the convergence calculation is the first time, the provisional trajectory posture calculation unit 44 is tracked by the trajectory at each time of the vehicle, the posture at each time of the vehicle, and the feature point tracking unit 36 for each of the plurality of vehicles. An appropriate value is set as an initial value as the three-dimensional position of each feature point. Alternatively, when the convergence calculation is performed for the second time or later, the temporary trajectory posture calculation unit 44 calculates the above formulas (8) to (9) for each of the plurality of vehicles based on the respective costs calculated in the previous step S312. Thus, the trajectory of each time of the vehicle and the attitude of each time of the vehicle are estimated.

ステップS312において、各コスト演算部は、複数の車両の各々について、ステップS310で得られた車両の各時刻の軌跡、車両の各時刻の姿勢、及び特徴点追跡部36によって追跡された各特徴点の3次元位置に基づいて、各コストを演算する。ステップS312は、図17に示すコスト演算処理ルーチンによって実現される。   In step S312, each cost calculation unit, for each of the plurality of vehicles, trajectory of each time of the vehicle obtained in step S310, posture of each time of the vehicle, and each feature point tracked by the feature point tracking unit 36 Each cost is calculated based on the three-dimensional position. Step S312 is realized by the cost calculation processing routine shown in FIG.

<コスト演算処理ルーチン> <Cost calculation processing routine>

ステップS400において、特徴点コスト演算部246は、複数の車両の各々について、上記ステップS304で得られた各特徴点に対し、異なる車両における特徴点同士を対応付ける。そして、特徴点コスト演算部246は、複数の車両の各々について、上記式(3)に従って、上記ステップS304で得られた追跡された各特徴点の位置と、上記ステップS310で得られた車両の各時刻の位置、車両の各時刻の姿勢、及び上記ステップS304で追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の画像の各々における位置との差分を表す特徴点コストを演算する。   In step S400, the feature point cost calculation unit 246 associates feature points in different vehicles with each feature point obtained in step S304 for each of the plurality of vehicles. Then, the feature point cost calculation unit 246, for each of the plurality of vehicles, according to the above equation (3), the position of each tracked feature point obtained in step S304 and the vehicle obtained in step S310. A feature point representing a difference between each feature point and a position in each time image obtained from the position at each time, the posture of each vehicle at each time, and the three-dimensional position of each feature point tracked in step S304. Calculate the cost.

ステップS402において、ピッチ変化コスト演算部248は、複数の車両の各々について、上記式(4)に従って、上記ステップS306で算出された車両の各時刻のピッチ角と、上記ステップS310で得られた車両の姿勢のうちのピッチ角との差分との差分を表すピッチ変化コストを算出する。   In step S402, the pitch change cost calculation unit 248, for each of a plurality of vehicles, according to the above equation (4), the pitch angle at each time of the vehicle calculated in step S306 and the vehicle obtained in step S310. A pitch change cost representing a difference from the difference between the pitch angle and the pitch angle is calculated.

ステップS404において、位置変化コスト演算部250は、複数の車両の各々について、上記式(5)に従って、上記ステップS300で取得された車両の各時刻の速度から求められる車両の位置の変化と、上記ステップS310で得られた車両の位置の変化との差分を表す位置変化コストを算出する。   In step S404, the position change cost calculation unit 250, for each of the plurality of vehicles, according to the above equation (5), the change in the position of the vehicle obtained from the speed at each time of the vehicle acquired in step S300, and the above A position change cost representing a difference from the change in the position of the vehicle obtained in step S310 is calculated.

ステップS406において、方位変化コスト演算部252は、複数の車両の各々について、上記式(6)に従って、上記ステップS300で取得された各時刻の角速度から求められる車両の方位角の変化と、上記ステップS310で得られた車両の姿勢のうちの方位角の変化との差分を表す方位変化コストを算出する。   In step S406, the azimuth change cost calculation unit 252 changes the azimuth angle of the vehicle obtained from the angular velocity at each time obtained in step S300 according to the above equation (6) for each of the plurality of vehicles, and the above step. An azimuth change cost representing a difference from a change in azimuth angle of the vehicle attitude obtained in S310 is calculated.

ステップS408において、ドップラーコスト演算部254は、複数の車両の各々について、上記式(7)に従って、上記ステップS300で取得された各時刻の衛星情報と、上記ステップS310で得られた車両の各時刻の姿勢のうちの方位角との整合性を表すドップラーコストを演算する。   In step S408, the Doppler cost calculation unit 254, for each of the plurality of vehicles, according to the equation (7), the satellite information of each time acquired in step S300 and each time of the vehicle obtained in step S310. The Doppler cost representing the consistency with the azimuth angle in the posture is calculated.

ステップS409において、位置コスト演算部255は、複数の車両の各々について、上記式(10)に従って、上記ステップS309で推定された車両の各時刻の位置から得られる車両の各時刻の軌跡と、上記ステップS310で得られた車両の軌跡との差分を表す位置コストを算出する。   In step S409, the position cost calculation unit 255, for each of the plurality of vehicles, according to the above equation (10), the trajectory of each time of the vehicle obtained from the position of each time of the vehicle estimated in the above step S309, and the above A position cost representing a difference from the vehicle trajectory obtained in step S310 is calculated.

ステップS410において、上記ステップS400〜ステップS409で演算された各コストを結果として出力し、コスト演算処理ルーチンを終了する。   In step S410, each cost calculated in steps S400 to S409 is output as a result, and the cost calculation processing routine is terminated.

次に、図16に示す車両状態推定処理ルーチンのステップS114へ戻り、最適軌跡姿勢決定部56は、上記ステップS310で算出された結果が最適値であるか否かを判断する。上記ステップS310で算出された結果が最適値であると判断された場合には、ステップS316へ進む。一方、上記ステップS310で算出された結果が最適値でないと判断された場合には、ステップS310へ戻る。   Next, returning to step S114 of the vehicle state estimation processing routine shown in FIG. 16, the optimum trajectory posture determination unit 56 determines whether or not the result calculated in step S310 is an optimum value. If it is determined that the result calculated in step S310 is the optimum value, the process proceeds to step S316. On the other hand, if it is determined that the result calculated in step S310 is not the optimum value, the process returns to step S310.

ステップS316において、最適軌跡姿勢決定部56は、最適値であると判断した車両の軌跡及び車両の各時刻の姿勢を、結果として出力して、車両状態推定処理ルーチンを終了する。   In step S316, the optimal trajectory posture determination unit 56 outputs the trajectory of the vehicle determined to be the optimum value and the posture of each time of the vehicle as a result, and the vehicle state estimation processing routine ends.

以上説明したように、第2の実施の形態に係る状態推定装置によれば、固定点観測地点の各時刻の衛星情報及び固定点観測地点に関する情報に基づいて、複数の車両の各々について、車両の各時刻の位置を推定し、車両の各時刻の位置から求められる車両の各時刻の軌跡と、車両の軌跡との差分を表す位置コストを算出し、複数の車両の各々についての、位置コストを含むコストを最小化するように、車両の軌跡及び車両の姿勢を推定することにより、複数の車両の各々について、車両の軌跡及び車両の姿勢を精度良く推定することができる。   As described above, according to the state estimation device according to the second embodiment, the vehicle is determined for each of the plurality of vehicles based on the satellite information at each time of the fixed point observation point and the information on the fixed point observation point. The position cost for each of a plurality of vehicles is calculated by calculating the position cost representing the difference between the trajectory of each vehicle time obtained from the position of each vehicle time and the trajectory of the vehicle. By estimating the trajectory of the vehicle and the attitude of the vehicle so as to minimize the cost including the vehicle trajectory, the trajectory of the vehicle and the attitude of the vehicle can be accurately estimated for each of the plurality of vehicles.

複数の車両で計測されたセンサ情報(ジャイロ、車輪速、GPS)をサーバである状態推定装置に蓄積し、それら全体を最適化する各車両の軌跡及び各車両の姿勢と特徴点位置を求めることで各車センサ誤差の平均化効果が得られるため、複数の車両の各々について、車両の軌跡及び車両の姿勢を精度良く推定することができる。   Sensor information (gyro, wheel speed, GPS) measured by a plurality of vehicles is stored in a state estimation device as a server, and the trajectory of each vehicle and the posture and feature point position of each vehicle are optimized. Thus, since the averaging effect of each vehicle sensor error is obtained, the vehicle trajectory and the vehicle posture can be accurately estimated for each of the plurality of vehicles.

なお、上記第1の実施の形態では、特徴点コスト演算部46、ピッチ変化コスト演算部48、位置変化コスト演算部50、方位変化コスト演算部52、及びドップラーコスト演算部54によって演算された各コストに基づいて、車両の軌跡及び車両の姿勢を推定する場合を例に説明し、上記第2の実施の形態では、特徴点コスト演算部246、ピッチ変化コスト演算部248、位置変化コスト演算部250、方位変化コスト演算部252、ドップラーコスト演算部254、及び位置コスト演算部255によって演算された各コストに基づいて、車両の軌跡及び車両の姿勢を推定する場合を例に説明したが、これに限定されるものではない。各コストの少なくとも1つを最小化するように、車両の軌跡及び車両の姿勢を推定してもよい。例えば、特徴点コスト演算部によって演算された特徴点コストと、ドップラーコスト演算部によって演算されたドップラーコストとを最小化するように、車両の軌跡及び車両の姿勢を推定してもよい。   In the first embodiment, the feature point cost calculator 46, the pitch change cost calculator 48, the position change cost calculator 50, the azimuth change cost calculator 52, and the Doppler cost calculator 54 are calculated. The case where the trajectory of the vehicle and the posture of the vehicle are estimated based on the cost will be described as an example. In the second embodiment, the feature point cost calculation unit 246, the pitch change cost calculation unit 248, the position change cost calculation unit 250, the case where the vehicle trajectory and the vehicle posture are estimated based on the respective costs calculated by the azimuth change cost calculation unit 252, the Doppler cost calculation unit 254, and the position cost calculation unit 255 has been described. It is not limited to. The vehicle trajectory and the vehicle attitude may be estimated so as to minimize at least one of the costs. For example, the trajectory of the vehicle and the posture of the vehicle may be estimated so as to minimize the feature point cost calculated by the feature point cost calculation unit and the Doppler cost calculated by the Doppler cost calculation unit.

また、上記第1の実施の形態では、状態推定装置が車両に搭載される場合について説明したが、これに限定されるものではなく、上記第2の実施の形態のように、状態推定装置をサーバとし、車両の車載装置から送信された車両データに基づいて、車両の軌跡及び姿勢を推定しても良い。   In the first embodiment, the state estimation device is mounted on a vehicle. However, the present invention is not limited to this, and the state estimation device is not limited to this. As a server, the trajectory and posture of the vehicle may be estimated based on vehicle data transmitted from the in-vehicle device of the vehicle.

また、上記実施の形態では、車両に搭載される状態推定装置について説明したが、本発明の状態推定装置が搭載される移動体は車両に限定されない。例えば、状態推定装置をロボットに搭載してもよいし、歩行者が携帯できるように状態推定装置をポータブル端末として構成するようにしてもよい。   Moreover, although the said embodiment demonstrated the state estimation apparatus mounted in a vehicle, the mobile body in which the state estimation apparatus of this invention is mounted is not limited to a vehicle. For example, the state estimation device may be mounted on a robot, or the state estimation device may be configured as a portable terminal so that a pedestrian can carry it.

10,210 状態推定装置
12 カメラ
14 加速度センサ
16 速度センサ
18 角速度センサ
18 速度センサ
19,114 GPS装置
20,104,112,220 コンピュータ
22 画像取得部
24 加速度取得部
26 車速取得部
28 角速度取得部
30 衛星情報取得部
32,232 データ蓄積部
36,236 特徴点追跡部
38,238 車両ピッチ角算出部
40,240 クロックドリフト算出部
42,242 軌跡姿勢推定部
44,244 暫定軌跡姿勢演算部
46,246 特徴点コスト演算部
48,248 ピッチ変化コスト演算部
50,250 位置変化コスト演算部
52,252 方位変化コスト演算部
54,254 ドップラーコスト演算部
56 最適軌跡姿勢決定部
100 情報処理システム
102 車載装置
106 車両データ送信部
110 固定点観測装置
116 衛星情報取得部
118 固定点観測データ送信部
150 ネットワーク
230 車両データ受信部
231 固定点観測データ受信部
241 高精度測位部
255 位置コスト演算部
DESCRIPTION OF SYMBOLS 10,210 State estimation apparatus 12 Camera 14 Acceleration sensor 16 Speed sensor 18 Angular speed sensor 18 Speed sensor 19, 114 GPS apparatus 20, 104, 112, 220 Computer 22 Image acquisition part 24 Acceleration acquisition part 26 Vehicle speed acquisition part 28 Angular speed acquisition part 30 Satellite information acquisition unit 32, 232 Data storage unit 36, 236 Feature point tracking unit 38, 238 Vehicle pitch angle calculation unit 40, 240 Clock drift calculation unit 42, 242 Trajectory posture estimation unit 44, 244 Temporary trajectory posture calculation unit 46, 246 Feature point cost calculation unit 48, 248 Pitch change cost calculation unit 50, 250 Position change cost calculation unit 52, 252 Direction change cost calculation unit 54, 254 Doppler cost calculation unit 56 Optimal trajectory posture determination unit 100 Information processing system 102 In-vehicle device 106 Vehicle data transmission unit 11 0 fixed point observation device 116 satellite information acquisition unit 118 fixed point observation data transmission unit 150 network 230 vehicle data reception unit 231 fixed point observation data reception unit 241 high accuracy positioning unit 255 position cost calculation unit

Claims (9)

移動体に搭載された受信手段によって受信された各時刻の衛星情報、及び移動体に搭載された撮像手段によって撮像された各時刻の前記移動体の周辺の画像を移動体情報として取得する取得手段と、
前記取得手段によって取得された各時刻の前記画像の各々から特徴点を抽出し、各時刻の前記画像の各々において各特徴点を追跡する特徴点追跡手段と、
前記特徴点追跡手段によって追跡された各特徴点の、各時刻の前記画像の各々における位置と、前記移動体の各時刻の位置、前記移動体の各時刻の姿勢、及び前記特徴点追跡手段によって追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の前記画像の各々における位置との差分、並びに前記取得手段によって取得された各時刻の前記衛星情報と、前記移動体の各時刻の姿勢との整合性を表すコストを最小化するように、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定する状態推定手段と、
を含む状態推定装置。
Acquisition means for acquiring satellite information at each time received by the receiving means mounted on the moving body and images of the surroundings of the moving body at each time imaged by the imaging means mounted on the moving body as moving body information When,
Feature point tracking means for extracting feature points from each of the images at each time acquired by the acquisition means and tracking each feature point in each of the images at each time;
The position of each feature point tracked by the feature point tracking means in each image at each time, the position of each time of the moving body, the posture of each time of the moving body, and the feature point tracking means The difference between each feature point and the position of each feature point in each of the images obtained from the tracked three-dimensional position of each feature point, the satellite information at each time obtained by the obtaining means, and the moving body State estimation means for estimating the position of each time of the moving body and the posture of each time of the moving body so as to minimize the cost representing the consistency with the posture of each time of
A state estimation apparatus including:
前記取得手段によって取得された各時刻の前記衛星情報に基づいて、各衛星についてのクロックドリフトを算出するクロックドリフト算出手段と、
前記取得手段によって取得された各時刻の前記衛星情報に含まれる、各衛星の各時刻のドップラーシフトと、前記クロックドリフト算出手段によって算出された各衛星についてのクロックドリフト、及び前記移動体の各時刻の姿勢とに基づいて、前記ドップラーシフトから求められる前記移動体と各衛星との相対速度の観測値と、前記クロックドリフト及び前記移動体の各時刻の姿勢から求められる前記移動体と各衛星との相対速度の推定値との差分を表すドップラーコストを算出するドップラーコスト演算手段とを更に含み、
前記状態推定手段は、
前記差分と、前記ドップラーコスト演算手段によって算出された前記ドップラーコストとを含む前記コストを最小化するように、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定する
請求項1に記載の状態推定装置。
A clock drift calculating means for calculating a clock drift for each satellite based on the satellite information at each time acquired by the acquiring means;
The Doppler shift at each time of each satellite included in the satellite information at each time acquired by the acquisition means, the clock drift for each satellite calculated by the clock drift calculation means, and each time of the mobile body Based on the attitude of the Doppler shift, the observed relative velocity between the moving object and each satellite, and the moving object and each satellite determined from the clock drift and the attitude of the moving object at each time. And a Doppler cost calculating means for calculating a Doppler cost representing a difference from the estimated value of the relative speed of
The state estimating means includes
The position of each time of the moving body and the posture of each time of the moving body are estimated so as to minimize the cost including the difference and the Doppler cost calculated by the Doppler cost calculating means. The state estimation apparatus according to 1.
ピッチ角算出手段を更に含み、
前記取得手段は、前記移動体に搭載された速度センサによって検出された各時刻の速度と、前記移動体に搭載された加速度センサによって検出された各時刻の加速度と、前記移動体に搭載された角速度センサによって検出された各時刻の角速度とを前記移動体情報として更に取得し、
前記ピッチ角算出手段は、前記取得手段によって取得された各時刻の前記速度及び各時刻の前記加速度に基づいて、前記移動体の各時刻のピッチ角を算出し、
前記ピッチ角算出手段によって算出された前記移動体の各時刻のピッチ角と、前記移動体の姿勢のうちのピッチ角との差分を表すピッチ変化コストを算出するピッチ変化コスト演算手段と、
前記取得手段によって取得された各時刻の前記速度から求められる移動体の位置の変化と、前記移動体の位置の変化との差分を表す位置変化コストを算出する位置変化コスト演算手段と、
前記取得手段によって取得された各時刻の前記角速度から求められる移動体の方位角の変化と、前記移動体の姿勢のうちの方位角の変化との差分を表す方位変化コストを算出する方位変化コスト演算手段と、
前記状態推定手段は、
前記差分と、前記ドップラーコスト演算手段によって算出された前記ドップラーコストと、前記ピッチ変化コスト演算手段によって算出された前記ピッチ変化コストと、前記位置変化コスト演算手段によって算出された前記位置変化コストと、前記方位変化コスト演算手段によって算出された前記方位変化コストとを含む前記コストを最小化するように、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定する
請求項2に記載の状態推定装置。
A pitch angle calculating unit;
The acquisition means includes a speed at each time detected by a speed sensor mounted on the mobile body, an acceleration at each time detected by an acceleration sensor mounted on the mobile body, and the mobile body mounted on the mobile body. Further acquiring the angular velocity at each time detected by the angular velocity sensor as the moving body information,
The pitch angle calculation means calculates the pitch angle at each time of the mobile body based on the speed at each time acquired by the acquisition means and the acceleration at each time,
A pitch change cost calculating means for calculating a pitch change cost representing a difference between a pitch angle at each time of the moving body calculated by the pitch angle calculating means and a pitch angle of the posture of the moving body;
A position change cost calculating means for calculating a position change cost representing a difference between a change in the position of the moving object obtained from the speed at each time acquired by the acquiring means and a change in the position of the moving object;
The azimuth change cost for calculating the azimuth change cost representing the difference between the change in the azimuth angle of the moving object obtained from the angular velocity at each time acquired by the acquisition means and the change in the azimuth angle of the posture of the moving object. Computing means;
The state estimating means includes
The difference, the Doppler cost calculated by the Doppler cost calculating means, the pitch change cost calculated by the pitch change cost calculating means, and the position change cost calculated by the position change cost calculating means, The position of each time of the said mobile body and the attitude | position of each time of the said mobile body are estimated so that the said cost including the said direction change cost calculated by the said direction change cost calculating means may be minimized. The state estimation apparatus described.
前記状態推定手段は、
予め定められた収束条件を満たすまで、前記移動体の各時刻の位置、及び前記移動体の各時刻の姿勢を推定することを繰り返す
請求項1〜請求項3の何れか1項に記載の状態推定装置。
The state estimating means includes
The state according to any one of claims 1 to 3, wherein estimation of a position of each time of the moving body and a posture of each time of the moving body is repeated until a predetermined convergence condition is satisfied. Estimating device.
前記取得手段は、複数の前記移動体の各々について、前記移動体情報を取得し、
前記状態推定手段は、複数の前記移動体の各々についての前記コストの総和を最小化するように、複数の前記移動体の各々について、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定する
請求項1〜請求項4の何れか1項に記載の状態推定装置。
The acquisition means acquires the moving body information for each of the plurality of moving bodies,
The state estimation means, for each of the plurality of moving bodies, for each of the plurality of moving bodies, each time position of the moving body and each time of the moving body so as to minimize the sum of the costs for each of the plurality of moving bodies. The state estimation apparatus according to any one of claims 1 to 4, wherein the posture is estimated.
測位手段を更に含み、
前記取得手段は、定点観測地点において観測された各時刻の衛星情報及び前記定点観測地点に関する情報を更に取得し、
前記測位手段は、複数の前記移動体の各々について、前記取得手段によって取得された前記定点観測地点の各時刻の前記衛星情報及び前記定点観測地点に関する情報に基づいて、前記移動体の各時刻の位置を推定し、
前記状態推定手段は、
複数の前記移動体の各々についての、前記測位手段によって推定された前記移動体の各時刻の位置と、前記移動体の各時刻の位置との差分を含む前記コストの総和を最小化するように、複数の前記移動体の各々について、前記移動体の各時刻の位置及び前記移動体の姿勢を推定する
請求項5に記載の状態推定装置。
Further including positioning means,
The acquisition means further acquires satellite information at each time point observed at a fixed point observation point and information on the fixed point observation point,
The positioning means, for each of a plurality of the mobile body, based on the satellite information of each time of the fixed point observation point acquired by the acquisition means and information on the fixed point observation point of each time of the mobile body Estimate the position,
The state estimating means includes
For each of the plurality of moving bodies, the total cost including the difference between the position of each time of the moving body estimated by the positioning means and the position of each time of the moving body is minimized. The state estimation device according to claim 5, wherein for each of the plurality of moving bodies, the position of the moving body at each time and the posture of the moving body are estimated.
移動体に搭載された情報端末であって、
前記移動体に搭載された受信手段によって受信された各時刻の衛星情報、前記移動体に搭載された撮像手段によって撮像された各時刻の前記移動体の周辺の画像、前記移動体に搭載された速度センサによって検出された各時刻の速度、前記移動体に搭載された加速度センサによって検出された各時刻の加速度、及び前記移動体に搭載された角速度センサによって検出された各時刻の角速度の少なくとも1つを前記移動体情報として取得する情報取得手段と、
前記情報取得手段によって取得された前記移動体情報を、請求項1〜請求項6の何れか1項に記載の状態推定装置へ送信する通信手段と、
を含む情報端末。
An information terminal mounted on a mobile object,
Satellite information at each time received by the receiving means mounted on the mobile body, images of the periphery of the mobile body at each time imaged by the imaging means mounted on the mobile body, mounted on the mobile body At least one of the speed at each time detected by the speed sensor, the acceleration at each time detected by the acceleration sensor mounted on the mobile body, and the angular speed at each time detected by the angular speed sensor mounted on the mobile body Information acquisition means for acquiring one as the mobile body information;
Communication means for transmitting the mobile object information acquired by the information acquisition means to the state estimation device according to any one of claims 1 to 6,
Information terminal including.
請求項1〜請求項6の何れか1項に記載の状態推定装置と、
請求項7に記載の情報端末とを含む情報処理システム。
The state estimation device according to any one of claims 1 to 6,
An information processing system including the information terminal according to claim 7.
コンピュータを、
移動体に搭載された受信手段によって受信された各時刻の衛星情報、及び移動体に搭載された撮像手段によって撮像された各時刻の前記移動体の周辺の画像を移動体情報として取得する取得手段、
前記取得手段によって取得された各時刻の前記画像の各々から特徴点を抽出し、各時刻の前記画像の各々において各特徴点を追跡する特徴点追跡手段、及び
前記特徴点追跡手段によって追跡された各特徴点の、各時刻の前記画像の各々における位置と、前記移動体の各時刻の位置、前記移動体の各時刻の姿勢、及び前記特徴点追跡手段によって追跡された各特徴点の3次元位置から求まる、各特徴点の、各時刻の前記画像の各々における位置との差分、並びに前記取得手段によって取得された各時刻の前記衛星情報と、前記移動体の各時刻の姿勢との整合性を表すコストを最小化するように、前記移動体の各時刻の位置及び前記移動体の各時刻の姿勢を推定する状態推定手段
として機能させるためのプログラム。
Computer
Acquisition means for acquiring satellite information at each time received by the receiving means mounted on the moving body and images of the surroundings of the moving body at each time imaged by the imaging means mounted on the moving body as moving body information ,
Feature points are extracted from each of the images at each time acquired by the acquisition means, and feature points tracking means for tracking each feature point in each of the images at each time, and tracked by the feature point tracking means The position of each feature point in each of the images at each time, the position of each time of the moving body, the posture of each time of the moving body, and the three-dimensional of each feature point tracked by the feature point tracking means The difference between each feature point obtained from the position and the position in each of the images at each time, and the consistency between the satellite information at each time acquired by the acquisition unit and the attitude of the mobile body at each time A program for functioning as state estimating means for estimating the position of each time of the moving body and the posture of each time of the moving body so as to minimize the cost representing
JP2016037818A 2016-02-29 2016-02-29 State estimation device, information terminal, information processing system, and program Expired - Fee Related JP6613961B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016037818A JP6613961B2 (en) 2016-02-29 2016-02-29 State estimation device, information terminal, information processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016037818A JP6613961B2 (en) 2016-02-29 2016-02-29 State estimation device, information terminal, information processing system, and program

Publications (2)

Publication Number Publication Date
JP2017156154A JP2017156154A (en) 2017-09-07
JP6613961B2 true JP6613961B2 (en) 2019-12-04

Family

ID=59809485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016037818A Expired - Fee Related JP6613961B2 (en) 2016-02-29 2016-02-29 State estimation device, information terminal, information processing system, and program

Country Status (1)

Country Link
JP (1) JP6613961B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6922641B2 (en) * 2017-10-13 2021-08-18 株式会社Jvcケンウッド Angular velocity derivation device and angular velocity derivation method
JP7173471B2 (en) * 2019-01-31 2022-11-16 株式会社豊田中央研究所 3D position estimation device and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4847090B2 (en) * 2005-10-14 2011-12-28 クラリオン株式会社 Position positioning device and position positioning method
US7868821B2 (en) * 2009-01-15 2011-01-11 Alpine Electronics, Inc Method and apparatus to estimate vehicle position and recognized landmark positions using GPS and camera

Also Published As

Publication number Publication date
JP2017156154A (en) 2017-09-07

Similar Documents

Publication Publication Date Title
JP5673071B2 (en) Position estimation apparatus and program
US9488480B2 (en) Method and apparatus for improved navigation of a moving platform
JP5589900B2 (en) Local map generation device, global map generation device, and program
JP5419665B2 (en) POSITION LOCATION DEVICE, POSITION LOCATION METHOD, POSITION LOCATION PROGRAM, Velocity Vector Calculation Device, Velocity Vector Calculation Method, and Velocity Vector Calculation Program
US20080319664A1 (en) Navigation aid
CN113203418B (en) GNSSINS visual fusion positioning method and system based on sequential Kalman filtering
CN109186597B (en) Positioning method of indoor wheeled robot based on double MEMS-IMU
JP6060642B2 (en) Self-position estimation device
CN112255648B (en) Motion state detection method and device, electronic equipment and storage medium
JP2012207919A (en) Abnormal value determination device, positioning device, and program
US20170074678A1 (en) Positioning and orientation data analysis system and method thereof
US20120226470A1 (en) Three-dimensional location of target land area by merging images captured by two satellite-based sensors
JP2014077769A (en) Sensor tilt determination device and program
JP2008175786A (en) Moving object position detecting method and detector
JP5892845B2 (en) Calibration quality determination apparatus and method
JP2010256301A (en) Multipath determination device and program
JP5879977B2 (en) Speed estimation apparatus and program
JP2014240266A (en) Sensor drift amount estimation device and program
JP6613961B2 (en) State estimation device, information terminal, information processing system, and program
JP2012098185A (en) Azimuth angle estimation device and program
JP7201219B2 (en) Positioning device, velocity measuring device, and program
JP5994237B2 (en) Positioning device and program
JP7111298B2 (en) Satellite selection device and program
JP6531768B2 (en) Sensor error correction apparatus and method
US11762104B2 (en) Method and device for locating a vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191021

R150 Certificate of patent or registration of utility model

Ref document number: 6613961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees