JP2008249639A - Own position locating device, own position locating method, and own position locating program - Google Patents
Own position locating device, own position locating method, and own position locating program Download PDFInfo
- Publication number
- JP2008249639A JP2008249639A JP2007094134A JP2007094134A JP2008249639A JP 2008249639 A JP2008249639 A JP 2008249639A JP 2007094134 A JP2007094134 A JP 2007094134A JP 2007094134 A JP2007094134 A JP 2007094134A JP 2008249639 A JP2008249639 A JP 2008249639A
- Authority
- JP
- Japan
- Prior art keywords
- azimuth
- self
- feature
- positioning
- residual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 93
- 238000012545 processing Methods 0.000 claims abstract description 64
- 238000004364 calculation method Methods 0.000 claims description 184
- 230000008569 process Effects 0.000 claims description 43
- 238000012937 correction Methods 0.000 claims description 24
- 235000009434 Actinidia chinensis Nutrition 0.000 claims description 12
- 244000298697 Actinidia deliciosa Species 0.000 claims description 12
- 235000009436 Actinidia deliciosa Nutrition 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、例えば、GIS(Geographic Information System)データベースを作成するために地理データ収集車両に搭載したり、一般車両に搭載してナビゲーションシステムに利用したりする自己位置標定装置、自己位置標定方法および自己位置標定プログラムに関するものである。 The present invention provides, for example, a self-positioning device, a self-positioning method, and a self-positioning method that are mounted on a geographic data collection vehicle to create a GIS (Geographic Information System) database, or are mounted on a general vehicle and used in a navigation system. It relates to the self-location program.
GPS(Global Positioning System)の受信機の価格が低下すると共にカーナビゲーションシステム(以下、カーナビ、カーナビゲーションともいう)が普及し、カーナビゲーションシステムの自己位置標定精度を向上するための技術やドライバーの運転補助のための技術などさまざまな技術が開発されてきた。例えば、自己位置標定精度を向上させる技術として、GPSの観測情報の一つである擬似距離に対して補正情報を反映して測位精度を向上させるディッファレンシャルGPS(DGPS)や、地図情報を使って自己位置を補正するマップマッチング技術や、白線を認識して認識した白線を基準にして行うレーンキーピングなどの技術が挙げられる。 GPS (Global Positioning System) receiver prices decrease and car navigation systems (hereinafter also referred to as car navigation systems and car navigation systems) become widespread, and technology and driver driving to improve the self-localization accuracy of car navigation systems Various technologies have been developed, including assistive technologies. For example, as a technique for improving the self-localization accuracy, differential GPS (DGPS) for improving the positioning accuracy by reflecting the correction information to the pseudo distance which is one of GPS observation information, or map information is used. Examples include map matching technology that corrects the self-position and technology such as lane keeping that is performed based on the recognized white line.
国土交通省は、1991年からASV(Advanced Safety Vehicle:先進安全自動車)の開発を主導し、現在は第3期の計画を進行中であり、車車間通信を使った事故回避システムの実用化を目指している。そのような高度なシステムには、現在よりも精度の高い自己位置標定装置が必要とされているが、一般の乗用車に搭載可能な装置ではGPSのアベイラビリティ(Availability,可用性)が悪い状況などにおいて十分な位置標定精度が保てないのが現状である。 The Ministry of Land, Infrastructure, Transport and Tourism has led the development of ASV (Advanced Safety Vehicle) since 1991, and is currently in the third phase of the plan to commercialize an accident avoidance system using inter-vehicle communication. want to be. Such an advanced system requires a self-localization device with higher accuracy than the present system, but a device that can be mounted on a general passenger car is sufficient in a situation where GPS availability (Availability) is poor. At present, it is difficult to maintain accurate positioning accuracy.
従来のカーナビ用途などの車両用自己位置標定装置では、GPS、慣性装置、車速パルスなどを利用するものが開発されている。この自己位置標定装置の標定精度を高めるため、道路上の通行区分帯表示用の断続線あるいは連続線(通常“白線”であるので、以下便宜上“白線”と呼ぶ)や道路標識、信号機、建物などのランドマークを利用して自己位置標定精度を高める手法が提案されてきた。 2. Description of the Related Art Conventional vehicle self-positioning devices such as car navigation applications have been developed that use GPS, inertial devices, vehicle speed pulses, and the like. In order to improve the positioning accuracy of this self-localization device, it is a discontinuous line or continuous line for displaying traffic division zones on the road (usually “white line”, so it is called “white line” for the sake of convenience below), road signs, traffic lights, buildings A method for improving the self-localization accuracy using landmarks such as these has been proposed.
例えば、白線を利用する方法として、車両に搭載したビデオカメラで白線を撮影し、その画像を処理した観測値から車両と白線との間の距離を計算し、車両と白線との距離を自己位置補正に利用する方式(特許文献1)がある。
また、建物などのランドマークを利用する方式として、車両に搭載したレーザレーダ等の測距型センサによる観測値と建造物データベースに登録されている値との照合結果に基づく位置補正方式(特許文献2)などが提案されている。さらには、車両の周囲にある建物などのランドマークの並び方や位置関係から自己位置を同定する方式も考案されている(特許文献3)。
また、道路標識や信号を利用する方式として、車両に搭載したカメラによって標識を認識し、二つのカメラまたはレーダを用いて標識までの距離を検出し、データベースから得たその標識の座標と、検出した距離とを使って自己位置を補正する手法(特許文献4)がある。さらには、信号機認識装置と、信号機への方向の仰角を計算する手段を備え、信号機までの水平方向距離を計算し、信号機までの水平方向距離を自己位置補正に利用する方式(特許文献5)などが提案されている。
For example, as a method of using the white line, the white line is photographed with a video camera mounted on the vehicle, the distance between the vehicle and the white line is calculated from the observation value obtained by processing the image, and the distance between the vehicle and the white line is self-positioned. There is a method (Patent Document 1) used for correction.
In addition, as a method of using landmarks such as buildings, a position correction method based on a result of collation between an observation value by a distance measuring sensor such as a laser radar mounted on a vehicle and a value registered in a building database (Patent Document) 2) etc. are proposed. Furthermore, a method has been devised for identifying the self position from the arrangement and positional relationship of landmarks such as buildings around the vehicle (Patent Document 3).
In addition, as a method of using road signs and signals, the sign is recognized by a camera mounted on the vehicle, the distance to the sign is detected using two cameras or radar, the coordinates of the sign obtained from the database, and detection There is a method (Patent Document 4) for correcting the self-position using the measured distance. Furthermore, a signal recognition device and means for calculating the elevation angle in the direction to the signal are calculated, the horizontal distance to the signal is calculated, and the horizontal distance to the signal is used for self-position correction (Patent Document 5). Etc. have been proposed.
ところが、車載カメラによって認識した白線までの距離を自己位置補正に使う従来方式は、カーナビゲーションシステム等の自己位置標定装置用の地図データベースの精度が十分なものとはいえないため、補正による効果は非常に限定的である。現状、カーナビゲーションに使われているような地図データベースの精度は、車両が道路上に位置する程度の位置補正を行うレーンキーピングに対しては有効であるが、従来方式によりサブメートル級の標定精度を達成するには十分な精度ではない。地図データベースの精度は今後向上すると考えられるが、地球の地殻変動によって1年に数センチメートル程度の絶対座標変動が起きるのが普通であり、地図データベースにおいて確保できる位置座標精度には限界がある。
また、従来方式のうち特許文献2には、専用の建物データベース構築が必要となり、また、高速で高精度なレーザレーダが必要となるといった課題がある。
However, the conventional method that uses the distance to the white line recognized by the in-vehicle camera for self-position correction does not have sufficient accuracy of the map database for self-positioning devices such as car navigation systems. Very limited. At present, the accuracy of the map database used for car navigation is effective for lane keeping that corrects the position of the vehicle on the road. Is not accurate enough to achieve. Although the accuracy of the map database is expected to improve in the future, the absolute coordinate fluctuation of about several centimeters per year is usually caused by the earth's crustal movement, and the position coordinate accuracy that can be secured in the map database is limited.
Further, among the conventional methods,
一方、このような状況において、簡便な方法で道路や建造物等のGISデータを作成する方法が開発されつつある。例えば、白線のデータベースを構築する方法(特許文献6)などは、すでに実用化段階に入っている。
カーナビなどに代表される車両用の自己位置標定装置は、GPS、慣性装置、車速パルスなどを利用するものが標準的である。このような自己位置標定装置では、都市部やトンネル内などのGPS測位信号のアベイラビリティが悪い環境では標定精度が劣化するという課題があった。そのため、GPS測位信号のアベイラビリティが悪い環境でも一定の測位精度を維持するためには、他に何らかの補助手段等が必要である。 As a vehicle self-localization device represented by a car navigation system or the like, a standard one using a GPS, an inertial device, a vehicle speed pulse, or the like is standard. Such a self-positioning device has a problem that the positioning accuracy deteriorates in an environment where the availability of GPS positioning signals is poor such as in urban areas and tunnels. Therefore, in order to maintain a certain positioning accuracy even in an environment where GPS positioning signal availability is poor, some other auxiliary means is required.
そこで、本発明は、道路上の白線や、道路標識といった既存の道路インフラを利用して、自己位置標定装置の標定精度を向上させることを目的とする。 In view of the above, an object of the present invention is to improve the positioning accuracy of the self-positioning device using existing road infrastructure such as a white line on a road or a road sign.
本発明の自己位置標定装置は、自己位置を測位する測位部と、前記測位部が測位した際の特定の方向を撮像するカメラと、前記カメラが撮像した画像に基づいて前記画像に映っている特定の地物の長さ方向が基準方向に対して成す前記特定の地物の方位角をCPU(Central Proccessing Unit)を用いて算出する画像方位角部と、地物の長さ方向が基準方向に対して成す当該地物の方位角を記憶する方位角データベースと、前記測位部が測位した自己位置に基づいて前記方位角データベースから前記特定の地物に対応する地物の方位角を取得するデータベース方位角部と、前記画像方位角部が算出した地物の方位角と前記データベース方位角部が取得した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出部と、前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定するカルマンフィルタとを備え、前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とすることを特徴とする。 The self-positioning device of the present invention is reflected in the image based on a positioning unit that measures the self-position, a camera that captures a specific direction when the positioning unit performs positioning, and an image captured by the camera. An image azimuth portion for calculating the azimuth angle of the specific feature with respect to the reference direction by using a CPU (Central Processing Unit), and the length direction of the feature is the reference direction. An azimuth angle database that stores the azimuth angle of the feature formed with respect to, and an azimuth angle of the feature corresponding to the specific feature from the azimuth angle database based on the self-position measured by the positioning unit The difference between the azimuth angle of the database, the azimuth angle of the feature calculated by the image azimuth angle portion, and the azimuth angle of the feature acquired by the database azimuth angle portion is used as a feature azimuth angle residual using the CPU. An azimuth residual calculation unit for calculating, and a Kalman filter for estimating an error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculation unit using a CPU. The positioning unit corrects the measured self-position based on the error estimated by the Kalman filter, and uses the corrected self-position as a positioning result.
本発明によれば、例えば、画像方位角部が画像に映った白線の方位角を算出し、カルマンフィルタが方位角データベースに記憶されている白線の方位角と画像から算出した白線の方位角との方位角残差を観測量として誤差推定を行うことにより、自己位置標定精度を向上させることができる。 According to the present invention, for example, the azimuth angle of the white line reflected in the image is calculated by the image azimuth portion, and the azimuth angle of the white line stored in the azimuth database by the Kalman filter and the azimuth angle of the white line calculated from the image. By performing error estimation using the azimuth residual as an observation amount, it is possible to improve self-localization accuracy.
従来方式は、白線の方位角データを自己位置補正に利用していなかったり(特許文献1)、道路標識が存在する位置の(車両から見た)方位角データを自己位置補正に利用していなかったり(特許文献4)、自己位置標定装置としては改良の余地があった。
そこで、本発明は、方位角が地球の地殻変動による変化が少なく、方位角が絶対位置座標よりも比較的精度良く検出可能であるという点に着目し、白線の方位角や道路標識の方位角を自己位置補正に利用することにより自己位置標定精度を向上させる。
The conventional method does not use the white line azimuth data for self-position correction (Patent Document 1), or does not use the azimuth data (as viewed from the vehicle) where the road sign exists for self-position correction. (Patent Document 4), there was room for improvement as a self-positioning device.
Therefore, the present invention pays attention to the fact that the azimuth angle is less likely to change due to the earth's crustal movement, and the azimuth angle can be detected with higher accuracy than the absolute position coordinates. Is used for self-position correction to improve the self-positioning accuracy.
実施の形態1.
図1は、実施の形態1における自己位置標定装置100の構成図である。
図2は、実施の形態1における自己位置標定装置100の自己位置標定方法を示すフローチャートである。
実施の形態1における自己位置標定装置100の構成の概要および自己位置標定装置100の実行する自己位置標定方法の概要について、図1および図2に基づいて以下に説明する。
自己位置標定装置100の各部は図2に基づいて説明する各処理をCPUを用いて実行する。
FIG. 1 is a configuration diagram of a self-
FIG. 2 is a flowchart showing a self-positioning method of self-
The outline of the configuration of the self-
Each part of the self-
図1において、自己位置標定装置100は車両(移動体の一例)に搭載され、任意の測位方式によって測位した測位部110の測位結果に含まれる誤差を誤差推定部140を用いて推定し、推定した誤差により測位部110の測位結果を補正して車両の位置や姿勢角を高精度に標定する。
In FIG. 1, a self-
<S110:測位処理>
図2において、測位部110は車両の方位角データと速度データを用いたデッドレコニング計算や、3軸の加速度計および3軸のジャイロを利用するストラップダウン演算によって、車両の位置および姿勢角を算出する。デッドレコニング計算に使われる方位角データはジャイロから、速度データは車速パルスから取得することが多い。
<S110: Positioning process>
In FIG. 2, the
<S120:GPS観測残差算出処理>
次に、GPS観測残差算出部120は、擬似距離や位相差やドップラー量などのGPS観測量について、GPS観測部121の観測値とGPS観測量演算部122の演算値との差分をGPS観測残差として算出する。
このとき、GPS観測部121はGPS受信機を用いて測位信号を受信してGPS観測量を取得し、GPS観測量演算部122はGPS観測部121のGPS観測量に相当する量を演算により算出する。そして、GPS観測残差算出部120はGPS観測部121の観測値とGPS観測量演算部122の演算値との差分をGPS観測残差として誤差推定部140の入力にする。GPS観測部121によるGPS観測量には、例えば、GPS衛星が測位信号を発信してからGPS受信機が測位信号を受信するまでの時間に光速を乗じることにより算出されるGPS衛星とGPS受信機との間の擬似距離がある。また例えば、特定のGPS衛星からの測位信号(搬送波)を複数のGPS受信機で受信した際のGPS受信機間での受信測位信号の位相差(一重位相差)やGPS受信機間の一重位相差を複数のGPS衛星について得た際の一重位相差同士の差を示す二重位相差もGPS観測量の一例である。また例えば、受信した測位信号の周波数と測位信号の基準周波数との差に基づいて算出されるGPS衛星とGPS受信機との相対速度を示すドップラー量もGPS観測量の一例である。GPS観測量演算部122は、例えば、測位部110が測位した車両の位置と測位信号に含まれる衛星軌道パラメータが示すGPS衛星の位置とに基づいて擬似距離に相当する距離を算出する。また例えば、GPS観測量演算部122は各GPS受信機から各GPS衛星への方向を示すLOS(Line Of Sight)ベクトルとあるGPS受信機から別のGPS受信機への方向を示す基線ベクトルとに基づいて位相差や二重位相差を算出する。また例えば、GPS観測量演算部122はGPS衛星の位置・速度と車両の位置・速度とに基づいてドップラー量を算出する。そして、GPS観測残差算出部120はGPS観測部121のGPS観測値とGPS観測量演算部122のGPS観測値に相当する演算値との差分をGPS観測残差として算出する。
<S120: GPS observation residual calculation processing>
Next, the GPS observation
At this time, the
<S130:方位角残差算出処理>
次に、方位角残差算出部130は、車両が走行している道路における白線の直線部分の方位角や車両から見た標識の方位角について、方位角観測部131の観測値と方位角演算部132の演算値との差分を方位角残差として算出する。
このとき、方位角観測部131はカメラを用いて車両の進行方向を撮像して白線の直線部分の方位角や車両から見た標識の方位角の観測値を取得し、方位角演算部132はデータベースに登録されているデータに基づいて白線の方位角や標識の方位角の演算値を取得する。そして、方位角残差算出部130は方位角観測部131の観測値と方位角演算部132の演算値との差分を方位角残差として誤差推定部140の入力にする。
<S130: Azimuth residual calculation processing>
Next, the azimuth
At this time, the azimuth
<S140:誤差推定処理・補正処理>
そして、誤差推定部140は、GPS観測残差と方位角残差とに基づいて、測位部110の測位結果に含まれる誤差を推定する。
測位部110は誤差推定部140が推定した誤差に基づいて位置および姿勢角を補正する。
このとき、誤差推定部140はカルマンフィルタを用いて位置および姿勢角の誤差推定を行う。
このカルマンフィルタは、状態量のダイナミクスをモデル化した状態方程式と、観測量と状態量との関係を定式化した観測方程式とに基づいて状態量の誤差推定を行う。自己位置を標定するような場合、カルマンフィルタは、GPS受信機による特定の観測量の観測値と特定の観測値に相当する演算値(理論値)との差分(観測残差という)を観測量として、自己位置の座標や姿勢角(方位角、仰角、回転角)などの状態量について誤差推定を行う。カルマンフィルタは自己位置の座標や姿勢角の誤差を状態量として算出する。
<S140: Error Estimation Processing / Correction Processing>
Then, the
The
At this time, the
The Kalman filter performs state quantity error estimation based on a state equation modeling the state quantity dynamics and an observation equation that formulates the relationship between the observed quantity and the state quantity. When locating the self-location, the Kalman filter uses the difference between the observed value of the specific observed value by the GPS receiver and the calculated value (theoretical value) corresponding to the specific observed value (observed residual) as the observed value. Then, error estimation is performed for state quantities such as the coordinates of the self position and the posture angle (azimuth angle, elevation angle, rotation angle). The Kalman filter calculates the coordinates of the self position and the error of the posture angle as a state quantity.
しかし、自己位置標定装置100を搭載した車両がトンネル内やビルの間を移動する際にGPS衛星から測位信号を受信できないというような場合、誤差推定部140(カルマンフィルタ)が誤差推定を行うことができず自己位置標定装置100の標定精度は悪化する。
そこで、実施の形態1における誤差推定部140(カルマンフィルタ)は、測位信号が受信できない場合でも画像に基づいて観測可能な白線や標識に関する方位角残差を観測量として、測位部110の測位結果について誤差推定を行う。
However, when a vehicle equipped with the self-positioning
Therefore, the error estimation unit 140 (Kalman filter) according to the first embodiment uses the azimuth residual relating to the white line and the sign that can be observed based on the image even when the positioning signal cannot be received as the observation amount, and the positioning result of the
ここで、GPS観測量以外の観測量として車両と白線との距離や車両と標識との距離を用いる方法も考えられるが、距離を観測量として用いる方法は、距離の観測値を得るためにステレオカメラやレーザレーダが必要になったり、地殻変動によるデータベースの精度の低下によりデータベースに登録された白線や標識の位置に基づいて算出する距離の演算値の精度が低くなったりするという課題がある。 Here, a method using the distance between the vehicle and the white line or the distance between the vehicle and the sign as an observation amount other than the GPS observation amount is also conceivable, but the method using the distance as the observation amount is a stereo in order to obtain an observation value of the distance. There is a problem that a camera or a laser radar is required, or that the accuracy of the distance calculation value calculated based on the position of the white line or the sign registered in the database is lowered due to a decrease in the accuracy of the database due to crustal movement.
一方、実施の形態1のようにGPS観測量以外の観測量として方位角を用いた場合、単眼カメラが一台あればそのカメラで撮像した画像から方位角の観測値を得ることができ、方位角は地殻変動による変化が少ないためデータベースに記憶された白線や標識の位置に基づく方位角の演算値の精度が比較的高いという利点がある。 On the other hand, when the azimuth angle is used as the observation amount other than the GPS observation amount as in the first embodiment, if there is one monocular camera, the observation value of the azimuth angle can be obtained from the image captured by the camera. There is an advantage that the accuracy of the calculated value of the azimuth based on the position of the white line and the sign stored in the database is relatively high because the angle is less changed due to crustal movement.
また、誤差推定部140(カルマンフィルタ)は測位部110の測位結果の誤差以外に、測位部110が用いるジャイロについてのレート誤差やGPS観測残差算出部120が用いるGPS受信機についてのクロック誤差や方位角残差算出部130が用いるカメラについてのアライメント誤差などについても誤差推定を行い、推定した誤差を補正用に出力する。
In addition to the error in the positioning result of the
図3は、実施の形態1における自己位置標定装置100のハードウェア資源の一例を示す図である。
図3において、自己位置標定装置100は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、表示装置901、GPS受信機1、ジャイロ4、オドメータ5、カメラ7、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
RAM914は、揮発性メモリの一例である。ROM913、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶機器、記憶装置あるいは記憶部の一例である。また、入力データが記憶されている記憶機器は入力機器、入力装置あるいは入力部の一例であり、出力データが記憶される記憶機器は出力機器、出力装置あるいは出力部の一例である。
通信ボード915は入出力機器、入出力装置あるいは入出力部の一例である。
FIG. 3 is a diagram illustrating an example of hardware resources of the self-positioning
In FIG. 3, the self-positioning
The
The
通信ボード915は、無線または有線により、LAN(ローカルエリアネットワーク)、インターネット、WAN(ワイドエリアネットワーク)、電話回線などの通信網に接続されている。
The
ジャイロ4は自己位置標定装置100の搭載された車両の方位角、仰角、回転角の角加速度(以下、レートとする)を計測するセンサである。また、ジャイロ4は後述するように方位角のレートのみ計測する1軸ジャイロであってもよい。
オドメータ5は自己位置標定装置100の搭載された車両の車速に応じてパルス(以下、車速または車速パルスとする)を出力する車速センサである。
カメラ7は自己位置標定装置100の搭載された車両の前方に向けて設置され、車両の進行方向に位置する白線や道路標識を撮像する。カメラ7は単眼カメラで構わない。但し、ステレオカメラであっても構わない。また、カメラ7以外に、白線や標識などの地物との距離を計測するためにレーザレーダを備えても構わない。
GPS受信機1はGPS衛星から測位信号を受信し、GPS衛星が測位信号を発信してから測位信号を受信するまでの時間に基づいて擬似距離を算出したり、擬似距離や受信した測位信号の位相に基づいて自己位置を算出したりする。GPS受信機1は車両には1台備える。GPS観測量として二重位相差を観測する場合、位置座標が既知である車両外の地点にもう一台のGPS受信機を備えておき、そのGPS受信機の観測データを車両に送信して利用する場合もある。
The gyro 4 is a sensor that measures angular acceleration (hereinafter referred to as a rate) of an azimuth angle, an elevation angle, and a rotation angle of a vehicle on which the self-positioning
The
The
The
磁気ディスク装置920には、OS921(オペレーティングシステム)、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、OS921により実行される。
The
上記プログラム群923には、実施の形態において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。
The
ファイル群924には、実施の形態において、「〜部」の機能を実行した際の「〜の判定結果」、「〜の計算結果」、「〜の処理結果」などの結果データ、「〜部」の機能を実行するプログラム間で受け渡しするデータ、その他の情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。測位部110が測位した自己位置・姿勢角、カメラ7が撮像した画像、方位角残差算出部130が方位角の取得に用いる白線情報や標識情報、GPS観測残差算出部120が観測したGPS観測量やGPS観測残差算出部120が算出したGPS観測残差、方位角残差算出部130が画像から得た白線・標識の方位角や方位角残差算出部130が算出した方位角残差などはファイル群924に含まれるものの一例である。
「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPUの動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、実施の形態において説明するフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD(Digital・Versatile・Disc)等の記録媒体に記録される。また、データや信号値は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
In the
The “˜file” and “˜database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the
In addition, arrows in the flowcharts described in the embodiments mainly indicate input / output of data and signals. The data and signal values are the
また、実施の形態において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、自己位置標定プログラムは、「〜部」としてコンピュータを機能させるものである。あるいは、「〜部」の手順や方法をコンピュータに実行させるものである。
In addition, what is described as “˜unit” in the embodiment may be “˜circuit”, “˜device”, “˜device”, and “˜step”, “˜procedure”, “˜”. Processing ". That is, what is described as “˜unit” may be realized by firmware stored in the
図4は、実施の形態1における自己位置標定装置100の構成図である。
図1に基づいて説明した自己位置標定装置100の具体例として、測位部110がジャイロ4やオドメータ5を用いたデッドレコニング(Dead Reckoning、推測航法)により測位を行い、GPS観測残差算出部120がGPS観測量として擬似距離を用いて擬似距離残差を算出し、方位角残差算出部130が白線の方位角残差を算出し、誤差推定部140が擬似距離残差と白線方位角残差とを観測量として入力し、測位部110の測位結果に含まれる航法誤差と方位角残差算出部130が白線の撮像に用いたカメラ7のアライメント誤差とを状態量として計算して補正量として出力する構成について、図4に基づいて以下に説明する。
FIG. 4 is a configuration diagram of the self-positioning
As a specific example of the self-positioning
図4において、自己位置標定装置100はDR演算部3、ジャイロ4およびオドメータ5を測位部110として備える。
ジャイロ4は、自己位置標定装置100が搭載された車両の方位角のレートを計測する1軸ジャイロである。
オドメータ5は、自己位置標定装置100が搭載された車両の車速を出力する。
DR演算部3は、ジャイロ4が出力した方位角レートとオドメータ5が出力した車速とに基づいて車両の移動量を推測し、推測した移動量を前回の測位結果に反映して車両の位置や方位角を算出するデッドレコニングをCPUを用いて実行する。
In FIG. 4, the self-positioning
The gyro 4 is a uniaxial gyro that measures the rate of the azimuth angle of a vehicle on which the self-positioning
The
The DR calculation unit 3 estimates the amount of movement of the vehicle based on the azimuth rate output from the gyro 4 and the vehicle speed output from the
また、自己位置標定装置100はGPS受信機1、衛星軌道演算部2、衛星距離計算部21および擬似距離残差計算部22をGPS観測残差算出部120として備え、GPS受信機1および衛星軌道演算部2はGPS観測部121を構成し、衛星距離計算部21はGPS観測量演算部122を構成する。
GPS受信機1は、GPS衛星が発信した測位信号を受信し、GPS衛星が測位信号を発信してから測位信号を受信するまでの時間に基づいて車両とGPS衛星との擬似距離を算出する。また、GPS受信機1は受信した測位信号に含まれるGPS衛星の軌道を示す衛星軌道パラメータを出力する。
衛星軌道演算部2は、GPS受信機1が出力した衛星軌道パラメータに基づいてGPS衛星の位置をCPUを用いて算出する。
衛星距離計算部21は、DR演算部3が算出した車両の位置と衛星軌道演算部2が算出したGPS衛星の位置とに基づいて車両とGPS衛星との距離を衛星距離としてCPUを用いて算出する。
擬似距離残差計算部22は、GPS受信機1が算出した擬似距離と衛星距離計算部21が算出した衛星距離との差分を擬似距離残差としてCPUを用いて算出する。
The self-
The
The satellite
The satellite
The pseudorange
また、自己位置標定装置100はカメラ7、画像処理部8、白線情報データベース9、白線方位角取得部23および白線方位角残差計算部24を方位角残差算出部130として備え、カメラ7および画像処理部8は方位角観測部131を構成し、白線情報データベース9および白線方位角取得部23は方位角演算部132を構成する。
カメラ7は車両に対して前方に向けて設置された単眼カメラであり、車両が走行している道路の進行方向を撮像する。
画像処理部8(画像方位角部の一例)は、カメラ7が撮像した画像に映っている白線が成す角度とDR演算部3が算出した車両の方位角とに基づいて画像に映っている白線の方位角を算出する。
白線情報データベース9(方位角データベース、位置データベースの一例)には各白線について位置(座標、レーンなど)や形状(直線、カーブなど)や方位角などの情報が予め記憶されている。例えば、方位角の情報は白線が位置するレーンの通行方向に応じて白線の上流側を基点として白線の下流側(進行先)が向いている方位を示す。図10に、白線と白線(の直線部分)の方位角とレーンの通行方向との関係を示す。白線情報データベース9は、例えば、特許文献6を利用することにより構築できる。特許文献6によって作成されるデータベースは、平面線形については直線/円曲線/クロソイドの3種類、縦断曲線については直線/2次曲線の2種類によって構成される。
白線方位角取得部23(データベース方位角部)は、DR演算部3が算出した車両の位置と方位角とに基づいて白線情報データベース9から車両の進行方向に位置する白線の方位角を取得する。
白線方位角残差計算部24は、画像処理部8が出力した画像に基づく白線の方位角と白線方位角取得部23が出力した白線情報データベース9に基づく白線の方位角との差分を白線方位角残差としてCPUを用いて算出する。
The self-
The
The image processing unit 8 (an example of an image azimuth angle unit) is a white line reflected in the image based on the angle formed by the white line reflected in the image captured by the
The white line information database 9 (an example of an azimuth angle database and a position database) stores in advance information such as position (coordinates, lanes, etc.), shape (straight lines, curves, etc.), azimuth, etc., for each white line. For example, the azimuth angle information indicates the azimuth in which the downstream side (travel destination) of the white line is directed from the upstream side of the white line as a base point according to the direction of travel of the lane where the white line is located. FIG. 10 shows the relationship between the azimuth angle of the white line and the white line (the straight line portion thereof) and the lane traffic direction. The white line information database 9 can be constructed by using, for example, Patent Document 6. The database created according to Patent Document 6 is composed of three types of straight line / circular curve / clothoid for plane alignment and two types of straight line / quadratic curve for longitudinal curves.
The white line azimuth angle acquisition unit 23 (database azimuth angle unit) acquires the azimuth angle of the white line located in the traveling direction of the vehicle from the white line information database 9 based on the vehicle position and azimuth angle calculated by the DR calculation unit 3. .
The white line azimuth
また、自己位置標定装置100は拡張カルマンフィルタ6を誤差推定部140として備える。
拡張カルマンフィルタ6は、擬似距離残差計算部22が算出した擬似距離残差と白線方位角残差計算部24が算出した白線方位角残差とを観測量として入力し、DR演算部3のデッドレコニングによる測位結果に含まれる航法誤差とカメラ7のアライメント誤差とを状態量として計算して補正量として出力する。
In addition, the self-
The extended Kalman filter 6 inputs the pseudorange residual calculated by the pseudorange
図5は、実施の形態1における自己位置標定装置100の自己位置標定方法1を示すフローチャートである。
図4に示した自己位置標定装置100の自己位置標定方法1について、図5に基づいて以下に説明する。
図5において、S210は図2の測位処理(S110)に対応し、S221〜S224は図2のGPS残差算出処理(S120)に対応し、S231〜S234は図2の方位角残差算出処理(S130)に対応し、S240は図2の誤差推定処理(S140)に対応する。
自己位置標定装置100の各部は以下に説明する各処理をCPUを用いて実行する。
FIG. 5 is a flowchart showing the self-
The self-
5, S210 corresponds to the positioning process (S110) of FIG. 2, S221 to S224 correspond to the GPS residual calculation process (S120) of FIG. 2, and S231 to S234 are the azimuth residual calculation process of FIG. Corresponding to (S130), S240 corresponds to the error estimation processing (S140) of FIG.
Each unit of the self-positioning
<S210:測位処理の一例>
まず、DR演算部3はジャイロ4から車両の方位角のレートを、オドメータ5から車両の速度を随時入力する。そして、DR演算部3は方位角のレートと車両の速度とを積分して前回測位時からの移動量を算出し、前回測位した車両の位置および方位角に前回測位時からの移動量を加算して現在の車両の位置および方位角を算出するデッドレコニング処理(または、慣性航法処理)を行う。例えば、DR演算部3は東西南北を基準方位として車両の方位角を算出する。
また、DR演算部3は算出した車両の位置および方位角を拡張カルマンフィルタ6が推定した航法誤差に基づいて補正し、補正した値を車両の位置および方位角として出力する。
<S210: Example of positioning process>
First, the DR calculation unit 3 inputs the vehicle azimuth rate from the gyro 4 and the vehicle speed from the
The DR operation unit 3 corrects the calculated vehicle position and azimuth based on the navigation error estimated by the extended Kalman filter 6, and outputs the corrected values as the vehicle position and azimuth.
<S221>
また、GPS受信機1は、DR演算部3が測位を行った際にGPS衛星から受信した測位信号に基づいて、DR演算部3が測位を行った際のGPS受信機1(車両)からGPS衛星までの擬似距離と、測位信号が示す衛星軌道パラメータとを出力する。
<S222>
次に、衛星軌道演算部2はGPS受信機1の出力した衛星軌道パラメータに基づいてGPS衛星の位置を算出する。
<S223>
次に、衛星距離計算部21はDR演算部3が測位した車両の位置と衛星軌道演算部2が算出したGPS衛星の位置とに基づいて車両からGPS衛星までの距離を衛星距離として算出する。
<S224>
次に、擬似距離残差計算部22はGPS受信機1が算出した擬似距離と衛星距離計算部21が算出した衛星距離との差分を擬似距離残差として算出する。
<S221>
Further, the
<S222>
Next, the satellite
<S223>
Next, the satellite
<S224>
Next, the pseudorange
<S231:撮像処理の一例>
また、DR演算部3が測位を行った際、カメラ7は車両の走行している道路の進行方向を撮像する。
<S232:画像方位角算出処理の一例>
次に、画像処理部8はカメラ7が撮像した画像から画像に映っている道路上の白線を検出する。例えば、画像処理部8は画像を二値化してエッジ部分などの特徴点を抽出し、各特徴点が成す形状や特徴点の位置(路面上か否か)に基づいて画像上の白線を検出する。また例えば、画像処理部8は画像の色情報に基づいて白線を検出する。
そして、画像処理部8は画像上の白線の長さ方向(直線部分)が成す角度(車両に対する白線の相対角度)を算出し、DR演算部3が算出した車両の方位角に画像上の白線の角度を加算して白線の方位角を算出する。もしくは、白線の絶対方位角を直接計算する方法もある。
画像処理部8は、カメラ7の特性に応じて2次元の撮像面に画像として投影された白線について、画像上での白線の角度をカメラ7の特性に応じて実世界の3次元上の角度に変換することにより、実際の白線の相対角、方位角を算出する。
例えば、白線の画像から得られる白線上の複数の点の目視線角の情報と、カメラの道路面からの高さ情報と、道路の形状の情報と、DR演算部3が算出した車両位置および方位角から計算されるカメラの位置座標と向きの情報を用いて、白線上の複数の点の位置座標を計算することで白線の方位角を計算できる。
ここで、カメラ7は撮像方向を車両の進行方向と同じにするように取り付けられているものとする。但し、カメラ7が車両に設置された際に車両に対してカメラ7の設置角に多少のずれが生じることが考えられるため、画像処理部8は拡張カルマンフィルタ6が推定したカメラアライメント誤差を加算して白線の方位角を算出することも可能である。その場合は、カメラアライメント誤差を推定する場合には車両の左右両方の白線を検出して角度を算出する必要がある。
<S233:データベース方位角取得処理の一例>
次に、白線方位角取得部23は、DR演算部3が測位した車両の位置および方位角に基づいて、車両の進行方向に位置する白線の方位角を白線情報データベース9から取得する。つまり、白線方位角取得部23はカメラ7が撮像した画像に映っている白線について白線情報データベース9から方位角を取得する。例えば、白線情報データベース9は東西南北を基準方位として白線の方位角を示している。
<S234:方位角残差算出処理の一例>
次に、白線方位角残差計算部24は画像処理部8が画像に基づいて算出した白線の方位角と白線方位角取得部23が白線情報データベース9から取得した白線の方位角との差分を白線方位角残差として算出する。
<S231: Example of Imaging Process>
Further, when the DR calculation unit 3 performs positioning, the
<S232: Example of Image Azimuth Calculation Processing>
Next, the image processing unit 8 detects a white line on the road shown in the image from the image captured by the
Then, the image processing unit 8 calculates the angle formed by the length direction (straight line portion) of the white line on the image (the relative angle of the white line with respect to the vehicle), and the white line on the image is set at the azimuth angle of the vehicle calculated by the DR calculation unit 3. Are added to calculate the azimuth angle of the white line. Alternatively, there is a method of directly calculating the absolute azimuth angle of the white line.
For the white line projected as an image on the two-dimensional imaging surface according to the characteristics of the
For example, the information on the visual line angle of a plurality of points on the white line obtained from the image of the white line, the height information from the road surface of the camera, the information on the shape of the road, the vehicle position calculated by the DR calculation unit 3, and The azimuth angle of the white line can be calculated by calculating the position coordinates of a plurality of points on the white line using the camera position coordinates and orientation information calculated from the azimuth angle.
Here, it is assumed that the
<S233: Example of database azimuth angle acquisition process>
Next, the white line azimuth angle acquisition unit 23 acquires from the white line information database 9 the azimuth angle of the white line located in the traveling direction of the vehicle based on the vehicle position and azimuth angle measured by the DR calculation unit 3. That is, the white line azimuth angle acquisition unit 23 acquires the azimuth angle from the white line information database 9 for the white line reflected in the image captured by the
<S234: Example of azimuth residual calculation process>
Next, the white line azimuth
<S240:誤差推定処理の一例>
そして、拡張カルマンフィルタ6は擬似距離残差計算部22が算出した擬似距離残差と白線方位角残差計算部24が算出した白線方位角残差とを観測量として入力し、DR演算部3の測位結果に含まれる航法誤差とDR計算に用いられるジャイロ4の誤差とDR計算に用いられるオドメータ5の誤差とGPS受信機1のGPSクロック誤差とカメラ7のアライメント誤差とを状態量として計算して補正量として出力する。
<S240: Example of Error Estimation Process>
Then, the extended Kalman filter 6 receives the pseudorange residual calculated by the pseudorange
DR演算部3は拡張カルマンフィルタ6が出力した航法誤差に基づいて測位した車両の位置および方位角を補正し、補正した車両の位置および方位角を出力する。
また、画像処理部8は拡張カルマンフィルタ6が出力したカメラアライメント誤差に基づいてカメラ7の車両に対する設置角を算出し、次回、算出したカメラ7の設置角に基づいて画像に映る白線の方位角を算出する。
The DR calculation unit 3 corrects the position and azimuth of the vehicle measured based on the navigation error output from the extended Kalman filter 6 and outputs the corrected position and azimuth of the vehicle.
Further, the image processing unit 8 calculates the installation angle of the
カルマンフィルタは1960年にKalmanが提唱したアルゴリズムで、計算により求める物理量(状態量と呼ぶ)のダイナミクス(時間発展、時間変化)を線形モデルで与え、状態量の誤差の確率分布関数をガウス分布であるとした場合に、推定誤差を最小とする解を与えるものである。ここで推定誤差を最小にするとは、状態量に選んだ変数(例えば、航法誤差、カメラアライメント誤差、自己位置・姿勢角)のダイナミクスも考慮して残差の二乗和が最小になるように解を推定することを意味する。
一般的なカルマンフィルタの基本方程式は、離散時間系(discrete time system)の場合、以下の状態方程式(式1)と観測方程式(式2)とで表される。
The Kalman filter is an algorithm proposed by Kalman in 1960. It gives the dynamics (time evolution, time change) of the physical quantity (called state quantity) calculated by a linear model, and the probability distribution function of the state quantity error is a Gaussian distribution. In this case, a solution that minimizes the estimation error is given. Here, minimizing the estimation error means that the residual sum of squares is minimized by taking into account the dynamics of the variables selected for the state variables (for example, navigation error, camera alignment error, self-position / attitude angle). Is estimated.
In the case of a discrete time system, a basic equation of a general Kalman filter is expressed by the following state equation (Equation 1) and observation equation (Equation 2).
特に、拡張カルマンフィルタ6(Extended Kalman Filter,EKF)は、系の方程式が非線形の場合に、現在の推定量のまわりで線形化した方程式を作り、それをもとに上記基本方程式を構成したカルマンフィルタである。
すなわち、xとzが、以下の式3、式4のように、それぞれxk−1,uk,wkの関数fおよびxk,vkの関数hとして表される場合、Jacobianを使って式5、式6のように線形化する。
In particular, the extended Kalman filter 6 (Extended Kalman Filter, EKF) is a Kalman filter that creates an equation linearized around the current estimator when the system equation is nonlinear and constructs the above basic equation based on the equation. is there.
That is, when x and z are expressed as a function f of x k−1 , u k , and w k and a function h of x k , v k , respectively, as shown in the following expressions 3 and 4, the Jacobian is used. Then, linearization is performed as shown in
そして、状態方程式(式7)と観測方程式(式8)とは、式5、式6に示す線形化によって得られたFとHとを用いて次のように表される。
The equation of state (Equation 7) and the observation equation (Equation 8) are expressed as follows using F and H obtained by linearization shown in
また、カルマンフィルタの演算は時間伝播(Time Update)と観測更新(Measurement Update)とからなる。 In addition, the Kalman filter operation includes time propagation and observation update.
まず、状態量xの誤差共分散行列Pの時間伝播は、システムのダイナミクスを表す行列Fを用いて以下の式9および式10で表される。
式9については、例えば、第二項あるいは第三項までを使って近似計算する。
First, the time propagation of the error covariance matrix P of the state quantity x is expressed by the following equations 9 and 10 using the matrix F representing the dynamics of the system.
For Equation 9, for example, approximate calculation is performed using the second term or up to the third term.
また、観測更新は以下の式11〜式13で計算される。 In addition, the observation update is calculated by the following equations 11 to 13.
以上の各式において、実施の形態1では、DR演算部3の測位した自己位置や方位角に含まれる航法誤差と航法計算に利用するセンサ(ジャイロ4、オドメータ5、GPSクロックなど)の誤差とカメラ7のアライメント誤差とが状態量xに対応し、擬似距離残差と白線方位角残差とが観測残差Δzに対応する。
拡張カルマンフィルタ6は、以上の各式および理論に基づいて、航法誤差およびカメラアライメント誤差を推定する。
In each of the above equations, in the first embodiment, the navigation error included in the self-position and azimuth angle measured by the DR calculation unit 3 and the error of the sensor (gyro 4,
The extended Kalman filter 6 estimates the navigation error and the camera alignment error based on the above equations and theories.
実施の形態1では、以下のような自己位置標定装置100について説明した。
実施の形態1における自己位置標定装置100は、ハードウェアとして、既存のカーナビレベルのハードウェア構成(GPS受信機1+1軸ジャイロ4+車速パルス[オドメータ5])以外に、単眼カメラ7を備える。
また、実施の形態1における自己位置標定装置100は、カメラ7の画像から白線の方位角を得る画像処理部8と、道路線形データベース(白線情報データベース9)と、そのデータから白線の直線部分の方位角を計算する方位角算出部(白線方位角取得部23)と、自己位置・姿勢角を算出するためのDR演算部3と拡張カルマンフィルタ6とを備える。
道路線形データベースは一から構築する必要はなく、すでに実用化段階に入っている特許文献6により構築されたデータベースに対して、白線の直線部分を示すデータに新たに方位角を加えるだけでよいところが特徴である。また、自己位置標定装置100が使用するカメラ7も単眼でよく低価格のものを利用できる点が特徴である。
DR演算部3は、慣性装置(1軸ジャイロ4(方位角方向))と、車速パルスデータを利用してデッドレコニング計算を行う。そして、拡張カルマンフィルタ6は、GPS観測データと上記白線方位角データとを観測量として自己位置・姿勢角の誤差推定を行ってDR演算部3の自己位置標定精度を向上させる。
つまり、実施の形態1で説明した白線の方位角を自己位置補正に利用する方式では、ハードウェアの構成として単眼のカメラ7を1台追加するだけでよい利点がある。つまり、実施の形態1における自己位置標定装置100は自己位置から白線までの距離を観測するためのステレオカメラやレーザレーダなどが不要である。また、白線の直線部分の角度(白線の方位角)が単眼カメラ7で撮像した画像から比較的正確に検出でき、一度計測され道路線形データベースに記録された方位角は地球の地殻変動による劣化がほとんどないことも白線の方位角を自己位置補正に利用する利点の一つである。言い換えると、道路の座標のデータベースを正確に作るのは難しく、現在使われているカーナビゲーション用のデジタル地図データの座標精度を考慮すると、座標または座標に基づいて算出される距離を自己位置補正に利用する方式ではデシメートル級の座標精度を達成するのは困難である。
このような事情を考慮すると、白線の方位角データを利用する実施の形態1における方式は有望な自己位置標定手法であると言える。
In the first embodiment, the following self-positioning
The self-positioning
In addition, the self-
The road alignment database does not need to be constructed from scratch, but it is only necessary to add a new azimuth to the data indicating the straight line portion of the white line, compared to the database constructed according to Patent Document 6 which has already entered the practical use stage. It is a feature. Further, the
The DR calculation unit 3 performs dead reckoning calculation using an inertial device (one-axis gyro 4 (azimuth angle direction)) and vehicle speed pulse data. Then, the extended Kalman filter 6 performs self-position / attitude angle error estimation using the GPS observation data and the white line azimuth angle data as observation amounts, and improves the self-positioning accuracy of the DR operation unit 3.
In other words, the method of using the white line azimuth described in the first embodiment for self-position correction has an advantage that only one
Considering such circumstances, it can be said that the method in the first embodiment using the azimuth angle data of the white line is a promising self-positioning method.
また、実施の形態1の自己位置標定手法は、白線の直線部のような車両移動方向に対して画像エッジ位置の変化率が小さい特徴量をランドマークとしているため、低価格単眼カメラ+低価格画像処理器で十分に精度が出せる点が特徴である。
また、実施の形態1では、車載カメラ7の取り付け角誤差(アライメント誤差)も拡張カルマンフィルタ6で推定し、その誤差を補正できる。このため、アライメントの厳しいステレオカメラが用いられる場合でも自己位置標定精度を高めることができる。
In addition, the self-positioning method according to the first embodiment uses a feature amount having a small change rate of the image edge position in the vehicle movement direction as a straight line portion of a white line as a landmark, and therefore, a low price monocular camera + low price The feature is that the image processor can provide sufficient accuracy.
In the first embodiment, the mounting angle error (alignment error) of the in-
実施の形態1に示した自己位置標定方法により、既存のカーナビレベルのハードウェア構成に単眼カメラ7を加え、道路線形データベースとGPS/DR/画像複合アルゴリズムを適用するだけで、都市部やトンネル内等における自己位置標定精度を向上させることができる。
By adding the
実施の形態2.
実施の形態2では、前記実施の形態1において図1に基づいて説明した自己位置標定装置100の具体例として、方位角残差算出部130が、白線の方位角の代わりに、車両から見た道路標識の位置する方向(以下、標識の方位角という)についての残差(以下、標識方位角残差という)を算出する形態について説明する。
また、実施の形態2において、方位角残差算出部130は車両から道路標識までの距離(以下、標識距離という)についての残差(以下、標識距離残差という)を算出する。そして、誤差推定部140は擬似距離残差と標識方位角残差と標識距離残差とを観測量として入力して航法誤差とカメラアライメント誤差とを算出する。
以下、前記実施の形態1と異なる事項について説明し、説明を省略した事項については前記実施の形態1と同様とする。
In the second embodiment, as a specific example of the self-positioning
In the second embodiment, the azimuth
Hereinafter, matters different from those of the first embodiment will be described, and items omitted from the description will be the same as those of the first embodiment.
図6は、実施の形態2における自己位置標定装置100の構成図である。
図6において、実施の形態2における自己位置標定装置100は、前記実施の形態1における自己位置標定装置100に対して、白線情報データベース9、白線方位角取得部23および白線方位角残差計算部24の代わりに標識情報データベース11、標識方位角・距離算出部31および標識方位角・距離残差計算部32を備える点を特徴とする。
また、実施の形態2における自己位置標定装置100は、画像処理部8が、白線の方位角の代わりに、カメラ7の撮像した画像に映っている道路標識について、車両に対する道路標識の位置する方向を示す標識の方位角と、車両から道路標識までの距離を示す標識距離とを算出することを特徴とする。
FIG. 6 is a configuration diagram of the self-positioning
In FIG. 6, the self-
In the self-
標識情報データベース11(位置データベースの一例)には各道路標識の位置情報が予め記憶されている。例えば、道路標識を含む各種ランドマークの位置情報が登録されカーナビゲーションシステムに一般的に用いられている道路情報データベースを標識情報データベース11として利用することができる。 In the sign information database 11 (an example of a position database), position information of each road sign is stored in advance. For example, a road information database in which position information of various landmarks including road signs is registered and generally used in a car navigation system can be used as the sign information database 11.
標識方位角・距離算出部31(データベース距離部の一例)は、DR演算部3が算出した車両の位置および方位角に基づいて、標識情報データベース11から車両の進行方向に位置する道路標識の位置情報を取得し、車両の進行方向に位置する道路標識について方位角と距離とをCPUを用いて算出する。 The sign azimuth / distance calculation unit 31 (an example of the database distance unit) is based on the position and azimuth of the vehicle calculated by the DR calculation unit 3 and the position of the road sign located in the traveling direction of the vehicle from the sign information database 11. Information is acquired, and the azimuth and distance of the road sign located in the traveling direction of the vehicle are calculated using the CPU.
標識方位角・距離残差計算部32(距離残差算出部の一例)は、画像処理部8(画像距離部の一例)が算出した画像に基づく標識の方位角と標識方位角・距離算出部31が算出した標識情報データベース11に基づく標識の方位角との差分を標識方位角残差としてCPUを用いて算出する。また、標識方位角・距離残差計算部32は画像処理部8が算出した画像に基づく標識距離と標識方位角・距離算出部31が算出した標識情報データベース11に基づく標識距離との差分を標識距離残差としてCPUを用いて算出する。
The sign azimuth / distance residual calculation unit 32 (an example of the distance residual calculation unit) is a sign azimuth and a sign azimuth / distance calculation unit based on the image calculated by the image processing unit 8 (an example of the image distance unit). The difference with the azimuth angle of the sign based on the sign information database 11 calculated by 31 is calculated as the sign azimuth residual using the CPU. Also, the sign azimuth / distance
図7は、実施の形態2における自己位置標定装置100の自己位置標定方法2を示すフローチャートである。
図7において、S310は図2の測位処理(S110)に対応し、S321〜S324は図2のGPS残差算出処理(S120)に対応し、S331〜S334bは図2の方位角残差算出処理(S130)に対応し、S340は図2の誤差推定処理(S140)に対応する。
自己位置標定装置100の各部は以下に説明する各処理をCPUを用いて実行する。
FIG. 7 is a flowchart showing the self-
7, S310 corresponds to the positioning process (S110) of FIG. 2, S321 to S324 correspond to the GPS residual calculation process (S120) of FIG. 2, and S331 to S334b are the azimuth residual calculation process of FIG. Corresponding to (S130), S340 corresponds to the error estimation processing (S140) of FIG.
Each unit of the self-positioning
<S310〜S324>
測位処理(S110)およびGPS残差算出処理(S120)に関するS310〜S324は、前記実施の形態1における自己位置標定方法1(図5参照)のS210〜S224と同じである。
<S310 to S324>
S310 to S324 related to the positioning process (S110) and the GPS residual calculation process (S120) are the same as S210 to S224 of the self-positioning method 1 (see FIG. 5) in the first embodiment.
<S331:撮像処理の一例>
DR演算部3が測位を行った際、カメラ7は車両が走行している道路の進行方向を撮像する。
<S331: Example of Imaging Process>
When the DR calculation unit 3 performs positioning, the
<S332a:画像方位角算出処理の一例>
次に、画像処理部8はカメラ7が撮像した画像から画像に映っている道路標識を検出する。例えば、画像処理部8は、画像を二値化して抽出した特徴点が成す形状に基づいて特定形状のマークを表示する道路標識を検出する。また例えば、画像処理部8は画像に対して文字認識処理を行い、認識した文字情報に基づいて特定文字列を表示する道路標識を検出する。
そして、画像処理部8は画像上の道路標識の位置(道路標識の画素位置)に基づいて車両から見た道路標識の位置する方向を示す相対角を算出し、DR演算部3が算出した車両の方位角に画像上の道路標識の相対角を加算して車両を基点として道路標識が位置する方向を示す標識の方位角を算出する。例えば、画像処理部8は画像の中心から道路標識が位置する画素位置までの水平方向の画素数に1画素が成す角度を乗じて画像に映っている道路標識の車両に対する実際の相対角を算出する。各画素に相当する角度はカメラのパラメータ(例えば、焦点距離)に依存し、カメラのパラメータに基づいて算出される。画像処理部8は、カメラ7の特性に応じて2次元の撮像面に画像として投影された標識について、画像上での標識の位置をカメラ7の特性に応じて実世界の3次元上の位置に変換することにより、実際の標識の方位角および距離を算出する。
<S332b:画像距離算出処理の一例>
また、画像処理部8は画像上の道路標識の位置に基づいて車両から道路標識までの標識距離を算出する。
例えば、画像処理部8はカメラ7が連続する異なる時刻に撮像した2枚の画像を用いてモーションステレオ視処理を行い車両から道路標識までの標識距離を算出する。
<S332a: Example of Image Azimuth Calculation Processing>
Next, the image processing unit 8 detects a road sign reflected in the image from the image captured by the
Then, the image processing unit 8 calculates a relative angle indicating the direction in which the road sign is viewed from the vehicle based on the position of the road sign on the image (pixel position of the road sign), and the vehicle calculated by the DR calculation unit 3 The relative angle of the road sign on the image is added to the azimuth angle to calculate the azimuth angle of the sign indicating the direction in which the road sign is located from the vehicle. For example, the image processing unit 8 calculates the actual relative angle of the road sign shown in the image with respect to the vehicle by multiplying the number of pixels in the horizontal direction from the center of the image to the pixel position where the road sign is located by an angle formed by one pixel. To do. The angle corresponding to each pixel depends on a camera parameter (for example, focal length) and is calculated based on the camera parameter. For the sign projected as an image on the two-dimensional imaging surface according to the characteristics of the
<S332b: Example of Image Distance Calculation Processing>
Further, the image processing unit 8 calculates a sign distance from the vehicle to the road sign based on the position of the road sign on the image.
For example, the image processing unit 8 performs motion stereo vision processing using two images taken by the
<S333a>
次に、標識方位角・距離算出部31は、DR演算部3が測位した車両の位置および方位角に基づいて、車両の進行方向に位置する道路標識の位置情報を標識情報データベース11から取得する。つまり、標識方位角・距離算出部31はカメラ7が撮像した画像に映っている道路標識について標識情報データベース11から位置情報を取得する。
<S333b>
次に、標識方位角・距離算出部31は、標識情報データベース11から取得した道路標識の位置とDR演算部3が算出した車両の位置とに基づいて車両から見て道路標識が位置する相対角を算出し、DR演算部3が算出した車両の方位角に車両から見た道路標識の相対角を加算して車両を基点とした道路標識の方位角を算出する。
<S333c>
また、標識方位角・距離算出部31は、標識情報データベース11から取得した道路標識の位置とDR演算部3が算出した車両の位置とに基づいて、車両から道路標識までの標識距離を算出する。
<S333a>
Next, the sign azimuth / distance calculation unit 31 acquires the position information of the road sign located in the traveling direction of the vehicle from the sign information database 11 based on the position and azimuth of the vehicle measured by the DR calculation unit 3. . That is, the sign azimuth / distance calculation unit 31 acquires position information from the sign information database 11 for the road sign reflected in the image captured by the
<S333b>
Next, the sign azimuth / distance calculation unit 31 is based on the position of the road sign acquired from the sign information database 11 and the position of the vehicle calculated by the DR calculation unit 3. And the relative angle of the road sign seen from the vehicle is added to the azimuth of the vehicle calculated by the DR calculation unit 3 to calculate the azimuth of the road sign with the vehicle as the base point.
<S333c>
Further, the sign azimuth / distance calculation unit 31 calculates the sign distance from the vehicle to the road sign based on the position of the road sign acquired from the sign information database 11 and the position of the vehicle calculated by the DR calculation unit 3. .
<S334a>
次に、標識方位角・距離残差計算部32は画像処理部8が画像に基づいて算出した標識の方位角と標識方位角・距離算出部31が標識情報データベース11に基づいて算出した標識の方位角との差分を標識方位角残差として算出する。
<S334b>
また、標識方位角・距離残差計算部32は画像処理部8が画像に基づいて算出した標識距離と標識方位角・距離算出部31が標識情報データベース11に基づいて算出した標識距離との差分を標識距離残差として算出する。
<S334a>
Next, the sign azimuth / distance
<S334b>
Also, the sign azimuth / distance
<S340>
そして、拡張カルマンフィルタ6は擬似距離残差計算部22が算出した擬似距離残差と標識方位角・距離残差計算部32が算出した標識方位角残差および標識距離残差とを観測量として入力し、DR演算部3の測位結果に含まれる航法誤差とカメラ7のアライメント誤差とを状態量として計算して補正量として出力する。
<S340>
The extended Kalman filter 6 inputs the pseudorange residual calculated by the pseudorange
実施の形態2では、以下のような自己位置標定装置100について説明した。
実施の形態2における自己位置標定装置100は、ハードウェアとして、既存のカーナビレベルのハードウェア構成(GPS受信機1+1軸ジャイロ4+車速パルス[オドメータ5])以外に、単眼カメラ7を備える。
また、実施の形態2における自己位置標定装置100は、カメラ7の画像から「車両−標識間の距離」および「車両から見た標識の相対方位角」を得る画像処理部8と、標識座標のデータベース(標識情報データベース11)と、自己位置・姿勢角を算出するためのDR演算部3と拡張カルマンフィルタ6とを備える。
DR演算部3は、慣性装置(1軸ジャイロ4(方位角方向))と、車速パルスデータを利用してデッドレコニング計算を行う。そして、拡張カルマンフィルタ6は、GPS観測データと上記標識データとを観測量として自己位置・姿勢角の誤差推定を行ってDR演算部3の自己位置標定精度を向上させる。
In the second embodiment, the following self-positioning
The self-positioning
In addition, the self-positioning
The DR calculation unit 3 performs dead reckoning calculation using an inertial device (one-axis gyro 4 (azimuth angle direction)) and vehicle speed pulse data. Then, the extended Kalman filter 6 estimates the self-position / attitude angle error using the GPS observation data and the marker data as observation quantities, and improves the self-positioning accuracy of the DR calculation unit 3.
実施の形態3.
実施の形態3では、前記実施の形態1において図1に基づいて説明した自己位置標定装置100の具体例として、方位角残差算出部130が前記実施の形態1で説明した白線方位角残差と前記実施の形態2で説明した標識方位角残差および標識距離残差とを算出する形態について説明する。
また、実施の形態3において、測位部110はデッドレコニングにより算出した自己位置を道路データベース49のデータを利用したマップマッチングにより補正して自己位置を算出する。
また、実施の形態3において、誤差推定部140は擬似距離残差と白線方位角残差と標識方位角残差と標識距離残差とを観測量として入力して航法誤差とカメラアライメント誤差とを算出する。
以下、前記実施の形態1および前記実施の形態2と異なる事項について説明し、説明を省略した事項については前記実施の形態1または前記実施の形態2と同様とする。
Embodiment 3 FIG.
In the third embodiment, as a specific example of the self-positioning
In the third embodiment, the
In the third embodiment, the
Hereinafter, matters different from those in the first embodiment and the second embodiment will be described, and items that are not described here are the same as those in the first embodiment or the second embodiment.
図8は、実施の形態3における自己位置標定装置100の構成図である。
図8において、実施の形態3における自己位置標定装置100は、前記実施の形態1における自己位置標定装置100に対して、白線情報データベース9、白線方位角取得部23および白線方位角残差計算部24の代わりに道路データベース49、方位角・距離算出部41および方位角・距離残差算出部42を備える点を特徴とする。
また、実施の形態3における自己位置標定装置100は、DR演算部3が車両の位置する周辺の道路情報を道路データベース49から取得してマップマッチングにより車両の位置を補正することを特徴とする。
FIG. 8 is a configuration diagram of the self-positioning
In FIG. 8, the self-positioning
Further, the self-
道路データベース49には前記実施の形態1で説明した白線情報データベース9の白線情報や前記実施の形態2で説明した道路標識情報や道路のレーン情報(例えば、位置、幅、上り下り)などの各種道路情報が予め記憶されている。 The road database 49 includes various information such as white line information in the white line information database 9 described in the first embodiment, road sign information described in the second embodiment, and road lane information (for example, position, width, up and down). Road information is stored in advance.
方位角・距離算出部41は、DR演算部3が算出した車両の位置および方位角に基づいて、道路データベース49から車両の進行方向に位置する白線の方位角と車両の進行方向に位置する道路標識の位置情報とを取得し、車両の進行方向に位置する道路標識の方位角と車両から道路標識までの標識距離とをCPUを用いて算出する。 The azimuth / distance calculation unit 41 is based on the position and azimuth of the vehicle calculated by the DR calculation unit 3, and the road located in the azimuth angle of the white line located in the traveling direction of the vehicle and the traveling direction of the vehicle from the road database 49. The sign position information is acquired, and the azimuth angle of the road sign located in the traveling direction of the vehicle and the sign distance from the vehicle to the road sign are calculated using the CPU.
方位角・距離残差算出部42は、画像処理部8が算出した画像に基づく白線の方位角と方位角・距離算出部41が取得した道路データベース49に基づく白線の方位角との差分を白線方位角残差としてCPUを用いて算出する。また、方位角・距離残差算出部42は、画像処理部8が算出した画像に基づく標識の方位角と方位角・距離算出部41が算出した道路データベース49に基づく標識の方位角との差分を標識方位角残差としてCPUを用いて算出する。また、方位角・距離残差算出部42は画像処理部8が算出した画像に基づく標識距離と方位角・距離算出部41が算出した道路データベース49に基づく標識距離との差分を標識距離残差としてCPUを用いて算出する。
The azimuth / distance
図9は、実施の形態3における自己位置標定装置100の自己位置標定方法3を示すフローチャートである。
図9において、S410a〜S410cは図2の測位処理(S110)に対応し、S421〜S424は図2のGPS残差算出処理(S120)に対応し、S431〜S434cは図2の方位角残差算出処理(S130)に対応し、S440は図2の誤差推定処理(S140)に対応する。
自己位置標定装置100の各部は以下に説明する各処理をCPUを用いて実行する。
FIG. 9 is a flowchart showing the self-positioning method 3 of the self-positioning
9, S410a to S410c correspond to the positioning process (S110) of FIG. 2, S421 to S424 correspond to the GPS residual calculation process (S120) of FIG. 2, and S431 to S434c represent the azimuth residual of FIG. Corresponding to the calculation process (S130), S440 corresponds to the error estimation process (S140) of FIG.
Each unit of the self-positioning
<S410a>
まず、DR演算部3はデッドレコニングにより車両の位置および方位角を算出する。
<S410b>
次に、DR演算部3は算出した車両の位置に基づいて周辺の道路情報を道路データベース49から取得する。
<S410c:測位処理の一例>
次に、DR演算部3は、道路データベース49から取得した道路情報が示すレーン情報に基づいて、車両の進行方向(方位角)と通行方向が対応するレーン上に車両が位置するように車両の位置を補正するマップマッチング(または、レーンキーピング)を行う。また、DR演算部3はマップマッチングを行った車両の位置および方位角を拡張カルマンフィルタ6が算出した航法誤差に基づいて補正して車両の位置および方位角を算出する。DR演算部3はマップマッチング処理としてカーナビゲーションシステムで一般的に行われている処理を用いる。ただし、マップマッチング処理は、走行中の道路が1レーンしかないなど走行レーンが明らかな場合や、拡張カルマンフィルタの状態量誤差標準偏差が適切に設定した閾値を超えた場合などの自己位置標定精度が悪化していると推定される場合のみ行うものとする。
<S410a>
First, the DR calculation unit 3 calculates the position and azimuth of the vehicle by dead reckoning.
<S410b>
Next, the DR calculation unit 3 acquires peripheral road information from the road database 49 based on the calculated vehicle position.
<S410c: Example of positioning process>
Next, based on the lane information indicated by the road information acquired from the road database 49, the DR calculation unit 3 sets the vehicle so that the vehicle is positioned on the lane corresponding to the traveling direction (azimuth angle) and the traveling direction of the vehicle. Map matching (or lane keeping) is performed to correct the position. The DR calculation unit 3 calculates the vehicle position and azimuth by correcting the position and azimuth of the vehicle for which map matching has been performed based on the navigation error calculated by the extended Kalman filter 6. The DR calculation unit 3 uses a process generally performed in a car navigation system as a map matching process. However, the map matching process has a self-localization accuracy when the driving lane is clear, such as when there is only one lane on the road, or when the state quantity error standard deviation of the extended Kalman filter exceeds an appropriately set threshold. It shall be performed only when it is estimated that the condition has deteriorated.
<S421〜S424>
GPS残差算出処理(S120)に関するS421〜S424は、前記実施の形態1における自己位置標定方法1(図5参照)のS221〜S224と同じである。
<S421 to S424>
S421 to S424 related to the GPS residual calculation process (S120) are the same as S221 to S224 of the self-positioning method 1 (see FIG. 5) in the first embodiment.
<S431〜S434c>
白線の方位角残差算出処理に関するS431、S432a、S433aおよびS434aは、前記実施の形態1における自己位置標定方法1(図5参照)のS231〜S234と同じである。
また、道路標識の方位角残差算出処理および標識距離残差算出処理に関するS432b、S433bおよびS434bは、前記実施の形態2における自己位置標定方法2(図7参照)のS332a〜S334bと同じである。
<S431 to S434c>
S431, S432a, S433a, and S434a related to the white line azimuth residual calculation processing are the same as S231 to S234 of the self-positioning method 1 (see FIG. 5) in the first embodiment.
Further, S432b, S433b and S434b relating to the azimuth residual calculation process and the sign distance residual calculation process of the road sign are the same as S332a to S334b of the self-localization method 2 (see FIG. 7) in the second embodiment. .
そして、拡張カルマンフィルタ6は擬似距離残差計算部22が算出した擬似距離残差と方位角・距離残差算出部42が算出した白線方位角残差、標識方位角残差および標識距離残差とを観測量として入力し、DR演算部3のデッドレコニングによる測位結果に含まれる航法誤差とカメラ7のアライメント誤差とを状態量として計算して補正量として出力する。
The extended Kalman filter 6 calculates the pseudorange residual calculated by the pseudorange
上記では、白線について方位角のみを対象としたが、標識と同様に車両から白線までの距離の残差を拡張カルマンフィルタ6の観測量としてもよいし、画像に基づいて算出した白線の長さとデータベースから取得した白線の長さとの残差を拡張カルマンフィルタ6の観測量としてもよい。 In the above description, only the azimuth angle is targeted for the white line, but the residual of the distance from the vehicle to the white line may be used as the observation amount of the extended Kalman filter 6 as in the case of the sign, and the length of the white line calculated based on the image and the database The residual with the length of the white line acquired from the above may be used as the observation amount of the extended Kalman filter 6.
実施の形態3では、以下のような自己位置標定装置100について説明した。
実施の形態3における自己位置標定装置100は、前記実施の形態1に記載した自己位置標定装置100に、前記実施の形態2に記載した「車両−標識間の距離」と「車両からみた標識の相対方位角」を得る画像処理部8の機能と、標識座標のデータベースとを加え、拡張カルマンフィルタ6は白線と標識との両方を観測量として自己位置・姿勢角の誤差推定を行ってDR演算部3の自己位置標定精度を向上させる。
In the third embodiment, the following self-positioning
The self-positioning
実施の形態4.
上記実施の形態1では、各白線について位置や形状や方位角などの情報が予め記憶されている白線情報データベース9を利用する形態について説明した。但し、各白線の情報を用意することがコスト的に難しい場合も考えられる。
そこで、実施の形態4では、上記実施の形態1で示した白線情報データベース9の代わりに道路の方位角を示す道路情報(道路線形情報)を記憶するデータベースを用い、道路の方位角を白線の方位角として用いる形態について説明する。
Embodiment 4 FIG.
In the first embodiment, the form using the white line information database 9 in which information such as position, shape, and azimuth angle is stored in advance for each white line has been described. However, it may be difficult to prepare information for each white line in terms of cost.
Therefore, in the fourth embodiment, instead of the white line information database 9 shown in the first embodiment, a database that stores road information (road alignment information) indicating the azimuth angle of the road is used, and the azimuth angle of the road is set to the white line information. The form used as the azimuth will be described.
(1)KIWIデータベースを用いる方法
道路情報を記憶するデータベースとして、カーナビゲーションシステムに使用されているデータベースを使用することができる。カーナビゲーションシステムのデータベースにはKIWIフォーマットが使用されている。以下、道路情報をKIWIフォーマット(日本工業規格 JIS−D0810)で示すデータベースをKIWIデータベースとする。非特許文献1にKIWIフォーマットに関する文献を示す。
KIWIデータベースのデータ構造には、交差点に関する情報を示すノード情報、道路が接続する交差点を示すリンク情報、新たに情報を追加することが可能な拡張部などが含まれる。ノード情報には各交差点をノードとしてノード名と交差点の座標(例えば、交差点中央の2次元座標)とが対応付けて記憶されている。リンク情報には“ノードA(交差点A)とノードB(交差点B)が接続されている(A、B)”というような道路が接続している交差点を示す情報が記憶されている。そして、実施の形態4では、KIWIデータベースの拡張部に、リンク情報(接続情報)と方位角とを対応付けて、リンク情報が表す道路について方位角を示す方位角情報を記憶する。例えば、ノード情報とリンク情報とが図11のような関係を示す場合、拡張部には「接続情報」として(A、B)、「方位角」としてθ1が記憶され、また、「接続情報」として(B、C)、「方位角」としてθ2が記憶される。
(1) Method using KIWI database As a database for storing road information, a database used in a car navigation system can be used. The car navigation system database uses the KIWI format. Hereinafter, a database indicating road information in the KIWI format (Japanese Industrial Standard JIS-D0810) is referred to as a KIWI database.
The data structure of the KIWI database includes node information indicating information about intersections, link information indicating intersections to which roads connect, and an extension unit that can newly add information. In the node information, node names and intersection coordinates (for example, two-dimensional coordinates at the center of the intersection) are stored in association with each intersection as a node. The link information stores information indicating an intersection where roads are connected, such as “node A (intersection A) and node B (intersection B) are connected (A, B)”. In the fourth embodiment, the link information (connection information) and the azimuth are associated with the extension unit of the KIWI database, and the azimuth information indicating the azimuth is stored for the road represented by the link information. For example, when the node information and the link information show the relationship as shown in FIG. 11, (A, B) is stored as “connection information”, θ1 is stored as “azimuth angle”, and “connection information”. (B, C), and θ2 is stored as the “azimuth angle”.
そして、上記実施の形態1における白線方位角取得部23は、図12に示すようにして、KIWIデータベースから道路情報を取得し、道路の方位角を白線の方位角として算出する。 Then, as shown in FIG. 12, the white line azimuth obtaining unit 23 in the first embodiment obtains road information from the KIWI database, and calculates the road azimuth as the white line azimuth.
<S510>
白線方位角取得部23は、DR演算部3から自己位置N、自己方位角φNを取得する。
<S520>
次に、白線方位角取得部23はKIWIデータベースにおいてノード情報が示す各交差点の座標と自己位置Nとを比較して車両が位置する道路を示すリンク情報を検索する。
<S530>
次に、白線方位角取得部23は検索したリンク情報に対応する道路の方位角θnを拡張部から抽出する。
<S540>
次に、白線方位角取得部23は自己方位角φNが示す進行方向における道路の方位角θnを取得する。ただし、白線を見る向きによって方位角の表現は180度異なるため、自己方位角φNに応じて、θnに180度だけ加算することがある。
<S550>
そして、白線方位角取得部23は取得した道路の方位角θnを白線方位角として出力する。
<S510>
The white line azimuth angle obtaining unit 23 obtains the self position N and the self azimuth angle φN from the DR calculation unit 3.
<S520>
Next, the white line azimuth obtaining unit 23 searches the link information indicating the road on which the vehicle is located by comparing the coordinates of each intersection indicated by the node information with the self position N in the KIWI database.
<S530>
Next, the white line azimuth angle obtaining unit 23 extracts the road azimuth angle θn corresponding to the searched link information from the expansion unit.
<S540>
Next, the white line azimuth angle acquisition unit 23 acquires the azimuth angle θn of the road in the traveling direction indicated by the self azimuth angle φN. However, since the expression of the azimuth angle differs by 180 degrees depending on the direction of viewing the white line, 180 degrees may be added to θn depending on the self-azimuth angle φN.
<S550>
Then, the white line azimuth angle obtaining unit 23 outputs the acquired road azimuth angle θn as a white line azimuth angle.
(2)道路線形データベースを用いる方法
道路の幾何構造は横断面と平面線形とで表すことができるが、実施の形態4で用いる道路線形データベースは道路の平面線形について直線や円曲線や緩和曲線(クロソイド)などの線形要素で表した道路情報を記憶する。道路の直線は例えば始点の座標と終点の座標とで表される。
そして、実施の形態4における白線方位角取得部23は、図13に示すようにして、道路線形データベースに記憶された道路の直線部分のデータに基づいて、道路の方位角を白線方位角として算出する。
(2) Method Using Road Alignment Database Although the geometric structure of a road can be expressed by a cross section and a plane alignment, the road alignment database used in Embodiment 4 is a straight line, a circular curve, a relaxation curve ( Road information expressed by linear elements such as clothoid) is stored. The straight line of the road is expressed by, for example, the coordinates of the start point and the coordinates of the end point.
Then, the white line azimuth acquisition unit 23 according to the fourth embodiment calculates the road azimuth as the white line azimuth based on the straight line data of the road stored in the road alignment database as shown in FIG. To do.
<S610>
白線方位角取得部23は、DR演算部3から自己位置Nを取得する。
<S620>
次に、白線方位角取得部23は道路線形データベースにおいて自己位置Nが位置する道路の直線部分のデータを検索する。
<S630>
次に、白線方位角取得部23は検索した道路の直線部分のデータが示す始点と終点の座標に基づいて道路の方位角を算出する。但し、道路の方位角を予め道路線形データベースに記憶しておいても構わない。
<S640>
そして、白線方位角取得部23は算出した道路の方位角を白線方位角として出力する。
<S610>
The white line azimuth acquisition unit 23 acquires the self position N from the DR calculation unit 3.
<S620>
Next, the white line azimuth obtaining unit 23 searches the road linear database for data on the straight line portion of the road where the self position N is located.
<S630>
Next, the white line azimuth obtaining unit 23 calculates the azimuth angle of the road based on the coordinates of the start point and the end point indicated by the data of the searched straight portion of the road. However, the azimuth angle of the road may be stored in advance in the road alignment database.
<S640>
Then, the white line azimuth obtaining unit 23 outputs the calculated road azimuth as the white line azimuth.
各実施の形態において、GPS受信機1がMSAS(MTSAT Satellite−based Augmentation System)からのGPS補正情報やFM多重放送を受信することなどで得られるGPS補正情報を用いて擬似距離の補正をする方式も考えられる。また、将来的には準天頂衛星からの放送データの中にGPS補正情報が含まれる予定であり、GPS受信機1がこれを利用してGPSの擬似距離補正を行う方法も考えられる。
また、GPS受信機1が擬似距離を搬送波位相観測データを使ってスムージングする方法(キャリアスムージング)や、DR演算部3がGPS基準局の搬送波位相データとGPS受信機1で観測するGPS搬送波位相データとを用いてCPDGPS(Carrier Phase Differential GPS)計算を行い測位する方法なども考えられる。
さらに、拡張カルマンフィルタ6の構成方法には、前記実施の形態1で説明したGPSの観測生データ(擬似距離、位相差など)をGPS観測量として利用するタイトカプリング(Tightly Coupled、密結合)方式の他に、GPS観測値から得た測位解をGPS観測量として利用するルーズカプリング(Loosely Coupled、粗結合)方式も考えられる。
In each embodiment, the
In addition, a method in which the
Furthermore, the configuration method of the extended Kalman filter 6 is a tight coupling (tightly coupled) method using the GPS observation raw data (pseudorange, phase difference, etc.) described in the first embodiment as a GPS observation amount. In addition, a loose coupling (coarse coupling) method that uses a positioning solution obtained from a GPS observation value as a GPS observation amount is also conceivable.
1 GPS受信機、2 衛星軌道演算部、3 DR演算部、4 ジャイロ、5 オドメータ、6 拡張カルマンフィルタ、7 カメラ、8 画像処理部、9 白線情報データベース、11 標識情報データベース、21 衛星距離計算部、22 擬似距離残差計算部、23 白線方位角取得部、24 白線方位角残差計算部、31 標識方位角・距離算出部、32 標識方位角・距離残差計算部、41 方位角・距離算出部、42 方位角・距離残差算出部、49 道路データベース、100 自己位置標定装置、110 測位部、120 GPS観測残差算出部、121 GPS観測部、122 GPS観測量演算部、130 方位角残差算出部、131 方位角観測部、132 方位角演算部、140 誤差推定部、901 表示装置、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、923 プログラム群、924 ファイル群。 1 GPS receiver, 2 satellite orbit calculation unit, 3 DR calculation unit, 4 gyro, 5 odometer, 6 extended Kalman filter, 7 camera, 8 image processing unit, 9 white line information database, 11 sign information database, 21 satellite distance calculation unit, 22 pseudorange residual calculation unit, 23 white line azimuth acquisition unit, 24 white line azimuth residual calculation unit, 31 sign azimuth / distance calculation unit, 32 sign azimuth / distance residual calculation unit, 41 azimuth / distance calculation , 42 azimuth / distance residual calculation unit, 49 road database, 100 self-localization device, 110 positioning unit, 120 GPS observation residual calculation unit, 121 GPS observation unit, 122 GPS observation amount calculation unit, 130 azimuth residual Difference calculation unit, 131 Azimuth angle observation unit, 132 Azimuth angle calculation unit, 140 Error estimation unit, 901 Display device, 911 CPU, 91 Bus, 913 ROM, 914 RAM, 915 communication board, 920 a magnetic disk device, 921 OS, 923 programs, 924 files.
Claims (9)
前記測位部が測位した際の特定の方向を撮像するカメラと、
前記カメラが撮像した画像に基づいて前記画像に映っている特定の地物の長さ方向が基準方向に対して成す前記特定の地物の方位角をCPU(Central Proccessing Unit)を用いて算出する画像方位角部と、
地物の長さ方向が基準方向に対して成す当該地物の方位角を記憶する方位角データベースと、
前記測位部が測位した自己位置に基づいて前記方位角データベースから前記特定の地物に対応する地物の方位角を取得するデータベース方位角部と、
前記画像方位角部が算出した地物の方位角と前記データベース方位角部が取得した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出部と、
前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定するカルマンフィルタと
を備え、
前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とする
ことを特徴とする自己位置標定装置。 A positioning unit for positioning the self-position;
A camera that captures a specific direction when the positioning unit performs positioning;
Based on the image captured by the camera, the azimuth angle of the specific feature formed by the length direction of the specific feature shown in the image with respect to the reference direction is calculated using a CPU (Central Processing Unit). Image azimuth,
An azimuth angle database that stores the azimuth angle of the feature that the length direction of the feature forms with respect to the reference direction;
A database azimuth section for obtaining an azimuth angle of the feature corresponding to the specific feature from the azimuth database based on the self-position measured by the positioning section;
An azimuth residual calculation unit that calculates the difference between the azimuth of the feature calculated by the image azimuth and the azimuth of the feature acquired by the database azimuth using the CPU as a feature azimuth residual. When,
A Kalman filter that uses a CPU to estimate the error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculating unit;
The positioning unit corrects the measured self-position based on the error estimated by the Kalman filter, and uses the corrected self-position as a positioning result.
前記測位部が測位した際の特定の方向を撮像するカメラと、
前記カメラが撮像した画像に基づいて前記画像に映っている特定の地物の方位角を自己位置を基点としてCPU(Central Proccessing Unit)を用いて算出する画像方位角部と、
地物の位置を記憶する位置データベースと、
前記測位部が測位した自己位置に基づいて前記位置データベースから前記特定の地物に対応する地物の位置を取得し、取得した地物の位置に基づいて地物の方位角を前記測位部が測位した自己位置を基点としてCPUを用いて算出するデータベース方位角部と、
前記画像方位角部が算出した地物の方位角と前記データベース方位角部が算出した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出部と、
前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定するカルマンフィルタと
を備え、
前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とする
ことを特徴とする自己位置標定装置。 A positioning unit for positioning the self-position;
A camera that captures a specific direction when the positioning unit performs positioning;
An image azimuth section that calculates a azimuth angle of a specific feature reflected in the image based on an image captured by the camera using a CPU (Central Processing Unit) based on the self-position;
A location database that stores the location of features;
The positioning unit acquires the position of the feature corresponding to the specific feature from the position database based on the self-position measured by the positioning unit, and the positioning unit calculates the azimuth angle of the feature based on the acquired feature position. A database azimuth angle portion calculated using a CPU with the measured self-position as a base point;
An azimuth residual calculation unit that calculates the difference between the azimuth of the feature calculated by the image azimuth and the azimuth of the feature calculated by the database azimuth using the CPU as a feature azimuth residual. When,
A Kalman filter that uses a CPU to estimate the error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculating unit;
The positioning unit corrects the measured self-position based on the error estimated by the Kalman filter, and uses the corrected self-position as a positioning result.
自己位置の誤差を含む状態量について状態量のダイナミクスをモデル化した状態方程式と、地物方位角残差を含む観測量と自己位置の誤差を含む状態量とについて観測量と状態量との関係を定式化した観測方程式とに基づいて状態量の誤差推定を行う
ことを特徴とする請求項1〜請求項2いずれかに記載の自己位置標定装置。 The Kalman filter is
Relationship between the observed quantity and the state quantity for the state equation that modeled the dynamics of the state quantity for the state quantity that includes the self-position error, and the observed quantity that contains the feature azimuth residual and the state quantity that contained the self-position error 3. The self-positioning apparatus according to claim 1, wherein error estimation of a state quantity is performed based on an observation equation formulated.
前記カメラが撮像した画像に基づいて前記特定の地物までの距離をCPUを用いて算出する画像距離部と、
地物の位置を記憶する位置データベースと、
前記測位部が測位した自己位置に基づいて前記位置データベースから前記特定の地物に対応する地物の位置を取得し、前記測位部が測位した自己位置と前記位置データベースから取得した地物の位置とに基づいて地物までの距離を算出するデータベース距離部と、
前記画像距離部が算出した地物までの距離と前記データベース距離部が算出した地物までの距離との差分を地物距離残差としてCPUを用いて算出する距離残差算出部と
を備え、
前記カルマンフィルタは前記距離残差算出部が算出した地物距離残差を観測量に含めて自己位置の誤差を含む状態量の誤差推定を行う
ことを特徴とする請求項3記載の自己位置標定装置。 The self-positioning device further includes:
An image distance unit for calculating a distance to the specific feature using a CPU based on an image captured by the camera;
A location database that stores the location of features;
The position of the feature corresponding to the specific feature is acquired from the position database based on the self-position measured by the positioning unit, and the position of the feature acquired from the self-position measured by the positioning unit and the position database. A database distance part that calculates the distance to the feature based on
A distance residual calculation unit that calculates the difference between the distance to the feature calculated by the image distance unit and the distance to the feature calculated by the database distance unit using the CPU as a feature distance residual;
4. The self-localization device according to claim 3, wherein the Kalman filter includes a feature distance residual calculated by the distance residual calculation unit in an observation amount and performs error estimation of a state quantity including a self-position error. .
カメラが前記測位部が測位した際の特定の方向を撮像する撮像処理を行い、
画像方位角部が前記カメラの撮像した画像に基づいて前記画像に映っている特定の地物の長さ方向が基準方向に対して成す前記特定の地物の方位角をCPU(Central Proccessing Unit)を用いて算出する画像方位角算出処理を行い、
データベース方位角部が前記測位部が測位した自己位置に基づいて地物の長さ方向が基準方向に対して成す当該地物の方位角を記憶する方位角データベースから前記特定の地物に対応する地物の方位角を取得するデータベース方位角取得処理を行い、
方位角残差算出部が前記画像方位角部が算出した地物の方位角と前記データベース方位角部が取得した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出処理を行い、
カルマンフィルタが前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定する誤差推定処理を行い、
前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とする測位結果補正処理を行う
ことを特徴とする自己位置標定方法。 The positioning unit performs a positioning process to measure its own position,
The camera performs an imaging process for imaging a specific direction when the positioning unit performs positioning,
The azimuth angle of the specific feature that the length direction of the specific feature shown in the image is based on the image captured by the camera with respect to the reference direction is the CPU (Central Processing Unit). Perform the image azimuth calculation process to calculate using
The database azimuth portion corresponds to the specific feature from the azimuth angle database that stores the azimuth angle of the feature that the length direction of the feature forms with respect to the reference direction based on the self-position measured by the positioning unit. Perform database azimuth acquisition processing to acquire the azimuth of features,
The azimuth residual calculation unit calculates the difference between the azimuth of the feature calculated by the image azimuth and the azimuth of the feature acquired by the database azimuth using the CPU as the feature azimuth residual. Azimuth residual calculation process to
An error estimation process is performed in which the Kalman filter estimates an error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculating unit using a CPU,
The positioning unit corrects a measured self-position based on an error estimated by the Kalman filter, and performs a positioning result correction process using the corrected self-position as a positioning result.
カメラが前記測位部が測位した際の特定の方向を撮像する撮像処理を行い、
画像方位角部が前記カメラが撮像した画像に基づいて前記画像に映っている特定の地物の方位角を自己位置を基点としてCPU(Central Proccessing Unit)を用いて算出する画像方位角算出処理を行い、
データベース方位角部が前記測位部が測位した自己位置に基づいて地物の位置を記憶する位置データベースから前記特定の地物に対応する地物の位置を取得し、取得した地物の位置に基づいて地物の方位角を前記測位部が測位した自己位置を基点としてCPUを用いて算出するデータベース方位角算出処理を行い、
方位角残差算出部が前記画像方位角部が算出した地物の方位角と前記データベース方位角部が算出した地物の方位角との差分を地物方位角残差としてCPUを用いて算出する方位角残差算出処理を行い、
カルマンフィルタが前記方位角残差算出部が算出した地物方位角残差に基づいて前記測位部が測位した自己位置の誤差をCPUを用いて推定する誤差推定処理を行い、
前記測位部は測位した自己位置を前記カルマンフィルタが推定した誤差に基づいて補正し、補正した自己位置を測位結果とする測位結果補正処理を行う
ことを特徴とする自己位置標定方法。 The positioning unit performs a positioning process to measure its own position,
The camera performs an imaging process for imaging a specific direction when the positioning unit performs positioning,
An image azimuth calculation process in which an image azimuth is calculated by using a CPU (Central Processing Unit) based on an image captured by the camera, based on an azimuth angle of a specific feature reflected in the image. Done
The database azimuth section acquires the position of the feature corresponding to the specific feature from the position database that stores the position of the feature based on the self-position measured by the positioning unit, and based on the acquired position of the feature Database azimuth calculation processing is performed to calculate the azimuth of the feature using the CPU with the self-position determined by the positioning unit as a base point,
The azimuth residual calculation unit calculates the difference between the azimuth of the feature calculated by the image azimuth and the azimuth of the feature calculated by the database azimuth using the CPU as the feature azimuth residual. Azimuth residual calculation process to
An error estimation process is performed in which the Kalman filter estimates an error of the self-position measured by the positioning unit based on the feature azimuth residual calculated by the azimuth residual calculation unit using a CPU,
The positioning unit corrects a measured self-position based on an error estimated by the Kalman filter, and performs a positioning result correction process using the corrected self-position as a positioning result.
前記方位角データベースは、道路の直線部分が基準方向に対して成す当該道路の方位角を示す道路情報をKIWIフォーマットで記憶し、
前記データベース方位角部は、前記方位角データベースに記憶された道路の直線部分の方位角を道路に標示された白線の方位角として取得し、
前記方位角残差算出部は、白線の方位角残差を前記地物方位角残差として算出し、
前記カルマンフィルタは、白線の方位角残差に基づいて自己位置の誤差を推定する
ことを特徴とする請求項1記載の自己位置標定装置。 The image azimuth portion calculates the azimuth angle of the white line reflected in the image,
The azimuth angle database stores road information indicating the azimuth angle of the road that the straight line portion of the road forms with respect to the reference direction in a KIWI format;
The database azimuth section obtains the azimuth angle of the straight line portion of the road stored in the azimuth angle database as the azimuth angle of the white line marked on the road,
The azimuth residual calculation unit calculates an azimuth residual of a white line as the feature azimuth residual,
The self-position locating apparatus according to claim 1, wherein the Kalman filter estimates an error of a self-position based on an azimuth residual of a white line.
前記方位角データベースは、道路の平面形状を円弧と直線とクロソイドとの少なくともいずれかにより示す道路情報を記憶し、
前記データベース方位角部は、前記方位角データベースから取得した道路情報が示す道路の平面形状に基づいて道路の直線部分の方位角を道路に標示された白線の方位角として算出し、
前記方位角残差算出部は、白線の方位角残差を前記地物方位角残差として算出し、
前記カルマンフィルタは、白線の方位角残差に基づいて自己位置の誤差を推定する
ことを特徴とする請求項1記載の自己位置標定装置。 The image azimuth portion calculates the azimuth angle of the white line reflected in the image,
The azimuth database stores road information indicating a planar shape of a road by at least one of an arc, a straight line, and a clothoid;
The database azimuth section calculates the azimuth of the straight portion of the road as the azimuth of the white line marked on the road based on the planar shape of the road indicated by the road information acquired from the azimuth database,
The azimuth residual calculation unit calculates an azimuth residual of a white line as the feature azimuth residual,
The self-position locating apparatus according to claim 1, wherein the Kalman filter estimates an error of a self-position based on an azimuth residual of a white line.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007094134A JP4897542B2 (en) | 2007-03-30 | 2007-03-30 | Self-positioning device, self-positioning method, and self-positioning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007094134A JP4897542B2 (en) | 2007-03-30 | 2007-03-30 | Self-positioning device, self-positioning method, and self-positioning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008249639A true JP2008249639A (en) | 2008-10-16 |
JP4897542B2 JP4897542B2 (en) | 2012-03-14 |
Family
ID=39974744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007094134A Active JP4897542B2 (en) | 2007-03-30 | 2007-03-30 | Self-positioning device, self-positioning method, and self-positioning program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4897542B2 (en) |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237798A (en) * | 2009-03-30 | 2010-10-21 | Equos Research Co Ltd | Image processor and image processing program |
WO2011043275A1 (en) * | 2009-10-06 | 2011-04-14 | 株式会社 トプコン | Three-dimensional data creating method and three-dimensional data creating device |
WO2012118207A1 (en) * | 2011-03-03 | 2012-09-07 | 株式会社豊田中央研究所 | Local map generation device, local map generation system, global map generation device, global map generation system, and program |
EP2525303A1 (en) * | 2011-05-17 | 2012-11-21 | Harman Becker Automotive Systems GmbH | Lane tracking |
KR101213951B1 (en) | 2011-09-20 | 2012-12-18 | 재단법인대구경북과학기술원 | Position determination apparatus and method using vision system |
JP2013531223A (en) * | 2010-05-07 | 2013-08-01 | クアルコム,インコーポレイテッド | Azimuth sensor calibration |
JP2013167606A (en) * | 2012-02-17 | 2013-08-29 | Nec Toshiba Space Systems Ltd | Orbital position estimation method, orbital position estimation device and orbital position estimation program |
JP2014102137A (en) * | 2012-11-20 | 2014-06-05 | Mitsubishi Electric Corp | Self position estimation device |
WO2017168654A1 (en) * | 2016-03-30 | 2017-10-05 | パイオニア株式会社 | Measurement device, measurement method, and program |
JP2017211193A (en) * | 2016-05-23 | 2017-11-30 | 本田技研工業株式会社 | Vehicle position identifying device, vehicle control system, vehicle position identifying method, and vehicle position identifying program |
JP2018084492A (en) * | 2016-11-24 | 2018-05-31 | 日産自動車株式会社 | Self-position estimation method and self-position estimation device |
US10114108B2 (en) | 2014-11-06 | 2018-10-30 | Denso Corporation | Positioning apparatus |
WO2018212292A1 (en) * | 2017-05-19 | 2018-11-22 | パイオニア株式会社 | Information processing device, control method, program and storage medium |
JP2019028028A (en) * | 2017-08-03 | 2019-02-21 | 株式会社Subaru | Vehicle's travelling vehicle lane identification device |
CN109612447A (en) * | 2018-12-29 | 2019-04-12 | 湖南璇玑信息科技有限公司 | Construction method, enhancing localization method and the enhancing location-server of the enhancing positioning transformation model of Remote sensing photomap data |
WO2019189098A1 (en) * | 2018-03-28 | 2019-10-03 | パイオニア株式会社 | Self-position estimation device, self-position estimation method, program, and recording medium |
WO2020202522A1 (en) * | 2019-04-04 | 2020-10-08 | 三菱電機株式会社 | Vehicle positioning device |
WO2020209144A1 (en) * | 2019-04-09 | 2020-10-15 | パイオニア株式会社 | Position estimating device, estimating device, control method, program, and storage medium |
JP2021018180A (en) * | 2019-07-22 | 2021-02-15 | 株式会社Zmp | Automatic traveling system for travel vehicle |
JP2021018181A (en) * | 2019-07-22 | 2021-02-15 | 株式会社Zmp | Automatic traveling system for travel vehicle |
CN112639391A (en) * | 2018-08-28 | 2021-04-09 | 株式会社斯库林集团 | Movable part position detection method, substrate processing apparatus, and substrate processing system |
US10977946B2 (en) | 2017-10-19 | 2021-04-13 | Veoneer Us, Inc. | Vehicle lane change assist improvements |
US11209457B2 (en) | 2019-05-23 | 2021-12-28 | Denso Corporation | Abnormality detection device, abnormality detection method, and non-transitory tangible computer readable medium |
CN114111767A (en) * | 2021-10-28 | 2022-03-01 | 北京自动化控制设备研究所 | Method for optimizing line design line type based on multi-information fusion |
JP2022084303A (en) * | 2020-11-26 | 2022-06-07 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
US11408741B2 (en) | 2017-03-16 | 2022-08-09 | Denso Corporation | Self-localization estimation device |
JP2022150979A (en) * | 2021-03-26 | 2022-10-07 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
JP2023502632A (en) * | 2019-11-13 | 2023-01-25 | メルセデス・ベンツ グループ アクチェンゲゼルシャフト | Methods for Approving Driving Routes |
JP7409037B2 (en) | 2019-11-21 | 2024-01-09 | 株式会社デンソー | Estimation device, estimation method, estimation program |
CN113631883B (en) * | 2019-04-04 | 2024-04-30 | 三菱电机株式会社 | Vehicle positioning device |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6152511B2 (en) | 2013-03-29 | 2017-06-28 | 株式会社メガチップス | Portable terminal device, program, and correction method |
JP6759175B2 (en) | 2017-10-27 | 2020-09-23 | 株式会社東芝 | Information processing equipment and information processing system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981757A (en) * | 1995-09-18 | 1997-03-28 | Mitsubishi Electric Corp | Vehicle position detecting device |
JP2006242731A (en) * | 2005-03-03 | 2006-09-14 | Mitsubishi Electric Corp | Positioning device and positioning method |
-
2007
- 2007-03-30 JP JP2007094134A patent/JP4897542B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981757A (en) * | 1995-09-18 | 1997-03-28 | Mitsubishi Electric Corp | Vehicle position detecting device |
JP2006242731A (en) * | 2005-03-03 | 2006-09-14 | Mitsubishi Electric Corp | Positioning device and positioning method |
Cited By (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237798A (en) * | 2009-03-30 | 2010-10-21 | Equos Research Co Ltd | Image processor and image processing program |
WO2011043275A1 (en) * | 2009-10-06 | 2011-04-14 | 株式会社 トプコン | Three-dimensional data creating method and three-dimensional data creating device |
JP2011080845A (en) * | 2009-10-06 | 2011-04-21 | Topcon Corp | Method and apparatus for creating three-dimensional data |
JP2013531223A (en) * | 2010-05-07 | 2013-08-01 | クアルコム,インコーポレイテッド | Azimuth sensor calibration |
JP2015165246A (en) * | 2010-05-07 | 2015-09-17 | クアルコム,インコーポレイテッド | Orientation sensor calibration |
US9103680B2 (en) | 2011-03-03 | 2015-08-11 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Local map generating device, local map generating system, global map generating device, global map generating system, and program |
WO2012118207A1 (en) * | 2011-03-03 | 2012-09-07 | 株式会社豊田中央研究所 | Local map generation device, local map generation system, global map generation device, global map generation system, and program |
JP2012185202A (en) * | 2011-03-03 | 2012-09-27 | Toyota Central R&D Labs Inc | Local map generation device, global map generation device and program |
EP2525303A1 (en) * | 2011-05-17 | 2012-11-21 | Harman Becker Automotive Systems GmbH | Lane tracking |
KR101213951B1 (en) | 2011-09-20 | 2012-12-18 | 재단법인대구경북과학기술원 | Position determination apparatus and method using vision system |
JP2013167606A (en) * | 2012-02-17 | 2013-08-29 | Nec Toshiba Space Systems Ltd | Orbital position estimation method, orbital position estimation device and orbital position estimation program |
JP2014102137A (en) * | 2012-11-20 | 2014-06-05 | Mitsubishi Electric Corp | Self position estimation device |
US10114108B2 (en) | 2014-11-06 | 2018-10-30 | Denso Corporation | Positioning apparatus |
WO2017168654A1 (en) * | 2016-03-30 | 2017-10-05 | パイオニア株式会社 | Measurement device, measurement method, and program |
JPWO2017168654A1 (en) * | 2016-03-30 | 2019-02-14 | パイオニア株式会社 | Measuring apparatus, measuring method, and program |
CN107450530A (en) * | 2016-05-23 | 2017-12-08 | 本田技研工业株式会社 | The determining device of vehicle control system and vehicle location, method and program product |
US10247830B2 (en) | 2016-05-23 | 2019-04-02 | Honda Motor Co., Ltd. | Vehicle position determination device, vehicle control system, vehicle position determination method, and vehicle position determination program product |
JP2017211193A (en) * | 2016-05-23 | 2017-11-30 | 本田技研工業株式会社 | Vehicle position identifying device, vehicle control system, vehicle position identifying method, and vehicle position identifying program |
JP2018084492A (en) * | 2016-11-24 | 2018-05-31 | 日産自動車株式会社 | Self-position estimation method and self-position estimation device |
US11639853B2 (en) | 2017-03-16 | 2023-05-02 | Denso Corporation | Self-localization estimation device |
US11408741B2 (en) | 2017-03-16 | 2022-08-09 | Denso Corporation | Self-localization estimation device |
WO2018212292A1 (en) * | 2017-05-19 | 2018-11-22 | パイオニア株式会社 | Information processing device, control method, program and storage medium |
JPWO2018212292A1 (en) * | 2017-05-19 | 2020-05-21 | パイオニア株式会社 | Information processing apparatus, control method, program, and storage medium |
JP2019028028A (en) * | 2017-08-03 | 2019-02-21 | 株式会社Subaru | Vehicle's travelling vehicle lane identification device |
US10977946B2 (en) | 2017-10-19 | 2021-04-13 | Veoneer Us, Inc. | Vehicle lane change assist improvements |
JPWO2019189098A1 (en) * | 2018-03-28 | 2021-03-11 | パイオニア株式会社 | Self-position estimation device, self-position estimation method, program and storage medium |
US11822009B2 (en) | 2018-03-28 | 2023-11-21 | Pioneer Corporation | Self-position estimation device, self-position estimation method, program, and recording medium |
WO2019189098A1 (en) * | 2018-03-28 | 2019-10-03 | パイオニア株式会社 | Self-position estimation device, self-position estimation method, program, and recording medium |
CN112639391B (en) * | 2018-08-28 | 2022-08-02 | 株式会社斯库林集团 | Movable part position detection method, substrate processing apparatus, and substrate processing system |
CN112639391A (en) * | 2018-08-28 | 2021-04-09 | 株式会社斯库林集团 | Movable part position detection method, substrate processing apparatus, and substrate processing system |
CN109612447A (en) * | 2018-12-29 | 2019-04-12 | 湖南璇玑信息科技有限公司 | Construction method, enhancing localization method and the enhancing location-server of the enhancing positioning transformation model of Remote sensing photomap data |
WO2020202522A1 (en) * | 2019-04-04 | 2020-10-08 | 三菱電機株式会社 | Vehicle positioning device |
JPWO2020202522A1 (en) * | 2019-04-04 | 2021-11-04 | 三菱電機株式会社 | Vehicle positioning device |
CN113631883A (en) * | 2019-04-04 | 2021-11-09 | 三菱电机株式会社 | Vehicle positioning device |
CN113631883B (en) * | 2019-04-04 | 2024-04-30 | 三菱电机株式会社 | Vehicle positioning device |
JP7034379B2 (en) | 2019-04-04 | 2022-03-11 | 三菱電機株式会社 | Vehicle positioning device |
US11874117B2 (en) | 2019-04-04 | 2024-01-16 | Mitsubishi Electric Corporation | Vehicle positioning device |
WO2020209144A1 (en) * | 2019-04-09 | 2020-10-15 | パイオニア株式会社 | Position estimating device, estimating device, control method, program, and storage medium |
JPWO2020209144A1 (en) * | 2019-04-09 | 2020-10-15 | ||
US11209457B2 (en) | 2019-05-23 | 2021-12-28 | Denso Corporation | Abnormality detection device, abnormality detection method, and non-transitory tangible computer readable medium |
JP2021018181A (en) * | 2019-07-22 | 2021-02-15 | 株式会社Zmp | Automatic traveling system for travel vehicle |
JP7265257B2 (en) | 2019-07-22 | 2023-04-26 | 株式会社Zmp | Automated driving system for running vehicles |
JP2021018180A (en) * | 2019-07-22 | 2021-02-15 | 株式会社Zmp | Automatic traveling system for travel vehicle |
JP7329215B2 (en) | 2019-07-22 | 2023-08-18 | 株式会社Zmp | Automated driving system for running vehicles |
JP2023502632A (en) * | 2019-11-13 | 2023-01-25 | メルセデス・ベンツ グループ アクチェンゲゼルシャフト | Methods for Approving Driving Routes |
JP7348398B2 (en) | 2019-11-13 | 2023-09-20 | メルセデス・ベンツ グループ アクチェンゲゼルシャフト | Method for approving driving routes |
JP7409037B2 (en) | 2019-11-21 | 2024-01-09 | 株式会社デンソー | Estimation device, estimation method, estimation program |
JP2022084303A (en) * | 2020-11-26 | 2022-06-07 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
JP7225185B2 (en) | 2020-11-26 | 2023-02-20 | 本田技研工業株式会社 | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM |
JP7184951B2 (en) | 2021-03-26 | 2022-12-06 | 本田技研工業株式会社 | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM |
JP2022150979A (en) * | 2021-03-26 | 2022-10-07 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
CN114111767B (en) * | 2021-10-28 | 2023-11-03 | 北京自动化控制设备研究所 | Method for optimizing line design line type based on multi-information fusion |
CN114111767A (en) * | 2021-10-28 | 2022-03-01 | 北京自动化控制设备研究所 | Method for optimizing line design line type based on multi-information fusion |
Also Published As
Publication number | Publication date |
---|---|
JP4897542B2 (en) | 2012-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4897542B2 (en) | Self-positioning device, self-positioning method, and self-positioning program | |
CN107328411B (en) | Vehicle-mounted positioning system and automatic driving vehicle | |
CN107328410B (en) | Method for locating an autonomous vehicle and vehicle computer | |
US10240934B2 (en) | Method and system for determining a position relative to a digital map | |
US8447519B2 (en) | Method of augmenting GPS or GPS/sensor vehicle positioning using additional in-vehicle vision sensors | |
US20210199437A1 (en) | Vehicular component control using maps | |
JP5116555B2 (en) | LOCATION DEVICE, LOCATION SYSTEM, LOCATION SERVER DEVICE, AND LOCATION METHOD | |
US20100103040A1 (en) | Method of using road signs to augment Global Positioning System (GPS) coordinate data for calculating a current position of a personal navigation device | |
WO2012118207A1 (en) | Local map generation device, local map generation system, global map generation device, global map generation system, and program | |
US20110153198A1 (en) | Method for the display of navigation instructions using an augmented-reality concept | |
JP5028662B2 (en) | Road white line detection method, road white line detection program, and road white line detection device | |
US20220178717A1 (en) | Self-position estimation device, self-driving system including the same, and self-generated map sharing device | |
JP2010519550A (en) | System and method for vehicle navigation and guidance including absolute and relative coordinates | |
JP4596566B2 (en) | Self-vehicle information recognition device and self-vehicle information recognition method | |
JP4986883B2 (en) | Orientation device, orientation method and orientation program | |
JP2023164553A (en) | Position estimation device, estimation device, control method, program and storage medium | |
JP2008256620A (en) | Map data correction device, method, and program | |
Hu et al. | Fusion of vision, GPS and 3D gyro data in solving camera registration problem for direct visual navigation | |
WO2021240884A1 (en) | Vehicle control device and host vehicle position estimation method | |
Chiang et al. | Multifusion schemes of INS/GNSS/GCPs/V-SLAM applied using data from smartphone sensors for land vehicular navigation applications | |
TWI635302B (en) | Real-time precise positioning system of vehicle | |
Davidson et al. | Uninterrupted portable car navigation system using GPS, map and inertial sensors data | |
JP2009014555A (en) | Navigation device, navigation method, and navigation program | |
JP2022136145A (en) | Data structure, information processing device, and map data generator | |
KR100581235B1 (en) | Method for updating gis numerical map of surveying information structural facilities along road by using aerial photograph as well as vehicle with gps receiver and laser measuring instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111220 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4897542 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150106 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |