JP2011191239A - Mobile object position detecting device - Google Patents
Mobile object position detecting device Download PDFInfo
- Publication number
- JP2011191239A JP2011191239A JP2010058988A JP2010058988A JP2011191239A JP 2011191239 A JP2011191239 A JP 2011191239A JP 2010058988 A JP2010058988 A JP 2010058988A JP 2010058988 A JP2010058988 A JP 2010058988A JP 2011191239 A JP2011191239 A JP 2011191239A
- Authority
- JP
- Japan
- Prior art keywords
- node
- map data
- nodes
- detected
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、移動体位置検出装置に関する。 The present invention relates to a moving body position detection device.
GPS(Global Positioning System)を用いたナビゲーションシステムにおいては、GPSの測位誤差等を考慮し、表示装置における地図上の道路上に自車を表示するべく、特許文献1に示すように、走行軌跡と道路形状とによりマップマッチングが行われている。
In a navigation system using GPS (Global Positioning System), in order to display a vehicle on a road on a map in a display device in consideration of GPS positioning error, etc., as shown in
ところで、近時、ナビゲーションシステムと移動体の走行制御等とを関連付けて移動体の運転支援を高めることが考えられている。このため、当該移動体の位置情報に関し、マップマッチングを行っている場合の誤差±2〜3m程度の精度では足りず、位置情報精度をより高めることが望まれている。 By the way, recently, it has been considered to increase driving assistance of a moving body by associating a navigation system with traveling control of the moving body. For this reason, with respect to the position information of the moving body, an accuracy of about ± 2 to 3 m is not sufficient when map matching is performed, and it is desired to further improve the position information accuracy.
これに対しては、特許文献2において、絶対位置が既知とされた外部の固定対象物に対する自己の相対位置を、検出手段により検出し、その検出結果に基づき、GPS検出に基づく自己の位置を補正するものが提案されている。これにより、補正後の自己の位置情報の精度は高まる。
In response to this, in
しかし、上記特許文献2に係るものにおいては、絶対位置が既知とされた外部の固定対象物の数自体が少なく、位置補正する頻度は低いものとならざるを得ない。このため、常時、高い位置情報精度を維持することはできない。
However, in the device according to
また、上記特許文献2に係るものは、1地点(絶対位置が既知とされた外部の固定対象物)に対する相対的距離を検出して、それを用いて誤差算出することにより、位置補正するものであることから、誤差算出精度は高いとはいえず、これに伴い、高い精度の位置情報自体を得ることは難しい。
In addition, the method according to
本発明は、このような事情に鑑みてなされたもので、その技術的課題は、位置情報精度を高めると共に、常時、その高い位置情報精度を維持できる移動体位置検出装置を提供することにある。 The present invention has been made in view of such circumstances, and a technical problem thereof is to provide a moving body position detecting device capable of improving the positional information accuracy and constantly maintaining the high positional information accuracy. .
前記技術的課題を達成するために本発明(請求項1に係る発明)においては、
移動体に搭載されて、該移動体の位置を検出する移動体位置検出装置において、
前記移動体の周囲における周辺物の節点の位置、又は周辺物の位置および形状を記憶する地図データ記憶手段と、
前記移動体の位置を検出する位置検出手段と、
前記移動体の周囲における周辺物を検出する周辺物検出手段と、
前記周辺物検出手段が検出した周辺物の複数の節点の相対的位置を検出する第1節点検出手段と、
前記第1節点検出手段が検出した各節点に対応する節点を、前記地図データ記憶手段が記憶する地図データからそれぞれ検出する第2節点検出手段と、
前記第1節点検出手段が検出した各節点と、該各節点に対応する前記第2節点検出手段が検出した各節点とに基づき、該第2節点検出手段が検出した節点に対する該第1節点検出手段が検出した節点の誤差を算出する誤差算出手段と、
前記誤差算出手段が算出した誤差に基づき、前記位置検出手段が検出した位置を補正する補正手段と、
を備えている、
ことを特徴とする移動体位置検出装置とした構成としてある。この請求項1の好ましい態様としては、請求項2以下の記載の通りとなる。
In order to achieve the technical problem, in the present invention (the invention according to claim 1),
In a mobile body position detection device mounted on a mobile body and detecting the position of the mobile body,
Map data storage means for storing the positions of the nodes of the surrounding objects around the moving body, or the positions and shapes of the surrounding objects;
Position detecting means for detecting the position of the moving body;
Peripheral object detection means for detecting a peripheral object around the moving body;
First node detecting means for detecting relative positions of a plurality of nodes of the peripheral object detected by the peripheral object detecting means;
Second node detection means for detecting nodes corresponding to the respective nodes detected by the first node detection means from map data stored in the map data storage means;
Based on each node detected by the first node detection means and each node detected by the second node detection means corresponding to each node, the first node detection for the node detected by the second node detection means An error calculating means for calculating an error of the node detected by the means;
Correction means for correcting the position detected by the position detection means based on the error calculated by the error calculation means;
With
The moving body position detecting device is characterized by the above. The preferred embodiment of
本発明(請求項1に係る発明)によれば、周辺物検出手段が検出する周辺物の複数の各節点と、地図データ上の各節点、又は周辺物の位置および形状から求められる各節点とをそれぞれ対応させ、その複数組の対応する節点を用いることにより、誤差を算出することから、1組の対応する節点を用いる場合に比べて、誤差算出の精度を高めることができる。このため、当該移動体の位置補正精度を高めることができ、当該移動体の位置情報に関し、その精度を高めることができる。 According to the present invention (the invention according to claim 1), a plurality of nodes of the peripheral object detected by the peripheral object detecting means, each node on the map data, or each node obtained from the position and shape of the peripheral object, Since the error is calculated by using the corresponding nodes of the plurality of pairs, the accuracy of error calculation can be improved as compared with the case of using one set of corresponding nodes. For this reason, the position correction accuracy of the moving body can be increased, and the accuracy of the position information of the moving body can be increased.
また、移動体搭載の周辺物検出手段が検出する周辺物の節点と、地図データ記憶手段が記憶する移動体周囲における当該周辺物の節点又は周辺物の位置および形状から求められる各節点と、を利用して両節点の誤差を算出し、その誤差に基づき、位置検出手段が検出した位置を補正することから、位置補正(誤差算出)に際して、移動体周囲にありふれて存在する周辺物を利用できることになり、位置補正の頻度を高めることができる。このため、当該移動体の位置情報に関し、常時、高い精度を維持できることになる。 Further, the nodes of the peripheral object detected by the peripheral object detection unit mounted on the mobile object, and the nodes obtained from the nodes of the peripheral object or the position and shape of the peripheral object around the mobile object stored by the map data storage unit, Since the error of both nodes is calculated and the position detected by the position detection means is corrected based on the error, peripheral objects that are common around the moving body can be used for position correction (error calculation). Thus, the frequency of position correction can be increased. For this reason, high accuracy can always be maintained with respect to the position information of the moving body.
請求項2に係る発明によれば、第2節点検出手段が、地図データ記憶手段が記憶する地図データから移動体の進行域における地図データを切り出す地図データ切出し処理部と、地図データ切出し処理部が切り出した地図データから周辺物の節点を抽出する節点抽出部と、第1節点検出手段が検出した各節点と節点抽出部が抽出した節点とを対応付ける節点マッチング処理部と、を備えていることから、具体的構成をもって、前記請求項1と同様の作用効果を得ることができる。
According to the invention according to
請求項3に係る発明によれば、節点マッチング処理部が、節点抽出部が抽出した節点間を結ぶ線分と、第1節点検出手段が検出する節点間を結ぶ線分とを比較することにより、第1節点検出手段が検出した各節点に対応する節点を、節点抽出部が抽出した節点から検出するように設定されていることから、節点間を結ぶ線分(リンクデータ)を利用することにより、第1節点検出手段が検出した各節点と、節点抽出部が抽出した節点とを的確に対応付けることができる。このため、誤差算出を確実に行うことができる。
According to the invention of
請求項4に係る発明によれば、節点マッチング処理部は、第1節点検出手段が周辺物の複数の節点を検出する度に、第1節点検出手段が検出する節点間を結ぶ線分と節点抽出部が抽出した節点間を結ぶ線分とが一致するものを一組の一致線分として、その一致線分の差分の絶対値を順次、保存すると共に、その差分の絶対値の総和の正規化値を算出して、該正規化値が該正規化値の算出以前の正規化値よりも減少しているか否かを判別するように設定され、誤差算出手段は、節点マッチング処理部が正規化値の最小値を判定したときに限り、各組の一致線分における節点を節点マッチング処理部から受け入れて、誤差算出を行うように設定されていることから、全体として、一致線分の一致性が高い場合に限り(節点の対応性が高い場合に限り)、その新たな各組の一致線分の始点、終点をなす節点を用いて誤差処理がなされ、それ以外の場合には、誤差処理がなされず、位置検出手段が検出した位置を補正する際には、以前の対応性の高い節点が用いられる。このため、誤差算出の精度が低下して、当該移動体の高い位置情報精度が低下することを防止できる。 According to the fourth aspect of the invention, the node matching processing unit is configured such that each time the first node detecting unit detects a plurality of nodes of the peripheral object, the line segment and the node connecting the nodes detected by the first node detecting unit. The line segment connecting the nodes extracted by the extractor is stored as a set of matching line segments, and the absolute values of the differences between the matching line segments are sequentially stored, and the sum of the absolute values of the differences is normalized. The normalization value is calculated and set to determine whether or not the normalization value is smaller than the normalization value before the calculation of the normalization value. Only when the minimum value of the digitized value is determined, the nodes in each pair of matching line segments are accepted from the node matching processing unit and error calculation is performed. Only when there is a high degree of compatibility (only when the correspondence of nodes is high) ), Error processing is performed using the nodes that form the start point and end point of each new set of matching line segments. In other cases, error processing is not performed, and the position detected by the position detection unit is corrected. The previous highly compatible node is used for. For this reason, it can prevent that the precision of error calculation falls and the high positional information precision of the said mobile body falls.
請求項5に係る発明によれば、第2節点検出手段が、さらに死角データ除去部を備え、死角データ除去部が、地図データ切出し部が切り出した地図データから、周辺物検出手段の死角領域に存在すると推定される死角データを除去するように設定されていることから、第1節点検出手段が検出した各節点と、節点抽出部が抽出した各節点とを対応付ける対応付け負荷(節点マッチング処理負荷)を軽減できる。
According to the invention of
請求項6に係る発明によれば、地図データ記憶手段が、三次元空間を所定の大きさのボクセルに分割して、その各ボクセルの三次元位置座標と、その各ボクセルに含まれる前記周辺物種別の属性データと、該周辺物の節点の位置データと、を記憶していることから、移動体の進行域にありふれて存在する周辺物の複数の節点を誤差算出に利用できることになり、誤差算出精度を高めると共に、位置補正の頻度を高めることができる。このため、ボクセル地図データを用いることにより、具体的に、当該移動体の位置情報精度を高めると共に、常時、その高い位置情報精度を維持できる。
According to the invention of
請求項7に係る発明によれば、前記地図データ記憶手段が、前記周辺物の位置データおよび形状情報を記憶し、前記節点が、前記周辺物の位置データおよび形状情報より求められることから、移動体の進行域にありふれて存在する周辺物の複数の節点を誤差算出に利用できることになり、誤差算出精度を高めると共に、位置補正の頻度を高めることができる。このため、地図データを用いることにより、具体的に、当該移動体の位置情報精度を高めると共に、常時、その高い位置情報精度を維持できる。
According to the invention of
請求項8に係る発明によれば、ボクセルの大きさが、道路領域に配置するものに関し、道路種別に異なるように設定されていることから、ボクセルの大きさを、移動体の移動速度に応じたものにでき、移動体の移動速度が異なる場合でも、位置情報精度を高く維持できる。 According to the invention according to claim 8, since the size of the voxel is set so as to be different depending on the road type with respect to what is arranged in the road region, the size of the voxel is set according to the moving speed of the moving object. Even when the moving speed of the moving body is different, the position information accuracy can be maintained high.
請求項9に係る発明によれば、地図データ記憶手段が、所定高さ以上に位置する周辺物の節点の位置データを含み、周辺物検出手段が、所定高さ以上の周辺物を検出するように設定されていることから、他の移動体等の影響を受けることなく周辺物を検出して誤差算出を行うことができ、高い精度の移動体の位置情報を得ることができる。 According to the ninth aspect of the present invention, the map data storage means includes position data of nodes of peripheral objects located at a predetermined height or higher, and the peripheral object detection means detects peripheral objects at a predetermined height or higher. Therefore, it is possible to detect a peripheral object and perform error calculation without being influenced by other moving bodies, and to obtain highly accurate position information of the moving body.
以下、本発明の実施形態について、図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1〜図19は第1実施形態を示す。この第1実施形態を示す図1において、符号1は移動体としての車両(自車)であり、この車両1には、自車位置、方位を精度良く検出できる実施形態に係る移動体位置検出装置2が搭載されている。この移動体位置検出装置2は、周辺物検出手段としてのレーザレーダ3と、位置検出手段としてのGPSセンサ4と、地図データ記憶手段としてのナビゲーション装置6と、それらからの各種情報を入力情報として、自車1位置の検出処理を実行する処理ユニットU(図2参照)と、が備えられている。
1 to 19 show a first embodiment. In FIG. 1 showing the first embodiment,
前記レーザレーダ3は、レーザの照射及びその反射波の検出に基づいて、自車(車両)1周囲の周辺物の方位、相対的距離を検出するものである。図3は、車両前方における周辺物(周辺物を節点(丸印をもって示す)s(1)・・・s(nums)をもって示す)がレーザレーダ3により検出されたことを概念的に示している。
The
前記GPSセンサ4は、GPS衛星からの信号を受信して自車1位置を検出するものである。これにより、自車1位置だけでなく、その検出された自車1位置を利用して、レーザレーダ3が検出した周辺物の位置をも算出することができることになる。この場合、自車1位置については、GPSに基づく測位誤差が生じ、周辺物の位置については、GPS、レーザレーダ3の誤差等が生じることになる。
The
前記ナビゲーション装置6は、図4に示すボクセルBを用いて、三次元地図データを記憶している。ボクセルBは、三次元空間を所定の大きさ、例えば一辺1mの立方体に分割したものであり、その各ボクセルBには、その三次元位置座標は勿論、その各ボクセルBに含まれる物体、具体的には、電柱、ガードレール、電源ボックス等の節点(ノード又は端点)の正確な位置座標(世界座標系のもの)が位置データとして含まれている。図4は、概念的に、ボクセルB内に、ボクセルBの中心位置データOと、物体の節点mの位置データとが存在することを示している。また、図3は、各ボクセルBに自車の前方側における物体としての周辺物の節点m(1)・・・m(numm)の正確な位置情報が含まれ、その各ボクセルBから周辺物の節点m(1)・・・m(numm)の位置情報が抽出可能であることを示している。
The
前記処理ユニットUは、図2に示す構成を有しており、その検出処理に基づき、自車1位置を精度良く検出処理できることになっている。
The processing unit U has the configuration shown in FIG. 2, and can detect the position of the
処理ユニットUは、図2に示すように、節点検出処理部7、遮蔽・空間判定処理部8、自車位置検出処理部9、進行方向検出処理部10、地図データ切出し等処理部11、節点抽出及び遮蔽・空間判定処理部12を備えている。
As shown in FIG. 2, the processing unit U includes a node
節点検出処理部7には、レーザレーダ3からの出力信号(周辺物の方位、距離等)が入力されており、その節点検出処理部7においては、図3,図5に示すように、レーザレーダ3からの出力信号に基づき、自車1前方における周辺物(電柱、ガードレール、電源ボックス等)の節点(図3では白丸、図5では黒丸をもって示す)s(1)・・・s(nums)の検出処理が行われる。図3,図5において、節点s(1)・・・s(nums)の各間、節点m(1)・・・m(numm)の各間が線分をもって結ばれた状態が示されているが、この各線分は、節点間の部分をリンクとして規定したリンクデータになることを示している。図3中、符号Lmは、地図データに基づく節点間の線分の長さ、Lsは、レーザレーダ3の検出結果に基づく節点間の線分の長さを示している。
The node
遮蔽・空間判定処理部8には、節点検出処理部7からの出力信号が入力されており、その遮蔽・空間判定処理部8においては、判定すべき節点間が遮蔽状態か又は空間状態かの判定処理が行われる。具体的に図5をもって説明すれば、節点s間のうち、周辺物が存在する部分(線分をもって結ばれている部分)が遮蔽状態と判定され、節点s間のうち、周辺物が存在しない部分(線分をもって結ばれていない部分)が空間状態と判定されることになる。
An output signal from the node
自車位置検出処理部9には、前記GPSセンサ4からの出力信号が入力されており、自車位置検出処理部9においては、GPSセンサ4からの出力信号に基づき自車1位置が検出される。
An output signal from the
進行方向検出処理部10には、上記自車位置検出処理部9における自車位置データが入力されており、進行方向検出処理部10においては、自車位置データに基づき自車1位置の変化を捉えて自車1の進行方向(方位)が検出される。
The traveling direction
地図データ切出し等処理部11には、前記ナビゲーション装置6からのボクセル三次元地図データ、前記自車位置検出処理部9からの自車位置データ、前記進行方向検出処理部10からの自車の進行方向データがそれぞれ入力される。この地図データ切出し等処理部11は、具体的には、地図データ切出し処理部、死角データ除去処理部を備えている。地図データ切出し処理部は、ナビゲーション装置6における地図データ(ボクセルデータ)から自車1位置周辺の地図データを切出す機能を有している。この場合、自車位置・方位推定誤差を考慮して、図7に示すように、地図データ切出し領域Amは、レーザレーダ3の検出領域Asよりも大きめに設定される。死角データ除去処理部は、自車位置・方位検出誤差を考慮して、想定されるいずれの自車位置・方位からも死角になる死角データを切出し地図データから削除する機能を有している。後述の図6中、×印を付されたものは、削除される死角データを示している。
The map data
節点抽出及び遮蔽・空間判定処理部12には、前記地図データ切出し等処理部11からの出力データが入力される。この節点抽出及び遮蔽・空間判定処理部12は、切り出した地図データから自車1の進行域におけるガードレール17,電柱18,電源ボックス19等の周辺物(図7参照)の節点(ノード又は端点)mを抽出する節点抽出部と、その節点抽出部が抽出した節点m間の遮蔽・空間の判定処理を行う遮蔽・空間判定処理部と、を備えている。図6は、切り出された地図データから周辺物の節点m(黒丸をもって示す)を抽出した状態を示しており、その節点m間のうち、周辺物が存在する部分(線分をもって結ばれている部分)が遮蔽状態と判定され、節点m間のうち、周辺物が存在しない部分(線分をもって結ばれていない部分)が空間状態と判定されることになる。
The node data extraction / occlusion / space
この場合、地図データに基づく節点m(1)・・・m(numm)は、レーザレーダの検出データに基づく節点s(1)・・・s(nums)に対して対応関係を有するものであるが、図3,図8に示すように、GPS、レーザレーダ3等による誤差のため、両者は合致しないものとなる。
In this case, the nodes m (1)... M (numm) based on the map data have a corresponding relationship with the nodes s (1)... S (nums) based on the detection data of the laser radar. However, as shown in FIGS. 3 and 8, due to errors caused by GPS,
また、処理ユニットUは、図2に示すように、節点マッチング処理部13、自車位置/方位誤差算出処理部14、自車位置算出処理部15を備えている。節点マッチング処理部13には、遮蔽・空間判定処理部8からの節点データと、節点抽出及び遮蔽・空間判定処理部12からの節点データとが入力される。節点マッチング処理部13は、図8に示すように、遮蔽・空間判定処理部8からの節点データと、節点抽出及び遮蔽・空間判定処理部12からの節点データとに基づき、レーザレーダ3の検出データに基づく節点sに対応する節点を、地図データに基づく節点mから検出する処理である。この両節点m、sの対応付けの検出に際しては、節点間の線分の長さを距離としてDPマッチング処理が行われ、そのとき、線分の角度(自車方位の推定誤差)、空間・遮蔽の状態、線分中の点群密度等が考慮され、レーザレーダ3により検出されない点を含む経路については削除される。
Further, as shown in FIG. 2, the processing unit U includes a node
尚、図8中、両方向を向いた矢印は、レーザレーダ3の検出データに基づく線分と、それに対応する地図データに基づく線分の対比を示している。
In FIG. 8, the arrows pointing in both directions indicate a comparison between the line segment based on the detection data of the
自車位置/方位誤差算出処理部14には、節点マッチング処理部13から、対応関係があるとされるレーザレーダ3の検出データに基づく節点s及び地図データに基づく節点mに関するデータが入力される。自車位置/方位誤差算出処理部14は、レーザレーダ3の検出データに基づく各節点sと、それに対応する地図データに基づく各節点mとを(数1)に示す座標変換式に用いて、自車位置及び方位の誤差が算出する。
The vehicle position / orientation error
すなわち、GPSを用いて車両(自車)1位置を検出する場合、測位誤差を含んでおり、これに伴い、その車両からレーザレーダ3等を用いて周辺物の位置(距離、方位等)を検出したとしても、その周辺物の位置は、その車両の位置(GPSによる検出位置)を基礎として算出する限り(GPS座標系の下では)、レーザレーダ3の誤差に加えて、GPSの誤差を含むことになる。
That is, when the position of a vehicle (own vehicle) 1 is detected using GPS, a positioning error is included. Accordingly, the position (distance, azimuth, etc.) of a peripheral object is detected from the vehicle using a
一方、誤差を含むGPS座標系で表される点(ui,vi)と、それに対応する世界座標系の点(xi,yi)との間には、GPS座標系で表される点(ui,vi)の方位誤差をθ、位置誤差をqx、qyとすると、(数1)に示す一般的な座標変換式が成立する。この(数1)に示す関係を図式的に示せば、図9に示す通りである。 On the other hand, between the point (ui, vi) represented in the GPS coordinate system including an error and the corresponding point (xi, yi) in the world coordinate system, the point (ui, vi) represented in the GPS coordinate system. When the azimuth error of vi) is θ and the position errors are qx and qy, the general coordinate conversion formula shown in (Equation 1) is established. If the relationship shown in (Expression 1) is schematically shown, it is as shown in FIG.
このため、n個の物標の位置(GPS座標系)が車両搭載のレーザレーダ3により検出されたときには、それらと、そのn個の物標の地図データに基づく位置(世界座標系)とを、(数1)に用いて、(数2)に示す方程式群を得ることができる。
For this reason, when the positions of the n targets (GPS coordinate system) are detected by the
この(数2)に示す方程式群は、(数3)の行列として置くことができる。 The equation group shown in (Equation 2) can be placed as a matrix of (Equation 3).
ここで、Aの転置行列をtAとすると、tAAに逆行列が存在する場合、(数3)は、(tAA)-1AB=(tAA)-1C ,(tA)-1B=(tAA)-1C,tA(tA)-1B=tA(tAA)-1Cを経て、(数4)を得ることができる。 Here, when a transposed matrix of A and t A, when there is an inverse matrix to t AA, (number 3) is, (t AA) -1 AB = (t AA) -1 C, (t A) - 1 B = ( t AA) −1 C, t A ( t A) −1 B = t A ( t AA) −1 C is obtained through (Equation 4).
このように、自車位置/方位誤差算出処理部14では、上記(数4)を解く処理が行われ、方位誤差θ、位置誤差qx、qyが算出される。尚、(数4)中のtAA、tACを展開すると、(数5)となる。
As described above, the vehicle position / azimuth error
自車位置算出処理部15には、上記自車位置/方位誤差算出処理部14から、方位誤差θ、位置誤差qx、qyの各情報が入力されると共に、自車位置検出処理部9から自車位置情報(GPSによる検出)が入力される。自車位置算出処理部15は、その各情報を(数1)に用いて演算し、これにより、位置精度の高い自車1位置を得る。
The own vehicle position
この精度の高い自車位置情報は、自車位置算出処理部15から利用対象16に出力されて種々のものに利用される。例えば、各車両1の正確な位置情報を車車間通信することによって追突を防止したり、地図データより求める対象物(停止線位置、交差点位置、死角域のガードレール等)と自車1との正確な距離を算出して適正な車両制御を行うことが行われる。
The vehicle position information with high accuracy is output from the vehicle position
次に、前記処理ユニットUの制御内容を、図11に示すフローチャートに基づいて具体的に説明する。尚、図11における符号Sは、ステップを示す。 Next, the control content of the processing unit U will be specifically described based on the flowchart shown in FIG. In addition, the code | symbol S in FIG. 11 shows a step.
S1において、GPSを利用して、自車位置及び方位が検出され、この後、S2におけるエゴモーションによる補間を経て、S3において、図7に示すように、自車位置周辺の地図データの切出しが行われる。次のS5において、その地図データ中から、死角データが除去される。この死角データを除去するに際しては、自車位置・方位の検出誤差を考慮して、想定されるいずれの自車位置・方位からも死角になる死角データのみが削除される(図6の×印参照)。 In S1, the position and direction of the vehicle are detected using GPS, and thereafter, after interpolation by egomotion in S2, map data around the vehicle position is cut out in S3 as shown in FIG. Done. In the next S5, the blind spot data is removed from the map data. When this blind spot data is removed, only the blind spot data that becomes a blind spot from any assumed vehicle position / orientation is deleted in consideration of the detection error of the host vehicle position / orientation (indicated by a cross in FIG. 6). reference).
この後、図6に示すように、S6において、切り出した地図データ(各ボクセルB)から周辺物の節点mが抽出され、次のS7において、その各隣り合う節点m間が遮蔽状態にあるか、又は空間状態にあるかが判定される。 Thereafter, as shown in FIG. 6, in S6, the node m of the peripheral object is extracted from the extracted map data (each voxel B), and in the next S7, whether the adjacent nodes m are in a shielding state or not. Or is in a spatial state.
次に、S8において、レーザレーダ3により周辺物が検出され、次のS10において、図5に示すように、周辺物の節点sが抽出され、その次のS11において、各隣り合う節点s間が遮蔽状態にあるか又は空間状態にあるかが判定される。この後、S12において、地図データに基づく節点mと、レーザレーダ3の検出データに基づく節点sとのマッチング処理(対応付け)が行われる。
Next, in S8, the peripheral object is detected by the
上記節点のマッチング処理について、図10、図12〜図19に基づいて具体的に説明する。尚、図12〜図14における符号Qは、ステップを示す。 The node matching process will be specifically described with reference to FIGS. 10 and 12 to 19. In addition, the code | symbol Q in FIGS. 12-14 shows a step.
地図データに基づく節点mは世界測地系座標系あるいは平面直角座標系(上述の世界座標系)で表されている。一方、レーザレーダ3の検出データに基づく節点sは車両1を基準とした直角座標系(上述のGPS座標系)で表されている。地図データに基づく節点mと、レーザレーダ3の検出データに基づく節点sとのマッチング処理を行うため、Q0において、世界測地系座標系あるいは平面直角座標系(世界座標系)で表されている地図データに基づく節点mの座標を、GPSで検出した車両1の位置座標に基づき、車両1を基準とした直角座標系(GPS座標系)に変換する。
The node m based on the map data is represented by a world geodetic coordinate system or a plane rectangular coordinate system (the above-mentioned world coordinate system). On the other hand, the node s based on the detection data of the
上記、座標変換処理は、車両1を基準とした直角座標系(GPS座標系)で表されているレーザレーダ3の検出データに基づく節点sを、GPSで検出した車両1の位置座標に基づき、世界測地系座標系あるいは平面直角座標系(世界座標系)に変換しても良い。
The coordinate conversion process is based on the position coordinates of the
地図データに基づく節点mと、レーザレーダ3の検出データに基づく節点sとのマッチング処理は、地図データに基づく節点m同士を結んで線分(リンクデータ)を形成すると共に、レーザレーダ3の検出データに基づく節点s同士を結んで線分を形成し、その両者の線分の比較を通じて、対応付けが行われる。このため、先ず、Q1において、線分の初期値設定が行われる。具体的には、図10に示すように、地図データに基づく節点mであって、自車1左側において自車1に最も近い節点mを線分Lmの始点smとして捉え、その始点smをsm←1に設定すると共に、そのm(1)を基準にして、図10中、時計方向に隣り合う節点mを線分Lmの終点emとして捉え、em←sm+1(=2)と設定する。同様に、レーザレーダ3の検出データに基づく節点sであって、自車1左側において自車1に最も近い節点sを線分Lsの始点ssとして捉え、そのssをss←1に設定すると共に、そのs(1)を基準にして、図10中、時計方向に隣り合う節点sを線分Lsの終点esとして捉え、es←ss+1(=2)と設定する。
The matching process between the node m based on the map data and the node s based on the detection data of the
次に、Q2,Q3,Q4において、評価値Fの最小値Fmin、評価値F、一致した線分数linknumが、順次、初期化される。具体的には、Q2において、Fmin←−1と設定され、Q3において、F←0と設定され、Q4において、linknum←0と設定される。 Next, in Q2, Q3, and Q4, the minimum value Fmin of the evaluation value F, the evaluation value F, and the matching line segment number linknum are sequentially initialized. Specifically, Fmin ← −1 is set in Q2, F ← 0 is set in Q3, and linknum ← 0 is set in Q4.
Q4の処理を終えると、地図データの節点m同士を結んだ線分Lm(sm,em)と、レーザレーダ3の検出データの節点同士を結んだ線分Ls(ss,es)とが一致するか否かの処理が、自車1の左側に一番近いものから図10中、時計方向(矢印方向)に向けて順次、行われる。具体的には、先ず最初に、節点m(1)と節点m(2)との間のLm(1,2)と、節点s(1)と節点s(2)との間のLs(1,2)とについて、両線分の状態(空間状態又は遮蔽状態)の同一性、点群密度の差、長さの差、傾きの差の観点から、線分の一致性が判定されることになる。
When the processing of Q4 is finished, the line segment Lm (sm, em) connecting the nodes m of the map data matches the line segment Ls (ss, es) connecting the nodes of the detection data of the
より具体的に説明すれば、Q5において、線分Lm(1,2)及び線分Ls(1,2)が、空間状態であるか又は遮蔽状態であるかの点で同一か否かが判別され、このQ5の判別がNOのときには、同一でないとして、Q14に進み、そこにおいて、線分の更新として、図15に示すように、地図データに基づく線分Lm(sm,em)の終点emはem←em+1、すなわち、Lm(1,3)に更新される。そして、このQ14における更新後、Q15に進み、そのQ15において、地図データに基づく線分Lm(1,3)の終点em(=3)が、切り出した地図データ中から抽出した節点mの個数nummを越えたか否かが判別される。このQ15の判別がNOのときには、線分Lm(1,3)の終点em(=3)が地図データ中から抽出した節点mの個数nummに達しておらず、未だ前述の処理を行う必要があるとして、前記Q5に戻され、このQ15の判別がYESのときには、Q16に進む。 More specifically, in Q5, it is determined whether or not the line segment Lm (1, 2) and the line segment Ls (1, 2) are the same in terms of a spatial state or a shielded state. When the determination of Q5 is NO, it is determined that they are not the same, and the process proceeds to Q14, where the end of the line segment Lm (sm, em) based on the map data is updated as shown in FIG. Is updated to em ← em + 1, that is, Lm (1, 3). Then, after updating in Q14, the process proceeds to Q15. In Q15, the end point em (= 3) of the line segment Lm (1, 3) based on the map data is the number numm of nodes m extracted from the extracted map data. It is determined whether or not the value has been exceeded. When the determination of Q15 is NO, the end point em (= 3) of the line segment Lm (1, 3) has not reached the number numm of the nodes m extracted from the map data, and it is still necessary to perform the above-described processing. If there is, the process returns to Q5. If the determination of Q15 is YES, the process proceeds to Q16.
前記Q5がYESのときには、Q6において、線分Lm(sm,em)とLs(ss,es)中の点群密度の差、すなわち、Lm(1,2)とLs(1,2)との点群密度の差が所定値以下か否かが判別される。そのQ6がNOのときには、点群密度の観点から両線分Lm(1,2)、Ls(1,2)が同一でないとして前記Q14に進み、Q6がYESのときには、Q7において、線分Lm(sm,em)とLs(ss,es)との長さの差、すなわちLm(1,2)とLs(1,2)との長さの差が所定値以下か否かが判別される。このQ7がNOのときには、線分の長さの観点から両線分Lm(1,2)、Ls(1,2)が一致しないとして前記Q14に進み、Q7がYESのときには、Q8において、線分Lm(sm,em)とLs(ss,es)の傾きの差、すなわちLm(1,2)とLs(1,2)との傾きの差が所定値以下か否かが判別される。このQ8がNOのときには、傾きの観点から、両線分Lm(1,2)、Ls(1,2)が一致しないとして前記Q14に進む一方、Q8がYESのときには、両線分Lm(1,2)、Ls(1,2)が一致するとして(一組の一致線分)、Q9において、両線分の差分の絶対値d(Lm(sm,em),Ls(ss,es))、すなわちd(Lm(1,2),Ls(1,2))を評価値Fに加算したものを評価値Fとする。この場合、上記Q6〜Q8における各所定値には、両線分Lm(sm,em)、Ls(ss,es)が一致するとして許容できるものが適宜設定される。 When Q5 is YES, in Q6, the difference between the point group densities in the line segments Lm (sm, em) and Ls (ss, es), that is, Lm (1,2) and Ls (1,2) It is determined whether or not the difference in point cloud density is equal to or less than a predetermined value. When Q6 is NO, the process advances to Q14 because both line segments Lm (1, 2) and Ls (1, 2) are not the same from the viewpoint of point group density. When Q6 is YES, the line segment Lm is determined at Q7. It is determined whether or not the difference in length between (sm, em) and Ls (ss, es), that is, the difference in length between Lm (1,2) and Ls (1,2) is less than or equal to a predetermined value. . When Q7 is NO, the line segments Lm (1, 2) and Ls (1, 2) do not coincide with each other from the viewpoint of the length of the line segment, and the process proceeds to Q14. When Q7 is YES, It is determined whether or not the difference between the slopes of the minutes Lm (sm, em) and Ls (ss, es), that is, the difference between the slopes of Lm (1,2) and Ls (1,2) is equal to or less than a predetermined value. When Q8 is NO, from the viewpoint of inclination, both line segments Lm (1, 2) and Ls (1, 2) do not coincide with each other and the process proceeds to Q14. When Q8 is YES, both line segments Lm (1 , 2) and Ls (1, 2) match (a set of matching line segments), and in Q9, the absolute value d (Lm (sm, em), Ls (ss, es)) of the difference between both line segments That is, the evaluation value F is obtained by adding d (Lm (1,2), Ls (1,2)) to the evaluation value F. In this case, the predetermined values in the above Q6 to Q8 are appropriately set to be acceptable as long as both line segments Lm (sm, em) and Ls (ss, es) match.
次いで、Q10において、一致した線分数linknum(当初は0)に1が加算されて、それが一致した線分数linknumとされ、次のQ11においては、線分が一致する毎に評価値Fが保存される。次のQ12においては、一致した線分情報を保存すべく、地図データと一致したレーザレーダ3検出に基づく線分の始点ssがstrss(linknum)、地図データと一致したレーザレーダ3検出に基づく線分の終点esがstres(linknum)、レーザレーダ3の検出データと一致した地図データの線分の始点smがstrsm(linknum)、レーザレーダ3の検出データと一致した地図データの線分の終点emがstrem(linknum)としてそれぞれ保存される(線分が1本一致する毎に一致した線分の対応関係の情報を評価値メモリに保存)。
Next, in Q10, 1 is added to the matched line segment linknum (initially 0) to obtain the matched line segment linknum. In Q11, the evaluation value F is stored every time the line segments match. Is done. In the next Q12, in order to save the matched line segment information, the starting point ss based on the
そして、次のQ13においては、図16に示すように、新たな線分同士で比較すべく、地図データに基づく線分Lm(sm,em)の始点smが終点em位置に移動され(sm←em)、線分Lm(sm,em)の終点emが新たな始点emの次の点(節点)に移動される(em←sm+1)。レーザレーダ3の検出データに基づく線分Ls(ss,es)についても、同様に、線分Ls(ss,es)の始点ssが終点es位置に移動され(ss←es)、線分Ls(ss,es)の終点esが新たな始点esの次の点(節点)に移動される(es←ss+1)。このQ13の処理を終えると、前記Q15に進み、地図データに基づく比較すべき線分Lm(sm,em)の終点emが、切出した地図データの最後(地図データに基づく節点の個数numm) に達しないときには、同じ処理を繰り返すべく、前記Q5に戻され、その線分Lm(sm,em)の終点emが、切出した地図データの最後に達したときには、Q16に進む。
Then, in the next Q13, as shown in FIG. 16, the start point sm of the line segment Lm (sm, em) based on the map data is moved to the end point em position in order to compare the new line segments (sm ← em), the end point em of the line segment Lm (sm, em) is moved to the next point (node) of the new start point em (em ← sm + 1). Similarly, for the line segment Ls (ss, es) based on the detection data of the
Q16においては、図17に示すように、地図データに基づく線分Lm(sm,em)の終点がデータの最後に達したときにレーザレーダ3の検出データに基づく新たな線分Ls(ss,es)で比較すべく、線分Ls(ss,es)の終点esが次の節点に移動され(es←es+1)、その新たな線分Ls(ss,es)と比較すべき線分Lm(sm,em)の終点emは、始点smの次の節点に移動される(em←sm+1)。このQ16の処理を終えると、Q17において、レーザレーダ3の検出データに基づく線分Ls(ss,es)の終点esが、そのレーザレーダ3の検出データの最後(レーザレーダ3の検出データに基づく節点の個数nums)に達したか否かが判別される。このQ17の判別がNOのときには、同じ処理を繰り返すべく、前記Q5に戻され、Q17がYESのときには、Q18において、図18に示すように、地図データに基づく線分Lm(sm,em)の始点smが次の節点に移動され(sm←sm+1)、その線分Lm(sm,em)の終点emは新たな始点sm次の節点に移動される(em←sm+1)。このQ18の処理を終えると、Q19において、地図データに基づく線分Lm(sm,em)の始点smが地図データの最後(numm)から2個目に達したか否かが判別される。このQ19がNOのときには、同じ処理を繰り返すべく、前記Q5に戻される一方、Q19がYESのときには、Q20において、図19に示すように、レーザレーダ3の検出データに基づく線分Ls(ss,es)の始点ssが、次の節点に移動され(ss←ss+1)、その線分Ls(ss,es)の終点esが新たな始点ssの次の節点に移動される(es←ss+1)。また、地図データに基づく線分Lm(sm,em)の始点smは、最後に一致した地図データに基づく線分Lm(sm,em)の終点に移動され(sm←strsm(linknum))、その地図データに基づく線分Lm(sm,em)の終点emはその新たな始点smの次の節点に移動される(em←sm+1)。
In Q16, as shown in FIG. 17, when the end point of the line segment Lm (sm, em) based on the map data reaches the end of the data, a new line segment Ls (ss, es), the end point es of the line segment Ls (ss, es) is moved to the next node (es ← es + 1), and the line segment to be compared with the new line segment Ls (ss, es) The end point em of Lm (sm, em) is moved to the next node after the start point sm (em ← sm + 1). When the processing of Q16 is finished, in Q17, the end point es of the line segment Ls (ss, es) based on the detection data of the
上記Q20の処理を終えると、Q21において、レーザレーダ3の検出データに基づく線分Ls(ss,es)の始点ssが、その検出データの最後(節点の個数nums)から2個目に達したか否かが判別される。このQ21がNOのときには、同じ処理を繰り返すべく、前記Q5に戻される一方、Q21がYESのときには、Q22において、両線分の差分の絶対値を加算した評価値Fを、一致した線分数linknumで除し、F/linknumを算出して、線分数に依存することのない一致した線分1本あたりの評価値を求め(すなわち、一致した線分数で正規化する)、このF/linknumが正規化した評価値Fsとして読み込まれる。なお、上記の例は、評価値Fを一致した線分数linknumで除して正規化した評価値Fsとしたが、両線分の差分の値を2乗した上で相加平均し平方根をとった二乗平均平方根(RMS (Root Mean Square))を正規化した評価値Fsとしても良い。
When the processing of Q20 is finished, in Q21, the start point ss of the line segment Ls (ss, es) based on the detection data of the
Q22の処理を終えると、Q23において、Fmin=−1又はFs<Fminであるか否かが判別される。Fsが評価値の最小値Fminよりも小さい場合には、一致している線分の対応関係の情報を更新するためである。この場合、最初は、Fmin=−1より必ずYESとなって、次のQ24に進み、2回目以降はFs<Fminであれば、次のQ24に進むことになる。Q23がYESのときには、Q24において、評価値の最小値FminがQ22のFsとされた上で、Q25において、一致した線分数が更新され(linknummin←linknum)、Q26において、一致した線分情報が更新される(strssmin(1,・・,linknum)←strss(1,・・,linknum),stresmin(1,・・,linknum)←stres(1,・・,linknum),strsmmin(1,・・,linknum)←strsm(1,・・,linknum),stremmin(1,・・,linknum)←strem(1,・・,linknum))。 When the process of Q22 is completed, it is determined in Q23 whether Fmin = −1 or Fs <Fmin. This is because, when Fs is smaller than the minimum value Fmin of the evaluation values, the information on the correspondence relationship between the matching line segments is updated. In this case, first, since Fmin = −1, it is always YES, and the process proceeds to the next Q24. From the second time onward, if Fs <Fmin, the process proceeds to the next Q24. When Q23 is YES, the minimum value Fmin of the evaluation value is set to Fs of Q22 in Q24, the number of matched line segments is updated in Q25 (linknummin ← linknum), and the matched line segment information is displayed in Q26. Updated (strssmin (1, ・ ・, linknum) ← strss (1, ・ ・, linknum), stresmin (1, ・ ・, linknum) ← stres (1, ・ ・, linknum), strsmmin (1, ・ ・, linknum) ← strsm (1, ... linknum), stremmin (1, ... linknum) ← strem (1, ... linknum)).
Q23がNOと判定された場合又はQ26の処理を終えた場合には、Q27に進み、そのQ27において、一致した線分の数linknumが1を越えているか否かが判別される。このQ27がNOのときには、リターンされる一方、Q27がYESのときには、一致したとしてQ12において記憶している線分以降にさらに、近似するものがないかをチェックするべく、Q28〜Q30において、記憶しているss,es,sm,emを読み出し、そこを始点、終点として、さらに近似する線分がないかをチェックすることになる。このため、Q28では一致したとして記憶し、それ以降のチェックが行われていないss,es,sm,emを読み出し、チェックを開始する線分が更新され、Q29では一致した線分数から1本が減算され、Q30においてQ11で一旦、記憶された評価値Fが読み出され、その後、前記Q3に戻されることで、ss,es,sm,emを始点、終点とする線分以降に対して、上記と同様にQ5からQ8によって線分の一致度がチェックされ、上記読み出された評価値Fより、更に小さい評価値が検出された場合は、Q26にてその線分情報が更新記憶される。 When Q23 is determined to be NO or when the processing of Q26 is completed, the process proceeds to Q27, where it is determined whether or not the number of matched line segments linknum exceeds 1. When this Q27 is NO, the routine returns. On the other hand, when Q27 is YES, it is stored in Q28 to Q30 in order to check whether there is any further approximation after the line segment stored in Q12 as coincident. The current ss, es, sm, and em are read out, and the starting point and the ending point are used as a starting point and an ending point, and it is checked whether there are any more approximate line segments. For this reason, it is stored as a match in Q28, ss, es, sm, em that have not been checked after that are read out, and the line segment for starting the check is updated. In Q30, the stored evaluation value F is read once in Q11 in Q30, and then returned to Q3, so that the line segment starting with ss, es, sm, em and the end point is Similarly to the above, the degree of coincidence of the line segment is checked by Q5 to Q8, and if an evaluation value smaller than the read evaluation value F is detected, the line segment information is updated and stored in Q26. .
上記節点のマッチング処理を終えると、S13において、自車位置・方位の誤差算出処理が行われる。この誤差算出処理は、前述した如く、S12の節点マッチング処理により得た地図データに基づく複数の節点mと、それに対応するレーザレーダ3の検出データに基づく各節点sと車両情報を、(数2)〜(数5)に用いることにより算出される処理であり、この誤差算出処理により、方位誤差θ、位置誤差qx、qyが得られる。
When the node matching process is completed, the vehicle position / orientation error calculation process is performed in S13. As described above, the error calculation process includes a plurality of nodes m based on the map data obtained by the node matching process of S12, each node s based on the corresponding detection data of the
この場合、誤差算出処理は、Fsが最小になる節点の組合せとしてQ26にて更新された線分情報に基づき、新たな方位誤差θ、位置誤差qx、qyが算出される。 In this case, in the error calculation process, new azimuth error θ and position errors qx and qy are calculated based on the line segment information updated in Q26 as a combination of nodes that minimizes Fs.
上記S13の誤差算出処理を終えると、S14において、自車位置算出処理が行われる。この自車位置算出処理は、上述の誤差算出処理により得た方位誤差θ、位置誤差qx、qyと、自車位置検出処理部9が検出した自車位置(GPSの検出位置)とを用いることにより、その自車位置検出処理部9が検出した自車位置を補正して、正確な自車1位置を算出するものであり、方位誤差θ、位置誤差qx、qy、さらには、GPSに基づく自車位置を(数1)に用いることにより、世界座標系の下での正確な自車位置が得られることになる。これにより、正確な自車1位置情報に基づき、車車間通信による衝突防止、地図データ、提供情報より得られる対象物と自車との距離を正確に算出して、適切な車両制御が行われる。
When the error calculation process in S13 is completed, the vehicle position calculation process is performed in S14. This vehicle position calculation process uses the azimuth error θ, the position errors qx, qy obtained by the above error calculation process, and the vehicle position (GPS detection position) detected by the vehicle position
したがって、本実施形態においては、ありふれて存在する周辺物の複数の各節点(レーザレーダ3の検出に基づくもの)と、それらに対応する地図データ上の各節点とをそれぞれ対応付け、その複数組の対応する節点を用いることにより、誤差を算出することから、1組の対応する節点を用いる場合等に比べて、方位誤差θ、位置誤差qx、qyの誤差算出精度を高めることができる。このため、車両1の位置補正精度を高めて、車両1の位置情報を精度の高いものにできる。
Therefore, in the present embodiment, a plurality of nodes of peripheral objects that exist in common (based on the detection of the laser radar 3) and each node on the map data corresponding to them are respectively associated, and the plurality of sets Since the error is calculated by using the corresponding nodes, the error calculation accuracy of the azimuth error θ and the position errors qx and qy can be improved as compared with the case of using a set of corresponding nodes. For this reason, the position correction accuracy of the
また、誤差算出に用いる対応する節点として、車両1周囲にありふれて存在する周辺物(多数存在)の節点を利用できることになり、位置補正の頻度を高めることができる。このため、当該車両1の上記高い位置情報精度を、常時、維持できる。
In addition, as a corresponding node used for error calculation, a node of a peripheral object (a large number) existing around the
なお、上記実施形態においては、道路周辺物の節点を検出し、これと地図データとして記憶されている節点を直接、比較するものであったが、これに代えて、道路周辺の道路構造物の位置およびその形状情報を地図データに記憶させ、これらの位置と形状情報から道路周辺構造物のコーナや端点などの特徴点を節点として抽出し、レーザレーダにより検出された道路周辺の構造物の特徴点である節点とを比較するようにしても良い。 In the above embodiment, the nodes around the road are detected and directly compared with the nodes stored as map data. Instead of this, the road structures around the road are compared. Location and shape information is stored in map data, and feature points such as corners and end points of road-side structures are extracted as nodes from these position and shape information, and features of road-side structures detected by laser radar You may make it compare with the node which is a point.
図20は第2実施形態、図21は第3実施形態を示す。この各実施形態において、前記第1実施形態と同一構成要素については同一符号を付してその説明を省略する。 20 shows a second embodiment, and FIG. 21 shows a third embodiment. In each of the embodiments, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
図20に示す第2実施形態は、三次元地図データとしてのボクセルBの変形例を示す。前記第1実施形態においては、ボクセルBを縦(道路の延びる方向)、横、高さが等しいもの(例えば1辺が1m)が用いられていたが、本実施形態においては、走行道路に応じてボクセルBの大きさが変えられている。 The second embodiment shown in FIG. 20 shows a modification of voxel B as 3D map data. In the first embodiment, the voxel B has the same length (the direction in which the road extends), the width, and the height (for example, one side is 1 m). Thus, the size of the voxel B is changed.
すなわち、市街道路(低速走行する場所)においては、ボクセルBとして、縦、横、高さが等しいものが用いられる一方、高速道路や自専道の平均速度の速いところでは、ボクセルとしては、高さ>縦>横の関係をもって形成されたものが用いられる。例えば、高さに対して、縦が1/2,横が1/4のもの等が用いられる。また、郊外道路では、ボクセルとしては、高さ>縦=横の関係をもって形成されたものが用いられる。例えば、高さに対して、縦及び横が共に1/2のもの等が用いられる。これにより、ボクセルBは、車両が高速走行する場合には、車幅方向、車両前後方向で小さい長さのボクセルによるデータが利用されることとなるため、データの更新速度が速くなり、車幅方向の車線逸脱や車両前後方向の衝突回避を精度よく実施することが出来る。 That is, in urban roads (places that travel at low speeds), voxels B that have the same length, width, and height are used. Those formed with a relationship of length> length> width are used. For example, the height is 1/2 and the width is 1/4 with respect to the height. In suburban roads, voxels having a relationship of height> vertical = horizontal are used. For example, one whose height and width are ½ with respect to the height is used. As a result, when the vehicle travels at a high speed, the voxel B uses data of a small length of voxel in the vehicle width direction and the vehicle front-rear direction. It is possible to accurately perform lane departure in the direction and collision avoidance in the vehicle front-rear direction.
図21に示す第3実施形態は、所定高さの対象物(信号機、標識、歩道橋等)20の節点sを利用することにより自車1位置を算出する内容を示している。
The third embodiment shown in FIG. 21 shows the content of calculating the position of the
すなわち、三次元地図データとしてのボクセルBに、所定高さの対象物についての節点の位置情報をも含ませておく一方、レーザレーダ3によりその所定高さの対象物20の節点sの位置を検出するようにすれば、レーザレーダ3による節点の検出が、周囲に存在する車両等1’の影響を受けなくなり、前述の検出方法に基づき自車1位置を的確に検出できることになる。尚、水平方向に対してαの角度をなす矢印は、レーザを示す。
In other words, the voxel B as the three-dimensional map data includes the position information of the node for the object having a predetermined height, while the
以上実施形態について説明したが本発明にあっては、次の態様を包含する。
(1)レーザレーダ3に代えて、監視カメラ(例えばステレオカメラ)を用いること。
(2)自車1の方位については、実施形態においては、GPSセンサ4により検出する自車位置の変化を利用して処理ユニットU(進行方向検出部10)が検出することになっているが、ジャイロセンサ等の方位センサを設けてもよいこと。
Although the embodiments have been described above, the present invention includes the following aspects.
(1) Use a surveillance camera (for example, a stereo camera) instead of the
(2) Although the direction of the
1 車両(移動体)
2 移動体位置検出装置
3 レーザレーダ(周辺物検出手段)
4 GPSセンサ(位置検出手段)
6 ナビゲーション装置(地図データ記憶手段)
7 節点検出処理部(第1節点検出手段)
8 遮蔽・空間判定処理部(第1節点検出手段)
9 自車位置検出処理部(位置検出手段)
11 地図データ切出し等処理部(第2節点検出手段)
12 節点抽出及び遮蔽・空間判定処理部(第2節点検出手段)
13 節点マッチング処理部(第2節点検出手段)
14 自車位置/方位誤差算出処理部(誤差算出手段)
15 自車位置算出処理部(補正手段)
m 地図データ上の節点
s レーザレーダの検出データ上の節点
U 処理ユニット(第1節点検出手段、第2節点検出手段、誤差算出手段、補正手段)
1 Vehicle (moving body)
2 Moving object
4 GPS sensor (position detection means)
6 Navigation device (map data storage means)
7 Node detection processing unit (first node detection means)
8 Shielding / space determination processing unit (first node detection means)
9 Vehicle position detection processing unit (position detection means)
11 Processing unit for extracting map data (second node detection means)
12 Node extraction and occlusion / space determination processing unit (second node detection means)
13 Node matching processing unit (second node detecting means)
14 Vehicle position / orientation error calculation processing unit (error calculation means)
15 Vehicle position calculation processing unit (correction means)
m Node on map data s Node on detection data of laser radar U Processing unit (first node detection means, second node detection means, error calculation means, correction means)
Claims (9)
前記移動体の周囲における周辺物の節点の位置、又は周辺物の位置および形状を記憶する地図データ記憶手段と、
前記移動体の位置を検出する位置検出手段と、
前記移動体の周囲における周辺物を検出する周辺物検出手段と、
前記周辺物検出手段が検出した周辺物の複数の節点の相対的位置を検出する第1節点検出手段と、
前記第1節点検出手段が検出した各節点に対応する節点を、前記地図データ記憶手段が記憶する地図データからそれぞれ検出する第2節点検出手段と、
前記第1節点検出手段が検出した各節点と、該各節点に対応する前記第2節点検出手段が検出した各節点とに基づき、該第2節点検出手段が検出した節点に対する該第1節点検出手段が検出した節点の誤差を算出する誤差算出手段と、
前記誤差算出手段が算出した誤差に基づき、前記位置検出手段が検出した位置を補正する補正手段と、
を備えている、
ことを特徴とする移動体位置検出装置。 In a mobile body position detection device mounted on a mobile body and detecting the position of the mobile body,
Map data storage means for storing the positions of the nodes of the surrounding objects around the moving body, or the positions and shapes of the surrounding objects;
Position detecting means for detecting the position of the moving body;
Peripheral object detection means for detecting a peripheral object around the moving body;
First node detecting means for detecting relative positions of a plurality of nodes of the peripheral object detected by the peripheral object detecting means;
Second node detection means for detecting nodes corresponding to the respective nodes detected by the first node detection means from map data stored in the map data storage means;
Based on each node detected by the first node detection means and each node detected by the second node detection means corresponding to each node, the first node detection for the node detected by the second node detection means An error calculating means for calculating an error of the node detected by the means;
Correction means for correcting the position detected by the position detection means based on the error calculated by the error calculation means;
With
A moving body position detecting device characterized by the above.
前記第2節点検出手段が、前記地図データ記憶手段が記憶する地図データから前記移動体の進行域における地図データを切り出す地図データ切出し処理部と、該地図データ切出し処理部が切り出した地図データから周辺物の節点を抽出する節点抽出部と、前記第1節点検出手段が検出した各節点と前記節点抽出部が抽出した節点とを対応付ける節点マッチング処理部と、を備えている、
ことを特徴とする移動体位置検出装置。 In claim 1,
The second node detection means extracts a map data extraction processing unit for extracting map data in the traveling area of the moving object from the map data stored in the map data storage means, and surroundings from the map data extracted by the map data extraction processing unit A node extraction unit that extracts a node of the object, and a node matching processing unit that associates each node detected by the first node detection unit with the node extracted by the node extraction unit,
A moving body position detecting device characterized by the above.
前記節点マッチング処理部が、前記節点抽出部が抽出した節点間を結ぶ線分と、前記第1節点検出手段が検出する節点間を結ぶ線分とを比較することにより、該第1節点検出手段が検出した各節点に対応する節点を、該節点抽出部が抽出した節点から検出するように設定されている、
ことを特徴とする移動体位置検出装置。 In claim 2,
The node matching processing unit compares the line segment connecting the nodes extracted by the node extraction unit with the line segment connecting the nodes detected by the first node detection unit, thereby the first node detection unit. Is set to detect the node corresponding to each node detected by the node extraction unit extracted from the node,
A moving body position detecting device characterized by the above.
前記節点マッチング処理部は、前記第1節点検出手段が周辺物の複数の節点を検出する度に、該第1節点検出手段が検出する節点間を結ぶ線分と前記節点抽出部が抽出した節点間を結ぶ線分とが一致するものを一組の一致線分として、その一致線分の差分の絶対値を順次、保存すると共に、その差分の絶対値の総和の正規化値を算出して、該正規化値が該正規化値の算出以前の正規化値よりも減少しているか否かを判別するように設定され、
前記誤差算出手段は、前記節点マッチング処理部が前記正規化値の最小値を判定したときに限り、前記各組の一致線分における節点を前記節点マッチング処理部から受け入れて、誤差算出を行うように設定されている、
ことを特徴とする移動体位置検出装置。 In claim 3,
The node matching processing unit extracts a line segment connecting the nodes detected by the first node detection unit and the node extracted by the node extraction unit each time the first node detection unit detects a plurality of nodes of the peripheral object. As a set of matching line segments that match the line segments connecting them, the absolute values of the differences of the matching line segments are sequentially stored, and the normalized value of the sum of the absolute values of the differences is calculated. , Is set to determine whether or not the normalized value is smaller than the normalized value before calculation of the normalized value;
The error calculation means accepts a node in each set of matching line segments from the node matching processing unit and calculates an error only when the node matching processing unit determines the minimum value of the normalized value. Set to
A moving body position detecting device characterized by the above.
前記第2節点検出手段が、さらに死角データ除去部を備え、
前記死角データ除去部が、前記地図データ切出し部が切り出した地図データから、前記周辺物検出手段の死角領域に存在すると推定される死角データを除去するように設定されている、
ことを特徴とする移動体位置検出装置。 In claim 2,
The second node detection means further comprises a blind spot data removal unit,
The blind spot data removing unit is set to remove the blind spot data estimated to exist in the blind spot area of the surrounding object detection means from the map data cut out by the map data cutout unit.
A moving body position detecting device characterized by the above.
前記地図データ記憶手段が、三次元空間を所定の大きさのボクセルに分割して、その各ボクセルの三次元位置座標と、その各ボクセルに含まれる前記周辺物種別の属性データと、該周辺物の節点の位置データと、を記憶している、
ことを特徴とする移動体位置検出装置。 In claim 1,
The map data storage means divides the three-dimensional space into voxels of a predetermined size, the three-dimensional position coordinates of each voxel, the attribute data of the peripheral object type included in each voxel, and the peripheral object The position data of the nodes of
A moving body position detecting device characterized by the above.
前記地図データ記憶手段が、前記周辺物の位置データおよび形状情報を記憶し、前記節点が、前記周辺物の位置データおよび形状情報より求められる、
ことを特徴とする移動体位置検出装置。 In claim 1,
The map data storage means stores the position data and shape information of the peripheral object, and the node is obtained from the position data and shape information of the peripheral object.
A moving body position detecting device characterized by the above.
前記ボクセルの大きさが、道路領域に配置するものに関し、道路種別に異なるように設定されている、
ことを特徴とする移動体位置検出装置。 In claim 6,
The voxel size is set to be different depending on the road type with respect to what is arranged in the road area.
A moving body position detecting device characterized by the above.
前記地図データ記憶手段が、所定高さ以上に位置する周辺物の節点の位置データを含み、
前記周辺物検出手段が、所定高さ以上の周辺物を検出するように設定されている、
ことを特徴とする移動体位置検出装置。
In claim 1,
The map data storage means includes position data of nodes of peripheral objects located above a predetermined height;
The surrounding object detection means is set to detect a surrounding object having a predetermined height or more.
A moving body position detecting device characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010058988A JP2011191239A (en) | 2010-03-16 | 2010-03-16 | Mobile object position detecting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010058988A JP2011191239A (en) | 2010-03-16 | 2010-03-16 | Mobile object position detecting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011191239A true JP2011191239A (en) | 2011-09-29 |
Family
ID=44796319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010058988A Pending JP2011191239A (en) | 2010-03-16 | 2010-03-16 | Mobile object position detecting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011191239A (en) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103256939A (en) * | 2013-04-15 | 2013-08-21 | 李德毅 | Method for information fusion for intelligent vehicle by using variable-grain right-of-way radar map |
KR101487471B1 (en) * | 2012-07-30 | 2015-01-29 | 자동차부품연구원 | System of correcting absolute positioning for the vehicle and method thereof |
KR20150066182A (en) * | 2013-12-06 | 2015-06-16 | 한국전자통신연구원 | Apparatus and Method for Precise Recognition of Position |
JP2016045150A (en) * | 2014-08-26 | 2016-04-04 | 株式会社トプコン | Point group position data processing device, point group position data processing system, point group position data processing method, and program |
JP2016109650A (en) * | 2014-12-10 | 2016-06-20 | 株式会社デンソー | Position estimation system, position estimation method, and position estimation program |
JP2016536613A (en) * | 2013-09-20 | 2016-11-24 | キャタピラー インコーポレイテッドCaterpillar Incorporated | Positioning system using radio frequency signals |
WO2017037752A1 (en) * | 2015-08-28 | 2017-03-09 | 日産自動車株式会社 | Vehicle position estimation device, vehicle position estimation method |
WO2017168472A1 (en) * | 2016-03-30 | 2017-10-05 | パナソニックIpマネジメント株式会社 | Position estimation device, position estimation method, and control program |
JP2018036075A (en) * | 2016-08-29 | 2018-03-08 | 株式会社Soken | Own vehicle position specification device and own vehicle position specification method |
WO2018074419A1 (en) * | 2016-10-21 | 2018-04-26 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
JP2018124687A (en) * | 2017-01-31 | 2018-08-09 | 株式会社トヨタマップマスター | Probe information processing device, probe information processing method, computer program, and recording medium for recording computer program |
JPWO2017072980A1 (en) * | 2015-10-30 | 2018-08-23 | 株式会社小松製作所 | Work machine control system, work machine, work machine management system, and work machine management method |
CN108885105A (en) * | 2016-03-15 | 2018-11-23 | 索尔菲斯研究股份有限公司 | For providing the system and method for vehicle cognition |
JP2018189463A (en) * | 2017-05-01 | 2018-11-29 | 株式会社Soken | Vehicle position estimating device and program |
WO2018221456A1 (en) * | 2017-05-31 | 2018-12-06 | パイオニア株式会社 | Route searching device, control method, program, and storage medium |
KR101927038B1 (en) | 2015-08-28 | 2018-12-07 | 닛산 지도우샤 가부시키가이샤 | Vehicle position estimating apparatus, vehicle position estimating method |
CN108986510A (en) * | 2018-07-31 | 2018-12-11 | 同济大学 | A kind of local dynamic map of intelligence towards crossing realizes system and implementation method |
CN109893833A (en) * | 2019-03-27 | 2019-06-18 | 深圳市瑞源祥橡塑制品有限公司 | Aiming spot acquisition methods, device and its application |
CN110082753A (en) * | 2018-01-25 | 2019-08-02 | Aptiv技术有限公司 | The method for determining vehicle location |
WO2020045057A1 (en) * | 2018-08-31 | 2020-03-05 | パイオニア株式会社 | Posture estimation device, control method, program, and storage medium |
CN110927765A (en) * | 2019-11-19 | 2020-03-27 | 博康智能信息技术有限公司 | Laser radar and satellite navigation fused target online positioning method |
JP2020531831A (en) * | 2017-08-23 | 2020-11-05 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Laser scanning device localization methods, devices, devices and storage media |
WO2020241766A1 (en) * | 2019-05-29 | 2020-12-03 | 株式会社デンソー | Map system, map generating program, storage medium, on-vehicle apparatus, and server |
JP2020197708A (en) * | 2019-05-29 | 2020-12-10 | 株式会社デンソー | Map system, map generation program, storage medium, vehicle device, and server |
JP2021021967A (en) * | 2019-07-24 | 2021-02-18 | 本田技研工業株式会社 | Recognition system, vehicle control system, recognition method, and program |
CN112509297A (en) * | 2020-09-28 | 2021-03-16 | 国网浙江杭州市余杭区供电有限公司 | Intelligent monitoring method and device for preventing external damage of power transmission line |
CN114630416A (en) * | 2020-12-14 | 2022-06-14 | 腾讯科技(深圳)有限公司 | Method, device and equipment for positioning mobile terminal |
JP7274707B1 (en) | 2021-12-13 | 2023-05-17 | アイサンテクノロジー株式会社 | Evaluation system, computer program, and evaluation method |
WO2023149308A1 (en) * | 2022-02-01 | 2023-08-10 | キヤノン株式会社 | Control system, control method, and storage medium |
-
2010
- 2010-03-16 JP JP2010058988A patent/JP2011191239A/en active Pending
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101487471B1 (en) * | 2012-07-30 | 2015-01-29 | 자동차부품연구원 | System of correcting absolute positioning for the vehicle and method thereof |
CN103256939A (en) * | 2013-04-15 | 2013-08-21 | 李德毅 | Method for information fusion for intelligent vehicle by using variable-grain right-of-way radar map |
JP2016536613A (en) * | 2013-09-20 | 2016-11-24 | キャタピラー インコーポレイテッドCaterpillar Incorporated | Positioning system using radio frequency signals |
US10185034B2 (en) | 2013-09-20 | 2019-01-22 | Caterpillar Inc. | Positioning system using radio frequency signals |
KR102003339B1 (en) * | 2013-12-06 | 2019-07-25 | 한국전자통신연구원 | Apparatus and Method for Precise Recognition of Position |
KR20150066182A (en) * | 2013-12-06 | 2015-06-16 | 한국전자통신연구원 | Apparatus and Method for Precise Recognition of Position |
JP2016045150A (en) * | 2014-08-26 | 2016-04-04 | 株式会社トプコン | Point group position data processing device, point group position data processing system, point group position data processing method, and program |
JP2016109650A (en) * | 2014-12-10 | 2016-06-20 | 株式会社デンソー | Position estimation system, position estimation method, and position estimation program |
JPWO2017037752A1 (en) * | 2015-08-28 | 2018-02-22 | 日産自動車株式会社 | Vehicle position estimation device and vehicle position estimation method |
KR101927038B1 (en) | 2015-08-28 | 2018-12-07 | 닛산 지도우샤 가부시키가이샤 | Vehicle position estimating apparatus, vehicle position estimating method |
RU2687103C1 (en) * | 2015-08-28 | 2019-05-07 | Ниссан Мотор Ко., Лтд. | Device for evaluation of position of vehicle and method for estimating position of vehicle |
CN107949768A (en) * | 2015-08-28 | 2018-04-20 | 日产自动车株式会社 | Vehicle location estimating device, vehicle location presumption method |
US10267640B2 (en) | 2015-08-28 | 2019-04-23 | Nissan Motor Co., Ltd. | Vehicle position estimation device, vehicle position estimation method |
EP3343174B1 (en) * | 2015-08-28 | 2020-04-15 | Nissan Motor Co., Ltd. | Vehicle position estimation device, vehicle position estimation method |
CN107949768B (en) * | 2015-08-28 | 2018-10-12 | 日产自动车株式会社 | Vehicle location estimating device, vehicle location estimate method |
WO2017037752A1 (en) * | 2015-08-28 | 2017-03-09 | 日産自動車株式会社 | Vehicle position estimation device, vehicle position estimation method |
JPWO2017072980A1 (en) * | 2015-10-30 | 2018-08-23 | 株式会社小松製作所 | Work machine control system, work machine, work machine management system, and work machine management method |
JP2019510240A (en) * | 2016-03-15 | 2019-04-11 | ソルファイス リサーチ、インコーポレイテッド | System and method for providing vehicle recognition |
CN108885105A (en) * | 2016-03-15 | 2018-11-23 | 索尔菲斯研究股份有限公司 | For providing the system and method for vehicle cognition |
JPWO2017168472A1 (en) * | 2016-03-30 | 2018-04-05 | パナソニックIpマネジメント株式会社 | POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND CONTROL PROGRAM |
WO2017168472A1 (en) * | 2016-03-30 | 2017-10-05 | パナソニックIpマネジメント株式会社 | Position estimation device, position estimation method, and control program |
US10402998B2 (en) | 2016-03-30 | 2019-09-03 | Panasonic Intellectual Property Management Co., Ltd. | Position estimation apparatus and position estimation method |
JP2018036075A (en) * | 2016-08-29 | 2018-03-08 | 株式会社Soken | Own vehicle position specification device and own vehicle position specification method |
WO2018074419A1 (en) * | 2016-10-21 | 2018-04-26 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
JPWO2018074419A1 (en) * | 2016-10-21 | 2019-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
US11416975B2 (en) | 2016-10-21 | 2022-08-16 | Sony Interactive Entertainment Inc. | Information processing apparatus |
JP2018124687A (en) * | 2017-01-31 | 2018-08-09 | 株式会社トヨタマップマスター | Probe information processing device, probe information processing method, computer program, and recording medium for recording computer program |
JP2018189463A (en) * | 2017-05-01 | 2018-11-29 | 株式会社Soken | Vehicle position estimating device and program |
WO2018221456A1 (en) * | 2017-05-31 | 2018-12-06 | パイオニア株式会社 | Route searching device, control method, program, and storage medium |
JP2020531831A (en) * | 2017-08-23 | 2020-11-05 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Laser scanning device localization methods, devices, devices and storage media |
CN110082753A (en) * | 2018-01-25 | 2019-08-02 | Aptiv技术有限公司 | The method for determining vehicle location |
CN108986510A (en) * | 2018-07-31 | 2018-12-11 | 同济大学 | A kind of local dynamic map of intelligence towards crossing realizes system and implementation method |
WO2020045057A1 (en) * | 2018-08-31 | 2020-03-05 | パイオニア株式会社 | Posture estimation device, control method, program, and storage medium |
CN109893833A (en) * | 2019-03-27 | 2019-06-18 | 深圳市瑞源祥橡塑制品有限公司 | Aiming spot acquisition methods, device and its application |
JP2020197708A (en) * | 2019-05-29 | 2020-12-10 | 株式会社デンソー | Map system, map generation program, storage medium, vehicle device, and server |
WO2020241766A1 (en) * | 2019-05-29 | 2020-12-03 | 株式会社デンソー | Map system, map generating program, storage medium, on-vehicle apparatus, and server |
JP7215460B2 (en) | 2019-05-29 | 2023-01-31 | 株式会社デンソー | Map system, map generation program, storage medium, vehicle device and server |
JP7165630B2 (en) | 2019-07-24 | 2022-11-04 | 本田技研工業株式会社 | Recognition system, vehicle control system, recognition method, and program |
JP2021021967A (en) * | 2019-07-24 | 2021-02-18 | 本田技研工業株式会社 | Recognition system, vehicle control system, recognition method, and program |
CN110927765B (en) * | 2019-11-19 | 2022-02-08 | 博康智能信息技术有限公司 | Laser radar and satellite navigation fused target online positioning method |
CN110927765A (en) * | 2019-11-19 | 2020-03-27 | 博康智能信息技术有限公司 | Laser radar and satellite navigation fused target online positioning method |
CN112509297A (en) * | 2020-09-28 | 2021-03-16 | 国网浙江杭州市余杭区供电有限公司 | Intelligent monitoring method and device for preventing external damage of power transmission line |
CN114630416A (en) * | 2020-12-14 | 2022-06-14 | 腾讯科技(深圳)有限公司 | Method, device and equipment for positioning mobile terminal |
CN114630416B (en) * | 2020-12-14 | 2023-03-21 | 腾讯科技(深圳)有限公司 | Method, device and equipment for positioning mobile terminal |
JP7274707B1 (en) | 2021-12-13 | 2023-05-17 | アイサンテクノロジー株式会社 | Evaluation system, computer program, and evaluation method |
JP2023087496A (en) * | 2021-12-13 | 2023-06-23 | アイサンテクノロジー株式会社 | Evaluation system, computer program, and evaluation method |
WO2023149308A1 (en) * | 2022-02-01 | 2023-08-10 | キヤノン株式会社 | Control system, control method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011191239A (en) | Mobile object position detecting device | |
JP5821275B2 (en) | Moving body position detection device | |
CN110632617B (en) | Laser radar point cloud data processing method and device | |
CN109583416B (en) | Pseudo lane line identification method and system | |
JP2019039831A (en) | Automatic driving device | |
US11390272B2 (en) | Parking assistance device | |
JP5821276B2 (en) | Detection device for position and traveling direction of moving body | |
WO2024012212A1 (en) | Environmental perception method, domain controller, storage medium, and vehicle | |
Chetan et al. | An overview of recent progress of lane detection for autonomous driving | |
US20230326168A1 (en) | Perception system for autonomous vehicles | |
JP2008298699A (en) | Own vehicle position recognition device and own vehicle position recognition method | |
JP6989284B2 (en) | Vehicle position estimation device and program | |
CN112744217B (en) | Collision detection method, travel path recommendation device, and storage medium | |
CN113178091B (en) | Safe driving area method, device and network equipment | |
JP6480504B2 (en) | Target recognition system, target recognition method, and program | |
KR102630991B1 (en) | Method for determining driving posision of vehicle, apparatus thereof and driving control system | |
JP5821274B2 (en) | Moving body position detection device | |
US11373389B2 (en) | Partitioning images obtained from an autonomous vehicle camera | |
JP2010108344A (en) | Driving support device | |
JP2008249634A (en) | Object detector | |
KR20230072060A (en) | High precision map data processing and conversion method for autonomous driving | |
JPWO2017216856A1 (en) | Inter-vehicle distance estimation method and inter-vehicle distance estimation apparatus | |
JPH10141954A (en) | Device for detecting obstruction on track for moving body | |
JP2005215964A (en) | Other vehicle detection device and other vehicle detection method | |
US11461922B2 (en) | Depth estimation in images obtained from an autonomous vehicle camera |