JP2011191239A - Mobile object position detecting device - Google Patents

Mobile object position detecting device Download PDF

Info

Publication number
JP2011191239A
JP2011191239A JP2010058988A JP2010058988A JP2011191239A JP 2011191239 A JP2011191239 A JP 2011191239A JP 2010058988 A JP2010058988 A JP 2010058988A JP 2010058988 A JP2010058988 A JP 2010058988A JP 2011191239 A JP2011191239 A JP 2011191239A
Authority
JP
Japan
Prior art keywords
node
map data
nodes
detected
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010058988A
Other languages
Japanese (ja)
Inventor
Satoru Matsuoka
悟 松岡
Toshimi Okazaki
俊実 岡▲崎▼
Shinobu Kato
忍 加藤
Koji Iwase
耕二 岩瀬
Makoto Yoshida
吉田  誠
Kumiko Maebashi
久美子 前橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2010058988A priority Critical patent/JP2011191239A/en
Publication of JP2011191239A publication Critical patent/JP2011191239A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile object position detecting device capable of improving a degree of position information accuracy and always maintaining the high degree of position information accuracy. <P>SOLUTION: A plurality of nodes s of surrounding objects based on data detected by a laser radar 3 are associated with a plurality of nodes m of the surrounding objects on map data, pairs of nodes s and m associated with each other are used to calculate errors θ, qx, and qy on the basis of a coordinate transformation formula, and the position of a vehicle 1 detected by a GPS is corrected on the basis of the errors θ, qx, and qy. Thereby, the errors can be calculated on the basis of a plurality of nodes regarding ubiquitous surrounding objects, can raise a degree of error calculation accuracy, and increase the frequency of position correction. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、移動体位置検出装置に関する。   The present invention relates to a moving body position detection device.

GPS(Global Positioning System)を用いたナビゲーションシステムにおいては、GPSの測位誤差等を考慮し、表示装置における地図上の道路上に自車を表示するべく、特許文献1に示すように、走行軌跡と道路形状とによりマップマッチングが行われている。   In a navigation system using GPS (Global Positioning System), in order to display a vehicle on a road on a map in a display device in consideration of GPS positioning error, etc., as shown in Patent Document 1, Map matching is performed according to the road shape.

ところで、近時、ナビゲーションシステムと移動体の走行制御等とを関連付けて移動体の運転支援を高めることが考えられている。このため、当該移動体の位置情報に関し、マップマッチングを行っている場合の誤差±2〜3m程度の精度では足りず、位置情報精度をより高めることが望まれている。   By the way, recently, it has been considered to increase driving assistance of a moving body by associating a navigation system with traveling control of the moving body. For this reason, with respect to the position information of the moving body, an accuracy of about ± 2 to 3 m is not sufficient when map matching is performed, and it is desired to further improve the position information accuracy.

これに対しては、特許文献2において、絶対位置が既知とされた外部の固定対象物に対する自己の相対位置を、検出手段により検出し、その検出結果に基づき、GPS検出に基づく自己の位置を補正するものが提案されている。これにより、補正後の自己の位置情報の精度は高まる。   In response to this, in Patent Document 2, the self-relative position with respect to an external fixed object whose absolute position is known is detected by the detection means, and based on the detection result, the self-position based on GPS detection is detected. A correction has been proposed. This increases the accuracy of the position information after correction.

特開平6−102052号公報Japanese Patent Laid-Open No. 6-102052 特開2007−218848号公報JP 2007-218848 A

しかし、上記特許文献2に係るものにおいては、絶対位置が既知とされた外部の固定対象物の数自体が少なく、位置補正する頻度は低いものとならざるを得ない。このため、常時、高い位置情報精度を維持することはできない。   However, in the device according to Patent Document 2, the number of external fixed objects whose absolute positions are known is small, and the frequency of position correction must be low. For this reason, high positional information accuracy cannot always be maintained.

また、上記特許文献2に係るものは、1地点(絶対位置が既知とされた外部の固定対象物)に対する相対的距離を検出して、それを用いて誤差算出することにより、位置補正するものであることから、誤差算出精度は高いとはいえず、これに伴い、高い精度の位置情報自体を得ることは難しい。   In addition, the method according to Patent Document 2 described above corrects a position by detecting a relative distance to one point (an external fixed object whose absolute position is known) and calculating an error using the detected distance. Therefore, it cannot be said that the error calculation accuracy is high, and accordingly, it is difficult to obtain highly accurate position information itself.

本発明は、このような事情に鑑みてなされたもので、その技術的課題は、位置情報精度を高めると共に、常時、その高い位置情報精度を維持できる移動体位置検出装置を提供することにある。   The present invention has been made in view of such circumstances, and a technical problem thereof is to provide a moving body position detecting device capable of improving the positional information accuracy and constantly maintaining the high positional information accuracy. .

前記技術的課題を達成するために本発明(請求項1に係る発明)においては、
移動体に搭載されて、該移動体の位置を検出する移動体位置検出装置において、
前記移動体の周囲における周辺物の節点の位置、又は周辺物の位置および形状を記憶する地図データ記憶手段と、
前記移動体の位置を検出する位置検出手段と、
前記移動体の周囲における周辺物を検出する周辺物検出手段と、
前記周辺物検出手段が検出した周辺物の複数の節点の相対的位置を検出する第1節点検出手段と、
前記第1節点検出手段が検出した各節点に対応する節点を、前記地図データ記憶手段が記憶する地図データからそれぞれ検出する第2節点検出手段と、
前記第1節点検出手段が検出した各節点と、該各節点に対応する前記第2節点検出手段が検出した各節点とに基づき、該第2節点検出手段が検出した節点に対する該第1節点検出手段が検出した節点の誤差を算出する誤差算出手段と、
前記誤差算出手段が算出した誤差に基づき、前記位置検出手段が検出した位置を補正する補正手段と、
を備えている、
ことを特徴とする移動体位置検出装置とした構成としてある。この請求項1の好ましい態様としては、請求項2以下の記載の通りとなる。
In order to achieve the technical problem, in the present invention (the invention according to claim 1),
In a mobile body position detection device mounted on a mobile body and detecting the position of the mobile body,
Map data storage means for storing the positions of the nodes of the surrounding objects around the moving body, or the positions and shapes of the surrounding objects;
Position detecting means for detecting the position of the moving body;
Peripheral object detection means for detecting a peripheral object around the moving body;
First node detecting means for detecting relative positions of a plurality of nodes of the peripheral object detected by the peripheral object detecting means;
Second node detection means for detecting nodes corresponding to the respective nodes detected by the first node detection means from map data stored in the map data storage means;
Based on each node detected by the first node detection means and each node detected by the second node detection means corresponding to each node, the first node detection for the node detected by the second node detection means An error calculating means for calculating an error of the node detected by the means;
Correction means for correcting the position detected by the position detection means based on the error calculated by the error calculation means;
With
The moving body position detecting device is characterized by the above. The preferred embodiment of claim 1 is as described in claim 2 and the following.

本発明(請求項1に係る発明)によれば、周辺物検出手段が検出する周辺物の複数の各節点と、地図データ上の各節点、又は周辺物の位置および形状から求められる各節点とをそれぞれ対応させ、その複数組の対応する節点を用いることにより、誤差を算出することから、1組の対応する節点を用いる場合に比べて、誤差算出の精度を高めることができる。このため、当該移動体の位置補正精度を高めることができ、当該移動体の位置情報に関し、その精度を高めることができる。   According to the present invention (the invention according to claim 1), a plurality of nodes of the peripheral object detected by the peripheral object detecting means, each node on the map data, or each node obtained from the position and shape of the peripheral object, Since the error is calculated by using the corresponding nodes of the plurality of pairs, the accuracy of error calculation can be improved as compared with the case of using one set of corresponding nodes. For this reason, the position correction accuracy of the moving body can be increased, and the accuracy of the position information of the moving body can be increased.

また、移動体搭載の周辺物検出手段が検出する周辺物の節点と、地図データ記憶手段が記憶する移動体周囲における当該周辺物の節点又は周辺物の位置および形状から求められる各節点と、を利用して両節点の誤差を算出し、その誤差に基づき、位置検出手段が検出した位置を補正することから、位置補正(誤差算出)に際して、移動体周囲にありふれて存在する周辺物を利用できることになり、位置補正の頻度を高めることができる。このため、当該移動体の位置情報に関し、常時、高い精度を維持できることになる。   Further, the nodes of the peripheral object detected by the peripheral object detection unit mounted on the mobile object, and the nodes obtained from the nodes of the peripheral object or the position and shape of the peripheral object around the mobile object stored by the map data storage unit, Since the error of both nodes is calculated and the position detected by the position detection means is corrected based on the error, peripheral objects that are common around the moving body can be used for position correction (error calculation). Thus, the frequency of position correction can be increased. For this reason, high accuracy can always be maintained with respect to the position information of the moving body.

請求項2に係る発明によれば、第2節点検出手段が、地図データ記憶手段が記憶する地図データから移動体の進行域における地図データを切り出す地図データ切出し処理部と、地図データ切出し処理部が切り出した地図データから周辺物の節点を抽出する節点抽出部と、第1節点検出手段が検出した各節点と節点抽出部が抽出した節点とを対応付ける節点マッチング処理部と、を備えていることから、具体的構成をもって、前記請求項1と同様の作用効果を得ることができる。   According to the invention according to claim 2, the map data extraction processing unit, wherein the second node detection unit extracts the map data in the traveling area of the moving body from the map data stored in the map data storage unit, and the map data extraction processing unit A node extracting unit that extracts the nodes of the peripheral object from the extracted map data; and a node matching processing unit that associates each node detected by the first node detecting unit with the node extracted by the node extracting unit. With the specific configuration, the same effect as that of the first aspect can be obtained.

請求項3に係る発明によれば、節点マッチング処理部が、節点抽出部が抽出した節点間を結ぶ線分と、第1節点検出手段が検出する節点間を結ぶ線分とを比較することにより、第1節点検出手段が検出した各節点に対応する節点を、節点抽出部が抽出した節点から検出するように設定されていることから、節点間を結ぶ線分(リンクデータ)を利用することにより、第1節点検出手段が検出した各節点と、節点抽出部が抽出した節点とを的確に対応付けることができる。このため、誤差算出を確実に行うことができる。   According to the invention of claim 3, the node matching processing unit compares the line segment connecting the nodes extracted by the node extraction unit with the line segment connecting the nodes detected by the first node detection means. Since the node corresponding to each node detected by the first node detecting means is set to be detected from the node extracted by the node extracting unit, a line segment (link data) connecting the nodes is used. Thus, each node detected by the first node detecting means and the node extracted by the node extracting unit can be accurately associated. For this reason, error calculation can be performed reliably.

請求項4に係る発明によれば、節点マッチング処理部は、第1節点検出手段が周辺物の複数の節点を検出する度に、第1節点検出手段が検出する節点間を結ぶ線分と節点抽出部が抽出した節点間を結ぶ線分とが一致するものを一組の一致線分として、その一致線分の差分の絶対値を順次、保存すると共に、その差分の絶対値の総和の正規化値を算出して、該正規化値が該正規化値の算出以前の正規化値よりも減少しているか否かを判別するように設定され、誤差算出手段は、節点マッチング処理部が正規化値の最小値を判定したときに限り、各組の一致線分における節点を節点マッチング処理部から受け入れて、誤差算出を行うように設定されていることから、全体として、一致線分の一致性が高い場合に限り(節点の対応性が高い場合に限り)、その新たな各組の一致線分の始点、終点をなす節点を用いて誤差処理がなされ、それ以外の場合には、誤差処理がなされず、位置検出手段が検出した位置を補正する際には、以前の対応性の高い節点が用いられる。このため、誤差算出の精度が低下して、当該移動体の高い位置情報精度が低下することを防止できる。   According to the fourth aspect of the invention, the node matching processing unit is configured such that each time the first node detecting unit detects a plurality of nodes of the peripheral object, the line segment and the node connecting the nodes detected by the first node detecting unit. The line segment connecting the nodes extracted by the extractor is stored as a set of matching line segments, and the absolute values of the differences between the matching line segments are sequentially stored, and the sum of the absolute values of the differences is normalized. The normalization value is calculated and set to determine whether or not the normalization value is smaller than the normalization value before the calculation of the normalization value. Only when the minimum value of the digitized value is determined, the nodes in each pair of matching line segments are accepted from the node matching processing unit and error calculation is performed. Only when there is a high degree of compatibility (only when the correspondence of nodes is high) ), Error processing is performed using the nodes that form the start point and end point of each new set of matching line segments. In other cases, error processing is not performed, and the position detected by the position detection unit is corrected. The previous highly compatible node is used for. For this reason, it can prevent that the precision of error calculation falls and the high positional information precision of the said mobile body falls.

請求項5に係る発明によれば、第2節点検出手段が、さらに死角データ除去部を備え、死角データ除去部が、地図データ切出し部が切り出した地図データから、周辺物検出手段の死角領域に存在すると推定される死角データを除去するように設定されていることから、第1節点検出手段が検出した各節点と、節点抽出部が抽出した各節点とを対応付ける対応付け負荷(節点マッチング処理負荷)を軽減できる。   According to the invention of claim 5, the second node detecting means further comprises a blind spot data removing unit, and the blind spot data removing part is applied to the blind spot area of the peripheral object detecting means from the map data cut out by the map data cutout part. Since the blind spot data estimated to exist is set to be removed, an association load (node matching processing load) for associating each node detected by the first node detecting means with each node extracted by the node extracting unit ) Can be reduced.

請求項6に係る発明によれば、地図データ記憶手段が、三次元空間を所定の大きさのボクセルに分割して、その各ボクセルの三次元位置座標と、その各ボクセルに含まれる前記周辺物種別の属性データと、該周辺物の節点の位置データと、を記憶していることから、移動体の進行域にありふれて存在する周辺物の複数の節点を誤差算出に利用できることになり、誤差算出精度を高めると共に、位置補正の頻度を高めることができる。このため、ボクセル地図データを用いることにより、具体的に、当該移動体の位置情報精度を高めると共に、常時、その高い位置情報精度を維持できる。   According to the invention of claim 6, the map data storage means divides the three-dimensional space into voxels of a predetermined size, and the three-dimensional position coordinates of each voxel and the peripheral object included in each voxel Since the attribute data of the type and the position data of the nodes of the surrounding objects are stored, a plurality of nodes of the surrounding objects that are common in the moving area of the moving object can be used for error calculation. It is possible to increase the calculation accuracy and increase the frequency of position correction. For this reason, by using the voxel map data, specifically, the positional information accuracy of the mobile body can be increased, and the high positional information accuracy can be constantly maintained.

請求項7に係る発明によれば、前記地図データ記憶手段が、前記周辺物の位置データおよび形状情報を記憶し、前記節点が、前記周辺物の位置データおよび形状情報より求められることから、移動体の進行域にありふれて存在する周辺物の複数の節点を誤差算出に利用できることになり、誤差算出精度を高めると共に、位置補正の頻度を高めることができる。このため、地図データを用いることにより、具体的に、当該移動体の位置情報精度を高めると共に、常時、その高い位置情報精度を維持できる。   According to the invention of claim 7, the map data storage means stores the position data and shape information of the peripheral object, and the node is obtained from the position data and shape information of the peripheral object. It is possible to use a plurality of nodes of peripheral objects that are commonly present in the advancing area of the body for error calculation, so that the error calculation accuracy can be improved and the frequency of position correction can be increased. For this reason, by using map data, while specifically improving the positional information accuracy of the said mobile body, the high positional information accuracy can always be maintained.

請求項8に係る発明によれば、ボクセルの大きさが、道路領域に配置するものに関し、道路種別に異なるように設定されていることから、ボクセルの大きさを、移動体の移動速度に応じたものにでき、移動体の移動速度が異なる場合でも、位置情報精度を高く維持できる。   According to the invention according to claim 8, since the size of the voxel is set so as to be different depending on the road type with respect to what is arranged in the road region, the size of the voxel is set according to the moving speed of the moving object. Even when the moving speed of the moving body is different, the position information accuracy can be maintained high.

請求項9に係る発明によれば、地図データ記憶手段が、所定高さ以上に位置する周辺物の節点の位置データを含み、周辺物検出手段が、所定高さ以上の周辺物を検出するように設定されていることから、他の移動体等の影響を受けることなく周辺物を検出して誤差算出を行うことができ、高い精度の移動体の位置情報を得ることができる。   According to the ninth aspect of the present invention, the map data storage means includes position data of nodes of peripheral objects located at a predetermined height or higher, and the peripheral object detection means detects peripheral objects at a predetermined height or higher. Therefore, it is possible to detect a peripheral object and perform error calculation without being influenced by other moving bodies, and to obtain highly accurate position information of the moving body.

第1実施形態に係る移動体位置検出装置を搭載した車両を平面的に示す図。The figure which shows the vehicle carrying the moving body position detection apparatus which concerns on 1st Embodiment planarly. 実施形態に係る移動体位置検出装置を示す構成図。The block diagram which shows the moving body position detection apparatus which concerns on embodiment. ボクセル地図データに基づく周辺物の節点と、それに対応するレーザレーダの検出データに基づく周辺部の節点との位置ずれを概念的に示す説明図。Explanatory drawing which shows notionally the position shift of the node of the peripheral object based on voxel map data, and the node of the peripheral part based on the detection data of the laser radar corresponding to it. ボクセルを概念的に説明する説明図。Explanatory drawing explaining a voxel conceptually. レーザレーダの検出データにおける節点検出処理、遮蔽・空間判定処理を説明する説明図。Explanatory drawing explaining the node detection process in the detection data of a laser radar, and shielding / space determination process. 地図データにおける節点検出処理、遮蔽・空間判定処理を説明する説明図。Explanatory drawing explaining the node detection process in a map data, and a shielding / space determination process. 地図データの切り出しを説明する説明図。Explanatory drawing explaining extraction of map data. 地図データに基づく節点と、それに対応するレーザレーダの検出データに基づく節点とのマッチング処理を説明する説明図。Explanatory drawing explaining the matching process of the node based on the detection data of the laser radar corresponding to the node based on map data. 方位誤差をθ、位置誤差をqx、qyとした場合におけるGPS座標系と世界座標系との関係を示す説明図。Explanatory drawing which shows the relationship between a GPS coordinate system and a world coordinate system in case an azimuth | direction error is (theta) and a position error is qx, qy. 節点のマッチング処理を説明する説明図。Explanatory drawing explaining the matching process of a node. 移動体位置検出装置の制御例を示すフローチャート。The flowchart which shows the example of control of a moving body position detection apparatus. 節点のマッチング処理例を示すフローチャート。The flowchart which shows the example of a matching process of a node. 図12の続きを示すフローチャート。The flowchart which shows the continuation of FIG. 図13の続きを示すフローチャート。14 is a flowchart showing a continuation of FIG. ステップQ14の処理を説明する説明図。Explanatory drawing explaining the process of step Q14. ステップQ13の処理を説明する説明図。Explanatory drawing explaining the process of step Q13. ステップQ16の処理を説明する説明図。Explanatory drawing explaining the process of step Q16. ステップQ18の処理を説明する説明図。Explanatory drawing explaining the process of step Q18. ステップQ20の処理を説明する説明図。Explanatory drawing explaining the process of step Q20. 第2実施形態に係るボクセル地図データを概念的に示す説明図。Explanatory drawing which shows notion the voxel map data which concern on 2nd Embodiment. 第3実施形態を説明する説明図。Explanatory drawing explaining 3rd Embodiment.

以下、本発明の実施形態について、図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1〜図19は第1実施形態を示す。この第1実施形態を示す図1において、符号1は移動体としての車両(自車)であり、この車両1には、自車位置、方位を精度良く検出できる実施形態に係る移動体位置検出装置2が搭載されている。この移動体位置検出装置2は、周辺物検出手段としてのレーザレーダ3と、位置検出手段としてのGPSセンサ4と、地図データ記憶手段としてのナビゲーション装置6と、それらからの各種情報を入力情報として、自車1位置の検出処理を実行する処理ユニットU(図2参照)と、が備えられている。   1 to 19 show a first embodiment. In FIG. 1 showing the first embodiment, reference numeral 1 denotes a vehicle (own vehicle) as a moving body, and the vehicle 1 has a moving body position detection according to an embodiment capable of accurately detecting the position and direction of the own vehicle. The device 2 is mounted. The moving body position detection device 2 includes a laser radar 3 as a peripheral object detection means, a GPS sensor 4 as a position detection means, a navigation device 6 as a map data storage means, and various information from them as input information. , And a processing unit U (see FIG. 2) that performs detection processing of the position of the host vehicle.

前記レーザレーダ3は、レーザの照射及びその反射波の検出に基づいて、自車(車両)1周囲の周辺物の方位、相対的距離を検出するものである。図3は、車両前方における周辺物(周辺物を節点(丸印をもって示す)s(1)・・・s(nums)をもって示す)がレーザレーダ3により検出されたことを概念的に示している。   The laser radar 3 detects the azimuth and relative distance of surrounding objects around the host vehicle (vehicle) 1 based on the laser irradiation and detection of the reflected wave. FIG. 3 conceptually shows that a peripheral object in front of the vehicle (a peripheral object is indicated by a node (indicated by a circle) s (1)... S (nums)) is detected by the laser radar 3. .

前記GPSセンサ4は、GPS衛星からの信号を受信して自車1位置を検出するものである。これにより、自車1位置だけでなく、その検出された自車1位置を利用して、レーザレーダ3が検出した周辺物の位置をも算出することができることになる。この場合、自車1位置については、GPSに基づく測位誤差が生じ、周辺物の位置については、GPS、レーザレーダ3の誤差等が生じることになる。   The GPS sensor 4 receives a signal from a GPS satellite and detects the position of the host vehicle 1. As a result, not only the position of the vehicle 1 but also the position of the peripheral object detected by the laser radar 3 can be calculated using the detected position of the vehicle 1. In this case, a positioning error based on GPS occurs for the position of the own vehicle 1, and errors of GPS and laser radar 3 occur for the positions of the peripheral objects.

前記ナビゲーション装置6は、図4に示すボクセルBを用いて、三次元地図データを記憶している。ボクセルBは、三次元空間を所定の大きさ、例えば一辺1mの立方体に分割したものであり、その各ボクセルBには、その三次元位置座標は勿論、その各ボクセルBに含まれる物体、具体的には、電柱、ガードレール、電源ボックス等の節点(ノード又は端点)の正確な位置座標(世界座標系のもの)が位置データとして含まれている。図4は、概念的に、ボクセルB内に、ボクセルBの中心位置データOと、物体の節点mの位置データとが存在することを示している。また、図3は、各ボクセルBに自車の前方側における物体としての周辺物の節点m(1)・・・m(numm)の正確な位置情報が含まれ、その各ボクセルBから周辺物の節点m(1)・・・m(numm)の位置情報が抽出可能であることを示している。   The navigation device 6 stores three-dimensional map data using a voxel B shown in FIG. The voxel B is obtained by dividing a three-dimensional space into cubes having a predetermined size, for example, 1 m on a side. Each voxel B includes not only the three-dimensional position coordinates but also an object included in each voxel B, specifically Specifically, accurate position coordinates (of the world coordinate system) of nodes (nodes or end points) such as utility poles, guard rails, and power supply boxes are included as position data. FIG. 4 conceptually shows that in the voxel B, the center position data O of the voxel B and the position data of the node m of the object exist. FIG. 3 also shows that each voxel B includes accurate position information of the nodes m (1)... M (numm) of the peripheral object as an object on the front side of the host vehicle. The position information of nodes m (1)... M (numm) can be extracted.

前記処理ユニットUは、図2に示す構成を有しており、その検出処理に基づき、自車1位置を精度良く検出処理できることになっている。   The processing unit U has the configuration shown in FIG. 2, and can detect the position of the host vehicle 1 with high accuracy based on the detection processing.

処理ユニットUは、図2に示すように、節点検出処理部7、遮蔽・空間判定処理部8、自車位置検出処理部9、進行方向検出処理部10、地図データ切出し等処理部11、節点抽出及び遮蔽・空間判定処理部12を備えている。   As shown in FIG. 2, the processing unit U includes a node detection processing unit 7, an occlusion / space determination processing unit 8, a vehicle position detection processing unit 9, a traveling direction detection processing unit 10, a map data cut-out processing unit 11, a node An extraction and shielding / space determination processing unit 12 is provided.

節点検出処理部7には、レーザレーダ3からの出力信号(周辺物の方位、距離等)が入力されており、その節点検出処理部7においては、図3,図5に示すように、レーザレーダ3からの出力信号に基づき、自車1前方における周辺物(電柱、ガードレール、電源ボックス等)の節点(図3では白丸、図5では黒丸をもって示す)s(1)・・・s(nums)の検出処理が行われる。図3,図5において、節点s(1)・・・s(nums)の各間、節点m(1)・・・m(numm)の各間が線分をもって結ばれた状態が示されているが、この各線分は、節点間の部分をリンクとして規定したリンクデータになることを示している。図3中、符号Lmは、地図データに基づく節点間の線分の長さ、Lsは、レーザレーダ3の検出結果に基づく節点間の線分の長さを示している。   The node detection processing unit 7 receives an output signal from the laser radar 3 (direction, distance, etc. of the surrounding object). In the node detection processing unit 7, as shown in FIGS. Based on the output signal from the radar 3, the nodes (indicated by white circles in FIG. 3 and black circles in FIG. 5) of peripheral objects (electric poles, guard rails, power supply boxes, etc.) in front of the vehicle 1 s (1)... S (nums ) Detection processing is performed. 3 and 5, a state is shown in which the nodes s (1)... S (nums) and the nodes m (1). However, each line segment indicates that the link data defines the portion between the nodes as a link. In FIG. 3, the symbol Lm indicates the length of the line segment between the nodes based on the map data, and Ls indicates the length of the line segment between the nodes based on the detection result of the laser radar 3.

遮蔽・空間判定処理部8には、節点検出処理部7からの出力信号が入力されており、その遮蔽・空間判定処理部8においては、判定すべき節点間が遮蔽状態か又は空間状態かの判定処理が行われる。具体的に図5をもって説明すれば、節点s間のうち、周辺物が存在する部分(線分をもって結ばれている部分)が遮蔽状態と判定され、節点s間のうち、周辺物が存在しない部分(線分をもって結ばれていない部分)が空間状態と判定されることになる。   An output signal from the node detection processing unit 7 is input to the shielding / space determination processing unit 8. In the shielding / space determination processing unit 8, whether the node to be determined is in a shielding state or a spatial state is determined. Judgment processing is performed. Specifically, with reference to FIG. 5, a portion where a peripheral object exists between the nodes s (a portion connected by a line segment) is determined to be in a shielding state, and no peripheral object exists between the nodes s. A portion (a portion not connected by a line segment) is determined to be a spatial state.

自車位置検出処理部9には、前記GPSセンサ4からの出力信号が入力されており、自車位置検出処理部9においては、GPSセンサ4からの出力信号に基づき自車1位置が検出される。   An output signal from the GPS sensor 4 is input to the own vehicle position detection processing unit 9, and the own vehicle 1 position is detected based on the output signal from the GPS sensor 4 in the own vehicle position detection processing unit 9. The

進行方向検出処理部10には、上記自車位置検出処理部9における自車位置データが入力されており、進行方向検出処理部10においては、自車位置データに基づき自車1位置の変化を捉えて自車1の進行方向(方位)が検出される。   The traveling direction detection processing unit 10 is input with the own vehicle position data in the own vehicle position detection processing unit 9, and the traveling direction detection processing unit 10 detects the change in the position of the own vehicle 1 based on the own vehicle position data. The traveling direction (azimuth) of the own vehicle 1 is detected.

地図データ切出し等処理部11には、前記ナビゲーション装置6からのボクセル三次元地図データ、前記自車位置検出処理部9からの自車位置データ、前記進行方向検出処理部10からの自車の進行方向データがそれぞれ入力される。この地図データ切出し等処理部11は、具体的には、地図データ切出し処理部、死角データ除去処理部を備えている。地図データ切出し処理部は、ナビゲーション装置6における地図データ(ボクセルデータ)から自車1位置周辺の地図データを切出す機能を有している。この場合、自車位置・方位推定誤差を考慮して、図7に示すように、地図データ切出し領域Amは、レーザレーダ3の検出領域Asよりも大きめに設定される。死角データ除去処理部は、自車位置・方位検出誤差を考慮して、想定されるいずれの自車位置・方位からも死角になる死角データを切出し地図データから削除する機能を有している。後述の図6中、×印を付されたものは、削除される死角データを示している。   The map data cutout processing unit 11 includes voxel three-dimensional map data from the navigation device 6, own vehicle position data from the own vehicle position detection processing unit 9, and progress of the own vehicle from the traveling direction detection processing unit 10. Direction data is input respectively. Specifically, the map data cutout processing unit 11 includes a map data cutout processing unit and a blind spot data removal processing unit. The map data cutout processing unit has a function of cutting out map data around the position of the host vehicle from map data (voxel data) in the navigation device 6. In this case, the map data extraction area Am is set to be larger than the detection area As of the laser radar 3 as shown in FIG. The blind spot data removal processing unit has a function of taking out blind spot data that becomes a blind spot from any assumed vehicle position / orientation and cutting it out from the map data in consideration of the vehicle position / orientation detection error. In FIG. 6 to be described later, those marked with x indicate blind spot data to be deleted.

節点抽出及び遮蔽・空間判定処理部12には、前記地図データ切出し等処理部11からの出力データが入力される。この節点抽出及び遮蔽・空間判定処理部12は、切り出した地図データから自車1の進行域におけるガードレール17,電柱18,電源ボックス19等の周辺物(図7参照)の節点(ノード又は端点)mを抽出する節点抽出部と、その節点抽出部が抽出した節点m間の遮蔽・空間の判定処理を行う遮蔽・空間判定処理部と、を備えている。図6は、切り出された地図データから周辺物の節点m(黒丸をもって示す)を抽出した状態を示しており、その節点m間のうち、周辺物が存在する部分(線分をもって結ばれている部分)が遮蔽状態と判定され、節点m間のうち、周辺物が存在しない部分(線分をもって結ばれていない部分)が空間状態と判定されることになる。   The node data extraction / occlusion / space determination processing unit 12 is supplied with output data from the map data extraction processing unit 11. This node extraction and shielding / space determination processing unit 12 determines the nodes (nodes or end points) of peripheral objects (see FIG. 7) such as the guard rail 17, the power pole 18, and the power supply box 19 in the traveling area of the vehicle 1 from the extracted map data. a node extraction unit that extracts m, and a shielding / space determination processing unit that performs a determination process of shielding / space between the nodes m extracted by the node extraction unit. FIG. 6 shows a state in which a node m (shown with a black circle) of a peripheral object is extracted from the extracted map data, and a portion where the peripheral object exists (connected with a line segment) between the nodes m. (Part) is determined to be in a shielded state, and a part where no peripheral object exists (a part not connected by a line segment) among the nodes m is determined to be a spatial state.

この場合、地図データに基づく節点m(1)・・・m(numm)は、レーザレーダの検出データに基づく節点s(1)・・・s(nums)に対して対応関係を有するものであるが、図3,図8に示すように、GPS、レーザレーダ3等による誤差のため、両者は合致しないものとなる。   In this case, the nodes m (1)... M (numm) based on the map data have a corresponding relationship with the nodes s (1)... S (nums) based on the detection data of the laser radar. However, as shown in FIGS. 3 and 8, due to errors caused by GPS, laser radar 3, etc., they do not match.

また、処理ユニットUは、図2に示すように、節点マッチング処理部13、自車位置/方位誤差算出処理部14、自車位置算出処理部15を備えている。節点マッチング処理部13には、遮蔽・空間判定処理部8からの節点データと、節点抽出及び遮蔽・空間判定処理部12からの節点データとが入力される。節点マッチング処理部13は、図8に示すように、遮蔽・空間判定処理部8からの節点データと、節点抽出及び遮蔽・空間判定処理部12からの節点データとに基づき、レーザレーダ3の検出データに基づく節点sに対応する節点を、地図データに基づく節点mから検出する処理である。この両節点m、sの対応付けの検出に際しては、節点間の線分の長さを距離としてDPマッチング処理が行われ、そのとき、線分の角度(自車方位の推定誤差)、空間・遮蔽の状態、線分中の点群密度等が考慮され、レーザレーダ3により検出されない点を含む経路については削除される。   Further, as shown in FIG. 2, the processing unit U includes a node matching processing unit 13, a host vehicle position / orientation error calculation processing unit 14, and a host vehicle position calculation processing unit 15. The node matching processing unit 13 receives the node data from the shielding / space determination processing unit 8 and the node data from the node extraction and shielding / space determination processing unit 12. As shown in FIG. 8, the node matching processing unit 13 detects the laser radar 3 based on the node data from the shielding / space determination processing unit 8 and the node data from the node extraction and shielding / space determination processing unit 12. This is a process of detecting a node corresponding to the node s based on the data from the node m based on the map data. When detecting the correspondence between the nodes m and s, DP matching processing is performed using the length of the line segment between the nodes as a distance. At that time, the angle of the line segment (estimation error of the vehicle direction), space, The route including the points that are not detected by the laser radar 3 is deleted in consideration of the shielding state, the point group density in the line segment, and the like.

尚、図8中、両方向を向いた矢印は、レーザレーダ3の検出データに基づく線分と、それに対応する地図データに基づく線分の対比を示している。   In FIG. 8, the arrows pointing in both directions indicate a comparison between the line segment based on the detection data of the laser radar 3 and the line segment based on the corresponding map data.

自車位置/方位誤差算出処理部14には、節点マッチング処理部13から、対応関係があるとされるレーザレーダ3の検出データに基づく節点s及び地図データに基づく節点mに関するデータが入力される。自車位置/方位誤差算出処理部14は、レーザレーダ3の検出データに基づく各節点sと、それに対応する地図データに基づく各節点mとを(数1)に示す座標変換式に用いて、自車位置及び方位の誤差が算出する。   The vehicle position / orientation error calculation processing unit 14 receives from the node matching processing unit 13 data related to the node s based on the detection data of the laser radar 3 and the node m based on the map data. . The own vehicle position / orientation error calculation processing unit 14 uses each node s based on the detection data of the laser radar 3 and each node m based on the corresponding map data in the coordinate conversion equation shown in (Equation 1), The error of the vehicle position and direction is calculated.

すなわち、GPSを用いて車両(自車)1位置を検出する場合、測位誤差を含んでおり、これに伴い、その車両からレーザレーダ3等を用いて周辺物の位置(距離、方位等)を検出したとしても、その周辺物の位置は、その車両の位置(GPSによる検出位置)を基礎として算出する限り(GPS座標系の下では)、レーザレーダ3の誤差に加えて、GPSの誤差を含むことになる。   That is, when the position of a vehicle (own vehicle) 1 is detected using GPS, a positioning error is included. Accordingly, the position (distance, azimuth, etc.) of a peripheral object is detected from the vehicle using a laser radar 3 or the like. Even if it is detected, as long as the position of the surrounding object is calculated based on the position of the vehicle (detected position by GPS) (under the GPS coordinate system), in addition to the error of the laser radar 3, the GPS error Will be included.

一方、誤差を含むGPS座標系で表される点(ui,vi)と、それに対応する世界座標系の点(xi,yi)との間には、GPS座標系で表される点(ui,vi)の方位誤差をθ、位置誤差をqx、qyとすると、(数1)に示す一般的な座標変換式が成立する。この(数1)に示す関係を図式的に示せば、図9に示す通りである。   On the other hand, between the point (ui, vi) represented in the GPS coordinate system including an error and the corresponding point (xi, yi) in the world coordinate system, the point (ui, vi) represented in the GPS coordinate system. When the azimuth error of vi) is θ and the position errors are qx and qy, the general coordinate conversion formula shown in (Equation 1) is established. If the relationship shown in (Expression 1) is schematically shown, it is as shown in FIG.

Figure 2011191239
Figure 2011191239

このため、n個の物標の位置(GPS座標系)が車両搭載のレーザレーダ3により検出されたときには、それらと、そのn個の物標の地図データに基づく位置(世界座標系)とを、(数1)に用いて、(数2)に示す方程式群を得ることができる。   For this reason, when the positions of the n targets (GPS coordinate system) are detected by the laser radar 3 mounted on the vehicle, they and the positions (world coordinate system) based on the map data of the n targets are determined. , (Equation 1) can be used to obtain the equation group shown in (Equation 2).

Figure 2011191239
Figure 2011191239

この(数2)に示す方程式群は、(数3)の行列として置くことができる。   The equation group shown in (Equation 2) can be placed as a matrix of (Equation 3).

Figure 2011191239
Figure 2011191239

ここで、Aの転置行列をtAとすると、tAAに逆行列が存在する場合、(数3)は、(tAA)-1AB=(tAA)-1C ,(tA)-1B=(tAA)-1C,tA(tA)-1B=tA(tAA)-1Cを経て、(数4)を得ることができる。 Here, when a transposed matrix of A and t A, when there is an inverse matrix to t AA, (number 3) is, (t AA) -1 AB = (t AA) -1 C, (t A) - 1 B = ( t AA) −1 C, t A ( t A) −1 B = t A ( t AA) −1 C is obtained through (Equation 4).

Figure 2011191239
Figure 2011191239

このように、自車位置/方位誤差算出処理部14では、上記(数4)を解く処理が行われ、方位誤差θ、位置誤差qx、qyが算出される。尚、(数4)中のtAA、tACを展開すると、(数5)となる。 As described above, the vehicle position / azimuth error calculation processing unit 14 performs the process of solving the above (Equation 4), and calculates the azimuth error θ and the position errors qx and qy. When t AA and t AC in (Equation 4) are expanded, (Equation 5) is obtained.

Figure 2011191239
Figure 2011191239

自車位置算出処理部15には、上記自車位置/方位誤差算出処理部14から、方位誤差θ、位置誤差qx、qyの各情報が入力されると共に、自車位置検出処理部9から自車位置情報(GPSによる検出)が入力される。自車位置算出処理部15は、その各情報を(数1)に用いて演算し、これにより、位置精度の高い自車1位置を得る。   The own vehicle position calculation processing unit 15 receives information on the azimuth error θ and the position errors qx and qy from the own vehicle position / azimuth error calculation processing unit 14 and the own vehicle position detection processing unit 9 from the own vehicle position detection processing unit 9. Car position information (detection by GPS) is input. The own vehicle position calculation processing unit 15 calculates each information using (Equation 1), thereby obtaining one position of the own vehicle with high position accuracy.

この精度の高い自車位置情報は、自車位置算出処理部15から利用対象16に出力されて種々のものに利用される。例えば、各車両1の正確な位置情報を車車間通信することによって追突を防止したり、地図データより求める対象物(停止線位置、交差点位置、死角域のガードレール等)と自車1との正確な距離を算出して適正な車両制御を行うことが行われる。   The vehicle position information with high accuracy is output from the vehicle position calculation processing unit 15 to the use target 16 and used for various items. For example, it is possible to prevent rear-end collisions by communicating vehicle-to-vehicle accurate position information of each vehicle 1 or to accurately determine an object (stop line position, intersection position, blind spot guardrail, etc.) obtained from map data and the vehicle 1. A proper distance is calculated and appropriate vehicle control is performed.

次に、前記処理ユニットUの制御内容を、図11に示すフローチャートに基づいて具体的に説明する。尚、図11における符号Sは、ステップを示す。   Next, the control content of the processing unit U will be specifically described based on the flowchart shown in FIG. In addition, the code | symbol S in FIG. 11 shows a step.

S1において、GPSを利用して、自車位置及び方位が検出され、この後、S2におけるエゴモーションによる補間を経て、S3において、図7に示すように、自車位置周辺の地図データの切出しが行われる。次のS5において、その地図データ中から、死角データが除去される。この死角データを除去するに際しては、自車位置・方位の検出誤差を考慮して、想定されるいずれの自車位置・方位からも死角になる死角データのみが削除される(図6の×印参照)。   In S1, the position and direction of the vehicle are detected using GPS, and thereafter, after interpolation by egomotion in S2, map data around the vehicle position is cut out in S3 as shown in FIG. Done. In the next S5, the blind spot data is removed from the map data. When this blind spot data is removed, only the blind spot data that becomes a blind spot from any assumed vehicle position / orientation is deleted in consideration of the detection error of the host vehicle position / orientation (indicated by a cross in FIG. 6). reference).

この後、図6に示すように、S6において、切り出した地図データ(各ボクセルB)から周辺物の節点mが抽出され、次のS7において、その各隣り合う節点m間が遮蔽状態にあるか、又は空間状態にあるかが判定される。   Thereafter, as shown in FIG. 6, in S6, the node m of the peripheral object is extracted from the extracted map data (each voxel B), and in the next S7, whether the adjacent nodes m are in a shielding state or not. Or is in a spatial state.

次に、S8において、レーザレーダ3により周辺物が検出され、次のS10において、図5に示すように、周辺物の節点sが抽出され、その次のS11において、各隣り合う節点s間が遮蔽状態にあるか又は空間状態にあるかが判定される。この後、S12において、地図データに基づく節点mと、レーザレーダ3の検出データに基づく節点sとのマッチング処理(対応付け)が行われる。   Next, in S8, the peripheral object is detected by the laser radar 3, and in the next S10, as shown in FIG. 5, the node s of the peripheral object is extracted, and in the next S11, between the adjacent nodes s. It is determined whether it is in a shielding state or a spatial state. Thereafter, in S12, matching processing (association) between the node m based on the map data and the node s based on the detection data of the laser radar 3 is performed.

上記節点のマッチング処理について、図10、図12〜図19に基づいて具体的に説明する。尚、図12〜図14における符号Qは、ステップを示す。   The node matching process will be specifically described with reference to FIGS. 10 and 12 to 19. In addition, the code | symbol Q in FIGS. 12-14 shows a step.

地図データに基づく節点mは世界測地系座標系あるいは平面直角座標系(上述の世界座標系)で表されている。一方、レーザレーダ3の検出データに基づく節点sは車両1を基準とした直角座標系(上述のGPS座標系)で表されている。地図データに基づく節点mと、レーザレーダ3の検出データに基づく節点sとのマッチング処理を行うため、Q0において、世界測地系座標系あるいは平面直角座標系(世界座標系)で表されている地図データに基づく節点mの座標を、GPSで検出した車両1の位置座標に基づき、車両1を基準とした直角座標系(GPS座標系)に変換する。   The node m based on the map data is represented by a world geodetic coordinate system or a plane rectangular coordinate system (the above-mentioned world coordinate system). On the other hand, the node s based on the detection data of the laser radar 3 is represented by a rectangular coordinate system (the GPS coordinate system described above) with the vehicle 1 as a reference. In order to perform the matching process between the node m based on the map data and the node s based on the detection data of the laser radar 3, the map represented by the world geodetic coordinate system or the plane rectangular coordinate system (world coordinate system) in Q0. The coordinates of the node m based on the data are converted into a rectangular coordinate system (GPS coordinate system) based on the vehicle 1 based on the position coordinates of the vehicle 1 detected by GPS.

上記、座標変換処理は、車両1を基準とした直角座標系(GPS座標系)で表されているレーザレーダ3の検出データに基づく節点sを、GPSで検出した車両1の位置座標に基づき、世界測地系座標系あるいは平面直角座標系(世界座標系)に変換しても良い。   The coordinate conversion process is based on the position coordinates of the vehicle 1 detected by the GPS based on the node s based on the detection data of the laser radar 3 expressed in a rectangular coordinate system (GPS coordinate system) with the vehicle 1 as a reference. You may convert into a world geodetic system coordinate system or a plane rectangular coordinate system (world coordinate system).

地図データに基づく節点mと、レーザレーダ3の検出データに基づく節点sとのマッチング処理は、地図データに基づく節点m同士を結んで線分(リンクデータ)を形成すると共に、レーザレーダ3の検出データに基づく節点s同士を結んで線分を形成し、その両者の線分の比較を通じて、対応付けが行われる。このため、先ず、Q1において、線分の初期値設定が行われる。具体的には、図10に示すように、地図データに基づく節点mであって、自車1左側において自車1に最も近い節点mを線分Lmの始点smとして捉え、その始点smをsm←1に設定すると共に、そのm(1)を基準にして、図10中、時計方向に隣り合う節点mを線分Lmの終点emとして捉え、em←sm+1(=2)と設定する。同様に、レーザレーダ3の検出データに基づく節点sであって、自車1左側において自車1に最も近い節点sを線分Lsの始点ssとして捉え、そのssをss←1に設定すると共に、そのs(1)を基準にして、図10中、時計方向に隣り合う節点sを線分Lsの終点esとして捉え、es←ss+1(=2)と設定する。   The matching process between the node m based on the map data and the node s based on the detection data of the laser radar 3 forms a line segment (link data) by connecting the nodes m based on the map data, and the detection of the laser radar 3. Lines are formed by connecting the nodes s based on the data, and association is performed through comparison between the two line segments. For this reason, first, the initial value of the line segment is set in Q1. Specifically, as shown in FIG. 10, the node m based on the map data, the node m closest to the vehicle 1 on the left side of the vehicle 1 is regarded as the starting point sm of the line segment Lm, and the starting point sm is sm In addition to being set to ← 1, with reference to m (1), the node m adjacent in the clockwise direction in FIG. 10 is regarded as the end point em of the line segment Lm and set to em ← sm + 1 (= 2). Similarly, the node s based on the detection data of the laser radar 3 and the node s closest to the vehicle 1 on the left side of the vehicle 1 is regarded as the starting point ss of the line segment Ls, and the ss is set to ss ← 1. Referring to s (1) as a reference, the node s adjacent in the clockwise direction in FIG. 10 is regarded as the end point es of the line segment Ls, and es ← ss + 1 (= 2) is set.

次に、Q2,Q3,Q4において、評価値Fの最小値Fmin、評価値F、一致した線分数linknumが、順次、初期化される。具体的には、Q2において、Fmin←−1と設定され、Q3において、F←0と設定され、Q4において、linknum←0と設定される。   Next, in Q2, Q3, and Q4, the minimum value Fmin of the evaluation value F, the evaluation value F, and the matching line segment number linknum are sequentially initialized. Specifically, Fmin ← −1 is set in Q2, F ← 0 is set in Q3, and linknum ← 0 is set in Q4.

Q4の処理を終えると、地図データの節点m同士を結んだ線分Lm(sm,em)と、レーザレーダ3の検出データの節点同士を結んだ線分Ls(ss,es)とが一致するか否かの処理が、自車1の左側に一番近いものから図10中、時計方向(矢印方向)に向けて順次、行われる。具体的には、先ず最初に、節点m(1)と節点m(2)との間のLm(1,2)と、節点s(1)と節点s(2)との間のLs(1,2)とについて、両線分の状態(空間状態又は遮蔽状態)の同一性、点群密度の差、長さの差、傾きの差の観点から、線分の一致性が判定されることになる。   When the processing of Q4 is finished, the line segment Lm (sm, em) connecting the nodes m of the map data matches the line segment Ls (ss, es) connecting the nodes of the detection data of the laser radar 3. Whether or not the vehicle 1 is closest to the left side of the host vehicle 1 is sequentially performed in the clockwise direction (arrow direction) in FIG. Specifically, first, Lm (1, 2) between the node m (1) and the node m (2) and Ls (1) between the node s (1) and the node s (2). , 2), the coincidence of the line segments should be determined from the viewpoint of the identity of both line segments (spatial or shielded state), point cloud density differences, length differences, and slope differences. become.

より具体的に説明すれば、Q5において、線分Lm(1,2)及び線分Ls(1,2)が、空間状態であるか又は遮蔽状態であるかの点で同一か否かが判別され、このQ5の判別がNOのときには、同一でないとして、Q14に進み、そこにおいて、線分の更新として、図15に示すように、地図データに基づく線分Lm(sm,em)の終点emはem←em+1、すなわち、Lm(1,3)に更新される。そして、このQ14における更新後、Q15に進み、そのQ15において、地図データに基づく線分Lm(1,3)の終点em(=3)が、切り出した地図データ中から抽出した節点mの個数nummを越えたか否かが判別される。このQ15の判別がNOのときには、線分Lm(1,3)の終点em(=3)が地図データ中から抽出した節点mの個数nummに達しておらず、未だ前述の処理を行う必要があるとして、前記Q5に戻され、このQ15の判別がYESのときには、Q16に進む。   More specifically, in Q5, it is determined whether or not the line segment Lm (1, 2) and the line segment Ls (1, 2) are the same in terms of a spatial state or a shielded state. When the determination of Q5 is NO, it is determined that they are not the same, and the process proceeds to Q14, where the end of the line segment Lm (sm, em) based on the map data is updated as shown in FIG. Is updated to em ← em + 1, that is, Lm (1, 3). Then, after updating in Q14, the process proceeds to Q15. In Q15, the end point em (= 3) of the line segment Lm (1, 3) based on the map data is the number numm of nodes m extracted from the extracted map data. It is determined whether or not the value has been exceeded. When the determination of Q15 is NO, the end point em (= 3) of the line segment Lm (1, 3) has not reached the number numm of the nodes m extracted from the map data, and it is still necessary to perform the above-described processing. If there is, the process returns to Q5. If the determination of Q15 is YES, the process proceeds to Q16.

前記Q5がYESのときには、Q6において、線分Lm(sm,em)とLs(ss,es)中の点群密度の差、すなわち、Lm(1,2)とLs(1,2)との点群密度の差が所定値以下か否かが判別される。そのQ6がNOのときには、点群密度の観点から両線分Lm(1,2)、Ls(1,2)が同一でないとして前記Q14に進み、Q6がYESのときには、Q7において、線分Lm(sm,em)とLs(ss,es)との長さの差、すなわちLm(1,2)とLs(1,2)との長さの差が所定値以下か否かが判別される。このQ7がNOのときには、線分の長さの観点から両線分Lm(1,2)、Ls(1,2)が一致しないとして前記Q14に進み、Q7がYESのときには、Q8において、線分Lm(sm,em)とLs(ss,es)の傾きの差、すなわちLm(1,2)とLs(1,2)との傾きの差が所定値以下か否かが判別される。このQ8がNOのときには、傾きの観点から、両線分Lm(1,2)、Ls(1,2)が一致しないとして前記Q14に進む一方、Q8がYESのときには、両線分Lm(1,2)、Ls(1,2)が一致するとして(一組の一致線分)、Q9において、両線分の差分の絶対値d(Lm(sm,em),Ls(ss,es))、すなわちd(Lm(1,2),Ls(1,2))を評価値Fに加算したものを評価値Fとする。この場合、上記Q6〜Q8における各所定値には、両線分Lm(sm,em)、Ls(ss,es)が一致するとして許容できるものが適宜設定される。   When Q5 is YES, in Q6, the difference between the point group densities in the line segments Lm (sm, em) and Ls (ss, es), that is, Lm (1,2) and Ls (1,2) It is determined whether or not the difference in point cloud density is equal to or less than a predetermined value. When Q6 is NO, the process advances to Q14 because both line segments Lm (1, 2) and Ls (1, 2) are not the same from the viewpoint of point group density. When Q6 is YES, the line segment Lm is determined at Q7. It is determined whether or not the difference in length between (sm, em) and Ls (ss, es), that is, the difference in length between Lm (1,2) and Ls (1,2) is less than or equal to a predetermined value. . When Q7 is NO, the line segments Lm (1, 2) and Ls (1, 2) do not coincide with each other from the viewpoint of the length of the line segment, and the process proceeds to Q14. When Q7 is YES, It is determined whether or not the difference between the slopes of the minutes Lm (sm, em) and Ls (ss, es), that is, the difference between the slopes of Lm (1,2) and Ls (1,2) is equal to or less than a predetermined value. When Q8 is NO, from the viewpoint of inclination, both line segments Lm (1, 2) and Ls (1, 2) do not coincide with each other and the process proceeds to Q14. When Q8 is YES, both line segments Lm (1 , 2) and Ls (1, 2) match (a set of matching line segments), and in Q9, the absolute value d (Lm (sm, em), Ls (ss, es)) of the difference between both line segments That is, the evaluation value F is obtained by adding d (Lm (1,2), Ls (1,2)) to the evaluation value F. In this case, the predetermined values in the above Q6 to Q8 are appropriately set to be acceptable as long as both line segments Lm (sm, em) and Ls (ss, es) match.

次いで、Q10において、一致した線分数linknum(当初は0)に1が加算されて、それが一致した線分数linknumとされ、次のQ11においては、線分が一致する毎に評価値Fが保存される。次のQ12においては、一致した線分情報を保存すべく、地図データと一致したレーザレーダ3検出に基づく線分の始点ssがstrss(linknum)、地図データと一致したレーザレーダ3検出に基づく線分の終点esがstres(linknum)、レーザレーダ3の検出データと一致した地図データの線分の始点smがstrsm(linknum)、レーザレーダ3の検出データと一致した地図データの線分の終点emがstrem(linknum)としてそれぞれ保存される(線分が1本一致する毎に一致した線分の対応関係の情報を評価値メモリに保存)。   Next, in Q10, 1 is added to the matched line segment linknum (initially 0) to obtain the matched line segment linknum. In Q11, the evaluation value F is stored every time the line segments match. Is done. In the next Q12, in order to save the matched line segment information, the starting point ss based on the laser radar 3 detection matched with the map data is strss (linknum), the line based on the laser radar 3 detection matched with the map data. The end point es of the minute is stres (linknum), the start point sm of the line of the map data that matches the detection data of the laser radar 3 is the end point em of the line of the map data that matches the detection data of the laser radar 3 and strsm (linknum) Are stored as strem (linknum) (corresponding line segment correspondence information is stored in the evaluation value memory each time one line segment is matched).

そして、次のQ13においては、図16に示すように、新たな線分同士で比較すべく、地図データに基づく線分Lm(sm,em)の始点smが終点em位置に移動され(sm←em)、線分Lm(sm,em)の終点emが新たな始点emの次の点(節点)に移動される(em←sm+1)。レーザレーダ3の検出データに基づく線分Ls(ss,es)についても、同様に、線分Ls(ss,es)の始点ssが終点es位置に移動され(ss←es)、線分Ls(ss,es)の終点esが新たな始点esの次の点(節点)に移動される(es←ss+1)。このQ13の処理を終えると、前記Q15に進み、地図データに基づく比較すべき線分Lm(sm,em)の終点emが、切出した地図データの最後(地図データに基づく節点の個数numm) に達しないときには、同じ処理を繰り返すべく、前記Q5に戻され、その線分Lm(sm,em)の終点emが、切出した地図データの最後に達したときには、Q16に進む。   Then, in the next Q13, as shown in FIG. 16, the start point sm of the line segment Lm (sm, em) based on the map data is moved to the end point em position in order to compare the new line segments (sm ← em), the end point em of the line segment Lm (sm, em) is moved to the next point (node) of the new start point em (em ← sm + 1). Similarly, for the line segment Ls (ss, es) based on the detection data of the laser radar 3, the start point ss of the line segment Ls (ss, es) is moved to the end point es position (ss ← es), and the line segment Ls ( The end point es of ss, es) is moved to the next point (node) of the new start point es (es ← ss + 1). When the processing of Q13 is completed, the process proceeds to Q15, where the end point em of the line segment Lm (sm, em) to be compared based on the map data is at the end of the extracted map data (number of nodes numm based on the map data). If not, the process returns to Q5 to repeat the same process, and when the end point em of the line segment Lm (sm, em) reaches the end of the extracted map data, the process proceeds to Q16.

Q16においては、図17に示すように、地図データに基づく線分Lm(sm,em)の終点がデータの最後に達したときにレーザレーダ3の検出データに基づく新たな線分Ls(ss,es)で比較すべく、線分Ls(ss,es)の終点esが次の節点に移動され(es←es+1)、その新たな線分Ls(ss,es)と比較すべき線分Lm(sm,em)の終点emは、始点smの次の節点に移動される(em←sm+1)。このQ16の処理を終えると、Q17において、レーザレーダ3の検出データに基づく線分Ls(ss,es)の終点esが、そのレーザレーダ3の検出データの最後(レーザレーダ3の検出データに基づく節点の個数nums)に達したか否かが判別される。このQ17の判別がNOのときには、同じ処理を繰り返すべく、前記Q5に戻され、Q17がYESのときには、Q18において、図18に示すように、地図データに基づく線分Lm(sm,em)の始点smが次の節点に移動され(sm←sm+1)、その線分Lm(sm,em)の終点emは新たな始点sm次の節点に移動される(em←sm+1)。このQ18の処理を終えると、Q19において、地図データに基づく線分Lm(sm,em)の始点smが地図データの最後(numm)から2個目に達したか否かが判別される。このQ19がNOのときには、同じ処理を繰り返すべく、前記Q5に戻される一方、Q19がYESのときには、Q20において、図19に示すように、レーザレーダ3の検出データに基づく線分Ls(ss,es)の始点ssが、次の節点に移動され(ss←ss+1)、その線分Ls(ss,es)の終点esが新たな始点ssの次の節点に移動される(es←ss+1)。また、地図データに基づく線分Lm(sm,em)の始点smは、最後に一致した地図データに基づく線分Lm(sm,em)の終点に移動され(sm←strsm(linknum))、その地図データに基づく線分Lm(sm,em)の終点emはその新たな始点smの次の節点に移動される(em←sm+1)。   In Q16, as shown in FIG. 17, when the end point of the line segment Lm (sm, em) based on the map data reaches the end of the data, a new line segment Ls (ss, es), the end point es of the line segment Ls (ss, es) is moved to the next node (es ← es + 1), and the line segment to be compared with the new line segment Ls (ss, es) The end point em of Lm (sm, em) is moved to the next node after the start point sm (em ← sm + 1). When the processing of Q16 is finished, in Q17, the end point es of the line segment Ls (ss, es) based on the detection data of the laser radar 3 is the last of the detection data of the laser radar 3 (based on the detection data of the laser radar 3). It is determined whether or not the number of nodes (nums) has been reached. When the determination of Q17 is NO, the process is returned to Q5 to repeat the same process. When Q17 is YES, the line segment Lm (sm, em) based on the map data is displayed in Q18 as shown in FIG. The start point sm is moved to the next node (sm ← sm + 1), and the end point em of the line segment Lm (sm, em) is moved to the new start point sm-th node (em ← sm + 1). When the processing of Q18 is completed, it is determined in Q19 whether or not the starting point sm of the line segment Lm (sm, em) based on the map data has reached the second from the end (numm) of the map data. When Q19 is NO, the process returns to Q5 so as to repeat the same process, while when Q19 is YES, at Q20, as shown in FIG. 19, a line segment Ls (ss, The start point ss of es) is moved to the next node (ss ← ss + 1), and the end point es of the line segment Ls (ss, es) is moved to the next node of the new start point ss (es ← ss +1). Also, the start point sm of the line segment Lm (sm, em) based on the map data is moved to the end point of the line segment Lm (sm, em) based on the last matched map data (sm ← strsm (linknum)) The end point em of the line segment Lm (sm, em) based on the map data is moved to the node next to the new start point sm (em ← sm + 1).

上記Q20の処理を終えると、Q21において、レーザレーダ3の検出データに基づく線分Ls(ss,es)の始点ssが、その検出データの最後(節点の個数nums)から2個目に達したか否かが判別される。このQ21がNOのときには、同じ処理を繰り返すべく、前記Q5に戻される一方、Q21がYESのときには、Q22において、両線分の差分の絶対値を加算した評価値Fを、一致した線分数linknumで除し、F/linknumを算出して、線分数に依存することのない一致した線分1本あたりの評価値を求め(すなわち、一致した線分数で正規化する)、このF/linknumが正規化した評価値Fsとして読み込まれる。なお、上記の例は、評価値Fを一致した線分数linknumで除して正規化した評価値Fsとしたが、両線分の差分の値を2乗した上で相加平均し平方根をとった二乗平均平方根(RMS (Root Mean Square))を正規化した評価値Fsとしても良い。   When the processing of Q20 is finished, in Q21, the start point ss of the line segment Ls (ss, es) based on the detection data of the laser radar 3 has reached the second from the end of the detection data (number of nodes nums). Is determined. When Q21 is NO, the process is returned to Q5 to repeat the same process. When Q21 is YES, the evaluation value F obtained by adding the absolute values of the differences between the two line segments is used as the matched line segment linknum in Q22. Divide by, calculate F / linknum, find the evaluation value per matched line segment that does not depend on the line number (ie, normalize with the matched line number), and this F / linknum is It is read as a normalized evaluation value Fs. In the above example, the evaluation value Fs is normalized by dividing the evaluation value F by the matched line segment linknum. However, the square root is obtained by arithmetically averaging the difference values of the two line segments. Alternatively, the evaluation value Fs obtained by normalizing the root mean square (RMS) may be used.

Q22の処理を終えると、Q23において、Fmin=−1又はFs<Fminであるか否かが判別される。Fsが評価値の最小値Fminよりも小さい場合には、一致している線分の対応関係の情報を更新するためである。この場合、最初は、Fmin=−1より必ずYESとなって、次のQ24に進み、2回目以降はFs<Fminであれば、次のQ24に進むことになる。Q23がYESのときには、Q24において、評価値の最小値FminがQ22のFsとされた上で、Q25において、一致した線分数が更新され(linknummin←linknum)、Q26において、一致した線分情報が更新される(strssmin(1,・・,linknum)←strss(1,・・,linknum),stresmin(1,・・,linknum)←stres(1,・・,linknum),strsmmin(1,・・,linknum)←strsm(1,・・,linknum),stremmin(1,・・,linknum)←strem(1,・・,linknum))。   When the process of Q22 is completed, it is determined in Q23 whether Fmin = −1 or Fs <Fmin. This is because, when Fs is smaller than the minimum value Fmin of the evaluation values, the information on the correspondence relationship between the matching line segments is updated. In this case, first, since Fmin = −1, it is always YES, and the process proceeds to the next Q24. From the second time onward, if Fs <Fmin, the process proceeds to the next Q24. When Q23 is YES, the minimum value Fmin of the evaluation value is set to Fs of Q22 in Q24, the number of matched line segments is updated in Q25 (linknummin ← linknum), and the matched line segment information is displayed in Q26. Updated (strssmin (1, ・ ・, linknum) ← strss (1, ・ ・, linknum), stresmin (1, ・ ・, linknum) ← stres (1, ・ ・, linknum), strsmmin (1, ・ ・, linknum) ← strsm (1, ... linknum), stremmin (1, ... linknum) ← strem (1, ... linknum)).

Q23がNOと判定された場合又はQ26の処理を終えた場合には、Q27に進み、そのQ27において、一致した線分の数linknumが1を越えているか否かが判別される。このQ27がNOのときには、リターンされる一方、Q27がYESのときには、一致したとしてQ12において記憶している線分以降にさらに、近似するものがないかをチェックするべく、Q28〜Q30において、記憶しているss,es,sm,emを読み出し、そこを始点、終点として、さらに近似する線分がないかをチェックすることになる。このため、Q28では一致したとして記憶し、それ以降のチェックが行われていないss,es,sm,emを読み出し、チェックを開始する線分が更新され、Q29では一致した線分数から1本が減算され、Q30においてQ11で一旦、記憶された評価値Fが読み出され、その後、前記Q3に戻されることで、ss,es,sm,emを始点、終点とする線分以降に対して、上記と同様にQ5からQ8によって線分の一致度がチェックされ、上記読み出された評価値Fより、更に小さい評価値が検出された場合は、Q26にてその線分情報が更新記憶される。   When Q23 is determined to be NO or when the processing of Q26 is completed, the process proceeds to Q27, where it is determined whether or not the number of matched line segments linknum exceeds 1. When this Q27 is NO, the routine returns. On the other hand, when Q27 is YES, it is stored in Q28 to Q30 in order to check whether there is any further approximation after the line segment stored in Q12 as coincident. The current ss, es, sm, and em are read out, and the starting point and the ending point are used as a starting point and an ending point, and it is checked whether there are any more approximate line segments. For this reason, it is stored as a match in Q28, ss, es, sm, em that have not been checked after that are read out, and the line segment for starting the check is updated. In Q30, the stored evaluation value F is read once in Q11 in Q30, and then returned to Q3, so that the line segment starting with ss, es, sm, em and the end point is Similarly to the above, the degree of coincidence of the line segment is checked by Q5 to Q8, and if an evaluation value smaller than the read evaluation value F is detected, the line segment information is updated and stored in Q26. .

上記節点のマッチング処理を終えると、S13において、自車位置・方位の誤差算出処理が行われる。この誤差算出処理は、前述した如く、S12の節点マッチング処理により得た地図データに基づく複数の節点mと、それに対応するレーザレーダ3の検出データに基づく各節点sと車両情報を、(数2)〜(数5)に用いることにより算出される処理であり、この誤差算出処理により、方位誤差θ、位置誤差qx、qyが得られる。   When the node matching process is completed, the vehicle position / orientation error calculation process is performed in S13. As described above, the error calculation process includes a plurality of nodes m based on the map data obtained by the node matching process of S12, each node s based on the corresponding detection data of the laser radar 3, and vehicle information. ) To (Equation 5), and is calculated by using this equation. By this error calculation process, an azimuth error θ and position errors qx and qy are obtained.

この場合、誤差算出処理は、Fsが最小になる節点の組合せとしてQ26にて更新された線分情報に基づき、新たな方位誤差θ、位置誤差qx、qyが算出される。   In this case, in the error calculation process, new azimuth error θ and position errors qx and qy are calculated based on the line segment information updated in Q26 as a combination of nodes that minimizes Fs.

上記S13の誤差算出処理を終えると、S14において、自車位置算出処理が行われる。この自車位置算出処理は、上述の誤差算出処理により得た方位誤差θ、位置誤差qx、qyと、自車位置検出処理部9が検出した自車位置(GPSの検出位置)とを用いることにより、その自車位置検出処理部9が検出した自車位置を補正して、正確な自車1位置を算出するものであり、方位誤差θ、位置誤差qx、qy、さらには、GPSに基づく自車位置を(数1)に用いることにより、世界座標系の下での正確な自車位置が得られることになる。これにより、正確な自車1位置情報に基づき、車車間通信による衝突防止、地図データ、提供情報より得られる対象物と自車との距離を正確に算出して、適切な車両制御が行われる。   When the error calculation process in S13 is completed, the vehicle position calculation process is performed in S14. This vehicle position calculation process uses the azimuth error θ, the position errors qx, qy obtained by the above error calculation process, and the vehicle position (GPS detection position) detected by the vehicle position detection processing unit 9. Thus, the own vehicle position detected by the own vehicle position detection processing unit 9 is corrected to calculate an accurate own vehicle 1 position, which is based on the azimuth error θ, the position errors qx, qy, and further based on GPS. By using the own vehicle position in (Equation 1), an accurate own vehicle position under the world coordinate system can be obtained. Thereby, based on the accurate own vehicle 1 position information, the distance between the object and the subject vehicle obtained from the collision prevention by vehicle-to-vehicle communication, map data, and provided information is accurately calculated, and appropriate vehicle control is performed. .

したがって、本実施形態においては、ありふれて存在する周辺物の複数の各節点(レーザレーダ3の検出に基づくもの)と、それらに対応する地図データ上の各節点とをそれぞれ対応付け、その複数組の対応する節点を用いることにより、誤差を算出することから、1組の対応する節点を用いる場合等に比べて、方位誤差θ、位置誤差qx、qyの誤差算出精度を高めることができる。このため、車両1の位置補正精度を高めて、車両1の位置情報を精度の高いものにできる。   Therefore, in the present embodiment, a plurality of nodes of peripheral objects that exist in common (based on the detection of the laser radar 3) and each node on the map data corresponding to them are respectively associated, and the plurality of sets Since the error is calculated by using the corresponding nodes, the error calculation accuracy of the azimuth error θ and the position errors qx and qy can be improved as compared with the case of using a set of corresponding nodes. For this reason, the position correction accuracy of the vehicle 1 can be improved and the position information of the vehicle 1 can be made highly accurate.

また、誤差算出に用いる対応する節点として、車両1周囲にありふれて存在する周辺物(多数存在)の節点を利用できることになり、位置補正の頻度を高めることができる。このため、当該車両1の上記高い位置情報精度を、常時、維持できる。   In addition, as a corresponding node used for error calculation, a node of a peripheral object (a large number) existing around the vehicle 1 can be used, and the frequency of position correction can be increased. For this reason, the said high positional information accuracy of the said vehicle 1 is always maintainable.

なお、上記実施形態においては、道路周辺物の節点を検出し、これと地図データとして記憶されている節点を直接、比較するものであったが、これに代えて、道路周辺の道路構造物の位置およびその形状情報を地図データに記憶させ、これらの位置と形状情報から道路周辺構造物のコーナや端点などの特徴点を節点として抽出し、レーザレーダにより検出された道路周辺の構造物の特徴点である節点とを比較するようにしても良い。   In the above embodiment, the nodes around the road are detected and directly compared with the nodes stored as map data. Instead of this, the road structures around the road are compared. Location and shape information is stored in map data, and feature points such as corners and end points of road-side structures are extracted as nodes from these position and shape information, and features of road-side structures detected by laser radar You may make it compare with the node which is a point.

図20は第2実施形態、図21は第3実施形態を示す。この各実施形態において、前記第1実施形態と同一構成要素については同一符号を付してその説明を省略する。   20 shows a second embodiment, and FIG. 21 shows a third embodiment. In each of the embodiments, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図20に示す第2実施形態は、三次元地図データとしてのボクセルBの変形例を示す。前記第1実施形態においては、ボクセルBを縦(道路の延びる方向)、横、高さが等しいもの(例えば1辺が1m)が用いられていたが、本実施形態においては、走行道路に応じてボクセルBの大きさが変えられている。   The second embodiment shown in FIG. 20 shows a modification of voxel B as 3D map data. In the first embodiment, the voxel B has the same length (the direction in which the road extends), the width, and the height (for example, one side is 1 m). Thus, the size of the voxel B is changed.

すなわち、市街道路(低速走行する場所)においては、ボクセルBとして、縦、横、高さが等しいものが用いられる一方、高速道路や自専道の平均速度の速いところでは、ボクセルとしては、高さ>縦>横の関係をもって形成されたものが用いられる。例えば、高さに対して、縦が1/2,横が1/4のもの等が用いられる。また、郊外道路では、ボクセルとしては、高さ>縦=横の関係をもって形成されたものが用いられる。例えば、高さに対して、縦及び横が共に1/2のもの等が用いられる。これにより、ボクセルBは、車両が高速走行する場合には、車幅方向、車両前後方向で小さい長さのボクセルによるデータが利用されることとなるため、データの更新速度が速くなり、車幅方向の車線逸脱や車両前後方向の衝突回避を精度よく実施することが出来る。   That is, in urban roads (places that travel at low speeds), voxels B that have the same length, width, and height are used. Those formed with a relationship of length> length> width are used. For example, the height is 1/2 and the width is 1/4 with respect to the height. In suburban roads, voxels having a relationship of height> vertical = horizontal are used. For example, one whose height and width are ½ with respect to the height is used. As a result, when the vehicle travels at a high speed, the voxel B uses data of a small length of voxel in the vehicle width direction and the vehicle front-rear direction. It is possible to accurately perform lane departure in the direction and collision avoidance in the vehicle front-rear direction.

図21に示す第3実施形態は、所定高さの対象物(信号機、標識、歩道橋等)20の節点sを利用することにより自車1位置を算出する内容を示している。   The third embodiment shown in FIG. 21 shows the content of calculating the position of the vehicle 1 by using the node s of an object 20 (a traffic light, a sign, a pedestrian bridge, etc.) having a predetermined height.

すなわち、三次元地図データとしてのボクセルBに、所定高さの対象物についての節点の位置情報をも含ませておく一方、レーザレーダ3によりその所定高さの対象物20の節点sの位置を検出するようにすれば、レーザレーダ3による節点の検出が、周囲に存在する車両等1’の影響を受けなくなり、前述の検出方法に基づき自車1位置を的確に検出できることになる。尚、水平方向に対してαの角度をなす矢印は、レーザを示す。   In other words, the voxel B as the three-dimensional map data includes the position information of the node for the object having a predetermined height, while the laser radar 3 determines the position of the node s of the object 20 having the predetermined height. If it detects, the detection of the node by the laser radar 3 will not be affected by the surrounding vehicle 1 'and the vehicle 1 position can be accurately detected based on the detection method described above. In addition, the arrow which makes the angle of (alpha) with respect to a horizontal direction shows a laser.

以上実施形態について説明したが本発明にあっては、次の態様を包含する。
(1)レーザレーダ3に代えて、監視カメラ(例えばステレオカメラ)を用いること。
(2)自車1の方位については、実施形態においては、GPSセンサ4により検出する自車位置の変化を利用して処理ユニットU(進行方向検出部10)が検出することになっているが、ジャイロセンサ等の方位センサを設けてもよいこと。
Although the embodiments have been described above, the present invention includes the following aspects.
(1) Use a surveillance camera (for example, a stereo camera) instead of the laser radar 3.
(2) Although the direction of the own vehicle 1 is detected by the processing unit U (traveling direction detection unit 10) using the change in the own vehicle position detected by the GPS sensor 4 in the embodiment. An orientation sensor such as a gyro sensor may be provided.

1 車両(移動体)
2 移動体位置検出装置
3 レーザレーダ(周辺物検出手段)
4 GPSセンサ(位置検出手段)
6 ナビゲーション装置(地図データ記憶手段)
7 節点検出処理部(第1節点検出手段)
8 遮蔽・空間判定処理部(第1節点検出手段)
9 自車位置検出処理部(位置検出手段)
11 地図データ切出し等処理部(第2節点検出手段)
12 節点抽出及び遮蔽・空間判定処理部(第2節点検出手段)
13 節点マッチング処理部(第2節点検出手段)
14 自車位置/方位誤差算出処理部(誤差算出手段)
15 自車位置算出処理部(補正手段)
m 地図データ上の節点
s レーザレーダの検出データ上の節点
U 処理ユニット(第1節点検出手段、第2節点検出手段、誤差算出手段、補正手段)

1 Vehicle (moving body)
2 Moving object position detection device 3 Laser radar (peripheral object detection means)
4 GPS sensor (position detection means)
6 Navigation device (map data storage means)
7 Node detection processing unit (first node detection means)
8 Shielding / space determination processing unit (first node detection means)
9 Vehicle position detection processing unit (position detection means)
11 Processing unit for extracting map data (second node detection means)
12 Node extraction and occlusion / space determination processing unit (second node detection means)
13 Node matching processing unit (second node detecting means)
14 Vehicle position / orientation error calculation processing unit (error calculation means)
15 Vehicle position calculation processing unit (correction means)
m Node on map data s Node on detection data of laser radar U Processing unit (first node detection means, second node detection means, error calculation means, correction means)

Claims (9)

移動体に搭載されて、該移動体の位置を検出する移動体位置検出装置において、
前記移動体の周囲における周辺物の節点の位置、又は周辺物の位置および形状を記憶する地図データ記憶手段と、
前記移動体の位置を検出する位置検出手段と、
前記移動体の周囲における周辺物を検出する周辺物検出手段と、
前記周辺物検出手段が検出した周辺物の複数の節点の相対的位置を検出する第1節点検出手段と、
前記第1節点検出手段が検出した各節点に対応する節点を、前記地図データ記憶手段が記憶する地図データからそれぞれ検出する第2節点検出手段と、
前記第1節点検出手段が検出した各節点と、該各節点に対応する前記第2節点検出手段が検出した各節点とに基づき、該第2節点検出手段が検出した節点に対する該第1節点検出手段が検出した節点の誤差を算出する誤差算出手段と、
前記誤差算出手段が算出した誤差に基づき、前記位置検出手段が検出した位置を補正する補正手段と、
を備えている、
ことを特徴とする移動体位置検出装置。
In a mobile body position detection device mounted on a mobile body and detecting the position of the mobile body,
Map data storage means for storing the positions of the nodes of the surrounding objects around the moving body, or the positions and shapes of the surrounding objects;
Position detecting means for detecting the position of the moving body;
Peripheral object detection means for detecting a peripheral object around the moving body;
First node detecting means for detecting relative positions of a plurality of nodes of the peripheral object detected by the peripheral object detecting means;
Second node detection means for detecting nodes corresponding to the respective nodes detected by the first node detection means from map data stored in the map data storage means;
Based on each node detected by the first node detection means and each node detected by the second node detection means corresponding to each node, the first node detection for the node detected by the second node detection means An error calculating means for calculating an error of the node detected by the means;
Correction means for correcting the position detected by the position detection means based on the error calculated by the error calculation means;
With
A moving body position detecting device characterized by the above.
請求項1において、
前記第2節点検出手段が、前記地図データ記憶手段が記憶する地図データから前記移動体の進行域における地図データを切り出す地図データ切出し処理部と、該地図データ切出し処理部が切り出した地図データから周辺物の節点を抽出する節点抽出部と、前記第1節点検出手段が検出した各節点と前記節点抽出部が抽出した節点とを対応付ける節点マッチング処理部と、を備えている、
ことを特徴とする移動体位置検出装置。
In claim 1,
The second node detection means extracts a map data extraction processing unit for extracting map data in the traveling area of the moving object from the map data stored in the map data storage means, and surroundings from the map data extracted by the map data extraction processing unit A node extraction unit that extracts a node of the object, and a node matching processing unit that associates each node detected by the first node detection unit with the node extracted by the node extraction unit,
A moving body position detecting device characterized by the above.
請求項2において、
前記節点マッチング処理部が、前記節点抽出部が抽出した節点間を結ぶ線分と、前記第1節点検出手段が検出する節点間を結ぶ線分とを比較することにより、該第1節点検出手段が検出した各節点に対応する節点を、該節点抽出部が抽出した節点から検出するように設定されている、
ことを特徴とする移動体位置検出装置。
In claim 2,
The node matching processing unit compares the line segment connecting the nodes extracted by the node extraction unit with the line segment connecting the nodes detected by the first node detection unit, thereby the first node detection unit. Is set to detect the node corresponding to each node detected by the node extraction unit extracted from the node,
A moving body position detecting device characterized by the above.
請求項3において、
前記節点マッチング処理部は、前記第1節点検出手段が周辺物の複数の節点を検出する度に、該第1節点検出手段が検出する節点間を結ぶ線分と前記節点抽出部が抽出した節点間を結ぶ線分とが一致するものを一組の一致線分として、その一致線分の差分の絶対値を順次、保存すると共に、その差分の絶対値の総和の正規化値を算出して、該正規化値が該正規化値の算出以前の正規化値よりも減少しているか否かを判別するように設定され、
前記誤差算出手段は、前記節点マッチング処理部が前記正規化値の最小値を判定したときに限り、前記各組の一致線分における節点を前記節点マッチング処理部から受け入れて、誤差算出を行うように設定されている、
ことを特徴とする移動体位置検出装置。
In claim 3,
The node matching processing unit extracts a line segment connecting the nodes detected by the first node detection unit and the node extracted by the node extraction unit each time the first node detection unit detects a plurality of nodes of the peripheral object. As a set of matching line segments that match the line segments connecting them, the absolute values of the differences of the matching line segments are sequentially stored, and the normalized value of the sum of the absolute values of the differences is calculated. , Is set to determine whether or not the normalized value is smaller than the normalized value before calculation of the normalized value;
The error calculation means accepts a node in each set of matching line segments from the node matching processing unit and calculates an error only when the node matching processing unit determines the minimum value of the normalized value. Set to
A moving body position detecting device characterized by the above.
請求項2において、
前記第2節点検出手段が、さらに死角データ除去部を備え、
前記死角データ除去部が、前記地図データ切出し部が切り出した地図データから、前記周辺物検出手段の死角領域に存在すると推定される死角データを除去するように設定されている、
ことを特徴とする移動体位置検出装置。
In claim 2,
The second node detection means further comprises a blind spot data removal unit,
The blind spot data removing unit is set to remove the blind spot data estimated to exist in the blind spot area of the surrounding object detection means from the map data cut out by the map data cutout unit.
A moving body position detecting device characterized by the above.
請求項1において、
前記地図データ記憶手段が、三次元空間を所定の大きさのボクセルに分割して、その各ボクセルの三次元位置座標と、その各ボクセルに含まれる前記周辺物種別の属性データと、該周辺物の節点の位置データと、を記憶している、
ことを特徴とする移動体位置検出装置。
In claim 1,
The map data storage means divides the three-dimensional space into voxels of a predetermined size, the three-dimensional position coordinates of each voxel, the attribute data of the peripheral object type included in each voxel, and the peripheral object The position data of the nodes of
A moving body position detecting device characterized by the above.
請求項1において、
前記地図データ記憶手段が、前記周辺物の位置データおよび形状情報を記憶し、前記節点が、前記周辺物の位置データおよび形状情報より求められる、
ことを特徴とする移動体位置検出装置。
In claim 1,
The map data storage means stores the position data and shape information of the peripheral object, and the node is obtained from the position data and shape information of the peripheral object.
A moving body position detecting device characterized by the above.
請求項6において、
前記ボクセルの大きさが、道路領域に配置するものに関し、道路種別に異なるように設定されている、
ことを特徴とする移動体位置検出装置。
In claim 6,
The voxel size is set to be different depending on the road type with respect to what is arranged in the road area.
A moving body position detecting device characterized by the above.
請求項1において、
前記地図データ記憶手段が、所定高さ以上に位置する周辺物の節点の位置データを含み、
前記周辺物検出手段が、所定高さ以上の周辺物を検出するように設定されている、
ことを特徴とする移動体位置検出装置。

In claim 1,
The map data storage means includes position data of nodes of peripheral objects located above a predetermined height;
The surrounding object detection means is set to detect a surrounding object having a predetermined height or more.
A moving body position detecting device characterized by the above.

JP2010058988A 2010-03-16 2010-03-16 Mobile object position detecting device Pending JP2011191239A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010058988A JP2011191239A (en) 2010-03-16 2010-03-16 Mobile object position detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010058988A JP2011191239A (en) 2010-03-16 2010-03-16 Mobile object position detecting device

Publications (1)

Publication Number Publication Date
JP2011191239A true JP2011191239A (en) 2011-09-29

Family

ID=44796319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010058988A Pending JP2011191239A (en) 2010-03-16 2010-03-16 Mobile object position detecting device

Country Status (1)

Country Link
JP (1) JP2011191239A (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103256939A (en) * 2013-04-15 2013-08-21 李德毅 Method for information fusion for intelligent vehicle by using variable-grain right-of-way radar map
KR101487471B1 (en) * 2012-07-30 2015-01-29 자동차부품연구원 System of correcting absolute positioning for the vehicle and method thereof
KR20150066182A (en) * 2013-12-06 2015-06-16 한국전자통신연구원 Apparatus and Method for Precise Recognition of Position
JP2016045150A (en) * 2014-08-26 2016-04-04 株式会社トプコン Point group position data processing device, point group position data processing system, point group position data processing method, and program
JP2016109650A (en) * 2014-12-10 2016-06-20 株式会社デンソー Position estimation system, position estimation method, and position estimation program
JP2016536613A (en) * 2013-09-20 2016-11-24 キャタピラー インコーポレイテッドCaterpillar Incorporated Positioning system using radio frequency signals
WO2017037752A1 (en) * 2015-08-28 2017-03-09 日産自動車株式会社 Vehicle position estimation device, vehicle position estimation method
WO2017168472A1 (en) * 2016-03-30 2017-10-05 パナソニックIpマネジメント株式会社 Position estimation device, position estimation method, and control program
JP2018036075A (en) * 2016-08-29 2018-03-08 株式会社Soken Own vehicle position specification device and own vehicle position specification method
WO2018074419A1 (en) * 2016-10-21 2018-04-26 株式会社ソニー・インタラクティブエンタテインメント Information processing device
JP2018124687A (en) * 2017-01-31 2018-08-09 株式会社トヨタマップマスター Probe information processing device, probe information processing method, computer program, and recording medium for recording computer program
JPWO2017072980A1 (en) * 2015-10-30 2018-08-23 株式会社小松製作所 Work machine control system, work machine, work machine management system, and work machine management method
CN108885105A (en) * 2016-03-15 2018-11-23 索尔菲斯研究股份有限公司 For providing the system and method for vehicle cognition
JP2018189463A (en) * 2017-05-01 2018-11-29 株式会社Soken Vehicle position estimating device and program
WO2018221456A1 (en) * 2017-05-31 2018-12-06 パイオニア株式会社 Route searching device, control method, program, and storage medium
KR101927038B1 (en) 2015-08-28 2018-12-07 닛산 지도우샤 가부시키가이샤 Vehicle position estimating apparatus, vehicle position estimating method
CN108986510A (en) * 2018-07-31 2018-12-11 同济大学 A kind of local dynamic map of intelligence towards crossing realizes system and implementation method
CN109893833A (en) * 2019-03-27 2019-06-18 深圳市瑞源祥橡塑制品有限公司 Aiming spot acquisition methods, device and its application
CN110082753A (en) * 2018-01-25 2019-08-02 Aptiv技术有限公司 The method for determining vehicle location
WO2020045057A1 (en) * 2018-08-31 2020-03-05 パイオニア株式会社 Posture estimation device, control method, program, and storage medium
CN110927765A (en) * 2019-11-19 2020-03-27 博康智能信息技术有限公司 Laser radar and satellite navigation fused target online positioning method
JP2020531831A (en) * 2017-08-23 2020-11-05 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Laser scanning device localization methods, devices, devices and storage media
WO2020241766A1 (en) * 2019-05-29 2020-12-03 株式会社デンソー Map system, map generating program, storage medium, on-vehicle apparatus, and server
JP2020197708A (en) * 2019-05-29 2020-12-10 株式会社デンソー Map system, map generation program, storage medium, vehicle device, and server
JP2021021967A (en) * 2019-07-24 2021-02-18 本田技研工業株式会社 Recognition system, vehicle control system, recognition method, and program
CN112509297A (en) * 2020-09-28 2021-03-16 国网浙江杭州市余杭区供电有限公司 Intelligent monitoring method and device for preventing external damage of power transmission line
CN114630416A (en) * 2020-12-14 2022-06-14 腾讯科技(深圳)有限公司 Method, device and equipment for positioning mobile terminal
JP7274707B1 (en) 2021-12-13 2023-05-17 アイサンテクノロジー株式会社 Evaluation system, computer program, and evaluation method
WO2023149308A1 (en) * 2022-02-01 2023-08-10 キヤノン株式会社 Control system, control method, and storage medium

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101487471B1 (en) * 2012-07-30 2015-01-29 자동차부품연구원 System of correcting absolute positioning for the vehicle and method thereof
CN103256939A (en) * 2013-04-15 2013-08-21 李德毅 Method for information fusion for intelligent vehicle by using variable-grain right-of-way radar map
JP2016536613A (en) * 2013-09-20 2016-11-24 キャタピラー インコーポレイテッドCaterpillar Incorporated Positioning system using radio frequency signals
US10185034B2 (en) 2013-09-20 2019-01-22 Caterpillar Inc. Positioning system using radio frequency signals
KR102003339B1 (en) * 2013-12-06 2019-07-25 한국전자통신연구원 Apparatus and Method for Precise Recognition of Position
KR20150066182A (en) * 2013-12-06 2015-06-16 한국전자통신연구원 Apparatus and Method for Precise Recognition of Position
JP2016045150A (en) * 2014-08-26 2016-04-04 株式会社トプコン Point group position data processing device, point group position data processing system, point group position data processing method, and program
JP2016109650A (en) * 2014-12-10 2016-06-20 株式会社デンソー Position estimation system, position estimation method, and position estimation program
JPWO2017037752A1 (en) * 2015-08-28 2018-02-22 日産自動車株式会社 Vehicle position estimation device and vehicle position estimation method
KR101927038B1 (en) 2015-08-28 2018-12-07 닛산 지도우샤 가부시키가이샤 Vehicle position estimating apparatus, vehicle position estimating method
RU2687103C1 (en) * 2015-08-28 2019-05-07 Ниссан Мотор Ко., Лтд. Device for evaluation of position of vehicle and method for estimating position of vehicle
CN107949768A (en) * 2015-08-28 2018-04-20 日产自动车株式会社 Vehicle location estimating device, vehicle location presumption method
US10267640B2 (en) 2015-08-28 2019-04-23 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
EP3343174B1 (en) * 2015-08-28 2020-04-15 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
CN107949768B (en) * 2015-08-28 2018-10-12 日产自动车株式会社 Vehicle location estimating device, vehicle location estimate method
WO2017037752A1 (en) * 2015-08-28 2017-03-09 日産自動車株式会社 Vehicle position estimation device, vehicle position estimation method
JPWO2017072980A1 (en) * 2015-10-30 2018-08-23 株式会社小松製作所 Work machine control system, work machine, work machine management system, and work machine management method
JP2019510240A (en) * 2016-03-15 2019-04-11 ソルファイス リサーチ、インコーポレイテッド System and method for providing vehicle recognition
CN108885105A (en) * 2016-03-15 2018-11-23 索尔菲斯研究股份有限公司 For providing the system and method for vehicle cognition
JPWO2017168472A1 (en) * 2016-03-30 2018-04-05 パナソニックIpマネジメント株式会社 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND CONTROL PROGRAM
WO2017168472A1 (en) * 2016-03-30 2017-10-05 パナソニックIpマネジメント株式会社 Position estimation device, position estimation method, and control program
US10402998B2 (en) 2016-03-30 2019-09-03 Panasonic Intellectual Property Management Co., Ltd. Position estimation apparatus and position estimation method
JP2018036075A (en) * 2016-08-29 2018-03-08 株式会社Soken Own vehicle position specification device and own vehicle position specification method
WO2018074419A1 (en) * 2016-10-21 2018-04-26 株式会社ソニー・インタラクティブエンタテインメント Information processing device
JPWO2018074419A1 (en) * 2016-10-21 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント Information processing device
US11416975B2 (en) 2016-10-21 2022-08-16 Sony Interactive Entertainment Inc. Information processing apparatus
JP2018124687A (en) * 2017-01-31 2018-08-09 株式会社トヨタマップマスター Probe information processing device, probe information processing method, computer program, and recording medium for recording computer program
JP2018189463A (en) * 2017-05-01 2018-11-29 株式会社Soken Vehicle position estimating device and program
WO2018221456A1 (en) * 2017-05-31 2018-12-06 パイオニア株式会社 Route searching device, control method, program, and storage medium
JP2020531831A (en) * 2017-08-23 2020-11-05 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Laser scanning device localization methods, devices, devices and storage media
CN110082753A (en) * 2018-01-25 2019-08-02 Aptiv技术有限公司 The method for determining vehicle location
CN108986510A (en) * 2018-07-31 2018-12-11 同济大学 A kind of local dynamic map of intelligence towards crossing realizes system and implementation method
WO2020045057A1 (en) * 2018-08-31 2020-03-05 パイオニア株式会社 Posture estimation device, control method, program, and storage medium
CN109893833A (en) * 2019-03-27 2019-06-18 深圳市瑞源祥橡塑制品有限公司 Aiming spot acquisition methods, device and its application
JP2020197708A (en) * 2019-05-29 2020-12-10 株式会社デンソー Map system, map generation program, storage medium, vehicle device, and server
WO2020241766A1 (en) * 2019-05-29 2020-12-03 株式会社デンソー Map system, map generating program, storage medium, on-vehicle apparatus, and server
JP7215460B2 (en) 2019-05-29 2023-01-31 株式会社デンソー Map system, map generation program, storage medium, vehicle device and server
JP7165630B2 (en) 2019-07-24 2022-11-04 本田技研工業株式会社 Recognition system, vehicle control system, recognition method, and program
JP2021021967A (en) * 2019-07-24 2021-02-18 本田技研工業株式会社 Recognition system, vehicle control system, recognition method, and program
CN110927765B (en) * 2019-11-19 2022-02-08 博康智能信息技术有限公司 Laser radar and satellite navigation fused target online positioning method
CN110927765A (en) * 2019-11-19 2020-03-27 博康智能信息技术有限公司 Laser radar and satellite navigation fused target online positioning method
CN112509297A (en) * 2020-09-28 2021-03-16 国网浙江杭州市余杭区供电有限公司 Intelligent monitoring method and device for preventing external damage of power transmission line
CN114630416A (en) * 2020-12-14 2022-06-14 腾讯科技(深圳)有限公司 Method, device and equipment for positioning mobile terminal
CN114630416B (en) * 2020-12-14 2023-03-21 腾讯科技(深圳)有限公司 Method, device and equipment for positioning mobile terminal
JP7274707B1 (en) 2021-12-13 2023-05-17 アイサンテクノロジー株式会社 Evaluation system, computer program, and evaluation method
JP2023087496A (en) * 2021-12-13 2023-06-23 アイサンテクノロジー株式会社 Evaluation system, computer program, and evaluation method
WO2023149308A1 (en) * 2022-02-01 2023-08-10 キヤノン株式会社 Control system, control method, and storage medium

Similar Documents

Publication Publication Date Title
JP2011191239A (en) Mobile object position detecting device
JP5821275B2 (en) Moving body position detection device
CN110632617B (en) Laser radar point cloud data processing method and device
CN109583416B (en) Pseudo lane line identification method and system
JP2019039831A (en) Automatic driving device
US11390272B2 (en) Parking assistance device
JP5821276B2 (en) Detection device for position and traveling direction of moving body
WO2024012212A1 (en) Environmental perception method, domain controller, storage medium, and vehicle
Chetan et al. An overview of recent progress of lane detection for autonomous driving
US20230326168A1 (en) Perception system for autonomous vehicles
JP2008298699A (en) Own vehicle position recognition device and own vehicle position recognition method
JP6989284B2 (en) Vehicle position estimation device and program
CN112744217B (en) Collision detection method, travel path recommendation device, and storage medium
CN113178091B (en) Safe driving area method, device and network equipment
JP6480504B2 (en) Target recognition system, target recognition method, and program
KR102630991B1 (en) Method for determining driving posision of vehicle, apparatus thereof and driving control system
JP5821274B2 (en) Moving body position detection device
US11373389B2 (en) Partitioning images obtained from an autonomous vehicle camera
JP2010108344A (en) Driving support device
JP2008249634A (en) Object detector
KR20230072060A (en) High precision map data processing and conversion method for autonomous driving
JPWO2017216856A1 (en) Inter-vehicle distance estimation method and inter-vehicle distance estimation apparatus
JPH10141954A (en) Device for detecting obstruction on track for moving body
JP2005215964A (en) Other vehicle detection device and other vehicle detection method
US11461922B2 (en) Depth estimation in images obtained from an autonomous vehicle camera