JP5157067B2 - Automatic travel map creation device and automatic travel device. - Google Patents

Automatic travel map creation device and automatic travel device. Download PDF

Info

Publication number
JP5157067B2
JP5157067B2 JP2006001871A JP2006001871A JP5157067B2 JP 5157067 B2 JP5157067 B2 JP 5157067B2 JP 2006001871 A JP2006001871 A JP 2006001871A JP 2006001871 A JP2006001871 A JP 2006001871A JP 5157067 B2 JP5157067 B2 JP 5157067B2
Authority
JP
Japan
Prior art keywords
vehicle
map
road
error
road component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006001871A
Other languages
Japanese (ja)
Other versions
JP2007183432A (en
Inventor
守 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006001871A priority Critical patent/JP5157067B2/en
Publication of JP2007183432A publication Critical patent/JP2007183432A/en
Application granted granted Critical
Publication of JP5157067B2 publication Critical patent/JP5157067B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、自動走行に利用されるマップを作成するための装置、及び自動走行装置に関する。   The present invention relates to an apparatus for creating a map used for automatic traveling, and an automatic traveling apparatus.

特許文献1,2には、計測装置を搭載した車両が実際に道路を走行することで、道路マップデータを作成する方法が記載されている。この方法では、道路の白線や端を検出し、そこまでの距離の計測値を記録して、道路マップデータを作成する。また、ビデオカメラで撮影した景観を重ね合わせて記録することも行われている。
特開2000−338865号公報 特開2003−329449号公報 特開2002−98758号公報
Patent Documents 1 and 2 describe a method of creating road map data by causing a vehicle equipped with a measuring device to actually travel on a road. In this method, white lines and edges of a road are detected, and a measured value of the distance to the road is recorded to create road map data. In addition, scenes taken with a video camera are recorded in a superimposed manner.
JP 2000-338865 A JP 2003-329449 A JP 2002-98758 A

しかしながら、従来技術に係るマップデータの作成では、作成されたマップデータにGPS誤差やセンサ誤差などが含まれてしまう。また、従来技術に係るマップデータの作成では、道路に沿って駐車車両などの障害物が一時的に存在する場合に、その障害物を避けるために計測車両は迂回するため、障害物がある位置で採取されたマップデータには大きな誤差が含まれてしまう。上述したようにマップデータに大きな誤差が含まれてしまい、正確なマップデータを作成できない場合がある、という問題がある。   However, when creating map data according to the prior art, the created map data includes a GPS error, a sensor error, and the like. In addition, in the creation of map data according to the prior art, when an obstacle such as a parked vehicle temporarily exists along the road, the measurement vehicle detours to avoid the obstacle. The map data collected in step 1 contains a large error. As described above, there is a problem that a large error is included in the map data, and accurate map data may not be created.

そこで、本発明の目的は、誤差が少ないマップデータを作成することができるマップ作成装置を提供することである。   Accordingly, an object of the present invention is to provide a map creation device that can create map data with less error.

また、本発明の他の目的は、精度よく自動走行を行うことができる自動走行装置を提供することである。   Another object of the present invention is to provide an automatic traveling apparatus capable of performing automatic traveling with high accuracy.

上述した目的を達成するために、本発明に係る自動走行用マップ作成装置は、道路に沿った領域が多数の小領域に分割され、各小領域ごとに計測対象の存在を示す重みが対応付けられるマップが記憶された記憶手段と、計測機器を搭載した車両が同一の道路を走行するごとに得られる計測対象の位置データを利用して、当該位置データに対応する小領域に、計測対象の存在を示す重みを加算する同一道路情報結合手段と、を備えたことを特徴とする。   In order to achieve the above-described object, the automatic travel map creation device according to the present invention divides an area along a road into a number of small areas, and associates a weight indicating the presence of a measurement target with each small area. The storage means for storing the map and the position data of the measurement target obtained each time the vehicle equipped with the measurement device travels on the same road, the measurement target is stored in a small area corresponding to the position data. And a same road information combining means for adding a weight indicating presence.

この構成によれば、計測対象の位置データは、計測機器を搭載した車両が道路を走行するごとに得られている。そして、マップにおいて計測対象の位置データに対応する小領域には、計測対象の存在を示す重みが加算されている。よって、マップには、計測機器を搭載した車両が複数回走行することによる重みが反映されているため、このマップを利用することで計測機器による誤差や車両が障害物を回避することにより生じる誤差などを抑制したマップデータを作成することができる。   According to this configuration, position data to be measured is obtained every time a vehicle equipped with a measuring device travels on a road. A weight indicating the presence of the measurement target is added to the small area corresponding to the position data of the measurement target in the map. Therefore, the map reflects the weight of a vehicle equipped with a measurement device that travels multiple times, so using this map will cause errors due to the measurement device and errors caused by the vehicle avoiding obstacles. It is possible to create map data that suppresses the above.

上述した自動走行用マップ作成装置において、同一道路情報結合手段は、マップの多数の小領域に対応付けられた重みに基づいて、計測対象の位置を特定することが好ましい。この構成によれば、マップの多数の小領域に対応する重みに基づいて、計測対象の位置を特定するため、計測対象の位置誤差を少なくすることができる。   In the automatic travel map creation device described above, it is preferable that the same road information combining unit specifies the position of the measurement target based on the weights associated with a large number of small areas of the map. According to this configuration, since the position of the measurement target is specified based on the weights corresponding to many small areas of the map, the position error of the measurement target can be reduced.

また、上述した自動走行用マップ作成装置において、マップに加算される重みは、計測対象の位置で最大となり、計測対称の位置から離れるほど小さくなる分布を有していることが好ましい。この構成によれば、マップに加算される重みは、計測対象の位置で最大となり、計測対称の位置から離れるほど小さくなる分布を有しているため、計測対象の存在確率に応じた適切な重みでマップデータを作成することができる。   Further, in the above-described automatic travel map creation device, it is preferable that the weight added to the map has a distribution that becomes maximum at the position of the measurement target and decreases as the distance from the measurement symmetry position increases. According to this configuration, the weight added to the map has a distribution that is maximum at the position of the measurement target and decreases with distance from the measurement symmetrical position, and therefore, an appropriate weight according to the existence probability of the measurement target. You can create map data.

また、上述した自動走行用マップ作成装置において、マップに加算される重みの分布は、計測対象の位置誤差に応じた分布であることが好ましい。この構成によれば、マップに加算される重みの分布は、計測対象の位置誤差に応じた分布であるため、計測対象の存在確率に応じた適切な重みでマップデータを作成することができる。   In the automatic travel map creation device described above, the distribution of the weight added to the map is preferably a distribution according to the position error of the measurement target. According to this configuration, the distribution of the weight added to the map is a distribution according to the position error of the measurement target, and therefore map data can be created with an appropriate weight according to the existence probability of the measurement target.

また、上述した自動走行用マップ作成装置において、計測対象は、車両の走行軌跡であることが好ましい。この構成によれば、車両の走行軌跡について誤差が少ないマップデータを作成することができる。   In the above-described automatic travel map creation device, the measurement target is preferably a travel locus of the vehicle. According to this configuration, it is possible to create map data with a small error with respect to the traveling locus of the vehicle.

また、上述した自動走行用マップ作成装置において、計測対象は、道路構成物であることが好ましい。この構成によれば、道路構成物について誤差が少ないマップデータを作成することができる。ここで、道路構成物とは、道路に沿って一般的に存在する物であり、白線、縁石、側溝、ガードレールなどである。   In the automatic travel map creation device described above, the measurement target is preferably a road component. According to this structure, map data with few errors can be created for road components. Here, the road component is an object that generally exists along the road, such as a white line, a curb, a gutter, and a guardrail.

上述した目的を達成するために、本発明に係る自動走行装置は、車両の位置を計測する位置検出手段と、車両周辺を撮影して、画像データを生成する撮像手段と、道路構成物の位置誤差に基づいて、画像データにおける道路構成物の探索範囲を設定し、当該探索範囲内を処理して道路構成物の位置を算出する位置算出手段と、位置算出手段により算出された道路構成物の位置に基づいて、位置検出手段により計測された車両位置を補正する自車位置補正手段と、補正後の車両位置に基づいた自動走行用の制御指令を出力する制御指令出力手段と、を備えることを特徴とする。   In order to achieve the above-described object, an automatic traveling apparatus according to the present invention includes a position detection unit that measures the position of a vehicle, an imaging unit that captures the periphery of the vehicle and generates image data, and a position of a road component. Based on the error, a search range of the road component in the image data is set, a position calculation unit that calculates the position of the road component by processing the search range, and the road component calculated by the position calculation unit A vehicle position correction unit that corrects the vehicle position measured by the position detection unit based on the position; and a control command output unit that outputs a control command for automatic travel based on the corrected vehicle position. It is characterized by.

この構成によれば、道路構成物の位置誤差に基づいて、画像データにおける道路構成物の探索範囲が設定されるため、探索範囲は小さく且つ道路構成物を確実に含む。よって、このような探索範囲を処理して道路構成物の位置を算出することにより、道路構成物の位置の算出を迅速に行うことができ、また、道路構成物の誤検出を防止することができる。そして、算出された道路構成物の位置に基づいて、位置検出手段を利用して計測された車両位置が補正されるため、精度よく自動走行を行うことができる。   According to this configuration, since the search range of the road component in the image data is set based on the position error of the road component, the search range is small and surely includes the road component. Therefore, by calculating the position of the road component by processing such a search range, the position of the road component can be quickly calculated, and erroneous detection of the road component can be prevented. it can. Since the vehicle position measured using the position detecting means is corrected based on the calculated position of the road component, automatic traveling can be performed with high accuracy.

上述した自動走行装置において、道路構成物の位置誤差は、ステレオ視による位置誤差、GPS電波の受信状態に起因する位置誤差、方位角誤差に起因する位置誤差、ピッチ角誤差に起因する位置誤差、通信遅れに起因する位置誤差、マップデータベース作成時の位置誤差の少なくとも1つを含むことが好ましい。   In the automatic travel device described above, the position error of the road component is a position error due to stereo vision, a position error due to a GPS radio wave reception state, a position error due to an azimuth angle error, a position error due to a pitch angle error, It is preferable to include at least one of a position error due to communication delay and a position error at the time of creating the map database.

上述した自動走行装置において、自車位置補正手段は、位置検出手段により計測された車両位置の誤差が所定閾値より大きい場合に、位置検出手段により計測された車両位置を補正し、位置検出手段により計測された車両位置の誤差が所定閾値より小さいときに、位置検出手段により計測された車両位置の補正を禁止することが好ましい。この構成によれば、位置検出手段により計測された車両位置の誤差が所定閾値より大きい場合にのみ、位置検出手段により計測された車両位置を補正することで、制御上必要な場合にのみ車両位置を補正することができる。   In the automatic travel device described above, the vehicle position correcting means corrects the vehicle position measured by the position detecting means when the error of the vehicle position measured by the position detecting means is larger than a predetermined threshold, and the position detecting means It is preferable to prohibit the correction of the vehicle position measured by the position detection means when the measured vehicle position error is smaller than a predetermined threshold. According to this configuration, the vehicle position is corrected only when necessary for control by correcting the vehicle position measured by the position detection means only when the error of the vehicle position measured by the position detection means is larger than the predetermined threshold. Can be corrected.

また、上述した自動走行装置において、撮像手段は、ステレオ視した上側画像データ及び下側画像データを生成し、位置算出手段は、上側画像データ及び下側画像データのそれぞれから、道路構成物又は障害物に対応する横方向エッジを抽出し、抽出された横方向エッジに基づいて道路構成物又は障害物の位置を算出することが好ましい。この構成によれば、上側画像データ及び下側画像データから抽出された横方向エッジに基づいて、道路構成物又は障害物の位置を好適に算出することができる。   Further, in the above-described automatic traveling apparatus, the imaging unit generates stereo upper image data and lower image data, and the position calculating unit calculates the road component or obstacle from each of the upper image data and the lower image data. It is preferable to extract a lateral edge corresponding to an object and calculate a position of a road component or an obstacle based on the extracted lateral edge. According to this configuration, the position of the road component or the obstacle can be suitably calculated based on the lateral edge extracted from the upper image data and the lower image data.

また、上述した自動走行装置において、位置算出手段は、横方向エッジの位置に基づいて道路構成物又は障害物の種別を判定することが好ましい。この構成によれば、道路構成物又は障害物の種別によって横方向エッジの位置が異なることを利用して、横方向エッジの位置に基づいて道路構成物又は障害物の種別を判定することができる。   In the above-described automatic traveling device, it is preferable that the position calculating means determines the type of road component or obstacle based on the position of the lateral edge. According to this configuration, it is possible to determine the type of road component or obstacle based on the position of the horizontal edge by utilizing the fact that the position of the horizontal edge varies depending on the type of road component or obstacle. .

また、上述した自動走行装置において、位置算出手段は、横方向エッジ間の領域の位置を算出し、横方向エッジ間の領域の位置に基づいて道路構成物の種別を判定することが好ましい。この構成によれば、横方向エッジ間の領域の位置を利用することにより、より正確に道路構成物の種別を判定することができる。   In the above-described automatic travel device, it is preferable that the position calculating means calculates the position of the area between the lateral edges and determines the type of the road component based on the position of the area between the lateral edges. According to this configuration, it is possible to more accurately determine the type of the road component by using the position of the region between the lateral edges.

また、上述した自動走行装置において、位置算出手段は、横方向エッジ間の領域の位置が、自車が載っている平面よりも所定閾値以上低い場合に、道路構成物は側溝であることを判定することが好ましい。この構成によれば、道路構成物の種別が側溝であることを適切に判定することができる。   In the above-described automatic traveling device, the position calculating means determines that the road component is a gutter when the position of the region between the lateral edges is lower than the plane on which the vehicle is placed by a predetermined threshold or more. It is preferable to do. According to this configuration, it can be appropriately determined that the type of road component is a gutter.

また、上述した自動走行装置において、位置算出手段は、横方向エッジ間の領域の位置が、自車が載っている平面よりも低く、且つその平面に対して垂直に並んでいる場合に、道路構成物は側溝であることを判定することが好ましい。この構成によれば、道路構成物の種別が側溝であることを適切に判定することができる。   Further, in the above-described automatic traveling device, the position calculating means is configured such that when the position of the region between the lateral edges is lower than the plane on which the vehicle is placed and is aligned vertically with respect to the plane, It is preferable to determine that the component is a side groove. According to this configuration, it can be appropriately determined that the type of road component is a gutter.

また、上述した自動走行装置において、撮像手段は、車両の前側領域、左側領域、右側領域及び後側領域を撮影して、各領域の画像データを生成するものであり、位置算出手段は、複数の画像データのうち撮影された領域が一部で重複している2つの画像データをステレオ視した画像データとして利用し、重複領域にある道路構成物の位置を算出し、算出された道路構成物の位置に基づいて重複しない領域の道路構成物の位置を推定することが好ましい。この構成によれば、ステレオ視されない領域における道路構成物の位置を好適に推定することができる。   Further, in the above-described automatic traveling apparatus, the imaging means captures a front area, a left area, a right area, and a rear area of the vehicle, and generates image data of each area. Using the two image data in which the captured areas of the image data partially overlap as stereo-viewed image data, the position of the road component in the overlap area is calculated, and the calculated road component It is preferable to estimate the position of the road structure in the non-overlapping area based on the position of According to this configuration, the position of the road component in the region that is not viewed in stereo can be estimated appropriately.

本発明によれば、誤差が少ないマップデータを作成することができる。また、本発明によれば、精度よく自動走行を行うことができる。   According to the present invention, map data with few errors can be created. Further, according to the present invention, automatic traveling can be performed with high accuracy.

以下、図面を参照して、本発明の好適な実施形態について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[自動走行用マップ作成装置]
初めに、車両が自動走行時に用いるマップを作成するための自動走行用マップ作成装置の好適な実施形態について説明する。図1に示されるように、自動走行用マップ作成装置1は、撮像装置(撮像手段)10と、データ処理装置12と、車両の位置・方位・姿勢を検出する検出部14とで構成される。データ処理装置12は、物理的にはCPU,RAM,ROM等を含んで構成されており、機能的には、画像データ取込部16と、道路構成物認識部18と、位置算出部20と、最大誤差算出部22と、計測情報書き込み部24と、計測情報記憶部26と、同一道路情報抽出部28と、同一道路情報結合部30と、マップデータ書き込み部32と、マップデータベース34とを含んで構成されている。
[Automatic map creation device]
First, a preferred embodiment of an automatic travel map creating apparatus for creating a map used by a vehicle during automatic travel will be described. As shown in FIG. 1, the automatic travel map creation device 1 includes an imaging device (imaging means) 10, a data processing device 12, and a detection unit 14 that detects the position / orientation / attitude of the vehicle. . The data processing device 12 is physically configured to include a CPU, RAM, ROM, and the like. Functionally, the data processing device 12 includes an image data capturing unit 16, a road component recognition unit 18, and a position calculation unit 20. A maximum error calculation unit 22, a measurement information writing unit 24, a measurement information storage unit 26, an identical road information extraction unit 28, an identical road information combination unit 30, a map data writing unit 32, and a map database 34. It is configured to include.

撮像装置10は、車両の周辺の道路を撮影して画像データを生成するものであり、本実施形態では2つのCCDカメラで構成される。2つのCCDカメラは、同じ方向に向けられており、互いに少し離れている。2つのCCDカメラが同時に撮影を行うことにより、車両周辺をステレオ視した2つの画像データが生成される。ここで、各CCDカメラにより生成される画像データは、複数の画素データを有するデータであって、夫々の画素データとして輝度データ及び色データを有するデータである。   The image capturing apparatus 10 captures a road around the vehicle and generates image data. In the present embodiment, the image capturing apparatus 10 includes two CCD cameras. The two CCD cameras are pointed in the same direction and are a little apart from each other. When two CCD cameras capture images simultaneously, two image data in which the periphery of the vehicle is viewed in stereo is generated. Here, the image data generated by each CCD camera is data having a plurality of pixel data, and is data having luminance data and color data as each pixel data.

なお、撮像装置10は、1つのCCDカメラを用いて、車両周辺をステレオ視した2つの画像データを生成するように構成こともできる。この構成については、後に詳述する。また、撮像装置10は、1つのCCDカメラを用いて、モーションステレオ法により車両周辺をステレオ視した2つの画像データを生成してもよい。また、撮像装置10は、2つのミリ波レーダー、レーザレーダーなどで構成されてもよい。撮像装置にレーダーを用いた場合には、レーダーにより生成される画像データは、夫々の画素データとして、自車から被検知物までの距離データを有するものである。   Note that the imaging apparatus 10 can also be configured to generate two pieces of image data in which the periphery of the vehicle is viewed in stereo using one CCD camera. This configuration will be described in detail later. Further, the imaging apparatus 10 may generate two pieces of image data in which the periphery of the vehicle is viewed in stereo by a motion stereo method using a single CCD camera. Further, the imaging device 10 may be configured by two millimeter wave radars, laser radars, and the like. When a radar is used for the imaging device, the image data generated by the radar has distance data from the own vehicle to the detected object as each pixel data.

車両位置・方位・姿勢検出部14は、車両に取り付けられた複数種類のセンサで構成されている。(1)車両の位置を検出する手段として、GPS(Global Positioning System)装置が用いられている。GPS装置は、衛星からの信号を処理することで、後述する世界平面直角座標系における車両の位置を検出する。(2)車両の方位(進行方向)を検出する手段として、横加速度センサおよび操舵角センサが用いられている。横加速度センサは、車両の横方向に作用する加速度を検出する。操舵角センサは、ドライバにより操舵されたハンドルの角度を検出する。(3)車両の姿勢を検出する手段として、ロールセンサ、ピッチセンサ、ヨーセンサおよび車高センサが用いられている。ロールセンサは車両のロール角を検出し、ピッチセンサは車両のピッチ角を検出し、ヨーセンサは車両のヨー角を検出する。車高センサは、路面を基準とした車体の高さを検出する。   The vehicle position / orientation / attitude detection unit 14 includes a plurality of types of sensors attached to the vehicle. (1) A GPS (Global Positioning System) device is used as means for detecting the position of the vehicle. The GPS device detects the position of the vehicle in a world plane rectangular coordinate system, which will be described later, by processing signals from the satellite. (2) A lateral acceleration sensor and a steering angle sensor are used as means for detecting the azimuth (traveling direction) of the vehicle. The lateral acceleration sensor detects acceleration acting in the lateral direction of the vehicle. The steering angle sensor detects the angle of the steering wheel steered by the driver. (3) A roll sensor, a pitch sensor, a yaw sensor, and a vehicle height sensor are used as means for detecting the attitude of the vehicle. The roll sensor detects the roll angle of the vehicle, the pitch sensor detects the pitch angle of the vehicle, and the yaw sensor detects the yaw angle of the vehicle. The vehicle height sensor detects the height of the vehicle body with respect to the road surface.

データ処理装置12において、画像データ取込部16は、撮像装置10により生成された2つの画像データをデータ処理装置12内に取り込む処理を行う。道路構成物認識部18は、2つの画像データのそれぞれについて、白線、縁石、側溝、ガードレールなどの道路構成物を認識する処理を行う。具体的には、道路構成物認識部18は、画像データに対して、(1)Sobelフィルタ、Cannyフィルタなどを用いたエッジ抽出処理、(2)ハフ変換、最小自乗法などを用いた線分検出処理、(3)差分総和、正規化相関、ニューラルネットを用いたパターンマッチング処理などを行うことで、画像内にある道路構成物を認識する。   In the data processing device 12, the image data capturing unit 16 performs processing for capturing the two image data generated by the imaging device 10 into the data processing device 12. The road component recognition unit 18 performs processing for recognizing road components such as white lines, curbs, gutters, and guardrails for each of the two image data. Specifically, the road component recognition unit 18 performs (1) edge extraction processing using a Sobel filter, Canny filter, (2) line segment using Hough transform, least square method, or the like on image data. By performing detection processing, (3) difference summation, normalized correlation, pattern matching processing using a neural network, etc., a road component in the image is recognized.

位置算出部20は、2つの画像データにおける道路構成物の画素位置に基づいて、3次元座標系において道路構成物が存在する位置を算出する処理を行う。3次元座標系における道路構成物の位置の算出方法の概要を、図2を参照して説明する。図2には、左右のCCDカメラにより道路構成物を撮影する状況が示されている。左右のCCDカメラの光学中心間の距離である基線長はbであり、左右のCCDカメラは共に焦点距離をfとして画像データを生成する。左側の画像データIでは、画像上の2軸X,Yを基準として、道路構成物の画素位置Pl(xl,yl)が特定される。一方、右側の画像データIでは、画像上の2軸X,Yを基準として、道路構成物の画素位置Pr(xr,yr)が特定される。位置算出部20は、これらの幾何学的関係に基づいて、撮像座標系における道路構成物が存在する位置P(Xps,Yps,Zps)を算出する。なお、撮像座標系とは、撮像装置10を基準とする座標系であって、左右の光学中心の中央を原点とし、3軸Xs,Ys,Zsによって座標を特定する座標系である。 The position calculation unit 20 performs a process of calculating a position where the road structure exists in the three-dimensional coordinate system based on the pixel position of the road structure in the two image data. An outline of a method for calculating the position of the road component in the three-dimensional coordinate system will be described with reference to FIG. FIG. 2 shows a situation where a road component is photographed by the left and right CCD cameras. The base line length, which is the distance between the optical centers of the left and right CCD cameras, is b, and both the left and right CCD cameras generate image data with a focal length f. In the left image data I L, 2 axes X L on the image, based on the Y L, the pixel position Pl (xl, yl) of the road construction material is specified. On the other hand, the right side of the image data I R, 2 axes X R of the image, the Y R as a reference, the pixel position Pr (xr, yr) of the road construction material is specified. The position calculation unit 20 calculates a position P (X ps , Y ps , Z ps ) where the road component exists in the imaging coordinate system based on these geometrical relationships. The imaging coordinate system is a coordinate system with the imaging device 10 as a reference, and is a coordinate system in which coordinates are specified by three axes Xs, Ys, and Zs with the center of the left and right optical centers as the origin.

位置算出部20は、具体的には、次の数式(1)に従って、道路構成物が存在する位置P(Xps,Yps,Zps)を算出する。
Specifically, the position calculation unit 20 calculates a position P (X ps , Y ps , Z ps ) where the road component exists according to the following mathematical formula (1).

次に、位置算出部20は、撮像座標系における道路構成物の位置P(Xps,Yps,Zps)を、車両座標系における道路構成物の位置P(Xpc,Ypc,Zpc)に変換し、さらに車両改座標系における道路構成物の位置P(Xpf,Ypf,Zpf)に変換する処理を行う。図3に示されるように、車両座標系とは、車両を基準とする座標系であって、車両の中心位置を原点とし、撮像座標系の3軸Xs,Ys,Zsと平行な3軸Xc,Yc,Zcによって座標を特定する座標系である。車両座標系の原点は、撮像座標系の原点に対して、各軸Xs,Ys,Zsに沿ってax,ay,azだけ離れている。また、車両改座標系とは、車両を基準とする座標系であって、車両の中心位置を原点とし、水平面内にあって車両側方に延びるXf軸、水平面内にあって車両前方に延びるYf軸、および鉛直に延びるZf軸によって座標を特定する座標系である。なお、車両座標系の軸Xc,Ycのそれぞれを水平面に投影すると、車両改座標系の軸Xf,Yfに一致する。車両座標系の軸Xcは、車両改座標系の軸Xfに対してロール方向に角度φだけ傾斜しており、車両座標系の軸Ycは、車両改座標系の軸Yfに対してピッチ方向に角度ρだけ傾斜している。 Next, the position calculation unit 20 uses the position P (X ps , Y ps , Z ps ) of the road component in the imaging coordinate system and the position P (X pc , Y pc , Z pc ) of the road component in the vehicle coordinate system. ), And further, a process of converting to a position P (X pf , Y pf , Z pf ) of the road component in the vehicle modified coordinate system is performed. As shown in FIG. 3, the vehicle coordinate system is a coordinate system based on the vehicle, with the center position of the vehicle as the origin, and the three axes Xc parallel to the three axes Xs, Ys, and Zs of the imaging coordinate system. , Yc, Zc is a coordinate system for specifying coordinates. The origin of the vehicle coordinate system is separated from the origin of the imaging coordinate system by ax, ay, and az along the axes Xs, Ys, and Zs. The vehicle reformed coordinate system is a coordinate system based on the vehicle, and has the center position of the vehicle as the origin, the Xf axis extending in the horizontal plane and extending laterally of the vehicle, and extending in the horizontal plane and extending forward of the vehicle. This is a coordinate system in which coordinates are specified by the Yf axis and the Zf axis extending vertically. In addition, when each of the axes Xc and Yc of the vehicle coordinate system is projected onto the horizontal plane, it coincides with the axes Xf and Yf of the vehicle modified coordinate system. The axis Xc of the vehicle coordinate system is inclined by an angle φ in the roll direction with respect to the axis Xf of the vehicle modified coordinate system, and the axis Yc of the vehicle coordinate system is in the pitch direction with respect to the axis Yf of the vehicle modified coordinate system. It is inclined by an angle ρ.

位置算出部20は、具体的には、次の数式(2)に従って、撮像座標系における道路構成物の位置P(Xps,Yps,Zps)を、車両座標系における道路構成物の位置P(Xpc,Ypc,Zpc)に変換する。また、位置算出部20は、次の数式(3)に従って、車両座標系における道路構成物の位置P(Xpc,Ypc,Zpc)を、車両改座標系における道路構成物の位置P(Xpf,Ypf,Zpf)に変換する Specifically, the position calculation unit 20 determines the position P (X ps , Y ps , Z ps ) of the road component in the imaging coordinate system and the position of the road component in the vehicle coordinate system according to the following equation (2). Convert to P (X pc , Y pc , Z pc ). Further, the position calculation unit 20 calculates the position P (X pc , Y pc , Z pc ) of the road component in the vehicle coordinate system and the position P ( X pf , Y pf , Z pf )

次に、位置算出部20は、車両改座標系における道路構成物の位置P(Xpf,Ypf,Zpf)を、世界平面直角座標系における道路構成物の位置P(φom,λom)に変換するとともに、世界平面座標系における道路構成物の位置P(Xcg,Ycg,Zcg)に変換する処理を行う。ここで、世界平面直角座標系とは、図4に示されるように、地球の中心を基準として、緯度φ、経度λに2軸が設定された座標系である。世界平面直角座標系における道路構成物の位置P(φom,λom)は、車両改座標系における道路構成物の位置P(Xpf,Ypf,Zpf)と、GPS装置により得られる車両Cの位置データとから算出される。また、世界平面座標系とは、図5に示されるように、地表のある位置に基準点Owが設定され、南北Xg、東西Yg及び標高に3軸が設定された座標系である。世界平面直角座標系における道路構成物の位置P(Xcg,Ycg,Zcg)は、車両改座標系における道路構成物の位置P(Xpf,Ypf,Zpf)と、GPS装置により得られる車両Cの位置データとから算出される。 Next, the position calculation unit 20 changes the position P (X pf , Y pf , Z pf ) of the road component in the vehicle modified coordinate system to the position P (φom, λom) of the road component in the world plane rectangular coordinate system. Along with the conversion, a process of converting to a position P (X cg , Y cg , Z cg ) of the road component in the world plane coordinate system is performed. Here, as shown in FIG. 4, the world plane rectangular coordinate system is a coordinate system in which two axes are set for latitude φ and longitude λ with the center of the earth as a reference. The position P (φom, λom) of the road component in the world plane rectangular coordinate system is equal to the position P (X pf , Y pf , Z pf ) of the road component in the vehicle modified coordinate system and the vehicle C obtained by the GPS device. Calculated from the position data. Further, as shown in FIG. 5, the world plane coordinate system is a coordinate system in which a reference point Ow is set at a position on the ground surface, and three axes are set for north-south Xg, east-west Yg, and altitude. The position P (X cg , Y cg , Z cg ) of the road component in the world plane rectangular coordinate system is determined by the position P (X pf , Y pf , Z pf ) of the road component in the vehicle modified coordinate system and the GPS device. It is calculated from the position data of the vehicle C obtained.

最大誤差算出部22は、GPS電波の受信状態から、車両の計測位置に含まれると推定される最大誤差を計算する。ここで、GPS電波の受信状態に起因する誤差Egは、市販のGPS装置で計測精度のデータを出力するものがあるので、そのデータを使用すればよい。また、最大誤差算出部22は、カメラ距離分解能、GPS電波の受信状態などから、位置算出部により算出された道路構成物の位置データに含まれると推定される最大誤差を計算する。図6には、最大誤差算出部22により算出される最大誤差の一例が示されている。最大誤差を示す曲線Errは、次の数式(4)に従って、カメラ距離分解能に起因する誤差Ec(D)と、GPS電波の受信状態に起因する誤差Egとを足し合わせることで算出される。   The maximum error calculation unit 22 calculates the maximum error estimated to be included in the measurement position of the vehicle from the reception state of the GPS radio wave. Here, as for the error Eg caused by the reception state of GPS radio waves, there is a commercially available GPS device that outputs measurement accuracy data, so that data may be used. Further, the maximum error calculation unit 22 calculates the maximum error estimated to be included in the position data of the road component calculated by the position calculation unit from the camera distance resolution, the GPS radio wave reception state, and the like. FIG. 6 shows an example of the maximum error calculated by the maximum error calculation unit 22. The curve Err indicating the maximum error is calculated by adding the error Ec (D) caused by the camera distance resolution and the error Eg caused by the reception state of the GPS radio wave according to the following equation (4).

カメラ距離分解能に起因する誤差Ec(D)は、画角、画素数、基線長、カメラから道路構成物までの距離Dに基づいて算出することができ、カメラから道路構成物までの距離Dが増加するほど小さくなる。図6において黒丸で示す位置誤差の実測値は、最大誤差算出部22により算出された最大誤差より小さくなっていることがわかる。なお、本実施形態では、カメラ距離分解能に起因する誤差Ec(D)、GPS電波の受信状態に起因する誤差Egのみを考慮したが、横加速度検出センサ、操舵角検出センサ、ロールセンサ、ピッチセンサ、ヨーセンサ、車高センサなどの誤差を考慮すれば、より正確な推定最大誤差を算出できる。   The error Ec (D) resulting from the camera distance resolution can be calculated based on the angle of view, the number of pixels, the baseline length, and the distance D from the camera to the road component, and the distance D from the camera to the road component is The smaller it is, the smaller it is. It can be seen that the actual measurement value of the position error indicated by the black circle in FIG. 6 is smaller than the maximum error calculated by the maximum error calculation unit 22. In this embodiment, only the error Ec (D) caused by the camera distance resolution and the error Eg caused by the reception state of the GPS radio wave are considered, but the lateral acceleration detection sensor, the steering angle detection sensor, the roll sensor, and the pitch sensor are considered. If an error such as a yaw sensor or a vehicle height sensor is taken into account, a more accurate estimated maximum error can be calculated.

計測情報書き込み部24は、上述した演算により求められた車両及び道路構成物に関する情報を計測情報記憶部26に書き込む。ここで、車両に関する情報を下の表1に示し、道路構成物に関する情報を下の表2に示す。   The measurement information writing unit 24 writes information regarding the vehicle and road components obtained by the above-described calculation into the measurement information storage unit 26. Here, information related to vehicles is shown in Table 1 below, and information related to road components is shown in Table 2 below.

なお、上の表2において、道路構成物の種別IDとは、種別の異なる道路構成物を区別するための識別情報である。例えば、白線には「1」が対応付けられ、側溝には「2」が対応付けられ、ガードレールには「3」が対応付けられる。また、ラベルIDとは、同じ種別の道路構成物が複数ある場合に、道路構成物を個体ごとに区別するための識別情報である。例えば、白線が2本ある場合には、第1の白線には「1−1」が対応付けられ、第2の白線には「1−2」が対応付けられる。   In Table 2 above, the type ID of the road component is identification information for distinguishing road components of different types. For example, “1” is associated with the white line, “2” is associated with the side groove, and “3” is associated with the guardrail. Further, the label ID is identification information for distinguishing road components for each individual when there are a plurality of road components of the same type. For example, when there are two white lines, “1-1” is associated with the first white line, and “1-2” is associated with the second white line.

また、上の表2では、道路構成物に関する情報は、図7(a)に概念的に示されるように、多数の点が一列に並んだ点列である。但し、計測情報書き込み部24は、図7(b)に概念的に示されるように、道路構成物の点列の情報に代えて、道路構成物の線情報を計測情報記憶部26に書き込んでもよい。道路構成物の線情報を下の表3に示す。   In Table 2 above, the information on the road component is a point sequence in which a large number of points are arranged in a row, as conceptually shown in FIG. However, as conceptually shown in FIG. 7B, the measurement information writing unit 24 may write the road component line information in the measurement information storage unit 26 in place of the point sequence information of the road component. Good. Table 3 below shows the line information of road components.

同一道路情報抽出部28は、計測情報記憶部26に記憶された車両情報及び道路構成物情報の中から、同一の道路について作成された車両情報及び道路構成物情報を検索して抽出する。ここで、抽出される上記情報は、同じ車両が同じ道路を複数回走行することにより得られる情報であったり、異なる車両が同じ道路を走行することにより得られる情報である。   The same road information extraction unit 28 searches and extracts vehicle information and road component information created for the same road from the vehicle information and road component information stored in the measurement information storage unit 26. Here, the extracted information is information obtained by the same vehicle traveling on the same road a plurality of times, or information obtained by different vehicles traveling on the same road.

同一道路情報結合部30は、同一道路情報抽出部28により抽出された車両情報及び道路構成物情報に基づいて、車両の目標走行軌跡を算出すると共に、道路構成物の位置を算出する処理を行う。以下に、同一道路情報結合部30による目標走行軌跡を算出する処理について説明してから、道路構成物の位置を算出する処理について説明する。   The same road information combining unit 30 calculates the target travel locus of the vehicle and calculates the position of the road component based on the vehicle information and the road component information extracted by the same road information extraction unit 28. . In the following, the process of calculating the target travel locus by the same road information combining unit 30 will be described, and then the process of calculating the position of the road component will be described.

同一道路情報結合部30は、同一道路情報抽出部28により抽出された車両情報のそれぞれに基づいて、走行軌跡マップを生成する処理を行う。ここで、走行軌跡マップとは、道路に沿った領域を南北方向及び東西方向に所定間隔ごとに細かく分割することにより、略正方形の多数の小領域が2次元配列されたマップである。走行軌跡マップでは、各小領域ごとに、走行軌跡の存在確率を示す重みが対応付けられている。   The same road information combination unit 30 performs a process of generating a travel locus map based on each of the vehicle information extracted by the same road information extraction unit 28. Here, the traveling locus map is a map in which a large number of small square regions are two-dimensionally arranged by finely dividing a region along the road in the north-south direction and the east-west direction at predetermined intervals. In the travel locus map, a weight indicating the existence probability of the travel locus is associated with each small region.

同一道路情報結合部30は、走行軌跡マップを生成するために、先ず、図8に示されるように、車両位置の一連の計測点の間を、直線やペジェ曲線などで補間して、連続した走行軌跡を求める。同一道路情報結合部30は、次に、走行軌跡に対して重み付けを行う。ここで、走行軌跡に対する重み付けは、図9に示されるように正規分布を用いて行われる。図9では、走行軌跡が紙面に垂直に延びており、水平方向の位置が軸uで表されており、重みの大きさが軸Gで表されている。   In order to generate a travel trajectory map, the same road information combining unit 30 first interpolates between a series of measurement points of the vehicle position by a straight line, a Pezier curve, or the like as shown in FIG. Find the running track. Next, the same road information combining unit 30 performs weighting on the travel locus. Here, the weighting on the travel locus is performed using a normal distribution as shown in FIG. In FIG. 9, the travel locus extends perpendicular to the paper surface, the horizontal position is represented by the axis u, and the weight is represented by the axis G.

正規分布を用いた重み付けの式は、次の数式(5)で表される。

ここで、σは正規分布の幅を決めるための変数であり、車両位置について推定される最大誤差Errを考慮して決定される。例えば、σ=Err/3 と設定される。
The weighting formula using the normal distribution is expressed by the following formula (5).

Here, σ is a variable for determining the width of the normal distribution, and is determined in consideration of the maximum error Err estimated for the vehicle position. For example, σ = Err / 3 is set.

図8に示される走行軌跡に対して上の数式(5)を用いて重み付けを行うことにより、図10に示される重み付き走行軌跡が算出される。なお、走行軌跡に対する重み付けは、図11に示されるように、走行軌跡上で重みが最大となり、走行軌跡からの離間距離に比例して直線的に重みが減少するように設定されてもよい。   By weighting the travel locus shown in FIG. 8 using the above equation (5), the weighted travel locus shown in FIG. 10 is calculated. As shown in FIG. 11, the weighting on the travel locus may be set such that the weight is maximized on the travel locus and linearly decreases in proportion to the distance from the travel locus.

図12(a)〜(d)には、マップ作成装置を搭載した車両が同一経路を4回走行して得られる走行軌跡マップの画像データが示されている。ここで、走行軌跡マップでは、輝度が高いほど重みが大きく、輝度が小さいほど重みが小さい。なお、上述した処理では、走行軌跡マップとして、走行軌跡に重み付けをしたマップを生成しているが、走行軌跡に重み付けしないマップを生成してもよい。即ち、走行軌跡が通過する小領域に一定値(例えば1.0)を付与することにより、走行軌跡マップを生成してもよい。   FIGS. 12A to 12D show image data of a travel locus map obtained by a vehicle equipped with a map creation device traveling four times on the same route. Here, in the travel locus map, the higher the luminance, the larger the weight, and the lower the luminance, the smaller the weight. In the above-described processing, a map that weights the travel trajectory is generated as the travel trajectory map, but a map that does not weight the travel trajectory may be generated. That is, the travel locus map may be generated by giving a constant value (for example, 1.0) to a small region through which the travel locus passes.

次に、同一道路情報結合部30は、上述したように走行軌跡マップを生成するごとに、走行軌跡マップを走行軌跡重み加算マップに加算して、走行軌跡重み加算マップを書き換える処理を行う。ここで、走行軌跡重み加算マップとは、走行軌跡マップと同様に、2次元配列された多数の小領域からなるマップであり、各小領域には重みの加算値が対応付けられている。   Next, the same road information combining unit 30 adds the travel locus map to the travel locus weight addition map and rewrites the travel locus weight addition map every time the travel locus map is generated as described above. Here, the travel trajectory weight addition map is a map composed of a large number of small areas arranged two-dimensionally, like the travel trajectory map, and an added value of weight is associated with each small area.

走行軌跡重み加算マップの書き換え処理の具体例を説明する。図12(a)〜(d)の走行軌跡マップにおいて、図12(a),図12(c)及び図12(d)の走行軌跡マップはほぼ同じ形状となっているが、図12(b)の走行軌跡マップのみ異なる形状となっている。図12(b)の走行軌跡マップに関しては、マップ作成装置を搭載した車両が、道路を走行している際に他の車両や障害物を避けたことなどが推測される。これらの走行軌跡マップが、走行軌跡重み加算マップに加算された結果が、図13に示されている。図13の走行軌跡マップでは、多数回走行された小領域の重み加算値は大きく、輝度が大きい。一方、走行回数の少ない小領域の重み加算値は小さく、輝度が小さい。   A specific example of the rewriting process of the travel locus weight addition map will be described. In the travel locus maps of FIGS. 12A to 12D, the travel locus maps of FIGS. 12A, 12C, and 12D have substantially the same shape, but FIG. Only the travel locus map of) has a different shape. Regarding the travel locus map of FIG. 12B, it is presumed that the vehicle equipped with the map creation device avoids other vehicles and obstacles while traveling on the road. FIG. 13 shows the result obtained by adding these travel locus maps to the travel locus weight addition map. In the travel locus map of FIG. 13, the weight addition value of the small region that has traveled many times is large and the luminance is large. On the other hand, the weight addition value of the small area where the number of times of traveling is small is small and the luminance is small.

次に、同一道路情報結合部30は、走行軌跡重み加算マップにおいて、重み加算値が予め設定された重み閾値Th1よりも大きい領域と、重み加算値が重み閾値Th1よりも小さい領域とに2値化する。例えば、図14(a)に示される走行軌跡重み加算マップを2値化すると、図14(b)に示されるように変換される。図14(b)では、白領域において重み加算値が予め設定された重み閾値Th1よりも大きく、黒領域において重み加算値が予め設定された重み閾値Th1よりも小さい。   Next, the same road information combining unit 30 binarizes the area where the weight addition value is larger than the preset weight threshold Th1 and the area where the weight addition value is smaller than the weight threshold Th1 in the travel locus weight addition map. Turn into. For example, when the travel locus weight addition map shown in FIG. 14A is binarized, the map is converted as shown in FIG. In FIG. 14B, the weight addition value in the white area is larger than the preset weight threshold Th1, and the weight addition value in the black area is smaller than the preset weight threshold Th1.

次に、同一道路情報結合部30は、図14(c)に示されるように、領域Rの端部における白領域の中心位置を、領域R内での目標走行軌跡の第1位置として求める。また、同一道路情報結合部30は、第1位置付近における車両方位角度(表1参照)の平均値を算出することで、第1進行方向を求める。そして、同一道路情報結合部30は、図14(d)に示されるように、目標走行軌跡の第1位置から車両進行方向に一定の距離だけ進んだ位置を求め、その位置を通過するとともに第1の進行方向に直交する線分上における白領域の中心位置を、目標走行軌跡の第2位置として求める。また、同一道路情報結合部30は、第2位置付近における車両方位角度の平均値を算出することで、第2進行方向を求める。同一道路情報結合部30は、それ以降も同様な処理を行うことで、図14(e)に示されるように、目標走行軌跡の一連の位置(第3位置,第4位置,第5位置,・・・)及び一連の進行方向(第3進行方向,第4進行方向,第5進行方向,・・・)を算出する。   Next, as shown in FIG. 14C, the same road information combining unit 30 obtains the center position of the white area at the end of the area R as the first position of the target travel locus in the area R. Moreover, the same road information coupling | bond part 30 calculates | requires a 1st advancing direction by calculating the average value of the vehicle azimuth | direction angle (refer Table 1) in the 1st position vicinity. Then, as shown in FIG. 14 (d), the same road information combining unit 30 obtains a position that has traveled a certain distance in the vehicle traveling direction from the first position of the target travel locus, passes through the position, and The center position of the white area on the line segment orthogonal to the traveling direction of 1 is obtained as the second position of the target travel locus. Moreover, the same road information coupling | bond part 30 calculates | requires a 2nd advancing direction by calculating the average value of the vehicle azimuth | direction angle in the 2nd position vicinity. The same road information combining unit 30 performs the same process thereafter, and as shown in FIG. 14 (e), a series of positions (third position, fourth position, fifth position, ...) And a series of traveling directions (third traveling direction, fourth traveling direction, fifth traveling direction,...) Are calculated.

次に、同一道路情報結合部30による道路構成物の位置を算出する処理について説明する。同一道路情報結合部30は、同一道路情報抽出部28により抽出された道路構成物情報に基づいて、道路構成物マップを生成する処理を行う。ここで、道路構成物マップとは、走行軌跡マップと同様に、2次元配列された多数の小領域からなるマップである。道路構成物マップでは、各小領域ごとに、道路構成物の存在確率を示す重みが対応付けられている。   Next, a process for calculating the position of the road component by the same road information combining unit 30 will be described. The same road information combining unit 30 performs processing for generating a road component map based on the road component information extracted by the same road information extracting unit 28. Here, the road component map is a map composed of a large number of small regions arranged two-dimensionally, like the travel locus map. In the road component map, a weight indicating the existence probability of the road component is associated with each small region.

同一道路情報結合部30は、道路構成物マップを生成するために、先ず、道路構成物の一連の計測点の間を直線やペジェ曲線などで補間してから、道路構成物の一連の計測点を結ぶ直線又は曲線に重み付けを行う。ここでは、上述した走行軌跡への重み付けと同様に、道路構成物の計測点を結ぶ線に重み付けを行えばよい。   In order to generate a road component map, the same road information combining unit 30 first interpolates between a series of measurement points of the road component with a straight line, a Pezier curve, etc., and then a series of measurement points of the road component. Weighing straight lines or curves connecting Here, as with the above-described weighting to the travel locus, the line connecting the measurement points of the road components may be weighted.

図15(a)〜(e)には、車両が道路を走行している際に、各位置で計測される道路構成物(側溝)のマップが示されている。車両が道路を走行している際には、撮像装置10により撮影される道路構成物の範囲は限られているため、図15(a)〜(e)のそれぞれでは、道路構成物(側溝)の一部のみが検出されている。これらの道路構成物の部分的なマップを互いに加算することにより、図16に示されるように道路構成物マップを完成する。   FIGS. 15A to 15E show maps of road components (side grooves) measured at each position when the vehicle is traveling on the road. When the vehicle is traveling on the road, the range of road components photographed by the imaging device 10 is limited. Therefore, in each of FIGS. 15A to 15E, the road components (side grooves) Only a part of is detected. By adding the partial maps of these road constituents to each other, the road constituent map is completed as shown in FIG.

図17(a)〜(d)には、マップ作成装置を搭載した車両が同一経路を4回走行して得られる道路構成物マップの画像データが示されている。ここで、道路構成物マップでは、輝度が高いほど重みが大きく、輝度が小さいほど重みが小さい。なお、上述した処理では、道路構成物マップとして、道路構成物に重み付けをしたマップを生成しているが、道路構成物に重み付けしないマップを生成してもよい。即ち、道路構成物が通過する小領域に一定値(例えば1.0)を付与することにより、道路構成物マップを生成してもよい。   FIGS. 17A to 17D show image data of a road composition map obtained by a vehicle equipped with a map creation device traveling four times on the same route. Here, in the road composition map, the higher the luminance, the larger the weight, and the lower the luminance, the smaller the weight. In the above-described processing, a road weight map is generated as the road structure map, but a map that does not weight the road structure may be generated. That is, a road composition map may be generated by giving a constant value (for example, 1.0) to a small area through which the road composition passes.

次に、同一道路情報結合部30は、上述したように道路構成物マップを生成するごとに、道路構成物マップを道路構成物重み加算マップに加算して、道路構成物重み加算マップを書き換える処理を行う。ここで、道路構成物重み加算マップとは、道路構成物マップと同様に、2次元配列された多数の小領域からなるマップであり、各小領域には重みの加算値が対応付けられている。   Next, the same road information combining unit 30 adds the road component map to the road component weight addition map and rewrites the road component weight addition map every time the road component map is generated as described above. I do. Here, the road component weight addition map is a map composed of a large number of small regions arranged two-dimensionally, like the road component map, and each small region is associated with a weight addition value. .

道路構成物重み加算マップの書き換え処理の具体例を説明する。これらの道路構成物マップが、道路構成物重み加算マップに加算された結果が、図18に示されている。図18の道路構成物重み加算マップでは、車両により多数回走行された小領域の重み加算値は大きく、輝度が大きい。一方、走行回数の少ない小領域の重み加算値は小さく、輝度が小さい。   A specific example of the road component weight addition map rewriting process will be described. The result of adding these road component maps to the road component weight addition map is shown in FIG. In the road component weight addition map of FIG. 18, the weight addition value of the small area traveled many times by the vehicle is large and the luminance is large. On the other hand, the weight addition value of the small area where the number of times of traveling is small is small and the luminance is small.

次に、同一道路情報結合部30は、道路構成物重み加算マップにおいて、重み加算値が予め設定された重み閾値Th2よりも大きい領域と、重み加算値が重み閾値Th2よりも小さい領域とに2値化する。次に、同一道路情報結合部30は、目標走行軌跡の一連の位置を求めたのと同じ手法で、道路構成物の一連(第1,第2,第3,・・・)の存在位置を算出し、目標走行軌跡の一連の進行方向を求めたのと同じ手法で、道路構成物の一連(第1,第2,第3,・・・)の延在方向を算出する。道路構成物の存在位置及び延在方向を求めた結果が、図19に示されている。同一道路情報結合部30は、図20に示されるように、上述した道路構成物重み加算マップを、白線、側溝、縁石、ガードレールなどの種別ごとに作成する。   Next, the same road information combining unit 30 divides the road component weight addition map into two areas where the weight addition value is larger than the preset weight threshold Th2 and the area where the weight addition value is smaller than the weight threshold Th2. Convert to value. Next, the same road information combination unit 30 uses the same method as that for obtaining a series of positions of the target travel locus to determine the existence positions of the series (first, second, third,...) Of road components. The extension direction of a series (first, second, third,...) Of road components is calculated by the same method as that for calculating and obtaining a series of traveling directions of the target travel locus. FIG. 19 shows the result of obtaining the location and extension direction of the road component. As shown in FIG. 20, the same road information combining unit 30 creates the above-described road component weight addition map for each type of white line, gutter, curb, guardrail, and the like.

マップデータ書き込み部32は、目標走行軌跡及び道路構成物の情報を、自動走行用マップのフォーマットに変換してから、マップデータベース34に記憶する。自動走行用マップのフォーマットを、次の表4に示す。なお、次の表4に示される情報は、目標走行軌跡の1点に対応している。   The map data writing unit 32 converts the information on the target travel locus and road components into the automatic travel map format, and then stores it in the map database 34. The format of the map for automatic driving is shown in Table 4 below. Note that the information shown in the following Table 4 corresponds to one point of the target travel locus.

上の表4に示されるのは、目標走行軌跡の1点に対応して記憶されるデータ群であり、マップデータベース34には、このようなデータ群が目標走行軌跡の各点ごとに記憶されている。目標走行軌跡の各点は50cm周期であり、50cm周期の各点に対応して上の表4のデータ群が記憶される。   Table 4 above shows a data group stored corresponding to one point of the target travel locus, and such a data group is stored in the map database 34 for each point of the target travel locus. ing. Each point of the target travel locus has a 50 cm period, and the data group in Table 4 above is stored corresponding to each point of the 50 cm period.

図21に示されるように、白線、側溝、縁石、ガードレール等の道路構成物がある場合に、目標走行軌跡からその道路構成物までの距離が最短となる線分を想定する。ここで、その線分の長さが距離Lであり、目標走行軌跡と線分との角度が存在方向β1であり、道路構成物の延在方向と線分との角度が姿勢角β2である。また、推測最大位置誤差とは、カメラ距離分解能、画像取得時のGPS電波受信状態などを原因とする誤差であり、図22に示される道路構成物の重み加算マップにおいて、所定閾値より重みが大きい領域を白とし、所定閾値より重みが小さい領域を黒としたときに、帯状の白領域の幅Wを2分の1とすることで演算される。   As shown in FIG. 21, when there are road components such as white lines, gutters, curbs, guardrails, etc., a line segment that has the shortest distance from the target travel locus to the road component is assumed. Here, the length of the line segment is the distance L, the angle between the target travel locus and the line segment is the existence direction β1, and the angle between the extending direction of the road component and the line segment is the posture angle β2. . The estimated maximum position error is an error caused by the camera distance resolution, the GPS radio wave reception state at the time of image acquisition, and the like. In the road component weight addition map shown in FIG. When the area is white and the area having a weight smaller than the predetermined threshold is black, the width W of the band-shaped white area is calculated by halving.

次に、図23のフローチャートを参照して、上述した自動走行用マップ作成装置の処理の流れについて説明する。先ず、データ処理装置12は、撮像装置10により生成された画像データを取り込む(S101)。次に、データ処理装置12は、画像データを処理して道路構成物の認識処理を行う(S102)。次に、データ処理装置12は、車両の位置、方位、姿勢の計測データを取り込む(S103)。次に、データ処理装置12は、道路構成物の位置を算出する(S104)。次に、データ処理装置12は、カメラ距離分解能、GPS電波受信状態などから、車両及び道路構成物の位置について推定される最大の誤差を算出する(S105)。   Next, with reference to the flowchart of FIG. 23, the process flow of the above-described automatic travel map creation device will be described. First, the data processing device 12 takes in the image data generated by the imaging device 10 (S101). Next, the data processing device 12 processes the image data and performs a road component recognition process (S102). Next, the data processing device 12 takes in the measurement data of the position, orientation, and attitude of the vehicle (S103). Next, the data processing device 12 calculates the position of the road component (S104). Next, the data processing device 12 calculates the maximum error estimated for the position of the vehicle and the road component from the camera distance resolution, the GPS radio wave reception state, and the like (S105).

次に、データ処理装置12は、車両及び道路構成物に関する情報を、計測点情報記憶部に書き込む(S106)。次に、データ処理装置は、車両に関する情報に基づいて、走行軌跡マップを作成し、さらに走行軌跡重み加算マップを作成する。同様に、データ処理装置は、道路構成物に関する情報に基づいて、道路構成物マップを作成し、さらに道路構成物重み加算マップを作成する(S107)。そして、データ処理装置12は、地図データベースに記憶されている目標走行軌跡及び道路構成物位置の情報を更新するか否かを決定する(S108)。ここで、地図データベースを更新する場合にはS109に進み、一方、地図データベースを更新しない場合にはS101に戻る。   Next, the data processing device 12 writes information on the vehicle and road components in the measurement point information storage unit (S106). Next, the data processing device creates a travel locus map and further creates a travel locus weight addition map based on the information about the vehicle. Similarly, the data processing apparatus creates a road composition map based on the information on the road composition, and further creates a road composition weight addition map (S107). Then, the data processing device 12 determines whether or not to update the information on the target travel locus and the road component position stored in the map database (S108). If the map database is updated, the process proceeds to S109. On the other hand, if the map database is not updated, the process returns to S101.

データ処理装置12は、走行軌跡重み加算マップを所定閾値Th1で2値化し、目標走行軌跡算出する(S109)。また、データ処理装置12は、道路構成物重み加算マップを所定閾値Th2で2値化し、道路構成物の存在位置を演算する(S110)。そして、データ処理装置12は、目標走行軌跡及び道路構成物の存在位置の情報を、自動走行用マップのフォーマットに変換してから、地図データベースに記憶する(S111,S112)。最後に、データ処理装置12は、処理を終了するか否かを決定する。ここで、処理を終了しない場合にはS101に戻る。   The data processing device 12 binarizes the travel locus weight addition map with the predetermined threshold Th1, and calculates the target travel locus (S109). In addition, the data processing device 12 binarizes the road component weight addition map with the predetermined threshold Th2, and calculates the location of the road component (S110). Then, the data processing device 12 converts the information on the target travel locus and the location of the road component into the automatic travel map format, and then stores it in the map database (S111, S112). Finally, the data processing device 12 determines whether or not to end the process. If the process is not terminated, the process returns to S101.

[自動走行装置]
次に、上述した自動走行用マップを利用する自動走行装置3を搭載した車両について説明する。図24に示されるように、自動走行装置3は、撮像装置(撮像手段)40と、データ処理装置42と、車両の位置・方位・姿勢を検出する検出部44とで構成される。データ処理装置42は、物理的にはCPU,RAM,ROM等を含んで構成されており、機能的には、マップデータベース46と、画像データ取込部48と、道路構成物位置算出部(第1の位置算出部)50と、探索距離設定部52と、画像内位置推定部56と、誤差影響算出部58と、最小探索枠設定部60と、認識対象物種別設定部62と、対象物認識部(第2の位置算出部)64と、自車位置補正部66と、制御指令出力部68とを含んで構成されている。
[Automatic traveling device]
Next, a vehicle equipped with the automatic travel device 3 that uses the automatic travel map described above will be described. As shown in FIG. 24, the automatic travel device 3 includes an imaging device (imaging means) 40, a data processing device 42, and a detection unit 44 that detects the position / orientation / attitude of the vehicle. The data processing device 42 is physically configured to include a CPU, a RAM, a ROM, and the like, and functionally includes a map database 46, an image data fetching unit 48, and a road component position calculating unit (first item). 1 position calculation unit) 50, search distance setting unit 52, in-image position estimation unit 56, error influence calculation unit 58, minimum search frame setting unit 60, recognition object type setting unit 62, and object A recognition unit (second position calculation unit) 64, a host vehicle position correction unit 66, and a control command output unit 68 are included.

自動走行装置3において撮像装置40及び車両位置・方位・姿勢検出部44は、マップ作成装置1の撮像装置10及び車両位置・方位・姿勢検出部14と同じものであるため、説明を省略する。同様に、自動走行装置3において画像データ取込部48は、マップ作成装置1の画像データ取込部16と同じものであるため、説明を省略する。また、マップデータベース46には、マップ作成装置1により作成された自動走行用のマップデータが記憶されている。   In the automatic travel device 3, the imaging device 40 and the vehicle position / orientation / attitude detection unit 44 are the same as the imaging device 10 and the vehicle position / orientation / attitude detection unit 14 of the map creation device 1, and thus the description thereof is omitted. Similarly, in the automatic traveling device 3, the image data capturing unit 48 is the same as the image data capturing unit 16 of the map creation device 1, and thus description thereof is omitted. The map database 46 stores map data for automatic travel created by the map creation device 1.

道路構成物位置算出部(第1の位置算出部)50は、GPS装置により得られる車両の位置データを取り込む。また、道路構成物位置算出部50は、マップデータベース46に記憶された目標走行軌跡のデータの中から、車両の位置データに最も近接する点に関するデータ(表4参照)を抽出して取り込む。そして、道路構成物位置算出部50は、取り込まれたデータを利用して、車両から目標走行軌跡の点までの相対位置を求め、さらにこの相対位置に、目標走行軌跡の点から道路構成物までの相対位置を加えることで、車両座標系における道路構成物の位置を算出する。ここで算出された道路構成物の相対位置には、GPS装置による計測誤差が含まれている。   The road component position calculation unit (first position calculation unit) 50 takes in the vehicle position data obtained by the GPS device. In addition, the road component position calculation unit 50 extracts and imports data (see Table 4) relating to the point closest to the vehicle position data from the target travel locus data stored in the map database 46. Then, the road component position calculation unit 50 obtains a relative position from the vehicle to the point of the target travel locus using the captured data, and further, from this point of the target travel locus to the road component. To calculate the position of the road component in the vehicle coordinate system. The relative position of the road component calculated here includes a measurement error by the GPS device.

また、道路構成物位置算出部50は、探索距離設定部52から探索距離データを取り込んで、道路構成物の相対位置とその探索距離を比較して、その探索距離内にある道路構成物の相対位置のみを保持し、探索距離外にある道路構成物の相対位置を破棄する。なお、探索距離設定部52は、道路構成物の探索距離を決定する処理を行うものである。ここで、探索距離は、常に一定の距離が設定されてもよいし、車両の状況に応じて変化する距離が設定されてもよい。   Further, the road component position calculation unit 50 takes in the search distance data from the search distance setting unit 52, compares the relative position of the road component with the search distance, and compares the relative values of the road components within the search distance. Only the position is retained, and the relative position of the road component outside the search distance is discarded. The search distance setting unit 52 performs a process of determining a search distance for road components. Here, the search distance may always be set to a fixed distance, or may be set to a distance that changes according to the vehicle condition.

画像内位置推定部56は、道路構成物の画像内における位置を推定する処理を行う。この処理を行うために、画像内位置推定部56は、道路構成物位置算出部50と同様に、車両の位置データに最も近接する点に関するデータを抽出して取り込む。そして、画像内位置推定部56は、目標走行軌跡の点に関するデータから、世界平面直角座標系における道路構成物の位置データ(Xpg,Ypg,Zpg)を算出する。道路構成物の位置データは、次の数式(6)に従って算出される。 The in-image position estimation unit 56 performs processing for estimating the position of the road component in the image. In order to perform this processing, the in-image position estimation unit 56 extracts and captures data relating to the point closest to the vehicle position data, as with the road component position calculation unit 50. Then, the in-image position estimation unit 56 calculates the position data (X pg , Y pg , Z pg ) of the road component in the world plane rectangular coordinate system from the data regarding the points of the target travel locus. The position data of the road component is calculated according to the following formula (6).

次に、画像内位置推定部56は、次の数式(7)に従って、世界平面直角座標系における位置データ(Xpg,Ypg,Zpg)を、撮像座標系における位置データ(Xps,Yps,Zps)へ変換する。 Next, the in-image position estimation unit 56 calculates the position data (X pg , Y pg , Z pg ) in the world plane rectangular coordinate system and the position data (X ps , Y in the imaging coordinate system) according to the following equation (7). ps , Z ps ).

次に、画像内位置推定部56は、下の数式(8)に従って、撮像座標系における位置データ(Xps,Yps,Zps)を、左のカメラにより撮影された画像内の画素位置(X,Y)へ変換する。また、画像内位置推定部56は、下の数式(9)に従って、撮像装置40座標系における位置データ(Xps,Yps,Zps)を、右のカメラにより撮影された画像内の画素位置(X,Y)へ変換する。 Next, the in-image position estimating unit 56 calculates the position data (X ps , Y ps , Z ps ) in the imaging coordinate system according to the following mathematical formula (8), as the pixel position ( X L , Y L ). In addition, the in-image position estimation unit 56 uses the position data (X ps , Y ps , Z ps ) in the image capturing apparatus 40 coordinate system according to the following mathematical formula (9) to obtain the pixel position in the image captured by the right camera. Convert to (X R , Y R ).



ここで、P、P、H、Hは、ステレオカメラのキャリブレーションで導出されるカメラパラメータである。


Here, P 1 , P 2 , H 1 , and H 2 are camera parameters derived by calibration of the stereo camera.

誤差影響算出部58は、抽出された道路構成物について、ステレオ視による位置誤差、GPS装置の位置誤差などの各種位置誤差の総和を算出する処理を行う。具体的には、誤差影響算出部58は、次の数式(10)の演算を行う。なお、位置誤差の種類は、下の表5に示されている。   The error influence calculation unit 58 performs a process of calculating the sum of various position errors such as a position error due to stereo vision and a position error of the GPS device for the extracted road component. Specifically, the error influence calculation unit 58 performs the calculation of the following formula (10). The types of position errors are shown in Table 5 below.

ステレオ視による位置誤差は、次の数式(11)により算出される。ステレオ視による位置誤差は、自車から道路構成物まで距離Dsの関数となっている。
The position error due to stereo vision is calculated by the following formula (11). The position error due to the stereo view is a function of the distance Ds from the own vehicle to the road component.

GPS電波の受信状態に起因する位置誤差Px,Py,Pzは、市販のGPS装置で計測精度のデータを出力するものがあるので、その計測精度のデータに基づいて算出すればよい。   The position errors Px, Py, and Pz resulting from the GPS radio wave reception state may be calculated based on the measurement accuracy data because some commercially available GPS devices output measurement accuracy data.

方位角誤差(車両の方向の誤差のうち水平面内の成分)Aeに起因する位置誤差Hdは、次の数式(12)に従って算出される。方位角誤差AeはX軸方向だけに影響するため、位置誤差HdはX軸方向にのみ生じる。方位角誤差の最大値Aeは既知(例えば0.05°)であるため、位置誤差Hdは道路構成物までの距離Dsの関数となる。
The position error Hd caused by the azimuth error (the component in the horizontal plane of the vehicle direction error) Ae is calculated according to the following equation (12). Since the azimuth error Ae affects only the X-axis direction, the position error Hd occurs only in the X-axis direction. Since the maximum value Ae of the azimuth error is known (for example, 0.05 °), the position error Hd is a function of the distance Ds to the road component.

ピッチ角誤差(車両の方向の誤差のうち垂直な成分)Peに起因する位置誤差Ptは、次の数式(13)に従って算出される。ピッチ角誤差PtはZ軸方向だけに影響するため、位置誤差PtはZ軸方向にのみ生じる。ピッチ角誤差の最大値Ptは既知(例えば0.05°)であるため、位置誤差Ptは道路構成物までの距離Dsの関数となる。
The position error Pt caused by the pitch angle error (vertical component of the vehicle direction error) Pe is calculated according to the following equation (13). Since the pitch angle error Pt affects only the Z-axis direction, the position error Pt occurs only in the Z-axis direction. Since the maximum value Pt of the pitch angle error is known (for example, 0.05 °), the position error Pt is a function of the distance Ds to the road component.

データ処理装置42内でのデータ通信の遅れに起因する位置誤差Cmは、厳密には車速や角速度などの関数となる値であるが、今回の処理では一定値(例えば100mm)として取り扱っている。   Strictly speaking, the position error Cm caused by the delay in data communication in the data processing device 42 is a value that is a function of the vehicle speed, the angular velocity, etc., but is handled as a constant value (for example, 100 mm) in this processing.

マップデータベース46作成時の位置誤差は、マップデータベース46に記憶される推定最大位置誤差Err_W,Err_L及びErr_h(表4参照)を利用している。ここで、道路構成物が存在する方向にカメラの視線が向いている場合には、X軸にErr_Wを対応させ、Y軸にErr_Lを対応させ、Z軸にErr_hを対応させればよい。但し、道路構成物が存在する方向にカメラの視線が向いていない場合には、位置誤差を推定最大位置誤差Err_W,Err_L及びErr_hに基づいてX軸,Y軸及びZ軸の位置誤差を算出すればよい。   As the position error at the time of creating the map database 46, estimated maximum position errors Err_W, Err_L and Err_h (see Table 4) stored in the map database 46 are used. Here, when the line of sight of the camera is directed in the direction in which the road component exists, Err_W may be associated with the X axis, Err_L with the Y axis, and Err_h with the Z axis. However, if the camera's line of sight does not point in the direction in which the road component exists, the position error can be calculated based on the estimated maximum position errors Err_W, Err_L and Err_h. That's fine.

最小探索枠設定部60は、左右のカメラにより撮影された画像において、各道路構成物を探索するための枠を設定する処理を行う。図25に示されるように、各軸方向の位置誤差積算値ΣerrX,ΣerrY,ΣerrZを考慮して、画像内位置推定部56により算出された道路構成物(縁石)の画素位置(X,Y),(X,Y)に対して適切な余裕しろを付与する。具体的には、道路構成物を中心として、X軸方向にΣerrX×2、Y軸方向にΣerrY×2、Z軸方向にΣerrZ×2の立方空間を想定し、この立方空間が画像に投影される範囲を、探索枠として設定する。なお、最小探索枠設定部60は、複数の道路構成物が存在する場合には、道路構成物ごとに探索枠を設定する。 The minimum search frame setting unit 60 performs a process of setting a frame for searching for each road component in images taken by the left and right cameras. As shown in FIG. 25, the pixel position (X L , Y) of the road component (curbstone) calculated by the in-image position estimation unit 56 in consideration of the position error integrated values ΣerrX, ΣerrY, ΣerrZ in the respective axial directions. L ), (X R , Y R ) are given a suitable margin. Specifically, assuming a road component as a center, a cubic space of ΣerrX × 2 in the X-axis direction, ΣerrY × 2 in the Y-axis direction, and ΣerrZ × 2 in the Z-axis direction is assumed, and this cubic space is projected onto the image. Set the search range as a search frame. Note that the minimum search frame setting unit 60 sets a search frame for each road component when there are a plurality of road components.

認識対象物種別設定部62は、認識対象となる道路構成物の種別を設定する処理を行う。ここで、認識対象物種別設定部62は、最小探索枠設定部60により設定された複数の探索枠の中から、既述の道路構成物位置算出部50により探索距離内にあるものとして判定された道路構成物の探索枠のみを設定する。   The recognition target object type setting unit 62 performs a process of setting the type of the road object to be recognized. Here, the recognition target object type setting unit 62 is determined as being within the search distance by the above-described road component position calculation unit 50 from the plurality of search frames set by the minimum search frame setting unit 60. Only the search frame of the road component is set.

対象物認識部(第2の位置算出部)64は、左右の画像に設定された探索枠の範囲内で、認識対象の道路構成物をエッジ抽出やパターン認識技術を用いて検出し、左側の画像データにおける道路構成物の画素位置Pl(xl,yl)と、右側の画像データにおける道路構成物の画素位置Pr(xr,yr)を求める。対象物認識部64は、これらの画素位置Pl,Prに基づいて、撮像座標系における道路構成物が存在する位置P(Xps,Yps,Zps)を算出し、最終的にはこの位置P(Xps,Yps,Zps)を車両改座標系における存在位置P(Xpf,Ypf,Zpf)に変換する。ここで算出された道路構成物の相対位置には、GPS装置による計測誤差が含まれていない。 The object recognition unit (second position calculation unit) 64 detects the road object to be recognized within the search frame set in the left and right images using edge extraction or pattern recognition technology, and The pixel position Pl (xl, yl) of the road component in the image data and the pixel position Pr (xr, yr) of the road component in the right image data are obtained. The object recognition unit 64 calculates a position P (X ps , Y ps , Z ps ) where the road component exists in the imaging coordinate system based on these pixel positions Pl and Pr, and finally these positions. P (X ps , Y ps , Z ps ) is converted into an existing position P (X pf , Y pf , Z pf ) in the vehicle modified coordinate system. The relative position of the road component calculated here does not include a measurement error by the GPS device.

自車位置補正部66は、既述の道路構成物位置算出部50により算出された道路構成物の位置データ、及び対象物認識部64により認識された道路構成物の位置データに基づいて、GPS装置により検出される自車の位置データを補正する処理を行う。この処理を、図26を参照して説明する。   The own vehicle position correction unit 66 performs GPS based on the position data of the road structure calculated by the road structure position calculation unit 50 described above and the position data of the road structure recognized by the object recognition unit 64. A process of correcting the position data of the own vehicle detected by the device is performed. This process will be described with reference to FIG.

自車位置補正部66は、これまでの処理によって、自車の位置データPg、目標走行軌跡の点の位置データPt、地図データベースに目標走行軌跡と共に記憶された道路構成物の位置データPm及び延在方向のデータβ2を把握している。自車位置補正部66は、目標走行軌跡の点Ptから道路構成物Pmまでの直線L1を想定し、この直線L1と、対象物認識部64により検出された道路構成物Qとの交差位置Pnを算出する。そして、自車位置補正部66は、GPSによる道路構成物の位置Pmと、画像認識による道路構成物の位置Pnとの差分ΔLを算出する。また、自車位置補正部66は、直線L1と道路構成物Qとが成す角度β3を算出する。   The own vehicle position correction unit 66 has performed the process up to this point so that the position data Pg of the own vehicle, the position data Pt of the points of the target travel locus, the position data Pm of the road components stored in the map database together with the target travel locus, and the The data β2 in the current direction is grasped. The own vehicle position correction unit 66 assumes a straight line L1 from the point Pt of the target travel locus to the road component Pm, and an intersection position Pn between the straight line L1 and the road component Q detected by the object recognition unit 64. Is calculated. Then, the vehicle position correction unit 66 calculates a difference ΔL between the position Pm of the road component by GPS and the position Pn of the road structure by image recognition. In addition, the host vehicle position correction unit 66 calculates an angle β3 formed by the straight line L1 and the road component Q.

自車位置補正部66は、位置データベースに記憶された道路構成物Pmの延在方向β2と、対象物認識部64により算出された道路構成物の延在方向β3の差分の絶対値|β2−β3|を算出して、この絶対値が予め設定された閾値より大きいか否かを判定する。ここで、絶対値が閾値より小さい場合には、検出状況が正常であるため、続いて自車位置の補正処理を行う。一方、絶対値が閾値より大きい場合には、検出状況が異常であるため、自車位置の補正処理を行わずに処理を終了する。   The own vehicle position correcting unit 66 calculates the absolute value of the difference between the extending direction β2 of the road component Pm stored in the position database and the extending direction β3 of the road component calculated by the object recognizing unit 64 | β2−. β3 | is calculated, and it is determined whether or not the absolute value is larger than a preset threshold value. Here, when the absolute value is smaller than the threshold value, the detection status is normal, and subsequently, correction processing of the own vehicle position is performed. On the other hand, if the absolute value is larger than the threshold value, the detection status is abnormal, and the process is terminated without performing the correction process of the vehicle position.

絶対値が閾値より小さい場合には、自車位置補正部66は、図27に示されるように、実測自車位置Pgから存在方向に延びる直線L1に垂線を下ろしたときに、その直線L1と垂線とが交差する位置を算出し、さらに、存在方向に延びる直線L1上で、この交差位置から差分ΔLだけ移動された点Prの位置を算出する。この点Prの位置が、補正後の自車位置とされる。これにより、GPS装置による計測誤差が補正される。   When the absolute value is smaller than the threshold value, the own vehicle position correcting unit 66, when the perpendicular is lowered to the straight line L1 extending in the existing direction from the measured own vehicle position Pg, as shown in FIG. The position where the perpendicular intersects is calculated, and further, the position of the point Pr moved by the difference ΔL from the intersection position on the straight line L1 extending in the existence direction is calculated. The position of this point Pr is the corrected vehicle position. Thereby, the measurement error by the GPS device is corrected.

なお、GPS装置の計測誤差が、破線にて示される円Eの範囲内にあるときには、上述したように自車位置を点Prに補正すると、自車の位置データは過剰に補正されてしまうこととなる。このような事態を回避するために、点PrがGPS装置の計測誤差Pの範囲外にあるときには、直線L1と円Eとの交点Puの位置を、補正後の自車位置として算出する。   When the measurement error of the GPS device is within the range of the circle E indicated by the broken line, if the vehicle position is corrected to the point Pr as described above, the position data of the vehicle is excessively corrected. It becomes. In order to avoid such a situation, when the point Pr is outside the range of the measurement error P of the GPS device, the position of the intersection Pu between the straight line L1 and the circle E is calculated as the corrected vehicle position.

また、自車位置補正部66は、GPS装置の計測誤差が所定閾値より大きい場合に、GPS装置により計測された車両位置を補正し、GPS装置の計測誤差が所定閾値より小さいときに、GPS装置により計測された車両位置の補正を禁止してもよい。この構成によれば、GPS装置の計測誤差が所定閾値より大きい場合にのみ、GPS装置により計測された車両位置を補正することで、制御上必要な場合にのみ車両位置を補正することができる。   The own vehicle position correcting unit 66 corrects the vehicle position measured by the GPS device when the measurement error of the GPS device is larger than a predetermined threshold, and when the measurement error of the GPS device is smaller than the predetermined threshold, Correction of the vehicle position measured by may be prohibited. According to this configuration, the vehicle position can be corrected only when necessary for control by correcting the vehicle position measured by the GPS device only when the measurement error of the GPS device is larger than the predetermined threshold.

制御指令出力部68は、補正後の自車位置Prが、目標走行軌跡上の点(Pt+1,Pt+2,Pt+3,・・・)に調節されるように、車両の速度、操舵角等を制御するための指令を出力する。なお、NOxの濃度分布マップを記憶しておき、NOxが多い地区では、制御指令出力部68が自動的にエンジン駆動からモータ駆動に切り替えてもよい。 The control command output unit 68 adjusts the vehicle speed Pr, the steering angle, etc. so that the corrected vehicle position Pr is adjusted to points (P t + 1 , P t + 2 , P t + 3 ,...) On the target travel locus. Outputs a command to control. Note that a NOx concentration distribution map may be stored, and the control command output unit 68 may automatically switch from engine driving to motor driving in a region where there is a large amount of NOx.

次に、図28のフローチャートを参照して、自動走行装置3の処理の流れについて説明する。データ処理装置42は、撮像装置40により生成された画像データを取り込む(S201)。次に、データ処理装置42は、車両の位置、方位、姿勢の計測データを取り込む(S202)。次に、データ処理装置42は、マップデータベース46から目標走行軌跡の情報を取り込み、目標走行軌跡を規定する多数の点の中から、計測された車両位置に最も近い点のデータを抽出する(S203)。次に、データ処理装置42は、GPS装置による車両位置の計測データ、及び目標走行軌跡の最も近接した点のデータに基づいて、車両座標系における道路構成物の相対位置を算出する(S204)。   Next, the processing flow of the automatic travel device 3 will be described with reference to the flowchart of FIG. The data processing device 42 takes in the image data generated by the imaging device 40 (S201). Next, the data processing device 42 takes in the measurement data of the position, orientation, and attitude of the vehicle (S202). Next, the data processing device 42 takes in the information of the target travel locus from the map database 46, and extracts the data of the point closest to the measured vehicle position from the many points that define the target travel locus (S203). ). Next, the data processing device 42 calculates the relative position of the road component in the vehicle coordinate system based on the measurement data of the vehicle position by the GPS device and the data of the closest point of the target travel locus (S204).

次に、データ処理装置42は、左右のカメラにより撮影された画像データにおいて、道路構成物が存在し得る画素範囲を、探索範囲として算出する(S205)。データ処理装置42は、左右の画像データの探索範囲から道路構成物の検出し、車両座標系における道路構成物の相対位置を算出する(S206)。データ処理装置42は、ステップ204で算出された道路構成物の相対位置と、ステップ206で算出された道路構成物の相対位置とを比較して、自車位置を補正する(S207)。データ処理装置42は、補正後の自車位置に基づいて、自車が目標走行軌跡を走行するように制御値を決定し、制御を実行する(S208)。データ処理装置42は、上述した処理を終了するか否かを決定する。ここで、処理を終了しない場合にはS201に戻る(S209)。   Next, the data processing device 42 calculates, as a search range, a pixel range in which a road component can exist in the image data captured by the left and right cameras (S205). The data processing device 42 detects the road component from the search range of the left and right image data, and calculates the relative position of the road component in the vehicle coordinate system (S206). The data processing device 42 compares the relative position of the road component calculated in step 204 with the relative position of the road component calculated in step 206, and corrects the own vehicle position (S207). Based on the corrected vehicle position, the data processing device 42 determines a control value so that the vehicle travels on the target travel locus, and executes control (S208). The data processing device 42 determines whether or not to end the above-described processing. If the process is not terminated, the process returns to S201 (S209).

[道路構成物の認識方法の改良]
次に、上述した実施形態に係る自動走行用マップ作成装置1及び自動走行装置3において、車両に取り付けられる撮像装置10,40の改良された構造、及びこの撮像装置10,40により撮影された画像データから道路構成物を検出する方法について説明する。
[Improved method for recognizing road components]
Next, in the automatic travel map creation device 1 and the automatic travel device 3 according to the above-described embodiment, an improved structure of the imaging devices 10 and 40 attached to the vehicle, and an image photographed by the imaging devices 10 and 40. A method for detecting road components from data will be described.

図29に示されるように、撮像装置10,40は、1個のCCDカメラ70にステレオレンズユニット72が取り付けられて構成されている。ステレオレンズユニット72には、2つのレンズ74H,74Lが50mm程度上下に離して配置されている。上側のレンズ74Hにより集光された光束は、2枚のミラー76H,76Hにより反射されてCCDカメラ70に至る。同様に、下側のレンズ74Lにより集光された光束は、2枚のミラー76L,76Lにより反射されてCCDカメラ70に至る。撮像装置10,40は、撮像対象Oをステレオ視した2つの画像部分を含む1つの画像データIを生成して、この画像データIをデータ処理装置12,42に向けて出力する。このように撮像装置10,40を構成することにより、画像データIを画像処理に適したものとすることができ、また、撮像装置10,40の低価格化したり、小型化することができる。 As shown in FIG. 29, the imaging devices 10 and 40 are configured by attaching a stereo lens unit 72 to one CCD camera 70. In the stereo lens unit 72, two lenses 74H and 74L are arranged so as to be separated from each other by about 50 mm. The light beam collected by the upper lens 74H is reflected by the two mirrors 76H 1 and 76H 2 and reaches the CCD camera 70. Similarly, the light beam condensed by the lower lens 74L is reflected by the two mirrors 76L 1 and 76L 2 and reaches the CCD camera 70. The imaging devices 10 and 40 generate one image data I including two image portions obtained by viewing the imaging target O in stereo, and output the image data I to the data processing devices 12 and 42. By configuring the imaging devices 10 and 40 in this manner, the image data I can be made suitable for image processing, and the imaging devices 10 and 40 can be reduced in price or downsized.

上述した撮像装置10,40は、図30(a)に示されるように、車両のサイドミラーの位置に取り付けられる。撮像装置10,40のカメラ視線方向を斜め下方に向けることにより、車両の側方にある白線、側溝、ガイドレール、並走車両等を検出可能である。なお、視野が広角のレンズを選択することにより、図30(b)に示されるように、車両の側方を全範囲(180°)に渡って撮像可能とすることが好ましい。   The imaging devices 10 and 40 described above are attached to the position of the side mirror of the vehicle as shown in FIG. By directing the camera line-of-sight direction of the imaging devices 10 and 40 obliquely downward, it is possible to detect white lines, side grooves, guide rails, parallel running vehicles, and the like on the side of the vehicle. Note that, by selecting a lens with a wide field of view, it is preferable that the side of the vehicle can be imaged over the entire range (180 °), as shown in FIG.

次に、図31のフローチャートを参照しつつ、データ処理装置12,42による処理の流れを説明する。図31のフローチャートに示される処理は、マップ作成装置1の道路構成物認識部18、及び自動走行装置3の対象物認識部64で行われる処理である。   Next, the flow of processing by the data processing devices 12 and 42 will be described with reference to the flowchart of FIG. The process shown in the flowchart of FIG. 31 is a process performed by the road component recognition unit 18 of the map creation device 1 and the object recognition unit 64 of the automatic travel device 3.

先ず、データ処理装置12,42は、撮像装置10,40により撮像された画像データを取得する(S301)。取得される画像データの一例を、図32(a)に示す。データ処理装置12,42は、画像データから横方向エッジを抽出して、図32(b)に示される結果を得る(S302)。次に、データ処理装置12,42は、道路構成物の認識処理を行うべき探索範囲を算出する(S303)。ここで行われる探索範囲の導出は、図28のフローチャートを参照して説明したステップ202からステップ205までと同じ処理である。   First, the data processing devices 12 and 42 acquire image data captured by the imaging devices 10 and 40 (S301). An example of the acquired image data is shown in FIG. The data processing devices 12 and 42 extract the horizontal edge from the image data, and obtain the result shown in FIG. 32B (S302). Next, the data processing devices 12 and 42 calculate a search range in which road component recognition processing is to be performed (S303). The derivation of the search range performed here is the same processing from step 202 to step 205 described with reference to the flowchart of FIG.

次に、データ処理装置12,42は、図32(c)に示されるように、横方向エッジの抽出結果において、上下に延びる直線を想定し、横方向エッジと直線との複数の交点の画素位置を求める。そして、データ処理装置12,42は、エピポーラ拘束を利用して、上側画像部分及び下側画像部分から同一の道路構成物に対応する交点を求める(S304)。これにより、図32(c)に示されるように、上側画像部分のガイドレールに対応する交点と、下側画像部分のガイドレールに対応する交点とが、互いに対応関係にある一対の交点として求められる。同様に、上側画像部分の側溝に対応する交点と、下側画像部分の側溝に対応する交点とが、互いに対応関係にある一対の交点として求められる。   Next, as shown in FIG. 32C, the data processing devices 12 and 42 assume a straight line extending in the vertical direction in the horizontal edge extraction result, and pixels at a plurality of intersections of the horizontal edge and the straight line. Find the position. Then, the data processing devices 12 and 42 obtain an intersection corresponding to the same road component from the upper image portion and the lower image portion using the epipolar constraint (S304). As a result, as shown in FIG. 32 (c), the intersection corresponding to the guide rail in the upper image portion and the intersection corresponding to the guide rail in the lower image portion are obtained as a pair of intersections having a corresponding relationship with each other. It is done. Similarly, an intersection point corresponding to the side groove of the upper image portion and an intersection point corresponding to the side groove of the lower image portion are obtained as a pair of intersection points corresponding to each other.

次に、データ処理装置12,42は、互いに対応関係にある一対の交点から、車両座標系における交点の3次元位置を算出する(S305)。図33に示されるように、横方向エッジは車両の前後方向に沿って延びており、矢印Aに従って車両の前方から見ると、交点は図34に示されるように車両の側方の位置にある。   Next, the data processing devices 12 and 42 calculate the three-dimensional position of the intersection in the vehicle coordinate system from the pair of intersections that are in a corresponding relationship with each other (S305). As shown in FIG. 33, the lateral edge extends along the front-rear direction of the vehicle, and when viewed from the front of the vehicle according to the arrow A, the intersection is located on the side of the vehicle as shown in FIG. .

次に、データ処理装置12,42は、道路構成物(白線、縁石、ガードレール、側溝、道路境界など)の種別を判定する処理を行う。ここで、データ処理装置12,42は、自車が載っている平面より予め設定された閾値Th1以上の高さを持つ交点に関しては、道路構成物の種別がガイドレール等の障害物であることを判定する。但し、自車が載っている平面より所定閾値Th1以内の高さを持つ交点に関しては、道路構成物の種別が不明である。そこで、データ処理装置12,42は以下の処理を行う。   Next, the data processing devices 12 and 42 perform a process of determining the type of road component (white line, curbstone, guardrail, gutter, road boundary, etc.). Here, regarding the intersection having a height equal to or higher than the threshold Th1 set in advance from the plane on which the own vehicle is placed, the data processing devices 12 and 42 are such that the type of road component is an obstacle such as a guide rail. Determine. However, the type of the road component is unknown at the intersection having a height within the predetermined threshold Th1 from the plane on which the host vehicle is placed. Therefore, the data processing devices 12 and 42 perform the following processing.

データ処理装置12,42は、図35(a)に示されるように、上側画像部分及び下側画像部分のそれぞれにおいて互いに対応関係にある2点を含んでいる矩形の範囲R,Rを設定し、図35(b)に示されるように、さらにこれらの矩形の範囲R,Rにおいて2点D,D間に複数の小領域SR,SR,SRを設定する。ここで、複数の小領域を設定する際に正規化相関や差分総和などのパターンマッチング処理を行うことにより、上側画像部分の小領域は、下側画像部分の小領域に対して相関値が高くなる位置に設定されている。なお、複数の小領域は、互いに重なるように設定されてもよい。 As shown in FIG. 35A, the data processing devices 12 and 42 store rectangular ranges R H and R L including two points corresponding to each other in each of the upper image portion and the lower image portion. Then, as shown in FIG. 35 (b), a plurality of small regions SR 1 , SR 2 , SR 3 are further set between the two points D 1 , D 2 in the rectangular ranges R H , R L. . Here, by performing pattern matching processing such as normalized correlation and difference summation when setting a plurality of small regions, the small region of the upper image portion has a higher correlation value than the small region of the lower image portion. Is set to a position. Note that the plurality of small regions may be set to overlap each other.

次に、データ処理装置12,42は、上側画像部分の小領域の画素位置、及びそれに対応する下側画像部分の小領域の画素位置に基づいて、車両座標系における小領域の3次元位置を算出する。データ処理装置12,42は、図36(a)に示されるように、小領域の3次元位置が、自車が載っている平面から閾値Th2より低い場合には、道路構成物が側溝であることを判定する。一方、データ処理装置12,42は、図36(b)に示されるように、小領域の3次元位置が、自車が載っている平面から閾値Th2の範囲内にある場合、道路構成物が白線、道路の模様等であることを判定する。   Next, the data processing devices 12 and 42 determine the three-dimensional position of the small area in the vehicle coordinate system based on the pixel position of the small area of the upper image portion and the corresponding pixel position of the small area of the lower image portion. calculate. As shown in FIG. 36 (a), when the three-dimensional position of the small area is lower than the threshold value Th2 from the plane on which the host vehicle is mounted, the data processing devices 12 and 42 are side grooves. Judge that. On the other hand, as shown in FIG. 36 (b), the data processing devices 12 and 42, when the three-dimensional position of the small area is within the range of the threshold Th2 from the plane on which the host vehicle is placed, It is determined that the line is a white line or a road pattern.

なお、上述した道路構成物の認識処理では、データ処理装置12,42は、小領域の3次元位置が自車が載っている平面から閾値Th2より低い場合に、道路構成物を側溝であることを判定したが、データ処理装置は、横方向エッジ間の領域の位置が、自車が載っている平面よりも低く、且つその平面に対して垂直に並んでいる場合に、道路構成物が側溝であることを判定してもよい。   Note that, in the above-described road component recognition processing, the data processing devices 12 and 42 determine that the road component is a gutter when the three-dimensional position of the small area is lower than the threshold Th2 from the plane on which the vehicle is placed. However, when the position of the region between the lateral edges is lower than the plane on which the vehicle is placed and is aligned vertically with respect to the plane, the data processing apparatus determines that the road component is in the side groove. It may be determined.

また、データ処理装置12,42は、自車C1の側方で並走している並走車両C2がある場合には、その並走車両C2の存在を判定する処理を行う。並走車両C2は、図37に示されるように撮像装置10,40の視野に入るため、並走車両C2が自車C1の真横にある場合には、図38に示される枠内を撮影した画像データが得られる。   In addition, when there is a parallel running vehicle C2 that is running parallel to the side of the host vehicle C1, the data processing devices 12 and 42 perform processing for determining the presence of the parallel running vehicle C2. Since the parallel running vehicle C2 enters the field of view of the imaging devices 10 and 40 as shown in FIG. 37, when the parallel running vehicle C2 is directly beside the host vehicle C1, the inside of the frame shown in FIG. 38 is photographed. Image data is obtained.

データ処理装置12,42は、撮像装置10,40により撮像された画像データを取得する(S301)。図39(a)に示されるように、この画像データには、並走車両C2の側面が撮影された上側画像部分及び下側画像部分が含まれている。次に、データ処理装置12,42は、画像データから横方向エッジを抽出して、図39(b)に示される結果を得る(S302)。図39(b)の結果には、ルーフ、窓枠、ボディライン、ボディ下面等に対応する横方向エッジが含まれている。   The data processing devices 12 and 42 obtain image data captured by the imaging devices 10 and 40 (S301). As shown in FIG. 39A, the image data includes an upper image portion and a lower image portion in which the side surface of the parallel running vehicle C2 is photographed. Next, the data processing devices 12 and 42 extract the horizontal edge from the image data, and obtain the result shown in FIG. 39B (S302). The result of FIG. 39B includes lateral edges corresponding to the roof, window frame, body line, lower surface of the body, and the like.

次に、データ処理装置12,42は、図39(c)に示されるように、横方向エッジの抽出結果において、上下に延びる直線を想定し、横方向エッジと直線との複数の交点の画素位置を求める。そして、データ処理装置12,42は、エピポーラ拘束を利用して、上側画像部分及び下側画像部分から並走車両の同一部位に対応する交点を求める(S304)。これにより、上側画像部分のルーフに対応する交点と、下側画像部分のルーフに対応する交点とが、互いに対応関係にある一対の交点として求められる。同様に、窓枠、ボディライン、ボディ下面等について、上側画像部分の交点及び下側画像部分の交点が、互いに対応関係にある一対の交点として求められる。   Next, as shown in FIG. 39C, the data processing devices 12 and 42 assume a straight line extending in the vertical direction in the horizontal edge extraction result, and pixels at a plurality of intersections of the horizontal edge and the straight line. Find the position. Then, the data processing devices 12 and 42 obtain an intersection corresponding to the same part of the parallel running vehicle from the upper image portion and the lower image portion using the epipolar constraint (S304). As a result, the intersection corresponding to the roof of the upper image portion and the intersection corresponding to the roof of the lower image portion are obtained as a pair of intersections having a corresponding relationship. Similarly, with respect to the window frame, the body line, the lower surface of the body, and the like, the intersection of the upper image portion and the intersection of the lower image portion are obtained as a pair of intersection points that correspond to each other.

次に、データ処理装置12,42は、各対の交点の画素位置に基づいて、車両座標系における交点の3次元位置を算出する。データ処理装置12,42は、算出された各交点の3次元位置に基づいて並走車両であるか否かを判定し、並走車両である場合には、自車から並走車両までの相対距離と、自車を基準とした並走車両の相対角度を出力する。なお、各交点の3次元位置に基づいて並走車両であるか否かを判定するためには、多数の交点の高さが所定閾値以上であることを判定したり、多数の交点の配列具合から判定すればよい。   Next, the data processing devices 12 and 42 calculate the three-dimensional position of the intersection in the vehicle coordinate system based on the pixel position of each pair of intersections. The data processing devices 12 and 42 determine whether or not the vehicle is a parallel running vehicle based on the calculated three-dimensional position of each intersection. The distance and the relative angle of the parallel running vehicle with respect to the host vehicle are output. In order to determine whether or not the vehicle is a parallel running vehicle based on the three-dimensional position of each intersection, it is determined that the height of a large number of intersections is greater than or equal to a predetermined threshold value, It can be determined from.

データ処理装置12,42は、上述した認識処理のほか、全ての道路構成物や障害物などについて種別を認識する処理を行い、その認識結果を出力する(S309)。   In addition to the recognition processing described above, the data processing devices 12 and 42 perform processing for recognizing the types of all road components and obstacles, and output the recognition results (S309).

[撮像装置の配置の改良]
次に、上述した実施形態に係る自動走行装置3において、車両に取り付けられる撮像装置40の改良された配置、及びその利用方法について説明する。図40に示されるように、車両には、4つの撮像装置40A,40B,40C,40Dが取り付けられている。詳しくは、車両には、車両の前側の領域Rを撮影する撮像装置40A、車両の左側の領域Rを撮影する撮像装置40B、車両の右側の領域Rを撮影する撮像装置40C、及び車両の後側の領域Rを撮影する撮像装置40Dが設けられている。ここで、各撮像装置40A〜40Dは、ステレオ視した画像データを生成するものでもよいし、ステレオ視でない通常の画像データを生成する単眼カメラでもよい。
[Improvement of image pickup device arrangement]
Next, in the automatic traveling device 3 according to the above-described embodiment, an improved arrangement of the imaging device 40 attached to the vehicle and a usage method thereof will be described. As shown in FIG. 40, four imaging devices 40A, 40B, 40C, and 40D are attached to the vehicle. Specifically, the vehicle, the imaging device 40C for capturing the image pickup apparatus 40A for capturing a front side of the region R A of the vehicle, the image pickup device 40B for photographing a left region R B of the vehicle, the right area R C of the vehicle and, An imaging device 40D that captures an area RD on the rear side of the vehicle is provided. Here, each of the imaging devices 40A to 40D may generate stereo-viewed image data, or may be a monocular camera that generates normal image data that is not stereo-viewed.

上述したように、車両に4つの撮像装置40A〜40Dを設けた場合には、車両の左斜め前方、右斜め前方、左斜め後方および右斜め後方で、2つの撮像装置の撮像領域が部分的に重複している。よって、2つの撮像装置により生成された画像データにおいて、撮像領域が重複した部分の画像データをステレオ視した画像データとして利用することで、データ処理装置は、道路構成物の位置を算出することができる。例えば、図40に示されるように、車両の左斜め前方において、車両の前方を撮影する撮像装置の撮像領域Rと、車両の左側方を撮影する撮像装置の撮像領域Rとが重なっている。また、車両の左斜め後方において、車両の左側方を撮影する撮像装置の撮像領域Rと、車両の後方を撮影する撮像装置の撮像領域Rとが重なっている。データ処理装置42は、このように重なった撮像領域に、ガイドレールや側溝などの道路構成物がある場合に、2つの撮像装置により生成された画像データをステレオ視した画像データとして用いることで、道路構成物や側溝などの位置を算出することができる。 As described above, when the four image pickup devices 40A to 40D are provided in the vehicle, the image pickup areas of the two image pickup devices are partially located at the left diagonal front, right diagonal front, left diagonal rear and right diagonal rear of the vehicle. Is duplicated. Therefore, in the image data generated by the two imaging devices, the data processing device can calculate the position of the road component by using the image data of the portion where the imaging regions overlap as stereo image data. it can. For example, as shown in FIG. 40, the diagonally forward left of the vehicle, and the imaging region R A of the imaging device for photographing the front of the vehicle, overlap with the imaging region R B of the imaging apparatus for capturing a left side of the vehicle Yes. Further, in the left oblique rear of the vehicle, it overlaps with the imaging region R B of the imaging apparatus for capturing a left side of the vehicle, and the imaging region R D of an imaging device for photographing the rear of the vehicle. The data processing device 42 uses the image data generated by the two imaging devices as stereo-viewed image data when there are road components such as guide rails and gutters in the overlapping imaging regions in this way, The position of road components and gutters can be calculated.

さらに、データ処理装置は、算出された道路構成物の位置に基づいて、重複しない領域の道路構成物の位置を推定することができる。例えば、車両の左斜め前方において、直線状のガードレールや側溝などが検出され、車両の左斜め後方において、直線状のガードレールや側溝などが検出された場合に、左斜め前方の直線と左斜め後方の直線が同一直線である場合には、車両の左側の領域Rにおいて、その直線の位置にガイドレールや側溝などがあることを推定することができる。 Furthermore, the data processing apparatus can estimate the position of the road structure in the non-overlapping region based on the calculated position of the road structure. For example, when a straight guardrail or a side groove is detected at the left front of the vehicle, and when a straight guardrail or a side groove is detected at the left rear of the vehicle, the left front straight line and the left rear rear are detected. If straight line is collinear, in the region R B on the left side of the vehicle it can be estimated that there is such as a guide rail or groove in the position of the straight line.

また、上述したように車両に4つの撮像装置40A〜40Dを設けた場合には、データ処理装置42は、4つの撮像装置40A〜40Dにより得られた画像データを処理することにより、図41に示されるような、車両の周囲のマップを生成することができる。このマップでは、車両の周囲にある道路構成物(ガードレール、側溝等)や障害物(樹木、三角コーン等)などの存在位置が示されており、さらに、道路構成物や障害物などがあるために車両から見えない死角となる領域が黒塗りで示されている。   In addition, when the four imaging devices 40A to 40D are provided in the vehicle as described above, the data processing device 42 processes the image data obtained by the four imaging devices 40A to 40D, so that FIG. A map around the vehicle, as shown, can be generated. This map shows the locations of road components (guardrails, gutters, etc.) and obstacles (trees, triangular cones, etc.) around the vehicle, and because there are road components and obstacles. The area where the blind spot is invisible to the vehicle is shown in black.

このようなマップを生成するために、データ処理装置42は、死角となる領域を算出する処理を行う。この処理を、図42(a),(b)を参照して説明する。図42(a)は、撮像装置40、障害物及びその死角を水平方向から見た図であり、図42(b)は、それらを上方から見た図である。データ処理装置42は、図42(a)に示されるように、自車が載っている平面上で、死角となる領域が続く距離Lを算出する。また、データ処理装置42は、図42(b)に示されるように、自車が載っている平面上で、死角となる領域の幅Wを算出する。そして、データ処理装置42は、算出された距離L及び幅Wにより囲われる範囲を、死角となる領域とする。   In order to generate such a map, the data processing device 42 performs a process of calculating a blind spot area. This process will be described with reference to FIGS. 42 (a) and (b). Fig.42 (a) is the figure which looked at the imaging device 40, the obstruction, and its blind spot from the horizontal direction, and FIG.42 (b) is the figure which looked at them from the upper direction. As shown in FIG. 42A, the data processing device 42 calculates a distance L that is followed by an area that becomes a blind spot on the plane on which the host vehicle is placed. Further, as shown in FIG. 42 (b), the data processing device 42 calculates the width W of a region that becomes a blind spot on the plane on which the host vehicle is placed. Then, the data processing device 42 sets a range surrounded by the calculated distance L and width W as a blind area.

自動走行用マップ作成装置を示すブロック図である。It is a block diagram which shows the map preparation apparatus for automatic driving | running | working. 道路構成物の位置算出を説明するための図である。It is a figure for demonstrating the position calculation of a road component. 座標変換を説明するための図である。It is a figure for demonstrating coordinate transformation. 世界平面直角座標系を示す図である。It is a figure which shows a world plane rectangular coordinate system. 世界平面座標系を示す図である。It is a figure which shows a world plane coordinate system. 道路構成物の位置の計測誤差を示すグラフである。It is a graph which shows the measurement error of the position of a road composition. 車両の走行軌跡の一連の計測点を示す図である。It is a figure which shows a series of measurement points of the driving | running | working locus | trajectory of a vehicle. 車両の走行軌跡を示す図である。It is a figure which shows the driving | running | working locus | trajectory of a vehicle. 走行軌跡に対する重み付けを示す図である。It is a figure which shows the weighting with respect to a driving | running | working locus. 重み付け後の走行軌跡を示す図である。It is a figure which shows the running locus after weighting. 走行軌跡に対する別の重み付けを示す図である。It is a figure which shows another weighting with respect to a driving | running | working locus. 走行軌跡マップを示す画像データである。It is image data which shows a driving locus map. 走行軌跡重み加算マップを示す画像データである。It is image data which shows a running locus weight addition map. 目標走行軌跡の算出を説明するための図である。It is a figure for explaining calculation of a target run locus. 道路構成物マップを示す画像データである。It is image data which shows a road component map. 道路構成物マップを示す画像データである。It is image data which shows a road component map. 各回の道路構成物マップを示す画像データである。It is image data which shows the road component map of each time. 道路構成物重み加算マップを示す画像データである。It is image data which shows a road component weight addition map. 道路構成物の存在位置を示す画像データである。It is image data which shows the presence position of a road component. 重み加算マップの階層構造を示す図である。It is a figure which shows the hierarchical structure of a weight addition map. マップデータベースに記憶される情報を説明するための図である。It is a figure for demonstrating the information memorize | stored in a map database. マップデータベースに記憶される情報を説明するための図である。It is a figure for demonstrating the information memorize | stored in a map database. マップ作成装置の処理を示すフローチャートである。It is a flowchart which shows the process of a map production apparatus. 自動走行装置を示すブロック図である。It is a block diagram which shows an automatic traveling apparatus. 探索範囲の設定を説明するための図である。It is a figure for demonstrating the setting of a search range. 自車位置の補正を説明するための図である。It is a figure for demonstrating correction | amendment of the own vehicle position. 自車位置の補正を説明するための図である。It is a figure for demonstrating correction | amendment of the own vehicle position. 自動走行装置の処理を示すフローチャートである。It is a flowchart which shows the process of an automatic traveling apparatus. 撮像装置の変形例を示す図である。It is a figure which shows the modification of an imaging device. 撮像装置の配置を示す図である。It is a figure which shows arrangement | positioning of an imaging device. データ処理装置の処理を示すフローチャートである。It is a flowchart which shows the process of a data processor. 道路構成物の位置の算出を説明するための図である。It is a figure for demonstrating calculation of the position of a road component. 抽出された横方向エッジの位置を示す図である。It is a figure which shows the position of the extracted horizontal direction edge. 車両と横方向エッジの位置関係を示す図である。It is a figure which shows the positional relationship of a vehicle and a horizontal direction edge. 側溝の検出を説明するための図である。It is a figure for demonstrating the detection of a side groove. 側溝の検出を説明するための図である。It is a figure for demonstrating the detection of a side groove. 並走車両の検出を説明するための図である。It is a figure for demonstrating the detection of a parallel running vehicle. 並走車両の検出を説明するための図である。It is a figure for demonstrating the detection of a parallel running vehicle. 並走車両の検出を説明するための図である。It is a figure for demonstrating the detection of a parallel running vehicle. 撮像装置の配置を示す図である。It is a figure which shows arrangement | positioning of an imaging device. 車両周囲の道路構成物、障害物及びそれらの死角を示すマップである。It is a map which shows the road structure around a vehicle, an obstruction, and those blind spots. 死角の範囲の算出を説明するための図である。It is a figure for demonstrating calculation of the range of a blind spot.

符号の説明Explanation of symbols

1…自動走行用マップ作成装置、3…自動走行装置、10…撮像装置、12…データ処理装置、14…車両位置・方位・姿勢検出部、16…画像データ取込部、18…道路構成物認識部、20…位置算出部、22…最大誤差算出部、24…計測情報書き込み部、26…計測点情報記憶部、28…同一道路情報抽出部、30…同一道路情報結合部、32…マップデータ書き込み部、34,46…マップデータベース、40…撮像装置、42…データ処理装置、44…車両位置・方位・姿勢検出部、48…画像データ取込部、50…道路構成物位置算出部、52…探索距離設定部、56…画像内位置推定部、58…誤差影響算出部、60…最小探索枠設定部、62…認識対象物種別設定部、64…対象物認識部、66…自車位置補正部、68…制御指令出力部。
DESCRIPTION OF SYMBOLS 1 ... Automatic travel map creation apparatus, 3 ... Automatic travel apparatus, 10 ... Imaging apparatus, 12 ... Data processing apparatus, 14 ... Vehicle position / orientation / attitude detection part, 16 ... Image data capture part, 18 ... Road component Recognizing unit, 20 ... position calculating unit, 22 ... maximum error calculating unit, 24 ... measurement information writing unit, 26 ... measuring point information storage unit, 28 ... same road information extracting unit, 30 ... same road information combining unit, 32 ... map Data writing unit, 34, 46 ... map database, 40 ... imaging device, 42 ... data processing device, 44 ... vehicle position / orientation / attitude detection unit, 48 ... image data capturing unit, 50 ... road component position calculating unit, 52 ... Search distance setting unit, 56 ... In-image position estimation unit, 58 ... Error effect calculation unit, 60 ... Minimum search frame setting unit, 62 ... Recognition object type setting unit, 64 ... Object recognition unit, 66 ... Own vehicle Position correction unit, 68 ... Command output unit.

Claims (6)

道路に沿った領域が多数の小領域に分割され、各小領域ごとに計測対象の存在を示す重みが対応付けられるマップが記憶された記憶手段と、
計測機器を搭載した車両が同一の道路を複数回走行することにより得られる計測対象の複数の位置データを利用して、当該位置データに対応する小領域に、計測対象の存在を示す重みを加算し、前記マップの多数の小領域に対応付けられた重みに基づいて前記計測対象の位置を特定する同一道路情報結合手段と、
を備え
前記マップに加算される重みは、計測対象の位置で最大となり、計測対象の位置から離れるほど小さくなる分布を有しており、
前記マップに加算される重みの分布は、少なくともGPS電波の受信状態に起因する誤差を含む計測対象の位置誤差に応じた分布であることを特徴とする自動走行用マップ作成装置。
Storage means for storing a map in which an area along a road is divided into a number of small areas, and a weight associated with the weight indicating the presence of a measurement target is associated with each small area;
Using a plurality of position data of the measurement object obtained by vehicle equipped with the measuring instrument runs a multiple of the same road, a small area corresponding to the position data, adds a weight that indicates the presence of the measurement object And the same road information combining means for specifying the position of the measurement target based on the weights associated with a large number of small areas of the map ;
Equipped with a,
The weight added to the map has a distribution that is maximum at the position of the measurement target and decreases as the distance from the measurement target position increases.
The automatic travel map creation device is characterized in that the distribution of weights added to the map is a distribution corresponding to a position error of a measurement target including at least an error caused by a reception state of GPS radio waves .
前記計測対象の位置誤差は、カメラ距離分解能に起因する誤差を更に含むことを特徴とする請求項1に記載の自動走行用マップ作成装置。2. The automatic travel map creation device according to claim 1, wherein the position error of the measurement target further includes an error caused by camera distance resolution. 前記計測対象の位置誤差は、横加速度検出センサ、操舵角検出センサ、ロールセンサ、ピッチセンサ、ヨーセンサ、車高センサの少なくとも一つの誤差を更に含むことを特徴とする請求項1または2に記載の自動走行用マップ作成装置。The position error of the measurement target further includes at least one error of a lateral acceleration detection sensor, a steering angle detection sensor, a roll sensor, a pitch sensor, a yaw sensor, and a vehicle height sensor. Automatic map creation device. 前記マップに加算される重みの分布Gは、次式で演算される、The weight distribution G added to the map is calculated by the following equation:
(ここで、uは水平方向の位置であり、σ=最大誤差Err/3である)(Where u is the horizontal position and σ = maximum error Err / 3)
ことを特徴とする請求項1〜3のいずれか1項に記載の自動走行用マップ作成装置。The automatic travel map creation device according to any one of claims 1 to 3.
前記計測対象は、車両の走行軌跡であることを特徴とする請求項1〜4のいずれか1項に記載の自動走行用マップ作成装置。   The map for creating an automatic travel according to any one of claims 1 to 4, wherein the measurement target is a travel locus of a vehicle. 前記計測対象は、道路構成物であることを特徴とする請求項1〜4のいずれか1項に記載の自動走行用マップ作成装置。   The automatic travel map creation device according to any one of claims 1 to 4, wherein the measurement object is a road component.
JP2006001871A 2006-01-06 2006-01-06 Automatic travel map creation device and automatic travel device. Active JP5157067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006001871A JP5157067B2 (en) 2006-01-06 2006-01-06 Automatic travel map creation device and automatic travel device.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006001871A JP5157067B2 (en) 2006-01-06 2006-01-06 Automatic travel map creation device and automatic travel device.

Publications (2)

Publication Number Publication Date
JP2007183432A JP2007183432A (en) 2007-07-19
JP5157067B2 true JP5157067B2 (en) 2013-03-06

Family

ID=38339590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006001871A Active JP5157067B2 (en) 2006-01-06 2006-01-06 Automatic travel map creation device and automatic travel device.

Country Status (1)

Country Link
JP (1) JP5157067B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019007740T5 (en) 2019-09-25 2022-06-09 Mitsubishi Electric Corporation Travel route generation device, travel route generation method, vehicle control device, and vehicle control method

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007045082A1 (en) * 2007-09-21 2009-04-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for updating map data
JP5169804B2 (en) * 2008-12-25 2013-03-27 株式会社エクォス・リサーチ Control device
US8532962B2 (en) 2009-12-23 2013-09-10 Honeywell International Inc. Approach for planning, designing and observing building systems
US8990049B2 (en) 2010-05-03 2015-03-24 Honeywell International Inc. Building structure discovery and display from various data artifacts at scene
US8538687B2 (en) 2010-05-04 2013-09-17 Honeywell International Inc. System for guidance and navigation in a building
DE112011101635A5 (en) * 2010-05-11 2013-03-28 Continental Teves Ag & Co. Ohg Method for determining a driving tube
US8773946B2 (en) 2010-12-30 2014-07-08 Honeywell International Inc. Portable housings for generation of building maps
US9342928B2 (en) 2011-06-29 2016-05-17 Honeywell International Inc. Systems and methods for presenting building information
US8907785B2 (en) 2011-08-10 2014-12-09 Honeywell International Inc. Locator system using disparate locator signals
DE102011087894A1 (en) * 2011-12-07 2013-06-13 Robert Bosch Gmbh Method and vehicle assistance system for active warning and / or navigation aid for avoiding a collision of a vehicle body part and / or a vehicle wheel with an object
JP6044084B2 (en) * 2012-03-08 2016-12-14 日産自動車株式会社 Moving object position and orientation estimation apparatus and method
JP5404861B2 (en) * 2012-07-17 2014-02-05 株式会社豊田中央研究所 Stationary object map generator
JP5494845B1 (en) * 2013-01-17 2014-05-21 株式会社デンソーアイティーラボラトリ Information provision system
JP6458384B2 (en) * 2014-07-24 2019-01-30 株式会社デンソー Lane detection device and lane detection method
JP6649191B2 (en) 2016-06-29 2020-02-19 クラリオン株式会社 In-vehicle processing unit
JP6757261B2 (en) 2017-01-13 2020-09-16 クラリオン株式会社 In-vehicle processing device
US11187539B2 (en) 2017-01-17 2021-11-30 Hitachi, Ltd. Travel control device for moving body
KR102265376B1 (en) 2017-03-07 2021-06-16 현대자동차주식회사 Vehicle and controlling method thereof and autonomous driving system
JP6707491B2 (en) * 2017-04-13 2020-06-10 株式会社 ミックウェア Information processing system, information processing apparatus, and information processing program
US11635304B2 (en) 2017-05-31 2023-04-25 Pioneer Corporation Map generation device, control method, program and storage medium
WO2019065409A1 (en) * 2017-09-29 2019-04-04 日立オートモティブシステムズ株式会社 Automatic driving simulator and map generation method for automatic driving simulator
JP7010535B2 (en) * 2017-12-05 2022-01-26 株式会社豊田中央研究所 Information processing equipment
JP7139597B2 (en) * 2017-12-07 2022-09-21 株式会社豊田中央研究所 SELF-LOCATION ERROR ESTIMATION DEVICE AND SELF-LOCATION ERROR ESTIMATION METHOD
US11294376B2 (en) 2018-03-16 2022-04-05 Hitachi, Ltd. Moving body control device
JP6838027B2 (en) 2018-10-31 2021-03-03 ファナック株式会社 Robot system
CN112800153B (en) * 2019-11-14 2023-10-31 百度在线网络技术(北京)有限公司 Isolation belt information mining method, device, equipment and computer storage medium
JP2022149051A (en) * 2021-03-25 2022-10-06 本田技研工業株式会社 Map creation device, map creation system, map creation method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2584564B2 (en) * 1992-04-15 1997-02-26 住友電気工業株式会社 Vehicle position detection device
JP4370869B2 (en) * 2003-09-25 2009-11-25 トヨタ自動車株式会社 Map data updating method and map data updating apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019007740T5 (en) 2019-09-25 2022-06-09 Mitsubishi Electric Corporation Travel route generation device, travel route generation method, vehicle control device, and vehicle control method

Also Published As

Publication number Publication date
JP2007183432A (en) 2007-07-19

Similar Documents

Publication Publication Date Title
JP5157067B2 (en) Automatic travel map creation device and automatic travel device.
JP7301909B2 (en) Determination of yaw error from map data, lasers, and cameras
CN110057373B (en) Method, apparatus and computer storage medium for generating high-definition semantic map
US9569673B2 (en) Method and device for detecting a position of a vehicle on a lane
CN112189225B (en) Lane line information detection apparatus, method, and computer-readable recording medium storing computer program programmed to execute the method
EP3008708B1 (en) Vision augmented navigation
JP7082545B2 (en) Information processing methods, information processing equipment and programs
KR102420476B1 (en) Apparatus and method for estimating location of vehicle and computer recordable medium storing computer program thereof
CN108692719B (en) Object detection device
US7652686B2 (en) Device for image detecting objects, people or similar in the area surrounding a vehicle
US11061122B2 (en) High-definition map acquisition system
WO2021056841A1 (en) Positioning method, path determining method and apparatus, robot, and storage medium
Shunsuke et al. GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon
JP3596339B2 (en) Inter-vehicle distance measurement device
JP6758160B2 (en) Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
WO2019208101A1 (en) Position estimating device
CN114724110A (en) Target detection method and device
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP6834401B2 (en) Self-position estimation method and self-position estimation device
JP2002334330A (en) Vehicle recognition device
JP4116116B2 (en) Ranging origin recognition device for moving objects
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
JP2010176592A (en) Driving support device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R151 Written notification of patent or utility model registration

Ref document number: 5157067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3