JP5742559B2 - POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM - Google Patents
POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP5742559B2 JP5742559B2 JP2011168806A JP2011168806A JP5742559B2 JP 5742559 B2 JP5742559 B2 JP 5742559B2 JP 2011168806 A JP2011168806 A JP 2011168806A JP 2011168806 A JP2011168806 A JP 2011168806A JP 5742559 B2 JP5742559 B2 JP 5742559B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- determination
- road
- reference data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
Description
本発明は、位置判定装置およびナビゲーション装置並びに位置判定方法,プログラムに関し、詳しくは、車載カメラから撮影された風景画像を用いて車両の地図上の位置を判定する位置判定装置およびナビゲーション装置並びに位置判定方法,プログラムに関する。 The present invention relates to a position determination device, a navigation device, a position determination method, and a program, and more particularly, to a position determination device, a navigation device, and a position determination that determine a position of a vehicle on a map using a landscape image taken from an in-vehicle camera. It relates to methods and programs.
従来、この種の位置判定装置としては、道路上の白線などの道路標示を示すパターン情報と道路標示の特徴点の座標(ワールド座標)を示す位置情報とを予め対応付けて登録しておき、パターン情報を用いたパターンマッチング等により、車載カメラによる撮影画像の中に道路標示があると判定したときには、撮影画像から特徴点を抽出して、車両の暫定現在位置を基準にした自動車座標系における道路標示の特徴点の座標(自動車座標)を算出し、算出した道路標示の特徴点の自動車座標と対応する位置情報とを用いて車両の現在位置を算出するものが提案されている(例えば、特許文献1参照)。この装置では、これにより、GPS信号やジャイロ,車線センサからの信号を利用した位置測位により得られる車両の暫定現在位置よりも高精度な現在位置を算出することができるものとしている。 Conventionally, as this type of position determination device, pattern information indicating road markings such as white lines on the road and position information indicating the coordinates of the feature points of the road markings (world coordinates) are registered in advance, When it is determined by pattern matching using pattern information that there is a road marking in the image captured by the in-vehicle camera, feature points are extracted from the captured image, and the vehicle coordinate system is based on the provisional current position of the vehicle. It has been proposed to calculate the coordinates of the feature points of the road marking (vehicle coordinates), and to calculate the current position of the vehicle using the calculated vehicle coordinates of the feature points of the road marking and the corresponding position information (for example, Patent Document 1). With this device, it is possible to calculate the current position with higher accuracy than the provisional current position of the vehicle obtained by the position measurement using the GPS signal, the gyroscope, and the signal from the lane sensor.
しかしながら、上述の装置により行なわれる道路標示を示すパターン情報と撮影画像とのマッチング処理や、上述の装置と同様に高精度な現在位置の算出を目的として行なわれる車両からの風景画像の特徴的部分を示すパターン情報と撮影画像とのマッチング処理は、車両が走行している最中に行なう必要があることから、車両の位置を正しく判定することができない場合があった。車両が走行している最中は、その走行環境などによっては、撮影画像における道路標示や特徴的部分の移動速度が速くなり、パターン情報と一致する撮影画像を得ることができる時間が短くなって、即ち、パターン情報と一致する撮影画像を得ることができる道路上での撮影位置の範囲が狭くなって、パターン情報と撮影画像とが一致していると判定される機会が少なくなってしまう場合があった。 However, the characteristic part of the landscape image from the vehicle, which is performed for the purpose of matching the pattern information indicating the road marking performed by the above-described device with the photographed image and calculating the current position with high accuracy as in the above-described device. Since it is necessary to perform the matching process between the pattern information indicating the captured image and the captured image while the vehicle is traveling, the vehicle position may not be correctly determined. While the vehicle is traveling, depending on the traveling environment, the speed of movement of the road markings and characteristic parts in the captured image increases, and the time required to obtain a captured image that matches the pattern information decreases. That is, when the range of the shooting position on the road where a captured image that matches the pattern information can be obtained becomes narrow, the chance that it is determined that the pattern information and the captured image match is reduced. was there.
本発明の位置判定装置およびナビゲーション装置並びに位置判定方法,プログラムは、車両の地図上の位置をより適正に判定することを主目的とする。 The main object of the position determination apparatus, navigation apparatus, position determination method, and program of the present invention is to more appropriately determine the position of the vehicle on the map.
本発明の位置判定装置およびナビゲーション装置並びに位置判定方法,プログラムは、上述の主目的を達成するために以下の手段を採った。 The position determination apparatus, navigation apparatus, position determination method, and program of the present invention employ the following means in order to achieve the main object described above.
本発明の第1の位置判定装置は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The first position determination device of the present invention is
A plurality of reference data obtained by extracting characteristic parts of a landscape image taken from an in-vehicle camera at intervals in the traveling direction on the road are stored in association with the corresponding positions on the map, and taken from the in-vehicle camera. Matching processing is performed to determine whether or not the scenery image to be matched and the plurality of reference data match, and based on the position on the map corresponding to the reference data determined to match by the matching processing A position determination device for determining a position of a vehicle on a map,
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so as to decrease as the vehicle speed increases and to decrease as the steering wheel steering amount increases.
It is characterized by that.
この本発明の第1の位置判定装置では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されている。車速が比較的大きい場合やハンドル操舵量が比較的大きい場合には、風景画像の中の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度(ハンドル操舵量が比較的大きい場合には、特に車両の旋回方向と逆方向に相当する方向への移動速度)が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。 In the first position determination device of the present invention, the matching process is performed by matching the reference data with the determination data obtained by performing predetermined image processing for extracting a characteristic part from the landscape image captured from the vehicle. It is determined by matching when the degree of is equal to or greater than the determination threshold, and is determined not to match when the degree of matching is less than the determination threshold. It is adjusted to tend to be smaller and smaller as the steering wheel steering amount is larger. When the vehicle speed is relatively high or the steering amount is relatively large, the moving speed (steering wheel steering) of a characteristic part in the landscape image (for example, a roadside feature such as a roadside building or a road sign) When the amount is relatively large, the moving speed in a direction corresponding to the direction opposite to the turning direction of the vehicle in particular is relatively large, and the time during which a landscape image having a characteristic portion matching the reference data can be taken is short. . Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.
こうした本発明の第1の位置判定装置において、走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段を備え、前記判定用閾値は、前記検出された車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、ものとすることもできる。これは、走行している道路の幅方向において車両位置が道路脇に近いほど、風景画像の中でその近い道路脇側(左側または右側)の特徴的部分の移動速度が大きくなる傾向があることに基づく。この場合、前記幅方向車両位置検出手段は、複数の車線を有する道路を走行しているときに走行車線を検出する手段であり、前記判定用閾値は、前記検出された走行車線が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、ものとすることもできる。 In the first position determination apparatus of the present invention, the vehicle includes a width direction vehicle position detection unit that detects a vehicle position in the width direction of the road on which the vehicle is traveling, and the threshold value for determination is determined based on whether the detected vehicle position is the travel distance. It is also possible to adjust the tendency so that the closer to the road side of the road, the smaller the trend is. This is because the closer the vehicle position is to the side of the road in the width direction of the running road, the higher the moving speed of the characteristic part on the side of the road side (left side or right side) closer in the landscape image. based on. In this case, the width direction vehicle position detecting means is means for detecting a traveling lane when traveling on a road having a plurality of lanes, and the threshold for determination is determined based on the detected traveling lane. It is also possible to adjust the tendency so that the closer to the roadside of the road, the smaller the tendency is.
また、本発明の第1の位置判定装置において、走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段を備え、前記判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、ものとすることもできる。これは、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど、風景画像の中でその離れた方向側(左側または右側)の特徴的部分の移動速度が大きくなる傾向があることに基づく。この場合、前記幅方向車両位置検出手段は、複数の車線を有する道路を走行しているときに走行車線を検出する手段であり、前記判定用閾値は、前記検出された走行車線が前記参照データを得た風景画像の撮影時の走行車線から離れるほど小さくなる傾向に調整されてなる、ものとすることもできる。 In the first position determination apparatus of the present invention, the vehicle further includes a width direction vehicle position detection unit that detects a vehicle position in the width direction of the traveling road, and the determination threshold value is the width of the traveling road. The detected vehicle position in the direction may be adjusted so as to become smaller as the distance from the vehicle position at the time of capturing the landscape image from which the reference data is obtained is adjusted. This is because the farther away from the vehicle position at the time of shooting the landscape image in which the vehicle position obtained the reference data in the width direction of the running road, the characteristic side on the far side (left side or right side) in the landscape image It is based on the tendency that the moving speed of a part becomes large. In this case, the width direction vehicle position detecting means is means for detecting a traveling lane when traveling on a road having a plurality of lanes, and the determination threshold is calculated based on whether the detected traveling lane is the reference data. It is also possible to adjust the tendency so that the distance from the traveling lane at the time of shooting the landscape image obtained becomes smaller.
さらに、本発明の第1の位置判定装置において、前記判定用閾値は、走行している道路の幅員が小さいほど小さくなる傾向,走行している道路の曲率半径が小さいほど小さくなる傾向,走行している道路上で最寄りの交差点からの距離が短いほど小さくなる傾向のうち少なくともいずれかとなるように調整されてなる、ものとすることもできる。これは、走行している道路の幅員が小さいほど,走行している道路の曲率半径が小さいほど,交差点を右左折してから進入した道路上でその交差点からの距離が短いほど、風景画像の中の特徴的部分の移動速度が大きくなる傾向があることに基づく。 Furthermore, in the first position determination apparatus of the present invention, the determination threshold tends to be smaller as the width of the traveling road is smaller, and tends to be smaller as the curvature radius of the traveling road is smaller. It is also possible to adjust the distance to be at least one of the tendency to become smaller as the distance from the nearest intersection on the road is shorter. This is because the smaller the width of the running road, the smaller the radius of curvature of the running road, the shorter the distance from the intersection on the road that entered after turning the intersection, the shorter the landscape image It is based on the tendency that the moving speed of the characteristic part inside becomes large.
あるいは、本発明の第1の位置判定装置において、前記判定用閾値は、走行している道路の車線数が少ないほど小さくなる傾向,走行している道路の車線幅が狭いほど小さくなる傾向,走行している道路の歩道幅が狭いほど小さくなる傾向のうち少なくともいずれかとなるように調整されてなる、ものとすることもできる。これは、道路の車線数が少ないほど,道路の車線幅が狭いほど,道路の歩道幅が狭いほど、道路の幅員が小さくなる傾向があると共に、走行している道路の幅員が小さいほど、風景画像の中の特徴的部分の移動速度が大きくなる傾向があることに基づく。 Alternatively, in the first position determination device of the present invention, the threshold for determination tends to decrease as the number of lanes on a traveling road decreases, and tends to decrease as the lane width of a traveling road decreases. It can also be adjusted so that it becomes at least one of the tendency which becomes small, so that the sidewalk width of the road which is carried out is narrow. This is because the smaller the number of road lanes, the narrower the lane width of the road, the narrower the sidewalk width of the road, the smaller the width of the road, and the smaller the width of the running road, This is based on the tendency that the moving speed of the characteristic part in the image increases.
車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に判定用閾値を調整する態様の本発明の第1の位置判定装置において、前記マッチング処理は、前記判定用データを前記車両からみて左側の左側判定用データと右側の右側判定用データとに分割すると共に、前記参照データを前記車両からみて左側の左側参照データと右側の右側参照データとに分割し、前記左側判定用データと前記左側参照データとの一致の程度が左側判定用閾値以上であり、且つ、前記右側判定用データと前記右側参照データとの一致の程度が右側判定用閾値以上のときには一致していると判定し、前記左側判定用データと前記左側参照データとの一致の程度が前記左側判定用閾値未満であるか、又は、前記右側判定用データと前記右側参照データとの一致の程度が前記右側判定用閾値未満であるときには一致していないと判定することにより行なわれ、前記左側判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から左側に離れるほど小さくなる傾向に調整されてなり、前記右側用判定閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から右側に離れるほど小さくなる傾向に調整されてなる、ものとすることもできる。こうすれば、より適正に判定用閾値を調整することができる。 In the first position determination apparatus of the present invention in which the determination threshold is adjusted such that the vehicle position tends to decrease as the vehicle position moves away from the vehicle position at the time of capturing a landscape image from which reference data is obtained. The data is divided into left side determination data and right side determination data on the left side when viewed from the vehicle, and the reference data is divided into left side reference data and left side reference data on the left side when viewed from the vehicle, The degree of matching between the left determination data and the left reference data is equal to or greater than the left determination threshold, and the degree of coincidence between the right determination data and the right reference data is equal to or greater than the right determination threshold. And the degree of matching between the left determination data and the left reference data is less than the left determination threshold, or the right determination data and the left reference data When the degree of coincidence with the side reference data is less than the right-side determination threshold, it is determined that they do not coincide with each other, and the left-side determination threshold is detected in the width direction of the running road. The vehicle position is adjusted so as to decrease as it moves further leftward from the vehicle position at the time of capturing the landscape image from which the reference data was obtained, and the right-side determination threshold is set in the width direction of the running road. The detected vehicle position may be adjusted so as to become smaller as it moves to the right side from the vehicle position at the time of capturing the landscape image from which the reference data was obtained. In this way, the determination threshold value can be adjusted more appropriately.
本発明の第2の位置判定装置は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、
走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段
を備え、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、前記検出された車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The second position determination apparatus of the present invention is
A plurality of reference data obtained by extracting characteristic parts of a landscape image taken from an in-vehicle camera at intervals in the traveling direction on the road are stored in association with the corresponding positions on the map, and taken from the in-vehicle camera. Matching processing is performed to determine whether or not the scenery image to be matched and the plurality of reference data match, and based on the position on the map corresponding to the reference data determined to match by the matching processing A position determination device for determining a position of a vehicle on a map,
A width direction vehicle position detecting means for detecting a vehicle position in the width direction of the running road,
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so that the detected vehicle position tends to decrease as the detected vehicle position is closer to the side of the road on which the vehicle is running.
It is characterized by that.
この本発明の第2の位置判定装置では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、走行している道路の幅方向における車両位置が走行している道路の道路脇に近いほど小さくなる傾向に調整されている。走行している道路の幅方向における車両位置がその道路の道路脇に比較的近い場合には、風景画像の中でその近い道路脇側(左側または右側)の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。 In the second position determination apparatus of the present invention, the matching process is performed by matching the determination data obtained by performing predetermined image processing for extracting a characteristic portion on the landscape image captured from the vehicle and the reference data. It is determined that it is coincident when the degree is equal to or greater than the determination threshold, and is determined not to coincide when the degree of coincidence is less than the determination threshold, and the determination threshold is running The vehicle position in the width direction of the road is adjusted to tend to be smaller as it is closer to the side of the road on which the vehicle is traveling. If the vehicle position in the width direction of the running road is relatively close to the roadside of the road, a characteristic part (for example, the roadside The moving speed of roadside features such as buildings and road signs is relatively high, and the time during which a landscape image having a characteristic portion matching the reference data can be taken is short. Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.
本発明の第3の位置判定装置は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、
走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段
を備え、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The third position determination apparatus of the present invention is
A plurality of reference data obtained by extracting characteristic parts of a landscape image taken from an in-vehicle camera at intervals in the traveling direction on the road are stored in association with the corresponding positions on the map, and taken from the in-vehicle camera. Matching processing is performed to determine whether or not the scenery image to be matched and the plurality of reference data match, and based on the position on the map corresponding to the reference data determined to match by the matching processing A position determination device for determining a position of a vehicle on a map,
A width direction vehicle position detecting means for detecting a vehicle position in the width direction of the running road,
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The threshold value for determination is adjusted so that the detected vehicle position in the width direction of the running road becomes smaller as the distance from the vehicle position at the time of capturing a landscape image obtained from the reference data decreases.
It is characterized by that.
この本発明の第3の位置判定装置では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されている。走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から比較的離れている場合には、風景画像の中でその離れている方向側(左側または右側)の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。 In the third position determination apparatus according to the present invention, the matching process is performed between the determination data obtained by performing predetermined image processing for extracting a characteristic portion from a landscape image captured from a vehicle and the reference data. When the degree of matching is greater than or equal to the determination threshold value, it is determined that they match, and when the degree of matching is less than the determination threshold value, it is determined that they do not match. In the width direction of the road, the vehicle position is adjusted so as to become smaller as the distance from the vehicle position at the time of taking a landscape image from which reference data is obtained. If the vehicle position is relatively far from the vehicle position at the time of shooting the landscape image from which reference data was obtained in the width direction of the road that is running, the direction side (left side or right side) in the landscape image ) Characteristic parts (for example, roadside buildings, roadside features such as road signs, etc.) are relatively fast, and the time during which a landscape image having a characteristic part matching the reference data can be taken is short. . Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.
本発明のナビゲーション装置は、上述のいずれかの態様の本発明の位置判定装置、即ち、基本的には、道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、第1の位置判定装置、または、走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段を備え、前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、前記判定用閾値は、前記検出された車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、第2の位置判定装置、または、走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段を備え、前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、前記判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、第3の位置判定装置、を備え、該位置判定装置により判定された車両の地図上の位置を用いて目的地への経路案内を行なう、ことを要旨とする。 The navigation device of the present invention extracts the characteristic portion of the landscape image taken from the in-vehicle camera at intervals in the traveling direction on the road, that is, the position determination device of the present invention of any of the above-described aspects. A plurality of reference data obtained in association with the corresponding positions on the map, and matching for determining whether or not the landscape image photographed from the in-vehicle camera matches the plurality of reference data A position determination device that performs a process and determines a position on a map of a vehicle based on a position on a map corresponding to reference data determined to be matched by the matching process. The degree of coincidence between the determination data obtained by performing predetermined image processing for extracting a characteristic portion from a landscape image captured from the reference data and the reference data is less than the determination threshold. It is determined by determining that they match when the degree of matching is less than the determination threshold, and the determination threshold tends to decrease as the vehicle speed increases. And the first position determination device or the width direction vehicle position detection means for detecting the vehicle position in the width direction of the running road, the adjustment being made such that the steering wheel steering amount increases. The processing is coincident when the degree of coincidence between the determination data obtained by performing predetermined image processing for extracting a characteristic portion on the landscape image taken from the vehicle and the reference data is equal to or greater than the determination threshold. And when the degree of coincidence is less than the determination threshold value, it is determined that they do not match. The determination threshold value is determined based on the detected vehicle position. A second position determination device, or a width direction vehicle position detection means for detecting a vehicle position in the width direction of the road on which the vehicle is running The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image taken from a vehicle is equal to or greater than a determination threshold value. And the determination threshold is determined in the width direction of the running road. A third position determination device that is adjusted such that the detected vehicle position tends to decrease as the vehicle position moves away from the vehicle position at the time of capturing the landscape image from which the reference data was obtained. The gist is that route guidance to the destination is performed using the determined position of the vehicle on the map.
この本発明のナビゲーション装置では、上述のいずれかの態様の本発明の位置判定装置を備えるから、上述の位置判定装置が奏する効果、例えば、車両の地図上の位置をより適正に判定することができる効果などと同様の効果を奏することができる。 Since the navigation device of the present invention includes the position determination device of the present invention according to any one of the aspects described above, it is possible to more appropriately determine the effect of the position determination device described above, for example, the position of the vehicle on the map. The same effects as those that can be achieved can be achieved.
本発明の第1の位置判定方法は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車両から撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行なうステップと、該マッチング処理により一定していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定するステップと、を含む位置判定方法であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The first position determination method of the present invention includes:
A plurality of reference data obtained by extracting characteristic portions of a landscape image taken from an in-vehicle camera on the road at intervals in the running direction are stored in association with the corresponding positions on the map, and taken from the vehicle. A matching process for determining whether or not the landscape image matches the plurality of reference data, and a position on the map corresponding to the reference data determined to be constant by the matching process Determining the position of the vehicle on the map, and a position determination method comprising:
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so as to decrease as the vehicle speed increases and to decrease as the steering wheel steering amount increases.
It is characterized by that.
この本発明の第1の位置判定方法では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されている。車速が比較的大きい場合やハンドル操舵量が比較的大きい場合には、風景画像の中の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度(ハンドル操舵量が比較的大きい場合には、特に車両の旋回方向と逆方向に相当する方向への移動速度)が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定される機会を増やすことができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。 In the first position determination method of the present invention, the matching process matches the reference data with the determination data obtained by performing predetermined image processing for extracting a characteristic part from the landscape image captured from the vehicle. It is determined by matching when the degree of is equal to or greater than the determination threshold, and is determined not to match when the degree of matching is less than the determination threshold. It is adjusted to tend to be smaller and smaller as the steering wheel steering amount is larger. When the vehicle speed is relatively high or the steering amount is relatively large, the moving speed (steering wheel steering) of a characteristic part in the landscape image (for example, a roadside feature such as a roadside building or a road sign) When the amount is relatively large, the moving speed in a direction corresponding to the direction opposite to the turning direction of the vehicle in particular is relatively large, and the time during which a landscape image having a characteristic portion matching the reference data can be taken is short. . Therefore, in such a case, by reducing the determination threshold value, it is possible to increase the chance of determining that the landscape image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.
本発明の第2の位置判定方法は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車両から撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行なうステップと、該マッチング処理により一定していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定するステップと、を含む位置判定方法であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、走行している道路の幅方向における車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The second position determination method of the present invention includes:
A plurality of reference data obtained by extracting characteristic portions of a landscape image taken from an in-vehicle camera on the road at intervals in the running direction are stored in association with the corresponding positions on the map, and taken from the vehicle. A matching process for determining whether or not the landscape image matches the plurality of reference data, and a position on the map corresponding to the reference data determined to be constant by the matching process Determining the position of the vehicle on the map, and a position determination method comprising:
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold value is adjusted so that the vehicle position in the width direction of the traveling road is closer to the side of the road on which the traveling road is closer to be smaller.
It is characterized by that.
この本発明の第2の位置判定方法では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、走行している道路の幅方向における車両位置が走行している道路の道路脇に近いほど小さくなる傾向に調整されている。走行している道路の幅方向における車両位置がその道路の道路脇に比較的近い場合には、風景画像の中でその近い道路脇側(左側または右側)の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。 In the second position determination method of the present invention, the matching process is performed by matching the determination data and the reference data obtained by performing predetermined image processing for extracting a characteristic part on the landscape image captured from the vehicle. It is determined that it is coincident when the degree is equal to or greater than the determination threshold, and is determined not to coincide when the degree of coincidence is less than the determination threshold, and the determination threshold is running The vehicle position in the width direction of the road is adjusted to tend to be smaller as it is closer to the side of the road on which the vehicle is traveling. If the vehicle position in the width direction of the running road is relatively close to the roadside of the road, a characteristic part (for example, the roadside The moving speed of roadside features such as buildings and road signs is relatively high, and the time during which a landscape image having a characteristic portion matching the reference data can be taken is short. Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.
本発明の第3の位置判定方法は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車両から撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行なうステップと、該マッチング処理により一定していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定するステップと、を含む位置判定方法であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、走行している道路の幅方向において車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The third position determination method of the present invention includes:
A plurality of reference data obtained by extracting characteristic portions of a landscape image taken from an in-vehicle camera on the road at intervals in the running direction are stored in association with the corresponding positions on the map, and taken from the vehicle. A matching process for determining whether or not the landscape image matches the plurality of reference data, and a position on the map corresponding to the reference data determined to be constant by the matching process Determining the position of the vehicle on the map, and a position determination method comprising:
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold value is adjusted so that the vehicle position in the width direction of the running road becomes smaller as the vehicle position moves away from the vehicle position at the time of capturing a landscape image obtained from the reference data.
It is characterized by that.
この本発明の第3の位置判定方法では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されている。走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から比較的離れている場合には、風景画像の中でその離れている方向側(左側または右側)の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。 In the third position determination method of the present invention, the matching process is performed between the determination data obtained by performing predetermined image processing for extracting a characteristic portion from a landscape image captured from a vehicle and the reference data. When the degree of matching is greater than or equal to the determination threshold value, it is determined that they match, and when the degree of matching is less than the determination threshold value, it is determined that they do not match. In the width direction of the road, the vehicle position is adjusted so as to become smaller as the distance from the vehicle position at the time of taking a landscape image from which reference data is obtained. If the vehicle position is relatively far from the vehicle position at the time of shooting the landscape image from which reference data was obtained in the width direction of the road that is running, the direction side (left side or right side) in the landscape image ) Characteristic parts (for example, roadside buildings, roadside features such as road signs, etc.) are relatively fast, and the time during which a landscape image having a characteristic part matching the reference data can be taken is short. . Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.
本発明のプログラムは、上述した第1〜第3の位置判定方法の各ステップを1以上のコンピュータに実現させるためのものである。このプログラムは、コンピュータが読み取り可能な記録媒体(例えばハードディスク、ROM、FD、CD、DVDなど)に記録されていてもよいし、伝送媒体(インターネットやLANなどの通信網)を介してあるコンピュータから別のコンピュータへ配信されてもよいし、その他どのような形で授受されてもよい。このプログラムを一つのコンピュータに実行させるか又は複数のコンピュータに分担して実行させれば、上述した位置判定方法の各ステップが実現されるため、その位置判定方法と同様の作用効果が得られる。 The program of the present invention is for causing one or more computers to implement the steps of the first to third position determination methods described above. This program may be recorded on a computer-readable recording medium (for example, hard disk, ROM, FD, CD, DVD, etc.), or from a computer via a transmission medium (communication network such as the Internet or LAN). It may be distributed to another computer, or may be exchanged in any other form. If this program is executed by one computer or shared by a plurality of computers, each step of the above-described position determination method is realized, so that the same effect as that of the position determination method can be obtained.
次に、本発明を実施するための形態を実施例を用いて説明する。 Next, the form for implementing this invention is demonstrated using an Example.
図1は、本発明の一実施例としてのナビゲーション装置20を含むナビゲーションシステム10の構成の概略を示す構成図である。実施例のナビゲーションシステム10は、図示しない車両(自動車)に搭載された各種センサを中心とする車載装置12と、図示しない車載バッテリからの電力供給を受けて作動するナビゲーション装置20とを備える。実施例のナビゲーション装置20は、図示するように、文字や画像を表示する矩形状の画面を有する例えば液晶ディスプレイや有機エレクトロルミネッセンスディスプレイなどとして構成されたディスプレイ22と、ディスプレイ22の画面に取り付けられた例えば抵抗膜方式や静電容量方式などによるタッチパネル24と、装置全体をコントロールする電子制御ユニット30と、各種アプリケーションソフトウェアや地図データなどを記憶する大容量メモリとしてのハードディスクドライブ(以下、HDDという)40とを備える。
FIG. 1 is a configuration diagram showing an outline of a configuration of a
電子制御ユニット30は、CPU32を中心とするマイクロプロセッサとして構成されており、CPU32の他に各種処理プログラムを記憶するROM34と、データを一時的に記憶するRAM36と、記憶したデータを保持する不揮発性のフラッシュメモリ38と、図示しない入出力ポートとを備える。電子制御ユニット30には、操作者のタッチ位置を検出するタッチパネル24からの信号やHDD40から読み出したデータの他に、車載装置12からの各種信号が車内ネットワーク経由で入力ポートを介して入力されている。車載装置12からの信号としては、GPS(Global Positioning System)衛星からの信号をGPSアンテナを介して受信するGPS受信機50からの信号,車両の駆動軸や車輪が一定量回転する毎にパルス信号を出力する車速センサ52からの信号,車両の加速度を検出する加速度センサ54からの信号,車両の進行方位やその変化を検出する例えばジャイロセンサにより構成された方位センサ56からの信号,車両のハンドルの基準位置(進行方向に相当する位置)からの回転量(回転角)をハンドル操舵量として検出する操舵量センサ58からの信号,車両前方に設置されて車両前方の風景画像を動画や静止画として撮影可能なカメラ59からの信号(撮影画像)などがある。電子制御ユニット30からは、ディスプレイ22への表示信号やアンプを内蔵したスピーカ26への音声信号,HDD40に書き込むデータなどが出力ポートを介して出力されている。
The
実施例のナビゲーション装置20では、電子制御ユニット30は、HDD40から必要なアプリケーションソフトウェアや地図データを読み出して各種処理を実行する。例えば、ハードウェア又はソフトウェア或いはその組み合わせにより実現される機能を表す図1の機能ブロックに示すように、電子制御ユニット30は、GPS受信機50からの信号や方位センサ56からの信号などに基づいて車両の現在位置である自車位置を判定するロケーション処理部60によるロケーション処理,地図データを用いてディスプレイ22に地図を表示する地図表示処理部62による地図表示処理,判定された自車位置から目的地への走行ルートを探索して地図表示処理部62による地図表示やスピーカ26からの音声出力によりルート案内を行なうナビゲーション処理部64によるナビゲーション処理,これらの処理に用いられる画像処理部66による各種画像処理などを実行する。なお、地図データは、HDD40の地図データ用データベース(以下、地図データDBという)42に記憶されている。
In the
電子制御ユニット30によるロケーション処理では、GPS受信機50からのGPS信号に基づいていわゆるGPS航法により自車位置を算出したり、GPS信号を受信できない場合などに車速センサ52からの車速パルス信号や加速度センサ54からの車両の加速度,方位センサ56からの車両の方位に基づいていわゆる自律航法により自車位置を算出したり、算出された自車位置が地図の道路上から外れた場合などに地図データを用いて自車位置を道路上の位置に補正するいわゆるマップマッチングを行なったりして、自車位置を推定する。さらに、ロケーション処理では、カメラ59により撮影される風景画像と予めHDD40に記憶された複数の参照データとが一致しているか否かを判定する画像認識処理としてのマッチング処理を行ない、マッチング処理により一致していると判定された参照データに関連付けられた地図上の位置を、GPS航法や自律航法などにより推定した自車位置に代えて、正しい自車位置と判定する。ここで、HDD40に記憶された複数の参照データは、実際に走行した車両の車載カメラから道路上で走行方向に間隔をもって撮影された風景画像の特徴点(例えば、道路脇の建物の輪郭,窓枠,看板や道路標識といった道路脇の地物,道路標示など)を抽出して得られるデータであり、風景画像を撮影したときの自車位置などの撮影情報と共に、HDD40の参照データ用データベース(以下、参照データDBという)44に記憶されている。
In the location processing by the
ここで、カメラ59により撮影される風景画像とのマッチング処理に用いられる参照データを作成する方法を説明する。図2は、風景画像とのマッチング処理に用いられる参照データを作成する様子の一例を説明する説明図である。実施例では、図中上部に示すように、参照データ作成用の車両は、道路上で予め定められた参照データ間隔Dをもって車載カメラから車両前方の風景画像を撮影しながら走行し、風景画像の撮影時における車両の地図上の位置(緯度及び経度)と車両の方位(道路方向に沿った方位)とを各種センサからの信号などに基づいて正確な情報として取得する。参照データ間隔Dは、実施例では、ロケーション処理により実施例のナビゲーション装置20が備える電子制御ユニット30の演算量が過大にならない範囲内で、多くの道路で正確な自車位置を得ることができる道路上の間隔として、電子制御ユニット30やHDD40の性能などに基づいて予め実験や解析により定められたもの(例えば、数十mなど)を用いるものとした。続いて、図中下部左側に示すように、車載された電子制御ユニットにより、撮影された風景画像に対してエッジ検出処理などを施すことにより風景画像の特徴点を抽出して二値化した特徴点画像を作成し、作成した特徴点画像に対して風景画像認識に適した特徴点を強調したり強調した特徴点周辺の特徴点を破棄したりする強調処理や、ノイズ除去処理などを施して、参照データを作成する。また、撮影された風景画像から参照データを作成する際に、特徴点画像に対して道路上の白線や矢印などの道路標示が強調されるよう強調処理を施すことにより、風景画像の撮影時における走行車線の検出を行なう。エッジ検出処理や強調処理,ノイズ除去処理などの周知な画像処理手法については、これ以上詳細な説明は省略する。こうして作成された複数の参照データは、図中中段右側に示すように、実施例の車両に搭載されたナビゲーション装置20のHDD40の参照データDB44に、参照データ毎に撮影時の車両の位置,車両の方位,走行車線(以下、それぞれ撮影位置,撮影方位,撮影時走行車線という)と関連付けられて記憶される。
Here, a method for creating reference data used for matching processing with a landscape image photographed by the
なお、HDD40の地図データDB42には、道路情報や施設情報などが含まれ、道路情報には、例えば各道路の両端のノードが示す地図上の位置(緯度及び経度),各道路の距離,地域(市街地,郊外),種別(一般道路,高速道路),勾配,信号機の数の他に、図2中下部右側に示すように、各道路の幅員Dw,車線数Ln,車線幅Lw,歩道幅Pw,道路形状(直線またはカーブ),曲率半径R,道路種類(一方通行道路,対面通行道路,中央分離帯のある道路等),前述の参照データ間隔Dなどが含まれる。図3は、道路とその幅員Dw,歩道幅Pw,車線幅Lwとの複数の関係の一例を説明する説明図である。図中、左側の(a)は道路種類が対面通行道路で片側3車線の車線数Lnが値6の道路を示し、中央の(b)は道路種類が一方通行道路(例えば高速道路や高架道路などの場合)で車線数Lnが値3の道路を示し、右側の(c)は道路種類が一方通行道路で車線数Lnが値4の道路を示す。図3では、道路の歩道幅Pwは左右両側で等しく車線幅Lwは全て等しいものとして示したが、全ての道路について同一の基準に基づくものであれば、例えば、歩道幅Pwは左右両側の歩道幅の平均値として表したり、車線幅Lwは全車線の車線幅の平均値として表すなどとしてもよい。
The
次に、こうして構成された実施例のナビゲーション装置20の動作、特に走行中に自車位置を判定する際の動作について説明する。図4は、電子制御ユニット30のロケーション処理部60により画像処理部66と連携して実行される自車位置判定処理ルーチンの一例を示すフローチャートである。このルーチンは、GPS航法や自律航法などにより推定された自車位置と方位センサ56からの信号などに基づく現在の車両の進行方位(道路方向に沿った方位)とが、それぞれ参照データDB44の参照データの1つに関連付けられた撮影位置と撮影方位とに一致する毎に繰り返し実行される。
Next, the operation of the
自車位置判定処理ルーチンが実行されると、電子制御ユニット30のCPU32は、まず、現在推定されている自車位置である推定自車位置,本ルーチンが実行されたときにカメラ59により撮影された風景画像から得られる判定用データ,推定自車位置および現在の車両の進行方位(以下、車両進行方位という)と一致する撮影位置および撮影方位の参照データ,推定自車位置および車両進行方位と一致する撮影位置および撮影方位に対応する撮影時走行車線Ls,推定自車位置における道路の車線数Lnと車線幅Lwと歩道幅Pwと曲率半径R,推定自車位置および車両進行方位に対応する道路の道路形状と道路種類,推定自車位置および車両進行方位に対応する道路における最寄りの交差点からの距離Dc,車速センサ52からの信号に基づいて算出される車速V,操舵量センサ58からの信号として得られるハンドル操舵量St,本判定処理に用いられる判定用基準閾値M0など判定に必要なデータを入力する処理を実行する(ステップS100)。
When the own vehicle position determination processing routine is executed, the
ここで、推定自車位置は、実施例では、ロケーション処理部60によりGPS航法や自律航法などにより推定されたものを入力するものとした。判定用データは、図2を用いて説明した風景画像から参照データを作成した際の画像処理手法と同手法を、本ルーチンを実行したときにカメラ59により撮影された風景画像に対して適用することにより作成したものを入力するものとした。参照データと撮影時走行車線Lsとは、それぞれ推定自車位置および車両進行方位と一致する撮影位置および撮影方位に対応するものを参照データDB44から入力するものとした。道路の車線数Lnと車線幅Lwと歩道幅Pwと曲率半径Rとは、推定自車位置における道路の情報として記憶されたものを地図データDB42から入力するものとした。道路形状と道路種類とは、推定自車位置および車両進行方位に対応する道路の情報として記憶されたものを地図データDB42から入力するものとした。最寄りの交差点からの距離Dcは、実施例では、各道路の両端のノード間を単位距離毎に分割した複数の地点毎に定められ、他の道路との関係や各道路の位置,距離に基づいて算出されて地図データDB42に記憶されたものを入力するものとした。図5にある道路における最寄りの交差点からの距離Dcの一例を示す。また、判定用基準閾値M0は、判定用データと参照データとの一致の程度を示す一致率Mが判定用閾値Mref以上か否かを判定する本ルーチンの処理(即ち、実施例のマッチング処理)における判定用閾値Mrefの基準値であり、判定用データと参照データとが一致していると判定可能な範囲の比較的小さい値として予め実験や解析により定められたものを用いるものとした。
Here, in the embodiment, the estimated vehicle position is input by the
こうしてデータを入力すると、図2を用いて説明した参照データを作成する際に走行車線を検出したときの画像処理手法と同手法を、カメラ59により撮影した風景画像から判定用データを作成する際に適用することにより、車両が走行している道路での走行車線Lrを検出し(ステップS110)、検出した走行車線Lrから入力した撮影時走行車線Lsを減じたものを走行車線差ΔLとして計算する(ステップS120)。ここで、走行車線Lrは、日本のように自動車が左側通行となる国や地域では、車両が走行している道路が複数車線を有する場合には、最も左側の車線を値1として左側から何番目の車線かを整数で示す値とし、車両が走行している道路が一車線のみを有する場合には、値1とした。なお、参照データDB44の撮影情報としての撮影時走行車線Lsも同様に値1以上の整数とした。
When the data is input in this way, the same method as the image processing method when the driving lane is detected when the reference data described with reference to FIG. 2 is generated, and when the determination data is generated from the landscape image photographed by the
続いて、入力した車速V,ハンドル操舵量St,検出した走行車線Lr,計算した走行車線差ΔLの各パラメータに基づいてそれぞれ判定用基準閾値M0に乗じるべき車速係数k1,操舵量係数k2,走行車線係数k3,走行車線差係数k4を設定する(ステップS130〜S150)。ここで、各係数は、実施例では、パラメータと係数との関係を予め定めて係数毎に係数設定用マップとしてROM34に記憶しておき、パラメータが与えられると記憶したマップから対応する係数を導出して設定するものとした。
Subsequently, the vehicle speed coefficient k1, the steering amount coefficient k2, and the travel to be multiplied by the determination reference threshold M0 based on the input vehicle speed V, the steering wheel steering amount St, the detected travel lane Lr, and the calculated travel lane difference ΔL, respectively. A lane coefficient k3 and a travel lane difference coefficient k4 are set (steps S130 to S150). Here, in the embodiment, for each coefficient, the relationship between the parameter and the coefficient is determined in advance and stored in the
図6に判定用閾値Mrefを設定するためのパラメータと係数との複数の関係の一例を示し、図7に走行車線係数k3の係数設定用マップの例を示し、図8に走行車線車係数k4を設定する様子の例を説明する説明図を示す。図6中、右側は係数設定用マップの一例である。図6に示すように、車速Vが大きいほど車速係数k1が値1を跨いで小さくなり、ハンドル操舵量Stが大きいほど操舵量係数k2が値1から小さくなり、走行車線Lrが道路脇に近いほど走行車線係数k3が小さくなり、走行車線差ΔLの絶対値が大きいほど(走行車線Lrが撮影時走行車線Lsから離れるほど)走行車線差係数k4が値1から小さくなるように、各パラメータに基づいて各係数が設定される。なお、操舵量係数k2については、ハンドル操舵量Stが値0近傍の不感帯としての所定量以下の範囲では一律に値1が設定されるものとした。また、図7に示すように、走行車線係数k3は、入力した道路種類と車線数Ln毎に異なる係数設定用マップが選択されて、選択された係数設定用マップに走行車線Lrを適用することにより設定することができる。例えば、図中左側の(a)の道路(道路種類が対面通行道路で車線数Lnが値6の道路)では、走行車線Lrが小さいほど(即ち左側の道路脇に近いほど)値1を跨いで小さくなるように走行車線係数k3が設定され、図中中央の(b)の道路(道路種類が一方通行道路で車線数Lnが値3の道路)や図中右側の(c)の道路(道路種類が一方通行道路で車線数Lnが値4の道路)では、走行車線Lrが中央の車線から離れて左側または右側の道路脇に近いほど値1から小さくなるように走行車線係数k3が設定される。さらに、走行車線差係数k4は、走行車線差ΔLの絶対値に基づいて設定することにより、図8に示すように、走行車線Lrが撮影時走行車線Lsから道路幅方向の左側または右側に離れるほど値1から小さくなるように設定される、と言い換えることができる。このように各係数を設定する理由を次に説明する。
FIG. 6 shows an example of a plurality of relationships between parameters and coefficients for setting the determination threshold value Mref, FIG. 7 shows an example of a coefficient setting map for the travel lane coefficient k3, and FIG. 8 shows the travel lane coefficient k4. The explanatory view explaining the example of a mode of setting up is shown. In FIG. 6, the right side is an example of a coefficient setting map. As shown in FIG. 6, as the vehicle speed V increases, the vehicle speed coefficient k1 decreases across the
まず、車速Vやハンドル操舵量Stが比較的大きい場合には、カメラ59により撮影される風景画像における特徴点の移動速度(ハンドル操舵量Stについては特に車両の旋回方向と逆方向に相当する方向への移動速度)が比較的大きく、参照データと一致する特徴点を有する風景画像を撮影可能な時間は極めて短い。言い換えると、こうした場合には、参照データDB44の参照データと一致する特徴点を有する風景画像を撮影可能な道路上の撮影位置の範囲はかなり狭い。このため、マッチング処理により風景画像と参照データとが一致していると判定される機会が少なくなり、本来は参照データと一致していると認識してもよい風景画像であるにも拘わらずそう認識することができない、いわゆる認識漏れが生じてしまう。これに対し、車速Vやハンドル操舵量Stが大きいほど車速係数k1や操舵量係数k2を小さくして、判定用基準閾値M0に各係数を乗じて得られる後述の判定用閾値Mrefを小さくすることにより、マッチング処理により判定用データと参照データとが一致していると判定されやすくすることができ(一致していると判定される機会を増やすことができ)、本来一致していると認識してもよい風景画像の認識漏れを抑制する(認識率を高める)ことができる。
First, when the vehicle speed V and the steering wheel amount St are relatively large, the moving speed of the feature point in the landscape image taken by the camera 59 (the steering wheel steering amount St is a direction corresponding to a direction opposite to the turning direction of the vehicle in particular. The time during which a landscape image having a feature point matching the reference data can be taken is extremely short. In other words, in such a case, the range of the shooting position on the road where a landscape image having a feature point matching the reference data in the
また、走行車線Lrが道路脇に近い場合は、走行している道路の幅方向において車両位置が中央より左側または右側の道路脇に近い場合であり、カメラ59により撮影される風景画像における近い道路脇側の特徴点(道路の幅方向中央より左側の道路脇に近い場合には画像左側の特徴点,道路の幅方向中央より右側の道路脇に近い場合には画像右側の特徴点)の移動速度が比較的大きく、風景画像の認識漏れが生じやすい場合である。したがって、走行車線Lrが道路脇に近いほど走行車線係数k3を小さくして判定用閾値Mrefを小さくすることにより、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れを抑制することができる。さらに、走行車線差ΔLの絶対値が大きい場合(走行車線Lrが撮影時走行車線Lsから離れる場合)は、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置より離れている側の道路脇に近い場合であり、カメラ59により撮影される風景画像における特徴点(参照データを得た風景画像の撮影時の車両位置から左側に離れる場合には画像左側の特徴点,参照データを得た風景画像の撮影時の車両位置から右側に離れる場合には画像右側の特徴点)の移動速度が比較的大きく、風景画像の認識漏れが生じる要因となる。したがって、走行車線差ΔLの絶対値が小さいほど走行車線差係数k4を小さくして判定用閾値Mrefを小さくすることにより、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れを抑制することができる。
Further, when the driving lane Lr is close to the road side, the vehicle position is close to the road side on the left side or the right side from the center in the width direction of the driving road, and the road in the landscape image taken by the
続いて、入力した車線数Ln,車線幅Lw,歩道幅Pwの各パラメータに基づいてそれぞれ判定用基準閾値M0に乗じるべき車線数係数k5,車線幅係数k6,歩道幅係数k7を設定し(ステップS160)、入力した道路形状がカーブ形状のときには曲率半径Rに基づいて判定用基準閾値M0に乗じるべき曲率半径係数k8を設定すると共に入力した道路形状が直線形状のときには曲率半径半径係数k8に値1を設定し(ステップS170)、入力した最寄りの交差点からの距離Dcに基づいて判定用基準閾値M0に乗じるべき交差点距離係数k9を設定する(ステップS180)。ここで、各係数は、実施例では、パラメータと係数との関係を予め定めて係数毎に係数設定用マップとしてROM34に記憶しておき、パラメータが与えられると記憶したマップから対応する係数を導出して設定するものとした。
Subsequently, the lane number coefficient k5, the lane width coefficient k6, and the sidewalk width coefficient k7 to be multiplied by the determination reference threshold M0 are set based on the input parameters of the lane number Ln, the lane width Lw, and the sidewalk width Pw, respectively (step S160) When the input road shape is a curve shape, a curvature radius coefficient k8 to be multiplied by the determination reference threshold value M0 is set based on the curvature radius R, and when the input road shape is a straight shape, the value is set to the curvature radius radius coefficient k8. 1 is set (step S170), and an intersection distance coefficient k9 to be multiplied by the determination reference threshold M0 is set based on the input distance Dc from the nearest intersection (step S180). Here, in the embodiment, for each coefficient, the relationship between the parameter and the coefficient is determined in advance and stored in the
図9に判定用閾値Mrefを設定するためのパラメータと係数との複数の関係の一例を示す。図中、右側は係数設定用マップの一例である。図示するように、車線数Lnが少ないほど車線数係数k5が値1を跨いで小さくなり、車線幅Lwが狭いほど車線幅係数k6が値1を跨いで小さくなり、歩道幅Pwが狭いほど歩道幅係数k7が値1を跨いで小さくなり、道路形状がカーブ形状の場合に曲率半径Rが小さいほど曲率半径係数k8が値1を跨いで小さくなり、最寄りの交差点からの距離Dcが後述する所定距離D1未満の範囲で短いほど交差点距離係数k9が値1未満の範囲で小さくなるように、各パラメータに基づいて各係数が設定される。なお、歩道幅係数k7については、歩道幅Pwが値0で走行している道路に歩道がない場合には歩道幅係数k7の予め定められた値1未満の下限値が設定されるものとした。また、交差点距離係数k9については、最寄りの交差点からの距離Dcが所定距離D1以上の場合には値1が設定されるものとした。このように各係数を設定する理由を次に説明する。
FIG. 9 shows an example of a plurality of relationships between parameters and coefficients for setting the determination threshold value Mref. In the drawing, the right side is an example of a coefficient setting map. As shown in the figure, the smaller the lane number Ln, the smaller the lane number coefficient k5 across the
まず、走行している道路の幅員が比較的小さい場合には、カメラ59により撮影される風景画像における特徴点の移動速度が比較的大きく、風景画像の認識漏れが生じやすい。これに対し、道路の幅員が比較的が小さい場合には判定用閾値Mrefを小さくすれば、判定用データと参照データとが一致していると判定されやすくすることができる。道路の幅員が比較的小さい場合としては、道路の車線数が少ない場合,車線幅が狭い場合,歩道幅が狭い場合などを考えることができるから、実施例では、車線数Lnが少ないほど,車線幅Lwが狭いほど,歩道幅Pwが狭いほど、各係数を小さくして判定用閾値Mrefを小さくすることにより、風景画像の認識漏れを抑制することができる。
First, when the width of the running road is relatively small, the moving speed of the feature points in the landscape image captured by the
また、走行している道路がカーブ形状で曲率半径Rが比較的小さい場合には、カメラ59により撮影される風景画像における特徴点の移動速度(特に車両の旋回方向と逆方向に相当する方向への移動速度)が比較的大きく、参照データと一致する特徴点を有する風景画像を撮影可能な道路上の撮影位置の範囲はかなり狭いため、やはり風景画像の認識漏れが生じやすい。これに対し、道路の曲率半径Rが小さいほど曲率半径係数k8を小さくして判定用閾値Mrefを小さくするから、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れを抑制することができる。さらに、図10に示す車両が交差点を左折して走行する様子の一例から分かるように、車両が交差点を右折または左折して道路に進入するときには、車両は道路方向に対して斜めに道路に進入し、車両がある程度進んでから道路方向と略一致する方向に進むことになる。このため、実施例では、道路上で最寄りの交差点からの距離Dcが所定距離D1未満の範囲で短いほど交差点距離係数k9を小さくして判定用閾値Mrefを小さくするから、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れを抑制することができる。したがって、所定距離D1は、交差点を右左折した車両が進入した道路で道路方向と略一致する方向に走行する状態となるまでの距離として予め実験や解析により定められた距離を用いることができる。 Further, when the running road has a curved shape and the radius of curvature R is relatively small, the moving speed of the feature point in the landscape image taken by the camera 59 (particularly in the direction corresponding to the direction opposite to the turning direction of the vehicle). ) Is relatively large, and the range of shooting positions on the road where a landscape image having a feature point matching the reference data can be shot is quite narrow, so that recognition of the landscape image is likely to occur. On the other hand, as the curvature radius R of the road is smaller, the curvature radius coefficient k8 is decreased to decrease the determination threshold value Mref, so that it can be easily determined that the determination data and the reference data match. It is possible to suppress omissions in recognition of landscape images. Furthermore, as can be seen from the example of the vehicle shown in FIG. 10 turning left at the intersection, the vehicle enters the road diagonally with respect to the road direction when the vehicle turns right or left at the intersection and enters the road. However, after the vehicle has traveled to some extent, the vehicle travels in a direction that substantially matches the road direction. For this reason, in the embodiment, since the intersection distance coefficient k9 is decreased and the determination threshold Mref is decreased as the distance Dc from the nearest intersection on the road is shorter than the predetermined distance D1, the determination data and the reference data are reduced. Can be easily determined to match, and recognition failure of landscape images can be suppressed. Therefore, the predetermined distance D1 can be a distance determined in advance through experiments and analysis as a distance until the vehicle travels in a direction substantially coincident with the road direction on the road on which the vehicle that has turned right or left enters the intersection.
こうして閾値k1〜k9を設定すると、判定用基準閾値M0に全ての閾値k1〜k9を乗じたものを判定用閾値Mrefに設定し(ステップS190)、判定用データと参照データとの一致率Mを計算し(ステップS200)、計算した一致率Mと判定用閾値Mrefとを比較する(ステップS210)。ここで、一致率Mは、判定用データと参照データとが一致する程度を表すものであり、例えば、二値化画像として両データ(総画素数と縦横比は同じとする)の対応する画素を比較し、値(値0または値1)が一致する画素数の総画素数に対する割合などとして計算することができる。
When the threshold values k1 to k9 are set in this way, a value obtained by multiplying the determination reference threshold value M0 by all the threshold values k1 to k9 is set as the determination threshold value Mref (step S190), and the matching rate M between the determination data and the reference data is set. Calculation is performed (step S200), and the calculated match rate M is compared with the determination threshold value Mref (step S210). Here, the matching rate M represents the degree to which the determination data and the reference data match. For example, the corresponding pixels of both data (the total number of pixels and the aspect ratio are the same) as a binarized image. Can be calculated as a ratio of the number of pixels having the same value (
計算した一致率Mが判定用閾値Mref未満のときには、判定用データと参照データとは一致していないと判断し、推定自車位置および車両進行方位と一致する撮影位置および撮影方位の参照データおよび道路上その前後2つの参照データの合計3つの参照データと、1つの判定用データと、の合計3回の判定処理を行なったか否かを判定する(ステップS220)。合計3回の判定処理を行なっていない場合には、ステップS100に戻り、判定用データについては代えることなく、先にステップS100で入力した推定自車位置および車両進行方位と一致する撮影位置および撮影方位の参照データに代えて、この撮影位置の道路上で車両進行方向1つ後の参照データ(1つ先の参照データ)を入力して、ステップS100〜S210の処理を繰り返す。再び、一致率Mが判定用閾値Mref未満で合計3回の判定処理を行なっていない場合には(ステップS210,S220)、ステップS100に戻り、判定用データについては代えることなく、最初にステップS100で入力した推定自車位置および車両進行方位と一致する撮影位置および撮影方位の参照データに代えて、この撮影位置の道路上で車両進行方向1つ前の参照データを入力して、ステップS100〜S210の処理を繰り返す。 When the calculated coincidence rate M is less than the determination threshold Mref, it is determined that the determination data and the reference data do not match, and the reference data of the shooting position and shooting direction that match the estimated vehicle position and vehicle traveling direction, and It is determined whether or not a total of three determination processes, that is, a total of three reference data of the two reference data before and after the road and one determination data, has been performed (step S220). If the determination process has not been performed three times in total, the process returns to step S100, and the shooting position and the shooting that match the estimated vehicle position and the vehicle traveling direction previously input in step S100 are replaced without changing the determination data. Instead of the reference data of the direction, the reference data (one reference data ahead) in the vehicle traveling direction is input on the road at the photographing position, and the processes in steps S100 to S210 are repeated. Again, when the coincidence rate M is less than the determination threshold value Mref and the determination process is not performed three times in total (steps S210 and S220), the process returns to step S100, and the determination data is not changed and is first changed to step S100. Instead of the reference data of the shooting position and shooting direction that match the estimated host vehicle position and vehicle traveling direction input in step S100, step S100 to step S100 are performed. The process of S210 is repeated.
こうして一致率Mが判定用閾値Mref未満との判定結果を繰り返し3回得たときには(ステップS210,S220)、推定自車位置を自車位置と判定して(ステップS230)、自車位置判定処理ルーチンを終了する。一方、こうした処理を3回繰り返している最中に一致率Mが判定用閾値Mref以上と判定されたときには、そのときに判定用データと一致した参照データに対応する撮影位置を自車位置と判定して(ステップS240)、自車位置判定処理ルーチンを終了する。こうした処理により、ロケーション処理においてGPS航法や自律航法などにより推定された推定自車位置より正確な自車位置を特定することができる。なお、こうして自車位置が特定されると、特定された自車位置を基準としてGPS航法や自律航法などにより次の自車位置の推定が行なわれる。 When the determination result that the coincidence rate M is less than the determination threshold value Mref is repeatedly obtained three times (steps S210 and S220), the estimated vehicle position is determined as the vehicle position (step S230), and the vehicle position determination process is performed. End the routine. On the other hand, when it is determined that the match rate M is equal to or greater than the determination threshold value Mref while repeating such processing three times, the shooting position corresponding to the reference data that matches the determination data at that time is determined as the own vehicle position. (Step S240), and the vehicle position determination processing routine is terminated. By such processing, it is possible to specify the vehicle position that is more accurate than the estimated vehicle position estimated by GPS navigation, autonomous navigation, or the like in the location processing. When the vehicle position is specified in this way, the next vehicle position is estimated by GPS navigation, autonomous navigation, or the like with the specified vehicle position as a reference.
なお、本ルーチンの各ステップの処理は、基本的に電子制御ユニット30のロケーション処理部60により行なわれ、ステップS100の入力処理における判定用データの作成は電子制御ユニット30の画像処理部66により行なわれる。
The processing of each step of this routine is basically performed by the
以上説明した実施例のナビゲーション装置20によれば、道路上で走行方向に間隔をもって車載されたカメラ59から撮影された風景画像の特徴点を抽出して得られる複数の参照データをそれぞれ対応する撮影位置と関連付けて参照データDB44に記憶しておき、車載されたカメラ59から撮影される風景画像と複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、マッチング処理により一致していると判定された参照データに対応する撮影位置に基づいて車両の現在位置である自車位置を判定するものにおいて、マッチング処理は、カメラ59から撮影される風景画像に対して特徴点を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致率Mが判定用閾値Mref以上のときに一致していると判定し、一致率Mが判定用閾値Mref未満のときに一致していないと判定することにより行なわれ、判定用閾値Mrefは、車速Vが大きいほど小さくなるように且つハンドル操舵量Stが大きいほど小さくなるように調整されているから、マッチング処理により判定用データと参照データとが一致していると判定されやすくすることができる。この結果、自車位置をより適正に判定することができる。
According to the
また、実施例のナビゲーション装置20によれば、走行車線Lrが走行している道路の道路脇に近いほど小さくなるように、即ち、走行している道路の幅方向における車両位置が走行している道路の道路脇に近いほど小さくなるように、判定用閾値Mrefを調整するから、判定用データと参照データとが一致しているとより判定されやすくすることができ、風景画像のいわゆる認識漏れをより抑制することができる。さらに、走行車線差ΔLの絶対値が大きいほど(走行車線Lrが撮影時走行車線Lsから離れるほど)小さくなるように、即ち、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなるように、判定用閾値Mrefを調整するから、判定用データと参照データとが一致していると更に判定されやすくすることができ、風景画像の認識漏れを更に抑制することができる。
Further, according to the
しかも、実施例のナビゲーション装置20によれば、走行している道路の幅員が小さいほど(具体的には、車線数Lnが小さいほど,車線幅Lwが狭いほど,歩道幅Pwが狭いほど)小さくなるように、また、走行している道路がカーブ形状で曲率半径Rが小さいほど小さくなるように、さらに、走行している道路上で最寄りの交差点からの距離Dcが短いほど小さくなるように、判定用閾値Mrefを調整するから、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れをより抑制することができる。この結果、自車位置を更に適正に判定することができる。
In addition, according to the
実施例のナビゲーション装置20では、判定用データと参照データとの一致率Mの判定に用いる判定用閾値Mrefは、車速Vが大きいほど,ハンドル操舵量Stが大きいほど,走行車線Lrが道路脇に近いほど,走行車線差ΔLの絶対値が大きいほど,車線数Lnが少ないほど,車線幅Lwが狭いほど,歩道幅Pwが狭いほど,曲率半径Rが小さいほど,最寄りの交差点からの距離Dcが短いほど小さくなるように調整されるものとした、即ち、9個のパラメータに基づいて調整されるものとしたが、道路の車線数Lnと車線幅Lwと歩道幅Pwとに基づく調整に代えてまたは加えて、判定用閾値Mrefを、道路の幅員Dwが狭いほど短くなるように調整するものとしてもよい。また、判定用閾値Mrefを、これら9個のパラメータに道路の幅員Dwを加えた計10個のパラメータのうち任意の一部(1個以上)のパラメータのみに基づいて調整するものとしてもよいし、10個のパラメータに加えて他のパラメータにも基づいて調整するものとしてもよい。
In the
したがって、例えば、判定用データと参照データとの一致率Mの判定に用いる判定用閾値Mrefは、車速Vおよびハンドル操舵量St以外のパラメータに基づいて調整されることなく、車速Vが大きいほど小さくなり且つハンドル操舵量Stが大きいほど小さくなるように調整されるものとしてもよい。また、判定用閾値Mrefは、走行車線Lr以外のパラメータに基づいて調整されることなく、走行車線Lrが道路脇に近いほど小さくなるように調整されるものとしてもよい。さらに、判定用閾値Mrefは、走行車線差ΔL以外のパラメータに基づいて調整されることなく、走行車線差ΔLの絶対値が大きいほど小さくなるように調整されるものとしてもよい。 Therefore, for example, the determination threshold value Mref used for determining the matching rate M between the determination data and the reference data is not adjusted based on parameters other than the vehicle speed V and the steering wheel steering amount St, and decreases as the vehicle speed V increases. The steering wheel steering amount St may be adjusted to be smaller as the steering wheel steering amount St is larger. Further, the determination threshold value Mref may be adjusted so as to decrease as the traveling lane Lr is closer to the roadside without being adjusted based on parameters other than the traveling lane Lr. Further, the determination threshold Mref may be adjusted so as to decrease as the absolute value of the travel lane difference ΔL increases without being adjusted based on parameters other than the travel lane difference ΔL.
実施例のナビゲーション装置20では、判定用データと参照データとの一致率Mの判定に用いる判定用閾値Mrefは、走行車線Lrが道路脇に近いほど小さくなるように調整されるものとしたが、走行している道路の幅方向において車両位置が道路脇に近いほど判定用閾値Mrefを小さく調整すればよいから、走行車線Lrを検出することなく、道路の幅方向における車両位置を判定用データに対する画像処理により検出してこの検出位置に基づいて判定用閾値Mrefを調整するものとしてもよい。
In the
実施例のナビゲーション装置20では、判定用データと参照データとの一致率Mの判定に用いる判定用閾値Mrefは、走行車線Lrが撮影時走行車線Lsから離れるほど小さくなるように調整されるものとしたが、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど判定用閾値Mrefを小さく調整すればよいから、走行車線Lrを検出することなく、道路の幅方向における車両位置を判定用データに対する画像処理により検出してこの検出位置に基づいて判定用閾値Mrefを調整するものとしてもよい。
In the
実施例のナビゲーション装置20では、判定用データと参照データとの一致率Mを判定用閾値Mrefと比較して自車位置を判定するものとしたが、判定用データと参照データとをそれぞれ車両からみて左側のデータと右側のデータとに分割してから、左側と右側とでそれぞれ一致率と判定用閾値とを比較して自車位置を判定するものとしてもよい。この場合、図4の自車位置判定処理ルーチンに代えて、図11の自車位置判定処理ルーチンを実行すればよい。図11のルーチンでは、図4のルーチンのステップS150の処理に代えてステップS300の処理を実行し、図4のルーチンのステップS190〜S210の処理に代えてステップS310〜S340の処理を実行する点を除いて、図4のルーチンと同一である。したがって、同一の処理については同一のステップ番号を付し、その詳細な説明は省略する。
In the
図11のルーチンでは、車速係数k1と操舵量係数k2と走行車線係数k3とを設定すると(ステップS130,S140)、計算した走行車線差ΔLに基づいて、風景画像内左側の判定を行なうための左側走行車線差係数k4Lと風景画像内右側の判定を行なうための右側走行車線差係数k4Rとをそれぞれ設定し(ステップS300)、他の係数k5〜k9を設定する(ステップS160〜S180)。左側走行車線差係数k4Lは、走行車線差ΔLと左側走行車線差係数k4Lとの関係を予め定めてROM34に記憶された左側走行車線差係数設定用マップを用いて設定され、右側走行車線差係数k4Rは、走行車線差ΔLと右側走行車線差係数k4Rとの関係を予め定めてROM34に記憶された右側走行車線差係数設定用マップを用いて設定される。図12に左側走行車線差係数設定用マップの一例を示し、図13に右側走行車線差係数設定用マップの一例を示す。各マップの内容については後述する。
In the routine of FIG. 11, when the vehicle speed coefficient k1, the steering amount coefficient k2, and the travel lane coefficient k3 are set (steps S130 and S140), the left side in the landscape image is determined based on the calculated travel lane difference ΔL. A left travel lane difference coefficient k4L and a right travel lane difference coefficient k4R for determining the right side in the landscape image are set (step S300), and other coefficients k5 to k9 are set (steps S160 to S180). The left travel lane difference coefficient k4L is set using the left travel lane difference coefficient setting map stored in the
続いて、車速係数k1と操舵量係数k2と走行車線係数k3と左側走行車線差係数k4Lと他の係数k5〜k9とを乗じたものを左側判定用閾値MLrefに設定すると共に、車速係数k1と操舵量係数k2と走行車線係数k3と右側走行車線差係数k4Rと他の係数k5〜k9とを乗じたものを右側判定用閾値MLrefに設定し(ステップS310)、判定用データを車両からみた画像データとして左側の左側判定用データと右側の右側判定用データとに分割すると共に、参照データを車両からみた画像データとして左側の左側参照データと右側の右側参照データとに分割する(ステップS320)。図14に参照データを左側参照データと右側参照データとに分割する様子の一例を示す。図14の例では、参照データは、左側と右側とに半分ずつに分割されている。判定用データも参照データと同様に分割されるものとした。なお、参照データは予め分割したものをHDD40の参照データDB44に記憶しておくものとしてもよい。
Subsequently, a value obtained by multiplying the vehicle speed coefficient k1, the steering amount coefficient k2, the travel lane coefficient k3, the left travel lane difference coefficient k4L, and other coefficients k5 to k9 is set as the left determination threshold MLref, and the vehicle speed coefficient k1 An image obtained by multiplying the steering amount coefficient k2, the travel lane coefficient k3, the right travel lane difference coefficient k4R, and other coefficients k5 to k9 as the right determination threshold MLref (step S310), and viewing the determination data from the vehicle The data is divided into left-side left determination data and right-side right determination data as data, and reference data is divided into left-side left reference data and right-side right reference data as image data viewed from the vehicle (step S320). FIG. 14 shows an example of how the reference data is divided into left reference data and right reference data. In the example of FIG. 14, the reference data is divided in half on the left side and the right side. The determination data is also divided in the same manner as the reference data. The reference data may be divided in advance and stored in the
次に、左側判定用データと右側参照データとの一致率MLを前述の一致率Mと同様に計算すると共に、右側判定用データと右側参照データとの一致率MRを前述の一致率Mと同様に計算し(ステップS320)、計算した一致率MLを左側判定用閾値MLrefと比較すると共に一致率MRを右側判定用閾値MRrefと比較する(ステップS340)。そして、ステップS100〜S340の処理を異なる参照データを用いて3回繰り返す間に、一致率MLが左側用判定閾値MLref未満または一致率MRが右側判定用閾値MRref未満と続けて3回判定されたときには、推定自車位置を自車位置と判定する(ステップS230)。一方、ステップS100〜S340の処理を異なる参照データを用いて3回繰り返す間に、一致率MLが左側用判定閾値MLref以上且つ一致率MRが右側判定用閾値MRref以上と判定されたときには、そのときに判定用データと一致した参照データに対応する撮影位置を自車位置と判定して(ステップS240)、自車位置判定処理ルーチンを終了する。 Next, the matching rate ML between the left determination data and the right reference data is calculated in the same manner as the matching rate M, and the matching rate MR between the right determination data and the right reference data is the same as the matching rate M. (Step S320), the calculated match rate ML is compared with the left determination threshold value MLref, and the match rate MR is compared with the right determination threshold value MRref (step S340). Then, while the processes in steps S100 to S340 are repeated three times using different reference data, the match rate ML is determined to be three times continuously, less than the left determination threshold value MLref, or the match rate MR is less than the right determination threshold value MRref. Sometimes, the estimated vehicle position is determined as the vehicle position (step S230). On the other hand, when it is determined that the match rate ML is equal to or greater than the left-side determination threshold value MLref and the match rate MR is equal to or greater than the right-side determination threshold value MRref while the processing in steps S100 to S340 is repeated three times using different reference data. Then, the shooting position corresponding to the reference data that matches the determination data is determined as the vehicle position (step S240), and the vehicle position determination processing routine is terminated.
ここで、図12および図13に例示した左側走行車線差係数設定用マップおよび右側走行車線差係数設定用マップについて説明する。図12に示すように、左側走行車線差係数k4Lは、走行車線差ΔLが値0以上のとき、即ち、走行車線Lrが撮影時走行車線Lsと同じであるか撮影時走行車線Lsより右側の車線であるときには、値1が設定される。また、左側走行車線差係数k4Lは、走行車線差ΔLが値0未満で小さいほど小さくなるように設定される、即ち、走行車線Lrが撮影時走行車線Lsより左側に離れるほど小さくなるように設定される。これは、走行車線Lrが撮影時走行車線Lsに比して道路の幅方向において左側に離れるほど、カメラ59により撮影される風景画像における左側の特徴点の移動速度が比較的大きくなる傾向があり、この傾向が、風景画像の認識漏れが生じる要因となることに基づく。また、図13に示すように、右走行車線差係数k4Rは、走行車線差ΔLが値0以下のとき、即ち、走行車線Lrが撮影時走行車線Lsと同じであるか撮影時走行車線Lsより左側の車線であるときには、値1が設定される。また、右側走行車線差係数k4Rは、走行車線差ΔLが値0より大きいほど小さくなるように設定される、即ち、走行車線Lrが撮影時走行車線Lsより右側に離れるほど小さくなるように設定される。これは、走行車線Lrが撮影時走行車線Lsに比して道路の幅方向において右側に離れるほど、カメラ59により撮影される風景画像における右側の特徴点の移動速度が比較的大きくなる傾向があり、この傾向が、風景画像の認識漏れが生じる要因となることに基づく。こうした係数を用いて設定される左側判定用閾値Mrefと右側判定用閾値Mrefとをそれぞれ左側の一致率MLと右側の一致率MRとの比較に用いて自車位置を判定するから、風景画像の認識漏れが抑制され、より適正に自車位置を判定することができる。
Here, the left traveling lane difference coefficient setting map and the right traveling lane difference coefficient setting map illustrated in FIGS. 12 and 13 will be described. As shown in FIG. 12, the left-side travel lane difference coefficient k4L is equal to the right-hand side of the shooting-time travel lane Ls when the travel-lane difference ΔL is 0 or more, that is, whether the travel lane Lr is the same as the shooting-time driving lane Ls. A value of 1 is set when the vehicle is in a lane. Further, the left lane difference coefficient k4L is set to be smaller as the lane difference ΔL is smaller than 0, that is, to be smaller as the lane Lr is further to the left from the shooting lane Ls. Is done. This is because the moving speed of the feature point on the left side in the landscape image captured by the
実施例では、本発明の位置判定装置をディスプレイ22やHDD40を備えるナビゲーション装置20に適用して説明したが、例えば、ディスプレイを備えるナビゲーション装置と通信可能に接続されたサーバに電子制御ユニット30のロケーション処理部60の機能とロケーション処理に必要な画像処理部66の機能の一部とを行なわせるようにして、このサーバを本発明の位置判定装置として機能させるものとしてもよい。また、ナビゲーション装置20に代えて、デジタルカメラや携帯端末,ドライブレコーダなどの機器を本発明の位置判定装置として機能させるものとしてもよい。この場合、こうした機器を車室内に設置してこの機器が備えるカメラにより撮影される風景画像を用いて自車位置を判定するようにしてもよい。
In the embodiment, the position determination device according to the present invention is applied to the
また、実施例では、本発明の位置判定装置をナビゲーション装置20に適用して説明したが、位置判定方法の形態としてもよいし、こうした位置判定方法の各ステップを1以上のコンピュータに実現させるためのプログラムの形態としてもよい。また、こうしたプログラムを記録媒体に記憶させた形態としても構わない。
In the embodiments, the position determination device of the present invention is applied to the
実施例の主要な要素と課題を解決するための手段の欄に記載した発明の主要な要素との対応関係について説明する。実施例では、複数の参照データをHDD40の参照データDB42に記憶しておき車載されたカメラ59から撮影される風景画像と複数の参照データとが一致しているか否かを判定するマッチング処理を行なって一致していると判定された参照データに対応する撮影位置に基づいて自車位置を判定する図4や図11の自車位置判定処理ルーチンを実行する電子制御ユニット30のロケーション処理部60と画像処理部66の一部とが「位置判定装置」に相当する。また、判定用データを用いて走行車線Lrを検出する図4や図11の自車位置判定処理ルーチンのステップS110の処理を実行する電子制御ユニット30のロケーション処理部60が「幅方向車両位置検出手段」に相当する。
The correspondence between the main elements of the embodiment and the main elements of the invention described in the column of means for solving the problems will be described. In the embodiment, a plurality of reference data is stored in the
なお、実施例の主要な要素と課題を解決するための手段の欄に記載した発明の主要な要素との対応関係は、実施例が課題を解決するための手段の欄に記載した発明を実施するための形態を具体的に説明するための一例であることから、課題を解決するための手段の欄に記載した発明の要素を限定するものではない。即ち、課題を解決するための手段の欄に記載した発明についての解釈はその欄の記載に基づいて行なわれるべきものであり、実施例は課題を解決するための手段の欄に記載した発明の具体的な一例に過ぎないものである。 The correspondence between the main elements of the embodiment and the main elements of the invention described in the column of means for solving the problem is the same as that of the embodiment described in the column of means for solving the problem. Therefore, the elements of the invention described in the column of means for solving the problems are not limited. That is, the interpretation of the invention described in the column of means for solving the problems should be made based on the description of the column, and the examples are those of the invention described in the column of means for solving the problems. It is only a specific example.
以上、本発明を実施するための形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々なる形態で実施し得ることは勿論である。 As mentioned above, although the form for implementing this invention was demonstrated using the Example, this invention is not limited at all to such an Example, In the range which does not deviate from the summary of this invention, it is with various forms. Of course, it can be implemented.
本発明は、ナビゲーション装置や位置判定装置の製造産業などに利用可能である。 The present invention can be used in the manufacturing industry of navigation devices and position determination devices.
10 ナビゲーションシステム、12 車載装置、20 ナビゲーション装置、22 ディスプレイ、24 タッチパネル、26 スピーカ、30 電子制御ユニット、32 CPU、34 ROM、36 RAM、38 フラッシュメモリ、40 ハードディスクドライブ(HDD)、42 地図データ用データベース(地図データDB)、44 参照データ用データベース(参照データDB)、50 GPS受信機、52 車速センサ、54 加速度センサ、56 方位センサ、58 操舵量センサ、59 カメラ、60 ロケーション処理部、62 地図表示処理部、64 ナビゲーション処理部、66 画像処理部。 10 navigation system, 12 in-vehicle device, 20 navigation device, 22 display, 24 touch panel, 26 speaker, 30 electronic control unit, 32 CPU, 34 ROM, 36 RAM, 38 flash memory, 40 hard disk drive (HDD), 42 for map data Database (Map Data DB), 44 Reference Data Database (Reference Data DB), 50 GPS Receiver, 52 Vehicle Speed Sensor, 54 Acceleration Sensor, 56 Direction Sensor, 58 Steering Amount Sensor, 59 Camera, 60 Location Processing Unit, 62 Map Display processing unit, 64 navigation processing unit, 66 image processing unit.
Claims (11)
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、
位置判定装置。 A plurality of reference data obtained by extracting characteristic parts of a landscape image taken from an in-vehicle camera at intervals in the traveling direction on the road are stored in association with the corresponding positions on the map, and taken from the in-vehicle camera. Matching processing is performed to determine whether or not the scenery image to be matched and the plurality of reference data match, and based on the position on the map corresponding to the reference data determined to match by the matching processing A position determination device for determining a position of a vehicle on a map,
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so as to decrease as the vehicle speed increases and to decrease as the steering wheel steering amount increases.
Position determination device.
走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段
を備え、
前記判定用閾値は、前記検出された車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、
位置判定装置。 The position determination device according to claim 1,
A width direction vehicle position detecting means for detecting a vehicle position in the width direction of the running road,
The determination threshold is adjusted so that the detected vehicle position tends to decrease as the detected vehicle position is closer to the side of the road on which the vehicle is running.
Position determination device.
前記幅方向車両位置検出手段は、複数の車線を有する道路を走行しているときに走行車線を検出する手段であり、
前記判定用閾値は、前記検出された走行車線が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、
位置判定装置。 The position determination device according to claim 2,
The width direction vehicle position detecting means is means for detecting a traveling lane when traveling on a road having a plurality of lanes,
The threshold for determination is adjusted to tend to be smaller as the detected travel lane is closer to the side of the road on which the vehicle is traveling.
Position determination device.
走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段
を備え、
前記判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、
位置判定装置。 The position determination device according to claim 1,
A width direction vehicle position detecting means for detecting a vehicle position in the width direction of the running road,
The threshold value for determination is adjusted so that the detected vehicle position in the width direction of the running road becomes smaller as the distance from the vehicle position at the time of capturing a landscape image obtained from the reference data decreases.
Position determination device.
前記幅方向車両位置検出手段は、複数の車線を有する道路を走行しているときに走行車線を検出する手段であり、
前記判定用閾値は、前記検出された走行車線が前記参照データを得た風景画像の撮影時の走行車線から離れるほど小さくなる傾向に調整されてなる、
位置判定装置。 The position determination device according to claim 4,
The width direction vehicle position detecting means is means for detecting a traveling lane when traveling on a road having a plurality of lanes,
The determination threshold is adjusted such that the detected travel lane tends to become smaller as the distance from the travel lane at the time of capturing a landscape image from which the reference data is obtained.
Position determination device.
前記判定用閾値は、走行している道路の幅員が小さいほど小さくなる傾向,走行している道路の曲率半径が小さいほど小さくなる傾向,走行している道路上で最寄りの交差点からの距離が短いほど小さくなる傾向のうち少なくともいずれかとなるように調整されてなる、
位置判定装置。 The position determination device according to any one of claims 1 to 5,
The threshold for judgment tends to be smaller as the width of the running road is smaller, the tendency to be smaller as the radius of curvature of the running road is smaller, and the distance from the nearest intersection on the running road is shorter Adjusted to be at least one of the tendency to become smaller,
Position determination device.
前記判定用閾値は、走行している道路の車線数が少ないほど小さくなる傾向,走行している道路の車線幅が狭いほど小さくなる傾向,走行している道路の歩道幅が狭いほど小さくなる傾向のうち少なくともいずれかとなるように調整されてなる、
位置判定装置。 The position determination device according to any one of claims 1 to 6,
The threshold value for judgment tends to decrease as the number of lanes on the road that travels decreases, tends to decrease as the lane width of the road that travels decreases, and tends to decrease as the sidewalk width of the road that travels decreases. Adjusted to be at least one of
Position determination device.
前記マッチング処理は、
前記判定用データを前記車両からみて左側の左側判定用データと右側の右側判定用データとに分割すると共に、前記参照データを前記車両からみて左側の左側参照データと右側の右側参照データとに分割し、
前記左側判定用データと前記左側参照データとの一致の程度が左側判定用閾値以上であり、且つ、前記右側判定用データと前記右側参照データとの一致の程度が右側判定用閾値以上のときには一致していると判定し、前記左側判定用データと前記左側参照データとの一致の程度が前記左側判定用閾値未満であるか、又は、前記右側判定用データと前記右側参照データとの一致の程度が前記右側判定用閾値未満であるときには一致していないと判定することにより行なわれ、
前記左側判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から左側に離れるほど小さくなる傾向に調整されてなり、
前記右側用判定閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から右側に離れるほど小さくなる傾向に調整されてなる、
位置判定装置。 The position determination device according to claim 4 or 5,
The matching process includes
The determination data is divided into left determination data on the left side and right determination data on the right side when viewed from the vehicle, and the reference data is divided into left reference data on the left side and right reference data on the right side when viewed from the vehicle. And
The degree of coincidence between the left determination data and the left reference data is equal to or greater than the left determination threshold, and the degree of coincidence between the right determination data and the right reference data is equal to or greater than the right determination threshold. The degree of matching between the left-side determination data and the left-side reference data is less than the left-side determination threshold value, or the degree of matching between the right-side determination data and the right-side reference data Is determined to be inconsistent when the value is less than the right determination threshold,
The left-side determination threshold is adjusted so that the detected vehicle position in the width direction of the traveling road decreases toward the left side from the vehicle position at the time of capturing a landscape image obtained from the reference data. Become
The determination threshold for the right side is adjusted so that the detected vehicle position in the width direction of the traveling road tends to decrease as it moves to the right side from the vehicle position at the time of shooting the landscape image obtained from the reference data. Become,
Position determination device.
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、
位置判定方法。 A plurality of reference data obtained by extracting characteristic portions of a landscape image taken from an in-vehicle camera on the road at intervals in the running direction are stored in association with the corresponding positions on the map, and taken from the vehicle. A matching process for determining whether or not the landscape image matches the plurality of reference data, and a position on the map corresponding to the reference data determined to be constant by the matching process Determining the position of the vehicle on the map, and a position determination method executed by a position determination device that executes :
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so as to decrease as the vehicle speed increases and to decrease as the steering wheel steering amount increases.
Position determination method.
A program for causing the one or more computers to function as the position determination device by executing each step of the position determination method according to claim 10 by one or more computers .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011168806A JP5742559B2 (en) | 2011-08-01 | 2011-08-01 | POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011168806A JP5742559B2 (en) | 2011-08-01 | 2011-08-01 | POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013032954A JP2013032954A (en) | 2013-02-14 |
JP5742559B2 true JP5742559B2 (en) | 2015-07-01 |
Family
ID=47788954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011168806A Expired - Fee Related JP5742559B2 (en) | 2011-08-01 | 2011-08-01 | POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5742559B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6455866B2 (en) * | 2014-03-31 | 2019-01-23 | Necエンベデッドプロダクツ株式会社 | Monitoring device, monitoring method, and program |
JP6303902B2 (en) * | 2014-08-04 | 2018-04-04 | 日産自動車株式会社 | Position detection apparatus and position detection method |
JP2022139830A (en) * | 2021-03-12 | 2022-09-26 | 株式会社豊田自動織機 | Autonomous travelling vehicle |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4847090B2 (en) * | 2005-10-14 | 2011-12-28 | クラリオン株式会社 | Position positioning device and position positioning method |
JP4724043B2 (en) * | 2006-05-17 | 2011-07-13 | トヨタ自動車株式会社 | Object recognition device |
JP2009122859A (en) * | 2007-11-13 | 2009-06-04 | Toyota Motor Corp | Object detector |
JP5090313B2 (en) * | 2008-10-28 | 2012-12-05 | 日立オートモティブシステムズ株式会社 | Road marking recognition device |
-
2011
- 2011-08-01 JP JP2011168806A patent/JP5742559B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013032954A (en) | 2013-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11113544B2 (en) | Method and apparatus providing information for driving vehicle | |
JP5742558B2 (en) | POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM | |
US8369577B2 (en) | Vehicle position recognition system | |
US8791996B2 (en) | Image processing system and position measurement system | |
JP5057184B2 (en) | Image processing system and vehicle control system | |
US8428362B2 (en) | Scene matching reference data generation system and position measurement system | |
US8452103B2 (en) | Scene matching reference data generation system and position measurement system | |
US8239131B2 (en) | Navigation device, navigation method, and navigation program | |
US7894632B2 (en) | Apparatus and method of estimating center line of intersection | |
JP4506790B2 (en) | Road information generation apparatus, road information generation method, and road information generation program | |
CN102183257B (en) | Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium | |
CN111311902B (en) | Data processing method, device, equipment and machine readable medium | |
JP2019517089A (en) | Image processing method for recognizing ground markings, and system for detecting ground markings | |
CN111091037B (en) | Method and device for determining driving information | |
JP4596566B2 (en) | Self-vehicle information recognition device and self-vehicle information recognition method | |
JP2009042167A (en) | Image recognition device and program for image recognition device, as well as navigator and program for navigator therewith | |
JP5742559B2 (en) | POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM | |
US10586393B2 (en) | Positioning objects in an augmented reality display | |
JP4953015B2 (en) | Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same | |
JP6790951B2 (en) | Map information learning method and map information learning device | |
JP5549468B2 (en) | Feature position acquisition apparatus, method and program | |
JP4497424B2 (en) | Feature recognition device, feature recognition method, lane determination device and lane determination method using the same | |
JP2008298698A (en) | Image recognition device, image recognition method, and own position recognition device and navigation device using them | |
JP7546820B2 (en) | Driving assistance device and driving assistance method | |
JP2022071741A (en) | Self position estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140320 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141216 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5742559 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |