JP5742559B2 - POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM - Google Patents

POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP5742559B2
JP5742559B2 JP2011168806A JP2011168806A JP5742559B2 JP 5742559 B2 JP5742559 B2 JP 5742559B2 JP 2011168806 A JP2011168806 A JP 2011168806A JP 2011168806 A JP2011168806 A JP 2011168806A JP 5742559 B2 JP5742559 B2 JP 5742559B2
Authority
JP
Japan
Prior art keywords
vehicle
determination
road
reference data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011168806A
Other languages
Japanese (ja)
Other versions
JP2013032954A (en
Inventor
孝幸 宮島
孝幸 宮島
石川 健
健 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47788954&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP5742559(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2011168806A priority Critical patent/JP5742559B2/en
Publication of JP2013032954A publication Critical patent/JP2013032954A/en
Application granted granted Critical
Publication of JP5742559B2 publication Critical patent/JP5742559B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

本発明は、位置判定装置およびナビゲーション装置並びに位置判定方法,プログラムに関し、詳しくは、車載カメラから撮影された風景画像を用いて車両の地図上の位置を判定する位置判定装置およびナビゲーション装置並びに位置判定方法,プログラムに関する。   The present invention relates to a position determination device, a navigation device, a position determination method, and a program, and more particularly, to a position determination device, a navigation device, and a position determination that determine a position of a vehicle on a map using a landscape image taken from an in-vehicle camera. It relates to methods and programs.

従来、この種の位置判定装置としては、道路上の白線などの道路標示を示すパターン情報と道路標示の特徴点の座標(ワールド座標)を示す位置情報とを予め対応付けて登録しておき、パターン情報を用いたパターンマッチング等により、車載カメラによる撮影画像の中に道路標示があると判定したときには、撮影画像から特徴点を抽出して、車両の暫定現在位置を基準にした自動車座標系における道路標示の特徴点の座標(自動車座標)を算出し、算出した道路標示の特徴点の自動車座標と対応する位置情報とを用いて車両の現在位置を算出するものが提案されている(例えば、特許文献1参照)。この装置では、これにより、GPS信号やジャイロ,車線センサからの信号を利用した位置測位により得られる車両の暫定現在位置よりも高精度な現在位置を算出することができるものとしている。   Conventionally, as this type of position determination device, pattern information indicating road markings such as white lines on the road and position information indicating the coordinates of the feature points of the road markings (world coordinates) are registered in advance, When it is determined by pattern matching using pattern information that there is a road marking in the image captured by the in-vehicle camera, feature points are extracted from the captured image, and the vehicle coordinate system is based on the provisional current position of the vehicle. It has been proposed to calculate the coordinates of the feature points of the road marking (vehicle coordinates), and to calculate the current position of the vehicle using the calculated vehicle coordinates of the feature points of the road marking and the corresponding position information (for example, Patent Document 1). With this device, it is possible to calculate the current position with higher accuracy than the provisional current position of the vehicle obtained by the position measurement using the GPS signal, the gyroscope, and the signal from the lane sensor.

特開2007−108043号公報JP 2007-108043 A

しかしながら、上述の装置により行なわれる道路標示を示すパターン情報と撮影画像とのマッチング処理や、上述の装置と同様に高精度な現在位置の算出を目的として行なわれる車両からの風景画像の特徴的部分を示すパターン情報と撮影画像とのマッチング処理は、車両が走行している最中に行なう必要があることから、車両の位置を正しく判定することができない場合があった。車両が走行している最中は、その走行環境などによっては、撮影画像における道路標示や特徴的部分の移動速度が速くなり、パターン情報と一致する撮影画像を得ることができる時間が短くなって、即ち、パターン情報と一致する撮影画像を得ることができる道路上での撮影位置の範囲が狭くなって、パターン情報と撮影画像とが一致していると判定される機会が少なくなってしまう場合があった。   However, the characteristic part of the landscape image from the vehicle, which is performed for the purpose of matching the pattern information indicating the road marking performed by the above-described device with the photographed image and calculating the current position with high accuracy as in the above-described device. Since it is necessary to perform the matching process between the pattern information indicating the captured image and the captured image while the vehicle is traveling, the vehicle position may not be correctly determined. While the vehicle is traveling, depending on the traveling environment, the speed of movement of the road markings and characteristic parts in the captured image increases, and the time required to obtain a captured image that matches the pattern information decreases. That is, when the range of the shooting position on the road where a captured image that matches the pattern information can be obtained becomes narrow, the chance that it is determined that the pattern information and the captured image match is reduced. was there.

本発明の位置判定装置およびナビゲーション装置並びに位置判定方法,プログラムは、車両の地図上の位置をより適正に判定することを主目的とする。   The main object of the position determination apparatus, navigation apparatus, position determination method, and program of the present invention is to more appropriately determine the position of the vehicle on the map.

本発明の位置判定装置およびナビゲーション装置並びに位置判定方法,プログラムは、上述の主目的を達成するために以下の手段を採った。   The position determination apparatus, navigation apparatus, position determination method, and program of the present invention employ the following means in order to achieve the main object described above.

本発明の第1の位置判定装置は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The first position determination device of the present invention is
A plurality of reference data obtained by extracting characteristic parts of a landscape image taken from an in-vehicle camera at intervals in the traveling direction on the road are stored in association with the corresponding positions on the map, and taken from the in-vehicle camera. Matching processing is performed to determine whether or not the scenery image to be matched and the plurality of reference data match, and based on the position on the map corresponding to the reference data determined to match by the matching processing A position determination device for determining a position of a vehicle on a map,
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so as to decrease as the vehicle speed increases and to decrease as the steering wheel steering amount increases.
It is characterized by that.

この本発明の第1の位置判定装置では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されている。車速が比較的大きい場合やハンドル操舵量が比較的大きい場合には、風景画像の中の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度(ハンドル操舵量が比較的大きい場合には、特に車両の旋回方向と逆方向に相当する方向への移動速度)が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。   In the first position determination device of the present invention, the matching process is performed by matching the reference data with the determination data obtained by performing predetermined image processing for extracting a characteristic part from the landscape image captured from the vehicle. It is determined by matching when the degree of is equal to or greater than the determination threshold, and is determined not to match when the degree of matching is less than the determination threshold. It is adjusted to tend to be smaller and smaller as the steering wheel steering amount is larger. When the vehicle speed is relatively high or the steering amount is relatively large, the moving speed (steering wheel steering) of a characteristic part in the landscape image (for example, a roadside feature such as a roadside building or a road sign) When the amount is relatively large, the moving speed in a direction corresponding to the direction opposite to the turning direction of the vehicle in particular is relatively large, and the time during which a landscape image having a characteristic portion matching the reference data can be taken is short. . Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.

こうした本発明の第1の位置判定装置において、走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段を備え、前記判定用閾値は、前記検出された車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、ものとすることもできる。これは、走行している道路の幅方向において車両位置が道路脇に近いほど、風景画像の中でその近い道路脇側(左側または右側)の特徴的部分の移動速度が大きくなる傾向があることに基づく。この場合、前記幅方向車両位置検出手段は、複数の車線を有する道路を走行しているときに走行車線を検出する手段であり、前記判定用閾値は、前記検出された走行車線が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、ものとすることもできる。   In the first position determination apparatus of the present invention, the vehicle includes a width direction vehicle position detection unit that detects a vehicle position in the width direction of the road on which the vehicle is traveling, and the threshold value for determination is determined based on whether the detected vehicle position is the travel distance. It is also possible to adjust the tendency so that the closer to the road side of the road, the smaller the trend is. This is because the closer the vehicle position is to the side of the road in the width direction of the running road, the higher the moving speed of the characteristic part on the side of the road side (left side or right side) closer in the landscape image. based on. In this case, the width direction vehicle position detecting means is means for detecting a traveling lane when traveling on a road having a plurality of lanes, and the threshold for determination is determined based on the detected traveling lane. It is also possible to adjust the tendency so that the closer to the roadside of the road, the smaller the tendency is.

また、本発明の第1の位置判定装置において、走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段を備え、前記判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、ものとすることもできる。これは、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど、風景画像の中でその離れた方向側(左側または右側)の特徴的部分の移動速度が大きくなる傾向があることに基づく。この場合、前記幅方向車両位置検出手段は、複数の車線を有する道路を走行しているときに走行車線を検出する手段であり、前記判定用閾値は、前記検出された走行車線が前記参照データを得た風景画像の撮影時の走行車線から離れるほど小さくなる傾向に調整されてなる、ものとすることもできる。   In the first position determination apparatus of the present invention, the vehicle further includes a width direction vehicle position detection unit that detects a vehicle position in the width direction of the traveling road, and the determination threshold value is the width of the traveling road. The detected vehicle position in the direction may be adjusted so as to become smaller as the distance from the vehicle position at the time of capturing the landscape image from which the reference data is obtained is adjusted. This is because the farther away from the vehicle position at the time of shooting the landscape image in which the vehicle position obtained the reference data in the width direction of the running road, the characteristic side on the far side (left side or right side) in the landscape image It is based on the tendency that the moving speed of a part becomes large. In this case, the width direction vehicle position detecting means is means for detecting a traveling lane when traveling on a road having a plurality of lanes, and the determination threshold is calculated based on whether the detected traveling lane is the reference data. It is also possible to adjust the tendency so that the distance from the traveling lane at the time of shooting the landscape image obtained becomes smaller.

さらに、本発明の第1の位置判定装置において、前記判定用閾値は、走行している道路の幅員が小さいほど小さくなる傾向,走行している道路の曲率半径が小さいほど小さくなる傾向,走行している道路上で最寄りの交差点からの距離が短いほど小さくなる傾向のうち少なくともいずれかとなるように調整されてなる、ものとすることもできる。これは、走行している道路の幅員が小さいほど,走行している道路の曲率半径が小さいほど,交差点を右左折してから進入した道路上でその交差点からの距離が短いほど、風景画像の中の特徴的部分の移動速度が大きくなる傾向があることに基づく。   Furthermore, in the first position determination apparatus of the present invention, the determination threshold tends to be smaller as the width of the traveling road is smaller, and tends to be smaller as the curvature radius of the traveling road is smaller. It is also possible to adjust the distance to be at least one of the tendency to become smaller as the distance from the nearest intersection on the road is shorter. This is because the smaller the width of the running road, the smaller the radius of curvature of the running road, the shorter the distance from the intersection on the road that entered after turning the intersection, the shorter the landscape image It is based on the tendency that the moving speed of the characteristic part inside becomes large.

あるいは、本発明の第1の位置判定装置において、前記判定用閾値は、走行している道路の車線数が少ないほど小さくなる傾向,走行している道路の車線幅が狭いほど小さくなる傾向,走行している道路の歩道幅が狭いほど小さくなる傾向のうち少なくともいずれかとなるように調整されてなる、ものとすることもできる。これは、道路の車線数が少ないほど,道路の車線幅が狭いほど,道路の歩道幅が狭いほど、道路の幅員が小さくなる傾向があると共に、走行している道路の幅員が小さいほど、風景画像の中の特徴的部分の移動速度が大きくなる傾向があることに基づく。   Alternatively, in the first position determination device of the present invention, the threshold for determination tends to decrease as the number of lanes on a traveling road decreases, and tends to decrease as the lane width of a traveling road decreases. It can also be adjusted so that it becomes at least one of the tendency which becomes small, so that the sidewalk width of the road which is carried out is narrow. This is because the smaller the number of road lanes, the narrower the lane width of the road, the narrower the sidewalk width of the road, the smaller the width of the road, and the smaller the width of the running road, This is based on the tendency that the moving speed of the characteristic part in the image increases.

車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に判定用閾値を調整する態様の本発明の第1の位置判定装置において、前記マッチング処理は、前記判定用データを前記車両からみて左側の左側判定用データと右側の右側判定用データとに分割すると共に、前記参照データを前記車両からみて左側の左側参照データと右側の右側参照データとに分割し、前記左側判定用データと前記左側参照データとの一致の程度が左側判定用閾値以上であり、且つ、前記右側判定用データと前記右側参照データとの一致の程度が右側判定用閾値以上のときには一致していると判定し、前記左側判定用データと前記左側参照データとの一致の程度が前記左側判定用閾値未満であるか、又は、前記右側判定用データと前記右側参照データとの一致の程度が前記右側判定用閾値未満であるときには一致していないと判定することにより行なわれ、前記左側判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から左側に離れるほど小さくなる傾向に調整されてなり、前記右側用判定閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から右側に離れるほど小さくなる傾向に調整されてなる、ものとすることもできる。こうすれば、より適正に判定用閾値を調整することができる。   In the first position determination apparatus of the present invention in which the determination threshold is adjusted such that the vehicle position tends to decrease as the vehicle position moves away from the vehicle position at the time of capturing a landscape image from which reference data is obtained. The data is divided into left side determination data and right side determination data on the left side when viewed from the vehicle, and the reference data is divided into left side reference data and left side reference data on the left side when viewed from the vehicle, The degree of matching between the left determination data and the left reference data is equal to or greater than the left determination threshold, and the degree of coincidence between the right determination data and the right reference data is equal to or greater than the right determination threshold. And the degree of matching between the left determination data and the left reference data is less than the left determination threshold, or the right determination data and the left reference data When the degree of coincidence with the side reference data is less than the right-side determination threshold, it is determined that they do not coincide with each other, and the left-side determination threshold is detected in the width direction of the running road. The vehicle position is adjusted so as to decrease as it moves further leftward from the vehicle position at the time of capturing the landscape image from which the reference data was obtained, and the right-side determination threshold is set in the width direction of the running road. The detected vehicle position may be adjusted so as to become smaller as it moves to the right side from the vehicle position at the time of capturing the landscape image from which the reference data was obtained. In this way, the determination threshold value can be adjusted more appropriately.

本発明の第2の位置判定装置は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、
走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段
を備え、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、前記検出された車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The second position determination apparatus of the present invention is
A plurality of reference data obtained by extracting characteristic parts of a landscape image taken from an in-vehicle camera at intervals in the traveling direction on the road are stored in association with the corresponding positions on the map, and taken from the in-vehicle camera. Matching processing is performed to determine whether or not the scenery image to be matched and the plurality of reference data match, and based on the position on the map corresponding to the reference data determined to match by the matching processing A position determination device for determining a position of a vehicle on a map,
A width direction vehicle position detecting means for detecting a vehicle position in the width direction of the running road,
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so that the detected vehicle position tends to decrease as the detected vehicle position is closer to the side of the road on which the vehicle is running.
It is characterized by that.

この本発明の第2の位置判定装置では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、走行している道路の幅方向における車両位置が走行している道路の道路脇に近いほど小さくなる傾向に調整されている。走行している道路の幅方向における車両位置がその道路の道路脇に比較的近い場合には、風景画像の中でその近い道路脇側(左側または右側)の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。   In the second position determination apparatus of the present invention, the matching process is performed by matching the determination data obtained by performing predetermined image processing for extracting a characteristic portion on the landscape image captured from the vehicle and the reference data. It is determined that it is coincident when the degree is equal to or greater than the determination threshold, and is determined not to coincide when the degree of coincidence is less than the determination threshold, and the determination threshold is running The vehicle position in the width direction of the road is adjusted to tend to be smaller as it is closer to the side of the road on which the vehicle is traveling. If the vehicle position in the width direction of the running road is relatively close to the roadside of the road, a characteristic part (for example, the roadside The moving speed of roadside features such as buildings and road signs is relatively high, and the time during which a landscape image having a characteristic portion matching the reference data can be taken is short. Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.

本発明の第3の位置判定装置は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、
走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段
を備え、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The third position determination apparatus of the present invention is
A plurality of reference data obtained by extracting characteristic parts of a landscape image taken from an in-vehicle camera at intervals in the traveling direction on the road are stored in association with the corresponding positions on the map, and taken from the in-vehicle camera. Matching processing is performed to determine whether or not the scenery image to be matched and the plurality of reference data match, and based on the position on the map corresponding to the reference data determined to match by the matching processing A position determination device for determining a position of a vehicle on a map,
A width direction vehicle position detecting means for detecting a vehicle position in the width direction of the running road,
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The threshold value for determination is adjusted so that the detected vehicle position in the width direction of the running road becomes smaller as the distance from the vehicle position at the time of capturing a landscape image obtained from the reference data decreases.
It is characterized by that.

この本発明の第3の位置判定装置では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されている。走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から比較的離れている場合には、風景画像の中でその離れている方向側(左側または右側)の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。   In the third position determination apparatus according to the present invention, the matching process is performed between the determination data obtained by performing predetermined image processing for extracting a characteristic portion from a landscape image captured from a vehicle and the reference data. When the degree of matching is greater than or equal to the determination threshold value, it is determined that they match, and when the degree of matching is less than the determination threshold value, it is determined that they do not match. In the width direction of the road, the vehicle position is adjusted so as to become smaller as the distance from the vehicle position at the time of taking a landscape image from which reference data is obtained. If the vehicle position is relatively far from the vehicle position at the time of shooting the landscape image from which reference data was obtained in the width direction of the road that is running, the direction side (left side or right side) in the landscape image ) Characteristic parts (for example, roadside buildings, roadside features such as road signs, etc.) are relatively fast, and the time during which a landscape image having a characteristic part matching the reference data can be taken is short. . Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.

本発明のナビゲーション装置は、上述のいずれかの態様の本発明の位置判定装置、即ち、基本的には、道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、第1の位置判定装置、または、走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段を備え、前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、前記判定用閾値は、前記検出された車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、第2の位置判定装置、または、走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段を備え、前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、前記判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、第3の位置判定装置、を備え、該位置判定装置により判定された車両の地図上の位置を用いて目的地への経路案内を行なう、ことを要旨とする。   The navigation device of the present invention extracts the characteristic portion of the landscape image taken from the in-vehicle camera at intervals in the traveling direction on the road, that is, the position determination device of the present invention of any of the above-described aspects. A plurality of reference data obtained in association with the corresponding positions on the map, and matching for determining whether or not the landscape image photographed from the in-vehicle camera matches the plurality of reference data A position determination device that performs a process and determines a position on a map of a vehicle based on a position on a map corresponding to reference data determined to be matched by the matching process. The degree of coincidence between the determination data obtained by performing predetermined image processing for extracting a characteristic portion from a landscape image captured from the reference data and the reference data is less than the determination threshold. It is determined by determining that they match when the degree of matching is less than the determination threshold, and the determination threshold tends to decrease as the vehicle speed increases. And the first position determination device or the width direction vehicle position detection means for detecting the vehicle position in the width direction of the running road, the adjustment being made such that the steering wheel steering amount increases. The processing is coincident when the degree of coincidence between the determination data obtained by performing predetermined image processing for extracting a characteristic portion on the landscape image taken from the vehicle and the reference data is equal to or greater than the determination threshold. And when the degree of coincidence is less than the determination threshold value, it is determined that they do not match. The determination threshold value is determined based on the detected vehicle position. A second position determination device, or a width direction vehicle position detection means for detecting a vehicle position in the width direction of the road on which the vehicle is running The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image taken from a vehicle is equal to or greater than a determination threshold value. And the determination threshold is determined in the width direction of the running road. A third position determination device that is adjusted such that the detected vehicle position tends to decrease as the vehicle position moves away from the vehicle position at the time of capturing the landscape image from which the reference data was obtained. The gist is that route guidance to the destination is performed using the determined position of the vehicle on the map.

この本発明のナビゲーション装置では、上述のいずれかの態様の本発明の位置判定装置を備えるから、上述の位置判定装置が奏する効果、例えば、車両の地図上の位置をより適正に判定することができる効果などと同様の効果を奏することができる。   Since the navigation device of the present invention includes the position determination device of the present invention according to any one of the aspects described above, it is possible to more appropriately determine the effect of the position determination device described above, for example, the position of the vehicle on the map. The same effects as those that can be achieved can be achieved.

本発明の第1の位置判定方法は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車両から撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行なうステップと、該マッチング処理により一定していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定するステップと、を含む位置判定方法であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The first position determination method of the present invention includes:
A plurality of reference data obtained by extracting characteristic portions of a landscape image taken from an in-vehicle camera on the road at intervals in the running direction are stored in association with the corresponding positions on the map, and taken from the vehicle. A matching process for determining whether or not the landscape image matches the plurality of reference data, and a position on the map corresponding to the reference data determined to be constant by the matching process Determining the position of the vehicle on the map, and a position determination method comprising:
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so as to decrease as the vehicle speed increases and to decrease as the steering wheel steering amount increases.
It is characterized by that.

この本発明の第1の位置判定方法では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されている。車速が比較的大きい場合やハンドル操舵量が比較的大きい場合には、風景画像の中の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度(ハンドル操舵量が比較的大きい場合には、特に車両の旋回方向と逆方向に相当する方向への移動速度)が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定される機会を増やすことができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。   In the first position determination method of the present invention, the matching process matches the reference data with the determination data obtained by performing predetermined image processing for extracting a characteristic part from the landscape image captured from the vehicle. It is determined by matching when the degree of is equal to or greater than the determination threshold, and is determined not to match when the degree of matching is less than the determination threshold. It is adjusted to tend to be smaller and smaller as the steering wheel steering amount is larger. When the vehicle speed is relatively high or the steering amount is relatively large, the moving speed (steering wheel steering) of a characteristic part in the landscape image (for example, a roadside feature such as a roadside building or a road sign) When the amount is relatively large, the moving speed in a direction corresponding to the direction opposite to the turning direction of the vehicle in particular is relatively large, and the time during which a landscape image having a characteristic portion matching the reference data can be taken is short. . Therefore, in such a case, by reducing the determination threshold value, it is possible to increase the chance of determining that the landscape image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.

本発明の第2の位置判定方法は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車両から撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行なうステップと、該マッチング処理により一定していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定するステップと、を含む位置判定方法であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、走行している道路の幅方向における車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The second position determination method of the present invention includes:
A plurality of reference data obtained by extracting characteristic portions of a landscape image taken from an in-vehicle camera on the road at intervals in the running direction are stored in association with the corresponding positions on the map, and taken from the vehicle. A matching process for determining whether or not the landscape image matches the plurality of reference data, and a position on the map corresponding to the reference data determined to be constant by the matching process Determining the position of the vehicle on the map, and a position determination method comprising:
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold value is adjusted so that the vehicle position in the width direction of the traveling road is closer to the side of the road on which the traveling road is closer to be smaller.
It is characterized by that.

この本発明の第2の位置判定方法では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、走行している道路の幅方向における車両位置が走行している道路の道路脇に近いほど小さくなる傾向に調整されている。走行している道路の幅方向における車両位置がその道路の道路脇に比較的近い場合には、風景画像の中でその近い道路脇側(左側または右側)の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。   In the second position determination method of the present invention, the matching process is performed by matching the determination data and the reference data obtained by performing predetermined image processing for extracting a characteristic part on the landscape image captured from the vehicle. It is determined that it is coincident when the degree is equal to or greater than the determination threshold, and is determined not to coincide when the degree of coincidence is less than the determination threshold, and the determination threshold is running The vehicle position in the width direction of the road is adjusted to tend to be smaller as it is closer to the side of the road on which the vehicle is traveling. If the vehicle position in the width direction of the running road is relatively close to the roadside of the road, a characteristic part (for example, the roadside The moving speed of roadside features such as buildings and road signs is relatively high, and the time during which a landscape image having a characteristic portion matching the reference data can be taken is short. Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.

本発明の第3の位置判定方法は、
道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車両から撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行なうステップと、該マッチング処理により一定していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定するステップと、を含む位置判定方法であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、走行している道路の幅方向において車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、
ことを特徴とする。
The third position determination method of the present invention includes:
A plurality of reference data obtained by extracting characteristic portions of a landscape image taken from an in-vehicle camera on the road at intervals in the running direction are stored in association with the corresponding positions on the map, and taken from the vehicle. A matching process for determining whether or not the landscape image matches the plurality of reference data, and a position on the map corresponding to the reference data determined to be constant by the matching process Determining the position of the vehicle on the map, and a position determination method comprising:
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold value is adjusted so that the vehicle position in the width direction of the running road becomes smaller as the vehicle position moves away from the vehicle position at the time of capturing a landscape image obtained from the reference data.
It is characterized by that.

この本発明の第3の位置判定方法では、マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、一致の程度が判定用閾値未満のときに一致していないと判定することにより行なわれ、判定用閾値は、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されている。走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から比較的離れている場合には、風景画像の中でその離れている方向側(左側または右側)の特徴的部分(例えば、道路脇の建物や道路標識といった道路脇の地物など)の移動速度が比較的大きく、参照データと一致する特徴的部分を有する風景画像を撮影可能な時間は短い。したがって、こうした場合には、判定用閾値を小さくすることにより、マッチング処理により風景画像と参照データとが一致していると判定されやすくすることができる。この結果、車両の地図上の位置をより適正に判定することができる。ここで、所定の画像処理としては、少なくともエッジ検出処理を含むものなどを用いることができる。   In the third position determination method of the present invention, the matching process is performed between the determination data obtained by performing predetermined image processing for extracting a characteristic portion from a landscape image captured from a vehicle and the reference data. When the degree of matching is greater than or equal to the determination threshold value, it is determined that they match, and when the degree of matching is less than the determination threshold value, it is determined that they do not match. In the width direction of the road, the vehicle position is adjusted so as to become smaller as the distance from the vehicle position at the time of taking a landscape image from which reference data is obtained. If the vehicle position is relatively far from the vehicle position at the time of shooting the landscape image from which reference data was obtained in the width direction of the road that is running, the direction side (left side or right side) in the landscape image ) Characteristic parts (for example, roadside buildings, roadside features such as road signs, etc.) are relatively fast, and the time during which a landscape image having a characteristic part matching the reference data can be taken is short. . Therefore, in such a case, by reducing the determination threshold value, it can be easily determined that the scenery image and the reference data match by the matching process. As a result, the position of the vehicle on the map can be determined more appropriately. Here, as the predetermined image processing, one including at least edge detection processing can be used.

本発明のプログラムは、上述した第1〜第3の位置判定方法の各ステップを1以上のコンピュータに実現させるためのものである。このプログラムは、コンピュータが読み取り可能な記録媒体(例えばハードディスク、ROM、FD、CD、DVDなど)に記録されていてもよいし、伝送媒体(インターネットやLANなどの通信網)を介してあるコンピュータから別のコンピュータへ配信されてもよいし、その他どのような形で授受されてもよい。このプログラムを一つのコンピュータに実行させるか又は複数のコンピュータに分担して実行させれば、上述した位置判定方法の各ステップが実現されるため、その位置判定方法と同様の作用効果が得られる。   The program of the present invention is for causing one or more computers to implement the steps of the first to third position determination methods described above. This program may be recorded on a computer-readable recording medium (for example, hard disk, ROM, FD, CD, DVD, etc.), or from a computer via a transmission medium (communication network such as the Internet or LAN). It may be distributed to another computer, or may be exchanged in any other form. If this program is executed by one computer or shared by a plurality of computers, each step of the above-described position determination method is realized, so that the same effect as that of the position determination method can be obtained.

本発明の一実施例としてのナビゲーション装置20を含むナビゲーションシステム10の構成の概略を示す構成図である。1 is a configuration diagram showing an outline of a configuration of a navigation system 10 including a navigation device 20 as an embodiment of the present invention. 風景画像とのマッチング処理に用いられる参照データを作成する様子の一例を説明する説明図である。It is explanatory drawing explaining an example of a mode that the reference data used for the matching process with a landscape image are produced. 道路とその幅員Dw,歩道幅Pw,車線幅Lwとの複数の関係の一例を説明する説明図である。It is explanatory drawing explaining an example of several relationship with a road, its width | variety Dw, sidewalk width Pw, and lane width Lw. 電子制御ユニット30により実行される自車位置判定処理ルーチンの一例を示すフローチャートである。3 is a flowchart showing an example of a vehicle position determination processing routine executed by an electronic control unit 30. 道路における最寄りの交差点からの距離Dcの一例を示す説明図である。It is explanatory drawing which shows an example of the distance Dc from the nearest intersection in a road. 判定用閾値Mrefをを設定するためのパラメータと係数との複数の関係の一例を説明する説明図である。It is explanatory drawing explaining an example of the several relationship of the parameter and coefficient for setting the threshold value for determination Mref. 走行車線係数k3の係数設定用マップの例を示す説明図である。It is explanatory drawing which shows the example of the coefficient setting map of the travel lane coefficient k3. 走行車線差係数k4を設定する様子の例を説明する説明図である。It is explanatory drawing explaining the example of a mode that the driving lane difference coefficient k4 is set. 判定用閾値Mrefを設定するためのパラメータと係数との複数の関係の一例を説明する説明図である。It is explanatory drawing explaining an example of the some relationship between the parameter and coefficient for setting the threshold value for determination Mref. 車両が交差点を左折して走行する様子の一例を説明する説明図である。It is explanatory drawing explaining an example of a mode that a vehicle turns left at an intersection and drive | works. 変形例の電子制御ユニット30により実行される自車位置判定処理ルーチンの一例を示すフローチャートである。It is a flowchart which shows an example of the own vehicle position determination processing routine performed by the electronic control unit 30 of a modification. 左側走行車線差係数設定用マップの一例を示す説明図である。It is explanatory drawing which shows an example of the left travel lane difference coefficient setting map. 右側走行車線差係数設定用マップの一例を示す説明図である。It is explanatory drawing which shows an example of the map for right lane difference coefficient setting. 参照データを左側参照データと右側参照データとに分割する様子の一例を示す説明図である。It is explanatory drawing which shows an example of a mode that reference data is divided | segmented into left reference data and right reference data.

次に、本発明を実施するための形態を実施例を用いて説明する。   Next, the form for implementing this invention is demonstrated using an Example.

図1は、本発明の一実施例としてのナビゲーション装置20を含むナビゲーションシステム10の構成の概略を示す構成図である。実施例のナビゲーションシステム10は、図示しない車両(自動車)に搭載された各種センサを中心とする車載装置12と、図示しない車載バッテリからの電力供給を受けて作動するナビゲーション装置20とを備える。実施例のナビゲーション装置20は、図示するように、文字や画像を表示する矩形状の画面を有する例えば液晶ディスプレイや有機エレクトロルミネッセンスディスプレイなどとして構成されたディスプレイ22と、ディスプレイ22の画面に取り付けられた例えば抵抗膜方式や静電容量方式などによるタッチパネル24と、装置全体をコントロールする電子制御ユニット30と、各種アプリケーションソフトウェアや地図データなどを記憶する大容量メモリとしてのハードディスクドライブ(以下、HDDという)40とを備える。   FIG. 1 is a configuration diagram showing an outline of a configuration of a navigation system 10 including a navigation device 20 as an embodiment of the present invention. The navigation system 10 according to the embodiment includes an in-vehicle device 12 centering on various sensors mounted on a vehicle (automobile) (not shown) and a navigation device 20 that operates by receiving power supply from an in-vehicle battery (not shown). As shown in the drawing, the navigation device 20 of the embodiment has a rectangular screen for displaying characters and images, for example, a display 22 configured as a liquid crystal display, an organic electroluminescence display, and the like, and is attached to the screen of the display 22. For example, a touch panel 24 using a resistance film method or a capacitance method, an electronic control unit 30 for controlling the entire apparatus, and a hard disk drive (hereinafter referred to as HDD) 40 as a large-capacity memory for storing various application software and map data. With.

電子制御ユニット30は、CPU32を中心とするマイクロプロセッサとして構成されており、CPU32の他に各種処理プログラムを記憶するROM34と、データを一時的に記憶するRAM36と、記憶したデータを保持する不揮発性のフラッシュメモリ38と、図示しない入出力ポートとを備える。電子制御ユニット30には、操作者のタッチ位置を検出するタッチパネル24からの信号やHDD40から読み出したデータの他に、車載装置12からの各種信号が車内ネットワーク経由で入力ポートを介して入力されている。車載装置12からの信号としては、GPS(Global Positioning System)衛星からの信号をGPSアンテナを介して受信するGPS受信機50からの信号,車両の駆動軸や車輪が一定量回転する毎にパルス信号を出力する車速センサ52からの信号,車両の加速度を検出する加速度センサ54からの信号,車両の進行方位やその変化を検出する例えばジャイロセンサにより構成された方位センサ56からの信号,車両のハンドルの基準位置(進行方向に相当する位置)からの回転量(回転角)をハンドル操舵量として検出する操舵量センサ58からの信号,車両前方に設置されて車両前方の風景画像を動画や静止画として撮影可能なカメラ59からの信号(撮影画像)などがある。電子制御ユニット30からは、ディスプレイ22への表示信号やアンプを内蔵したスピーカ26への音声信号,HDD40に書き込むデータなどが出力ポートを介して出力されている。   The electronic control unit 30 is configured as a microprocessor centered on the CPU 32. In addition to the CPU 32, the ROM 34 that stores various processing programs, the RAM 36 that temporarily stores data, and the nonvolatile that holds the stored data. Flash memory 38 and an input / output port (not shown). In addition to the signal from the touch panel 24 for detecting the touch position of the operator and the data read from the HDD 40, various signals from the in-vehicle device 12 are input to the electronic control unit 30 via the in-vehicle network via the input port. Yes. The signal from the in-vehicle device 12 includes a signal from a GPS receiver 50 that receives a signal from a GPS (Global Positioning System) satellite via a GPS antenna, and a pulse signal every time a vehicle drive shaft or wheel rotates a certain amount. A signal from the vehicle speed sensor 52 that outputs a signal, a signal from the acceleration sensor 54 that detects the acceleration of the vehicle, a signal from the direction sensor 56 that includes, for example, a gyro sensor that detects the traveling direction of the vehicle and its change, a vehicle handle A signal from a steering amount sensor 58 that detects a rotation amount (rotation angle) from a reference position (a position corresponding to the traveling direction) as a steering wheel steering amount, a moving image or a still image of a landscape image installed in front of the vehicle There is a signal (captured image) from the camera 59 that can be photographed. From the electronic control unit 30, a display signal to the display 22, an audio signal to the speaker 26 with a built-in amplifier, data to be written to the HDD 40, and the like are output via an output port.

実施例のナビゲーション装置20では、電子制御ユニット30は、HDD40から必要なアプリケーションソフトウェアや地図データを読み出して各種処理を実行する。例えば、ハードウェア又はソフトウェア或いはその組み合わせにより実現される機能を表す図1の機能ブロックに示すように、電子制御ユニット30は、GPS受信機50からの信号や方位センサ56からの信号などに基づいて車両の現在位置である自車位置を判定するロケーション処理部60によるロケーション処理,地図データを用いてディスプレイ22に地図を表示する地図表示処理部62による地図表示処理,判定された自車位置から目的地への走行ルートを探索して地図表示処理部62による地図表示やスピーカ26からの音声出力によりルート案内を行なうナビゲーション処理部64によるナビゲーション処理,これらの処理に用いられる画像処理部66による各種画像処理などを実行する。なお、地図データは、HDD40の地図データ用データベース(以下、地図データDBという)42に記憶されている。   In the navigation device 20 of the embodiment, the electronic control unit 30 reads out necessary application software and map data from the HDD 40 and executes various processes. For example, as shown in the functional block of FIG. 1 representing functions realized by hardware, software, or a combination thereof, the electronic control unit 30 is based on a signal from the GPS receiver 50, a signal from the direction sensor 56, or the like. Location processing by the location processing unit 60 that determines the vehicle position that is the current position of the vehicle, map display processing by the map display processing unit 62 that displays a map on the display 22 using map data, and the purpose from the determined vehicle position Searching for a travel route to the ground, displaying a map by the map display processing unit 62, navigation processing by the navigation processing unit 64 that provides route guidance by voice output from the speaker 26, and various images by the image processing unit 66 used for these processings Execute processing. The map data is stored in a map data database (hereinafter referred to as map data DB) 42 of the HDD 40.

電子制御ユニット30によるロケーション処理では、GPS受信機50からのGPS信号に基づいていわゆるGPS航法により自車位置を算出したり、GPS信号を受信できない場合などに車速センサ52からの車速パルス信号や加速度センサ54からの車両の加速度,方位センサ56からの車両の方位に基づいていわゆる自律航法により自車位置を算出したり、算出された自車位置が地図の道路上から外れた場合などに地図データを用いて自車位置を道路上の位置に補正するいわゆるマップマッチングを行なったりして、自車位置を推定する。さらに、ロケーション処理では、カメラ59により撮影される風景画像と予めHDD40に記憶された複数の参照データとが一致しているか否かを判定する画像認識処理としてのマッチング処理を行ない、マッチング処理により一致していると判定された参照データに関連付けられた地図上の位置を、GPS航法や自律航法などにより推定した自車位置に代えて、正しい自車位置と判定する。ここで、HDD40に記憶された複数の参照データは、実際に走行した車両の車載カメラから道路上で走行方向に間隔をもって撮影された風景画像の特徴点(例えば、道路脇の建物の輪郭,窓枠,看板や道路標識といった道路脇の地物,道路標示など)を抽出して得られるデータであり、風景画像を撮影したときの自車位置などの撮影情報と共に、HDD40の参照データ用データベース(以下、参照データDBという)44に記憶されている。   In the location processing by the electronic control unit 30, the vehicle position is calculated by so-called GPS navigation based on the GPS signal from the GPS receiver 50, or the vehicle speed pulse signal or acceleration from the vehicle speed sensor 52 when the GPS signal cannot be received. Map data when the vehicle position is calculated by so-called autonomous navigation based on the acceleration of the vehicle from the sensor 54 and the vehicle direction from the direction sensor 56, or when the calculated vehicle position deviates from the road on the map. The vehicle position is estimated by performing so-called map matching that corrects the vehicle position to a position on the road using. Further, in the location processing, matching processing is performed as image recognition processing for determining whether or not a landscape image photographed by the camera 59 matches a plurality of reference data stored in the HDD 40 in advance. The position on the map associated with the reference data determined to be correct is determined as the correct vehicle position instead of the vehicle position estimated by GPS navigation, autonomous navigation, or the like. Here, the plurality of reference data stored in the HDD 40 are feature points of a landscape image taken at intervals in the traveling direction on the road from an in-vehicle camera of the vehicle that actually traveled (for example, the outline of a roadside building, a window Data obtained by extracting roadside features such as frames, signboards and road signs, road markings, etc.), together with shooting information such as the position of the vehicle when shooting a landscape image, and a reference data database of the HDD 40 ( (Hereinafter referred to as reference data DB) 44.

ここで、カメラ59により撮影される風景画像とのマッチング処理に用いられる参照データを作成する方法を説明する。図2は、風景画像とのマッチング処理に用いられる参照データを作成する様子の一例を説明する説明図である。実施例では、図中上部に示すように、参照データ作成用の車両は、道路上で予め定められた参照データ間隔Dをもって車載カメラから車両前方の風景画像を撮影しながら走行し、風景画像の撮影時における車両の地図上の位置(緯度及び経度)と車両の方位(道路方向に沿った方位)とを各種センサからの信号などに基づいて正確な情報として取得する。参照データ間隔Dは、実施例では、ロケーション処理により実施例のナビゲーション装置20が備える電子制御ユニット30の演算量が過大にならない範囲内で、多くの道路で正確な自車位置を得ることができる道路上の間隔として、電子制御ユニット30やHDD40の性能などに基づいて予め実験や解析により定められたもの(例えば、数十mなど)を用いるものとした。続いて、図中下部左側に示すように、車載された電子制御ユニットにより、撮影された風景画像に対してエッジ検出処理などを施すことにより風景画像の特徴点を抽出して二値化した特徴点画像を作成し、作成した特徴点画像に対して風景画像認識に適した特徴点を強調したり強調した特徴点周辺の特徴点を破棄したりする強調処理や、ノイズ除去処理などを施して、参照データを作成する。また、撮影された風景画像から参照データを作成する際に、特徴点画像に対して道路上の白線や矢印などの道路標示が強調されるよう強調処理を施すことにより、風景画像の撮影時における走行車線の検出を行なう。エッジ検出処理や強調処理,ノイズ除去処理などの周知な画像処理手法については、これ以上詳細な説明は省略する。こうして作成された複数の参照データは、図中中段右側に示すように、実施例の車両に搭載されたナビゲーション装置20のHDD40の参照データDB44に、参照データ毎に撮影時の車両の位置,車両の方位,走行車線(以下、それぞれ撮影位置,撮影方位,撮影時走行車線という)と関連付けられて記憶される。   Here, a method for creating reference data used for matching processing with a landscape image photographed by the camera 59 will be described. FIG. 2 is an explanatory diagram for explaining an example of creating reference data used for matching processing with a landscape image. In the embodiment, as shown in the upper part of the figure, the vehicle for creating reference data travels while taking a landscape image in front of the vehicle from the in-vehicle camera with a predetermined reference data interval D on the road. The position (latitude and longitude) on the map of the vehicle at the time of shooting and the direction of the vehicle (direction along the road direction) are acquired as accurate information based on signals from various sensors. In the embodiment, the reference data interval D can be obtained on many roads in an accurate range within a range in which the calculation amount of the electronic control unit 30 included in the navigation device 20 of the embodiment is not excessive by location processing. As the distance on the road, a distance (for example, several tens of meters) determined in advance by experiments and analysis based on the performance of the electronic control unit 30 and the HDD 40 is used. Subsequently, as shown in the lower left part of the figure, the feature point of the landscape image is extracted and binarized by performing an edge detection process etc. on the photographed landscape image by the on-board electronic control unit A point image is created, and the feature point image is subjected to enhancement processing that emphasizes feature points suitable for landscape image recognition and discards feature points around the emphasized feature points, noise removal processing, etc. Create reference data. In addition, when creating reference data from a photographed landscape image, the feature point image is emphasized so that road markings such as white lines and arrows on the road are emphasized. Detects the driving lane. Detailed descriptions of well-known image processing methods such as edge detection processing, enhancement processing, and noise removal processing are omitted. The plurality of reference data created in this manner are stored in the reference data DB 44 of the HDD 40 of the navigation device 20 mounted on the vehicle of the embodiment, as shown in the right side of the middle stage in the drawing, for each reference data, And the driving lane (hereinafter referred to as the shooting position, shooting direction, and driving lane at the time of shooting), respectively.

なお、HDD40の地図データDB42には、道路情報や施設情報などが含まれ、道路情報には、例えば各道路の両端のノードが示す地図上の位置(緯度及び経度),各道路の距離,地域(市街地,郊外),種別(一般道路,高速道路),勾配,信号機の数の他に、図2中下部右側に示すように、各道路の幅員Dw,車線数Ln,車線幅Lw,歩道幅Pw,道路形状(直線またはカーブ),曲率半径R,道路種類(一方通行道路,対面通行道路,中央分離帯のある道路等),前述の参照データ間隔Dなどが含まれる。図3は、道路とその幅員Dw,歩道幅Pw,車線幅Lwとの複数の関係の一例を説明する説明図である。図中、左側の(a)は道路種類が対面通行道路で片側3車線の車線数Lnが値6の道路を示し、中央の(b)は道路種類が一方通行道路(例えば高速道路や高架道路などの場合)で車線数Lnが値3の道路を示し、右側の(c)は道路種類が一方通行道路で車線数Lnが値4の道路を示す。図3では、道路の歩道幅Pwは左右両側で等しく車線幅Lwは全て等しいものとして示したが、全ての道路について同一の基準に基づくものであれば、例えば、歩道幅Pwは左右両側の歩道幅の平均値として表したり、車線幅Lwは全車線の車線幅の平均値として表すなどとしてもよい。   The map data DB 42 of the HDD 40 includes road information, facility information, and the like. The road information includes, for example, the position (latitude and longitude) on the map indicated by the nodes at both ends of each road, the distance of each road, and the region. (Urban area, suburb), type (general road, highway), slope, number of traffic lights, as shown on the lower right side of FIG. 2, the width Dw, the number of lanes Ln, the lane width Lw, the sidewalk width Pw, road shape (straight line or curve), radius of curvature R, road type (one-way road, two-way road, road with a median, etc.), the aforementioned reference data interval D, and the like are included. FIG. 3 is an explanatory diagram illustrating an example of a plurality of relationships between a road and its width Dw, sidewalk width Pw, and lane width Lw. In the figure, (a) on the left shows a road with a road type of two-way traffic and a lane number Ln of 6 on one side, and the center (b) shows a one-way road (for example, an expressway or an elevated road). And the right side (c) shows a road with a road type of one-way and a lane number Ln of 4. In FIG. 3, the sidewalk width Pw of the road is equal on both the left and right sides, and the lane widths Lw are all equal. However, if all roads are based on the same standard, for example, the sidewalk width Pw is It may be expressed as an average value of widths, or the lane width Lw may be expressed as an average value of lane widths of all lanes.

次に、こうして構成された実施例のナビゲーション装置20の動作、特に走行中に自車位置を判定する際の動作について説明する。図4は、電子制御ユニット30のロケーション処理部60により画像処理部66と連携して実行される自車位置判定処理ルーチンの一例を示すフローチャートである。このルーチンは、GPS航法や自律航法などにより推定された自車位置と方位センサ56からの信号などに基づく現在の車両の進行方位(道路方向に沿った方位)とが、それぞれ参照データDB44の参照データの1つに関連付けられた撮影位置と撮影方位とに一致する毎に繰り返し実行される。   Next, the operation of the navigation device 20 of the embodiment configured as described above, particularly the operation when determining the position of the vehicle during traveling will be described. FIG. 4 is a flowchart illustrating an example of a vehicle position determination processing routine executed by the location processing unit 60 of the electronic control unit 30 in cooperation with the image processing unit 66. In this routine, the current vehicle traveling direction (direction along the road direction) based on the vehicle position estimated by GPS navigation, autonomous navigation, or the like and the signal from the direction sensor 56 is referred to the reference data DB 44, respectively. It is repeatedly executed every time the shooting position and the shooting direction associated with one of the data match.

自車位置判定処理ルーチンが実行されると、電子制御ユニット30のCPU32は、まず、現在推定されている自車位置である推定自車位置,本ルーチンが実行されたときにカメラ59により撮影された風景画像から得られる判定用データ,推定自車位置および現在の車両の進行方位(以下、車両進行方位という)と一致する撮影位置および撮影方位の参照データ,推定自車位置および車両進行方位と一致する撮影位置および撮影方位に対応する撮影時走行車線Ls,推定自車位置における道路の車線数Lnと車線幅Lwと歩道幅Pwと曲率半径R,推定自車位置および車両進行方位に対応する道路の道路形状と道路種類,推定自車位置および車両進行方位に対応する道路における最寄りの交差点からの距離Dc,車速センサ52からの信号に基づいて算出される車速V,操舵量センサ58からの信号として得られるハンドル操舵量St,本判定処理に用いられる判定用基準閾値M0など判定に必要なデータを入力する処理を実行する(ステップS100)。   When the own vehicle position determination processing routine is executed, the CPU 32 of the electronic control unit 30 first takes an image of the estimated own vehicle position, which is the currently estimated own vehicle position, by the camera 59 when this routine is executed. Data for determination obtained from a landscape image, estimated vehicle position and reference data of shooting position and shooting direction that coincide with the current vehicle traveling direction (hereinafter referred to as vehicle traveling direction), estimated vehicle position and vehicle traveling direction Corresponding to the shooting travel lane Ls corresponding to the coincident shooting position and shooting direction, the number of road lanes Ln, the lane width Lw, the sidewalk width Pw, the curvature radius R, the estimated own vehicle position and the vehicle traveling direction at the estimated own vehicle position. The distance Dc from the nearest intersection on the road corresponding to the road shape and type of the road, the estimated vehicle position and the vehicle traveling direction, and the signal from the vehicle speed sensor 52 A process of inputting data necessary for determination, such as the vehicle speed V calculated based on the above, the steering wheel amount St obtained as a signal from the steering amount sensor 58, and the determination reference threshold value M0 used in this determination process, is executed (step S100). ).

ここで、推定自車位置は、実施例では、ロケーション処理部60によりGPS航法や自律航法などにより推定されたものを入力するものとした。判定用データは、図2を用いて説明した風景画像から参照データを作成した際の画像処理手法と同手法を、本ルーチンを実行したときにカメラ59により撮影された風景画像に対して適用することにより作成したものを入力するものとした。参照データと撮影時走行車線Lsとは、それぞれ推定自車位置および車両進行方位と一致する撮影位置および撮影方位に対応するものを参照データDB44から入力するものとした。道路の車線数Lnと車線幅Lwと歩道幅Pwと曲率半径Rとは、推定自車位置における道路の情報として記憶されたものを地図データDB42から入力するものとした。道路形状と道路種類とは、推定自車位置および車両進行方位に対応する道路の情報として記憶されたものを地図データDB42から入力するものとした。最寄りの交差点からの距離Dcは、実施例では、各道路の両端のノード間を単位距離毎に分割した複数の地点毎に定められ、他の道路との関係や各道路の位置,距離に基づいて算出されて地図データDB42に記憶されたものを入力するものとした。図5にある道路における最寄りの交差点からの距離Dcの一例を示す。また、判定用基準閾値M0は、判定用データと参照データとの一致の程度を示す一致率Mが判定用閾値Mref以上か否かを判定する本ルーチンの処理(即ち、実施例のマッチング処理)における判定用閾値Mrefの基準値であり、判定用データと参照データとが一致していると判定可能な範囲の比較的小さい値として予め実験や解析により定められたものを用いるものとした。   Here, in the embodiment, the estimated vehicle position is input by the location processing unit 60 estimated by GPS navigation, autonomous navigation, or the like. For the determination data, the same image processing method used when the reference data is created from the landscape image described with reference to FIG. 2 is applied to the landscape image captured by the camera 59 when this routine is executed. It was supposed to input what was created. The reference data and the shooting travel lane Ls are input from the reference data DB 44 corresponding to the shooting position and shooting direction corresponding to the estimated own vehicle position and vehicle traveling direction, respectively. The number of road lanes Ln, the lane width Lw, the sidewalk width Pw, and the radius of curvature R are input from the map data DB 42 as information stored on the road at the estimated vehicle position. As the road shape and road type, information stored as road information corresponding to the estimated own vehicle position and vehicle traveling direction is input from the map data DB 42. In the embodiment, the distance Dc from the nearest intersection is determined for each of a plurality of points obtained by dividing the nodes at both ends of each road into unit distances, and is based on the relationship with other roads and the position and distance of each road. What is calculated and stored in the map data DB 42 is input. An example of the distance Dc from the nearest intersection on the road in FIG. 5 is shown. The determination reference threshold value M0 is a process of this routine for determining whether or not the coincidence rate M indicating the degree of coincidence between the determination data and the reference data is greater than or equal to the determination threshold value Mref (that is, the matching process of the embodiment). The reference value of the determination threshold value Mref is determined in advance as a comparatively small value within a range where it can be determined that the determination data matches the reference data.

こうしてデータを入力すると、図2を用いて説明した参照データを作成する際に走行車線を検出したときの画像処理手法と同手法を、カメラ59により撮影した風景画像から判定用データを作成する際に適用することにより、車両が走行している道路での走行車線Lrを検出し(ステップS110)、検出した走行車線Lrから入力した撮影時走行車線Lsを減じたものを走行車線差ΔLとして計算する(ステップS120)。ここで、走行車線Lrは、日本のように自動車が左側通行となる国や地域では、車両が走行している道路が複数車線を有する場合には、最も左側の車線を値1として左側から何番目の車線かを整数で示す値とし、車両が走行している道路が一車線のみを有する場合には、値1とした。なお、参照データDB44の撮影情報としての撮影時走行車線Lsも同様に値1以上の整数とした。   When the data is input in this way, the same method as the image processing method when the driving lane is detected when the reference data described with reference to FIG. 2 is generated, and when the determination data is generated from the landscape image photographed by the camera 59 To detect the travel lane Lr on the road on which the vehicle is traveling (step S110), and calculate the travel lane difference ΔL obtained by subtracting the captured travel lane Ls from the detected travel lane Lr. (Step S120). Here, in a country or region where the automobile is on the left side like Japan, the driving lane Lr is the value of the leftmost lane as the value 1 and the value from the left side when the road on which the vehicle is driving has multiple lanes. The first lane is a value indicated by an integer, and the value is 1 when the road on which the vehicle is traveling has only one lane. The shooting lane Ls as shooting information in the reference data DB 44 is also an integer equal to or greater than 1.

続いて、入力した車速V,ハンドル操舵量St,検出した走行車線Lr,計算した走行車線差ΔLの各パラメータに基づいてそれぞれ判定用基準閾値M0に乗じるべき車速係数k1,操舵量係数k2,走行車線係数k3,走行車線差係数k4を設定する(ステップS130〜S150)。ここで、各係数は、実施例では、パラメータと係数との関係を予め定めて係数毎に係数設定用マップとしてROM34に記憶しておき、パラメータが与えられると記憶したマップから対応する係数を導出して設定するものとした。   Subsequently, the vehicle speed coefficient k1, the steering amount coefficient k2, and the travel to be multiplied by the determination reference threshold M0 based on the input vehicle speed V, the steering wheel steering amount St, the detected travel lane Lr, and the calculated travel lane difference ΔL, respectively. A lane coefficient k3 and a travel lane difference coefficient k4 are set (steps S130 to S150). Here, in the embodiment, for each coefficient, the relationship between the parameter and the coefficient is determined in advance and stored in the ROM 34 as a coefficient setting map for each coefficient. When a parameter is given, the corresponding coefficient is derived from the stored map. And set it.

図6に判定用閾値Mrefを設定するためのパラメータと係数との複数の関係の一例を示し、図7に走行車線係数k3の係数設定用マップの例を示し、図8に走行車線車係数k4を設定する様子の例を説明する説明図を示す。図6中、右側は係数設定用マップの一例である。図6に示すように、車速Vが大きいほど車速係数k1が値1を跨いで小さくなり、ハンドル操舵量Stが大きいほど操舵量係数k2が値1から小さくなり、走行車線Lrが道路脇に近いほど走行車線係数k3が小さくなり、走行車線差ΔLの絶対値が大きいほど(走行車線Lrが撮影時走行車線Lsから離れるほど)走行車線差係数k4が値1から小さくなるように、各パラメータに基づいて各係数が設定される。なお、操舵量係数k2については、ハンドル操舵量Stが値0近傍の不感帯としての所定量以下の範囲では一律に値1が設定されるものとした。また、図7に示すように、走行車線係数k3は、入力した道路種類と車線数Ln毎に異なる係数設定用マップが選択されて、選択された係数設定用マップに走行車線Lrを適用することにより設定することができる。例えば、図中左側の(a)の道路(道路種類が対面通行道路で車線数Lnが値6の道路)では、走行車線Lrが小さいほど(即ち左側の道路脇に近いほど)値1を跨いで小さくなるように走行車線係数k3が設定され、図中中央の(b)の道路(道路種類が一方通行道路で車線数Lnが値3の道路)や図中右側の(c)の道路(道路種類が一方通行道路で車線数Lnが値4の道路)では、走行車線Lrが中央の車線から離れて左側または右側の道路脇に近いほど値1から小さくなるように走行車線係数k3が設定される。さらに、走行車線差係数k4は、走行車線差ΔLの絶対値に基づいて設定することにより、図8に示すように、走行車線Lrが撮影時走行車線Lsから道路幅方向の左側または右側に離れるほど値1から小さくなるように設定される、と言い換えることができる。このように各係数を設定する理由を次に説明する。   FIG. 6 shows an example of a plurality of relationships between parameters and coefficients for setting the determination threshold value Mref, FIG. 7 shows an example of a coefficient setting map for the travel lane coefficient k3, and FIG. 8 shows the travel lane coefficient k4. The explanatory view explaining the example of a mode of setting up is shown. In FIG. 6, the right side is an example of a coefficient setting map. As shown in FIG. 6, as the vehicle speed V increases, the vehicle speed coefficient k1 decreases across the value 1, and as the steering wheel amount St increases, the steering amount coefficient k2 decreases from the value 1, and the travel lane Lr is closer to the roadside. As the travel lane coefficient k3 decreases and the absolute value of the travel lane difference ΔL increases (the travel lane Lr moves away from the travel lane Ls during shooting), the travel lane difference coefficient k4 decreases from the value 1. Each coefficient is set based on this. As for the steering amount coefficient k2, the value 1 is uniformly set in a range where the steering amount St of the steering wheel is equal to or less than a predetermined amount as a dead zone in the vicinity of the value 0. Further, as shown in FIG. 7, for the driving lane coefficient k3, a different coefficient setting map is selected for each input road type and the number of lanes Ln, and the driving lane Lr is applied to the selected coefficient setting map. Can be set. For example, in the road (a) on the left side of the figure (the road type is a face-to-face road and the number of lanes Ln is a value of 6), the smaller the travel lane Lr (that is, the closer to the left side of the road), the more the value 1 is crossed. The driving lane coefficient k3 is set so as to be small at the center, and the road (b) in the center (the road type is a one-way road and the number of lanes Ln is 3) or the road (c) on the right side of the figure ( The road lane coefficient k3 is set so that the road lane Lr becomes smaller from the value 1 as the road lane Lr is away from the center lane and closer to the left or right side of the road, when the road type is a one-way road and the number of lanes Ln is 4. Is done. Furthermore, by setting the travel lane difference coefficient k4 based on the absolute value of the travel lane difference ΔL, as shown in FIG. 8, the travel lane Lr is separated from the travel lane Ls on the left or right side in the road width direction as shown in FIG. In other words, it can be said that the value is set to be smaller from 1. The reason for setting each coefficient in this way will be described next.

まず、車速Vやハンドル操舵量Stが比較的大きい場合には、カメラ59により撮影される風景画像における特徴点の移動速度(ハンドル操舵量Stについては特に車両の旋回方向と逆方向に相当する方向への移動速度)が比較的大きく、参照データと一致する特徴点を有する風景画像を撮影可能な時間は極めて短い。言い換えると、こうした場合には、参照データDB44の参照データと一致する特徴点を有する風景画像を撮影可能な道路上の撮影位置の範囲はかなり狭い。このため、マッチング処理により風景画像と参照データとが一致していると判定される機会が少なくなり、本来は参照データと一致していると認識してもよい風景画像であるにも拘わらずそう認識することができない、いわゆる認識漏れが生じてしまう。これに対し、車速Vやハンドル操舵量Stが大きいほど車速係数k1や操舵量係数k2を小さくして、判定用基準閾値M0に各係数を乗じて得られる後述の判定用閾値Mrefを小さくすることにより、マッチング処理により判定用データと参照データとが一致していると判定されやすくすることができ(一致していると判定される機会を増やすことができ)、本来一致していると認識してもよい風景画像の認識漏れを抑制する(認識率を高める)ことができる。   First, when the vehicle speed V and the steering wheel amount St are relatively large, the moving speed of the feature point in the landscape image taken by the camera 59 (the steering wheel steering amount St is a direction corresponding to a direction opposite to the turning direction of the vehicle in particular. The time during which a landscape image having a feature point matching the reference data can be taken is extremely short. In other words, in such a case, the range of the shooting position on the road where a landscape image having a feature point matching the reference data in the reference data DB 44 can be shot is quite narrow. For this reason, the opportunity to determine that the landscape image and the reference data match by the matching process is reduced, and this is true even though the landscape image may be originally recognized as matching the reference data. A so-called recognition failure that cannot be recognized occurs. On the other hand, as the vehicle speed V and the steering wheel amount St are increased, the vehicle speed coefficient k1 and the steering amount coefficient k2 are decreased, and a determination threshold value Mref, which will be described later, obtained by multiplying the determination reference threshold value M0 by each coefficient is decreased. By this, it can be easily determined that the determination data and the reference data are matched by the matching process (the chances of being determined to be matched can be increased), and are recognized as being originally matched. It is possible to suppress omissions in recognition of landscape images that may be present (increase the recognition rate).

また、走行車線Lrが道路脇に近い場合は、走行している道路の幅方向において車両位置が中央より左側または右側の道路脇に近い場合であり、カメラ59により撮影される風景画像における近い道路脇側の特徴点(道路の幅方向中央より左側の道路脇に近い場合には画像左側の特徴点,道路の幅方向中央より右側の道路脇に近い場合には画像右側の特徴点)の移動速度が比較的大きく、風景画像の認識漏れが生じやすい場合である。したがって、走行車線Lrが道路脇に近いほど走行車線係数k3を小さくして判定用閾値Mrefを小さくすることにより、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れを抑制することができる。さらに、走行車線差ΔLの絶対値が大きい場合(走行車線Lrが撮影時走行車線Lsから離れる場合)は、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置より離れている側の道路脇に近い場合であり、カメラ59により撮影される風景画像における特徴点(参照データを得た風景画像の撮影時の車両位置から左側に離れる場合には画像左側の特徴点,参照データを得た風景画像の撮影時の車両位置から右側に離れる場合には画像右側の特徴点)の移動速度が比較的大きく、風景画像の認識漏れが生じる要因となる。したがって、走行車線差ΔLの絶対値が小さいほど走行車線差係数k4を小さくして判定用閾値Mrefを小さくすることにより、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れを抑制することができる。   Further, when the driving lane Lr is close to the road side, the vehicle position is close to the road side on the left side or the right side from the center in the width direction of the driving road, and the road in the landscape image taken by the camera 59 is close. Movement of feature points on the side (feature points on the left side of the image if close to the left side of the road from the center in the width direction of the road, and feature points on the right side of the image if close to the road side on the right side of the center in the width direction of the road) This is a case where the speed is relatively high and a recognition failure of a landscape image is likely to occur. Therefore, the closer the driving lane Lr is to the side of the road, the smaller the driving lane coefficient k3 and the determination threshold value Mref can be made easier to determine that the determination data and the reference data match. It is possible to suppress omissions in recognition of landscape images. Further, when the absolute value of the travel lane difference ΔL is large (when the travel lane Lr is away from the travel lane Ls at the time of photographing), when photographing a landscape image in which the vehicle position has obtained reference data in the width direction of the traveling road The feature point in the landscape image captured by the camera 59 (the image is displayed when the vehicle position is distant to the left from the vehicle position at the time of capturing the landscape image obtained from the reference data). When moving to the right side from the vehicle position at the time of shooting the landscape image from which the feature points on the left side and the reference data are obtained, the movement speed of the feature points on the right side of the image is relatively high, which causes a failure to recognize the landscape image. Therefore, the smaller the absolute value of the traveling lane difference ΔL is, the smaller the traveling lane difference coefficient k4 is set to decrease the determination threshold value Mref, thereby making it easier to determine that the determination data matches the reference data. It is possible to suppress the omission of recognition of landscape images.

続いて、入力した車線数Ln,車線幅Lw,歩道幅Pwの各パラメータに基づいてそれぞれ判定用基準閾値M0に乗じるべき車線数係数k5,車線幅係数k6,歩道幅係数k7を設定し(ステップS160)、入力した道路形状がカーブ形状のときには曲率半径Rに基づいて判定用基準閾値M0に乗じるべき曲率半径係数k8を設定すると共に入力した道路形状が直線形状のときには曲率半径半径係数k8に値1を設定し(ステップS170)、入力した最寄りの交差点からの距離Dcに基づいて判定用基準閾値M0に乗じるべき交差点距離係数k9を設定する(ステップS180)。ここで、各係数は、実施例では、パラメータと係数との関係を予め定めて係数毎に係数設定用マップとしてROM34に記憶しておき、パラメータが与えられると記憶したマップから対応する係数を導出して設定するものとした。   Subsequently, the lane number coefficient k5, the lane width coefficient k6, and the sidewalk width coefficient k7 to be multiplied by the determination reference threshold M0 are set based on the input parameters of the lane number Ln, the lane width Lw, and the sidewalk width Pw, respectively (step S160) When the input road shape is a curve shape, a curvature radius coefficient k8 to be multiplied by the determination reference threshold value M0 is set based on the curvature radius R, and when the input road shape is a straight shape, the value is set to the curvature radius radius coefficient k8. 1 is set (step S170), and an intersection distance coefficient k9 to be multiplied by the determination reference threshold M0 is set based on the input distance Dc from the nearest intersection (step S180). Here, in the embodiment, for each coefficient, the relationship between the parameter and the coefficient is determined in advance and stored in the ROM 34 as a coefficient setting map for each coefficient. When a parameter is given, the corresponding coefficient is derived from the stored map. And set it.

図9に判定用閾値Mrefを設定するためのパラメータと係数との複数の関係の一例を示す。図中、右側は係数設定用マップの一例である。図示するように、車線数Lnが少ないほど車線数係数k5が値1を跨いで小さくなり、車線幅Lwが狭いほど車線幅係数k6が値1を跨いで小さくなり、歩道幅Pwが狭いほど歩道幅係数k7が値1を跨いで小さくなり、道路形状がカーブ形状の場合に曲率半径Rが小さいほど曲率半径係数k8が値1を跨いで小さくなり、最寄りの交差点からの距離Dcが後述する所定距離D1未満の範囲で短いほど交差点距離係数k9が値1未満の範囲で小さくなるように、各パラメータに基づいて各係数が設定される。なお、歩道幅係数k7については、歩道幅Pwが値0で走行している道路に歩道がない場合には歩道幅係数k7の予め定められた値1未満の下限値が設定されるものとした。また、交差点距離係数k9については、最寄りの交差点からの距離Dcが所定距離D1以上の場合には値1が設定されるものとした。このように各係数を設定する理由を次に説明する。   FIG. 9 shows an example of a plurality of relationships between parameters and coefficients for setting the determination threshold value Mref. In the drawing, the right side is an example of a coefficient setting map. As shown in the figure, the smaller the lane number Ln, the smaller the lane number coefficient k5 across the value 1, the smaller the lane width Lw, the smaller the lane width coefficient k6 across the value 1, and the smaller the sidewalk width Pw, the sidewalk When the width coefficient k7 decreases across the value 1 and the road shape is a curve shape, the smaller the radius of curvature R, the smaller the radius of curvature coefficient k8 crosses the value 1, and the distance Dc from the nearest intersection is a predetermined value described later. Each coefficient is set based on each parameter so that the intersection distance coefficient k9 becomes smaller in the range less than 1 as the distance is shorter than the distance D1. As for the sidewalk width coefficient k7, when there is no sidewalk on the road running with the sidewalk width Pw of 0, a lower limit value less than the predetermined value 1 of the sidewalk width coefficient k7 is set. . As for the intersection distance coefficient k9, the value 1 is set when the distance Dc from the nearest intersection is equal to or greater than the predetermined distance D1. The reason for setting each coefficient in this way will be described next.

まず、走行している道路の幅員が比較的小さい場合には、カメラ59により撮影される風景画像における特徴点の移動速度が比較的大きく、風景画像の認識漏れが生じやすい。これに対し、道路の幅員が比較的が小さい場合には判定用閾値Mrefを小さくすれば、判定用データと参照データとが一致していると判定されやすくすることができる。道路の幅員が比較的小さい場合としては、道路の車線数が少ない場合,車線幅が狭い場合,歩道幅が狭い場合などを考えることができるから、実施例では、車線数Lnが少ないほど,車線幅Lwが狭いほど,歩道幅Pwが狭いほど、各係数を小さくして判定用閾値Mrefを小さくすることにより、風景画像の認識漏れを抑制することができる。   First, when the width of the running road is relatively small, the moving speed of the feature points in the landscape image captured by the camera 59 is relatively large, and the recognition of the landscape image is likely to occur. On the other hand, when the road width is relatively small, if the determination threshold value Mref is reduced, it can be easily determined that the determination data matches the reference data. As a case where the width of the road is relatively small, it is possible to consider a case where the number of lanes on the road is small, a case where the lane width is narrow, a case where the sidewalk width is narrow, etc. In the embodiment, the smaller the lane number Ln, the smaller the lane The narrower the width Lw and the narrower the sidewalk width Pw, the smaller the coefficients and the smaller the threshold value for judgment Mref, so that recognition failure of the landscape image can be suppressed.

また、走行している道路がカーブ形状で曲率半径Rが比較的小さい場合には、カメラ59により撮影される風景画像における特徴点の移動速度(特に車両の旋回方向と逆方向に相当する方向への移動速度)が比較的大きく、参照データと一致する特徴点を有する風景画像を撮影可能な道路上の撮影位置の範囲はかなり狭いため、やはり風景画像の認識漏れが生じやすい。これに対し、道路の曲率半径Rが小さいほど曲率半径係数k8を小さくして判定用閾値Mrefを小さくするから、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れを抑制することができる。さらに、図10に示す車両が交差点を左折して走行する様子の一例から分かるように、車両が交差点を右折または左折して道路に進入するときには、車両は道路方向に対して斜めに道路に進入し、車両がある程度進んでから道路方向と略一致する方向に進むことになる。このため、実施例では、道路上で最寄りの交差点からの距離Dcが所定距離D1未満の範囲で短いほど交差点距離係数k9を小さくして判定用閾値Mrefを小さくするから、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れを抑制することができる。したがって、所定距離D1は、交差点を右左折した車両が進入した道路で道路方向と略一致する方向に走行する状態となるまでの距離として予め実験や解析により定められた距離を用いることができる。   Further, when the running road has a curved shape and the radius of curvature R is relatively small, the moving speed of the feature point in the landscape image taken by the camera 59 (particularly in the direction corresponding to the direction opposite to the turning direction of the vehicle). ) Is relatively large, and the range of shooting positions on the road where a landscape image having a feature point matching the reference data can be shot is quite narrow, so that recognition of the landscape image is likely to occur. On the other hand, as the curvature radius R of the road is smaller, the curvature radius coefficient k8 is decreased to decrease the determination threshold value Mref, so that it can be easily determined that the determination data and the reference data match. It is possible to suppress omissions in recognition of landscape images. Furthermore, as can be seen from the example of the vehicle shown in FIG. 10 turning left at the intersection, the vehicle enters the road diagonally with respect to the road direction when the vehicle turns right or left at the intersection and enters the road. However, after the vehicle has traveled to some extent, the vehicle travels in a direction that substantially matches the road direction. For this reason, in the embodiment, since the intersection distance coefficient k9 is decreased and the determination threshold Mref is decreased as the distance Dc from the nearest intersection on the road is shorter than the predetermined distance D1, the determination data and the reference data are reduced. Can be easily determined to match, and recognition failure of landscape images can be suppressed. Therefore, the predetermined distance D1 can be a distance determined in advance through experiments and analysis as a distance until the vehicle travels in a direction substantially coincident with the road direction on the road on which the vehicle that has turned right or left enters the intersection.

こうして閾値k1〜k9を設定すると、判定用基準閾値M0に全ての閾値k1〜k9を乗じたものを判定用閾値Mrefに設定し(ステップS190)、判定用データと参照データとの一致率Mを計算し(ステップS200)、計算した一致率Mと判定用閾値Mrefとを比較する(ステップS210)。ここで、一致率Mは、判定用データと参照データとが一致する程度を表すものであり、例えば、二値化画像として両データ(総画素数と縦横比は同じとする)の対応する画素を比較し、値(値0または値1)が一致する画素数の総画素数に対する割合などとして計算することができる。   When the threshold values k1 to k9 are set in this way, a value obtained by multiplying the determination reference threshold value M0 by all the threshold values k1 to k9 is set as the determination threshold value Mref (step S190), and the matching rate M between the determination data and the reference data is set. Calculation is performed (step S200), and the calculated match rate M is compared with the determination threshold value Mref (step S210). Here, the matching rate M represents the degree to which the determination data and the reference data match. For example, the corresponding pixels of both data (the total number of pixels and the aspect ratio are the same) as a binarized image. Can be calculated as a ratio of the number of pixels having the same value (value 0 or value 1) to the total number of pixels.

計算した一致率Mが判定用閾値Mref未満のときには、判定用データと参照データとは一致していないと判断し、推定自車位置および車両進行方位と一致する撮影位置および撮影方位の参照データおよび道路上その前後2つの参照データの合計3つの参照データと、1つの判定用データと、の合計3回の判定処理を行なったか否かを判定する(ステップS220)。合計3回の判定処理を行なっていない場合には、ステップS100に戻り、判定用データについては代えることなく、先にステップS100で入力した推定自車位置および車両進行方位と一致する撮影位置および撮影方位の参照データに代えて、この撮影位置の道路上で車両進行方向1つ後の参照データ(1つ先の参照データ)を入力して、ステップS100〜S210の処理を繰り返す。再び、一致率Mが判定用閾値Mref未満で合計3回の判定処理を行なっていない場合には(ステップS210,S220)、ステップS100に戻り、判定用データについては代えることなく、最初にステップS100で入力した推定自車位置および車両進行方位と一致する撮影位置および撮影方位の参照データに代えて、この撮影位置の道路上で車両進行方向1つ前の参照データを入力して、ステップS100〜S210の処理を繰り返す。   When the calculated coincidence rate M is less than the determination threshold Mref, it is determined that the determination data and the reference data do not match, and the reference data of the shooting position and shooting direction that match the estimated vehicle position and vehicle traveling direction, and It is determined whether or not a total of three determination processes, that is, a total of three reference data of the two reference data before and after the road and one determination data, has been performed (step S220). If the determination process has not been performed three times in total, the process returns to step S100, and the shooting position and the shooting that match the estimated vehicle position and the vehicle traveling direction previously input in step S100 are replaced without changing the determination data. Instead of the reference data of the direction, the reference data (one reference data ahead) in the vehicle traveling direction is input on the road at the photographing position, and the processes in steps S100 to S210 are repeated. Again, when the coincidence rate M is less than the determination threshold value Mref and the determination process is not performed three times in total (steps S210 and S220), the process returns to step S100, and the determination data is not changed and is first changed to step S100. Instead of the reference data of the shooting position and shooting direction that match the estimated host vehicle position and vehicle traveling direction input in step S100, step S100 to step S100 are performed. The process of S210 is repeated.

こうして一致率Mが判定用閾値Mref未満との判定結果を繰り返し3回得たときには(ステップS210,S220)、推定自車位置を自車位置と判定して(ステップS230)、自車位置判定処理ルーチンを終了する。一方、こうした処理を3回繰り返している最中に一致率Mが判定用閾値Mref以上と判定されたときには、そのときに判定用データと一致した参照データに対応する撮影位置を自車位置と判定して(ステップS240)、自車位置判定処理ルーチンを終了する。こうした処理により、ロケーション処理においてGPS航法や自律航法などにより推定された推定自車位置より正確な自車位置を特定することができる。なお、こうして自車位置が特定されると、特定された自車位置を基準としてGPS航法や自律航法などにより次の自車位置の推定が行なわれる。   When the determination result that the coincidence rate M is less than the determination threshold value Mref is repeatedly obtained three times (steps S210 and S220), the estimated vehicle position is determined as the vehicle position (step S230), and the vehicle position determination process is performed. End the routine. On the other hand, when it is determined that the match rate M is equal to or greater than the determination threshold value Mref while repeating such processing three times, the shooting position corresponding to the reference data that matches the determination data at that time is determined as the own vehicle position. (Step S240), and the vehicle position determination processing routine is terminated. By such processing, it is possible to specify the vehicle position that is more accurate than the estimated vehicle position estimated by GPS navigation, autonomous navigation, or the like in the location processing. When the vehicle position is specified in this way, the next vehicle position is estimated by GPS navigation, autonomous navigation, or the like with the specified vehicle position as a reference.

なお、本ルーチンの各ステップの処理は、基本的に電子制御ユニット30のロケーション処理部60により行なわれ、ステップS100の入力処理における判定用データの作成は電子制御ユニット30の画像処理部66により行なわれる。   The processing of each step of this routine is basically performed by the location processing unit 60 of the electronic control unit 30, and the creation of determination data in the input processing of step S100 is performed by the image processing unit 66 of the electronic control unit 30. It is.

以上説明した実施例のナビゲーション装置20によれば、道路上で走行方向に間隔をもって車載されたカメラ59から撮影された風景画像の特徴点を抽出して得られる複数の参照データをそれぞれ対応する撮影位置と関連付けて参照データDB44に記憶しておき、車載されたカメラ59から撮影される風景画像と複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、マッチング処理により一致していると判定された参照データに対応する撮影位置に基づいて車両の現在位置である自車位置を判定するものにおいて、マッチング処理は、カメラ59から撮影される風景画像に対して特徴点を抽出する所定の画像処理を施して得られる判定用データと参照データとの一致率Mが判定用閾値Mref以上のときに一致していると判定し、一致率Mが判定用閾値Mref未満のときに一致していないと判定することにより行なわれ、判定用閾値Mrefは、車速Vが大きいほど小さくなるように且つハンドル操舵量Stが大きいほど小さくなるように調整されているから、マッチング処理により判定用データと参照データとが一致していると判定されやすくすることができる。この結果、自車位置をより適正に判定することができる。   According to the navigation device 20 of the embodiment described above, a plurality of reference data obtained by extracting feature points of a landscape image taken from a camera 59 mounted on the road with an interval in the direction of travel are respectively taken correspondingly. It is stored in the reference data DB 44 in association with the position, and a matching process is performed to determine whether or not a landscape image taken from the camera 59 mounted on the vehicle matches a plurality of reference data. In the method of determining the vehicle position that is the current position of the vehicle based on the shooting position corresponding to the reference data determined to be, the matching process extracts feature points from the landscape image shot from the camera 59 When the matching rate M between the determination data obtained by performing predetermined image processing and the reference data is equal to or higher than the determination threshold Mref The determination threshold Mref is determined to be smaller as the vehicle speed V is larger, and the steering wheel steering amount St is smaller than the determination threshold Mref. Since the adjustment is performed such that the larger the value is, the smaller the determination data is, the easier it is to determine that the determination data and the reference data match. As a result, the vehicle position can be determined more appropriately.

また、実施例のナビゲーション装置20によれば、走行車線Lrが走行している道路の道路脇に近いほど小さくなるように、即ち、走行している道路の幅方向における車両位置が走行している道路の道路脇に近いほど小さくなるように、判定用閾値Mrefを調整するから、判定用データと参照データとが一致しているとより判定されやすくすることができ、風景画像のいわゆる認識漏れをより抑制することができる。さらに、走行車線差ΔLの絶対値が大きいほど(走行車線Lrが撮影時走行車線Lsから離れるほど)小さくなるように、即ち、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなるように、判定用閾値Mrefを調整するから、判定用データと参照データとが一致していると更に判定されやすくすることができ、風景画像の認識漏れを更に抑制することができる。   Further, according to the navigation device 20 of the embodiment, the vehicle position in the width direction of the traveling road is traveling so that the traveling lane Lr becomes smaller as it is closer to the roadside of the traveling road. Since the determination threshold value Mref is adjusted so as to become smaller as it is closer to the road side of the road, it can be more easily determined that the determination data matches the reference data, and so-called recognition omission of a landscape image is prevented. It can be suppressed more. Further, the reference value of the vehicle position is obtained so that the absolute value of the travel lane difference ΔL increases (the travel lane Lr becomes farther from the travel lane Ls at the time of shooting), that is, the vehicle position in the width direction of the road on which the vehicle is traveling Since the determination threshold value Mref is adjusted so as to become smaller as the distance from the vehicle position at the time of landscape image shooting increases, it can be further easily determined that the determination data and the reference data match, Recognition failure can be further suppressed.

しかも、実施例のナビゲーション装置20によれば、走行している道路の幅員が小さいほど(具体的には、車線数Lnが小さいほど,車線幅Lwが狭いほど,歩道幅Pwが狭いほど)小さくなるように、また、走行している道路がカーブ形状で曲率半径Rが小さいほど小さくなるように、さらに、走行している道路上で最寄りの交差点からの距離Dcが短いほど小さくなるように、判定用閾値Mrefを調整するから、判定用データと参照データとが一致していると判定されやすくすることができ、風景画像の認識漏れをより抑制することができる。この結果、自車位置を更に適正に判定することができる。   In addition, according to the navigation device 20 of the embodiment, the smaller the width of the road on which it is traveling (specifically, the smaller the lane number Ln, the narrower the lane width Lw, the narrower the sidewalk width Pw), the smaller. In addition, as the traveling road is curved and the curvature radius R is smaller, the smaller the distance Dc from the nearest intersection on the traveling road is, the smaller it is. Since the determination threshold value Mref is adjusted, it can be easily determined that the determination data matches the reference data, and the recognition failure of the landscape image can be further suppressed. As a result, the vehicle position can be determined more appropriately.

実施例のナビゲーション装置20では、判定用データと参照データとの一致率Mの判定に用いる判定用閾値Mrefは、車速Vが大きいほど,ハンドル操舵量Stが大きいほど,走行車線Lrが道路脇に近いほど,走行車線差ΔLの絶対値が大きいほど,車線数Lnが少ないほど,車線幅Lwが狭いほど,歩道幅Pwが狭いほど,曲率半径Rが小さいほど,最寄りの交差点からの距離Dcが短いほど小さくなるように調整されるものとした、即ち、9個のパラメータに基づいて調整されるものとしたが、道路の車線数Lnと車線幅Lwと歩道幅Pwとに基づく調整に代えてまたは加えて、判定用閾値Mrefを、道路の幅員Dwが狭いほど短くなるように調整するものとしてもよい。また、判定用閾値Mrefを、これら9個のパラメータに道路の幅員Dwを加えた計10個のパラメータのうち任意の一部(1個以上)のパラメータのみに基づいて調整するものとしてもよいし、10個のパラメータに加えて他のパラメータにも基づいて調整するものとしてもよい。   In the navigation device 20 according to the embodiment, the determination threshold value Mref used for determining the coincidence rate M between the determination data and the reference data is such that the traveling lane Lr becomes closer to the road as the vehicle speed V increases and the steering wheel steering amount St increases. The closer the distance Dc from the nearest intersection is, the closer the absolute value of the driving lane difference ΔL is, the smaller the number of lanes Ln, the narrower the lane width Lw, the narrower the sidewalk width Pw, and the smaller the radius of curvature R. It is assumed that the adjustment is made so that the shorter the value is, that is, the adjustment is made based on nine parameters, but instead of the adjustment based on the number of lanes Ln, the lane width Lw, and the sidewalk width Pw. Alternatively, the determination threshold value Mref may be adjusted so as to be shorter as the road width Dw is smaller. Further, the determination threshold Mref may be adjusted based on only a part (one or more) of the nine parameters including the road width Dw added to the nine parameters. Adjustments may be made based on other parameters in addition to the ten parameters.

したがって、例えば、判定用データと参照データとの一致率Mの判定に用いる判定用閾値Mrefは、車速Vおよびハンドル操舵量St以外のパラメータに基づいて調整されることなく、車速Vが大きいほど小さくなり且つハンドル操舵量Stが大きいほど小さくなるように調整されるものとしてもよい。また、判定用閾値Mrefは、走行車線Lr以外のパラメータに基づいて調整されることなく、走行車線Lrが道路脇に近いほど小さくなるように調整されるものとしてもよい。さらに、判定用閾値Mrefは、走行車線差ΔL以外のパラメータに基づいて調整されることなく、走行車線差ΔLの絶対値が大きいほど小さくなるように調整されるものとしてもよい。   Therefore, for example, the determination threshold value Mref used for determining the matching rate M between the determination data and the reference data is not adjusted based on parameters other than the vehicle speed V and the steering wheel steering amount St, and decreases as the vehicle speed V increases. The steering wheel steering amount St may be adjusted to be smaller as the steering wheel steering amount St is larger. Further, the determination threshold value Mref may be adjusted so as to decrease as the traveling lane Lr is closer to the roadside without being adjusted based on parameters other than the traveling lane Lr. Further, the determination threshold Mref may be adjusted so as to decrease as the absolute value of the travel lane difference ΔL increases without being adjusted based on parameters other than the travel lane difference ΔL.

実施例のナビゲーション装置20では、判定用データと参照データとの一致率Mの判定に用いる判定用閾値Mrefは、走行車線Lrが道路脇に近いほど小さくなるように調整されるものとしたが、走行している道路の幅方向において車両位置が道路脇に近いほど判定用閾値Mrefを小さく調整すればよいから、走行車線Lrを検出することなく、道路の幅方向における車両位置を判定用データに対する画像処理により検出してこの検出位置に基づいて判定用閾値Mrefを調整するものとしてもよい。   In the navigation device 20 of the embodiment, the determination threshold value Mref used for determining the matching rate M between the determination data and the reference data is adjusted so as to decrease as the travel lane Lr is closer to the roadside. Since the determination threshold value Mref may be adjusted to be smaller as the vehicle position is closer to the roadside in the width direction of the traveling road, the vehicle position in the width direction of the road can be determined with respect to the determination data without detecting the traveling lane Lr. It is good also as what detects by image processing and adjusts threshold value Mref for judgment based on this detection position.

実施例のナビゲーション装置20では、判定用データと参照データとの一致率Mの判定に用いる判定用閾値Mrefは、走行車線Lrが撮影時走行車線Lsから離れるほど小さくなるように調整されるものとしたが、走行している道路の幅方向において車両位置が参照データを得た風景画像の撮影時の車両位置から離れるほど判定用閾値Mrefを小さく調整すればよいから、走行車線Lrを検出することなく、道路の幅方向における車両位置を判定用データに対する画像処理により検出してこの検出位置に基づいて判定用閾値Mrefを調整するものとしてもよい。   In the navigation device 20 of the embodiment, the determination threshold Mref used for determining the coincidence rate M between the determination data and the reference data is adjusted so as to decrease as the travel lane Lr moves away from the shooting travel lane Ls. However, since the determination threshold value Mref may be adjusted to be smaller as the vehicle position moves away from the vehicle position at the time of shooting the landscape image in which the reference data is obtained in the width direction of the road on which the vehicle is traveling, the traveling lane Lr is detected. Alternatively, the vehicle position in the width direction of the road may be detected by image processing on the determination data, and the determination threshold value Mref may be adjusted based on the detected position.

実施例のナビゲーション装置20では、判定用データと参照データとの一致率Mを判定用閾値Mrefと比較して自車位置を判定するものとしたが、判定用データと参照データとをそれぞれ車両からみて左側のデータと右側のデータとに分割してから、左側と右側とでそれぞれ一致率と判定用閾値とを比較して自車位置を判定するものとしてもよい。この場合、図4の自車位置判定処理ルーチンに代えて、図11の自車位置判定処理ルーチンを実行すればよい。図11のルーチンでは、図4のルーチンのステップS150の処理に代えてステップS300の処理を実行し、図4のルーチンのステップS190〜S210の処理に代えてステップS310〜S340の処理を実行する点を除いて、図4のルーチンと同一である。したがって、同一の処理については同一のステップ番号を付し、その詳細な説明は省略する。   In the navigation apparatus 20 of the embodiment, the vehicle position is determined by comparing the coincidence rate M between the determination data and the reference data with the determination threshold value Mref. However, the determination data and the reference data are respectively transmitted from the vehicle. In view of this, the vehicle position may be determined by dividing the left side data and the right side data and then comparing the matching rate and the determination threshold value on the left side and the right side, respectively. In this case, the vehicle position determination process routine of FIG. 11 may be executed instead of the vehicle position determination process routine of FIG. In the routine of FIG. 11, the processing of step S300 is executed instead of the processing of step S150 of the routine of FIG. 4, and the processing of steps S310 to S340 is executed instead of the processing of steps S190 to S210 of the routine of FIG. Is the same as the routine of FIG. Therefore, the same process is given the same step number, and the detailed description thereof is omitted.

図11のルーチンでは、車速係数k1と操舵量係数k2と走行車線係数k3とを設定すると(ステップS130,S140)、計算した走行車線差ΔLに基づいて、風景画像内左側の判定を行なうための左側走行車線差係数k4Lと風景画像内右側の判定を行なうための右側走行車線差係数k4Rとをそれぞれ設定し(ステップS300)、他の係数k5〜k9を設定する(ステップS160〜S180)。左側走行車線差係数k4Lは、走行車線差ΔLと左側走行車線差係数k4Lとの関係を予め定めてROM34に記憶された左側走行車線差係数設定用マップを用いて設定され、右側走行車線差係数k4Rは、走行車線差ΔLと右側走行車線差係数k4Rとの関係を予め定めてROM34に記憶された右側走行車線差係数設定用マップを用いて設定される。図12に左側走行車線差係数設定用マップの一例を示し、図13に右側走行車線差係数設定用マップの一例を示す。各マップの内容については後述する。   In the routine of FIG. 11, when the vehicle speed coefficient k1, the steering amount coefficient k2, and the travel lane coefficient k3 are set (steps S130 and S140), the left side in the landscape image is determined based on the calculated travel lane difference ΔL. A left travel lane difference coefficient k4L and a right travel lane difference coefficient k4R for determining the right side in the landscape image are set (step S300), and other coefficients k5 to k9 are set (steps S160 to S180). The left travel lane difference coefficient k4L is set using the left travel lane difference coefficient setting map stored in the ROM 34 with the relationship between the travel lane difference ΔL and the left travel lane difference coefficient k4L determined in advance. k4R is set using a right travel lane difference coefficient setting map stored in the ROM 34 with the relationship between the travel lane difference ΔL and the right travel lane difference coefficient k4R determined in advance. FIG. 12 shows an example of a left-hand travel lane difference coefficient setting map, and FIG. 13 shows an example of a right-hand drive lane difference coefficient setting map. The contents of each map will be described later.

続いて、車速係数k1と操舵量係数k2と走行車線係数k3と左側走行車線差係数k4Lと他の係数k5〜k9とを乗じたものを左側判定用閾値MLrefに設定すると共に、車速係数k1と操舵量係数k2と走行車線係数k3と右側走行車線差係数k4Rと他の係数k5〜k9とを乗じたものを右側判定用閾値MLrefに設定し(ステップS310)、判定用データを車両からみた画像データとして左側の左側判定用データと右側の右側判定用データとに分割すると共に、参照データを車両からみた画像データとして左側の左側参照データと右側の右側参照データとに分割する(ステップS320)。図14に参照データを左側参照データと右側参照データとに分割する様子の一例を示す。図14の例では、参照データは、左側と右側とに半分ずつに分割されている。判定用データも参照データと同様に分割されるものとした。なお、参照データは予め分割したものをHDD40の参照データDB44に記憶しておくものとしてもよい。   Subsequently, a value obtained by multiplying the vehicle speed coefficient k1, the steering amount coefficient k2, the travel lane coefficient k3, the left travel lane difference coefficient k4L, and other coefficients k5 to k9 is set as the left determination threshold MLref, and the vehicle speed coefficient k1 An image obtained by multiplying the steering amount coefficient k2, the travel lane coefficient k3, the right travel lane difference coefficient k4R, and other coefficients k5 to k9 as the right determination threshold MLref (step S310), and viewing the determination data from the vehicle The data is divided into left-side left determination data and right-side right determination data as data, and reference data is divided into left-side left reference data and right-side right reference data as image data viewed from the vehicle (step S320). FIG. 14 shows an example of how the reference data is divided into left reference data and right reference data. In the example of FIG. 14, the reference data is divided in half on the left side and the right side. The determination data is also divided in the same manner as the reference data. The reference data may be divided in advance and stored in the reference data DB 44 of the HDD 40.

次に、左側判定用データと右側参照データとの一致率MLを前述の一致率Mと同様に計算すると共に、右側判定用データと右側参照データとの一致率MRを前述の一致率Mと同様に計算し(ステップS320)、計算した一致率MLを左側判定用閾値MLrefと比較すると共に一致率MRを右側判定用閾値MRrefと比較する(ステップS340)。そして、ステップS100〜S340の処理を異なる参照データを用いて3回繰り返す間に、一致率MLが左側用判定閾値MLref未満または一致率MRが右側判定用閾値MRref未満と続けて3回判定されたときには、推定自車位置を自車位置と判定する(ステップS230)。一方、ステップS100〜S340の処理を異なる参照データを用いて3回繰り返す間に、一致率MLが左側用判定閾値MLref以上且つ一致率MRが右側判定用閾値MRref以上と判定されたときには、そのときに判定用データと一致した参照データに対応する撮影位置を自車位置と判定して(ステップS240)、自車位置判定処理ルーチンを終了する。   Next, the matching rate ML between the left determination data and the right reference data is calculated in the same manner as the matching rate M, and the matching rate MR between the right determination data and the right reference data is the same as the matching rate M. (Step S320), the calculated match rate ML is compared with the left determination threshold value MLref, and the match rate MR is compared with the right determination threshold value MRref (step S340). Then, while the processes in steps S100 to S340 are repeated three times using different reference data, the match rate ML is determined to be three times continuously, less than the left determination threshold value MLref, or the match rate MR is less than the right determination threshold value MRref. Sometimes, the estimated vehicle position is determined as the vehicle position (step S230). On the other hand, when it is determined that the match rate ML is equal to or greater than the left-side determination threshold value MLref and the match rate MR is equal to or greater than the right-side determination threshold value MRref while the processing in steps S100 to S340 is repeated three times using different reference data. Then, the shooting position corresponding to the reference data that matches the determination data is determined as the vehicle position (step S240), and the vehicle position determination processing routine is terminated.

ここで、図12および図13に例示した左側走行車線差係数設定用マップおよび右側走行車線差係数設定用マップについて説明する。図12に示すように、左側走行車線差係数k4Lは、走行車線差ΔLが値0以上のとき、即ち、走行車線Lrが撮影時走行車線Lsと同じであるか撮影時走行車線Lsより右側の車線であるときには、値1が設定される。また、左側走行車線差係数k4Lは、走行車線差ΔLが値0未満で小さいほど小さくなるように設定される、即ち、走行車線Lrが撮影時走行車線Lsより左側に離れるほど小さくなるように設定される。これは、走行車線Lrが撮影時走行車線Lsに比して道路の幅方向において左側に離れるほど、カメラ59により撮影される風景画像における左側の特徴点の移動速度が比較的大きくなる傾向があり、この傾向が、風景画像の認識漏れが生じる要因となることに基づく。また、図13に示すように、右走行車線差係数k4Rは、走行車線差ΔLが値0以下のとき、即ち、走行車線Lrが撮影時走行車線Lsと同じであるか撮影時走行車線Lsより左側の車線であるときには、値1が設定される。また、右側走行車線差係数k4Rは、走行車線差ΔLが値0より大きいほど小さくなるように設定される、即ち、走行車線Lrが撮影時走行車線Lsより右側に離れるほど小さくなるように設定される。これは、走行車線Lrが撮影時走行車線Lsに比して道路の幅方向において右側に離れるほど、カメラ59により撮影される風景画像における右側の特徴点の移動速度が比較的大きくなる傾向があり、この傾向が、風景画像の認識漏れが生じる要因となることに基づく。こうした係数を用いて設定される左側判定用閾値Mrefと右側判定用閾値Mrefとをそれぞれ左側の一致率MLと右側の一致率MRとの比較に用いて自車位置を判定するから、風景画像の認識漏れが抑制され、より適正に自車位置を判定することができる。   Here, the left traveling lane difference coefficient setting map and the right traveling lane difference coefficient setting map illustrated in FIGS. 12 and 13 will be described. As shown in FIG. 12, the left-side travel lane difference coefficient k4L is equal to the right-hand side of the shooting-time travel lane Ls when the travel-lane difference ΔL is 0 or more, that is, whether the travel lane Lr is the same as the shooting-time driving lane Ls. A value of 1 is set when the vehicle is in a lane. Further, the left lane difference coefficient k4L is set to be smaller as the lane difference ΔL is smaller than 0, that is, to be smaller as the lane Lr is further to the left from the shooting lane Ls. Is done. This is because the moving speed of the feature point on the left side in the landscape image captured by the camera 59 tends to be relatively higher as the traveling lane Lr is farther leftward in the width direction of the road compared to the traveling lane Ls at the time of shooting. This tendency is based on the fact that scenery image recognition failure occurs. Further, as shown in FIG. 13, the right travel lane difference coefficient k4R is determined when the travel lane difference ΔL is 0 or less, that is, whether the travel lane Lr is the same as the travel lane Ls at the time of shooting or from the travel lane Ls at the time of shooting. A value of 1 is set for the left lane. Further, the right travel lane difference coefficient k4R is set so as to decrease as the travel lane difference ΔL is greater than 0, that is, as the travel lane Lr is further away from the shooting travel lane Ls to the right. The This is because the moving speed of the feature point on the right side in the landscape image captured by the camera 59 tends to be relatively higher as the traveling lane Lr is further to the right in the width direction of the road than the traveling lane Ls at the time of shooting. This tendency is based on the fact that scenery image recognition failure occurs. The vehicle position is determined by using the left determination threshold value Mref and the right determination threshold value Mref, which are set using these coefficients, for comparison with the left match rate ML and the right match rate MR, respectively. Recognition failure is suppressed, and the vehicle position can be determined more appropriately.

実施例では、本発明の位置判定装置をディスプレイ22やHDD40を備えるナビゲーション装置20に適用して説明したが、例えば、ディスプレイを備えるナビゲーション装置と通信可能に接続されたサーバに電子制御ユニット30のロケーション処理部60の機能とロケーション処理に必要な画像処理部66の機能の一部とを行なわせるようにして、このサーバを本発明の位置判定装置として機能させるものとしてもよい。また、ナビゲーション装置20に代えて、デジタルカメラや携帯端末,ドライブレコーダなどの機器を本発明の位置判定装置として機能させるものとしてもよい。この場合、こうした機器を車室内に設置してこの機器が備えるカメラにより撮影される風景画像を用いて自車位置を判定するようにしてもよい。   In the embodiment, the position determination device according to the present invention is applied to the navigation device 20 including the display 22 and the HDD 40. However, for example, the location of the electronic control unit 30 is connected to a server communicably connected to the navigation device including the display. The server may function as the position determination device of the present invention by performing the function of the processing unit 60 and a part of the function of the image processing unit 66 necessary for the location processing. Further, instead of the navigation device 20, devices such as a digital camera, a portable terminal, and a drive recorder may function as the position determination device of the present invention. In this case, such a device may be installed in the vehicle interior, and the vehicle position may be determined using a landscape image taken by a camera provided in the device.

また、実施例では、本発明の位置判定装置をナビゲーション装置20に適用して説明したが、位置判定方法の形態としてもよいし、こうした位置判定方法の各ステップを1以上のコンピュータに実現させるためのプログラムの形態としてもよい。また、こうしたプログラムを記録媒体に記憶させた形態としても構わない。   In the embodiments, the position determination device of the present invention is applied to the navigation device 20. However, the position determination method may be used, and each step of the position determination method may be realized by one or more computers. The program may be in the form of Further, such a program may be stored in a recording medium.

実施例の主要な要素と課題を解決するための手段の欄に記載した発明の主要な要素との対応関係について説明する。実施例では、複数の参照データをHDD40の参照データDB42に記憶しておき車載されたカメラ59から撮影される風景画像と複数の参照データとが一致しているか否かを判定するマッチング処理を行なって一致していると判定された参照データに対応する撮影位置に基づいて自車位置を判定する図4や図11の自車位置判定処理ルーチンを実行する電子制御ユニット30のロケーション処理部60と画像処理部66の一部とが「位置判定装置」に相当する。また、判定用データを用いて走行車線Lrを検出する図4や図11の自車位置判定処理ルーチンのステップS110の処理を実行する電子制御ユニット30のロケーション処理部60が「幅方向車両位置検出手段」に相当する。   The correspondence between the main elements of the embodiment and the main elements of the invention described in the column of means for solving the problems will be described. In the embodiment, a plurality of reference data is stored in the reference data DB 42 of the HDD 40, and a matching process is performed to determine whether or not a landscape image captured from the camera 59 mounted on the vehicle matches the plurality of reference data. A location processing unit 60 of the electronic control unit 30 that executes the vehicle position determination processing routine of FIG. 4 or FIG. 11 that determines the vehicle position based on the imaging position corresponding to the reference data determined to match. A part of the image processing unit 66 corresponds to a “position determination device”. Further, the location processing unit 60 of the electronic control unit 30 that executes the process of step S110 of the host vehicle position determination process routine of FIG. 4 or FIG. 11 that detects the travel lane Lr using the determination data is “width direction vehicle position detection”. It corresponds to “means”.

なお、実施例の主要な要素と課題を解決するための手段の欄に記載した発明の主要な要素との対応関係は、実施例が課題を解決するための手段の欄に記載した発明を実施するための形態を具体的に説明するための一例であることから、課題を解決するための手段の欄に記載した発明の要素を限定するものではない。即ち、課題を解決するための手段の欄に記載した発明についての解釈はその欄の記載に基づいて行なわれるべきものであり、実施例は課題を解決するための手段の欄に記載した発明の具体的な一例に過ぎないものである。   The correspondence between the main elements of the embodiment and the main elements of the invention described in the column of means for solving the problem is the same as that of the embodiment described in the column of means for solving the problem. Therefore, the elements of the invention described in the column of means for solving the problems are not limited. That is, the interpretation of the invention described in the column of means for solving the problems should be made based on the description of the column, and the examples are those of the invention described in the column of means for solving the problems. It is only a specific example.

以上、本発明を実施するための形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々なる形態で実施し得ることは勿論である。   As mentioned above, although the form for implementing this invention was demonstrated using the Example, this invention is not limited at all to such an Example, In the range which does not deviate from the summary of this invention, it is with various forms. Of course, it can be implemented.

本発明は、ナビゲーション装置や位置判定装置の製造産業などに利用可能である。   The present invention can be used in the manufacturing industry of navigation devices and position determination devices.

10 ナビゲーションシステム、12 車載装置、20 ナビゲーション装置、22 ディスプレイ、24 タッチパネル、26 スピーカ、30 電子制御ユニット、32 CPU、34 ROM、36 RAM、38 フラッシュメモリ、40 ハードディスクドライブ(HDD)、42 地図データ用データベース(地図データDB)、44 参照データ用データベース(参照データDB)、50 GPS受信機、52 車速センサ、54 加速度センサ、56 方位センサ、58 操舵量センサ、59 カメラ、60 ロケーション処理部、62 地図表示処理部、64 ナビゲーション処理部、66 画像処理部。   10 navigation system, 12 in-vehicle device, 20 navigation device, 22 display, 24 touch panel, 26 speaker, 30 electronic control unit, 32 CPU, 34 ROM, 36 RAM, 38 flash memory, 40 hard disk drive (HDD), 42 for map data Database (Map Data DB), 44 Reference Data Database (Reference Data DB), 50 GPS Receiver, 52 Vehicle Speed Sensor, 54 Acceleration Sensor, 56 Direction Sensor, 58 Steering Amount Sensor, 59 Camera, 60 Location Processing Unit, 62 Map Display processing unit, 64 navigation processing unit, 66 image processing unit.

Claims (11)

道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、
位置判定装置。
A plurality of reference data obtained by extracting characteristic parts of a landscape image taken from an in-vehicle camera at intervals in the traveling direction on the road are stored in association with the corresponding positions on the map, and taken from the in-vehicle camera. Matching processing is performed to determine whether or not the scenery image to be matched and the plurality of reference data match, and based on the position on the map corresponding to the reference data determined to match by the matching processing A position determination device for determining a position of a vehicle on a map,
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so as to decrease as the vehicle speed increases and to decrease as the steering wheel steering amount increases.
Position determination device.
請求項1記載の位置判定装置であって、
走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段
を備え、
前記判定用閾値は、前記検出された車両位置が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、
位置判定装置。
The position determination device according to claim 1,
A width direction vehicle position detecting means for detecting a vehicle position in the width direction of the running road,
The determination threshold is adjusted so that the detected vehicle position tends to decrease as the detected vehicle position is closer to the side of the road on which the vehicle is running.
Position determination device.
請求項2記載の位置判定装置であって、
前記幅方向車両位置検出手段は、複数の車線を有する道路を走行しているときに走行車線を検出する手段であり、
前記判定用閾値は、前記検出された走行車線が前記走行している道路の道路脇に近いほど小さくなる傾向に調整されてなる、
位置判定装置。
The position determination device according to claim 2,
The width direction vehicle position detecting means is means for detecting a traveling lane when traveling on a road having a plurality of lanes,
The threshold for determination is adjusted to tend to be smaller as the detected travel lane is closer to the side of the road on which the vehicle is traveling.
Position determination device.
請求項1記載の位置判定装置であって、
走行している道路の幅方向における車両位置を検出する幅方向車両位置検出手段
を備え、
前記判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から離れるほど小さくなる傾向に調整されてなる、
位置判定装置。
The position determination device according to claim 1,
A width direction vehicle position detecting means for detecting a vehicle position in the width direction of the running road,
The threshold value for determination is adjusted so that the detected vehicle position in the width direction of the running road becomes smaller as the distance from the vehicle position at the time of capturing a landscape image obtained from the reference data decreases.
Position determination device.
請求項4記載の位置判定装置であって、
前記幅方向車両位置検出手段は、複数の車線を有する道路を走行しているときに走行車線を検出する手段であり、
前記判定用閾値は、前記検出された走行車線が前記参照データを得た風景画像の撮影時の走行車線から離れるほど小さくなる傾向に調整されてなる、
位置判定装置。
The position determination device according to claim 4,
The width direction vehicle position detecting means is means for detecting a traveling lane when traveling on a road having a plurality of lanes,
The determination threshold is adjusted such that the detected travel lane tends to become smaller as the distance from the travel lane at the time of capturing a landscape image from which the reference data is obtained.
Position determination device.
請求項1ないし5のいずれか1つの請求項に記載の位置判定装置であって、
前記判定用閾値は、走行している道路の幅員が小さいほど小さくなる傾向,走行している道路の曲率半径が小さいほど小さくなる傾向,走行している道路上で最寄りの交差点からの距離が短いほど小さくなる傾向のうち少なくともいずれかとなるように調整されてなる、
位置判定装置。
The position determination device according to any one of claims 1 to 5,
The threshold for judgment tends to be smaller as the width of the running road is smaller, the tendency to be smaller as the radius of curvature of the running road is smaller, and the distance from the nearest intersection on the running road is shorter Adjusted to be at least one of the tendency to become smaller,
Position determination device.
請求項1ないし6のいずれか1つの請求項に記載の位置判定装置であって、
前記判定用閾値は、走行している道路の車線数が少ないほど小さくなる傾向,走行している道路の車線幅が狭いほど小さくなる傾向,走行している道路の歩道幅が狭いほど小さくなる傾向のうち少なくともいずれかとなるように調整されてなる、
位置判定装置。
The position determination device according to any one of claims 1 to 6,
The threshold value for judgment tends to decrease as the number of lanes on the road that travels decreases, tends to decrease as the lane width of the road that travels decreases, and tends to decrease as the sidewalk width of the road that travels decreases. Adjusted to be at least one of
Position determination device.
請求項4または5記載の位置判定装置であって、
前記マッチング処理は、
前記判定用データを前記車両からみて左側の左側判定用データと右側の右側判定用データとに分割すると共に、前記参照データを前記車両からみて左側の左側参照データと右側の右側参照データとに分割し、
前記左側判定用データと前記左側参照データとの一致の程度が左側判定用閾値以上であり、且つ、前記右側判定用データと前記右側参照データとの一致の程度が右側判定用閾値以上のときには一致していると判定し、前記左側判定用データと前記左側参照データとの一致の程度が前記左側判定用閾値未満であるか、又は、前記右側判定用データと前記右側参照データとの一致の程度が前記右側判定用閾値未満であるときには一致していないと判定することにより行なわれ、
前記左側判定用閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から左側に離れるほど小さくなる傾向に調整されてなり、
前記右側用判定閾値は、前記走行している道路の幅方向において前記検出された車両位置が前記参照データを得た風景画像の撮影時の車両位置から右側に離れるほど小さくなる傾向に調整されてなる、
位置判定装置。
The position determination device according to claim 4 or 5,
The matching process includes
The determination data is divided into left determination data on the left side and right determination data on the right side when viewed from the vehicle, and the reference data is divided into left reference data on the left side and right reference data on the right side when viewed from the vehicle. And
The degree of coincidence between the left determination data and the left reference data is equal to or greater than the left determination threshold, and the degree of coincidence between the right determination data and the right reference data is equal to or greater than the right determination threshold. The degree of matching between the left-side determination data and the left-side reference data is less than the left-side determination threshold value, or the degree of matching between the right-side determination data and the right-side reference data Is determined to be inconsistent when the value is less than the right determination threshold,
The left-side determination threshold is adjusted so that the detected vehicle position in the width direction of the traveling road decreases toward the left side from the vehicle position at the time of capturing a landscape image obtained from the reference data. Become
The determination threshold for the right side is adjusted so that the detected vehicle position in the width direction of the traveling road tends to decrease as it moves to the right side from the vehicle position at the time of shooting the landscape image obtained from the reference data. Become,
Position determination device.
請求項1ないし8のいずれか1つの請求項に記載の位置判定装置を備え、該位置判定装置により判定された車両の地図上の位置を用いて目的地への経路案内を行なうナビゲーション装置。   A navigation device comprising the position determination device according to any one of claims 1 to 8, and performing route guidance to a destination using a position on a map of a vehicle determined by the position determination device. 道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車両から撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行なうステップと、該マッチング処理により一定していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定するステップと、を実行する位置判定装置により実行される位置判定方法であって、
前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、
前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、
位置判定方法。
A plurality of reference data obtained by extracting characteristic portions of a landscape image taken from an in-vehicle camera on the road at intervals in the running direction are stored in association with the corresponding positions on the map, and taken from the vehicle. A matching process for determining whether or not the landscape image matches the plurality of reference data, and a position on the map corresponding to the reference data determined to be constant by the matching process Determining the position of the vehicle on the map, and a position determination method executed by a position determination device that executes :
The matching process is performed when the degree of coincidence between the reference data and the determination data obtained by performing predetermined image processing for extracting a characteristic part from a landscape image photographed from a vehicle is equal to or greater than a determination threshold value. It is performed by determining that they match and determining that they do not match when the degree of matching is less than the threshold for determination,
The determination threshold is adjusted so as to decrease as the vehicle speed increases and to decrease as the steering wheel steering amount increases.
Position determination method.
請求項10記載の位置判定方法の各ステップを1以上のコンピュータにより実行することにより前記1以上のコンピュータを前記位置判定装置として機能させるためのプログラム。
A program for causing the one or more computers to function as the position determination device by executing each step of the position determination method according to claim 10 by one or more computers .
JP2011168806A 2011-08-01 2011-08-01 POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM Expired - Fee Related JP5742559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011168806A JP5742559B2 (en) 2011-08-01 2011-08-01 POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011168806A JP5742559B2 (en) 2011-08-01 2011-08-01 POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2013032954A JP2013032954A (en) 2013-02-14
JP5742559B2 true JP5742559B2 (en) 2015-07-01

Family

ID=47788954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011168806A Expired - Fee Related JP5742559B2 (en) 2011-08-01 2011-08-01 POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP5742559B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6455866B2 (en) * 2014-03-31 2019-01-23 Necエンベデッドプロダクツ株式会社 Monitoring device, monitoring method, and program
JP6303902B2 (en) * 2014-08-04 2018-04-04 日産自動車株式会社 Position detection apparatus and position detection method
JP2022139830A (en) * 2021-03-12 2022-09-26 株式会社豊田自動織機 Autonomous travelling vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4847090B2 (en) * 2005-10-14 2011-12-28 クラリオン株式会社 Position positioning device and position positioning method
JP4724043B2 (en) * 2006-05-17 2011-07-13 トヨタ自動車株式会社 Object recognition device
JP2009122859A (en) * 2007-11-13 2009-06-04 Toyota Motor Corp Object detector
JP5090313B2 (en) * 2008-10-28 2012-12-05 日立オートモティブシステムズ株式会社 Road marking recognition device

Also Published As

Publication number Publication date
JP2013032954A (en) 2013-02-14

Similar Documents

Publication Publication Date Title
US11113544B2 (en) Method and apparatus providing information for driving vehicle
JP5742558B2 (en) POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM
US8369577B2 (en) Vehicle position recognition system
US8791996B2 (en) Image processing system and position measurement system
JP5057184B2 (en) Image processing system and vehicle control system
US8428362B2 (en) Scene matching reference data generation system and position measurement system
US8452103B2 (en) Scene matching reference data generation system and position measurement system
US8239131B2 (en) Navigation device, navigation method, and navigation program
US7894632B2 (en) Apparatus and method of estimating center line of intersection
JP4506790B2 (en) Road information generation apparatus, road information generation method, and road information generation program
CN102183257B (en) Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
CN111311902B (en) Data processing method, device, equipment and machine readable medium
JP2019517089A (en) Image processing method for recognizing ground markings, and system for detecting ground markings
CN111091037B (en) Method and device for determining driving information
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP2009042167A (en) Image recognition device and program for image recognition device, as well as navigator and program for navigator therewith
JP5742559B2 (en) POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM
US10586393B2 (en) Positioning objects in an augmented reality display
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
JP6790951B2 (en) Map information learning method and map information learning device
JP5549468B2 (en) Feature position acquisition apparatus, method and program
JP4497424B2 (en) Feature recognition device, feature recognition method, lane determination device and lane determination method using the same
JP2008298698A (en) Image recognition device, image recognition method, and own position recognition device and navigation device using them
JP7546820B2 (en) Driving assistance device and driving assistance method
JP2022071741A (en) Self position estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150420

R150 Certificate of patent or registration of utility model

Ref document number: 5742559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees