JP2015194962A - Drive support system, drive support method and drive support program - Google Patents

Drive support system, drive support method and drive support program Download PDF

Info

Publication number
JP2015194962A
JP2015194962A JP2014073304A JP2014073304A JP2015194962A JP 2015194962 A JP2015194962 A JP 2015194962A JP 2014073304 A JP2014073304 A JP 2014073304A JP 2014073304 A JP2014073304 A JP 2014073304A JP 2015194962 A JP2015194962 A JP 2015194962A
Authority
JP
Japan
Prior art keywords
road
road edge
communication signal
edge position
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014073304A
Other languages
Japanese (ja)
Inventor
真一 窪田
Shinichi Kubota
真一 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2014073304A priority Critical patent/JP2015194962A/en
Publication of JP2015194962A publication Critical patent/JP2015194962A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To attain a drive support system that can minimize a data volume necessary to be preliminarily stored, suppresses an influence by an environment condition, and can appropriately provide information on a road edge location to a crew member.SOLUTION: A drive support system comprises: a light reception device that receives visible light from a light emitting device provided along roads; a communication signal detection unit that detects a communication signal overlapped on the visible light; a road edge location acquisition unit that acquires road edge location information expressing a road edge serving as a location of an edge in a lateral width direction of the road on the basis of the communication signal detected by the communication signal detection unit; a display device that displays a separately generated image with the image overlapped on an actual scenery forward an own vehicle; and a display control unit that controls the display unit. The display control unit is configured to generate a road edge image expressing the road edge on the basis of the road edge location information, and causes the road edge image to be displayed with the road edge image overlapped on the road edge location included in the actual scenery forward the own vehicle.

Description

本発明は、道路の横幅方向の端部の位置である道路端位置を表示させる運転支援システムに関する。また、本発明は、そのような運転支援方法及び運転支援プログラムに関する。   The present invention relates to a driving support system that displays a road edge position, which is a position of an edge portion in a lateral width direction of a road. The present invention also relates to such a driving support method and a driving support program.

例えば積雪のある時期には、積雪によって道路全体が埋もれてしまい、当該道路の横幅方向の端部の位置である道路端位置を、車両の運転者等の乗員(以下、単に乗員)が認識できない場合がある。このように積雪により道路全体が埋もれた場合であっても乗員が当該道路端位置を認識できるようにする為の技術が、例えば、下記の特許文献1に開示されている。特許文献1には、道路端付近に設けられるポールコーンが、夏季時は外側筐体から構成されるが、冬季等の積雪時には当該外側筐体よりも高さの高い内側筐体を当該外側筐体の内側に装着して全体の高さを高くして雪に埋もれないようにする技術が開示されている。しかし、上記特許文献1の技術では、予想よりも多くの積雪量があった場合等にはポールコーンが埋もれて目視できなくなったり、雪の重さにより当該ポールコーンが傾いたり等して、乗員が正確に道路端位置を認識できない場合がある。また、霧や豪雨で視界が悪い場合等にも、乗員が正確に道路端位置を認識できない場合がある。   For example, during a period of snowfall, the entire road is buried by snowfall, and a vehicle edge such as a vehicle driver (hereinafter simply referred to as a passenger) cannot recognize the position of the road edge, which is the position of the widthwise end of the road. There is a case. Thus, for example, Patent Document 1 below discloses a technique for enabling a passenger to recognize the position of the road edge even when the entire road is buried due to snow. In Patent Document 1, a pole cone provided near a road end is formed of an outer casing in summer, but an inner casing having a height higher than that of the outer casing is used when the snow falls in winter or the like. A technique is disclosed that is attached to the inside of the body to increase the overall height so that it is not buried in snow. However, in the technique of the above-mentioned Patent Document 1, when there is more snow than expected, the pole cone is buried and cannot be seen, or the pole cone tilts due to the weight of snow. May not be able to accurately recognize the road edge position. Also, when the visibility is poor due to fog or heavy rain, the occupant may not be able to accurately recognize the position of the road edge.

そこで、天候等の環境条件に影響を受けずに、乗員に道路端位置を認識させる技術が、下記の特許文献2に開示されている。下記の特許文献2には、地図の道路上の複数の地点と、当該各地点における乗員の視点から見た前方の道路の道路端位置(走路形状、白線形状)を表す道路端画像(運転視点走路形状)とを予め対応づけて記憶装置(運転視点走路形状記憶部)に記憶しておき、自車位置に対応する道路端画像を記憶装置から読み出して、当該道路端画像を表示装置としてのヘッドアップディスプレイに表示する技術が開示されている。   Therefore, a technique for allowing the occupant to recognize the position of the road edge without being affected by environmental conditions such as weather is disclosed in Patent Document 2 below. In Patent Document 2 below, a road edge image (driving viewpoint) representing a plurality of points on a road on a map and the road edge position (running road shape, white line shape) of the road ahead viewed from the viewpoint of the occupant at each point. (Road shape) is stored in advance in a storage device (driving viewpoint road shape storage unit), a road edge image corresponding to the vehicle position is read from the storage device, and the road edge image is displayed as a display device. A technique for displaying on a head-up display is disclosed.

特開2008−231872号公報JP 2008-231872 A 特開2000−211452号公報JP 2000-211142 A

しかし、特許文献2の技術では、地図の道路上の複数の地点における乗員の視点から見た道路端画像(運転視点走路形状)を予め作成し、当該地点毎に全て記憶装置に記憶しておく必要がある為、記憶装置に記憶させるデータ量が非常に多くなるという問題がある。また、道路が新たに建設された場合や道路形状が変更された場合等には、新たな道路端画像のデータを作成し、各車載端末装置に配信するなどしてデータ更新を行う必要があるという問題もある。
そこで、予め記憶しておく必要があるデータ量を少なく抑えることができると共に、環境条件による影響を抑制しつつ、乗員に対して適切に道路端位置の情報を提供することができる運転支援システムの実現が望まれる。
However, in the technique of Patent Document 2, road edge images (driving viewpoint runway shape) viewed from the viewpoint of the occupant at a plurality of points on the road on the map are created in advance and stored in the storage device for each point. Since this is necessary, there is a problem that the amount of data stored in the storage device becomes very large. In addition, when a new road is constructed or when the road shape is changed, data must be updated by creating new road edge image data and distributing it to each in-vehicle terminal device. There is also a problem.
Therefore, a driving support system that can reduce the amount of data that needs to be stored in advance and can appropriately provide information on the road edge position to the occupant while suppressing the influence of environmental conditions. Realization is desired.

本発明に係る運転支援システムの特徴構成は、道路に沿って設けられた発光装置から可視光を受光する受光装置と、前記可視光に重畳された通信信号を検出する通信信号検出部と、前記通信信号検出部により検出した前記通信信号に基づいて、前記道路の横幅方向の端部の位置である道路端位置を表す道路端位置情報を取得する道路端位置情報取得部と、自車両の前方の実風景に重ねて、別途生成した画像を表示する表示装置と、前記表示装置を制御する表示制御部と、を備え、前記表示制御部は、前記道路端位置情報に基づいて、前記道路端を表す道路端画像を生成すると共に当該道路端画像を前記自車両の前方の実風景に含まれる前記道路端位置に重ねて表示させる点にある。   A characteristic configuration of the driving support system according to the present invention includes: a light receiving device that receives visible light from a light emitting device provided along a road; a communication signal detection unit that detects a communication signal superimposed on the visible light; Based on the communication signal detected by the communication signal detection unit, a road edge position information acquisition unit that acquires road edge position information that represents a road edge position that is a position of an edge of the road in the lateral width direction; A display device that displays an image generated separately over the actual scenery, and a display control unit that controls the display device, the display control unit based on the road edge position information. Is generated in such a manner that the road edge image is generated and is superimposed on the road edge position included in the actual scenery ahead of the host vehicle.

また、本発明に係る運転支援システムの技術的特徴は、運転支援方法や運転支援プログラムにも適用可能であり、そのため、本発明は、そのような方法やプログラムも権利の対象とすることができる。   Further, the technical features of the driving support system according to the present invention can also be applied to a driving support method and a driving support program. Therefore, the present invention can also cover such a method and program. .

その場合における、運転支援方法の特徴構成は、道路に沿って設けられた発光装置から可視光を受光する受光ステップと、前記可視光に重畳された通信信号を検出する通信信号検出ステップと、前記通信信号検出ステップにより検出した前記通信信号に基づいて、前記道路の横幅方向の端部の位置である道路端位置を表す道路端位置情報を取得する道路端位置情報取得ステップと、自車両の前方の実風景に重ねて、別途生成した画像を表示する表示装置を制御する表示制御ステップと、を備え、前記表示制御ステップでは、前記道路端位置情報に基づいて、前記道路端を表す道路端画像を生成すると共に当該道路端画像を前記自車両の前方の実風景に含まれる前記道路端位置に重ねて表示させる点にある。   In this case, the characteristic configuration of the driving support method includes a light receiving step of receiving visible light from a light emitting device provided along a road, a communication signal detecting step of detecting a communication signal superimposed on the visible light, and A road edge position information acquisition step for acquiring road edge position information representing a road edge position, which is a position of an edge in the width direction of the road, based on the communication signal detected by the communication signal detection step; A display control step for controlling a display device that displays a separately generated image superimposed on the actual scenery, and in the display control step, a road edge image representing the road edge based on the road edge position information. And the road edge image is displayed so as to overlap the road edge position included in the actual scenery ahead of the host vehicle.

また、その場合における、運転支援プログラムの特徴構成は、道路に沿って設けられた発光装置から可視光を受光する受光機能と、前記可視光に重畳された通信信号を検出する通信信号検出機能と、前記通信信号検出機能により検出した前記通信信号に基づいて、前記道路の横幅方向の端部の位置である道路端位置を表す道路端位置情報を取得する道路端位置情報取得機能と、自車両の前方の実風景に重ねて、別途生成した画像を表示する表示装置を制御する表示制御機能と、をコンピュータに実現させ、前記表示制御機能では、前記道路端位置情報に基づいて、前記道路端を表す道路端画像を生成すると共に当該道路端画像を前記自車両の前方の実風景に含まれる前記道路端位置に重ねて表示させる機能を前記コンピュータに実現させる点にある。   In this case, the driving assistance program is characterized by a light receiving function for receiving visible light from a light emitting device provided along a road, and a communication signal detecting function for detecting a communication signal superimposed on the visible light. A road edge position information acquisition function for acquiring road edge position information representing a road edge position, which is a position of an end portion in the width direction of the road, based on the communication signal detected by the communication signal detection function; A display control function for controlling a display device that displays a separately generated image superimposed on the actual scenery in front of the computer, and the display control function, based on the road edge position information, A function of causing the computer to generate a road edge image representing the image and to display the road edge image superimposed on the road edge position included in the actual scenery ahead of the host vehicle. A.

これらの特徴構成によれば、可視光に重畳された通信信号を介して、発光装置から正確な道路端位置情報を取得することができる。そして、当該正確な道路端位置情報に基づいて、道路端画像を生成し、当該道路端画像を自車両の前方の実風景に含まれる実際の道路端位置に重ねて表示させることができる。これにより、車両の乗員(特に運転者)に、容易に道路端位置を認識させることができる。よって、例えば積雪で道路面が雪に覆われている場合や霧や豪雨で視界が悪い場合等、環境条件に起因して、車両の乗員が道路端を認識することが困難な場合であっても、表示した道路端画像により道路端位置を視覚的に認識させることができる。これにより、道路に沿って安全に車両を走行させるための、乗員に対する補助を行うことができる。
また、上記構成では、道路に沿って設けられた発光装置からその都度道路端位置情報を取得し、当該道路端位置情報に基づいて道路端画像を生成し表示するので、各地点の道路端画像を予め記憶装置に記憶させておく必要がない。従って、記憶装置に記憶させておく必要があるデータ量を少なく抑えることができると共に、実際の道路の変更に伴うデータの更新の必要もなくすことができる。
以上より、予め記憶しておく必要があるデータ量を少なく抑えることができると共に、環境条件による影響を抑制しつつ、乗員に対して適切に道路端位置の情報を提供することができる。
According to these characteristic configurations, accurate road edge position information can be obtained from the light emitting device via a communication signal superimposed on visible light. Then, a road edge image can be generated based on the accurate road edge position information, and the road edge image can be displayed superimposed on the actual road edge position included in the actual scenery ahead of the host vehicle. As a result, the vehicle occupant (especially the driver) can easily recognize the road end position. Therefore, for example, when the road surface is covered with snow due to snow or when visibility is poor due to fog or heavy rain, it is difficult for the vehicle occupant to recognize the road edge due to environmental conditions. In addition, the road edge position can be visually recognized from the displayed road edge image. Thereby, the assistance to the passenger | crew for driving a vehicle safely along a road can be performed.
In the above configuration, the road edge position information is obtained from the light emitting device provided along the road each time, and the road edge image is generated and displayed based on the road edge position information. Need not be stored in the storage device in advance. Therefore, it is possible to reduce the amount of data that needs to be stored in the storage device, and it is possible to eliminate the need to update data in accordance with actual road changes.
As described above, it is possible to reduce the amount of data that needs to be stored in advance, and to appropriately provide information on the road edge position to the occupant while suppressing the influence of environmental conditions.

運転支援システムの概略構成を示すブロック図Block diagram showing schematic configuration of driving support system 可視光通信が実施される状況の一例を模式的に示す説明図Explanatory drawing which shows an example of the condition where visible light communication is implemented typically 可視光通信が実施される状況の他の一例を模式的に示す説明図Explanatory drawing which shows typically another example of the condition where visible light communication is implemented 道路形状情報の一例を模式的に示す説明図Explanatory drawing which shows an example of road shape information typically 道路端画像を生成する処理を示す説明図Explanatory drawing which shows the process which produces | generates a road edge image 生成された道路端画像の一例を示す図The figure which shows an example of the produced | generated road edge image 生成された道路端画像の他の一例を示す図The figure which shows another example of the produced | generated road edge image フロントウィンドウ越しの前方の実風景に含まれる道路端位置に道路端画像が重ねて表示された一例を示す図The figure which shows an example in which the road edge image was superimposed and displayed on the road edge position included in the actual scenery ahead of the front window フロントウィンドウ越しの前方の実風景に含まれる道路端位置に道路端画像が重ねて表示された他の一例を示す図The figure which shows another example by which the road edge image was superimposed and displayed on the road edge position included in the real scenery ahead of the front window 運転支援処理手順を示すフローチャートFlow chart showing the driving support processing procedure 表示制御処理手順を示すフローチャートFlow chart showing display control processing procedure 受光装置の設置位置の一例を模式的に示す図The figure which shows an example of the installation position of a light-receiving device typically

1.運転支援システムの構成
本発明の実施形態について、図面を参照して説明する。本実施形態における運転支援システム1は、図3に示すように、道路に沿って設けられた発光装置50と、当該道路を走行する車載装置2を搭載した車両40との間で可視光通信を行うように構成されており、車両40では、当該可視光通信によって発光装置50から、前方の道路の道路端Eの位置を表す道路端位置情報を取得すると、当該道路端位置情報に基づいて当該道路端Eを表す道路端画像Uを生成し(図6及び図7参照)、当該道路端画像Uを自車両40の前方の実風景に含まれる実際の道路端位置に重ねて表示させるものである(図8及び図9参照)。これにより、道路面全体が積雪で覆われていたり霧や豪雨等で視界が悪かったり等で前方の道路の道路端Eの位置を認識できない場合であっても、前方の実風景に含まれる実際の道路端位置に重ねて当該道路端Eを表す道路端画像Uが表示される為、運転者等の車両の乗員(以下、単に乗員)は、当該道路端Eの位置を視覚的に認識することができる。なお、本実施形態では、車両40について、当該車両40の乗員の視点から見る場合には自車両40という場合もある。
1. Configuration of Driving Support System An embodiment of the present invention will be described with reference to the drawings. As shown in FIG. 3, the driving support system 1 in the present embodiment performs visible light communication between a light emitting device 50 provided along a road and a vehicle 40 equipped with an in-vehicle device 2 that travels on the road. In the vehicle 40, when road edge position information representing the position of the road edge E of the road ahead is acquired from the light emitting device 50 by the visible light communication, the vehicle 40 performs the process based on the road edge position information. A road edge image U representing the road edge E is generated (see FIG. 6 and FIG. 7), and the road edge image U is displayed superimposed on the actual road edge position included in the actual scenery in front of the host vehicle 40. Yes (see FIG. 8 and FIG. 9). As a result, even if the position of the road edge E on the road ahead cannot be recognized because the entire road surface is covered with snow or the visibility is poor due to fog, heavy rain, etc. Since a road edge image U representing the road edge E is displayed so as to overlap the road edge position, a vehicle occupant such as a driver (hereinafter simply referred to as a passenger) visually recognizes the position of the road edge E. be able to. In the present embodiment, the vehicle 40 may be referred to as the own vehicle 40 when viewed from the viewpoint of the passenger of the vehicle 40.

ここで、道路端Eとは、道路の横幅方向の端部である。本発明の道路端Eには、車両40が通行する道路の部分である車道とそれ以外の部分(歩道や路肩等)とが区画されている場合における当該車道の横幅方向の端部である車道端と、当該車道とそれ以外の部分とに関係なく道路全体の横幅方向の端部である道路端とを含む。車道端は、例えば、車道外側線や縁石等に一致する。道路端は、例えば、高速道路等における側壁や、山道等における道路部分(アスファルト)と土砂部分との境界等に一致する。また、道路端Eは、道路の横幅方向の一方の端部であってもよいし、両端部であってもよい。本実施形態では、図3に示すように、車道とそれ以外の部分(歩道や路肩等)とが車道外側線Vにより区画されており、本実施形態における道路端Eは、車道の横幅方向の両端部である車道端を指す。   Here, the road edge E is the edge of the road in the lateral width direction. The road end E of the present invention is a vehicle which is an end portion in the width direction of the roadway when the roadway through which the vehicle 40 passes and the other part (sidewalk, shoulder, etc.) are partitioned. It includes a road end and a road end that is an end portion in the width direction of the entire road regardless of the roadway and other portions. The road end coincides with, for example, a road outer line and a curb. The road edge coincides with, for example, a side wall on an expressway or the like, a boundary between a road portion (asphalt) and a sand and sand portion on a mountain road, or the like. Further, the road edge E may be one end portion in the lateral width direction of the road or both end portions. In the present embodiment, as shown in FIG. 3, the roadway and other portions (sidewalks, shoulders, etc.) are partitioned by the roadway outer line V, and the road edge E in this embodiment is in the width direction of the roadway. It refers to the end of the roadway that is both ends.

本実施形態の運転支援システム1は、図1に示すように、車載装置2と、受光装置3と、位置情報検出装置4と、表示装置5と、記憶装置6とを備えている。そして、この運転支援システム1は、外部に設けられた発光装置50から可視光を受光し、当該可視光に含まれる通信信号に基づいて道路端Eを表す道路端画像Uを生成することで、車両の乗員に対する道路端Eの位置の案内を行う。   As shown in FIG. 1, the driving support system 1 of the present embodiment includes an in-vehicle device 2, a light receiving device 3, a position information detection device 4, a display device 5, and a storage device 6. The driving support system 1 receives visible light from the light emitting device 50 provided outside, and generates a road edge image U representing the road edge E based on a communication signal included in the visible light. Guiding the position of the road end E to the vehicle occupant.

発光装置50は、通信信号を生成すると共に当該生成した通信信号を可視光に重畳させて発光する照明装置ユニットである。本実施形態では、発光装置50には、当該発光装置50の設置箇所に対応する道路端Eの位置を表す道路端位置情報が予め設定されている。そして、発光装置50は、当該道路端位置情報を含む通信信号を可視光に重畳させて発光している。ここで、発光装置50の設置箇所に対応する道路端Eの位置としては、例えば、当該発光装置50の設置箇所と最も近い道路端Eの位置、具体的には、当該発光装置50と道路端Eとを直線で結んだ際の距離が一番短い道路端Eの位置が設定される。また、発光装置50は、図3に示すように、道路に沿って複数設けられている。本実施形態では、各発光装置50は、道路端Eの外側(車道側とは反対側)において、道路の延在方向に沿って所定の間隔(例えば、30m)をあけて設置されている。上述のように、本実施形態の道路端Eは、車道端(車道外側線V上の位置)である為、発光装置50は、車道外側線Vよりも外側であって、道路全体の横幅方向の端部である道路端よりも内側(車道側)に設けられている。なお、本例では、発光装置50として街路灯を用いている。   The light emitting device 50 is a lighting device unit that generates a communication signal and emits light by superimposing the generated communication signal on visible light. In the present embodiment, road edge position information indicating the position of the road edge E corresponding to the installation location of the light emitting device 50 is set in advance in the light emitting device 50. The light emitting device 50 emits light by superimposing a communication signal including the road edge position information on visible light. Here, as the position of the road edge E corresponding to the installation location of the light emitting device 50, for example, the position of the road edge E closest to the installation location of the light emission device 50, specifically, the light emission device 50 and the road edge The position of the road edge E with the shortest distance when E is connected with a straight line is set. Moreover, the light-emitting device 50 is provided with two or more along the road, as shown in FIG. In the present embodiment, each light emitting device 50 is installed outside the road edge E (on the side opposite to the roadway side) at a predetermined interval (for example, 30 m) along the road extending direction. As described above, since the road end E of the present embodiment is the road end (position on the road outer line V), the light emitting device 50 is located outside the road outer line V and in the width direction of the entire road. It is provided on the inner side (roadway side) than the road end that is the end of the road. In this example, a street lamp is used as the light emitting device 50.

また、発光装置50は、図1に示すように、照明装置51と信号送信装置52と照明制御装置53とを備えている。   The light emitting device 50 includes an illumination device 51, a signal transmission device 52, and an illumination control device 53, as shown in FIG.

照明装置51は、可視光を発光する装置である。本実施形態では、照明装置51は、図2に示すように、道路端位置情報を含む通信信号が重畳された可視光を発光して道路を照らしている。照明装置51は、光源として、例えば発光ダイオード(LED)やキセノンランプなど、変調に対する応答性の高い光源を用いて構成されている。例えば、LEDは、人間の目には感じないような高速での点滅制御が可能であり、当該光の点滅状態によってデジタル信号を形成することができる。照明装置51は、信号送信装置52から出力される照明装置制御パターン(後述)で点滅し、規定以上の明るさの光を照射すると共に、通信信号を送信する。   The illumination device 51 is a device that emits visible light. In the present embodiment, as shown in FIG. 2, the lighting device 51 illuminates the road by emitting visible light on which a communication signal including road edge position information is superimposed. The illuminating device 51 is configured using a light source having high response to modulation, such as a light emitting diode (LED) or a xenon lamp, as a light source. For example, the LED can be controlled to blink at a high speed that is not felt by human eyes, and a digital signal can be formed according to the blinking state of the light. The illuminating device 51 blinks with an illuminating device control pattern (described later) output from the signal transmitting device 52, irradiates light with a brightness higher than a specified level, and transmits a communication signal.

信号送信装置52は、照明装置51を駆動制御する機能部である。また、信号送信装置52は、可視光に通信信号を重畳する機能も有する。具体的には、信号送信装置52は、照明制御装置53から点灯制御パターン(後述)及びデジタル信号である通信信号が入力されると、当該点灯制御パターンに通信信号を重畳して照明装置制御パターンを生成する。そして、信号送信装置52は、当該生成した照明装置制御パターンを照明装置51に出力して、当該照明装置51を駆動させる。   The signal transmission device 52 is a functional unit that drives and controls the lighting device 51. The signal transmission device 52 also has a function of superimposing a communication signal on visible light. Specifically, when a lighting control pattern (described later) and a communication signal that is a digital signal are input from the lighting control device 53, the signal transmission device 52 superimposes the communication signal on the lighting control pattern and the lighting device control pattern. Is generated. Then, the signal transmission device 52 outputs the generated lighting device control pattern to the lighting device 51 to drive the lighting device 51.

照明制御装置53は、照明装置51の点灯状態を制御する機能部である。本実施形態では、照明制御装置53は、規定以上の明るさで光源を点灯させるための点灯制御パターンを生成する。また、照明制御装置53は、通信信号を生成する機能も有する。ここで、通信信号には、通信の開始及び終了を示す制御データ、通信内容を示す情報データ等が含まれる。また、通信信号には、各発光装置50を識別するための識別ID等のデータが含まれていてもよい。本実施形態では、照明制御装置53は、発光装置50の設置箇所に対応する道路端Eの道路端位置情報を情報データに含めた通信信号を生成する。本実施形態では、道路端位置情報は、当該位置の絶対座標の情報とされている。そして、照明制御装置53は、当該生成した点灯制御パターンと通信信号とを信号送信装置52に出力する。   The illumination control device 53 is a functional unit that controls the lighting state of the illumination device 51. In the present embodiment, the illumination control device 53 generates a lighting control pattern for lighting the light source with a brightness higher than a specified level. The lighting control device 53 also has a function of generating a communication signal. Here, the communication signal includes control data indicating the start and end of communication, information data indicating the content of communication, and the like. Further, the communication signal may include data such as an identification ID for identifying each light emitting device 50. In the present embodiment, the illumination control device 53 generates a communication signal in which the road edge position information of the road edge E corresponding to the installation location of the light emitting device 50 is included in the information data. In the present embodiment, the road edge position information is information on absolute coordinates of the position. Then, the illumination control device 53 outputs the generated lighting control pattern and communication signal to the signal transmission device 52.

次に、車両40側に備えられる各装置について説明する。車両40は、車載装置2と、受光装置3と、位置情報検出装置4と、表示装置5と、記憶装置6とを備えている。   Next, each device provided on the vehicle 40 side will be described. The vehicle 40 includes an in-vehicle device 2, a light receiving device 3, a position information detection device 4, a display device 5, and a storage device 6.

受光装置3は、発光装置50から可視光を受光する装置である。本実施形態では、受光装置3は、少なくとも可視光領域の光に感度を有する素子である受光素子を備えて構成されている。具体的には、受光装置3は、例えば、フォトダイオード、フォトトランジスタ、イメージセンサ等を備えて構成されている。また、受光装置3は、車両40における発光装置50からの可視光を受光可能な箇所に少なくとも一つ以上設けられている。本実施形態では、受光装置3は、図2に示すように、車両40のフロントウィンドウ61の上部に一つ設けられており、車両40の前方側に存在する発光装置50からの可視光を受光することができるように設けられている。また、本実施形態では、受光装置3は、当該受光装置3から予め定められた受光範囲(例えば、100m)内に存在する複数の発光装置50からの可視光を受光することができる構成となっている。本例では、受光装置3が自車両40の前方に設けられている為、例えば、自車両40の前方において最も近い発光装置50(図3(b)のn番目の発光装置50)と、そこから自車両40と離れる側に順次位置する2つの発光装置50(図3(b)のn+1番目及びn+2番目の発光装置50)とから可視光を受光する。また、例えば、これらの発光装置50(n番目、n+1番目、n+2番目の発光装置50)と道路を挟んで対向する各位置に設けられている発光装置50(図3(b)のk番目、k+1番目、k+2番目の発光装置50)からも可視光を受光する。すなわち、本例では、受光装置3は、合計6つの発光装置50から可視光を受光する。なお、図3に示す例では、車両40は、片側一車線の合計二車線の道路を走行しており、k番目、k+1番目、k+2番目の発光装置50は、対向車線を照らす街路灯である。   The light receiving device 3 is a device that receives visible light from the light emitting device 50. In the present embodiment, the light receiving device 3 includes a light receiving element that is an element having sensitivity to light in at least the visible light region. Specifically, the light receiving device 3 includes, for example, a photodiode, a phototransistor, an image sensor, and the like. In addition, at least one light receiving device 3 is provided at a location where the visible light from the light emitting device 50 in the vehicle 40 can be received. In the present embodiment, as shown in FIG. 2, one light receiving device 3 is provided on the upper portion of the front window 61 of the vehicle 40 and receives visible light from the light emitting device 50 present on the front side of the vehicle 40. It is provided so that it can be done. In the present embodiment, the light receiving device 3 can receive visible light from a plurality of light emitting devices 50 existing within a predetermined light receiving range (for example, 100 m) from the light receiving device 3. ing. In this example, since the light receiving device 3 is provided in front of the host vehicle 40, for example, the light emitting device 50 closest to the front of the host vehicle 40 (the nth light emitting device 50 in FIG. 3B), Visible light is received from two light emitting devices 50 (n + 1 and n + 2 light emitting devices 50 in FIG. 3B) sequentially located on the side away from the vehicle 40 from the vehicle. Further, for example, the light emitting devices 50 (nth, n + 1th, n + 2th light emitting devices 50) and the light emitting devices 50 (kth in FIG. 3B) provided at positions facing each other across the road. Visible light is also received from the (k + 1) th and (k + 2) th light emitting devices 50). That is, in this example, the light receiving device 3 receives visible light from a total of six light emitting devices 50. In the example shown in FIG. 3, the vehicle 40 travels on a total of two lanes on one lane, and the k-th, k + 1-th, and k + 2-th light emitting devices 50 are street lights that illuminate oncoming lanes. .

位置情報検出装置4は、車両40の現在位置、速度、及び加速度を検出する機能を有する。本実施形態では、位置情報検出装置4は、GPS(Global Positioning System)受信機や、距離センサ(速度センサ)や、加速度センサや、方位センサや、道路に設置されたビーコンから発信される地点位置情報を含む電波や光を受信する受信機などの位置情報を検出するための各種装置を備えている。そして、位置情報検出装置4は、当該検出した位置情報を車載装置2の自車位置情報取得部25(後述)へ出力する。   The position information detection device 4 has a function of detecting the current position, speed, and acceleration of the vehicle 40. In the present embodiment, the position information detection device 4 is a point position transmitted from a GPS (Global Positioning System) receiver, a distance sensor (speed sensor), an acceleration sensor, a direction sensor, or a beacon installed on a road. Various devices for detecting position information such as a receiver that receives radio waves and light including information are provided. Then, the position information detection device 4 outputs the detected position information to the own vehicle position information acquisition unit 25 (described later) of the in-vehicle device 2.

表示装置5は、各種画像を表示する装置である。本実施形態では、表示装置5は、自車両40の前方の実風景に重ねて、別途生成した画像を表示する装置である。本実施形態では、表示装置5として、例えば、フロントウィンドウ61上の広範囲に情報を表示するウィンドシールドディスプレイ(ヘッドアップディスプレイ)を用いる。表示装置5は、図8及び図9に示すように、乗員(特に運転者)から見て、フロントウィンドウ61越しに、別途表示制御部24にて生成した道路端Eを表す道路端画像U(詳細は後述)が自車両40の前方の実風景の実際の道路端位置に重なって見えるように、当該道路端画像Uを表示する。ウィンドシールドディスプレイは、公知の技術であるため詳細な説明は省略するが、本実施形態では、表示装置5は、車両40の車内空間の前部に配置されたインストルメントパネル62(図8参照)の内部に設けられ、道路端画像Uを映し出す液晶パネル(図示せず)と、その液晶パネルの下側から上側に向かって光を照射するバックライト(図示せず)とを備える。そして、表示装置5では、当該バックライトから照射した光を、液晶パネルを透過させてフロントウィンドウ61(ウインドシールド)の内側面に入射させ、運転席の乗員の目に向けて反射させる。これにより、フロントウィンドウ61に投影された道路端画像Uが、虚像として乗員の目に捉えられる。また、虚像は、無限遠の点に結像するようにフロントウィンドウ61に投影される為、道路端画像Uを自車両40の前方の実風景に重ねて表示することが可能となる。   The display device 5 is a device that displays various images. In the present embodiment, the display device 5 is a device that displays an image generated separately on the actual scenery in front of the host vehicle 40. In the present embodiment, for example, a windshield display (head-up display) that displays information over a wide area on the front window 61 is used as the display device 5. As shown in FIGS. 8 and 9, the display device 5 has a road edge image U (representing the road edge E separately generated by the display control unit 24 through the front window 61 when viewed from the passenger (particularly the driver). The road edge image U is displayed so that details will be described later on the actual road edge position of the actual scenery ahead of the host vehicle 40. Since the windshield display is a well-known technique, a detailed description thereof will be omitted, but in the present embodiment, the display device 5 is an instrument panel 62 (see FIG. 8) disposed in the front part of the interior space of the vehicle 40. A liquid crystal panel (not shown) that projects the road edge image U and a backlight (not shown) that emits light from the lower side to the upper side of the liquid crystal panel. In the display device 5, the light emitted from the backlight is transmitted through the liquid crystal panel, is incident on the inner surface of the front window 61 (windshield), and is reflected toward the eyes of the passenger in the driver's seat. As a result, the road edge image U projected on the front window 61 is captured as a virtual image by the occupant's eyes. Further, since the virtual image is projected on the front window 61 so as to form an image at a point at infinity, the road edge image U can be displayed superimposed on the actual scenery in front of the host vehicle 40.

記憶装置6は、書き込みと読み込みの両方が可能な書き換え型の記憶装置であり、例えば、フラッシュメモリやハードディスクドライブ等が用いられる。本実施形態では、記憶装置6には、地図データベースMが予め格納されている。地図データベースMには、地図情報を構成する道路ネットワーク情報と、当該道路ネットワーク情報に関連付けられた道路形状情報とが格納されている。具体的には、道路ネットワーク情報には、緯度及び経度で表現された地図上の位置情報を有する複数のノード(例えば、図4に示すN1〜N3)に関するノード情報と、各ノード間を接続する道路に対応する複数のリンク(例えば、図4に示すL001〜003)に関するリンク情報とが含まれている。また、当該リンク情報には、付属情報として、当該リンクの詳細形状を表す複数の点である道路形状補完点S(例えば、図4に示すS1〜S3)、道路幅W(例えば、図4に示すW1)、リンク長さ、カーブ情報、車線数等の情報が含まれている。なお、道路形状補完点Sの情報には、各道路形状補完点Sの緯度及び経度で表現された地図上の位置情報が含まれている。カーブ情報には、カーブの開始点や曲率半径に関する情報等が含まれている。また、本実施形態では、道路幅Wの情報として、車道の横幅方向の両端部に設けられた2本の車道外側線間の距離の情報が含まれている。   The storage device 6 is a rewritable storage device capable of both writing and reading. For example, a flash memory or a hard disk drive is used. In the present embodiment, the storage device 6 stores a map database M in advance. The map database M stores road network information constituting map information and road shape information associated with the road network information. Specifically, in the road network information, node information relating to a plurality of nodes (for example, N1 to N3 shown in FIG. 4) having position information on a map expressed by latitude and longitude, and each node are connected. Link information related to a plurality of links (for example, L001 to 003 shown in FIG. 4) corresponding to the road is included. In addition, in the link information, as attached information, a road shape complementing point S (for example, S1 to S3 shown in FIG. 4) and a road width W (for example, FIG. 4) are a plurality of points representing the detailed shape of the link. W1), information such as link length, curve information, number of lanes, and the like are included. The information on the road shape complement point S includes position information on the map expressed by the latitude and longitude of each road shape complement point S. The curve information includes information about the start point of the curve and the curvature radius. Further, in the present embodiment, the information on the road width W includes the information on the distance between the two roadway outer lines provided at both ends in the lateral width direction of the roadway.

道路形状情報は、道路形状を表す情報である。本実施形態では、道路形状情報は、各リンクに対応する道路の外枠形状を表す情報である。具体的には、図4に示すように、道路形状情報は、各リンクに対応する道路の横幅方向の両端部である道路端をそれぞれ道路延在方向に沿って繋いだ曲線又は直線の形状に関する情報である。本実施形態の道路形状情報には、道路の湾曲方向や、曲率半径情報等が含まれている。なお、曲率半径情報には、道路が湾曲する場合には、当該湾曲する際に内側に位置する側の道路端を繋いだ曲線と外側に位置する側の道路端を繋いだ曲線とでは曲率半径が異なる為、双方の曲率半径に関する情報が含まれている。また、本実施形態では、当該道路形状情報は、リンク情報の付属情報として含まれる道路の中心線に沿って設けられている道路形状補完点S、道路幅W、カーブ情報等から予め算出されており、リンク番号(例えば、L001)と対応づけられて地図データベースMに格納されている。なお、道路形状情報を構成する道路端の位置は、道路形状補完点S等から算出した理論上の道路端位置であり、実際の道路端Eの位置とは誤差がある場合がある為、ここでは仮道路端Dとする(図4参照)。   The road shape information is information representing the road shape. In the present embodiment, the road shape information is information representing the outer frame shape of the road corresponding to each link. Specifically, as shown in FIG. 4, the road shape information relates to the shape of a curve or a straight line that connects road ends that are both ends in the width direction of the road corresponding to each link along the road extending direction. Information. The road shape information of the present embodiment includes road curvature direction, curvature radius information, and the like. It should be noted that the curvature radius information includes, when a road is curved, a curvature radius between a curve connecting the road ends on the inner side and a curve connecting the road ends on the outer side when the road is curved. Because of the difference, information about the radius of curvature of both is included. Further, in the present embodiment, the road shape information is calculated in advance from the road shape complementary point S, road width W, curve information, and the like provided along the center line of the road included as the auxiliary information of the link information. And stored in the map database M in association with the link number (for example, L001). The position of the road edge constituting the road shape information is a theoretical road edge position calculated from the road shape complementary point S, etc., and there may be an error from the actual road edge E position. Then, it is set as the temporary road edge D (refer FIG. 4).

車載装置2は、マイクロコンピュータなどの論理演算プロセッサを中核として構成されている。つまり、車載装置2は、当該プロセッサなどのハードウェアとプログラムなどのソフトウェアとの協働によって、図1に示すような種々の機能を実現する複数の機能部を有して構成される。車載装置2の中心となる機能部は、図1に示すように、通信信号検出部21、道路端位置情報取得部22、道路形状情報取得部23、表示制御部24、自車位置情報取得部25である。また、これらの各機能部は、デジタル転送バス等の通信線を介して互いに情報の受け渡しを行うことができるように構成されている。ここで、各機能部がソフトウェア(プログラム)により構成される場合には、当該ソフトウェアは、演算処理装置が参照可能な記憶装置や別途備えられたRAMやROM等の記憶手段に記憶される。本実施形態の運転支援システム1の運転支援プログラムは、記憶装置6に記憶されている。また、運転支援プログラムは、DVD−ROMやフラッシュメモリなどの記憶媒体に記憶されて配布されたり、ネットワークサーバから通信網を介して配信されたりする。当該配布又は配信された運転支援プログラムは、記憶装置6に記憶される。   The in-vehicle device 2 is configured with a logical operation processor such as a microcomputer as a core. That is, the in-vehicle device 2 is configured to have a plurality of functional units that realize various functions as shown in FIG. 1 in cooperation with hardware such as the processor and software such as a program. As shown in FIG. 1, the functional units that are the center of the in-vehicle device 2 are a communication signal detection unit 21, a road edge position information acquisition unit 22, a road shape information acquisition unit 23, a display control unit 24, and a vehicle position information acquisition unit. 25. Each of these functional units is configured to exchange information with each other via a communication line such as a digital transfer bus. Here, when each functional unit is configured by software (program), the software is stored in a storage device that can be referred to by the arithmetic processing device or in a storage unit such as a RAM or a ROM provided separately. The driving support program of the driving support system 1 of the present embodiment is stored in the storage device 6. The driving support program is stored and distributed in a storage medium such as a DVD-ROM or a flash memory, or is distributed from a network server via a communication network. The distributed or distributed driving support program is stored in the storage device 6.

通信信号検出部21は、可視光に重畳された通信信号を検出する機能部であり、本実施形態では、受光装置3にて受光した可視光から、当該可視光に重畳された通信信号を検出する。本実施形態では、通信信号検出部21は、可視光を搬送波とし、変調されて当該搬送波によって搬送された通信信号を復調する。具体的には、通信信号検出部21は、受光装置3の受光素子から出力されるアナログ信号を処理するアナログ信号処理回路と、当該アナログ信号処理回路の出力をデジタル変換するA/Dコンバータと、当該デジタル変換された信号を処理するデジタル信号処理回路とを備えて構成されている。また、通信信号検出部21は、当該検出した通信信号の情報を道路端位置情報取得部22に出力する。   The communication signal detection unit 21 is a functional unit that detects a communication signal superimposed on visible light. In this embodiment, the communication signal detection unit 21 detects a communication signal superimposed on the visible light from the visible light received by the light receiving device 3. To do. In the present embodiment, the communication signal detection unit 21 uses visible light as a carrier wave, and demodulates the communication signal that is modulated and carried by the carrier wave. Specifically, the communication signal detector 21 includes an analog signal processing circuit that processes an analog signal output from the light receiving element of the light receiving device 3, an A / D converter that digitally converts the output of the analog signal processing circuit, And a digital signal processing circuit for processing the digitally converted signal. The communication signal detection unit 21 outputs information on the detected communication signal to the road edge position information acquisition unit 22.

道路端位置情報取得部22は、通信信号検出部21により検出した通信信号に基づいて、道路端Eの位置である道路端位置を表す道路端位置情報を取得する機能部である。本実施形態では、道路端位置情報取得部22は、通信信号に含まれている、発光装置50の設置箇所に対応する道路端Eの道路端位置情報を取得する。本実施形態では、受光装置3は、複数(本例では6つ)の発光装置50から可視光を受光する為、道路端位置情報取得部22は、それぞれの可視光に重畳された通信信号に含まれる各発光装置50の設置箇所に対応する道路端Eの道路端位置情報を取得する。具体的には、図3(b)に示すように、受光装置3は、自車両40に最も近いn番目の発光装置50と、当該n番目の発光装置50から自車両40と離れる側に順次位置するn+1番目及びn+2番目の発光装置50との3つの発光装置50と、これらと道路を挟んでそれぞれ対向する位置に設けられている対向車用の道路を照らすk〜k+2番目の3つの発光装置50とから可視光を受光する。すなわち、道路端位置情報取得部22は、これらの6つの発光装置50(n〜n+2番目の発光装置とk〜k+2番目の発光装置)のそれぞれの設置箇所に対応する道路端Eの道路端位置情報(Pn〜Pn+2及びPk〜Pk+2)を取得する。そして、道路端位置情報取得部22は、発光装置50から通信信号を介して取得した道路端Eの道路端位置情報を、道路形状情報取得部23と表示制御部24とに出力する。   The road edge position information acquisition unit 22 is a functional unit that acquires road edge position information indicating the road edge position that is the position of the road edge E based on the communication signal detected by the communication signal detection unit 21. In the present embodiment, the road edge position information acquisition unit 22 acquires road edge position information of the road edge E corresponding to the installation location of the light emitting device 50 included in the communication signal. In the present embodiment, since the light receiving device 3 receives visible light from a plurality of (six in this example) light emitting devices 50, the road edge position information acquisition unit 22 applies the communication signal superimposed on each visible light. Road edge position information of the road edge E corresponding to the installation location of each included light emitting device 50 is acquired. Specifically, as illustrated in FIG. 3B, the light receiving device 3 sequentially includes the nth light emitting device 50 closest to the host vehicle 40 and the side away from the host vehicle 40 from the nth light emitting device 50. Three light emitting devices 50, namely, the (n + 1) th and n + 2th light emitting devices 50, and the k to (k + 2) th three light emitting devices that illuminate the roads for oncoming vehicles provided at positions facing each other across the road. Visible light is received from the device 50. That is, the road edge position information acquisition unit 22 has the road edge position of the road edge E corresponding to the installation locations of these six light emitting devices 50 (n to n + 2 light emitting devices and k to k +2 light emitting devices). Information (Pn-Pn + 2 and Pk-Pk + 2) is acquired. Then, the road edge position information acquisition unit 22 outputs the road edge position information of the road edge E acquired from the light emitting device 50 via the communication signal to the road shape information acquisition unit 23 and the display control unit 24.

道路形状情報取得部23は、地図情報に基づいて、道路端位置情報に示される道路端位置の周辺の道路形状を表す道路形状情報を取得する機能部である。本実施形態では、道路形状情報取得部23は、道路端位置情報取得部22から道路端位置情報を取得すると、当該道路端位置情報に基づいて、地図データベースMを参照して、当該道路端位置の周辺の道路形状情報を取得する。具体的には、道路形状情報取得部23は、複数の道路端位置情報に示される各道路端Eの位置座標に基づいて地図データベースMを参照し、当該各道路端Eに近い道路形状補完点Sを最も多く含むリンクに対応づけられた道路形状情報を取得する。そして、道路形状情報取得部23は、当該取得した道路形状情報を表示制御部24へ出力する。   The road shape information acquisition unit 23 is a functional unit that acquires road shape information representing a road shape around the road edge position indicated by the road edge position information based on the map information. In the present embodiment, when the road shape information acquisition unit 23 acquires the road edge position information from the road edge position information acquisition unit 22, the road shape information acquisition unit 23 refers to the map database M based on the road edge position information, and The road shape information around is obtained. Specifically, the road shape information acquisition unit 23 refers to the map database M based on the position coordinates of each road edge E indicated in the plurality of road edge position information, and road shape complementary points near each road edge E. Road shape information associated with the link containing the most S is acquired. Then, the road shape information acquisition unit 23 outputs the acquired road shape information to the display control unit 24.

表示制御部24は、表示装置5を制御する機能部である。本実施形態では、表示制御部24は、道路端位置情報に基づいて、道路端Eを表す道路端画像Uを生成すると共に(図6及び図7参照)、自車両40の前方の実風景に含まれる道路端位置に重ねて道路端画像Uを表示させるように、表示装置5を制御する(図8及び図9参照)。なお、実風景とは、肉眼で見る実風景のことであり、ここでは、フロントウィンドウ61越しに見る実風景のことである。   The display control unit 24 is a functional unit that controls the display device 5. In the present embodiment, the display control unit 24 generates a road edge image U representing the road edge E based on the road edge position information (see FIGS. 6 and 7), and displays the actual scenery in front of the host vehicle 40. The display device 5 is controlled so that the road edge image U is displayed over the included road edge position (see FIGS. 8 and 9). The actual landscape is an actual landscape viewed with the naked eye, and here is an actual landscape viewed through the front window 61.

また、表示制御部24は、道路端画像Uを生成する前の事前処理として、自車両40に対して前方の道路が直線道路であるか否かを判定する処理を実行する機能も有する。具体的には、表示制御部24は、車両40の前方の予め定められた判定距離内の道路の曲率半径が予め定められた基準値以上である場合には直線道路であると判定する。一方、表示制御部24は、車両40の前方の前記判定距離内の道路の曲率半径が一か所でも前記基準値未満である場合には曲線道路であると判定する。より具体的には、表示制御部24は、道路端位置情報取得部22から道路端Eの道路端位置情報を取得すると、自車位置情報取得部25から自車位置情報を取得する。表示制御部24は、自車位置情報を取得すると、当該自車位置情報に基づいて、地図データベースMを参照し、当該自車位置よりも前方で自車位置周辺の道路形状補完点Sの情報又は道路形状情報を取得する。そして、表示制御部24は、取得した道路形状補完点Sの情報又は道路形状情報に基づいて、判定距離内の道路の最少曲率半径を求め、当該最少曲率半径が基準値以上である場合には直線道路、基準値未満である場合には曲線道路と判定する。ここで、判定距離は、道路端画像Uを生成する範囲に応じて設定される。本実施形態では、受光装置3により受光した可視光に重畳された道路端位置情報に基づいて道路端画像Uを生成するため、判定距離は、例えば、受光装置3の受光範囲に応じて設定されると好適であり、一例として、判定距離が受光装置3の受光範囲と一致する距離に設定されると好適である。   The display control unit 24 also has a function of executing a process of determining whether or not the road ahead is a straight road with respect to the host vehicle 40 as a pre-process before the road edge image U is generated. Specifically, the display control unit 24 determines that the road is a straight road when the curvature radius of a road within a predetermined determination distance ahead of the vehicle 40 is equal to or greater than a predetermined reference value. On the other hand, the display control unit 24 determines that the road is a curved road if the curvature radius of the road within the determination distance ahead of the vehicle 40 is less than the reference value. More specifically, when acquiring the road edge position information of the road edge E from the road edge position information acquisition unit 22, the display control unit 24 acquires the vehicle position information from the vehicle position information acquisition unit 25. When the display control unit 24 acquires the vehicle position information, the display control unit 24 refers to the map database M based on the vehicle position information, and information on the road shape complementary points S around the vehicle position ahead of the vehicle position. Alternatively, road shape information is acquired. And the display control part 24 calculates | requires the minimum curvature radius of the road within determination distance based on the information of the acquired road shape complementation point S or road shape information, and when the said minimum curvature radius is more than a reference value, If it is a straight road or less than the reference value, it is determined as a curved road. Here, the determination distance is set according to the range in which the road edge image U is generated. In the present embodiment, since the road edge image U is generated based on the road edge position information superimposed on the visible light received by the light receiving device 3, the determination distance is set according to the light receiving range of the light receiving device 3, for example. For example, the determination distance is preferably set to a distance that matches the light receiving range of the light receiving device 3.

そして、本実施形態では、表示制御部24は、自車両40に対して前方の道路が、直線道路であるか否か、すなわち、直線道路であるか又は曲線道路であるかに応じて、道路端画像Uの生成方法を異ならせている。具体的には、表示制御部24は、前方の道路が曲線道路であると判定すると、自車位置情報取得部25から取得した自車位置情報と、道路端位置情報取得部22から取得した道路端位置情報と、道路形状情報取得部23から取得した道路形状情報とに基づいて道路端画像Uを生成する。一方、表示制御部24は、前方の道路が直線道路であると判定すると、自車位置情報取得部25から取得した自車位置情報(絶対座標)と、道路端位置情報取得部22から取得した道路端位置情報とに基づいて道路端画像Uを生成する。   In the present embodiment, the display control unit 24 determines whether the road ahead of the host vehicle 40 is a straight road, that is, whether the road is a straight road or a curved road. The generation method of the end image U is different. Specifically, when the display control unit 24 determines that the road ahead is a curved road, the vehicle position information acquired from the vehicle position information acquisition unit 25 and the road acquired from the road edge position information acquisition unit 22 A road edge image U is generated based on the edge position information and the road shape information acquired from the road shape information acquisition unit 23. On the other hand, when determining that the road ahead is a straight road, the display control unit 24 acquires the vehicle position information (absolute coordinates) acquired from the vehicle position information acquisition unit 25 and the road edge position information acquisition unit 22. A road edge image U is generated based on the road edge position information.

ここで、具体的な道路端画像Uの生成方法について図5を用いて説明する。本実施形態では、道路端画像Uとは、自車両40の前方の道路の延びる方向(道路延在方向)に沿って、道路端位置をつないだ線状の画像であり、ここでは、図6及び図7に示すように、道路端位置を隙間なく繋いだ連続する線状の画像である。また、道路端画像Uは、色彩(例えば赤色)又は模様が付けられている画像であると好ましい。これにより、道路端Eに対応する車両外側線(白線)が雪に覆われている場合や、霧や豪雨で視界が悪い場合等でも、道路端画像Uを明瞭に視認できる態様で表示装置5に表示することができる。   Here, a specific method for generating the road edge image U will be described with reference to FIG. In the present embodiment, the road edge image U is a linear image in which the road edge positions are connected along the direction in which the road ahead of the host vehicle 40 extends (the road extending direction). And as shown in FIG. 7, it is a continuous linear image which connected the road edge position without gap. The road edge image U is preferably an image with a color (for example, red) or a pattern. Thereby, even when the vehicle outer side line (white line) corresponding to the road edge E is covered with snow, or when the visibility is poor due to fog or heavy rain, the display device 5 can clearly see the road edge image U. Can be displayed.

表示制御部24は、前方の道路が曲線道路であると判定すると、道路形状情報に示される道路形状に合致させるように道路端画像Uを生成する。本実施形態では、表示制御部24は、前方の道路が曲線道路であると判定すると、道路端位置情報と、道路形状情報と、自車位置情報とに基づいて道路端画像Uを生成する。具体的には、まず、表示制御部24は、道路端位置情報に含まれる道路端位置のうち道路延在方向に隣接する道路端位置同士を、道路形状情報に含まれる曲率半径の曲線で結んだ道路端曲線を生成する。この際、表示制御部24は、道路延在方向に隣接する2つの道路端位置を通る曲線であって、当該道路端位置に対応する位置における道路形状情報に含まれる曲率半径の曲線を道路端曲線とする。連続する3つ以上の道路端位置情報が取得されている場合には、互いに隣接する2つの道路端位置の間毎に道路端曲線を生成し、曲率半径が異なる複数の道路端曲線どうしは、それらの中間の曲率半径の曲線を部分的に挿入するなどして滑らかに接続すると好適である。また、1つの道路端位置情報しか取得されていない場合には、当該道路端位置を通る曲線であって、当該道路端位置に対応する位置における道路形状情報に含まれる曲率半径の曲線を道路端曲線とするとよい。なお、道路端曲線としては、湾曲する際に内側に位置する道路端位置同士を結んだ内側道路端曲線と、湾曲する際に外側に位置する道路端位置同士を結んだ外側道路端曲線との2つが生成される。そして、表示制御部24は、当該道路端曲線上の任意の複数の点を前方の道路の対応する位置にプロットし、これらのプロットした点(以下、プロット点)を投影面Gに投影して、当該プロット点の位置座標を投影面Gにおける座標に座標変換し、それを繋いで道路端画像Uを生成する。また、車両40の前方の道路が複数の車線から構成されている場合には(本例では、片側一車線の合計二車線)、内側道路端曲線及び外側道路端曲線を用いて、これらと同心円状であって走行中の車線の両側の区画線の位置に応じた道路端曲線を生成し、当該道路端曲線を用いて道路端画像Uを生成する。   When the display control unit 24 determines that the road ahead is a curved road, the display control unit 24 generates a road edge image U so as to match the road shape indicated in the road shape information. In the present embodiment, when the display control unit 24 determines that the road ahead is a curved road, the display control unit 24 generates the road edge image U based on the road edge position information, the road shape information, and the own vehicle position information. Specifically, first, the display control unit 24 connects the road edge positions adjacent to each other in the road extending direction among the road edge positions included in the road edge position information with a curve of the radius of curvature included in the road shape information. A road edge curve is generated. At this time, the display control unit 24 uses the curve of the radius of curvature included in the road shape information at the position corresponding to the road edge position, which is a curve passing through two road edge positions adjacent to each other in the road extending direction. A curve. When three or more continuous road edge position information is acquired, a road edge curve is generated for each of two adjacent road edge positions, and a plurality of road edge curves having different curvature radii are It is preferable to connect them smoothly, for example, by partially inserting a curve with an intermediate radius of curvature. In addition, when only one road edge position information is acquired, a curve passing through the road edge position and a curve of the radius of curvature included in the road shape information at a position corresponding to the road edge position is the road edge position. It should be a curve. The road edge curve includes an inner road edge curve connecting the road edge positions located inside when curving and an outer road edge curve connecting the road edge positions located outside when curving. Two are generated. Then, the display control unit 24 plots arbitrary points on the road edge curve at corresponding positions on the road ahead, and projects these plotted points (hereinafter, plot points) onto the projection plane G. Then, the coordinate of the position of the plot point is converted into the coordinate on the projection plane G, and the road end image U is generated by connecting the coordinate. If the road ahead of the vehicle 40 is composed of a plurality of lanes (in this example, one lane on each side is a total of two lanes), the inner road edge curve and the outer road edge curve are used, and these are concentric circles. The road edge curve corresponding to the positions of the lane markings on both sides of the running lane is generated, and the road edge image U is generated using the road edge curve.

より具体的には、表示制御部24は、自車位置情報取得部25から自車位置を取得し、道路端位置情報取得部22から道路端位置情報を取得し、道路形状情報取得部23から道路形状情報を取得すると、記憶装置6から車両の乗員(運転者)の視点情報を読み出す。ここで、視点情報とは、乗員の視点の高さを示す位置情報(ワールド座標におけるZ座標)であり、予め設定されて記憶装置6に格納されている。本実施形態では、視点情報として、車両の乗員毎に適切な視点の高さを予め設定し、記憶装置6に格納している。表示制御部24は、まず、図5に示すように、視点情報と自車位置情報とから車両の乗員(運転者)の視点の位置座標(X0,Y0,Z0)を設定する。次に、表示制御部24は、道路端位置情報と道路形状情報とから道路端曲線を生成し、当該道路端曲線上の複数の任意の点Q1(X1,Y1,Z1)〜Q6(X6,Y6,Z6)を、視点の前方の道路のそれぞれの対応する位置にプロットする。なお、これらの座標(X,Y,Z)は、ワールド座標系における座標位置を示している。そして、表示制御部24は、これらのプロット点のそれぞれを投影面Gに投影して、当該投影面Gにおける座標(x,y)を算出して座標変換する。そして、座標変換したこれらのプロット点を繋いで、図7に示すような道路端画像Uを生成する。なお、図5では、プロットした複数の点のうち、Q1(X1,Y1,Z1)及びQ4(X4,Y4,Z4)のみを投影面Gの座標に座標変換した様子を示している。   More specifically, the display control unit 24 acquires the host vehicle position from the host vehicle position information acquisition unit 25, acquires the road end position information from the road end position information acquisition unit 22, and the road shape information acquisition unit 23. When the road shape information is acquired, the viewpoint information of the vehicle occupant (driver) is read from the storage device 6. Here, the viewpoint information is position information (Z coordinate in world coordinates) indicating the height of the occupant's viewpoint, and is preset and stored in the storage device 6. In the present embodiment, as viewpoint information, an appropriate viewpoint height is set in advance for each vehicle occupant and stored in the storage device 6. First, as shown in FIG. 5, the display control unit 24 sets the position coordinates (X0, Y0, Z0) of the viewpoint of the vehicle occupant (driver) from the viewpoint information and the own vehicle position information. Next, the display control unit 24 generates a road edge curve from the road edge position information and the road shape information, and a plurality of arbitrary points Q1 (X1, Y1, Z1) to Q6 (X6) on the road edge curve. Y6, Z6) is plotted at each corresponding position on the road ahead of the viewpoint. These coordinates (X, Y, Z) indicate coordinate positions in the world coordinate system. Then, the display control unit 24 projects each of these plot points onto the projection plane G, calculates coordinates (x, y) on the projection plane G, and performs coordinate conversion. Then, the road end image U as shown in FIG. 7 is generated by connecting these plotted points after coordinate conversion. FIG. 5 shows a state in which only Q1 (X1, Y1, Z1) and Q4 (X4, Y4, Z4) among the plurality of plotted points are coordinate-converted to the coordinates of the projection plane G.

一方、表示制御部24は、前方の道路が直線道路であると判定すると、道路端位置を繋いで道路端画像Uを生成する。本実施形態では、表示制御部24は、前方の道路が直線道路であると判定すると、道路端位置情報と、自車位置情報とに基づいて道路端画像Uを生成する。具体的には、表示制御部24は、複数の道路端位置情報に含まれる各道路端位置で表わされる点を、前方の道路の対応する位置にプロットし、これらのプロット点のそれぞれについて投影面Gに投影して、これらのプロット点の位置座標を当該投影面Gにおける座標に座標変換し、当該座標変換後の点を繋いで道路端画像Uを生成する。このように、前方の道路が直線道路であると判定した場合には、道路端曲線を生成せず、道路端位置をそのまま投影面Gの座標に座標変換するのに対して、前方の道路が曲線道路であると判定した場合には、道路形状情報と道路端位置情報とを用いて道路端曲線を生成してから、投影面Gの座標に座標変換する点で両者の道路端画像Uの生成方法は相違する。   On the other hand, when the display control unit 24 determines that the road ahead is a straight road, the display control unit 24 connects the road end positions to generate the road end image U. In this embodiment, if the display control unit 24 determines that the road ahead is a straight road, the display control unit 24 generates a road edge image U based on the road edge position information and the vehicle position information. Specifically, the display control unit 24 plots the points represented by the respective road edge positions included in the plurality of road edge position information at the corresponding positions on the road ahead, and the projection plane for each of these plotted points. Projected onto G, the position coordinates of these plot points are transformed into coordinates on the projection plane G, and the road end image U is generated by connecting the points after the coordinate transformation. As described above, when it is determined that the road ahead is a straight road, a road edge curve is not generated, and the road edge position is directly converted to the coordinates of the projection plane G. When it is determined that the road is a curved road, the road edge image U of both road edge images U is generated by generating a road edge curve using the road shape information and the road edge position information and then converting the coordinates to the coordinates of the projection plane G. The generation method is different.

そして、表示制御部24は、当該生成した道路端画像Uを、随時、表示装置5により表示させる。表示装置5により表示された道路端画像Uは、図8及び図9に示すように、自車両40の前方の実風景に含まれる道路端位置に重なって表示される。   Then, the display control unit 24 causes the display device 5 to display the generated road edge image U as needed. The road edge image U displayed by the display device 5 is displayed so as to overlap the road edge position included in the actual scenery ahead of the host vehicle 40 as shown in FIGS.

自車位置情報取得部25は、自車両40の現在位置である自車位置を表す自車位置情報を取得する機能部である。本実施形態では、自車位置情報取得部25は、位置情報検出装置4から定期的(例えば、1秒毎)に現在位置情報を取得し、表示制御部24に出力する。   The own vehicle position information acquisition unit 25 is a functional unit that acquires own vehicle position information indicating the own vehicle position that is the current position of the own vehicle 40. In the present embodiment, the vehicle position information acquisition unit 25 acquires current position information from the position information detection device 4 periodically (for example, every second) and outputs the current position information to the display control unit 24.

2.動作処理の手順
次に運転支援システム1の動作処理の手順について、図10及び図11に基づいて説明する。本実施形態における運転支援システム1は、まず、図10に示すように、受光装置3にて発光装置50から可視光を受光すると(ステップ#01:Yes)、通信信号検出部21が、当該受光した可視光に重畳された通信信号を検出する(ステップ#02)。道路端位置情報取得部22は、通信信号検出部21にて検出された通信信号から、当該通信信号に含まれている発光装置50の設置箇所に対応する道路端Eの道路端位置情報を取得し(ステップ#03)、当該道路端位置情報を道路形状情報取得部23と表示制御部24とに出力する。道路形状情報取得部23は、道路端位置情報取得部22から入力された道路端位置情報に基づき、地図データベースMから当該道路端位置情報に示される道路端位置の周辺の道路形状を表す道路形状情報を取得し(ステップ#04)、表示制御部24に出力する。表示制御部24は、道路端位置情報取得部22から道路端位置情報を取得し、道路形状情報取得部23から道路形状情報を取得すると、表示制御処理を実行する(ステップ#05)。なお、受光装置3にて発光装置50から可視光を受光しない場合には(ステップ#01:No)、当該可視光を受光するまで待機する。
2. Procedure of Operation Process Next, the procedure of the operation process of the driving support system 1 will be described based on FIG. 10 and FIG. First, as shown in FIG. 10, when the driving support system 1 in the present embodiment receives visible light from the light emitting device 50 by the light receiving device 3 (step # 01: Yes), the communication signal detecting unit 21 receives the received light. The communication signal superimposed on the visible light thus detected is detected (step # 02). The road edge position information acquisition unit 22 acquires the road edge position information of the road edge E corresponding to the installation location of the light emitting device 50 included in the communication signal from the communication signal detected by the communication signal detection unit 21. (Step # 03), the road edge position information is output to the road shape information acquisition unit 23 and the display control unit 24. The road shape information acquisition unit 23 represents a road shape representing the road shape around the road edge position indicated by the road edge position information from the map database M based on the road edge position information input from the road edge position information acquisition unit 22. Information is acquired (step # 04) and output to the display control unit 24. When the display control unit 24 acquires the road end position information from the road end position information acquisition unit 22 and acquires the road shape information from the road shape information acquisition unit 23, the display control unit 24 executes display control processing (step # 05). In the case where the light receiving device 3 does not receive visible light from the light emitting device 50 (step # 01: No), it waits until the visible light is received.

図11に示すように、表示制御部24は、表示制御処理の実行を開始すると、自車位置情報取得部25より自車位置情報を取得する(ステップ#51)。そして、表示制御部24は、自車位置よりも前方の道路が直線道路であるか否かを判定する処理を実行する(ステップ#52)。表示制御部24は、前方の道路が曲線道路であると判定すると(ステップ#52:No)、自車位置情報と、道路形状情報と、道路端位置情報とに基づいて道路端画像Uを生成する(ステップ#54)。一方、ステップ#52にて、前方の道路が直線道路であると判定すると(ステップ#52:Yes)、表示制御部24は、自車位置情報と道路端位置情報とに基づいて道路端画像Uを生成する(ステップ#53)。そして、表示制御部24は、当該生成した道路端画像Uを、表示装置5により、自車両40の前方の実風景に含まれる道路端位置に重ねて表示させて(ステップ#55)、表示制御処理を終了する。表示制御処理が終了すると、図10に戻って運転支援処理も終了する。   As shown in FIG. 11, when the display control unit 24 starts executing the display control process, the display control unit 24 acquires the vehicle position information from the vehicle position information acquisition unit 25 (step # 51). And the display control part 24 performs the process which determines whether the road ahead from the own vehicle position is a straight road (step # 52). When the display control unit 24 determines that the road ahead is a curved road (step # 52: No), the display control unit 24 generates a road edge image U based on the vehicle position information, the road shape information, and the road edge position information. (Step # 54). On the other hand, when it is determined in step # 52 that the road ahead is a straight road (step # 52: Yes), the display control unit 24 determines the road edge image U based on the vehicle position information and the road edge position information. Is generated (step # 53). Then, the display control unit 24 causes the display device 5 to display the generated road edge image U so as to overlap the road edge position included in the actual scenery ahead of the host vehicle 40 (step # 55). The process ends. When the display control process ends, the process returns to FIG. 10 and the driving support process also ends.

3.その他の実施形態
最後に、本発明のその他の実施形態について説明する。なお、以下に説明する各実施形態の構成は、それぞれ単独で適用されるものに限られず、矛盾が生じない限り、他の実施形態の構成と組み合わせて適用することも可能である。
3. Other Embodiments Finally, other embodiments of the present invention will be described. Note that the configuration of each embodiment described below is not limited to being applied independently, and can be applied in combination with the configuration of other embodiments as long as no contradiction arises.

(1)上記の実施形態では、表示装置5として、ウィンドシールドディスプレイを用い、フロントウィンドウ越しの実風景に含まれる道路端位置に重ねて、道路端画像Uを表示させる構成であったが、本発明の実施形態はこれに限定されるものではない。表示装置5が、液晶ディスプレイ等の表示画面63(図8及び図9参照)を備えた表示装置であってもよい。この場合、さらに撮像装置(図示せず)を備え、表示制御部24は、当該撮像装置により撮影された動画データ(撮影画像)をリアルタイムに表示画面63に表示し、当該表示画面63に表示された撮影画像中の自車両40の前方の実風景に含まれる道路端位置に、道路端画像Uを重ねて表示させる構成であってもよい。なお、この場合の実風景には、撮像装置にて撮影されて各種表示装置に表示される撮影画像内の実風景も含まれる。また、表示装置5として、ヘッドマウントディスプレイを用いてもよい。 (1) In the above embodiment, a windshield display is used as the display device 5 and the road edge image U is displayed over the road edge position included in the actual scenery through the front window. The embodiment of the invention is not limited to this. The display device 5 may be a display device including a display screen 63 (see FIGS. 8 and 9) such as a liquid crystal display. In this case, an imaging device (not shown) is further provided, and the display control unit 24 displays the moving image data (captured image) captured by the imaging device on the display screen 63 in real time and is displayed on the display screen 63. Alternatively, the road edge image U may be displayed so as to overlap the road edge position included in the actual scenery ahead of the host vehicle 40 in the captured image. Note that the actual landscape in this case also includes actual landscapes in captured images that are captured by the imaging device and displayed on various display devices. Further, a head mounted display may be used as the display device 5.

(2)上記の実施形態では、視点情報として、車両の乗員毎に適切な視点の高さが予め設定されて記憶装置6に格納されている構成を例に用いて説明した。しかし、本発明の実施形態はこれに限定されるものではない。例えば、乗員の視点の位置を特定する視点位置特定部を備え、当該視点位置特定部によってその都度、乗員の視点の位置を特定する構成であってもよい。この視点位置特定部としては、例えば、車室内に設置されたカメラ等によって乗員の顔画像を撮影し、この顔画像を解析して乗員の視点の位置を検出する構成を用いることができる。また、超音波センサやレーザースキャナ等により乗員の頭部の位置を検出し、当該検出した頭部の位置から乗員の視点の位置を推測する構成を用いることができる。また、車両40のバックミラーやサイドミラーの角度、シートの位置及びヘッドレストの高さ等を各部のセンサにより検出し、当該検出値から間接的に乗員の視点の位置を検出する構成を用いることができる。更には、乗員に身長や座高などの身体情報の入力を求め、当該入力情報に基づいて乗員の視点の位置を推測する構成を用いることができる。 (2) In the above embodiment, the viewpoint information is described by taking as an example a configuration in which an appropriate viewpoint height is preset for each vehicle occupant and stored in the storage device 6. However, the embodiment of the present invention is not limited to this. For example, a configuration may be provided in which a viewpoint position specifying unit that specifies the position of the occupant's viewpoint is provided, and the position of the occupant's viewpoint is specified each time by the viewpoint position specifying unit. As this viewpoint position specifying unit, for example, a configuration in which a passenger's face image is taken with a camera or the like installed in the passenger compartment and the position of the passenger's viewpoint is detected by analyzing the face image can be used. Further, a configuration can be used in which the position of the occupant's head is detected by an ultrasonic sensor, a laser scanner, or the like, and the position of the occupant's viewpoint is estimated from the detected position of the head. Further, the configuration in which the angle of the rearview mirror and side mirror of the vehicle 40, the position of the seat, the height of the headrest, and the like are detected by sensors of each part, and the position of the occupant's viewpoint is indirectly detected from the detected values. it can. Furthermore, it is possible to use a configuration in which the occupant is requested to input physical information such as height and sitting height, and the position of the occupant's viewpoint is estimated based on the input information.

(3)上記の実施形態では、予め地図データベースMに道路形状情報が格納されており、道路形状情報取得部23は、道路端位置情報取得部22から道路端位置情報を取得すると、当該道路端位置情報に基づいて、地図データベースMを参照して、当該道路端位置の周辺の道路形状情報を取得する構成を例に用いて説明したが、本発明の実施形態はこれに限定されるものではない。道路形状情報が、予め地図データベースMに格納されておらず、道路形状情報取得部23が、その都度、リンク情報の付属情報として含まれる各種情報から演算して道路形状を特定する構成であってもよい。例えば、付属情報として道路の中心線に沿った道路形状補完点Sの情報と道路幅Wの情報とが含まれている場合には、道路形状情報取得部23は、当該道路形状補完点Sの情報とノード情報とから当該リンクに対応する道路の曲率半径を算出し、当該算出した曲率半径と道路幅Wとから演算して道路形状を特定する構成であってもよい。具体的には、道路形状情報取得部23は、各道路形状補完点Sの位置と、その前後に隣接する道路形状補完点S或いはノードNの位置を通る円をそれぞれ演算して、その円の半径を各道路形状補完点S間(或いは道路形状補完点SとノードN間)での道路の曲率半径とする。また、付属情報として、カーブ情報(曲率半径情報)と道路幅Wの情報とが含まれている場合には、道路形状情報取得部23は、これらの情報を用いて道路形状を特定する構成であってもよい。 (3) In the above embodiment, road shape information is stored in the map database M in advance, and when the road shape information acquisition unit 23 acquires the road end position information from the road end position information acquisition unit 22, the road end information Based on the position information, the map database M is referred to and the configuration for acquiring the road shape information around the road edge position has been described as an example. However, the embodiment of the present invention is not limited to this. Absent. The road shape information is not stored in the map database M in advance, and the road shape information acquisition unit 23 is configured to specify the road shape by calculating from various information included as the additional information of the link information each time. Also good. For example, when the information on the road shape supplement point S along the center line of the road and the information on the road width W are included as the attached information, the road shape information acquisition unit 23 sets the road shape supplement point S of the road shape supplement point S. The configuration may be such that the curvature radius of the road corresponding to the link is calculated from the information and the node information, and the road shape is specified by calculating from the calculated curvature radius and the road width W. Specifically, the road shape information acquisition unit 23 calculates a circle passing through the position of each road shape complementary point S and the position of the road shape complementary point S or the node N adjacent to the front and rear of the road shape complementary point S. Let the radius be the radius of curvature of the road between each road shape complement point S (or between the road shape complement point S and the node N). In addition, in the case where curve information (curvature radius information) and road width W information are included as attached information, the road shape information acquisition unit 23 uses such information to identify the road shape. There may be.

(4)上記の実施形態では、受光装置3は、図2に示すように、車両40のフロントウィンドウ61の上部に一つ設けられており、車両40の前方側に存在する発光装置50からの可視光を受光する構成を例に説明した。しかし、本発明の実施形態はこれに限定されるものではない。例えば、図12に示すように、車両40の天井部の1カ所に受光装置3が取り付けられる構成としても好適である。また、図示は省略するが、受光装置3は、車両40のバンパー部に設けられる構成としてもよい。さらには、受光装置3が、車両40の前方側と後方側との双方に設けられる構成としてもよい。 (4) In the above embodiment, as shown in FIG. 2, one light receiving device 3 is provided on the upper portion of the front window 61 of the vehicle 40, and the light receiving device 3 is provided from the light emitting device 50 present on the front side of the vehicle 40. The configuration for receiving visible light has been described as an example. However, the embodiment of the present invention is not limited to this. For example, as shown in FIG. 12, a configuration in which the light receiving device 3 is attached to one place on the ceiling of the vehicle 40 is also suitable. Although not shown, the light receiving device 3 may be provided in a bumper portion of the vehicle 40. Furthermore, the light receiving device 3 may be provided on both the front side and the rear side of the vehicle 40.

(5)上記の実施形態では、運転支援システム1は、車載装置2と、受光装置3と、位置情報検出装置4と、表示装置5と、記憶装置6とが車両40に搭載された構成であった。しかし、本発明の実施形態はこれに限定されるものではない。運転支援システム1は、これらの一部の構成が車両40の外部に設けられていても好適である。例えば、記憶装置6や自車位置情報取得部25等の一部の構成が、車両40と通信可能に接続された外部のサーバ等、別の場所に設けられていても好適である。或いは、道路に固定されて設けられた複数の発光装置50や他の車両40に搭載された複数の車載装置2も含めて、全体として運転支援システム1とすることもできる。 (5) In the above embodiment, the driving support system 1 has a configuration in which the in-vehicle device 2, the light receiving device 3, the position information detection device 4, the display device 5, and the storage device 6 are mounted on the vehicle 40. there were. However, the embodiment of the present invention is not limited to this. The driving support system 1 is suitable even if some of these configurations are provided outside the vehicle 40. For example, some configurations such as the storage device 6 and the own vehicle position information acquisition unit 25 may be provided in another place such as an external server connected to be communicable with the vehicle 40. Or it can also be set as the driving assistance system 1 as a whole including the several light-emitting device 50 fixed to the road, and the some vehicle-mounted apparatus 2 mounted in the other vehicle 40. FIG.

(6)上記の実施形態では、道路端画像Uは、図6及び図7に示すように、自車両40の前方の道路の延びる方向に沿って、各道路端位置を隙間なく繋いだ連続する線状の画像である例を用いて説明した。しかし、本発明の実施形態はこれに限定されるものではない。例えば、道路端画像Uは、破線や点線等で示される線状の画像であってもよいし、線状でなく複数の道路端位置を表す点をプロットした画像であってもよい。 (6) In the above embodiment, as shown in FIGS. 6 and 7, the road edge image U is continuous along the direction in which the road ahead of the host vehicle 40 extends without gaps. The description has been given using an example of a linear image. However, the embodiment of the present invention is not limited to this. For example, the road edge image U may be a linear image indicated by a broken line, a dotted line, or the like, or may be an image in which points representing a plurality of road edge positions are plotted instead of a linear shape.

(7)上記の実施形態では、運転支援システム1(車載装置2)が道路形状情報取得部23を備える構成であったが、本発明の実施形態はこれに限定されるものではない。運転支援システム1(車載装置2)が道路形状情報取得部23を備えずに、当該道路形状情報取得部23の機能を表示制御部24が有する構成であってもよい。具体的には、表示制御部24は、前方の道路が曲線道路であると判定した場合のみ道路形状情報を取得する為、前方の道路が直線道路であるか否かを判定する機能を有する表示制御部24が、併せて道路形状情報取得部23の機能を有する構成としても好適である。 (7) In the above embodiment, the driving support system 1 (on-vehicle device 2) is configured to include the road shape information acquisition unit 23, but the embodiment of the present invention is not limited to this. The driving support system 1 (the in-vehicle device 2) may not have the road shape information acquisition unit 23, and the display control unit 24 may have the function of the road shape information acquisition unit 23. Specifically, the display control unit 24 obtains road shape information only when the front road is determined to be a curved road, and thus has a function of determining whether the front road is a straight road. It is also preferable that the control unit 24 has a function of the road shape information acquisition unit 23.

(8)上記の実施形態では、表示制御部24は、前方の道路が直線道路であると判定すると、道路形状情報を用いずに道路端画像Uを生成する構成を例に説明した。しかし、本発明の実施形態はこれに限定されるものではない。例えば、表示制御部24は、前方の道路が直線道路であると判定した場合であっても、道路形状情報取得部23を介して道路形状情報を取得し、当該道路形状情報を用いて道路端画像Uを生成する構成であってもよい。 (8) In the above embodiment, when the display control unit 24 determines that the road ahead is a straight road, the configuration is described in which the road edge image U is generated without using the road shape information. However, the embodiment of the present invention is not limited to this. For example, even when the display control unit 24 determines that the road ahead is a straight road, the display control unit 24 acquires road shape information via the road shape information acquisition unit 23 and uses the road shape information to The structure which produces | generates the image U may be sufficient.

(9)上記の実施形態では、発光装置50として街路灯を用いる構成を例に説明した。しかし、本発明の実施形態はこれに限定されるものではなく、発光装置50は道路に沿って設けられる他の照明装置、例えば、信号機や看板等であってもよい。 (9) In the above embodiment, the configuration using a street lamp as the light emitting device 50 has been described as an example. However, the embodiment of the present invention is not limited to this, and the light emitting device 50 may be another lighting device provided along the road, for example, a traffic light or a signboard.

(10)上記の実施形態では、受光装置3は、対向車線の道路に設けられた発光装置50からも可視光に重畳された通信信号を介して道路端位置情報を取得する構成であったが、本発明の実施形態はこれに限定されるものではない。受光装置3は、進行方向の前方における発光装置50からのみ道路端位置情報を取得する構成であってもよい。 (10) In the above embodiment, the light receiving device 3 is configured to acquire the road edge position information from the light emitting device 50 provided on the road in the opposite lane via the communication signal superimposed on the visible light. However, the embodiment of the present invention is not limited to this. The light receiving device 3 may be configured to acquire road edge position information only from the light emitting device 50 in the forward direction.

4.本発明の実施形態の概要
以上で説明した本発明の実施形態は、少なくとも以下の構成を備えている。すなわち、運転支援システム(1)は、道路に沿って設けられた発光装置(50)から可視光を受光する受光装置(3)と、前記可視光に重畳された通信信号を検出する通信信号検出部(21)と、前記通信信号検出部(21)により検出した前記通信信号に基づいて、前記道路の横幅方向の端部の位置である道路端位置を表す道路端位置情報を取得する道路端位置情報取得部(22)と、自車両(40)の前方の実風景に重ねて、別途生成した画像を表示する表示装置(5)と、前記表示装置(5)を制御する表示制御部(24)と、を備え、前記表示制御部(24)は、前記道路端位置情報に基づいて、前記道路端(E)を表す道路端画像(U)を生成すると共に当該道路端画像(U)を前記自車両(40)の前方の実風景に含まれる前記道路端位置に重ねて表示させる点にある。
4). Outline of Embodiment of the Present Invention The embodiment of the present invention described above has at least the following configuration. That is, the driving support system (1) includes a light receiving device (3) that receives visible light from a light emitting device (50) provided along a road, and a communication signal detection that detects a communication signal superimposed on the visible light. And road edge position information representing road edge position, which is the position of the edge of the road in the lateral width direction, based on the communication signal detected by the communication signal detector (21) and the communication signal detector (21) A position information acquisition unit (22), a display device (5) for displaying a separately generated image superimposed on the actual scenery in front of the host vehicle (40), and a display control unit for controlling the display device (5) ( 24), and the display control unit (24) generates a road edge image (U) representing the road edge (E) based on the road edge position information and the road edge image (U). Before being included in the actual scenery in front of the host vehicle (40) It lies in that displayed over the road end position.

このような構成により、可視光に重畳された通信信号を介して、発光装置から正確な道路端位置情報を取得することができる。そして、当該正確な道路端位置情報に基づいて、道路端画像を生成し、当該道路端画像を自車両の前方の実風景に含まれる実際の道路端位置に重ねて表示させることができる。これにより、車両の乗員(特に運転者)に、容易に道路端位置を認識させることができる。よって、例えば積雪で道路面が雪に覆われている場合や霧や豪雨で視界が悪い場合等、環境条件に起因して、車両の乗員が道路端を認識することが困難な場合であっても、表示した道路端画像により道路端位置を視覚的に認識させることができる。これにより、道路に沿って安全に車両を走行させるための、乗員に対する補助を行うことができる。また、上記構成では、道路に沿って設けられた発光装置からその都度道路端位置情報を取得し、当該道路端位置情報に基づいて道路端画像を生成し表示するので、各地点の道路端画像を予め記憶装置に記憶させておく必要がない。従って、記憶装置に記憶させておく必要があるデータ量を少なく抑えることができると共に、実際の道路の変更に伴うデータの更新の必要もなくすことができる。以上より、予め記憶しておく必要があるデータ量を少なく抑えることができると共に、環境条件による影響を抑制しつつ、乗員に対して適切に道路端位置の情報を提供することができる。   With such a configuration, accurate road edge position information can be obtained from the light emitting device via a communication signal superimposed on visible light. Then, a road edge image can be generated based on the accurate road edge position information, and the road edge image can be displayed superimposed on the actual road edge position included in the actual scenery ahead of the host vehicle. As a result, the vehicle occupant (especially the driver) can easily recognize the road end position. Therefore, for example, when the road surface is covered with snow due to snow or when visibility is poor due to fog or heavy rain, it is difficult for the vehicle occupant to recognize the road edge due to environmental conditions. In addition, the road edge position can be visually recognized from the displayed road edge image. Thereby, the assistance to the passenger | crew for driving a vehicle safely along a road can be performed. In the above configuration, the road edge position information is obtained from the light emitting device provided along the road each time, and the road edge image is generated and displayed based on the road edge position information. Need not be stored in the storage device in advance. Therefore, it is possible to reduce the amount of data that needs to be stored in the storage device, and it is possible to eliminate the need to update data in accordance with actual road changes. As described above, it is possible to reduce the amount of data that needs to be stored in advance, and to appropriately provide information on the road edge position to the occupant while suppressing the influence of environmental conditions.

また、本発明の実施形態は、道路端画像(U)を、前記自車両(40)の前方の道路の延びる方向に沿って、前記道路端位置をつないだ線状の画像とすると好適である。   In the embodiment of the present invention, it is preferable that the road edge image (U) is a linear image that connects the road edge positions along the direction in which the road ahead of the host vehicle (40) extends. .

この構成によれば、自車両が走行中の道路の横幅方向の端部の位置を道路の延びる方向に沿って連続的に表示する道路端画像を生成することができる。従って、車両の乗員が道路端を認識することが困難な場合であっても、道路端位置を視覚的に認識させることができると共に、自車両が走行中の道路の延びる方向、すなわち自車両の進むべき方向を車両の乗員に視覚的に認識させることができる。   According to this configuration, it is possible to generate a road edge image that continuously displays the position of the end in the width direction of the road on which the host vehicle is traveling along the direction in which the road extends. Therefore, even if it is difficult for the vehicle occupant to recognize the road edge, the road edge position can be visually recognized, and the direction in which the vehicle is traveling, that is, the direction of the vehicle It is possible to make the vehicle occupant visually recognize the direction to go.

また、本発明の実施形態は、地図情報に基づいて、前記道路端位置情報に示される前記道路端位置の周辺の道路形状を表す道路形状情報を取得する道路形状情報取得部(23)をさらに備え、前記表示制御部(24)は、前記道路形状情報に示される道路形状に合致させるように前記道路端画像(U)を生成し、当該道路端画像(U)を、前記自車両(40)の前方の実風景の中における前記道路端位置情報に示される前記道路端位置に合致させるように表示させる構成とすると好適である。   In addition, the embodiment of the present invention further includes a road shape information acquisition unit (23) that acquires road shape information representing a road shape around the road edge position indicated by the road edge position information based on map information. The display control unit (24) generates the road edge image (U) so as to match the road shape indicated in the road shape information, and the road edge image (U) is generated as the vehicle (40). It is preferable that the display is made to match the road end position indicated by the road end position information in the actual scenery in front of

この構成によれば、道路端位置情報に加えて、道路端位置の周辺の道路形状情報を用いて道路端画像Uを生成する為、道路端位置情報が不足しているために道路端位置情報のみで道路の形状を特定することが困難な場合であっても、実際の道路の形状に対応した道路端画像を生成することができる。従って、車両の乗員が道路端を認識することが困難な場合であっても、道路端位置を視覚的に認識させることができると共に、自車両が走行中の道路の形状を車両の乗員に視覚的に認識させることができる。   According to this configuration, since the road edge image U is generated using the road shape information around the road edge position in addition to the road edge position information, the road edge position information is insufficient because the road edge position information is insufficient. Even if it is difficult to specify the shape of the road only by using this method, a road edge image corresponding to the actual shape of the road can be generated. Accordingly, even when it is difficult for the vehicle occupant to recognize the road edge, the road edge position can be visually recognized, and the shape of the road on which the host vehicle is traveling can be visually recognized by the vehicle occupant. Can be recognized.

本発明は、道路の横幅方向の端部の位置である道路端位置を表示させる運転支援システムに利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a driving support system that displays a road end position that is a position of an end portion in the lateral width direction of a road.

1:運転支援システム
3:受光装置
5:表示装置
21:通信信号検出部
22:道路端位置情報取得部
23:道路形状情報取得部
24:表示制御部
25:自車位置情報取得部
40:自車両
50:発光装置
U:道路端画像
1: driving support system 3: light receiving device 5: display device 21: communication signal detection unit 22: road edge position information acquisition unit 23: road shape information acquisition unit 24: display control unit 25: own vehicle position information acquisition unit 40: own Vehicle 50: Light emitting device U: Road edge image

Claims (5)

道路に沿って設けられた発光装置から可視光を受光する受光装置と、
前記可視光に重畳された通信信号を検出する通信信号検出部と、
前記通信信号検出部により検出した前記通信信号に基づいて、前記道路の横幅方向の端部の位置である道路端位置を表す道路端位置情報を取得する道路端位置情報取得部と、
自車両の前方の実風景に重ねて、別途生成した画像を表示する表示装置と、
前記表示装置を制御する表示制御部と、を備え、
前記表示制御部は、前記道路端位置情報に基づいて、前記道路端を表す道路端画像を生成すると共に当該道路端画像を前記自車両の前方の実風景に含まれる前記道路端位置に重ねて表示させる運転支援システム。
A light receiving device that receives visible light from a light emitting device provided along a road;
A communication signal detector for detecting a communication signal superimposed on the visible light;
Based on the communication signal detected by the communication signal detection unit, a road edge position information acquisition unit that acquires road edge position information representing a road edge position that is a position of an edge of the road in the lateral width direction;
A display device that displays a separately generated image superimposed on the actual scenery in front of the host vehicle;
A display control unit for controlling the display device,
The display control unit generates a road edge image representing the road edge based on the road edge position information, and superimposes the road edge image on the road edge position included in the actual scenery ahead of the host vehicle. Driving support system to be displayed.
前記道路端画像は、前記自車両の前方の道路の延びる方向に沿って、前記道路端位置をつないだ線状の画像である請求項1に記載の運転支援システム。   The driving support system according to claim 1, wherein the road edge image is a linear image that connects the road edge positions along a direction in which a road ahead of the host vehicle extends. 地図情報に基づいて、前記道路端位置情報に示される前記道路端位置の周辺の道路形状を表す道路形状情報を取得する道路形状情報取得部をさらに備え、
前記表示制御部は、前記道路形状情報に示される道路形状に合致させるように前記道路端画像を生成し、当該道路端画像を、前記自車両の前方の実風景の中における前記道路端位置情報に示される前記道路端位置に合致させるように表示させる請求項1又は2に記載の運転支援システム。
A road shape information acquisition unit that acquires road shape information representing a road shape around the road edge position indicated in the road edge position information based on map information;
The display control unit generates the road edge image so as to match the road shape indicated in the road shape information, and the road edge image is used as the road edge position information in the actual scenery ahead of the host vehicle. The driving support system according to claim 1, wherein the driving support system is displayed so as to match the road edge position shown in FIG.
道路に沿って設けられた発光装置から可視光を受光する受光ステップと、
前記可視光に重畳された通信信号を検出する通信信号検出ステップと、
前記通信信号検出ステップにより検出した前記通信信号に基づいて、前記道路の横幅方向の端部の位置である道路端位置を表す道路端位置情報を取得する道路端位置情報取得ステップと、
自車両の前方の実風景に重ねて、別途生成した画像を表示する表示装置を制御する表示制御ステップと、を備え、
前記表示制御ステップでは、前記道路端位置情報に基づいて、前記道路端を表す道路端画像を生成すると共に当該道路端画像を前記自車両の前方の実風景に含まれる前記道路端位置に重ねて表示させる運転支援方法。
A light receiving step for receiving visible light from a light emitting device provided along the road;
A communication signal detection step of detecting a communication signal superimposed on the visible light;
Based on the communication signal detected by the communication signal detection step, road edge position information acquisition step for acquiring road edge position information representing the road edge position that is the position of the edge in the width direction of the road;
A display control step for controlling a display device that displays a separately generated image superimposed on the actual scenery in front of the host vehicle,
In the display control step, a road edge image representing the road edge is generated based on the road edge position information, and the road edge image is superimposed on the road edge position included in the actual scenery ahead of the host vehicle. Driving support method to be displayed.
道路に沿って設けられた発光装置から可視光を受光する受光機能と、
前記可視光に重畳された通信信号を検出する通信信号検出機能と、
前記通信信号検出機能により検出した前記通信信号に基づいて、前記道路の横幅方向の端部の位置である道路端位置を表す道路端位置情報を取得する道路端位置情報取得機能と、
自車両の前方の実風景に重ねて、別途生成した画像を表示する表示装置を制御する表示制御機能と、をコンピュータに実現させ、
前記表示制御機能では、前記道路端位置情報に基づいて、前記道路端を表す道路端画像を生成すると共に当該道路端画像を前記自車両の前方の実風景に含まれる前記道路端位置に重ねて表示させる機能を前記コンピュータに実現させるための運転支援プログラム。
A light receiving function for receiving visible light from a light emitting device provided along the road;
A communication signal detection function for detecting a communication signal superimposed on the visible light;
Based on the communication signal detected by the communication signal detection function, a road edge position information acquisition function for acquiring road edge position information representing a road edge position that is a position of an end portion in the width direction of the road;
The computer realizes a display control function for controlling a display device that displays a separately generated image superimposed on the actual scenery in front of the host vehicle,
In the display control function, a road edge image representing the road edge is generated based on the road edge position information, and the road edge image is superimposed on the road edge position included in the actual scenery ahead of the host vehicle. A driving support program for causing the computer to realize a function to be displayed.
JP2014073304A 2014-03-31 2014-03-31 Drive support system, drive support method and drive support program Pending JP2015194962A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014073304A JP2015194962A (en) 2014-03-31 2014-03-31 Drive support system, drive support method and drive support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014073304A JP2015194962A (en) 2014-03-31 2014-03-31 Drive support system, drive support method and drive support program

Publications (1)

Publication Number Publication Date
JP2015194962A true JP2015194962A (en) 2015-11-05

Family

ID=54433890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014073304A Pending JP2015194962A (en) 2014-03-31 2014-03-31 Drive support system, drive support method and drive support program

Country Status (1)

Country Link
JP (1) JP2015194962A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197961A (en) * 2019-06-04 2020-12-10 株式会社豊田中央研究所 Object detection system and object detection method
JP2021005451A (en) * 2019-06-25 2021-01-14 パナソニックIpマネジメント株式会社 Lighting system
JP2021064178A (en) * 2019-10-15 2021-04-22 株式会社豊田中央研究所 System, line-of-sight guidance device, on-vehicle device, information acquisition method, and computer program
WO2024016733A1 (en) * 2022-07-21 2024-01-25 智道网联科技(北京)有限公司 Vehicle lane change method and apparatus, electronic device and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197961A (en) * 2019-06-04 2020-12-10 株式会社豊田中央研究所 Object detection system and object detection method
JP7334479B2 (en) 2019-06-04 2023-08-29 株式会社豊田中央研究所 Object detection system and object detection method
JP2021005451A (en) * 2019-06-25 2021-01-14 パナソニックIpマネジメント株式会社 Lighting system
JP7426601B2 (en) 2019-06-25 2024-02-02 パナソニックIpマネジメント株式会社 lighting system
JP2021064178A (en) * 2019-10-15 2021-04-22 株式会社豊田中央研究所 System, line-of-sight guidance device, on-vehicle device, information acquisition method, and computer program
JP7127630B2 (en) 2019-10-15 2022-08-30 株式会社豊田中央研究所 System, line-of-sight guidance device, in-vehicle device, information acquisition method, and computer program
WO2024016733A1 (en) * 2022-07-21 2024-01-25 智道网联科技(北京)有限公司 Vehicle lane change method and apparatus, electronic device and storage medium

Similar Documents

Publication Publication Date Title
US11513531B2 (en) Apparatus for providing map
US10479269B2 (en) Lighting apparatus for vehicle and vehicle having the same
KR101908308B1 (en) Lamp for Vehicle
US10889232B2 (en) Vehicle control method that compares a light distribution pattern extracted from an image captured by a camera with a reference light distribution pattern
CN108688556A (en) Motor-vehicle bulb
US20210129862A1 (en) Path providing device and path providing method thereof
JP7052786B2 (en) Display control device and display control program
JP2021505467A (en) Location-based vehicle headlight control
US20200234574A1 (en) Vehicle control device installed in vehicle and vehicle control method
KR101949352B1 (en) Autonomous vehicle and method for operating the same
KR20180026241A (en) User interface apparatus for vehicle and Vehicle
CN103217169A (en) Optimum gaze location on full windscreen display
KR101979276B1 (en) User interface apparatus for vehicle and Vehicle
US11043034B2 (en) Image output device
US11745761B2 (en) Path providing device and path providing method thereof
CN113710530A (en) Method for operating a driver information system in an autonomous vehicle and driver information system
JP7011559B2 (en) Display devices, display control methods, and programs
WO2022009848A1 (en) Host vehicle location estimation device and travel control device
US20210039676A1 (en) Path providing device and path providing method thereof
JP2015194962A (en) Drive support system, drive support method and drive support program
JP2019067018A (en) Display device for vehicle
US20230012932A1 (en) Vehicle control device and control method therefor
JP2022014729A (en) Adverse environment determination device, and adverse environment determination method
JP2020197708A (en) Map system, map generation program, storage medium, vehicle device, and server
US20240003700A1 (en) Route guidance device and route guidance system