JP2018037001A - Vehicle driving assist system - Google Patents

Vehicle driving assist system Download PDF

Info

Publication number
JP2018037001A
JP2018037001A JP2016171774A JP2016171774A JP2018037001A JP 2018037001 A JP2018037001 A JP 2018037001A JP 2016171774 A JP2016171774 A JP 2016171774A JP 2016171774 A JP2016171774 A JP 2016171774A JP 2018037001 A JP2018037001 A JP 2018037001A
Authority
JP
Japan
Prior art keywords
vehicle
information
unit
display
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016171774A
Other languages
Japanese (ja)
Inventor
枝理香 澤田
Erika Sawada
枝理香 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016171774A priority Critical patent/JP2018037001A/en
Publication of JP2018037001A publication Critical patent/JP2018037001A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle driving assist system capable of teaching a piece of information on a position relation between another vehicle or the like and own vehicle to a driver.SOLUTION: A vehicle driving assist system (1) in an embodiment includes: a display unit (8) that displays a piece of information while superimposing on the front view on a front window (32) of the vehicle; an own vehicle prediction part (41) that predicts a travel course of own vehicle; an another vehicle prediction part (42) that predicts a travel course of the other vehicle; and control units (48 and 49) that calculate a piece of information relevant to the position relation between the other vehicle and own vehicle based on the prediction result by the own vehicle prediction part (41) and the prediction result by the other vehicle prediction part (42) and controls the display unit (8) to display the obtained information while superimposing on the front view on a front window (32).SELECTED DRAWING: Figure 1

Description

本発明は、車両用運転支援装置に関する。   The present invention relates to a vehicle driving support apparatus.

特許文献1には、HUD(Head Up Display)によってフロンドウインドウに目標走行経路と実際の車両の走行予定コースとを重畳して表示する構成が記載されている。この構成によれば、運転者に目標走行経路と走行予定コースの関係の認知を容易化できることから、運転者の経験に基づく予測操舵入力が不要となり、運転者に操作簡単な操縦方法を与えることができる。   Patent Document 1 describes a configuration in which a target travel route and an actual planned travel course of a vehicle are superimposed and displayed on a front window by HUD (Head Up Display). According to this configuration, since the driver can easily recognize the relationship between the target travel route and the planned travel course, a predictive steering input based on the driver's experience is not necessary, and the driver can be operated easily. Can do.

特開2007−272350号公報JP 2007-272350 A

上記従来構成の場合、自車両の走行予定コースは分かるが、他車両の走行については何もわからないので、現在時点から数秒ないし数十秒後に、他車両と自車両がどんな位置関係になるのかは、運転手が想像するしかない。例えば高速道路走行中に他車両がレーンチェンジをしてくる場合、その他車両と自車両の位置関係はどんな関係になって、どんな速度差になるのかは、運転手が想像して予測するしかない。運転が得意でない運転者は、上記想像予測が不得意であることから、運転支援によって他車両(例えば歩行者、自転車、バイク等を含む)と自車両の位置関係についての情報を運転者に教示することが要望されている。   In the case of the above conventional configuration, the traveling schedule of the own vehicle is known, but nothing is known about the traveling of the other vehicle, so what is the positional relationship between the other vehicle and the own vehicle several seconds to several tens of seconds after the current time point? The driver can only imagine. For example, when another vehicle makes a lane change while driving on a highway, the driver can only predict what the positional relationship between the other vehicle and the vehicle will be, and what the speed difference will be. . Since the driver who is not good at driving is not good at the above-mentioned imaginary prediction, the driver is informed of the positional relationship between other vehicles (including pedestrians, bicycles, motorcycles, etc.) and the own vehicle by driving support. It is requested to do.

本発明の目的は、他車両等と自車両の位置関係についての情報を運転者に教示することができる車両用運転支援装置を提供することにある。   An object of the present invention is to provide a vehicle driving support device capable of teaching a driver information on the positional relationship between another vehicle and the own vehicle.

請求項1の発明は、車両のフロントウィンドウ(32)に前方の景色に重畳して情報を表示する表示部(8)と、自車両の走行コースを予測する自車両予測部(41)と、他車両の走行コースを予測する他車両予測部(42)と、自車両予測部(41)による予測結果と他車両予測部(42)による予測結果とに基づいて、他車両と自車両の位置関係についての情報を求め、この求めた情報を表示部(8)によりフロントウィンドウ(32)に前方の景色に重畳して表示させる制御部(7)とを備えた車両用運転支援装置(1)である。   The invention of claim 1 includes a display unit (8) that displays information superimposed on a front scene on a front window (32) of the vehicle, a host vehicle prediction unit (41) that predicts a traveling course of the host vehicle, Based on the other vehicle prediction unit (42) that predicts the traveling course of the other vehicle, the prediction result by the own vehicle prediction unit (41), and the prediction result by the other vehicle prediction unit (42), the position of the other vehicle and the own vehicle A vehicle driving support device (1) including a control unit (7) that obtains information about the relationship and displays the obtained information on the front window (32) in a superimposed manner on the front scenery by the display unit (8). It is.

第1実施形態を示す車両用運転支援装置のブロック図The block diagram of the driving assistance device for vehicles which shows a 1st embodiment. HUDの構造を説明する図The figure explaining the structure of HUD 運転支援制御ユニットの制御の内容を示すフローチャートFlow chart showing the control contents of the driving support control unit 現在の風景に重畳して他車両の仮想画像を表示する例を示す図The figure which shows the example which displays the virtual image of another vehicle superimposed on the present scenery 少し過去に遡らせた他車両の仮想画像を表示する例を示す図The figure which shows the example which displays the virtual image of the other vehicle traced back in the past a little 死角にいる子供が飛出す仮想画像を表示する例を示す図The figure which shows the example which displays the virtual image which the child in the blind spot jumps out 駐車位置からもうすぐ発進すると予測された車両の仮想画像を表示する例を示す図The figure which shows the example which displays the virtual image of the vehicle estimated to start from a parking position soon 車両が交差点に到達する頃の予測された信号機の仮想画像を表示する例を示す図(その1)The figure which shows the example which displays the virtual image of the traffic signal estimated when the vehicle arrives at the intersection (the 1) 車両が交差点に到達する頃の予測された信号機の仮想画像を表示する例を示す図(その2)The figure which shows the example which displays the virtual image of the traffic signal predicted when the vehicle reaches the intersection (part 2) 車両が交差点に到達する頃の予測された信号機の仮想画像を表示する例を示す図(その3)The figure which shows the example which displays the virtual image of the traffic signal estimated when the vehicle arrives at the intersection (the 3) 車両が交差点に到達する頃の予測された信号機の仮想画像を表示する例を示す図(その4)The figure which shows the example which displays the virtual image of the traffic signal estimated when the vehicle arrives at the intersection (the 4) 死角にいるバイク等が飛出す仮想画像を表示する例を示す図The figure which shows the example which displays the virtual picture which the motorcycle etc. which is in the blind spot jumps out 渋滞が解消して動き出した他車両の仮想画像を表示する例を示す図The figure which shows the example which displays the virtual image of the other vehicle which began to move after the traffic jam is resolved 第2実施形態を示すものであって、運転支援制御ユニットの制御の内容を示すフローチャートThe flowchart which shows 2nd Embodiment and shows the content of control of a driving assistance control unit.

(第1実施形態)
以下、第1実施形態について、図1ないし図13を参照して説明する。本実施形態の車両用運転支援装置1は、車両に装備されるものであり、図1に示すように、ナビゲーションシステム2と、車両状態検出部3と、自車位置情報検出部4と、周囲状況検出部5と、情報通信部6と、運転支援制御ユニット7と、HUD(Head Up Display)8と、操作入力部9とを備えている。
(First embodiment)
The first embodiment will be described below with reference to FIGS. 1 to 13. A vehicle driving support apparatus 1 according to the present embodiment is mounted on a vehicle. As shown in FIG. 1, a navigation system 2, a vehicle state detection unit 3, a vehicle position information detection unit 4, and the surroundings A situation detection unit 5, an information communication unit 6, a driving support control unit 7, a HUD (Head Up Display) 8, and an operation input unit 9 are provided.

車両状態検出部3は、車両の走行に係る挙動状態を検出するためのセンサ群である。車両状態検出部3は、車速センサ11と、横加速度(横G)センサ12と、前後加速度(前後G)センサ13と、ヨー角速度センサ14と、操舵角センサ15と、操舵トルクセンサ16と、ブレーキ踏力センサ17と、アクセル開度センサ18と、方向指示器スイッチ19等を含む。自車位置情報検出部4は、自車両の現在位置を検出するものであり、GPS受信装置20と、ビーコン受信装置21等を含む。周囲状況検出部5は、自車の周囲の状況や脅威等を検出するものであり、カメラ22と、レーダ23と、日射センサ24と、温度センサ25等を含む。   The vehicle state detection unit 3 is a sensor group for detecting a behavior state related to traveling of the vehicle. The vehicle state detection unit 3 includes a vehicle speed sensor 11, a lateral acceleration (lateral G) sensor 12, a longitudinal acceleration (longitudinal G) sensor 13, a yaw angular velocity sensor 14, a steering angle sensor 15, a steering torque sensor 16, A brake pedal force sensor 17, an accelerator opening sensor 18, a direction indicator switch 19 and the like are included. The own vehicle position information detection unit 4 detects the current position of the own vehicle, and includes a GPS receiving device 20, a beacon receiving device 21, and the like. The surrounding state detection unit 5 detects the surrounding state, threats, and the like of the host vehicle, and includes a camera 22, a radar 23, a solar radiation sensor 24, a temperature sensor 25, and the like.

情報通信部6は、情報センタや路上カメラや交差点の信号機や他車両等からの種々の外部情報を受信するものである。情報通信部6は、情報センタや駐車場管理センタ等と通信するセンタ通信部26と、路上カメラ(例えば防犯カメラ等)や交差点カメラや交差点の信号機等と通信する路車間通信部27と、自車両の周囲に存在する他車両と通信する車々間通信部28等を含む。   The information communication unit 6 receives various external information from an information center, a road camera, a traffic signal at an intersection, other vehicles, and the like. The information communication unit 6 includes a center communication unit 26 that communicates with an information center, a parking lot management center, and the like, a road-to-vehicle communication unit 27 that communicates with road cameras (such as security cameras), intersection cameras, traffic lights at intersections, and the like. An inter-vehicle communication unit 28 that communicates with other vehicles existing around the vehicle is included.

HUD8は、運転支援制御ユニット7から出力された画像情報を表示するものである。HUD8は、表示部を構成している。HUD8は、図2に示すように、車両のフロントウィンドウ32の部位32aを表示画面として、ここに映像を表示する装置である。HUD8は、表示コントローラ33と、映像投射器34と、反射ミラー35、36と、集光レンズ37とを備えている。映像投射器34から投影された映像は、反射ミラー35、36と集光レンズ37を経由してフロントウィンドウ32の部位32aに表示される。   The HUD 8 displays the image information output from the driving support control unit 7. The HUD 8 constitutes a display unit. As shown in FIG. 2, the HUD 8 is a device that displays an image on a portion 32 a of the front window 32 of the vehicle as a display screen. The HUD 8 includes a display controller 33, a video projector 34, reflection mirrors 35 and 36, and a condenser lens 37. The image projected from the image projector 34 is displayed on the part 32 a of the front window 32 via the reflection mirrors 35 and 36 and the condenser lens 37.

ステアリング30を操作して運転中の運転者38は、フロントウィンドウ32の部位32aを通して車両の進行方向の前方を見ている。図2において、位置39は結像位置であり、フロントウィンドウ32の部位32aに表示される映像、すなわちヘッドアップ・ディスプレイ上の映像は、運転者38の前方注視点付近に表示されることになる。さらに、位置40は、車両の前方に設定される仮想的な結像位置である。フロントウィンドウ32の部位32aに表示された映像は、運転者38にとっては、仮想的な結像位置40によって、車両の進行方向の前方の景色(即ち、風景)と重畳して表示されることになる。   A driver 38 who is driving by operating the steering wheel 30 looks through the portion 32a of the front window 32 in the forward direction of the vehicle. In FIG. 2, a position 39 is an imaging position, and an image displayed on the part 32 a of the front window 32, that is, an image on the head-up display is displayed near the driver's 38 front gazing point. . Furthermore, the position 40 is a virtual imaging position set in front of the vehicle. The image displayed on the part 32a of the front window 32 is displayed for the driver 38 so as to be superimposed on the scenery in front of the traveling direction of the vehicle (that is, the scenery) at the virtual imaging position 40. Become.

操作入力部9は、運転者等が手操作するスイッチ群であり、図5に示すように、車両のステアリング30に設けられた回転式の時間コントローラ31、図示しないマウスやタッチパネルやメカスイッチ等を含む。   The operation input unit 9 is a group of switches that are manually operated by a driver or the like. As shown in FIG. 5, a rotary time controller 31 provided on the steering 30 of the vehicle, a mouse, a touch panel, a mechanical switch, and the like (not shown) are provided. Including.

運転支援制御ユニット7は、ナビゲーションシステム2からの情報、検出部3、4、5からの種々の検出信号、情報通信部6からの外部情報、及び、操作入力部9からの操作入力信号等を入力して、必要な情報処理を行って全体の制御を受け持つ機能を有する。運転支援制御ユニット7は、HUD8に表示するための画像情報を生成し、生成した画像情報をHUD8に出力する。   The driving support control unit 7 receives information from the navigation system 2, various detection signals from the detection units 3, 4, and 5, external information from the information communication unit 6, and operation input signals from the operation input unit 9. It has a function to input and perform necessary information processing and take charge of overall control. The driving support control unit 7 generates image information to be displayed on the HUD 8, and outputs the generated image information to the HUD 8.

また、運転支援制御ユニット7は、図1に示すように、自車両予測部41と、他車両予測部42と、死角飛出予測部43と、駐車場予測部44と、信号機予測部45と、交差点予測部46と、渋滞予測部47と、表示画像生成部48と、表示制御部49とを有する。   In addition, as shown in FIG. 1, the driving support control unit 7 includes a host vehicle prediction unit 41, another vehicle prediction unit 42, a blind spot jump prediction unit 43, a parking lot prediction unit 44, and a traffic light prediction unit 45. , An intersection prediction unit 46, a traffic jam prediction unit 47, a display image generation unit 48, and a display control unit 49.

自車両予測部41は、ナビゲーションシステム2、車両状態検出部3、及び、自車位置情報検出部4からの種々の検出信号及び種々の情報、例えば現在位置、車速、進行方向、走行経路等の情報に基づいて、自車両の走行軌跡、即ち、走行コースを予測し、予測した走行軌跡情報(即ち、予測結果)を表示画像生成部48へ出力する。   The own vehicle prediction unit 41 includes various detection signals and various information from the navigation system 2, the vehicle state detection unit 3, and the own vehicle position information detection unit 4, such as a current position, a vehicle speed, a traveling direction, and a travel route. Based on the information, the traveling locus of the host vehicle, that is, the traveling course is predicted, and the predicted traveling locus information (that is, the prediction result) is output to the display image generation unit 48.

他車両予測部42は、周囲状況検出部5や、情報通信部6のセンタ通信部26、路車間通信部27及び車々間通信部28等により受信した種々の情報、例えば他車両の現在位置、他車両の車速、他車両の進行方向、他車両の走行経路等の情報に基づいて、他車両の走行軌跡、即ち、走行コースを予測し、予測した他車両の走行軌跡情報(即ち、予測結果)を表示画像生成部48へ出力する。   The other vehicle prediction unit 42 is a variety of information received by the surrounding state detection unit 5, the center communication unit 26 of the information communication unit 6, the road-to-vehicle communication unit 27, the inter-vehicle communication unit 28, etc. Based on information such as the vehicle speed of the vehicle, the traveling direction of the other vehicle, the travel route of the other vehicle, etc., the travel locus of the other vehicle, that is, the travel course is predicted, and the predicted travel locus information of the other vehicle (ie, the prediction result). Is output to the display image generation unit 48.

死角飛出予測部43は、周囲状況検出部5や、情報通信部6のセンタ通信部26、路車間通信部27及び車々間通信部28等により受信した種々の情報、例えば路上カメラや交差点カメラ等で撮影した画像や、他車両の車載カメラで撮影した画像等を画像認識することにより、建物や駐車中の車両等の死角にいる対象物である例えば子供、自転車、車両等の飛出しを予測し、予測した子供、自転車、車両等の飛出しの予測結果の情報を表示画像生成部48へ出力する。尚、死角にいる子供、自転車、車両が有する通信端末(例えばスマホや車載通信装置等)から位置情報を、情報通信部6を介して受信することにより、死角にいる子供、自転車、車両等の飛出しを予測するように構成しても良い。   The blind spot projection prediction unit 43 is a variety of information received by the surrounding state detection unit 5, the center communication unit 26 of the information communication unit 6, the road-to-vehicle communication unit 27, the vehicle-to-vehicle communication unit 28, etc., such as a road camera and an intersection camera. Recognize images taken with the camera, images taken with an in-vehicle camera of other vehicles, etc., to predict the jumping out of objects such as children, bicycles, vehicles, etc. that are in blind spots such as buildings and parked vehicles Then, information on the predicted result of the predicted jump out of the child, bicycle, vehicle, etc. is output to the display image generation unit 48. In addition, the position information is received via the information communication unit 6 from a communication terminal (for example, a smartphone or an in-vehicle communication device) of a child, bicycle, or vehicle in the blind spot, so that the child, bicycle, vehicle, or the like in the blind spot is received. You may comprise so that a jump may be estimated.

駐車場予測部44は、センタ通信部26により受信した種々の情報、例えば駐車場管理センタから受信した情報、具体的には、車両の駐車時間や過去の行動パターン等から駐車場をもうすぐ出ると予測できる車両の駐車位置や予測時間等の予測結果の情報を表示画像生成部48へ出力する。   When the parking lot prediction unit 44 immediately leaves the parking lot based on various information received by the center communication unit 26, for example, information received from the parking lot management center, specifically, the parking time of the vehicle, past behavior patterns, etc. Information on prediction results such as a predicted parking position of the vehicle and prediction time is output to the display image generation unit 48.

信号機予測部45は、路車間通信部27により受信した種々の情報、例えば交差点の信号機から受信した情報、具体的には、信号機の色の情報及び信号機の色が変化するまでの時間の情報等に基づいて、車両が交差点に到達する頃に、信号機の色が変化するか否かを予測し、予測結果の情報を表示画像生成部48へ出力する。   The traffic signal predicting unit 45 is a variety of information received by the road-to-vehicle communication unit 27, for example, information received from a traffic signal at an intersection, specifically, information on the color of the traffic light and information on the time until the color of the traffic signal changes. Based on the above, it is predicted whether or not the color of the traffic light will change when the vehicle reaches the intersection, and information on the prediction result is output to the display image generation unit 48.

交差点予測部46は、路車間通信部27及び車々間通信部28により受信した種々の情報、例えば交差点カメラで撮影した画像の情報や、交差点を走行する車両の車載カメラで撮影した画像の情報等を画像認識することにより、交差点を走行する車両等の死角にいるバイク等の飛出しを予測し、予測したバイク等の飛出しの予測結果の情報を表示画像生成部48へ出力する。   The intersection prediction unit 46 receives various information received by the road-to-vehicle communication unit 27 and the vehicle-to-vehicle communication unit 28, such as information on an image captured by an intersection camera, information on an image captured by an in-vehicle camera of a vehicle traveling at the intersection, and the like. By recognizing the image, the flying of a motorcycle or the like in a blind spot such as a vehicle traveling at an intersection is predicted, and information on the predicted prediction result of the flying of the motorcycle or the like is output to the display image generation unit 48.

渋滞予測部47は、センタ通信部26、路車間通信部27、及び、車々間通信部28により受信した種々の情報、例えば渋滞情報、その渋滞が解消する地点の情報、及び、その渋滞が解消するまでに要する時間の情報等に基づいて、渋滞の解消を予測し、予測した渋滞の解消の予測結果の情報を表示画像生成部48へ出力する。   The traffic jam prediction unit 47 receives various information received by the center communication unit 26, the road-to-vehicle communication unit 27, and the vehicle-to-vehicle communication unit 28, for example, traffic jam information, information on a point where the traffic jam is resolved, and the traffic jam is resolved. Based on the information on the time required until the time is reached, the cancellation of the traffic jam is predicted, and information on the predicted prediction result of the cancellation of the traffic jam is output to the display image generation unit 48.

表示画像生成部48は、自車両予測部41、他車両予測部42、死角飛出予測部43、駐車場予測部44、信号機予測部45、交差点予測部46、及び、渋滞予測部47からの情報に基づいて、HUD8によって表示するための画像情報を生成し、生成した画像情報を表示制御部49へ出力する。表示制御部49は、表示画像生成部48からの画像情報をHUD8へ送信し、HUD8により上記画像情報をフロントウィンドウ32の部位32aに表示する。表示画像生成部48及び表示制御部49は、制御部としての機能を有する。   The display image generation unit 48 includes the own vehicle prediction unit 41, the other vehicle prediction unit 42, the blind spot projection prediction unit 43, the parking lot prediction unit 44, the traffic signal prediction unit 45, the intersection prediction unit 46, and the traffic jam prediction unit 47. Based on the information, image information to be displayed by the HUD 8 is generated, and the generated image information is output to the display control unit 49. The display control unit 49 transmits the image information from the display image generation unit 48 to the HUD 8, and the HUD 8 displays the image information on the part 32a of the front window 32. The display image generation unit 48 and the display control unit 49 have a function as a control unit.

次に、上記構成の動作について、図3ないし図13を参照して説明する。図3のフローチャートは、運転支援制御ユニット7の制御の内容を示す。まず、図3のステップS10においては、運転支援制御ユニット7は、種々の車載センサによる検出結果、即ち、車両状態検出部3及び自車位置情報検出部4からの種々の検出信号及び種々の情報(例えば現在位置、車速、進行方向、走行経路等の検出信号及び情報)を取得する。ここで、運転支援制御ユニット7は、取得した情報に基づいて、図4に示すように、高速道路において、他車両51が合流してくるシーンを検出したとすると、ステップS20へ進み、車外通信を実行し、即ち、上記他車両51と車々間通信部28を介して車々間通信し、他車両51の走行軌跡を予測するための情報(例えば他車両の現在位置、他車両の車速、他車両の進行方向、他車両の走行経路等の情報)を取得する。   Next, the operation of the above configuration will be described with reference to FIGS. The flowchart of FIG. 3 shows the content of control of the driving assistance control unit 7. First, in step S10 of FIG. 3, the driving support control unit 7 detects the detection results by various in-vehicle sensors, that is, various detection signals and various information from the vehicle state detection unit 3 and the vehicle position information detection unit 4. (For example, detection signals and information such as current position, vehicle speed, traveling direction, travel route, etc.) are acquired. Here, if the driving support control unit 7 detects a scene where another vehicle 51 joins on the highway based on the acquired information, as shown in FIG. In other words, information for inter-vehicle communication with the other vehicle 51 via the inter-vehicle communication unit 28 to predict the travel locus of the other vehicle 51 (for example, the current position of the other vehicle, the vehicle speed of the other vehicle, Information such as the traveling direction and the traveling route of other vehicles).

続いて、ステップS30へ進み、運転支援制御ユニット7の自車両予測部41及び他車両予測部42は、上記取得した情報に基づいて、自車両の走行軌跡と他車両51の走行軌跡を予測する。そして、運転支援制御ユニット7の表示画像生成部48は、自車両と他車両51の速度ベクトルを求め、このままの状態で両者が走行した場合において、他車両51の合流完了時にフロントウィンドウ32に見えると予想される風景の画像、具体的には、図4中の他車両51の仮想画像52を計算して生成する(即ち、距離、相対速度等を演算する)。   Then, it progresses to step S30 and the own vehicle prediction part 41 and the other vehicle prediction part 42 of the driving assistance control unit 7 predict the traveling locus of the own vehicle and the traveling locus of the other vehicle 51 based on the acquired information. . Then, the display image generation unit 48 of the driving support control unit 7 obtains the speed vectors of the host vehicle and the other vehicle 51, and when both travel in this state, it can be seen on the front window 32 when the joining of the other vehicle 51 is completed. 4 is calculated and generated (ie, a distance, a relative speed, etc. are calculated).

次いで、ステップS40へ進み、運転支援制御ユニット7は、上記ステップS30における計算結果を表示する必要があるか否か(即ち、通知するものがあるか否か)を判断する。この場合、他車両51が自車両に全く近付かないときには、表示する必要が無いことから、「NO」へ進み、ステップS10へ戻る。   Next, the process proceeds to step S40, and the driving support control unit 7 determines whether it is necessary to display the calculation result in step S30 (that is, whether there is something to be notified). In this case, when the other vehicle 51 does not approach the host vehicle at all, it is not necessary to display, so the process proceeds to “NO” and returns to Step S10.

上記ステップS40にて、表示する必要があるときには(YES)、ステップS50へ進み、運転支援制御ユニット7は、上記ステップS30における計算結果(即ち、仮想画像52)をHUD8へ出力し、HUD8によってフロントウィンドウ32に表示する。これにより、図4に示すように、現在の風景に重畳して他車両51の仮想画像52が表示される。この仮想画像52は、例えばワイヤフレーム等で描画されたり、薄い画像で表示されたりすることにより、実物ではなく、仮想画像であることがわかる表示となっている。また、仮想画像52と実物の他車両51との間に、両者を明確に関係付けるための補助マーカ(例えば両者を繋ぐ線、両者の間に配置された複数の小さい三角形のマーク、両者の間に配置された複数の小さい丸のマーク等)を表示するように構成することが好ましい。尚、仮想画像52の表示は、実物の他車両51が仮想画像52の表示位置に近付いたときに、消去される構成となっている。この後は、ステップS10へ戻り、上述した処理を繰り返し実行する。   When it is necessary to display in step S40 (YES), the process proceeds to step S50, and the driving support control unit 7 outputs the calculation result (that is, the virtual image 52) in step S30 to the HUD 8, and the front of the HUD 8 It is displayed in the window 32. Thereby, as shown in FIG. 4, the virtual image 52 of the other vehicle 51 is displayed superimposed on the current landscape. The virtual image 52 is displayed, for example, as a virtual image rather than a real one by being drawn with a wire frame or the like, or displayed as a thin image. Also, an auxiliary marker (for example, a line connecting the two, a plurality of small triangular marks arranged between the two, between the virtual image 52 and the actual other vehicle 51, between the two, It is preferable that a plurality of small circle marks, etc. arranged on the screen be displayed. The display of the virtual image 52 is configured to be deleted when the other vehicle 51 of the real object approaches the display position of the virtual image 52. Thereafter, the process returns to step S10, and the above-described processing is repeatedly executed.

次に、図4に示す表示状態において、ステアリング30に設けられた時間コントローラ31を運転者が回転操作すると、図5に示すように、時間コントローラ31の回転操作量に応じて、仮想画像52の表示位置を、実際の他車両51の位置に近付けること(即ち、少し過去に遡らせること)ができるように構成されている。   Next, in the display state shown in FIG. 4, when the driver rotates the time controller 31 provided on the steering wheel 30, the virtual image 52 is displayed according to the amount of rotation operation of the time controller 31 as shown in FIG. 5. The display position is configured to be close to the actual position of the other vehicle 51 (that is, to be traced back slightly in the past).

また、ステップS30において、運転支援制御ユニット7の死角飛出予測部43が、取得した種々の情報、例えば路上カメラや交差点カメラ等で撮影した画像や、他車両の車載カメラで撮影した画像等を画像認識することにより、建物や駐車中の車両等の死角にいる対象物、例えば子供、自転車、車両等の飛出しを予測した場合について説明する。この場合、図6に示すように、運転支援制御ユニット7の表示画像生成部48は、上記予測した子供、自転車、車両等の飛出しの情報に基づいて、子供、自転車、車両等の飛出す画像を生成し、表示制御部49を介してHUD8へ出力する。これにより、図6に示すように、実際の風景に重畳して、例えば子供が飛出す仮想画像53がフロントウィンドウ32に表示される。   Further, in step S30, the blind spot jump prediction unit 43 of the driving support control unit 7 obtains various information, for example, an image photographed by a road camera or an intersection camera, an image photographed by an in-vehicle camera of another vehicle, and the like. A case will be described in which an object such as a child, a bicycle, or a vehicle in a blind spot such as a building or a parked vehicle is predicted by image recognition. In this case, as shown in FIG. 6, the display image generation unit 48 of the driving support control unit 7 jumps out the child, bicycle, vehicle, etc. based on the predicted information about the jump out of the child, bicycle, vehicle, etc. An image is generated and output to the HUD 8 via the display control unit 49. As a result, as shown in FIG. 6, for example, a virtual image 53 in which a child jumps out is displayed on the front window 32 so as to be superimposed on the actual landscape.

次に、ステップS30において、運転支援制御ユニット7の駐車場予測部44が、取得した種々の情報、例えば駐車場管理センタから受信した情報に基づいて駐車場をもうすぐ出ると予測できる車両があった場合について説明する。この場合、図7に示すように、運転支援制御ユニット7の表示画像生成部48は、上記予測した車両51について、駐車位置から発進する車両の仮想画像54を生成し、表示制御部49を介してHUD8へ出力する。これにより、図7に示すように、実際の駐車場の風景に重畳して、駐車位置から発進する車両の仮想画像54がフロントウィンドウ32に表示される。   Next, in step S30, there was a vehicle that can be predicted that the parking lot prediction unit 44 of the driving support control unit 7 will soon leave the parking lot based on various information acquired, for example, information received from the parking lot management center. The case will be described. In this case, as shown in FIG. 7, the display image generating unit 48 of the driving support control unit 7 generates a virtual image 54 of the vehicle starting from the parking position for the predicted vehicle 51 and via the display control unit 49. To output to HUD8. Thereby, as shown in FIG. 7, a virtual image 54 of the vehicle starting from the parking position is displayed on the front window 32 so as to be superimposed on the actual parking lot landscape.

尚、この図7に示す表示状態の場合も、ステアリング30に設けられた時間コントローラ31を運転者が回転操作すると、時間コントローラ31の回転操作量に応じて、仮想画像54の表示位置を、実際の他車両51の位置に近付けること(即ち、少し過去に遡らせること)ができるように構成されている。   Even in the display state shown in FIG. 7, when the driver rotates the time controller 31 provided on the steering wheel 30, the display position of the virtual image 54 is actually changed according to the rotation operation amount of the time controller 31. It is comprised so that it can approach the position of the other vehicle 51 (namely, it can go back in the past a little).

また、ステップS30において、取得した種々の情報の中に、例えば交差点の信号機から受信した情報、具体的には、信号機の色の情報及び信号機の色が変化するまでの時間の情報があった場合、運転支援制御ユニット7の信号機予測部45は、上記信号機の色の情報及び信号機の色が変化するまでの時間の情報等に基づいて、車両が交差点に到達する頃に、信号機の色が変化するか否かを予測し、予測結果を表示画像生成部48へ送信する。そして、図8に示すように、表示画像生成部48は、上記予測結果に基づいて、車両が交差点に到達する頃の信号機の仮想画像55を生成し、表示制御部49を介してHUD8へ出力する。これにより、図8に示すように、実際の信号機56の風景に重畳して信号機の仮想画像55がフロントウィンドウ32に表示される。   Further, in step S30, in the acquired various information, for example, there is information received from a traffic light at an intersection, specifically, information on the color of the traffic light and information on the time until the color of the traffic light changes. The traffic light predicting unit 45 of the driving support control unit 7 changes the color of the traffic light when the vehicle reaches the intersection based on the information on the color of the traffic light and the information on the time until the color of the traffic light changes. Whether to do so is predicted, and the prediction result is transmitted to the display image generation unit 48. Then, as shown in FIG. 8, the display image generation unit 48 generates a virtual image 55 of a traffic light when the vehicle reaches the intersection based on the prediction result, and outputs the virtual image 55 to the HUD 8 via the display control unit 49. To do. Thereby, as shown in FIG. 8, a virtual image 55 of the traffic signal is displayed on the front window 32 so as to be superimposed on the actual scene of the traffic signal 56.

また、信号機が複数設置されている交差点の場合、仮想画像55が対応する信号機が良くわからない場合がある。このような場合には、図9に示すように、仮想画像55と対応する実物の信号機56との間に、両者を明確に関係付けるための補助マーカとして例えば両者を繋ぐ線57を表示するように構成することが好ましい。   Further, in the case of an intersection where a plurality of traffic lights are installed, there may be a case where the traffic lights corresponding to the virtual image 55 are not well understood. In such a case, as shown in FIG. 9, for example, a line 57 connecting the two is displayed between the virtual image 55 and the corresponding real traffic light 56 as an auxiliary marker for clearly relating the two. It is preferable to configure.

また、補助マーカとしては、上記線56に限られるものではなく、図10に示すように、例えば小さい逆三角形のマーク58を、仮想画像55の近くに、及び、仮想画像55と対応する実物の信号機56の近くにそれぞれ表示するように構成しても良い。更に、図11に示すように、上記マーク57の近傍に、何秒後の信号機の画像であるかを示す秒数(即ち、□□s)を表示するように構成することが好ましい。   Further, the auxiliary marker is not limited to the above-described line 56, and as shown in FIG. 10, for example, a small inverted triangle mark 58 is placed near the virtual image 55 and the real image corresponding to the virtual image 55. You may comprise so that it may each display near the traffic light 56. Further, as shown in FIG. 11, it is preferable that the number of seconds (that is, □□ s) indicating how many seconds later the image of the traffic light is displayed in the vicinity of the mark 57.

尚、図8、9、10、11に示す表示状態の場合も、ステアリング30に設けられた時間コントローラ31を運転者が回転操作すると、時間コントローラ31の回転操作量に応じて、仮想画像55の表示位置を、実際の信号機56の位置に近付けること(即ち、少し過去に遡らせること)ができるように構成されている。   8, 9, 10, and 11, when the driver rotates the time controller 31 provided on the steering wheel 30, the virtual image 55 is displayed according to the rotation operation amount of the time controller 31. The display position is configured to be close to the actual position of the traffic light 56 (that is, to be traced back to the past).

また、ステップS30において、運転支援制御ユニット7の交差点予測部46が、取得した種々の情報、例えば交差点カメラで撮影した画像の情報や、交差点を走行する車両の車載カメラで撮影した画像の情報等を画像認識することにより、交差点を走行する車両等の死角にいるバイク等の飛出しを予測した場合について説明する。この場合、図12に示すように、運転支援制御ユニット7の表示画像生成部48は、上記予測したバイク等の飛出しの情報に基づいて、バイク等が飛出す仮想画像59を生成し、表示制御部49を介してHUD8へ出力する。これにより、図12に示すように、実際の交差点を走行する車両60の風景に重畳して、例えばバイクが飛出す仮想画像59がフロントウィンドウ32に表示される。   Further, in step S30, the intersection prediction unit 46 of the driving support control unit 7 acquires various information, for example, information on an image captured by an intersection camera, information on an image captured by an in-vehicle camera of a vehicle traveling at the intersection, and the like. A case will be described in which jumping of a motorcycle or the like in a blind spot of a vehicle or the like traveling at an intersection is predicted by recognizing the image. In this case, as shown in FIG. 12, the display image generation unit 48 of the driving support control unit 7 generates and displays a virtual image 59 from which the motorcycle etc. jumps out based on the predicted information about the jump out of the motorcycle etc. The data is output to the HUD 8 via the control unit 49. Thereby, as shown in FIG. 12, a virtual image 59 in which, for example, a motorcycle jumps is displayed on the front window 32 so as to be superimposed on the scenery of the vehicle 60 traveling at an actual intersection.

尚、図12に示す表示状態の場合も、ステアリング30に設けられた時間コントローラ31を運転者が回転操作すると、時間コントローラ31の回転操作量に応じて、仮想画像59の表示位置を、実際の車両60の位置に近付けること(即ち、少し過去に遡らせること)ができるように構成されている。   Even in the display state shown in FIG. 12, when the driver rotates the time controller 31 provided on the steering wheel 30, the display position of the virtual image 59 is changed according to the amount of rotation operation of the time controller 31. It is configured to be able to approach the position of the vehicle 60 (that is, to go back to the past a little).

また、ステップS30において、運転支援制御ユニット7の渋滞予測部47が、取得した種々の情報、例えば渋滞情報、その渋滞が解消する地点の情報、及び、その渋滞が解消するまでに要する時間の情報等に基づいて、渋滞の解消を予測した場合について説明する。この場合、図13に示すように、運転支援制御ユニット7の表示画像生成部48は、予測した渋滞の解消の情報に基づいて、渋滞が解消して動き出した他車両の仮想画像61を生成し、生成した仮想画像61の情報を表示制御部49を介してHUD8へ出力する。これにより、図13に示すように、実際の渋滞中の車両62の風景に重畳して、渋滞が解消して動き出した他車両の仮想画像61がフロントウィンドウ32に表示される。この場合、補助マーカとして、例えば逆三角形のマーク58を表示すると共に、渋滞が解消するまでに要する時間(例えば□□m)を上記マーク58の近傍に表示するように構成することが好ましい。また、補助マーカとして、逆三角形のマーク58の代わりに、線57を表示するように構成しても良い。   In step S30, the traffic jam prediction unit 47 of the driving support control unit 7 acquires various information, for example, traffic jam information, information on a point where the traffic jam is resolved, and information on the time required for the traffic jam to be resolved. The case where the cancellation of the traffic jam is predicted based on the above will be described. In this case, as shown in FIG. 13, the display image generation unit 48 of the driving support control unit 7 generates a virtual image 61 of the other vehicle that has started moving after the congestion is canceled based on the predicted information on the cancellation of the congestion. Then, the information of the generated virtual image 61 is output to the HUD 8 via the display control unit 49. As a result, as shown in FIG. 13, a virtual image 61 of the other vehicle that has started moving after the congestion is canceled is displayed on the front window 32 so as to be superimposed on the scenery of the vehicle 62 in the actual traffic jam. In this case, as an auxiliary marker, for example, an inverted triangular mark 58 is preferably displayed, and a time (for example, □□ m) required until the congestion is eliminated is preferably displayed in the vicinity of the mark 58. Further, as an auxiliary marker, a line 57 may be displayed instead of the inverted triangular mark 58.

上記した構成の本実施形態においては、車両のフロントウィンドウ32に前方の景色に重畳して情報を表示するHUD8と、自車両の走行コースを予測する自車両予測部41と、他車両の走行コースを予測する他車両予測部42とを備え、自車両予測部41による予測結果と他車両予測部42による予測結果とに基づいて、他車両と自車両の位置関係についての情報を求め、この求めた情報をHUD8によりフロントウィンドウ32に前方の景色に重畳して表示させるように構成した。この構成によれば、他車両と自車両の位置関係についての情報を運転者に教示することが可能になる。これにより、例えば高速道路走行中にレーンチェンジをしてくる他車両があったような場合に、自車両がこのまま走り続けると、運転者が目にする光景はこんなふうになるということが、即ち、他車両と自車両の位置関係がどのようになるかが、容易にわかる。   In this embodiment having the above-described configuration, the HUD 8 that displays information superimposed on the front scenery on the front window 32 of the vehicle, the own vehicle prediction unit 41 that predicts the traveling course of the own vehicle, and the traveling course of other vehicles The other vehicle prediction unit 42 for predicting the vehicle information is obtained, and information on the positional relationship between the other vehicle and the own vehicle is obtained based on the prediction result by the own vehicle prediction unit 41 and the prediction result by the other vehicle prediction unit 42. The HUD 8 is configured to display the information superimposed on the front window 32 on the front window 32. According to this configuration, it is possible to teach the driver information about the positional relationship between the other vehicle and the host vehicle. Thus, for example, when there is another vehicle that changes lanes while driving on an expressway, if the vehicle continues to run as it is, the sight seen by the driver will be like this: It is easy to see how the positional relationship between the vehicle and the host vehicle is.

また、上記実施形態では、他車両と自車両の位置関係についての情報をHUD8によりフロントウィンドウ32に表示させるときに、時間的に少し遡って表示可能なように構成したので、他車両と自車両の位置関係について、時系列的な変化を容易に認識することができる。   Further, in the above embodiment, when the information about the positional relationship between the other vehicle and the host vehicle is displayed on the front window 32 by the HUD 8, it is configured so that it can be displayed a little later in time. With respect to the positional relationship, time-series changes can be easily recognized.

また、上記実施形態では、建物や駐車中の車両の死角にいる対象物の飛出しを予測する死角飛出予測部43を備え、対象物の飛出しの予測結果の情報をHUD8によりフロントウィンドウ32に前方の景色に重畳して表示させるように構成したので、運転者は、対象物例えば子供等の飛出しを容易に認識できることから、対処可能となり、安全性を向上できる。   Moreover, in the said embodiment, the blind spot prediction part 43 which estimates the jumping out of the target object in the blind spot of a building or a parked vehicle is provided, and information on the prediction result of the jumping out of the object is displayed on the front window 32 by the HUD 8. Since the driver can easily recognize the jump of an object such as a child, the driver can deal with it and improve safety.

駐車場をもうすぐ出る車両を予測する駐車場予測部44を備え、駐車場をもうすぐ出る車両の予測結果の情報をHUD8によりフロントウィンドウ32に前方の景色に重畳して表示させるように構成したので、運転者は、駐車場の空き場所を容易に認識することができる。   Since it has a parking lot prediction unit 44 that predicts a vehicle that will soon leave the parking lot, and is configured to display the information on the prediction result of the vehicle that will soon leave the parking lot on the front window 32 by the HUD 8 so as to be superimposed on the front view. The driver can easily recognize an empty space in the parking lot.

また、上記実施形態では、車両が交差点に到達する頃に信号機の色が変化することを予測する信号機予測部45を備え、車両が交差点に到達する頃の信号機の色の予測結果の情報をHUD8によりフロントウィンドウ32に前方の景色に重畳して表示させるように構成したので、運転者は、車両が交差点に到達する頃の信号機の色がわかるから、それに対応する運転を実行することができる。   Moreover, in the said embodiment, the traffic light prediction part 45 which estimates that the color of a traffic light changes when a vehicle arrives at an intersection is provided, and the information of the prediction result of the color of the traffic light when a vehicle arrives at an intersection is HUD8. Thus, the driver can know the color of the traffic light when the vehicle reaches the intersection, so that the driver can execute the corresponding driving.

(第2実施形態)
図14は、第2実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第1実施形態では、仮想画像52、53、54、55、59、61を表示する対象物を自動的に選択するように構成したが、これに代えて、第2実施形態では、仮想画像を表示する対象物、即ち、少し将来の仮想画像を見たい対象物をユーザ(例えば運転者や同乗者等)が手動的に選択可能なように構成した。
(Second Embodiment)
FIG. 14 shows a second embodiment. In addition, the same code | symbol is attached | subjected to the same structure as 1st Embodiment. In the first embodiment, the object for displaying the virtual images 52, 53, 54, 55, 59, and 61 is automatically selected. Instead, in the second embodiment, the virtual image is displayed as a virtual object. An object to be displayed, that is, an object for which a user wants to see a little virtual image in the future can be manually selected by a user (for example, a driver or a passenger).

具体的には、図14のステップS110においては、ユーザが、仮想画像を表示させたい対象物例えば車両を選択する。この場合、ユーザは、操作入力部9のマウスやタッチパネル等を使用することにより、仮想画像を表示させたい車両を選択する。この後、ステップS10、S20、S30、S50の各処理は、第1実施形態と同様にして実行する。上記ステップS50にてHUD8による表示処理を実行した後は、ステップS120へ進み、ユーザが終了操作を行なったか否かを判断する。ここで、終了操作を行なわれなかった場合(NO)、ステップS110へ戻り、上述した各処理を繰り返し実行する。また、上記ステップS120において、終了操作が行なわれた場合、「YES」へ進み、本制御を終了する。   Specifically, in step S110 of FIG. 14, the user selects an object for which a virtual image is to be displayed, for example, a vehicle. In this case, the user selects a vehicle on which a virtual image is to be displayed by using the mouse or the touch panel of the operation input unit 9. Thereafter, the processes in steps S10, S20, S30, and S50 are executed in the same manner as in the first embodiment. After the display process by the HUD 8 is executed in step S50, the process proceeds to step S120, and it is determined whether or not the user has performed an end operation. If the end operation has not been performed (NO), the process returns to step S110, and the above-described processes are repeatedly executed. If an end operation is performed in step S120, the process proceeds to “YES” and the present control ends.

尚、上述した以外の第2実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第2実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。特に、第2実施形態によれば、仮想画像を表示する対象物、即ち、少し将来の仮想画像を見たい対象物を、運転者や同乗者等が手動的に選択できるので、運転者等にとって不要な(即ち、的外れな)仮想画像が表示されることがなくなるから、信頼性が高くなり、使い勝手が良くなる。   The configurations of the second embodiment other than those described above are the same as the configurations of the first embodiment. Therefore, in the second embodiment, substantially the same operational effects as in the first embodiment can be obtained. In particular, according to the second embodiment, a driver or a passenger can manually select an object on which a virtual image is displayed, that is, an object on which a virtual image is to be viewed in the future. Since unnecessary (that is, inappropriate) virtual images are not displayed, reliability is improved and usability is improved.

本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。   Although the present disclosure has been described with reference to the embodiments, it is understood that the present disclosure is not limited to the embodiments and structures. The present disclosure includes various modifications and modifications within the equivalent range. In addition, various combinations and forms, as well as other combinations and forms including only one element, more or less, are within the scope and spirit of the present disclosure.

図面中、1は車両用運転支援装置、2はナビゲーションシステム、3は車両状態検出部、4は自車位置情報検出部、5は周囲状況検出部、6は情報通信部、7は運転支援制御ユニット、8はHUD、9は操作入力部、26は情報通信部、27は路車間通信部、28は車々間通信部、30はステアリング、31は時間コントローラ、32はフロントウィンドウ、38は運転者、41は自車両予測部、42は他車両予測部、43は死角飛出予測部、44は駐車場予測部、45は信号機予測部、46は交差点予測部、47は渋滞予測部、48は表示画像生成部、49は表示制御部、51は他車両、52は仮想画像、53は仮想画像、54は仮想画像、55は仮想画像、56は信号機、57は線、58はマーク、59は仮想画像、60は車両、61は仮想画像、62は車両である。
In the drawings, 1 is a vehicle driving support device, 2 is a navigation system, 3 is a vehicle state detection unit, 4 is a vehicle position information detection unit, 5 is an ambient condition detection unit, 6 is an information communication unit, and 7 is driving support control. Unit, 8 HUD, 9 operation input unit, 26 information communication unit, 27 road-to-vehicle communication unit, 28 vehicle-to-vehicle communication unit, 30 steering, 31 time controller, 32 front window, 38 driver 41 is an own vehicle prediction unit, 42 is an other vehicle prediction unit, 43 is a blind spot projection prediction unit, 44 is a parking lot prediction unit, 45 is a traffic light prediction unit, 46 is an intersection prediction unit, 47 is a traffic jam prediction unit, and 48 is a display Image generation unit 49, display control unit 51, other vehicle, 52 virtual image, 53 virtual image, 54 virtual image, 55 virtual image, 56 traffic light, 57 line, 58 mark, 59 virtual Image, 60 is vehicle, 61 is Virtual image, 62 is a vehicle.

Claims (5)

車両のフロントウィンドウ(32)に前方の景色に重畳して情報を表示する表示部(8)と、
自車両の走行コースを予測する自車両予測部(41)と、
他車両の走行コースを予測する他車両予測部(42)と、
前記自車両予測部(41)による予測結果と前記他車両予測部(42)による予測結果とに基づいて、他車両と自車両の位置関係についての情報を求め、この求めた情報を前記表示部(8)により前記フロントウィンドウ(32)に前方の景色に重畳して表示させる制御部(48、49)と、
を備えた車両用運転支援装置。
A display unit (8) for displaying information superimposed on the front scenery on the front window (32) of the vehicle;
A host vehicle prediction unit (41) for predicting a traveling course of the host vehicle;
Another vehicle prediction unit (42) for predicting the traveling course of the other vehicle;
Based on the prediction result by the own vehicle prediction unit (41) and the prediction result by the other vehicle prediction unit (42), information on the positional relationship between the other vehicle and the own vehicle is obtained, and the obtained information is obtained by the display unit. A control unit (48, 49) which displays the front window (32) in a superimposed manner on the front scenery according to (8);
A vehicle driving support apparatus comprising:
前記制御部(48、49)は、他車両と自車両の位置関係についての情報を前記表示部(8)により前記フロントウィンドウ(32)に表示させるときに、時間的に少し遡って表示可能なように構成されている請求項1記載の車両用運転支援装置。   The control unit (48, 49) can display the information about the positional relationship between the other vehicle and the host vehicle on the front window (32) by the display unit (8) a little later in time. The vehicle driving support device according to claim 1, configured as described above. 建物や駐車中の車両の死角にいる対象物の飛出しを予測する死角飛出予測部(43)を備え、
前記制御部(48、49)は、前記対象物の飛出しの予測結果の情報を前記表示部(8)により前記フロントウィンドウ(32)に前方の景色に重畳して表示させるように構成されている請求項1または2記載の車両用運転支援装置。
A blind spot projection prediction unit (43) for predicting the launch of an object in the blind spot of a building or a parked vehicle,
The control unit (48, 49) is configured to cause the display unit (8) to display the information on the predicted result of jumping out of the target object on the front window (32) so as to be superimposed on the front scenery. The vehicle driving support device according to claim 1 or 2.
駐車場をもうすぐ出る車両を予測する駐車場予測部(44)を備え、
前記制御部(48、49)は、前記駐車場をもうすぐ出る車両の予測結果の情報を前記表示部(8)により前記フロントウィンドウ(32)に前方の景色に重畳して表示させるように構成されている請求項1から3のいずれか一項記載の車両用運転支援装置。
A parking lot prediction unit (44) for predicting a vehicle that will soon leave the parking lot,
The control unit (48, 49) is configured to cause the display unit (8) to display the information on the prediction result of the vehicle that is about to leave the parking lot on the front window (32) so as to be superimposed on the scenery in front. The vehicle driving support device according to any one of claims 1 to 3.
車両が交差点に到達する頃に信号機の色が変化することを予測する信号機予測部(45)を備え、
前記制御部(48、49)は、車両が交差点に到達する頃の信号機の色の予測結果の情報を前記表示部(8)により前記フロントウィンドウ(32)に前方の景色に重畳して表示させるように構成されている請求項1から4のいずれか一項記載の車両用運転支援装置。
A traffic light prediction unit (45) for predicting that the color of the traffic light changes when the vehicle reaches the intersection,
The control unit (48, 49) causes the display unit (8) to display the information on the prediction result of the color of the traffic light when the vehicle reaches the intersection on the front window (32) so as to be superimposed on the scenery in front. The driving support device for a vehicle according to any one of claims 1 to 4, which is configured as described above.
JP2016171774A 2016-09-02 2016-09-02 Vehicle driving assist system Pending JP2018037001A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016171774A JP2018037001A (en) 2016-09-02 2016-09-02 Vehicle driving assist system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016171774A JP2018037001A (en) 2016-09-02 2016-09-02 Vehicle driving assist system

Publications (1)

Publication Number Publication Date
JP2018037001A true JP2018037001A (en) 2018-03-08

Family

ID=61567552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016171774A Pending JP2018037001A (en) 2016-09-02 2016-09-02 Vehicle driving assist system

Country Status (1)

Country Link
JP (1) JP2018037001A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510419A (en) * 2018-05-29 2018-09-07 黑龙江省经济管理干部学院 A kind of efficient teaching system that can fully optimize teachers content
CN111196213A (en) * 2018-11-19 2020-05-26 丰田自动车株式会社 Driving support device, driving support system, and driving support method
CN111915900A (en) * 2019-05-07 2020-11-10 株式会社电装 Information processing apparatus and method, and computer-readable storage medium
US10974765B2 (en) * 2018-08-07 2021-04-13 Hyundai Motor Company Vehicle capable of displaying information on road and control method therefor
WO2021166509A1 (en) * 2020-02-18 2021-08-26 株式会社デンソー Driving control device, and hmi control device
JP2021130451A (en) * 2020-02-18 2021-09-09 株式会社デンソー Operation control device and HMI control device
JP2021189882A (en) * 2020-06-02 2021-12-13 沖電気工業株式会社 Position calculation system, program, and position calculation method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145479A (en) * 2002-10-22 2004-05-20 Aisin Seiki Co Ltd Device for providing peripheral vehicle information
JP2004342013A (en) * 2003-05-19 2004-12-02 Toyota Motor Corp Parking space information providing system
JP2006215911A (en) * 2005-02-04 2006-08-17 Sumitomo Electric Ind Ltd Apparatus, system and method for displaying approaching mobile body
JP2008070998A (en) * 2006-09-13 2008-03-27 Hitachi Ltd Vehicle surroundings information display unit
JP2009093343A (en) * 2007-10-05 2009-04-30 Nippon Soken Inc Operation support information presentation device, program, and operation support information presentation method
JP2009231938A (en) * 2008-03-19 2009-10-08 Mazda Motor Corp Surrounding monitoring device for vehicle
WO2011125135A1 (en) * 2010-04-09 2011-10-13 株式会社 東芝 Collision prevention support device
WO2015037117A1 (en) * 2013-09-13 2015-03-19 日立マクセル株式会社 Information display system, and information display device
JP2015095136A (en) * 2013-11-13 2015-05-18 三菱電機株式会社 Display image creation device, traffic light color information projection device, headlight control device, traffic light color information display device, and display image creation method
JP2016062368A (en) * 2014-09-18 2016-04-25 日本精機株式会社 System and device for displaying information on periphery of vehicle

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145479A (en) * 2002-10-22 2004-05-20 Aisin Seiki Co Ltd Device for providing peripheral vehicle information
JP2004342013A (en) * 2003-05-19 2004-12-02 Toyota Motor Corp Parking space information providing system
JP2006215911A (en) * 2005-02-04 2006-08-17 Sumitomo Electric Ind Ltd Apparatus, system and method for displaying approaching mobile body
JP2008070998A (en) * 2006-09-13 2008-03-27 Hitachi Ltd Vehicle surroundings information display unit
JP2009093343A (en) * 2007-10-05 2009-04-30 Nippon Soken Inc Operation support information presentation device, program, and operation support information presentation method
JP2009231938A (en) * 2008-03-19 2009-10-08 Mazda Motor Corp Surrounding monitoring device for vehicle
WO2011125135A1 (en) * 2010-04-09 2011-10-13 株式会社 東芝 Collision prevention support device
WO2015037117A1 (en) * 2013-09-13 2015-03-19 日立マクセル株式会社 Information display system, and information display device
JP2015095136A (en) * 2013-11-13 2015-05-18 三菱電機株式会社 Display image creation device, traffic light color information projection device, headlight control device, traffic light color information display device, and display image creation method
JP2016062368A (en) * 2014-09-18 2016-04-25 日本精機株式会社 System and device for displaying information on periphery of vehicle

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510419A (en) * 2018-05-29 2018-09-07 黑龙江省经济管理干部学院 A kind of efficient teaching system that can fully optimize teachers content
CN108510419B (en) * 2018-05-29 2023-04-18 黑龙江职业学院(黑龙江省经济管理干部学院) Efficient teaching system capable of fully optimizing teaching content of teachers
US10974765B2 (en) * 2018-08-07 2021-04-13 Hyundai Motor Company Vehicle capable of displaying information on road and control method therefor
CN111196213A (en) * 2018-11-19 2020-05-26 丰田自动车株式会社 Driving support device, driving support system, and driving support method
JP2020086670A (en) * 2018-11-19 2020-06-04 トヨタ自動車株式会社 Driving support device, driving support system, and driving support method
CN111196213B (en) * 2018-11-19 2023-09-01 丰田自动车株式会社 Driving support device, driving support system, and driving support method
JP7251114B2 (en) 2018-11-19 2023-04-04 トヨタ自動車株式会社 Driving support device, driving support system, and driving support method
JP7140043B2 (en) 2019-05-07 2022-09-21 株式会社デンソー Information processing equipment
CN111915900A (en) * 2019-05-07 2020-11-10 株式会社电装 Information processing apparatus and method, and computer-readable storage medium
JP2020184164A (en) * 2019-05-07 2020-11-12 株式会社デンソー Information processing device
WO2021166509A1 (en) * 2020-02-18 2021-08-26 株式会社デンソー Driving control device, and hmi control device
JP7259832B2 (en) 2020-02-18 2023-04-18 株式会社デンソー Operation control device, HMI control device, operation control program, and HMI control program
JP2021130451A (en) * 2020-02-18 2021-09-09 株式会社デンソー Operation control device and HMI control device
JP7078066B2 (en) 2020-06-02 2022-05-31 沖電気工業株式会社 Position calculation system, program and position calculation method
JP2021189882A (en) * 2020-06-02 2021-12-13 沖電気工業株式会社 Position calculation system, program, and position calculation method

Similar Documents

Publication Publication Date Title
US10589752B2 (en) Display system, display method, and storage medium
US11364930B2 (en) Vehicle control system, vehicle control method and program
JP2018037001A (en) Vehicle driving assist system
US11077862B2 (en) Vehicle control system, vehicle control method, and storage medium
JP6398957B2 (en) Vehicle control device
CN112466140B (en) Vehicle remote indication system
US20180345991A1 (en) Vehicle control system, vehicle control method, and storage medium
US11565713B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP7039940B2 (en) Vehicle control unit
CN110678371A (en) Vehicle control system, vehicle control method, and vehicle control program
WO2020230613A1 (en) Display control method and display control device
US20180348757A1 (en) Vehicle control system, vehicle control method, and storage medium
JP2007272350A (en) Driving support device for vehicle
JP6827378B2 (en) Vehicle control systems, vehicle control methods, and programs
WO2017082067A1 (en) Image display system for vehicle
CN113784861B (en) Display control method and display control device
CN107428252B (en) Method for operating a communication device of a motor vehicle during an autonomous driving mode, communication device and motor vehicle
US10503167B2 (en) Vehicle control system, vehicle control method, and storage medium
JP2019156196A (en) Vehicle control device and vehicle control method
JP6508846B2 (en) Vehicle control system, vehicle control method, and program
JP6650851B2 (en) Display device
JP7311295B2 (en) Control device, control method and program
JP7302311B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
WO2020065892A1 (en) Travel control method and travel control device for vehicle
JP6610376B2 (en) Display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201020