WO2016098614A1 - 車両情報投影システム及び車両情報投影方法 - Google Patents

車両情報投影システム及び車両情報投影方法 Download PDF

Info

Publication number
WO2016098614A1
WO2016098614A1 PCT/JP2015/084139 JP2015084139W WO2016098614A1 WO 2016098614 A1 WO2016098614 A1 WO 2016098614A1 JP 2015084139 W JP2015084139 W JP 2015084139W WO 2016098614 A1 WO2016098614 A1 WO 2016098614A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
vehicle information
information
display
lane
Prior art date
Application number
PCT/JP2015/084139
Other languages
English (en)
French (fr)
Inventor
剛士 江尻
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Priority to EP15869819.1A priority Critical patent/EP3236447B1/en
Priority to US15/537,138 priority patent/US10293690B2/en
Publication of WO2016098614A1 publication Critical patent/WO2016098614A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/23
    • B60K35/81
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • B62D15/0295Steering assistants using warnings or proposing actions to the driver without influencing the steering system by overlaying a vehicle path based on present steering angle over an image without processing that image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2310/00Arrangements, adaptations or methods for cruise controls
    • B60K2310/26Distance setting methods, e.g. determining target distance to target vehicle
    • B60K2310/266Distance setting methods, e.g. determining target distance to target vehicle releasing distance control, e.g. inhibiting control if target vehicle lost or changing lane
    • B60K2360/21
    • B60K2360/334
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18166Overtaking, changing lanes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Definitions

  • the present invention relates to a system (vehicle information projection system) for projecting information (vehicle information) about a vehicle and a method (vehicle information projection method).
  • Patent Document 1 discloses a vehicle display device as a vehicle information projection system, and the vehicle display device projects a degree of attention of a road ahead of the vehicle onto a windshield (windshield) of the vehicle. Can do. Specifically, for example, when there is an intersection in the front of the vehicle where a stop restriction is provided, the display device for the vehicle is temporarily used as a road having a high degree of caution, for example, in a traveling lane in which the vehicle is traveling. A portion in front of the temporary stop line corresponding to the stop regulation (a part of the traveling lane) can be determined. Moreover, the display apparatus for vehicles can determine the opposite lane adjacent to the traveling lane as a road having a high degree of attention.
  • the vehicular display device can determine another road (intersection road) that intersects the traveling lane at the intersection as a road having a high degree of attention.
  • the vehicle display device disclosed in Patent Document 1 has a windshield so that a road having a high degree of attention (for example, a part of a traveling lane, an opposite lane, and an intersecting road) has, for example, a red color from the viewpoint of the driver of the vehicle. It is possible to project a display image (attention level of the road ahead of the vehicle).
  • the range of red light projected on the windshield matches the shape of the road having a high degree of attention.
  • the shape of the red display image displayed on the windshield (projected on the windshield)
  • the range of red light) is determined, and the virtual image of the red display image is superimposed on a road having a high degree of attention from the driver's viewpoint.
  • Such projection or display of vehicle information representing the degree of attention on the windshield is generally called a head-up display (HUD) by those skilled in the art.
  • HUD head-up display
  • a future travel locus of the vehicle may be projected or displayed as a road having a high degree of attention (a part of the travel lane).
  • the display range in which the attention level is projected onto the windshield is the windshield. Therefore, the display range is widened or enlarged.
  • the space of the display (projector) mounted or installed on the dashboard (instrument panel) of the vehicle becomes large. In other words, the space is generally limited by the type of vehicle, and the display range on the windshield is limited to a part of the windshield.
  • the manufacturing cost of the vehicle display device having a display for determining the display range increases.
  • the display range of the windshield may be limited to a part of the windshield.
  • the attention level of the road ahead of the vehicle is projected somewhere on the entire windshield of the vehicle.
  • the degree of attention of the rear vehicle (rear vehicle) is not projected on the windshield.
  • One object of the present invention is to provide a vehicle information projection system capable of efficiently projecting vehicle information such as the degree of caution and the degree of warning of a rear vehicle.
  • vehicle information such as the degree of caution and the degree of warning of a rear vehicle.
  • the vehicle information projection system includes: An imaging unit capable of imaging a road existing in front of the vehicle as an actual landscape; The vehicle information is projected onto a display range set in a part of the windshield of the vehicle, and the vehicle information is displayed so that a virtual image of the vehicle information overlaps the actual scenery from the viewpoint of the driver of the vehicle A display mechanism capable of displaying in a range; A rear vehicle information acquisition unit capable of acquiring rear vehicle information indicating that a rear vehicle is present behind the vehicle; A lane change information acquisition unit capable of acquiring lane change information indicating that the vehicle changes from a travel lane of the vehicle to an adjacent lane adjacent to the travel lane; A processing unit for determining a degree of attention of the rear vehicle based on the rear vehicle information and the lane change information; With The processing unit can generate the vehicle information such that the vehicle information includes the attention level and a virtual image of the vehicle information overlaps a boundary line between the travel lane and the adjacent lane.
  • the virtual image of the vehicle information overlaps the boundary line between the traveling lane and the adjacent lane.
  • the boundary line is, for example, a dotted white line in which the vehicle can be changed from the traveling lane to the adjacent lane, and the boundary line (for example, the dotted white line) is an actual landscape on the road.
  • the range or area of the boundary line is relatively narrow or small.
  • the virtual image of the vehicle information (the degree of caution of the rear vehicle) is not arranged on the lane such as the driving lane, the adjacent lane, the oncoming lane, etc. It is not limited or not limited by the degree of attention of the vehicle behind you.
  • the amount of information resulting from vehicle information (degree of attention of the rear vehicle) on the boundary line (for example, a dotted white line) is limited or reduced by the range or area of the boundary line (for example, the dotted white line). It is sufficient to determine whether the driver can actually change from the driving lane to the adjacent lane by amount.
  • vehicle information projection system vehicle information can be projected efficiently.
  • the degree of caution of the rear vehicle can be displayed as a part of the windshield of the vehicle as vehicle information.
  • the degree of caution includes, for example, the degree of warning
  • the vehicle information projection system may give not only a warning to the driver via the vehicle information but also a warning.
  • the vehicle information may be a low degree of caution indicating that the vehicle does not collide with the rear vehicle. It may be a high degree of caution (warning degree) indicating that the vehicle behind the vehicle is obstructed.
  • the vehicle information projection system includes: A vehicle progress information acquisition unit capable of acquiring vehicle progress information indicating that the vehicle travels to the boundary line; You may prepare further, The vehicle information may include first vehicle information including the degree of caution and second vehicle information based on the vehicle progress information, The processing unit may be capable of generating the first vehicle information and the second vehicle information so that the first vehicle information and the second vehicle information are displayed in the display range. .
  • the second mode not only the first vehicle information (degree of attention of the rear vehicle) but also the second vehicle information is generated as the vehicle information. Rather than only the first vehicle information (rear vehicle attention level) being projected onto the windshield, not only the first vehicle information (rear vehicle attention level) but also the second vehicle information is projected onto the windshield. This makes it easier for the driver to determine whether or not the driving lane may actually be changed to the adjacent lane. In other words, when the vehicle progresses to the boundary line and changes from the driving lane to the adjacent lane, the driver can change the caution level of the lane change (attention level caused by the second vehicle information) and the first vehicle. Information (degree of attention of the rear vehicle) can be instantly associated.
  • the processing unit In the vehicle progress information acquisition unit, for example, a steering angle sensor, a turning angle sensor, a winker (direction indicator), a captured image analyzer, a GPS sensor, an acceleration sensor, a vehicle speed sensor, a gyro sensor, or a direction sensor, Or any combination thereof is included, and the processing unit generates second vehicle information representing, for example, a traveling direction, a traveling locus, and the like of the vehicle based on the vehicle traveling information acquired by the vehicle traveling information acquiring unit. Can do.
  • the vehicle progress information acquisition unit may include a steering angle sensor capable of acquiring, as the vehicle progress information, steering angle information indicating that a steering handle of the vehicle is operated,
  • the processing unit may be capable of generating the second vehicle information that changes according to the steering angle information in real time.
  • the vehicle progress information acquisition unit may be a steering angle sensor, or at least includes a steering angle sensor.
  • the responsiveness of the steering angle information acquired by the steering angle sensor is, for example, a steering angle sensor, a blinker, a captured image analyzer, a GPS sensor, an acceleration sensor, a vehicle speed sensor, a gyro sensor, a direction sensor, or any combination thereof. Faster than the information acquired by. Therefore, the driver can more instantly associate the attention degree of lane change (degree of attention caused by the second vehicle information) and the first vehicle information (degree of attention of the rear vehicle).
  • the shape of the second vehicle information may have straightness
  • the processing unit has the straightness so that the angle formed between the virtual image of the second vehicle information and the boundary line increases as the operation amount of the steering wheel increases. Can be generated,
  • the processing unit is configured to include the second vehicle information including a graphic arranged next to the first vehicle information instead of the second vehicle information having the straight traveling property. It may be possible to generate vehicle information.
  • the driver can further determine the direction in which the vehicle goes to the boundary line or the position at which the vehicle passes the boundary line. Easy to recognize.
  • the operation amount of the steering wheel reaches a predetermined amount, in other words, the angle formed between the virtual image of the second vehicle information and the boundary line is increased to display the second vehicle information.
  • a figure can be arranged or displayed next to the first vehicle information (degree of attention of the rear vehicle).
  • the driver uses the figure to indicate the degree of caution of changing lanes (degree of caution due to the second vehicle information) and the first vehicle information (rear vehicle). The degree of attention) can continue to be associated.
  • the shape of the second vehicle information may have straightness
  • the processing unit has the straightness so that the angle formed between the virtual image of the second vehicle information and the boundary line increases as the operation amount of the steering wheel increases. Can be generated, When the operation amount reaches a predetermined amount, the processing unit may be capable of generating fixed second vehicle information instead of the second vehicle information that changes according to the steering angle information. .
  • the driver can further determine the direction in which the vehicle goes to the boundary line or the position at which the vehicle passes the boundary line. Easy to recognize.
  • the operation amount of the steering wheel reaches a predetermined amount, in other words, the angle formed between the virtual image of the second vehicle information and the boundary line is increased to display the second vehicle information.
  • the second vehicle information (its angle) can be fixed.
  • the driver uses the fixed second vehicle information, and the lane change attention degree (attention degree caused by the second vehicle information) and the first It is possible to continue associating the vehicle information (the degree of attention of the rear vehicle).
  • the rear vehicle information may be based on a relative speed and / or a relative distance between the vehicle and the rear vehicle
  • the processing unit may determine a display format of the degree of attention of the rear vehicle based on the relative speed and / or the relative distance
  • the processing unit may be capable of generating the vehicle information that changes according to the display format.
  • the display format of the degree of attention of the rear vehicle is determined based on the relative speed and / or the relative distance.
  • the vehicle information for example, the first vehicle information
  • Change of information makes it easier to determine the degree of attention of the rear vehicle (for example, a high degree of attention, a low degree of attention, etc.).
  • the processing unit may determine a display format of a degree of attention of the second vehicle information based on a change rate of the steering angle information.
  • the processing unit may be capable of generating the second vehicle information that changes according to the display format.
  • the display format of the degree of attention of the second vehicle information is determined based on the steering angle information. Accordingly, the second vehicle information changes according to, for example, the display format of the attention degree of lane change, and the driver can more easily determine the attention degree by the change of the second vehicle information.
  • the vehicle information projection method includes: Loading a road in front of the vehicle as a captured image; Detecting a vehicle behind the vehicle, Detecting that the vehicle is scheduled to change from a travel lane of the vehicle to an adjacent lane adjacent to the travel lane; Determining the degree of caution of the rear vehicle before the vehicle finishes changing from the travel lane to the adjacent lane; Generating the vehicle information based on the attention level and the captured image so that a virtual image of the vehicle information overlaps a boundary line between the travel lane and the adjacent lane; and a part of the windshield of the vehicle Projecting the vehicle information on a set display range; including.
  • the virtual image of the vehicle information overlaps with the boundary line between the traveling lane and the adjacent lane.
  • the range or area of the boundary line is relatively narrow or small.
  • the virtual image of the vehicle information (the degree of caution of the rear vehicle) is not arranged on the lane such as the driving lane, the adjacent lane, the oncoming lane, etc. It is not limited or not limited by the degree of attention of the vehicle behind you.
  • the amount of information resulting from the vehicle information on the boundary line (the degree of attention of the vehicle behind the vehicle) is limited or reduced by the range or area of the boundary line, but this information amount is sufficient for determining the lane change.
  • vehicle information can be efficiently projected.
  • the vehicle information projection method it is possible to project the degree of attention of the rear vehicle as vehicle information on a display range set in a part of the windshield of the vehicle.
  • FIG. 1 shows a schematic configuration example of a vehicle information projection system according to the present invention.
  • movement of the vehicle information projection system of FIG. 1, or a display controller is shown.
  • movement of the vehicle information projection system of FIG. 1, or a display controller is shown.
  • 4A shows an example of an actual landscape recognized through the windshield of FIG. 1, and FIG. 4B, FIG. 4C, FIG. 4D, and FIG. 4 (F) and 4 (G) each show an example of vehicle information projected on a display range set in a part of the windshield of FIG. 4 (A).
  • An example of the table for determining the display format of the attention degree of vehicle information is shown.
  • FIG. 1 shows a schematic configuration example of a vehicle information projection system according to the present invention.
  • the vehicle information projection system includes, for example, an imaging unit 103 and a display mechanism 100.
  • the imaging unit 103 can image a road (actual scenery on the road) existing in front of the vehicle.
  • the display mechanism 100 projects the vehicle information on a display range set in a part of the windshield 101 of the vehicle, and the vehicle information so that the virtual image V of the vehicle information overlaps the actual landscape from the viewpoint 102 of the vehicle driver. Can be displayed in the display range.
  • a vehicle information projection system is generally called a HUD system.
  • the display mechanism 100 in FIG. 1 includes a display 20 and a reflector 21, for example.
  • the display mechanism 100 is generally called a HUD or a HUD device.
  • the display mechanism 100 is typically housed inside the dashboard, but all or part of the display mechanism 100 may be disposed outside the dashboard.
  • the display device 20 may be referred to as a projector because it projects vehicle information onto the windshield 101, for example.
  • the 1 further includes an information acquisition unit S, for example, and the information acquisition unit S has at least a rear vehicle information acquisition unit 360.
  • the rear vehicle information acquisition unit 360 can acquire rear vehicle information indicating that a rear vehicle (not shown) exists behind the vehicle.
  • the information acquisition unit S in FIG. 1 includes not only the rear vehicle information acquisition unit 360 but also a lane change information acquisition unit, where the lane change information acquisition unit is adjacent to the travel lane from the travel lane of the vehicle. Lane change information representing changing to an adjacent lane can be acquired.
  • the lane change information includes a schedule (start of lane change) in which the vehicle changes from the driving lane of the vehicle to an adjacent lane adjacent to the driving lane, while the lane change information indicates that the vehicle changes from the driving lane to the adjacent lane. It does not have to include finishing (end of lane change).
  • the lane change information acquisition unit includes, for example, a road information acquisition unit 320, an instruction information acquisition unit 340, and a steering angle information acquisition unit 370.
  • the lane change information acquisition unit may be only the road information acquisition unit 320, the instruction information acquisition unit 340, or the rudder angle information acquisition unit 370, or any combination thereof.
  • the lane change information acquisition unit is not limited to the combination shown in FIG. 1, and other information acquisition units may be employed.
  • 1 further includes, for example, a display controller 200, and the display controller 200 includes at least a processing unit P.
  • the display controller 200 is typically housed inside the dashboard, but all or part of the display controller 200 may be disposed outside the dashboard.
  • the combination of the display mechanism 100 and the display controller 200 may be referred to as a HUD or a HUD device.
  • 1 includes, for example, a determination unit 210 and a generation unit 220.
  • the processing unit P or the determination unit 210 includes, for example, lane change information acquired by a lane change information acquisition unit such as an instruction information acquisition unit 340, and the like. Based on the back vehicle information acquired by the back vehicle information acquisition unit 360, the degree of caution of the back vehicle can be determined.
  • the processing unit P or the generation unit so that the vehicle information projected on the windshield 101 includes the degree of caution of the rear vehicle and the virtual image V of the vehicle information overlaps the boundary line between the traveling lane and the adjacent lane. 220 can generate the vehicle information.
  • the display mechanism 100 or the display device 20 is controlled by the display controller 200 or the processing unit P in order to display the virtual image V via the windshield 101, whereby the display device 20 is based on vehicle information.
  • the display light L projection light
  • the reflector 21 guides the optical path of the display light L from the display 20 to the windshield 101, and the driver can recognize the display light L (vehicle information) on the windshield 101 as a virtual image V.
  • the display device 20 includes, for example, a liquid crystal panel, and one display device 20 is shown in FIG. 1, but the display device 20 may be, for example, two or left and right display devices, in other words.
  • the virtual image V may be a three-dimensional virtual image for the driver's eyes.
  • the vehicle (own vehicle) on which the vehicle information projection system is mounted is, for example, an automobile in FIG. 1, and the automobile can run on the horizon H or on the road.
  • the height or depth of the virtual image V in FIG. 1 is set to a predetermined distance from the distance D1 to the distance D3, for example.
  • the lower end of the virtual image V exists in front of the vehicle by a distance D1
  • the upper end of the virtual image V exists in front of the vehicle by a distance D3.
  • the distance D1, the distance D2, and the distance D3 are, for example, 20 [m], for example, 30 [m], and for example, 50 [m].
  • the reflector 21 may be, for example, two reflectors.
  • the optical path of the display light L from the display 20 to the windshield 101 is The distance D1, the distance D2, and the distance D3 may be adjusted according to the height of the ideal driver's viewpoint 102 (the height of the ideal driver's sitting height) and the optical path of the display light L. May be.
  • the reflector 21 generally expands the display light L from the display device 20, and in addition, the reflector 21 or the display controller 200 (for example, the processing unit P) is generally set as a part of the windshield 101. Distortion in the display range (for example, distortion of the glass surface) can be corrected.
  • the display controller 200 in FIG. 1 further includes, for example, a storage unit 230, and the storage unit 230 can store various data necessary for processing or calculation of the processing unit P such as the determination unit 210 and the generation unit 220, for example.
  • the display controller 200 is typically configured by a microcomputer, for example, and can include, for example, a CPU, a memory such as a ROM and a RAM, an input / output interface, and the like.
  • the processing unit P is typically configured by a CPU and a RAM (work area), and the storage unit 230 is typically configured by a ROM (eg, EEPROM).
  • the ROM may store a program for causing the CPU to execute a predetermined operation (vehicle information projection method), and the RAM can form a work area of the CPU.
  • the ROM can store data necessary for determining or calculating vehicle information, for example.
  • the display controller 200 in FIG. 1 is connected to, for example, the information acquisition unit S via a LAN 300 (for example, a bus-type LAN) that is arranged or mounted on the vehicle.
  • the display controller 200 may generally be referred to as an ECU (Electronic Control Unit).
  • the information acquisition unit S is a plurality of information acquisition units
  • the information acquisition unit S includes, for example, the rear vehicle information acquisition unit 360 and the steering angle information acquisition unit 370
  • the plurality of information acquisition units Each (for example, the rear vehicle information acquisition unit 360, the steering angle information acquisition unit 370, etc.) is connected to the display controller 200 via the LAN 300, for example.
  • Each information acquisition part (for example, back vehicle information acquisition part 360, rudder angle information acquisition part 370, etc.) which constitutes information acquisition part S may generally be called ECU or a sensor.
  • the display controller 200 is connected to the image processing unit 310 via the LAN 300.
  • the image processing unit 310 in FIG. 1 captures a captured image from the imaging unit 103 having an image sensor such as a CCD, for example, and based on the captured image, for example, a boundary line between a plurality of lanes (for example, a dotted white line, a solid white line, a solid line Yellow (orange)) can be detected or extracted, for example, in real time.
  • the image processing unit 310 may detect or extract a lane or a road, and detect or extract a forward vehicle (for example, a preceding vehicle or an oncoming vehicle) and / or an obstacle existing in front of the vehicle. May be.
  • the imaging unit 103 is a camera (front camera), for example, and is installed in the vicinity of an inner rear view mirror (back mirror) (not shown), for example.
  • the imaging unit 103 may be a dedicated imaging unit or a shared imaging unit (not only a vehicle information projection system but also an imaging unit used for a drive recorder, for example).
  • the image processing unit 310 of FIG. 1 may be omitted.
  • the display controller 200 is directly connected to the imaging unit 103 via the LAN 300, for example, and the display controller 200 or the processing unit P
  • an object such as a boundary line may be detected or extracted based on the captured image (actual landscape).
  • the information acquisition unit S includes, for example, the position information acquisition unit 330 and the road information acquisition unit 320
  • the display controller 200 or the processing unit P for example, via the LAN 300, the position information acquisition unit 330, and the road information acquisition unit 320.
  • information (object shape) of an object such as a boundary line or a road based on the position of the vehicle for example, the current position
  • the rear vehicle information acquisition unit 360 in FIG. 1 includes, for example, a camera (rear camera) and an image processing unit (rear camera image processing unit), for example, and a rear vehicle (for example, an automobile or a four-wheeled vehicle, Motorcycle or motorcycle) can be detected or extracted.
  • the rear vehicle information acquisition unit 360 may be, for example, a radar device or a sonar device, and the rear vehicle information acquisition unit 360 can detect or extract an object as a rear vehicle.
  • the rear vehicle information acquisition unit 360 may be, for example, a vehicle-to-vehicle communication device, a road-to-vehicle communication device, or the like, and may detect or receive a position (for example, an absolute position) of the rear vehicle.
  • the rear vehicle information acquisition unit 360 is preferably arranged or set so that it can detect a rear vehicle traveling in an adjacent lane adjacent to the traveling lane.
  • the rear vehicle that travels in the adjacent lane is a rear vehicle that is positioned, for example, in the left rear direction or the right direction with respect to the vehicle (own vehicle).
  • the rear vehicle is, for example, a rear vehicle that is not overtaking the host vehicle, for example, located on the left side or the right side, and a part of the rear vehicle exists in the direction of the host vehicle. It is included.
  • the rear vehicle information acquisition unit 360 in FIG. 1 detects a rear vehicle, and preferably detects a relative distance between the vehicle (own vehicle) and the rear vehicle. More preferably, the rear vehicle information acquisition unit 360 in FIG. 1 detects not only the relative distance but also the relative speed between the vehicle (the host vehicle) and the rear vehicle. Of course, the rear vehicle information acquisition unit 360 may detect only the presence of the rear vehicle, or may alternatively detect only the absolute position of the rear vehicle. Alternatively, either the relative speed or the relative distance may be detected. Only one of them may be detected. When the rear vehicle information acquisition unit 360 detects only the presence of the rear vehicle (presence detection information), thereafter, the display controller 200 or the processing unit P itself, for example, based on the presence detection information of the rear vehicle, The relative speed may be detected or extracted.
  • the rear vehicle information acquisition unit 360 detects or acquires the absolute speed of the rear vehicle, for example, the rear vehicle information acquisition unit 360 or the display controller 200 (processing unit P), for example, the vehicle speed information acquisition unit 350 (for example, meter, wheel speed)
  • the vehicle speed information acquisition unit 350 for example, meter, wheel speed
  • the relative speed may be detected or calculated in consideration of the absolute speed of the vehicle (own vehicle) acquired by a sensor or the like.
  • the steering angle information acquisition unit 370 includes, for example, a steering angle sensor that can acquire the rotation of the steering handle or the steering column, or can acquire the rotation of, for example, a motor shaft or a steered wheel. A sensor can be included.
  • the steering angle information acquisition unit 370 may be, for example, a power steering ECU or a skid prevention ECU that can transmit the steering angle information to the display controller 200 (processing unit P) via the LAN 300, for example. .
  • the instruction information acquisition unit 350 in FIG. 1 can detect or acquire instruction information for the vehicle (own vehicle).
  • the instruction information includes direction instruction information indicating that the turn signal (direction indicator) of the host vehicle is operated by the driver, for example.
  • the instruction information acquisition unit 350 may be, for example, a winker that can output an operation to the winker.
  • the instruction information acquisition unit 350 may be, for example, a meter ECU that can transmit direction instruction information to the display controller 200 (processing unit P) via the LAN 300, for example.
  • the road information acquisition unit 320 in FIG. 1 can detect or acquire the road information (for example, road information in the traveling direction) around the vehicle (the host vehicle) or, for example, ahead.
  • the road information includes turn image road information indicating that the turn (turning) of the host vehicle is reflected on the road.
  • the road information acquisition unit 320 may be, for example, an image analyzer that analyzes an image that changes according to the traveling or progress of the host vehicle. This image may be a captured image captured by a dedicated camera, for example, or may be a captured image captured by a front camera or a rear camera described below.
  • the image processing unit 310 may be employed as the vehicle progress information acquisition unit.
  • the image processing unit 310 captured image analyzer
  • changes the lane of the host vehicle degree of lane change based on, for example, a captured image (a forward road captured image representing a road ahead) from the imaging unit 103 (front camera). ) May be detected or extracted.
  • the rear vehicle information acquisition unit 360 may be employed as the vehicle progress information acquisition unit.
  • the rear vehicle information acquisition unit 360 captured image analyzer detects the lane change (degree of lane change) of the host vehicle based on, for example, a captured image from the rear camera (a rear road captured image representing a rear road). Or you may extract.
  • the road information acquisition unit 320 may detect or acquire traffic road information.
  • the traffic road information includes lane change road information indicating whether the road on which the vehicle is traveling has a plurality of lanes, in other words, whether the vehicle can change lanes on the road. May be included.
  • the processing unit P or the determination unit 210 of the display controller 200 can acquire or update lane change road information according to the position of the host vehicle (for example, the current position), and the host vehicle can change the lane based on the lane change road information. It may be determined whether or not.
  • the display controller 200 may stop the operation of the image processing unit 310, for example.
  • the road information acquisition unit 320 may be a navigation device, for example, and the position information acquisition unit 330 may be a GPS sensor, for example.
  • FIG. 4A shows an example of an actual landscape recognized through the windshield 101 in FIG. 1, and FIG. 4B, FIG. 4C, FIG. 4D, and FIG.
  • Each of (E), FIG. 4 (F), and FIG. 4 (G) shows an example of the vehicle information projected on the display range AR set in a part of the windshield 101 of FIG.
  • the display range AR is set on the glass surface constituting the windshield 101.
  • the display range AR is, for example, a dashboard near the windshield 101 or, for example, an indoor room. You may form with the combiner arrange
  • the display controller 200 in FIG. 1 can determine whether or not a rear vehicle has been detected, for example, via the rear vehicle information acquisition unit 360 (see step ST01 in FIG. 2).
  • the rear vehicle information acquisition unit 360 includes a rear camera
  • the rear vehicle information acquisition unit 360 determines whether or not a rear vehicle such as an automobile or a motorcycle is included in a captured image captured by the rear camera. Or it can be analyzed.
  • the rear camera is, for example, a stereo camera
  • the rear vehicle information acquisition unit 360 can preferably calculate or analyze the relative distance between the vehicle (the host vehicle) and the rear vehicle. More preferably, the rear vehicle information acquisition unit 360 can calculate or analyze the relative speed between the host vehicle and the rear vehicle based on the relative distance, specifically, for example, based on the time difference of the relative distance.
  • the rear vehicle information acquisition unit 360 may acquire or analyze rear vehicle information such as a traveling direction and a traveling locus of the rear vehicle.
  • the rear vehicle information acquisition unit 360 that can acquire the rear vehicle information indicating that the rear vehicle is behind the host vehicle may be, for example, a radar device, or a combination of the rear camera and the radar device, for example. It may be.
  • the display controller 200 can determine whether or not a lane change of the host vehicle has been detected, for example, via the instruction information acquisition unit 340.
  • the instruction information acquisition unit 340 is a winker
  • the winker can output winker operation information (instruction information) by the driver to the display controller 200. Therefore, the display controller 200 can determine whether or not a winker operation by the driver has been detected (see step ST02 in FIG. 2).
  • the display controller 200 receives, for example, from the steering angle information acquisition unit 370. Based on the steering angle information, it can be determined whether or not a lane change of the host vehicle has been detected (see step ST03 in FIG. 2).
  • the steering angle information acquisition unit 370 includes a steering angle sensor that can acquire steering angle information indicating that the steering handle of the host vehicle is operated, the response of the steering angle information acquired by the steering angle sensor is fast. Become. In other words, when the steering angle information is the steering angle information, the display controller 200 can more easily determine the lane change of the host vehicle.
  • the display controller 200 uses, for example, analysis information from the image processing unit 310 (captured image analyzer) (for example, an analysis result of a front road captured image representing a road ahead). Based on this, it can be determined whether or not a lane change of the host vehicle has been detected (see step ST04 in FIG. 2).
  • analysis information from the image processing unit 310 captured image analyzer
  • the display controller 200 uses, for example, analysis information from the image processing unit 310 (captured image analyzer) (for example, an analysis result of a front road captured image representing a road ahead). Based on this, it can be determined whether or not a lane change of the host vehicle has been detected (see step ST04 in FIG. 2).
  • step ST05 when a lane change is detected in step ST03 and / or step ST04 in FIG. 2, the display controller 200 can execute step ST05.
  • step ST01 again (see RETURN in FIG. 3).
  • step ST05 in FIG. 2 When step ST05 in FIG. 2 is executed, the display controller 200, for example, via the turn signal, the steering angle sensor, or the captured image analyzer, in other words, through the lane change information acquisition unit, Has detected a plan to change from a driving lane to an adjacent lane. At the same time, the display controller 200 also detects the rear vehicle via, for example, the rear camera, in other words, the rear vehicle information acquisition unit 360.
  • the display controller 200 is assumed to employ projection or display of the degree of caution (for example, a departure warning line) of the rear vehicle as lane information (first lane information) (step ST06 of FIG. 2). Reference), projection or display of a lane change attention degree (eg, predicted trajectory line) is adopted as lane information (second lane information), and information (eg, display angle) necessary for the display is determined.
  • the degree of caution for example, a departure warning line
  • lane information first lane information
  • step ST06 of FIG. 2 Reference
  • the display controller 200 can determine the display angle of the predicted trajectory line via, for example, a steering angle sensor.
  • the predicted trajectory line is preferably a straight line, and is shown by, for example, two predicted trajectory lines TR1 and TR2 that are, for example, straight lines in FIG. 4B.
  • the two predicted trajectory lines TR1 and TR2 in FIG. 4B can indicate that the traveling direction or traveling trajectory of the host vehicle is toward the left side.
  • the left predicted trajectory line TR1 in FIG. 4B corresponds to, for example, the left front wheel of the host vehicle, and the display angle of the left predicted trajectory line TR1 is preferably the actual left side from the viewpoint 102 of the driver. This is the direction in which the front wheels travel forward on the road.
  • the predicted trajectory line TR2 on the right side of FIG. 4B corresponds to, for example, the front wheel on the right side of the host vehicle, and the display angle of the predicted trajectory line TR2 on the right side is preferably actual from the viewpoint 102 of the driver.
  • the front wheel on the right side of the road is the direction to advance on the road in the future.
  • the display angle that is the direction in which the actual midpoint of the host vehicle (for example, the midpoint of the left and right front wheels) travels forward on the road at the driver's viewpoint 102 for example, one predicted trajectory line having the following may be adopted.
  • the display controller 200 displays, for example, predicted trajectory lines (for example, two predicted trajectory lines TR1 and TR2 in FIG. 4B) having a display angle determined according to the steering angle information from the steering angle sensor, for example. It can be generated as second vehicle information.
  • the display controller 200 responds to boundaries between a plurality of lanes detected by, for example, the image processing unit 310 based on a captured image (a forward road captured image representing a road ahead) from the image capturing unit 103 (front camera). For example, the display angle of the departure warning line can be determined.
  • the display controller 200 can generate a departure warning line (for example, one departure warning line WR in FIG. 4B) having the display angle as the first vehicle information.
  • the display controller 200 can generate a display image (projection image) composed of, for example, first vehicle information and second lane information, and send the display image to the display 20.
  • the display controller 200 can display, for example, the predicted trajectory line and the deviation warning line, for example, in the display range AR via the display device 20 or the display mechanism 100 (see step ST06 in FIG. 2).
  • the virtual image of one departure warning line WR (first vehicle information) in FIG. 4B is the driver's viewpoint 102, and the vehicle lane L2 of the own vehicle in FIG. It overlaps with, for example, the dotted white line WL2 (actual scenery) between the adjacent lane L1.
  • the display controller 200 determines, for example, the shape of one departure warning line WR (first vehicle information) based on the shape of the dotted white line WL2 detected by the image processing unit 310, for example.
  • the dotted white line WL2 below the virtual image of the departure warning line WR representing the warning level of the rear vehicle is difficult for the driver to recognize, but the range of the dotted white line WL2 or The area is relatively narrow or small.
  • the virtual image of the departure warning line WR is not arranged on the lane such as the driving lane L2, the adjacent lane L1, etc., the amount of information caused by the lanes L1 to L3 is not limited or reduced by the departure warning line WR. As a result, the driver can continue to drive the vehicle even more safely.
  • the amount of information resulting from the departure warning line WR is limited or reduced by the range or area of the dotted white line WL2, but this information amount is sufficient for the driver to determine lane change.
  • vehicle information such as the departure warning line WR can be efficiently projected.
  • the driver actually projects not only the departure warning line WR but also the two predicted trajectory lines TR1 and TR2 onto the windshield 101. It is easier to determine whether or not the travel lane L2 may be changed to the adjacent lane L1. In other words, when the host vehicle travels to the boundary line below the departure warning line WR (for example, the dotted white line WL2) and changes from the driving lane L2 to the adjacent lane L1, the driver is cautioned about such lane change.
  • the (attention level due to the second vehicle information) and the first vehicle information (attention level of the rear vehicle, warning level, etc.) can be associated instantaneously.
  • the virtual image of the departure warning line WR (first vehicle information) in FIG. 4B is at least a distance D1 (for example, 20 [m], for example) from the viewpoint 201 of the driving vehicle. ]),
  • D1 for example, 20 [m], for example
  • the content of vehicle information such as the degree of caution and warning of the rear vehicle is determined by the driver. May be difficult to recognize.
  • the shape of the departure warning line WR (first vehicle information) is, for example, a solid straight line based on the shape of the dotted white line WL2.
  • a solid straight line representing the departure warning line WR extends from the end or the lower end of the display range AR to the horizontal line H, for example.
  • the dotted white line WL2 on the road is shown with the maximum length in the display range AR.
  • the shape of the departure warning line WR (first vehicle information) may be, for example, the same as the shape of the dotted white line WL2, for example, a dotted straight line.
  • the distance between the dotted lines related to the departure warning line WR may or may not match the distance between the dotted lines related to the white line WL2.
  • the type of the interval between the dotted lines related to the warning line WR is arbitrary.
  • the shape of the departure warning line WR may be a broken straight line, for example. In other words, when the departure warning line WR is, for example, a straight line, the type of the straight line is arbitrary.
  • the shape of the departure warning line WR (first vehicle information) may not start from the end or the lower end of the display range AR, and may not end at the horizontal line H.
  • the shapes of the two predicted trajectory lines TR1 and TR2 are, for example, solid straight lines based on the traveling direction of the host vehicle, the traveling trajectory, and the like.
  • each of the two solid straight lines representing the two predicted trajectory lines TR1 and TR2 extends from the end or the lower end of the display range AR to the departure warning line WR, for example.
  • each of the two solid straight lines representing the two predicted trajectory lines TR1 and TR2 does not indicate the travel direction and travel trajectory of the host vehicle on the road with the maximum length in the display range AR. , Stays at the departure warning line WR.
  • the amount of information existing on the extension line of the two predicted trajectory lines TR1 and TR2 ahead of the deviation warning line WR is determined by the driver using the two predicted trajectory lines TR1 and TR2 remaining on the deviation warning line WR.
  • the driver can more strongly associate the two predicted trajectory lines TR1 and TR2 with the departure warning line WR.
  • the shape of the two predicted trajectory lines TR1 and TR2 may be, for example, a dotted solid line, or may be, for example, a broken solid line.
  • the two predicted trajectory lines TR1 and TR2 are, for example, straight lines, the types of the straight lines are arbitrary. *
  • the display controller 200 displays the steering angle information used in step ST05. It can be determined whether or not a change has occurred. Specifically, when the driver returns, for example, the left rotation of the steering handle, the display controller 200 determines that, for example, an increase in the steering angle is not detected, in other words, a decrease in the steering angle is detected. be able to. When an increase in the steering angle is not detected, in other words, when a decrease in the steering angle is detected, the display controller 200 can determine whether or not the steering angle has returned to zero (initial value) (FIG. 3). (See step ST08).
  • the two predicted trajectory lines TR1 and TR2 in FIG. 4B are changed to, for example, the two predicted trajectory lines TR1 ′ and TR2 ′ in FIG. 4C. Is done.
  • the steering angle zero initial value
  • the two predicted trajectory lines TR1 ′ and TR2 ′ in FIG. D two predicted trajectory lines TRS1 and TRS2.
  • the display controller 200 can change the display color of the predicted trajectory line (see step ST09 in FIG. 3).
  • the display color of the two predicted trajectory lines TR1 ′ and TR2 ′ in FIG. 4C is, for example, yellow (orange).
  • the two predicted trajectory lines TRS1 in FIG. , TRS2 is, for example, green.
  • green is a color indicating permission of the traveling of the host vehicle, which is one of, for example, three display colors of the traffic light.
  • the yellow (orange) color is a color that represents the attention of the traveling of the host vehicle that is, for example, one of the three display colors of the traffic light.
  • the display color of the departure warning line WR in FIG. 4C is, for example, red.
  • the color indicating the prohibition of the progress of the host vehicle that is the remaining of the three display colors of the traffic light, for example. is there.
  • the display controller 200 continues to display the two predicted trajectory lines TRS1 and TRS2 in FIG. 4D, for example, for a certain period of time, and then, for example, the two predicted trajectory lines TRS1 in FIG. In addition to the display of TRS2, for example, the display of the departure warning line WR in FIG. 4D can also be stopped (see step ST10 and step ST11 in FIG. 3).
  • the display controller 200 can determine whether or not the rear vehicle has been detected, in other words, whether or not the detection of the rear vehicle has ended. Yes (see step ST12 in FIG. 3).
  • the display controller 200 can immediately stop the display of the departure warning line WR in FIG. 4C, for example (see step ST13 in FIG. 3 and FIG. 4E).
  • the display controller 200 can continue displaying the predicted trajectory lines TR1 ′ and TR2 ′ of FIG. 4C in another display format for a certain period of time (step ST14 and step ST15 in FIG. 3). And FIG. 4 (E)).
  • the display color of the two predicted trajectory lines TR1 ′ and TR2 ′ in FIG. 4C is, for example, yellow (orange).
  • the display color of “, TRS2” is, for example, green.
  • each of the two solid lines representing the two predicted trajectory lines TRS1 ′ and TRS2 ′ extends from the end or the lower end of the display range AR to the horizontal line H, for example.
  • each of the two solid straight lines representing the two predicted trajectory lines TRS1 ′ and TRS2 ′ is extended to the horizontal line H, for example, according to the stop of the display of the departure warning line WR. This makes it easier for the driver to recognize the traveling direction of the host vehicle, the traveling locus, and the like.
  • the two predicted trajectory lines TRS1 ′ and TRS2 ′ are not extended to the horizontal line H, and may remain at, for example, the dotted white line WL2 (boundary line).
  • the display controller 200 displays, for example, the display angles of the two predicted trajectory lines TR1 and TR2 in FIG. 4B according to the decrease in the steering angle.
  • 4 (C) can be updated to the display angle of the two predicted trajectory lines TR1 ′ and TR2 ′ (see step ST19 in FIG. 2). Since the display angle of the predicted trajectory line is updated in accordance with the change in the steering angle, the driver can, for example, use the two predicted trajectory lines TR1 ′ and TR2 ′ (degree of attention to lane change) in FIG.
  • the departure warning line WR degree of attention of the rear vehicle shown in FIG. 4C can be associated more instantaneously.
  • the display controller 200 updates the display angles of, for example, the two predicted trajectory lines TR1 and TR2 in FIG. 4B according to the increase in the steering angle. (See step ST19 in FIG. 2). However, when the display angle of the predicted trajectory line reaches the limit angle, the display controller 200 can stop updating the display angle of the predicted trajectory line (see step ST17 and step ST18 in FIG. 2). For example, in FIG. 4F, only one predicted trajectory line TRS2 ′′ is displayed in the display range AR, for example. In other words, for example, one predicted trajectory line TR1 in FIG. 4B, for example, moves outside the display range AR as the steering angle increases.
  • the display controller 200 is, for example, a straight line so that the angle between the virtual image of the two predicted trajectory lines TR1 and TR2 in FIG. 4B and the dotted white line WL2 increases as the operation amount of the steering wheel increases. It is possible to generate two predicted trajectory lines TR1 and TR2. Therefore, when the operation amount of the steering wheel is large, the two predicted trajectory lines TR1 and TR2 may move out of the display range AR. Therefore, when the operation amount of the steering wheel reaches a predetermined amount, the display controller 200 does not change as the steering angle increases, for example, one predicted trajectory line TRS2 ′′ as shown in FIG. 4F, for example. (Fixed second vehicle information) can be generated. Thereby, when the operation amount of the steering wheel is large, the display controller 200 can leave the second vehicle information in the display range AR.
  • the display controller 200 displays, for example, one predicted trajectory line TRS2 in FIG. 4F as the fixed second vehicle information.
  • a graphic TRS2 '' arranged next to the departure warning line WR in FIG. 4G may be displayed.
  • a figure TRS2 ′′ (fixed second vehicle information) that is, for example, a triangle is adjacent to the right side of the departure warning line WR on the traveling lane L2 side, Located next to the bottom edge.
  • the driver can continue to recognize the presence of the rear vehicle.
  • the figure TRS2 ′′ in FIG. 4G is not limited to a triangle, and may be any figure, and an arrow is selected as the figure (fixed second vehicle information), for example. May be.
  • the traveling lane of the own vehicle (L 2 in FIG. 4A) or the road on which the own vehicle is traveling is a straight line. It is shown on the assumption.
  • the traveling lane of the host vehicle may not be a straight line, and may be a curved line, for example.
  • one deviation warning line WR that is, for example, a straight line in FIG. 4B is bent according to, for example, the curvature or the radius of curvature of the road. Such a curve may be used.
  • the virtual image V of one departure warning line WR is arranged on the boundary line (actual scenery) of the curve from the viewpoint 102 of the driver.
  • two predicted trajectory lines TR1 and TR2 that are, for example, straight lines in FIG. 4B, for example, match the actual traveling trajectory that the left and right front wheels of the host vehicle travel in the future, for example, from the viewpoint 102 of the driver.
  • a curve is preferable.
  • one departure warning line WR (first vehicle information) and, for example, two predicted trajectory lines TR1 and TR2 (second vehicle information) are straight lines.
  • first vehicle information for example, two predicted trajectory lines TR1 and TR2 (second vehicle information)
  • second vehicle information for example, only part of the vehicle information may be straight or partially straight, or a combination of a plurality of straight portions.
  • the deviation warning line WR which is a straight line
  • a curved portion or a figure may be added to both ends or one end of the straight line.
  • each of the two predicted trajectory lines TR1 and TR2 that are straight lines may be a plurality of straight line portions combined in the middle of the straight lines.
  • the first vehicle information and / or the second vehicle information may not be a complete straight line, but only have straight ahead.
  • the shape of one departure warning line WR has rectilinearity, so the driver can set the departure warning line WR and a boundary line (for example, the dotted line in FIG. 4A).
  • the white line WL2) is more easily associated.
  • the shape of the two predicted trajectory lines TR1 and TR2 has a straight traveling property, for example, so that the driver can move the vehicle toward the boundary line or It is easier to recognize the position passing through the boundary line.
  • one departure warning line WR (first vehicle information) is a complete one having a curvature or a radius of curvature that is completely equal to the curvature or the radius of curvature of the road. It may only have curvilinearity, not a curve. In other words, for example, one departure warning line WR may be only partially curved or partially curved, or may be a combination of a plurality of curved portions.
  • two predicted track lines TR1 and TR2 are actual travel tracks in which the left and right front wheels of the host vehicle travel in the future.
  • each of the two predicted trajectory lines TR1 and TR2 may be partially curved or partially curved, or may be a combination of a plurality of curved portions.
  • the initial value of the steering angle in step ST08 in FIG. 3 is set or updated according to the curvature or radius of curvature of the curved road instead of zero.
  • the curvature or radius of curvature of a curved road may be detected or extracted by, for example, the image processing unit 310 based on the imaging unit 103 or the front camera, for example, or alternatively based on the map road information, for example.
  • it may be detected or acquired by the road information acquisition unit 320 or the navigation device, for example.
  • FIG. 5 shows an example of a table for determining the display format of the attention degree of the vehicle information.
  • the display controller 200 in FIG. 1 determines vehicle information (for example, one departure warning in FIG. 4B) based on the relative speed and relative distance between the host vehicle and the rear vehicle.
  • the display format of the attention level of the line WR) can be determined.
  • three display intensities are shown. Specifically, the relative speed is classified as low speed, medium speed, and high speed, and the relative distance is classified as long distance, medium distance, and short distance.
  • the relative speed when the relative speed is 10 [km / h] or less, the relative speed is set to a low speed.
  • the relative speed when the relative speed is greater than, for example, 10 [km / h] and smaller than, for example, 30 [km / h], the relative speed is set to a medium speed.
  • the relative speed when the relative speed is, for example, 30 [km / h] or more, the relative speed is set to a high speed.
  • the relative speed is, for example, the relative speed of the rear vehicle with respect to the own vehicle and the absolute speed of the own vehicle is, for example, 40 [km / h], for example, 10 [km / h] with respect to the own vehicle
  • the relative distance when the relative distance is, for example, 10 [m] or less, the relative distance is set to a short distance.
  • the relative distance when the relative distance is larger than 10 [m] and smaller than 30 [m], for example, the relative distance is set to a medium distance.
  • the relative distance when the relative distance is, for example, 30 [m] or more, the relative distance is set to a long distance.
  • the relative distance is, for example, a relative distance of the rear vehicle to the own vehicle (a distance from the rear vehicle to the own vehicle).
  • the absolute speed of the rear vehicle is higher than the absolute speed of the host vehicle. In other words, it can be said that the rear vehicle is approaching the host vehicle. Therefore, for example, when the relative speed of the rear vehicle with respect to the host vehicle is high, it is preferable that the degree of attention is high.
  • the relative speed of the rear vehicle with respect to the host vehicle is high, it is preferable that the degree of attention is high.
  • the relative speed of the rear vehicle with respect to the host vehicle is low, it can be said that the absolute speed of the rear vehicle is comparable to or slower than the absolute speed of the host vehicle.
  • the degree of attention when the relative speed is low may be low.
  • the display intensity I corresponds to, for example, a low degree of attention
  • the display intensity III corresponds to, for example, a high degree of attention (for example, a warning degree)
  • the display intensity II corresponds to, for example, an intermediate degree of attention.
  • one departure warning line WR corresponds to the display intensity III, and the display color is, for example, red.
  • the display color of the departure warning line WR corresponding to the display intensity II changes from, for example, red to, for example, reddish brown (amber) May be.
  • the display color of the departure warning line WR corresponding to the display intensity I may change from, for example, amber to, for example, yellow.
  • the display format of one departure warning line WR can be set to a display color having more red components, for example.
  • the display format of one departure warning line WR may include a change or classification of display luminance (gradation) instead of or in addition to the change or classification of the display color.
  • the display format of one departure warning line WR can be set to a higher display luminance, for example.
  • the display format of one departure warning line WR may include a change or classification of the display range (thickness).
  • the display format of one departure warning line WR can be set to a wider display range (thick line), for example.
  • the display format of one departure warning line WR may include a change or classification of the blinking speed.
  • the display format of one departure warning line WR can be set to a faster blinking speed, for example.
  • the display format shown in FIG. 5 may be applied to, for example, the two predicted trajectory lines TR1 and TR2 in FIG.
  • the display color of the two predicted trajectory lines TR1 and TR2 in FIG. 4B is, for example, yellow (orange). It may change according to the relative speed and relative distance between the vehicle behind.
  • the display color (display format) of the two predicted trajectory lines TR1 and TR2 in FIG. 4B is set to, for example, red, in other words, for example, one deviation warning line in FIG. 4B. It may be set to be the same as the display color (display format) of WR.
  • the display format shown in FIG. 5 is merely an example. Therefore, for example, one departure warning line WR (first vehicle information) in FIG. 4B and / or two in FIG. 4B, for example.
  • the predicted trajectory lines TR1 and TR2 may be based only on the relative speed or may be based only on the relative distance.
  • the display format of one departure warning line WR is set to zero or lower than the display intensity I, and the display of the departure warning line WR is stopped.
  • the display color of the two predicted trajectory lines TRS1 and TRS2 in FIG. 4D is, for example, green, and the degree of attention (display intensity) is set to zero or lower than the display intensity I. .
  • the display format of the two predicted trajectory lines TR1 and TR2 (second vehicle information) in FIG. 4B may be changed according to other information.
  • the other information is, for example, the change rate of the steering angle information.
  • Attention level can be set high.
  • the present invention is suitable as a display device that displays a virtual image on a windshield of a vehicle so as to overlap an actual landscape.
  • SYMBOLS 20 ... Display device, 21 ... Reflector, 100 ... Display mechanism, 101 ... Windshield, 102 ... Driver's viewpoint, 103 ... Imaging part, 200 ... Display controller , 210 ... determination unit, 220 ... generation unit, 230 ... storage unit, 300 ... LAN, 310 ... image processing unit, 320 ... road information acquisition unit, 330 ... position Information acquisition unit, 340 ... Instruction information acquisition unit, 350 ... Vehicle speed information acquisition unit, 360 ... Rear vehicle information acquisition unit, 370 ... Steering angle information acquisition unit, AR ... Display range, L ... Display light, L1, L2, L3 ... Lane, H ... Horizontal line, P ... Processing part, S ... Display device, 21 ... Reflector, 100 ... Display mechanism, 101 ... Windshield, 102 ... Driver's viewpoint, 103 ... Imaging part, 200 ... Display controller , 210 ... determination unit, 220 ... generation unit, 230 ... storage unit, 300

Abstract

 後方車両の車両情報を効率的に投影可能な車両情報投影システムを提供する。 車両の前方に存在する道路を撮像可能である撮像部103と、車両のウインドシールド101の一部に設定される表示範囲に車両情報WRを投影して、車両の運転者の視点で車両情報の虚像Vが実際の風景と重なるように車両情報WRを表示範囲に表示可能である表示機構100と、後方車両が車両の後方に存在することを表す後方車両情報を取得可能である後方車両情報取得部360と、車両が車両の走行車線から走行車線に隣接する隣接車線に変更することを表す車線変更情報を取得可能である車線変更情報取得部320,330,340,370と、後方車両情報及び車線変更情報に基づき後方車両の注意度合いを判定する処理部Pと、を備えている。車両情報が注意度合いを含む車両情報WRの虚像が走行車線L2と隣接車線L1との間の境界線WL2と重なる。

Description

車両情報投影システム及び車両情報投影方法
 本発明は、車両に関する情報(車両情報)を投影するシステム(車両情報投影システム)及びその方法(車両情報投影方法)に関する。
 例えば特許文献1は、車両情報投影システムとして、車両用表示装置を開示し、その車両用表示装置は、車両のウインドシールド(フロントガラス)に、その車両の前方の道路の注意度合いを投影することができる。具体的には、車両の前方に例えば一時停止規制が設けられた交差点が存在する時に、車両用表示装置は、高い注意度合いを有する道路として、例えば車両が走行している走行車線のうち、一時停止規制に対応する一時停止線の前方の部分(走行車線の一部)を判定することができる。また、車両用表示装置は、高い注意度合いを有する道路として、走行車線の隣の反対車線を判定することができる。更に、車両用表示装置は、高い注意度合いを有する道路として、その交差点で走行車線と交差する他の道路(交差道路)を判定することができる。次に、特許文献1の車両用表示装置は、高い注意度合いを有する道路(例えば走行車線の一部、反対車線及び交差道路)が車両の運転者の視点で例えば赤色を有するように、ウインドシールドに表示画像(車両の前方の道路の注意度合い)を投影することができる。
 ここで、ウインドシールドに投影される赤色の光の範囲、即ち、ウインドシールドに表示される赤色の表示画像の形状は、高い注意度合いを有する道路の形状と一致している。言い換えれば、風景としての高い注意度合いを有する道路又は実空間上の高い注意度合いを有する道路の形状(位置)に応じて、ウインドシールドに表示される赤色の表示画像の形状(ウインドシールドに投影される赤色の光の範囲)は、決定されて、赤色の表示画像の虚像は、運転者の視点で高い注意度合いを有する道路と重ねられている。このような注意度合いを表す車両情報のウインドシールドへの投影又は表示は、一般に、ヘッドアップディスプレイ(HUD:Head-Up Display)と当業者に呼ばれている。なお、特許文献1の車両用表示装置では、高い注意度合いを有する道路(走行車線の一部)として、車両の将来の走行軌跡が投影又は表示されてもよい。
特開2005-202787号公報
 特許文献1の車両用表示装置では、車両のウインドシールド全体のどこかに、その車両の前方の道路の注意度合いが投影されるので、注意度合いがウインドシールドに投影される表示範囲は、ウインドシールド全体に設定されて、従って、その表示範囲は、広く又は大きくなってしまう。しかしながら、ウインドシールドでの表示範囲を広く又は大きくするためには、車両のダッシュボード(インストルメントパネル)に搭載又は設置される表示器(投影器)のスペースが大きくなってしまう。言い換えれば、そのスペースは、一般に、車両の種類によって制限されて、ウインドシールドでの表示範囲は、ウインドシールドの一部に制限されてしまう。
 また、ウインドシールドでの表示範囲を広く又は大きくする時に、その表示範囲を決定する表示器を備える車両用表示装置(車両情報投影システム)の製造コストは、増加してしまう。言い換えれば、表示器の製造コストの増加を抑制するために、ウインドシールドでの表示範囲は、ウインドシールドの一部に制限されることがある。
 ウインドシールドでの表示範囲がウインドシールドの一部に制限される時に、車両の運転者は、特許文献1の車両用表示装置での注意度合いの投影又は表示が重なる風景を認識し難い。言い換えれば、ウインドシールドでの表示範囲がウインドシールドの一部に制限される時に、特許文献1の車両用表示装置での注意度合いの投影又は表示に起因する情報量は、制限され又は少なくなるので、その注意度合いの投影又は表示は、効率的に実行する必要がある。
 加えて、特許文献1の車両用表示装置では、車両のウインドシールド全体のどこかに、その車両の前方の道路の注意度合いが投影されるので、その車両の後方の注意度合い、即ちその車両の後方の車両(後方車両)の注意度合いは、ウインドシールドに投影されない。
 本発明の1つの目的は、後方車両の例えば注意度合い、警告度合い等の車両情報を効率的に投影可能である車両情報投影システムを提供することである。本発明の他の目的は、以下に例示する態様及び最良の実施形態、並びに添付の図面を参照することによって、当業者に明らかになるであろう。
 以下に、本発明の概要を容易に理解するために、本発明に従う態様を例示する。
 第1の態様において、車両情報投影システムは、
 車両の前方に存在する道路を実際の風景として撮像可能である撮像部と、
 前記車両のウインドシールドの一部に設定される表示範囲に車両情報を投影して、前記車両の運転者の視点で前記車両情報の虚像が前記実際の風景と重なるように前記車両情報を前記表示範囲に表示可能である表示機構と、
 後方車両が前記車両の後方に存在することを表す後方車両情報を取得可能である後方車両情報取得部と、
 前記車両が前記車両の走行車線から前記走行車線に隣接する隣接車線に変更することを表す車線変更情報を取得可能である車線変更情報取得部と、
 前記後方車両情報及び前記車線変更情報に基づき前記後方車両の注意度合いを判定する処理部と、
 を備え、
 前記車両情報が前記注意度合いを含み且つ前記車両情報の虚像が前記走行車線と前記隣接車線との間の境界線と重なるように、前記処理部は、前記車両情報を生成可能である。
 第1の態様では、運転者の視点で、車両情報(後方車両の注意度合い)の虚像が走行車線と隣接車線との間の境界線と重なる。ここで、境界線は、車両が走行車線から隣接車線に変更可能である例えば点線の白線であり、境界線(例えば点線の白線)は、道路上の実際の風景である。運転者は、車両情報(後方車両の注意度合い)の虚像の下の境界線を認識し難くなるが、その境界線の範囲又は面積は、相対的に狭く又は小さい。言い換えれば、走行車線、隣接車線、対向車線等の車線の上に車両情報(後方車両の注意度合い)の虚像が配置されないので、車線又は車線上の例えば自動車に起因する情報量は、車両情報(後方車両の注意度合い)によって制限されない又は少なくならない。他方、境界線(例えば点線の白線)上の車両情報(後方車両の注意度合い)に起因する情報量は、境界線(例えば点線の白線)の範囲又は面積によって制限され又は小さくなるが、その情報量で運転者が実際に走行車線から隣接車線に変更してもよいか否かを判断するには、十分である。このように、車両情報投影システムによれば、車両情報を効率的に投影可能である。加えて、車両情報投影システムによれば、後方車両の注意度合いを車両情報として車両のウインドシールドの一部に表示することができる。
 なお、注意度合いの中には、例えば警告度合いが含まれ、車両情報投影システムは、車両情報を介して運転者に注意を与えるだけでなく、警告を与えてもよい。言い換えれば、運転者が実際に走行車線から隣接車線に変更する時に、車両情報は、車両が後方車両と衝突しないことを表す低い注意度合いであってもよく、車両が後方車両と衝突すること又は後方車両の走行を妨害することを表す高い注意度合い(警告度合い)であってもよい。
 第1の態様に従属する第2の態様において、車両情報投影システムは、
 前記車両が前記境界線に進行することを表す車両進行情報を取得可能である車両進行情報取得部を、
 更に備えてもよく、
 前記車両情報は、前記注意度合いを含む第1の車両情報と、前記車両進行情報に基づく第2の車両情報と、を有してもよく、
 前記第1の車両情報及び前記第2の車両情報が前記表示範囲に表示されるように、前記処理部は、前記第1の車両情報及び前記第2の車両情報を生成可能であってもよい。
 第2の態様では、車両情報として、第1の車両情報(後方車両の注意度合い)だけでなく、第2の車両情報も生成される。第1の車両情報(後方車両の注意度合い)だけがウインドシールドに投影されるよりも、第1の車両情報(後方車両の注意度合い)だけでなく、第2の車両情報もウインドシールドに投影される方が、運転者は、実際に走行車線から隣接車線に変更してもよいか否かをより一層判断し易い。言い換えれば、車両が境界線に進行して走行車線から隣接車線に変更する時に、運転者は、このような車線変更の注意度合い(第2の車両情報に起因する注意度合い)と第1の車両情報(後方車両の注意度合い)とを瞬時に関連付けることができる。
 なお、車両進行情報取得部の中には、例えば操舵角センサ、転舵角センサ、ウインカ(方向指示器)、撮像画像解析器、GPSセンサ、加速度センサ、車速センサ、ジャイロセンサ、若しくは方位センサ、又はそれらの任意の組み合わせ等が含まれ、処理部は、車両進行情報取得部によって取得される車両進行情報に基づき、車両の例えば進行方向、進行軌跡などを表す第2の車両情報を生成することができる。
 第2の態様に従属する第3の態様において、
 前記車両進行情報取得部は、前記車両のステアリングハンドルが操作されることを表す操舵角情報を前記車両進行情報として取得可能である操舵角センサを含んでもよく、
 前記処理部は、前記操舵角情報に応じて変化する前記第2の車両情報をリアルタイムで生成可能であってもよい。
 第3の態様では、車両進行情報取得部は、操舵角センサであってもよく、或いは、少なくとも操舵角センサを含んでいる。操舵角センサによって取得される操舵角情報の応答性は、例えば転舵角センサ、ウインカ、撮像画像解析器、GPSセンサ、加速度センサ、車速センサ、ジャイロセンサ、方位センサ、又はそれらの任意の組み合わせ等によって取得される情報よりも、早い。従って、運転者は、車線変更の注意度合い(第2の車両情報に起因する注意度合い)と第1の車両情報(後方車両の注意度合い)とをより一層瞬時に関連付けることができる。
 第3の態様に従属する第4の態様において、
 前記第2の車両情報の形状は、直進性を有してもよく、
 前記ステアリングハンドルの操作量が増加する程に前記第2の車両情報の前記虚像と前記境界線とのなす角度が増加するように、前記処理部は、前記直進性を有する前記第2の車両情報を生成可能であってもよく、
 前記操作量が所定量に到達する時に、前記処理部は、前記直進性を有する前記第2の車両情報の代わりに、前記第1の車両情報の隣に配置される図形からなる前記第2の車両情報を生成可能であってもよい。
 第4の態様では、前記第2の車両情報の形状は、直進性を有しているので、運転者は、車両が境界線に向かう方向、或いは、車両が境界線を通過する位置をより一層認識し易い。加えて、第4の態様では、ステアリングハンドルの操作量が所定量に到達する時に、言い換えれば、第2の車両情報の虚像と境界線とのなす角度が増加して第2の車両情報を表示し難い時に、第1の車両情報(後方車両の注意度合い)の隣に図形を配置又は表示することができる。これにより、ステアリングハンドルの操作量が所定量に到達する時に、運転者は、その図形で、車線変更の注意度合い(第2の車両情報に起因する注意度合い)と第1の車両情報(後方車両の注意度合い)とを関連付け続けることができる。
 第3の態様に従属する第5の態様において、
 前記第2の車両情報の形状は、直進性を有してもよく、
 前記ステアリングハンドルの操作量が増加する程に前記第2の車両情報の前記虚像と前記境界線とのなす角度が増加するように、前記処理部は、前記直進性を有する前記第2の車両情報を生成可能であってもよく、
 前記操作量が所定量に到達する時に、前記処理部は、前記操舵角情報に応じて変化する前記第2の車両情報の代わりに、固定の第2の車両情報を生成可能であってもよい。
 第5の態様では、前記第2の車両情報の形状は、直進性を有しているので、運転者は、車両が境界線に向かう方向、或いは、車両が境界線を通過する位置をより一層認識し易い。加えて、第5の態様では、ステアリングハンドルの操作量が所定量に到達する時に、言い換えれば、第2の車両情報の虚像と境界線とのなす角度が増加して第2の車両情報を表示し難い時に、第2の車両情報(その角度)を固定することができる。これにより、ステアリングハンドルの操作量が所定量に到達する時に、運転者は、固定の第2の車両情報で、車線変更の注意度合い(第2の車両情報に起因する注意度合い)と第1の車両情報(後方車両の注意度合い)とを関連付け続けることができる。
 第1乃至第5の何れか1つの態様に従属する第6の態様において、
 前記後方車両情報は、前記車両と前記後方車両との間の相対速度及び/又は相対距離に基づいてもよく、
 前記処理部は、前記相対速度及び/又は前記相対距離に基づき前記後方車両の前記注意度合いの表示形式を判定してもよく、
 前記処理部は、前記表示形式に応じて変化する前記車両情報を生成可能であってもよい。
 第6の態様では、相対速度及び/又は相対距離に基づき、後方車両の注意度合いの表示形式が判定される。これにより、車両情報(例えば第1の車両情報)は、後方車両の注意度合いの表示形式(相対速度及び/又は相対距離)に応じて変化し、運転者は、車両情報(例えば第1の車両情報)の変化で、後方車両の注意度合い(例えば高い注意度合い、低い注意度合いなど)をより一層判断し易い。
 第3乃至第5の何れか1つの態様に従属する第7の態様において、
 前記処理部は、前記操舵角情報の変化率に基づき前記第2の車両情報の注意度合いの表示形式を判定してもよく、
 前記処理部は、前記表示形式に応じて変化する前記第2の車両情報を生成可能であってもよい。
 第7の態様では、操舵角情報に基づき、第2の車両情報の注意度合いの表示形式が判定される。これにより、第2の車両情報は、例えば車線変更の注意度合いの表示形式に応じて変化し、運転者は、第2の車両情報の変化で、その注意度合いをより一層判断し易い。
 第8の態様において、車両情報投影方法は、
 車両の前方に存在する道路を撮像画像として読み込むこと、
 前記車両の後方に存在する後方車両を検出すること、
 前記車両が前記車両の走行車線から前記走行車線に隣接する隣接車線に変更する予定を検出すること、
 前記車両が前記走行車線から前記隣接車線に変更し終える前に、前記後方車両の注意度合いを判定すること、
 車両情報の虚像が前記走行車線と前記隣接車線との間の境界線と重なるように、前記注意度合い及び前記撮像画像に基づき前記車両情報を生成すること、及び
 前記車両のウインドシールドの一部に設定される表示範囲に前記車両情報を投影すること、
 を含む。
 第8の態様では、車両情報(後方車両の注意度合い)の虚像が走行車線と隣接車線との間の境界線と重なる。車両情報(後方車両の注意度合い)の虚像の下の境界線(道路上の実際の風景)が認識され難くなるが、その境界線の範囲又は面積は、相対的に狭く又は小さい。言い換えれば、走行車線、隣接車線、対向車線等の車線の上に車両情報(後方車両の注意度合い)の虚像が配置されないので、車線又は車線上の例えば自動車に起因する情報量は、車両情報(後方車両の注意度合い)によって制限されない又は少なくならない。他方、境界線上の車両情報(後方車両の注意度合い)に起因する情報量は、境界線の範囲又は面積によって制限され又は小さくなるが、その情報量で車線変更の判断には、十分である。このように、車両情報投影方法によれば、車両情報を効率的に投影可能である。加えて、車両情報投影方法によれば、後方車両の注意度合いを車両情報として車両のウインドシールドの一部に設定される表示範囲に投影することができる。
 当業者は、例示した本発明に従う態様が、本発明の精神を逸脱することなく、さらに変更され得ることを容易に理解できるであろう。
本発明に従う車両情報投影システムの概略構成例を示す。 図1の車両情報投影システム又は表示コントローラの概略動作の1例の一部を表すフローチャート図を示す。 図1の車両情報投影システム又は表示コントローラの概略動作の1例の残部を表すフローチャート図を示す。 図4(A)は、図1のウインドシールドを介して認識される実際の風景の1例を示し、図4(B)、図4(C)、図4(D)、図4(E)、図4(F)及び図4(G)の各々は、図4(A)のウインドシールドの一部に設定される表示範囲に投影される車両情報の1例を示す。 車両情報の注意度合いの表示形式を決定するためのテーブルの1例を示す。
 以下に説明する最良の実施形態は、本発明を容易に理解するために用いられている。従って、当業者は、本発明が、以下に説明される実施形態によって不当に限定されないことを留意すべきである。
 図1は、本発明に従う車両情報投影システムの概略構成例を示す。図1に示されるように、車両情報投影システムは、例えば撮像部103及び表示機構100を備えている。撮像部103は、車両の前方に存在する道路(道路上の実際の風景)を撮像可能である。表示機構100は、車両のウインドシールド101の一部に設定される表示範囲に車両情報を投影して、車両の運転者の視点102で車両情報の虚像Vが実際の風景と重なるように車両情報を表示範囲に表示可能である。このような車両情報投影システムは、一般に、HUDシステムと呼ばれている。図1の表示機構100は、例えば表示器20及び反射器21を有している。表示機構100は、一般に、HUD又はHUD装置と呼ばれている。表示機構100は、典型的にはダッシュボードの内部に収納されているが、表示機構100の全部又は一部がダッシュボードの外部に配置されてもよい。なお、表示器20は、例えばウインドシールド101に車両情報を投影するので、投影器と呼ばれてもよい。
 図1の車両情報投影システムは、例えば情報取得部Sを更に備え、情報取得部Sは、少なくとも後方車両情報取得部360を有している。後方車両情報取得部360は、後方車両(図示せず)が車両の後方に存在することを表す後方車両情報を取得可能である。図1の情報取得部Sは、後方車両情報取得部360だけでなく、車線変更情報取得部を有し、ここで、車線変更情報取得部は、車両が車両の走行車線から走行車線に隣接する隣接車線に変更することを表す車線変更情報を取得可能である。なお、車線変更情報は、車両が車両の走行車線から走行車線に隣接する隣接車線に変更する予定(車線変更の開始)を含む一方、車線変更情報は、車両が走行車線から隣接車線に変更し終える(車線変更の終了)を含まなくてもよい。
 図1において、車線変更情報取得部は、例えば道路情報取得部320、指示情報取得部340及び舵角情報取得部370で構成される。もちろん、車線変更情報取得部は、道路情報取得部320、指示情報取得部340、若しくは舵角情報取得部370だけであってもよく、又はそれらの任意の組み合わせであってもよい。また、車線変更情報取得部は、図1で示される組み合わせに限定されず、他の情報取得部が採用されてもよい。
 図1の車両情報投影システムは、例えば表示コントローラ200を更に備え、表示コントローラ200は、少なくとも処理部Pを有している。なお、表示コントローラ200は、典型的にはダッシュボードの内部に収納されているが、表示コントローラ200の全部又は一部がダッシュボードの外部に配置されてもよい。表示機構100及び表示コントローラ200の組み合わせは、HUD又はHUD装置と呼ばれてもよい。図1の処理部Pは、例えば判定部210及び生成部220で構成され、処理部P又は判定部210は、例えば指示情報取得部340等の車線変更情報取得部によって取得される車線変更情報及び後方車両情報取得部360によって取得される後方車両情報に基づき、後方車両の注意度合いを判定することができる。次に、ウインドシールド101に投影される車両情報が後方車両の注意度合いを含み且つその車両情報の虚像Vが走行車線と隣接車線との間の境界線と重なるように、処理部P又は生成部220は、その車両情報を生成可能である。
 図1において、表示機構100又は表示器20は、ウインドシールド101を介して虚像Vを表示するために、表示コントローラ200又は処理部Pによって制御され、これにより、表示器20は、車両情報に基づく表示光L(投影光)を生成又は放出することができる。反射器21は、表示器20からの表示光Lの光路をウインドシールド101に導き、運転者は、ウインドシールド101での表示光L(車両情報)を虚像Vとして認識することができる。なお、表示器20は、例えば液晶パネルを有し、図1において、1つの表示器20が示されているが、表示器20は、例えば2つの又は左右の表示器であってもよく、言い換えれば、虚像Vは、運転者の両眼用に三次元の虚像であってもよい。
 車両情報投影システムが搭載される車両(自車両)は、図1において例えば自動車であり、自動車は水平線H又は道路の上を走行可能である。運転者の視点102で、図1の虚像Vの高さ又は奥行きは、例えば距離D1から距離D3までの所定距離に設定されている。言い換えれば、運転者の視点102で、虚像Vの下端は、車両から距離D1だけ前方に存在し、虚像Vの上端は、車両から距離D3だけ前方に存在し、虚像Vの上下方向の中点は、車両から距離D2だけ前方に存在している。距離D1、距離D2及び距離D3は、それぞれ、例えば20[m]、例えば30[m]及び例えば50[m]である。
 図1において、1つの反射器21が示されているが、反射器21は、例えば2つの反射器であってもよく、言い換えれば、表示器20からウインドシールド101までの表示光Lの光路は、調整されてもよく、距離D1、距離D2及び距離D3は、理想的な運転者の視点102の高さ(理想的な運転者の座高の高さ)及び表示光Lの光路に応じて調整されてもよい。また、反射器21は、一般に、表示器20からの表示光Lを拡大し、加えて、反射器21又は表示コントローラ200(例えば処理部P)は、一般に、ウインドシールド101の一部に設定される表示範囲における歪み(例えばガラス面の歪み)を補正することができる。
 図1の表示コントローラ200は、例えば記憶部230を更に備え、記憶部230は、例えば判定部210、生成部220等の処理部Pの処理又は演算に必要な様々なデータを記憶することができる。表示コントローラ200は、典型的には例えばマイクロコンピュータで構成され、例えばCPUと、ROM、RAM等のメモリと、入出力インターフェース等を含むことができる。処理部Pは、典型的にはCPU及びRAM(ワーク領域)で構成され、記憶部230は、典型的にはROM(例えばEEPROM)で構成される。例えば、ROMは、CPUに所定の動作(車両情報投影方法)を実行させるプログラムを記憶してもよく、RAMは、CPUのワーク領域を形成することができる。また、ROMは、例えば車両情報を決定又は演算するために必要なデータを記憶することができる。図1の表示コントローラ200は、車両に配置又は搭載されるLAN300(例えばバス型のLAN)を介して、例えば情報取得部Sに接続されている。表示コントローラ200は、一般に、ECU(Electronic Control Unit)と呼ばれてもよい。
 なお、情報取得部Sが複数の情報取得部である時に、言い換えれば、情報取得部Sが例えば後方車両情報取得部360及び例えば舵角情報取得部370等を有する時に、複数の情報取得部の各々(例えば後方車両情報取得部360、舵角情報取得部370等)は、LAN300を介して例えば表示コントローラ200に接続されている。情報取得部Sを構成する各情報取得部(例えば後方車両情報取得部360、舵角情報取得部370等)は、一般に、ECU又はセンサと呼ばれてもよい。
 図1において、表示コントローラ200は、LAN300を介して画像処理部310に接続されている。図1の画像処理部310は、例えばCCD等の撮像素子を有する撮像部103から撮像画像を取り込み、撮像画像に基づき例えば複数の車線間の境界線(例えば点線の白線、実線の白線、実線の黄(オレンジ)色)を例えばリアルタイムで検出又は抽出することができる。加えて、画像処理部310は、車線又は道路を検出又は抽出してもよく、また、車両の前方に存在する前方車両(例えば先行車両、対向車両)及び/又は障害物等を検出又は抽出してもよい。撮像部103は、例えばカメラ(前方カメラ)であり、例えば図示されないインナーリアビューミラー(バックミラー)の付近に設置されている。撮像部103は、専用の撮像部であってもよく、共用の撮像部(車両情報投影システムだけでなく例えばドライブレコーダに利用される撮像部)であってもよい。
 もちろん、図1の画像処理部310は、省略されてもよく、言い換えれば、表示コントローラ200は、例えばLAN300を介して撮像部103に直接に接続されて、表示コントローラ200又は処理部Pは、それ自身で、撮像画像(実際の風景)に基づき例えば境界線等の対象物を検出又は抽出してもよい。代替的に、情報取得部Sが例えば位置情報取得部330及び道路情報取得部320を有する時に、表示コントローラ200又は処理部Pは、例えばLAN300、位置情報取得部330及び道路情報取得部320を介して、車両の位置(例えば現在位置)に基づく境界線、道路等の対象物の情報(対象物の形状)を検出又は抽出してもよい。
 図1の後方車両情報取得部360は、例えばカメラ(後方カメラ)及び例えば画像処理部(後方カメラ用画像処理部)で構成され、車両の後方に存在する後方車両(例えば自動車又は四輪車、オートバイ又は二輪車)を検出又は抽出することができる。もちろん、後方車両情報取得部360は、例えばレーダ装置、ソナー装置等であってもよく、後方車両情報取得部360は、対象物を後方車両として検出又は抽出することができる。代替的に、後方車両情報取得部360は、例えば車車間通信装置、路車間通信機器等であってもよく、後方車両の位置(例えば絶対位置)を検出又は受信してもよい。
 後方車両情報取得部360は、好ましくは、それ自身が走行車線の隣の隣接車線を走行する後方車両を検出可能であるように、配置又は設定されている。隣接車線を走行する後方車両は、車両(自車両)に対して例えば左後方又は右方向に位置する後方車両である。また、その後方車両には、例えば自車両に対して自車両を追い越していない例えば左隣又は右隣に位置する後方車両であって、後方車両の一部が自車両の方向に存在する後方車両が含まれている。
 図1の後方車両情報取得部360は、後方車両を検出し、好ましくは、車両(自車両)と後方車両との間の相対距離を検出する。図1の後方車両情報取得部360は、更に好ましくは、相対距離だけでなく、車両(自車両)と後方車両との間の相対速度も検出する。もちろん、後方車両情報取得部360は、後方車両の存在だけを検出してもよく、代替的に、後方車両の絶対位置だけを検出してもよく、代替的に、相対速度又は相対距離の何れか一方だけを検出してもよい。後方車両情報取得部360が後方車両の存在(存在検出情報)だけを検出する時に、その後に、表示コントローラ200又は処理部Pは、それ自身で、後方車両の存在検出情報に基づき例えば相対距離及び/又は相対速度を検出又は抽出してもよい。
 後方車両情報取得部360が後方車両の例えば絶対速度を検出又は取得する時に、後方車両情報取得部360又は例えば表示コントローラ200(処理部P)は、例えば車速情報取得部350(例えばメータ、車輪速センサなど)で取得される車両(自車両)の絶対速度を考慮して、相対速度を検出又は演算してもよい。
 図1の舵角情報取得部370は、車両(自車両)の舵角情報を検出又は取得することができる。舵角情報の中には、自車両のステアリングハンドルが例えば運転者によって操作されることを表す操舵角情報、自車両の転舵輪(例えば前輪)が例えばモータ(図示せず)によって駆動されることを表す転舵角情報等が含まれている。言い換えれば、舵角情報取得部370は、ステアリングハンドル又はステアリングコラムの回転を取得可能である例えば操舵角センサを含み、或いは、例えばモータの軸又は転舵輪の回転を取得可能である例えば転舵角センサを含むことができる。なお、舵角情報取得部370は、LAN300を介して舵角情報を例えば表示コントローラ200(処理部P)に送信可能である例えばパワーステアリング用のECU、横滑り防止用のECU等であってもよい。
 次に、図1の指示情報取得部350は、車両(自車両)への指示情報を検出又は取得することができる。指示情報の中には、自車両のウインカ(方向指示器)が例えば運転者によって操作されることを表す方向指示情報等が含まれている。言い換えれば、指示情報取得部350は、ウインカへの操作を出力可能である例えばウインカであってもよい。なお、指示情報取得部350は、LAN300を介して方向指示情報を例えば表示コントローラ200(処理部P)に送信可能である例えばメータ用のECU等であってもよい。
 次に、図1の道路情報取得部320は、車両(自車両)の周辺又は例えば前方の道路情報(例えば進行方向の道路情報)を検出又は取得することができる。道路情報の中には、自車両のターン(旋回)が道路に反映されることを表すターン画像道路情報等が含まれている。言い換えれば、道路情報取得部320は、自車両の走行又は進行に応じて変化する画像を解析する例えば画像解析器であってもよい。この画像は、例えば専用カメラで撮像される撮像画像であってもよく、或いは、以下に説明する前方カメラ又は後方カメラで撮像される撮像画像であってもよい。
 道路情報取得部320の代わりに、車両進行情報取得部として例えば画像処理部310が採用されてもよい。言い換えれば、画像処理部310(撮像画像解析器)は、例えば撮像部103(前方カメラ)からの撮像画像(前方の道路を表す前方道路撮像画像)に基づき自車両の車線変更(車線変更の度合い)を検出又は抽出してもよい。
 代替的に、道路情報取得部320の代わりに、車両進行情報取得部として例えば後方車両情報取得部360が採用されてもよい。言い換えれば、後方車両情報取得部360(撮像画像解析器)は、例えば後方カメラからの撮像画像(後方の道路を表す後方道路撮像画像)に基づき自車両の車線変更(車線変更の度合い)を検出又は抽出してもよい。
 ところで、道路情報取得部320は、交通道路情報を検出又は取得してもよい。交通道路情報の中には、自車両が走行している道路が複数の車線を有しているか否か、言い換えれば、その道路で自車両が車線変更できるか否かを表す車線変更道路情報が含まれてもよい。例えば表示コントローラ200の処理部P又は判定部210は、自車両の位置(例えば現在位置)に応じて車線変更道路情報を取得又は更新して、その車線変更道路情報に基づき自車両が車線変更できるか否かを判定してもよい。車線変更道路情報に基づき自車両が車線変更できないことが判定される時に、表示コントローラ200は、例えば画像処理部310の動作を停止させてもよい。道路情報取得部320は、例えばナビゲーション装置であってもよく、位置情報取得部330は、例えばGPSセンサであってもよい。
 図2及び図3は、図1の車両情報投影システム又は表示コントローラ200の概略動作の1例を表すフローチャート図を示す。また、図4(A)は、図1のウインドシールド101を介して認識される実際の風景の1例を示し、図4(B)、図4(C)、図4(D)、図4(E)、図4(F)及び図4(G)の各々は、図4(A)のウインドシールド101の一部に設定される表示範囲ARに投影される車両情報の1例を示す。なお、例えば図4(B)等において、表示範囲ARは、ウインドシールド101を構成するガラス面上に設定されているが、表示範囲ARは、ウインドシールド101の近くの例えばダッシュボード又は例えば室内の天井に配置されるコンバイナで形成されてもよい。言い換えれば、運転者の視点102で、ウインドシールド101の一部に表示範囲ARが設定されるように、コンバイナが配置されてもよい。
 図1の表示コントローラ200は、例えば後方車両情報取得部360を介して、後方車両が検出されたか否かを判定することができる(図2のステップST01参照)。後方車両情報取得部360が例えば後方カメラを有する時に、後方車両情報取得部360は、後方カメラで撮像される撮像画像の中に例えば自動車、オートバイ等の後方車両が含まれているか否かを判定又は解析することができる。ここで、後方カメラは、例えばステレオカメラであり、後方車両情報取得部360は、好ましくは、車両(自車両)と後方車両との相対距離を算出又は解析することができる。後方車両情報取得部360は、更に好ましくは、相対距離に基づき、具体的には、例えば相対距離の時間差分に基づき、自車両と後方車両との相対速度を算出又は解析することができる。
 なお、後方車両情報取得部360は、後方車両の例えば進行方向、進行軌跡等の後方車両情報を取得又は解析してもよい。もちろん、後方車両が自車両の後方に存在することを表す後方車両情報を取得可能である後方車両情報取得部360は、例えばレーダ装置であってもよく、或いは、例えば後方カメラ及びレーダ装置の組み合わせであってもよい。
 後方車両が検出される時に、表示コントローラ200は、例えば指示情報取得部340を介して、自車両の車線変更が検出されたか否かを判定することができる。指示情報取得部340が例えばウインカである時に、ウインカは、運転者によるウインカの操作情報(指示情報)を表示コントローラ200に出力可能である。従って、表示コントローラ200は、運転者によるウインカの操作が検出されたか否かを判定することができる(図2のステップST02参照)。
 ウインカの操作が検出されない時に、言い換えれば、表示コントローラ200がウインカを介して自車両が走行車線から隣接車線に変更する予定を検出しない時に、表示コントローラ200は、例えば舵角情報取得部370からの舵角情報に基づき、自車両の車線変更が検出されたか否かを判定することができる(図2のステップST03参照)。舵角情報取得部370が自車両のステアリングハンドルが操作されることを表す操舵角情報を取得可能である操舵角センサを含む時に、操舵角センサによって取得される操舵角情報の応答性は、早くなる。言い換えれば、舵角情報が操舵角情報である時に、表示コントローラ200は、自車両の車線変更をより一層判断し易い。
 図2のステップST02でウインカの操作が検出されない時に、表示コントローラ200は、例えば画像処理部310(撮像画像解析器)からの解析情報(例えば前方の道路を表す前方道路撮像画像の解析結果)に基づき、自車両の車線変更が検出されたか否かを判定することができる(図2のステップST04参照)。
 次に、図2のステップST03及び/又はステップST04で車線変更が検出される時に、表示コントローラ200は、ステップST05を実行することができる。代替的に、図2のステップST03及びステップST04で車線変更が検出されない時に、表示コントローラ200は、ステップST01を再び実行することができる(図3のRETURN参照)。
 なお、図2のステップST05が実行される時に、表示コントローラ200は、例えばウインカ、操舵角センサ及び撮像画像解析器の何れかを介して、言い換えれば、車線変更情報取得部を介して、自車両が走行車線から隣接車線に変更する予定を検出している。同時に、表示コントローラ200は、例えば後方カメラを介して、言い換えれば、後方車両情報取得部360を介して、後方車両も検出している。図2のステップST05では、表示コントローラ200は、車線情報(第1の車線情報)として後方車両の注意度合い(例えば逸脱警告ライン)の投影又は表示を採用することを前提に(図2のステップST06参照)、車線情報(第2の車線情報)として車線変更の注意度合い(例えば予測軌跡ライン)の投影又は表示を採用し、その表示に必要な情報(例えば表示角度)を決定している。
 図2のステップST05において、表示コントローラ200は、例えば操舵角センサを介して、予測軌跡ラインの表示角度を決定することができる。予測軌跡ラインは、好ましくは直線であり、例えば図4(B)において例えば直線である例えば2本の予測軌跡ラインTR1,TR2で示されている。運転者がステアリングハンドルを例えば左回転させる時に、図4(B)の2本の予測軌跡ラインTR1,TR2は、自車両の進行方向又は進行軌跡が左側に向かうことを表すことができる。図4(B)の左側の予測軌跡ラインTR1は、例えば、自車両の左側の前輪に対応し、左側の予測軌跡ラインTR1の表示角度は、好ましくは、運転者の視点102で実際の左側の前輪が道路上を将来に進む方向である。同様に、図4(B)の右側の予測軌跡ラインTR2は、例えば、自車両の右側の前輪に対応し、右側の予測軌跡ラインTR2の表示角度は、好ましくは、運転者の視点102で実際の右側の前輪が道路上を将来に進む方向である。もちろん、例えば2本の予測軌跡ラインTR1,TR2の代わりに、運転者の視点102で実際の自車両の中点(例えば左右の前輪の中点)が道路上を将来に進む方向である表示角度を有する例えば1本の予測軌跡ラインが採用されてもよい。
 次に、表示コントローラ200は、例えば操舵角センサからの操舵角情報に応じて決定される表示角度を有する予測軌跡ライン(例えば図4(B)の例えば2本の予測軌跡ラインTR1,TR2)を第2の車両情報として生成することができる。同様に、表示コントローラ200は、撮像部103(前方カメラ)からの撮像画像(前方の道路を表す前方道路撮像画像)に基づき例えば画像処理部310によって検出される複数の車線間の境界線に応じて例えば逸脱警告ラインの表示角度を決定することができる。次に、表示コントローラ200は、その表示角度を有する逸脱警告ライン(例えば図4(B)の例えば1本の逸脱警告ラインWR)を第1の車両情報として生成することができる。
 次に、表示コントローラ200は、例えば第1の車両情報及び第2の車線情報からなる表示画像(投影画像)を生成し、その表示画像を表示器20に送ることができる。言い換えれば、表示コントローラ200は、例えば表示器20又は表示機構100を介して、例えば予測軌跡ライン及び例えば逸脱警告ラインを表示範囲ARに表示させることができる(図2のステップST06参照)。
 ところで、例えば図4(B)の例えば1本の逸脱警告ラインWR(第1の車両情報)の虚像は、運転者の視点102で、図4(A)の自車両の走行車線L2と左側の隣接車線L1との間の例えば点線の白線WL2(実際の風景)と重なっている。言い換えれば、表示コントローラ200は、例えば画像処理部310によって検出される点線の白線WL2の形状に基づき例えば1本の逸脱警告ラインWR(第1の車両情報)の形状を決定している。
 例えば図4(B)を参照するに、後方車両の例えば警告度合いを表す逸脱警告ラインWRの虚像の下の点線の白線WL2が運転者にとって認識され難くなるが、その点線の白線WL2の範囲又は面積は、相対的に狭く又は小さい。言い換えれば、走行車線L2、隣接車線L1等の車線の上に逸脱警告ラインWRの虚像が配置されないので、車線L1~L3に起因する情報量は、逸脱警告ラインWRによって制限されない又は少なくならない。これにより、運転者は、より一層安全に自車両を運転し続けることができる。他方、逸脱警告ラインWRに起因する情報量は、点線の白線WL2の範囲又は面積によって制限され又は小さくなるが、その情報量で車線変更の判断には、運転者にとって十分である。このように、車両情報投影システム又は車両情報投影方法によれば、逸脱警告ラインWR等の車両情報を効率的に投影可能である。
 加えて、車両情報として、逸脱警告ラインWR(第1の車両情報)だけでなく、例えば2本の予測軌跡ラインTR1,TR2(第2の車両情報)も生成される。逸脱警告ラインWRだけがウインドシールド101に投影されるよりも、逸脱警告ラインWRだけでなく、例えば2本の予測軌跡ラインTR1,TR2もウインドシールド101に投影される方が、運転者は、実際に走行車線L2から隣接車線L1に変更してもよいか否かをより一層判断し易い。言い換えれば、自車両が逸脱警告ラインWRの下の境界線(例えば点線の白線WL2)に進行して走行車線L2から隣接車線L1に変更する時に、運転者は、このような車線変更の注意度合い(第2の車両情報に起因する注意度合い)と第1の車両情報(後方車両の注意度合い、警告度合い等)とを瞬時に関連付けることができる。
 なお、図1を参照するに、例えば図4(B)の逸脱警告ラインWR(第1の車両情報)の虚像は、運転車の視点201で、自車両から少なくとも距離D1(例えば例えば20[m])だけ前方に存在しているので、例えば逸脱警告ラインWRだけの投影又は表示では、後方車両の注意度合い、警告度合い等の車両情報(第1の車線情報だけ)の内容は、運転者によっては、認識され難いこともある。代替的に、運転者によっては、警告度合い等の車両情報(第1の車線情報だけ)の内容を認識するには、十分である。
 例えば図4(B)において、逸脱警告ラインWR(第1の車両情報)の形状は、点線の白線WL2の形状に基づく例えば実線の直線である。逸脱警告ラインWRを表す実線の直線は、表示範囲ARの端又は例えば下端から例えば水平線Hまで伸びている。言い換えれば、逸脱警告ラインWRを表す実線の直線は、道路上の点線の白線WL2が表示範囲AR内において最大限の長さで示されている。これにより、運転者は、逸脱警告ラインWR(第1の車両情報)をより一層認識し易い。但し、逸脱警告ラインWR(第1の車両情報)の形状は、例えば点線の白線WL2の形状と同じ例えば点線の直線であってもよい。逸脱警告ラインWRの形状が例えば点線の直線である時に、逸脱警告ラインWRに関する点線の間隔は、白線WL2に関する点線の間隔と一致してもよく、或いは一致しなくてもよく、言い換えれば、逸脱警告ラインWRに関する点線の間隔の種別は、任意である。更に、逸脱警告ラインWRの形状は、例えば破線の直線であってもよい。言い換えれば、逸脱警告ラインWRが例えば直線である時に、その直線の種類は、任意である。加えて、逸脱警告ラインWR(第1の車両情報)の形状は、表示範囲ARの端又は例えば下端から始まらなくてもよく、また、水平線Hで終わらなくてもよい。
 例えば図4(B)において、例えば2本の予測軌跡ラインTR1,TR2(第2の車両情報)の形状は、自車両の進行方向、進行軌跡等に基づく例えば実線の直線である。例えば2本の予測軌跡ラインTR1,TR2を表す2本の実線の直線の各々は、表示範囲ARの端又は例えば下端から例えば逸脱警告ラインWRまで伸びている。言い換えれば、2本の予測軌跡ラインTR1,TR2を表す2本の実線の直線の各々は、道路上の自車両の進行方向、進行軌跡が表示範囲AR内において最大限の長さで示されないで、逸脱警告ラインWRで留まっている。これにより、運転者は、逸脱警告ラインWRよりも先の2本の予測軌跡ラインTR1,TR2の延長線上に存在する情報量は、逸脱警告ラインWRで留まる2本の予測軌跡ラインTR1,TR2によって制限されない又は少なくならない。加えて、運転者は、2本の予測軌跡ラインTR1,TR2と逸脱警告ラインWRとをより一層強く関連付けることができる。なお、例えば2本の予測軌跡ラインTR1,TR2(第2の車両情報)の形状は、例えば点線の実線であってもよく、或いは例えば破線の実線であってもよい。例えば2本の予測軌跡ラインTR1,TR2が例えば直線である時に、その直線の種類は、任意である。 
 次に、例えば操舵角センサからの操舵角情報に応じて決定される表示角度をリアルタイムで更新するために、図2のステップST07において、表示コントローラ200は、ステップST05で用いられた操舵角情報に変化が生じているか否かを判定することができる。具体的には、運転者がステアリングハンドルの例えば左回転を元に戻す時に、表示コントローラ200は、例えば操舵角の増加が検出されないこと、言い換えれば、操舵角の減少が検出されることを判定することができる。操舵角の増加が検出されない時に、言い換えれば、操舵角の減少が検出される時に、表示コントローラ200は、操舵角がゼロ(初期値)に戻ったか否かを判定することができる(図3のステップST08参照)。
 なお、操舵角の減少が検出される時に、例えば図4(B)の2本の予測軌跡ラインTR1,TR2は、例えば図4(C)の2本の予測軌跡ラインTR1',TR2'に変更される。その後、操舵角の減少が検出され続けて、操舵角のゼロ(初期値)が検出される時に、例えば図4(C)の2本の予測軌跡ラインTR1',TR2'は、例えば図4(D)の2本の予測軌跡ラインTRS1,TRS2に変更される。
 操舵角がゼロ(初期値)に戻る時に、表示コントローラ200は、予測軌跡ラインの表示色を変更することができる(図3のステップST09参照)。1例として、例えば図4(C)の2本の予測軌跡ラインTR1',TR2'の表示色は、例えば黄(オレンジ)色であり、例えば図4(D)の2本の予測軌跡ラインTRS1,TRS2の表示色は、例えば緑色である。これにより、運転者は、自車両をそのまま進行させても安全であることを認識することができる。言い換えれば、例えば緑色は、例えば信号機の例えば3つの表示色のうちの1つである自車両の進行の許可を表す色である。また、黄(オレンジ)色は、例えば信号機の例えば3つの表示色のうちのもう1つである自車両の進行の注意を表す色である。なお、例えば図4(C)の逸脱警告ラインWRの表示色は、例えば赤色であり、言い換えれば、例えば信号機の例えば3つの表示色のうちの残りである自車両の進行の禁止を表す色である。
 操舵角がゼロ(初期値)に戻る時に、自車両の車線変更は、中止されているので、例えば図4(C)の2本の予測軌跡ラインTR1',TR2'の投影又は表示は、即座に停止されてもよい。しかしながら、図3のステップST09で予測軌跡ラインの表示色が変更されることで、運転者は、車両情報投影システム又は車両情報投影方法の正常な動作を認識することができる。従って、表示コントローラ200は、例えば図4(D)の2本の予測軌跡ラインTRS1,TRS2の表示を一定時間だけ継続し、その後に、例えば図4(D)の2本の予測軌跡ラインTRS1,TRS2の表示だけでなく、例えば図4(D)の逸脱警告ラインWRの表示も停止することができる(図3のステップST10及びステップST11参照)。
 他方、操舵角がゼロ(初期値)に戻らない時に、表示コントローラ200は、後方車両が検出され続けている否か、言い換えれば、後方車両の検出が終了しているか否かを判定することができる(図3のステップST12参照)。後方車両の検出が終了する時に、表示コントローラ200は、例えば図4(C)の逸脱警告ラインWRの表示を即座に停止することができる(図3のステップST13及び図4(E)参照)。次に、表示コントローラ200は、例えば図4(C)の本の予測軌跡ラインTR1',TR2'の表示を他の表示形式で一定時間だけ継続することができる(図3のステップST14及びステップST15並びに及び図4(E)参照)。1例として、例えば図4(C)の2本の予測軌跡ラインTR1',TR2'の表示色は、例えば黄(オレンジ)色であり、例えば図4(E)の2本の予測軌跡ラインTRS1',TRS2'の表示色は、例えば緑色である。
 例えば図4(E)において、2本の予測軌跡ラインTRS1',TRS2'を表す2本の実線の直線の各々は、表示範囲ARの端又は例えば下端から例えば水平線Hまで伸びている。言い換えれば、逸脱警告ラインWRの表示の停止に応じて、2本の予測軌跡ラインTRS1',TRS2'を表す2本の実線の直線の各々は、例えば水平線Hまで延長される。これにより、運転者は、自車両の進行方向、進行軌跡等をより一層認識し易い。但し、2本の予測軌跡ラインTRS1',TRS2'は、水平線Hまで延長されないで、例えば点線の白線WL2(境界線)で留まってもよい。
 図3のステップST12で後方車両の検出が終了しない時に、表示コントローラ200は、操舵角の減少に応じて、例えば図4(B)の2本の予測軌跡ラインTR1,TR2の表示角度を例えば図4(C)の2本の予測軌跡ラインTR1',TR2'の表示角度に更新することができる(図2のステップST19参照)。操舵角の変化に応じて予測軌跡ラインの表示角度が更新されるので、運転者は、例えば図4(C)の2本の予測軌跡ラインTR1',TR2'(車線変更の注意度合い)と例えば図4(C)の逸脱警告ラインWR(後方車両の注意度合い)とをより一層瞬時に関連付けることができる。
 図2のステップST07で操舵角の増加が検出される時に、表示コントローラ200は、操舵角の増加に応じて、例えば図4(B)の2本の予測軌跡ラインTR1,TR2の表示角度を更新することができる(図2のステップST19参照)。但し、予測軌跡ラインの表示角度が限界角度に到達する時に、表示コントローラ200は、予測軌跡ラインの表示角度の更新を停止することができる(図2のステップST17及びステップST18参照)。例えば図4(F)において、例えば1本の予測軌跡ラインTRS2''だけが表示範囲AR内に表示されている。言い換えれば、例えば図4(B)の例えば1本の予測軌跡ラインTR1は、操舵角の増加に応じて、表示範囲AR外に移動してしまう。
 ステアリングハンドルの操作量が増加する程に例えば図4(B)の2本の予測軌跡ラインTR1,TR2の虚像と点線の白線WL2とのなす角度が増加するように、表示コントローラ200は、例えば直線である2本の予測軌跡ラインTR1,TR2を生成可能である。従って、ステアリングハンドルの操作量が多い時に、その2本の予測軌跡ラインTR1,TR2は、表示範囲AR外に移動してしまう可能性がある。そこで、ステアリングハンドルの操作量が所定量に到達する時に、表示コントローラ200は、操舵角の増加に応じて変化しない例えば図4(F)で示されるような例えば1本の予測軌跡ラインTRS2''(固定の第2の車両情報)を生成可能である。これにより、ステアリングハンドルの操作量が多い時に、表示コントローラ200は、第2の車両情報を表示範囲AR内に残すことができる。
 図2のステップST17で予測軌跡ラインの表示角度が限界角度に到達する時に、表示コントローラ200は、固定の第2の車両情報として、例えば図4(F)での例えば1本の予測軌跡ラインTRS2''の代わりに、例えば図4(G)での逸脱警告ラインWRの隣に配置される図形TRS2''を表示してもよい。図4(G)において、例えば三角形である図形TRS2''(固定の第2の車両情報)は、走行車線L2側である逸脱警告ラインWRの右隣であって、表示範囲ARの端又は例えば下端の隣に配置されている。これにより、運転者は、後方車両の存在を認識し続けることができる。なお、例えば図4(G)での図形TRS2''は、三角形に限定されず、任意の図形であってもよく、その図形(固定の第2の車両情報)には、例えば矢印が選択されてもよい。
 なお、図2、図3及び図4(A)~図4(G)は、自車両の走行車線(図4(A)のL2)又は自車両が走行している道路は、直線であることを前提として示されている。しかしながら、自車両の走行車線は、直線でなくてもよく、例えば曲線であってもよい。例えば自車両が走行している道路が曲がっている時に、例えば図4(B)の例えば直線である例えば1本の逸脱警告ラインWRは、例えば、その道路の曲率又は曲率半径に応じて曲げられるような曲線であってもよい。言い換えれば、運転者の視点102で、曲線の境界線(実際の風景)の上に例えば1本の逸脱警告ラインWRの虚像Vが配置されることが好ましい。同様に、運転者の視点102で、例えば図4(B)の例えば直線である例えば2本の予測軌跡ラインTR1,TR2は、自車両の例えば左右の前輪が将来に進む実際の進行軌跡と一致するような例えば曲線であることが好ましい。
 例えば図4(B)において、例えば1本の逸脱警告ラインWR(第1の車両情報)及び例えば2本の予測軌跡ラインTR1,TR2(第2の車両情報)は、直線である。しかしながら、これらの車両情報は、一部だけが直線である又は部分的に直線であってもよく、又は複数の直線部分の組み合わせであってもよい。例えば直線である逸脱警告ラインWRにおいて、その直線の両端又は一端に曲線部分又は図形等が付加されてもよい。また、例えば直線である2本の予測軌跡ラインTR1,TR2の各々は、その直線の途中で組み合された複数の直線部分であってもよい。言い換えれば、自車両が走行している道路が直線である時に、第1の車両情報及び/又は第2の車両情報は、完全な直線ではなく、直進性を有するだけであってもよい。例えば図4(B)において、例えば1本の逸脱警告ラインWRの形状は、直進性を有しているので、運転者は、その逸脱警告ラインWRと境界線(例えば図4(A)の点線の白線WL2)とをより一層関連付け易い。また、例えば図4(B)において、例えば2本の予測軌跡ラインTR1,TR2の形状は、直進性を有しているので、運転者は、自車両が境界線に向かう方向、或いは、車両が境界線を通過する位置をより一層認識し易い。
 自車両が走行している道路が曲線である時に、例えば1本の逸脱警告ラインWR(第1の車両情報)は、その道路の曲率又は曲率半径と完全に等しい曲率又は曲率半径を有する完全な曲線ではなく、曲線性を有するだけであってもよい。言い換えれば、例えば1本の逸脱警告ラインWRは、一部だけが曲線である又は部分的に曲線であってもよく、又は複数の曲線部分の組み合わせであってもよい。また、自車両が走行している道路が曲線である時に、例えば2本の予測軌跡ラインTR1,TR2(第2の車両情報)は、自車両の例えば左右の前輪が将来に進む実際の進行軌跡と完全に一致する完全な曲線ではなく、曲線性を有するだけであってもよい。言い換えれば、例えば2本の予測軌跡ラインTR1,TR2の各々は、一部だけが曲線である又は部分的に曲線であってもよく、又は複数の曲線部分の組み合わせであってもよい。
 加えて、図3のステップST08での操舵角の初期値は、ゼロの代わりに、曲がっている道路の曲率又は曲率半径に応じて設定又は更新されていることが好ましい。ここで、曲がっている道路の曲率又は曲率半径は1例として、撮像部103又は例えば前方カメラに基づき例えば画像処理部310で検出又は抽出されてもよく、代替的に、例えば地図道路情報に基づき例えば道路情報取得部320又は例えばナビゲーション装置で検出又は取得されてもよい。
 図5は、車両情報の注意度合いの表示形式を決定するためのテーブルの1例を示す。例えば図5に示されるように、図1の表示コントローラ200は、自車両と後方車両との間の相対速度及び相対距離に基づき、車両情報(例えば図4(B)の例えば1本の逸脱警告ラインWR)の注意度合いの表示形式を判定することができる。例えば図5において、例えば3つの表示強度が示されている。具体的には、相対速度は、低速、中速及び高速で分類され、相対距離は、遠距離、中距離及び短距離で分類されている。
 1例として、相対速度が例えば10[km/h]以下である時に、その相対速度は、低速に設定される。次に、相対速度が例えば10[km/h]よりも大きく、且つ例えば30[km/h]よりも小さい時に、その相対速度は、中速に設定される。次に、相対速度が例えば30[km/h]以上である時に、その相対速度は、高速に設定される。
 具体的には、相対速度が例えば自車両に対する後方車両の相対速度であり、且つ自車両の絶対速度が例えば40[km/h]である時に、その自車両に対する例えば10[km/h]、20[km/h]、30[km/h]、40[km/h]、50[km/h]、60[km/h]及び70[km/h]の絶対速度を有する後方車両の相対速度は、それぞれ、例えば低速(-30[km/h]=10[km/h]-40[km/h])、低速(-30[km/h]=10[km/h]-40[km/h])、低速(-20[km/h]=20[km/h]-40[km/h])、低速(-10[km/h]=30[km/h]-40[km/h]、低速(0[km/h]=40[km/h]-40[km/h])、低速(10[km/h]=50[km/h]-40[km/h])、中速(20[km/h]=60[km/h]-40[km/h])及び高速(30[km/h]=70[km/h]-40[km/h])に設定される。
 同様に、1例として、相対距離が例えば10[m]以下である時に、その相対距離は、短距離に設定される。次に、相対距離が例えば10[m]よりも大きく、且つ例えば30[m]よりも小さい時に、その相対距離は、中距離に設定される。次に、相対距離が例えば30[m]以上である時に、その相対距離は、遠距離に設定される。また、相対距離は、例えば自車両に対する後方車両の相対距離(後方車両から自車両までの距離)である。
 例えば自車両に対する後方車両の相対速度が高速である時に、後方車両の絶対速度は、自車両の絶対速度よりも高く、言い換えれば、後方車両は、自車両に迫って来ているとも言える。従って、例えば自車両に対する後方車両の相対速度が高速である時の注意度合いは、高い方が好ましい。代替的に、例えば自車両に対する後方車両の相対速度が低速である時に、後方車両の絶対速度は、自車両の絶対速度と同程度である、又は自車両の絶対速度よりも遅いとも言え、このような相対速度が低速である時の注意度合いは、低くてもよい。
 次に、例えば自車両に対する後方車両の相対距離が短距離である時に、自車両の車線変更後の後方車両との衝突の虞が存在するとも言え、このような相対距離が短距離である時の注意度合いは、高い方が好ましい。代替的に、例えば自車両に対する後方車両の相対距離が遠距離である時に、自車両の車線変更後の後方車両との衝突の可能性は低いとも言え、このような相対距離が遠距離である時の注意度合いは、低くてもよい。図5において、表示強度Iは、例えば低い注意度合いに対応し、表示強度IIIは、例えば高い注意度合い(例えば警告度合い)に対応し、表示強度IIは、例えば中間の注意度合いに対応する
 例えば図4(B)において、例えば1本の逸脱警告ラインWRは、表示強度IIIに対応し、その表示色は、例えば赤色である。その後、例えば後方車両の絶対速度が減少して、相対速度が中速である時に、例えば表示強度IIに対応する逸脱警告ラインWRの表示色は、例えば赤色から例えば赤褐(アンバー)色に変化してもよい。その後、例えば後方車両の絶対速度が更に減少して、相対速度が高速である時に、例えば表示強度Iに対応する逸脱警告ラインWRの表示色は、例えばアンバー色から例えば黄色に変化してもよい。このように、注意度合いが高い程に、例えば1本の逸脱警告ラインWRの表示形式は、例えば赤色成分をより多く有する表示色に設定することができる。
 例えば1本の逸脱警告ラインWRの表示形式は、表示色の変化又は分類に代えて、或いは、それに加えて、表示輝度(階調)の変化又は分類を含んでもよい。注意度合いが高い程に、例えば1本の逸脱警告ラインWRの表示形式は、例えばより高い表示輝度に設定することができる。同様に、例えば1本の逸脱警告ラインWRの表示形式は、表示範囲(太さ)の変化又は分類を含んでもよい。注意度合いが高い程に、例えば1本の逸脱警告ラインWRの表示形式は、例えばより広い表示範囲(太いライン)に設定することができる。同様に、例えば1本の逸脱警告ラインWRの表示形式は、点滅速度の変化又は分類を含んでもよい。注意度合いが高い程に、例えば1本の逸脱警告ラインWRの表示形式は、例えばより早い点滅速度に設定することができる。
 例えば図5で示される表示形式は、例えば図4(B)の2本の予測軌跡ラインTR1,TR2に適用されてもよい。図4(B)において、例えば図4(B)の2本の予測軌跡ラインTR1,TR2の表示色は、例えば黄(オレンジ)色であるが、その表示色は、注意度合いに(自車両と後方車両との間の相対速度及び相対距離)に応じて変化してもよい。もちろん、例えば図4(B)の2本の予測軌跡ラインTR1,TR2の表示色(表示形式)は、例えば赤色が設定されて、言い換えれば、例えば図4(B)の1本の逸脱警告ラインWRの表示色(表示形式)と同一に設定されてもよい。
 図5に示される表示形式は、1例に過ぎず、従って、例えば図4(B)の1本の逸脱警告ラインWR(第1の車両情報)及び/又は例えば図4(B)の2本の予測軌跡ラインTR1,TR2(第2の車両情報)は、相対速度だけに基づいてもよく、或いは、相対距離だけに基づいてもよい。なお、例えば図4(E)において、例えば1本の逸脱警告ラインWRの表示形式は、ゼロ又は表示強度Iよりも低く設定されて、逸脱警告ラインWRの表示は、停止されている。同様に、例えば図4(D)の2本の予測軌跡ラインTRS1,TRS2の表示色は、例えば緑色であり、その注意度合い(表示強度)は、ゼロ又は表示強度Iよりも低く設定されている。
 加えて、例えば図4(B)の2本の予測軌跡ラインTR1,TR2(第2の車両情報)の表示形式は、他の情報に応じて変化してもよい。他の情報は、例えば操舵角情報の変化率である。具体的には、例えば操舵角の増加率が高い程に、言い換えれば、自車両が逸脱警告ラインWRに向かう確率が高い程に、例えば2本の予測軌跡ラインTR1,TR2(第2の車両情報)の注意度合い(表示強度)を高く設定することができる。
 本発明は、上述の例示的な実施形態に限定されず、また、当業者は、上述の例示的な実施形態を特許請求の範囲に含まれる範囲まで、容易に変更することができるであろう。
 本発明は、車両のウインドシールドに実際の風景と重なるように虚像を表示する表示装置として好適である。
 20・・・表示器、21・・・反射器、100・・・表示機構、101・・・ウインドシールド、102・・・運転者の視点、103・・・撮像部、200・・・表示コントローラ、210・・・判定部、220・・・生成部、230・・・記憶部、300・・・LAN、310・・・画像処理部、320・・・道路情報取得部、330・・・位置情報取得部、340・・・指示情報取得部、350・・・車速情報取得部、360・・・後方車両情報取得部、370・・・舵角情報取得部、AR・・・表示範囲、L・・・表示光、L1,L2,L3・・・車線、H・・・水平線、P・・・処理部、S・・・情報取得部、TR1,TR2,TR1',TR2',TR2'',TRS1,TRS2,TSR1',TSR2'・・・第2の車線情報、V・・・虚像、WL1,WL2,WL3,WL4・・・境界線、WR・・・第1の車線情報。

Claims (8)

  1.  車両の前方に存在する道路を実際の風景として撮像可能である撮像部と、
     前記車両のウインドシールドの一部に設定される表示範囲に車両情報を投影して、前記車両の運転者の視点で前記車両情報の虚像が前記実際の風景と重なるように前記車両情報を前記表示範囲に表示可能である表示機構と、
     後方車両が前記車両の後方に存在することを表す後方車両情報を取得可能である後方車両情報取得部と、
     前記車両が前記車両の走行車線から前記走行車線に隣接する隣接車線に変更することを表す車線変更情報を取得可能である車線変更情報取得部と、
     前記後方車両情報及び前記車線変更情報に基づき前記後方車両の注意度合いを判定する処理部と、
     を備え、
     前記車両情報が前記注意度合いを含み且つ前記車両情報の虚像が前記走行車線と前記隣接車線との間の境界線と重なるように、前記処理部は、前記車両情報を生成可能であることを特徴とする車両情報投影システム。
  2.  前記車両が前記境界線に進行することを表す車両進行情報を取得可能である車両進行情報取得部を、
     更に備え、
     前記車両情報は、前記注意度合いを含む第1の車両情報と、前記車両進行情報に基づく第2の車両情報と、を有し、
     前記第1の車両情報及び前記第2の車両情報が前記表示範囲に表示されるように、前記処理部は、前記第1の車両情報及び前記第2の車両情報を生成可能であることを特徴とする請求項1に記載の車両情報投影システム。
  3.  前記車両進行情報取得部は、前記車両のステアリングハンドルが操作されることを表す操舵角情報を前記車両進行情報として取得可能である操舵角センサを含み、
     前記処理部は、前記操舵角情報に応じて変化する前記第2の車両情報をリアルタイムで生成可能であることを特徴とする請求項2に記載の車両情報投影システム。
  4.  前記第2の車両情報の形状は、直進性を有し、
     前記ステアリングハンドルの操作量が増加する程に前記第2の車両情報の前記虚像と前記境界線とのなす角度が増加するように、前記処理部は、前記直進性を有する前記第2の車両情報を生成可能であり、
     前記操作量が所定量に到達する時に、前記処理部は、前記直進性を有する前記第2の車両情報の代わりに、前記第1の車両情報の隣に配置される図形からなる前記第2の車両情報を生成可能であることを特徴とする請求項3に記載の車両情報投影システム。
  5.  前記第2の車両情報の形状は、直進性を有し、
     前記ステアリングハンドルの操作量が増加する程に前記第2の車両情報の前記虚像と前記境界線とのなす角度が増加するように、前記処理部は、前記直進性を有する前記第2の車両情報を生成可能であり、
     前記操作量が所定量に到達する時に、前記処理部は、前記操舵角情報に応じて変化する前記第2の車両情報の代わりに、固定の第2の車両情報を生成可能であることを特徴とする請求項3に記載の車両情報投影システム。
  6.  前記後方車両情報は、前記車両と前記後方車両との間の相対速度及び/又は相対距離に基づき、
     前記処理部は、前記相対速度及び/又は前記相対距離に基づき前記後方車両の前記注意度合いの表示形式を判定し、
     前記処理部は、前記表示形式に応じて変化する前記車両情報を生成可能であることを特徴とする請求項1乃至5の何れか1項に記載の車両情報投影システム。
  7.  前記処理部は、前記操舵角情報の変化率に基づき前記第2の車両情報の注意度合いの表示形式を判定し、
     前記処理部は、前記表示形式に応じて変化する前記第2の車両情報を生成可能であることを特徴とする請求項3乃至5の何れか1項に記載の車両情報投影システム。
  8.  車両の前方に存在する道路を撮像画像として読み込むこと、
     前記車両の後方に存在する後方車両を検出すること、
     前記車両が前記車両の走行車線から前記走行車線に隣接する隣接車線に変更する予定を検出すること、
     前記車両が前記走行車線から前記隣接車線に変更し終える前に、前記後方車両の注意度合いを判定すること、
     車両情報の虚像が前記走行車線と前記隣接車線との間の境界線と重なるように、前記注意度合い及び前記撮像画像に基づき前記車両情報を生成すること、及び
     前記車両のウインドシールドの一部に設定される表示範囲に前記車両情報を投影すること、
     を含むことを特徴とする車両情報投影方法。
PCT/JP2015/084139 2014-12-17 2015-12-04 車両情報投影システム及び車両情報投影方法 WO2016098614A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP15869819.1A EP3236447B1 (en) 2014-12-17 2015-12-04 Vehicle information projecting system and vehicle information projecting method
US15/537,138 US10293690B2 (en) 2014-12-17 2015-12-04 Vehicle information projecting system and vehicle information projecting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014255525A JP6516089B2 (ja) 2014-12-17 2014-12-17 車両情報投影システム及び車両情報投影方法
JP2014-255525 2014-12-17

Publications (1)

Publication Number Publication Date
WO2016098614A1 true WO2016098614A1 (ja) 2016-06-23

Family

ID=56126507

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/084139 WO2016098614A1 (ja) 2014-12-17 2015-12-04 車両情報投影システム及び車両情報投影方法

Country Status (4)

Country Link
US (1) US10293690B2 (ja)
EP (1) EP3236447B1 (ja)
JP (1) JP6516089B2 (ja)
WO (1) WO2016098614A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818581A (zh) * 2016-09-08 2018-03-20 爱信精机株式会社 车辆的图像处理系统
FR3056772A1 (fr) * 2016-09-28 2018-03-30 Valeo Vision Dispositif d'assistance a la conduite de vehicule automobile

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10931934B2 (en) * 2014-09-02 2021-02-23 FLIR Belgium BVBA Watercraft thermal monitoring systems and methods
JP6387910B2 (ja) * 2015-06-26 2018-09-12 株式会社デンソー 運転支援装置
EP3139340B1 (en) * 2015-09-02 2019-08-28 SMR Patents S.à.r.l. System and method for visibility enhancement
JP6801508B2 (ja) * 2017-02-24 2020-12-16 日本精機株式会社 ヘッドアップディスプレイ装置
JP6593607B2 (ja) * 2017-03-07 2019-10-23 トヨタ自動車株式会社 車両制御装置
DE102017205564B4 (de) 2017-03-31 2019-10-17 Ford Global Technologies, Llc Lenkungsunterstützungssystem und Verfahren zum Bestimmen einer voraussichtlich auftretenden Lenkwinkelamplitude eines Lenkrads eines Fahrzeugs bei einem Fahrspurwechsel
JP6630976B2 (ja) * 2017-11-10 2020-01-15 本田技研工業株式会社 表示システム、表示方法、およびプログラム
JP7086798B2 (ja) * 2018-09-12 2022-06-20 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN112770936A (zh) * 2018-09-28 2021-05-07 株式会社小糸制作所 灯具系统
GB2580400B (en) * 2019-01-10 2021-11-03 Jaguar Land Rover Ltd A control system, system and method for providing assistance to an occupant of a vehicle
WO2020144129A1 (en) 2019-01-10 2020-07-16 Jaguar Land Rover Limited A control system, system and method for providing assistance to an occupant of a vehicle
JP2021006805A (ja) * 2019-06-27 2021-01-21 株式会社デンソー 表示制御装置及び表示制御プログラム
WO2021002081A1 (ja) * 2019-07-02 2021-01-07 株式会社デンソー 表示制御装置及び表示制御プログラム
JP7238685B2 (ja) * 2019-08-13 2023-03-14 トヨタ自動車株式会社 運転行動判定装置、方法及びプログラム
JP2022546286A (ja) * 2019-08-20 2022-11-04 トゥロック,ダニエル 車両用の可視化補助装置
CN110682874B (zh) * 2019-09-19 2021-07-13 广州小鹏汽车科技有限公司 雨刷器老化的检测方法、检测装置和车辆
KR102270502B1 (ko) * 2019-10-24 2021-06-30 네이버랩스 주식회사 주행 정보 안내 방법 및 시스템
CN111523471B (zh) * 2020-04-23 2023-08-04 阿波罗智联(北京)科技有限公司 车辆所在车道的确定方法、装置、设备以及存储介质
KR20220170488A (ko) * 2021-06-23 2022-12-30 현대자동차주식회사 차량의 디스플레이 시스템 및 이의 제어 방법
JP2023043540A (ja) * 2021-09-16 2023-03-29 トヨタ自動車株式会社 車両用表示装置、車両用表示システム、車両用表示方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034684A (ja) * 2005-07-27 2007-02-08 Nissan Motor Co Ltd 車両の障害物表示装置
JP2007112360A (ja) * 2005-10-21 2007-05-10 Aisin Aw Co Ltd 運転支援装置
JP2008015758A (ja) * 2006-07-05 2008-01-24 Honda Motor Co Ltd 運転支援装置
JP2009116723A (ja) * 2007-11-08 2009-05-28 Denso Corp 車線変更支援装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4698002B2 (ja) * 2000-07-11 2011-06-08 マツダ株式会社 車両の表示装置
JP2002308030A (ja) * 2001-04-16 2002-10-23 Yazaki Corp 車両用周辺監視装置
JP2005202787A (ja) 2004-01-16 2005-07-28 Denso Corp 車両用表示装置
US8317329B2 (en) * 2009-04-02 2012-11-27 GM Global Technology Operations LLC Infotainment display on full-windshield head-up display
US8482486B2 (en) * 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
US8358224B2 (en) * 2009-04-02 2013-01-22 GM Global Technology Operations LLC Point of interest location marking on full windshield head-up display
US8384532B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Lane of travel on windshield head-up display
US10215583B2 (en) * 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
US9469248B2 (en) * 2014-10-10 2016-10-18 Honda Motor Co., Ltd. System and method for providing situational awareness in a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034684A (ja) * 2005-07-27 2007-02-08 Nissan Motor Co Ltd 車両の障害物表示装置
JP2007112360A (ja) * 2005-10-21 2007-05-10 Aisin Aw Co Ltd 運転支援装置
JP2008015758A (ja) * 2006-07-05 2008-01-24 Honda Motor Co Ltd 運転支援装置
JP2009116723A (ja) * 2007-11-08 2009-05-28 Denso Corp 車線変更支援装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818581A (zh) * 2016-09-08 2018-03-20 爱信精机株式会社 车辆的图像处理系统
CN107818581B (zh) * 2016-09-08 2023-07-14 株式会社爱信 车辆的图像处理系统
FR3056772A1 (fr) * 2016-09-28 2018-03-30 Valeo Vision Dispositif d'assistance a la conduite de vehicule automobile

Also Published As

Publication number Publication date
EP3236447A1 (en) 2017-10-25
EP3236447B1 (en) 2020-02-19
EP3236447A4 (en) 2018-05-23
JP2016115280A (ja) 2016-06-23
JP6516089B2 (ja) 2019-05-22
US10293690B2 (en) 2019-05-21
US20180244153A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
WO2016098614A1 (ja) 車両情報投影システム及び車両情報投影方法
US20160304126A1 (en) Vehicle control device
JP7103753B2 (ja) 衝突回避装置
EP2896937B1 (en) Roadway projection system
EP3678113B1 (en) Travel control method and travel control device for driving-assist vehicle
JP6350492B2 (ja) 画像表示装置
US9669760B2 (en) Warning device
JP7416176B2 (ja) 表示装置
JP6642681B2 (ja) 車両情報投影システム及び車両情報投影方法
US20160214612A1 (en) Autonomous driving device
JP6639194B2 (ja) 情報表示装置
KR102214604B1 (ko) 운전 보조 영상 표시 방법
JP2017536621A (ja) 自動車両のドライバー支援システムを作動させるための方法、ドライバー支援システム、及び、自動車両
JP6658235B2 (ja) 車線維持装置
US11479299B2 (en) Display device for a vehicle
JP6728727B2 (ja) 車両用表示装置
WO2022059352A1 (ja) 運転支援装置
JP6404609B2 (ja) 操舵支援制御装置
JP2017173536A (ja) 車両用表示装置
WO2021015090A1 (ja) 制御装置
JP7275985B2 (ja) 表示制御装置
US20220402484A1 (en) Driving assistance apparatus
WO2022162909A1 (ja) 表示制御装置及び表示制御方法
US20230356653A1 (en) Information processing apparatus, information processing method, program, and projection apparatus
JP2017138722A (ja) 走行制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15869819

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15537138

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015869819

Country of ref document: EP