WO2015111213A1 - 表示装置、制御方法、プログラム、及び記憶媒体 - Google Patents

表示装置、制御方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
WO2015111213A1
WO2015111213A1 PCT/JP2014/051654 JP2014051654W WO2015111213A1 WO 2015111213 A1 WO2015111213 A1 WO 2015111213A1 JP 2014051654 W JP2014051654 W JP 2014051654W WO 2015111213 A1 WO2015111213 A1 WO 2015111213A1
Authority
WO
WIPO (PCT)
Prior art keywords
speed
display
moving
landscape
display device
Prior art date
Application number
PCT/JP2014/051654
Other languages
English (en)
French (fr)
Inventor
後藤 弘樹
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2014/051654 priority Critical patent/WO2015111213A1/ja
Publication of WO2015111213A1 publication Critical patent/WO2015111213A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • B60K35/23
    • B60K35/28
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • B60K2360/168
    • B60K2360/177
    • B60K2360/178
    • B60K2360/66
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle

Definitions

  • the present invention relates to a technology that supports driving of a moving object.
  • Patent Document 1 when the traveling speed of the host vehicle is compared with the target speed, and the traveling speed of the host vehicle exceeds the target speed, the lighting color of the acceleration / deceleration instruction display image is set to red, A technique for setting the lighting color of the acceleration / deceleration instruction display image to green when the traveling speed of the vehicle is lower than the target speed is disclosed. Patent Document 1 also discloses that the blinking cycle of the acceleration / deceleration instruction display image is set so as to increase as the difference between the traveling speed of the host vehicle and the target speed increases.
  • Patent Document 1 it is difficult to intuitively understand what the change in the lighting color and lighting cycle of the acceleration / deceleration instruction display image means, and when the driver visually recognizes the acceleration / deceleration instruction display image, the lighting color is changed. It was necessary to perform the driving operation after interpreting the meaning of pointing and the meaning of changing the blinking cycle.
  • the present invention has been made in order to solve the above-described problems, and mainly provides a display device that allows a driver to intuitively recognize an overspeed or an underspeed with respect to a target speed. Objective.
  • control means for displaying an object on a display means so as to be superimposed on a landscape image obtained by capturing a landscape in front of a moving object or to be superposed on the landscape in appearance.
  • control the display unit so that an apparent moving speed of the object visually recognized by a driver of the moving body changes according to a speed difference between a reference speed and a traveling speed of the moving body.
  • the invention described in claim is a control method executed by the display device, wherein the object is superimposed on a landscape image obtained by capturing a landscape in front of a moving object, or apparently overlaps the landscape.
  • a control step of displaying on the display means wherein the control step is an apparent moving speed of the object visually recognized by a driver of the moving body according to a speed difference between a reference speed and a traveling speed of the moving body.
  • the display means is controlled so as to change.
  • the invention described in claim is a program executed by a computer, and displays an object so as to be superimposed on a landscape image obtained by photographing a landscape in front of a moving object or to overlap the landscape in appearance.
  • the computer is caused to function as a control means to be displayed on the display, and the control means moves the object apparently viewed by the driver of the moving body according to a speed difference between a reference speed and a traveling speed of the moving body.
  • the display means is controlled so that the speed changes.
  • FIG. 1 shows a schematic configuration of a driving support system.
  • 1 shows a schematic configuration of a navigation device.
  • 1 shows a schematic configuration of a head-up display.
  • the schematic structure of a light source unit is shown. It is an example of the front scenery visually recognized from a driver's seat.
  • (A) shows a display example of a combiner while the vehicle is traveling at the target speed.
  • (B) shows a display example of the combiner when the vehicle travels a predetermined distance while maintaining the target speed from the state of (A).
  • working by raising a traveling speed from the state in which the traveling speed of a vehicle and target speed are equal is shown.
  • working by reducing driving speed from the state where the driving speed of a vehicle and target speed are equal is shown.
  • the example of a combiner's display concerning modification 2 is shown.
  • the example of a display of the combiner concerning the modification 3 is shown.
  • the example of a display of the combiner concerning the modification 4 is shown.
  • the example of a combiner's display concerning the modification 6 is shown.
  • the structural example of the driving assistance system which concerns on the modification 7 is shown.
  • the structural example of the driving assistance system which concerns on the modification 9 is shown.
  • the display device controls the display unit to display an object so as to be superimposed on a landscape image obtained by capturing a landscape in front of a moving body or to overlap the landscape in appearance.
  • the control means displays the display so that an apparent moving speed of the object viewed by a driver of the moving body changes according to a speed difference between a reference speed and a traveling speed of the moving body. Control means.
  • the display device has a control means.
  • the control means causes the display means to display the object so as to be superimposed on the scenery image obtained by photographing the scenery in front of the moving body or to be superposed on the scenery.
  • the control means controls the display means so that the apparent moving speed of the object visually recognized by the driver changes according to the speed difference between the reference speed and the traveling speed of the moving body.
  • the driver since the apparent moving speed of the object visually recognized by the driver changes according to the speed difference between the reference speed and the traveling speed, the driver can visually recognize the object so that the reference speed of the moving object is determined. It is possible to intuitively recognize an overspeed or underspeed with respect to.
  • control means may be configured such that when there is no speed difference between the reference speed and the traveling speed, the apparent moving speed of the object and the scenery that the driver visually recognizes.
  • the display means is controlled so that the apparent moving speed is the same.
  • the display device gives the driver a sense of discomfort due to the difference between the apparent moving speed of the object and the apparent moving speed of the landscape when the moving object is not traveling at the reference speed.
  • the driver can be driven so that these moving speeds coincide with each other unconsciously.
  • the control unit when the travel speed is faster than the reference speed, the control unit apparently displays the object by an amount corresponding to a speed difference between the travel speed and the reference speed.
  • the moving speed is made faster than the apparent moving speed of the landscape. According to this aspect, the display device can make the driver intuitively recognize that the current traveling speed exceeds the reference speed and the extent that the current traveling speed exceeds the reference speed.
  • the control unit when the travel speed is slower than the reference speed, the control unit apparently displays the object by an amount corresponding to a speed difference between the travel speed and the reference speed.
  • the moving speed is made slower than the apparent moving speed of the landscape. According to this aspect, the display device can make the driver intuitively recognize that the current traveling speed is lower than the reference speed and the degree of the insufficient speed.
  • control unit displays a plurality of the objects on the display unit, and changes an interval between the objects according to a speed difference between the traveling speed and the reference speed.
  • the display device can more clearly recognize the magnitude relationship between the current traveling speed and the reference speed.
  • control unit causes the sound output unit to output a sound effect every time the object passes a predetermined position.
  • the display device can detect whether the driver overspeeds or underspeeds the reference speed by hearing in addition to vision. It can be made to recognize suitably.
  • control unit displays a smaller object corresponding to a distance from the moving body and a larger object corresponding to the vicinity of the moving body. According to this aspect, the control means can make the driver visually recognize the object with a perspective similar to that of the front landscape.
  • a control method executed by the display device wherein the object is superimposed on a landscape image obtained by capturing a landscape in front of a moving object or is apparently superimposed on the landscape.
  • a control step of displaying the object on the display means and the control step includes an apparent movement of the object visually recognized by a driver of the moving body according to a speed difference between a reference speed and a traveling speed of the moving body.
  • the display means is controlled so that the speed changes.
  • a computer-executable program for displaying an object so as to be superimposed on a landscape image obtained by capturing a landscape in front of a moving object or to overlap the landscape in appearance.
  • the computer is caused to function as a control means to be displayed on the display, and the control means moves the object apparently viewed by the driver of the moving body according to a speed difference between a reference speed and a traveling speed of the moving body.
  • the display means is controlled so that the speed changes.
  • the computer can make the driver intuitively recognize whether the moving body is overspeeded or underspeeded with respect to the reference speed.
  • the program is stored in a storage medium.
  • FIG. 1 shows a configuration example of a driving support system 100 according to the embodiment.
  • the driving assistance system 100 includes a navigation device 1, a head-up display 2, a beacon receiver 3A, and a beacon transmitter 3B mounted on a vehicle Ve.
  • the navigation device 1 has a function of performing route guidance from the departure point to the destination.
  • the navigation device 1 can be a mobile phone such as a stationary navigation device installed in the vehicle Ve, a PND (Portable Navigation Device), or a smartphone.
  • the head-up display 2 generates map information including the current position, route guidance information, the traveling speed of the vehicle Ve, and other guidance information for assisting driving (also referred to as “guidance image”), and the guidance image. Is visually recognized as a virtual image from the position (eye point) of the driver's eyes.
  • the head-up display 2 displays an image (also referred to as “object image Po”) that moves according to the traveling speed of the vehicle Ve, as a guide image, in addition to the guide route image indicating the guide route.
  • object image Po also referred to as “object image Po”
  • the head-up display 2 assists driving so that the traveling speed of the vehicle Ve becomes a recommended target speed (also referred to as “target speed Vtag”).
  • target speed Vtag is an example of the “reference speed” in the present invention.
  • the beacon receiver 3A is an optical beacon receiver or a radio beacon receiver, for example, and receives information such as the target speed Vtag corresponding to the road on which the vehicle Ve is traveling from the beacon transmitter 3B.
  • the beacon receiver 3 ⁇ / b> A transmits the received information to the head-up display 2.
  • the beacon transmitter 3B is, for example, an optical beacon transmitter or a radio beacon transmitter, and transmits information on the target speed Vtag or the like toward a predetermined area determined for each beacon transmitter 3B.
  • the navigation device 1 may be held by a cradle or the like. In this case, the navigation device 1 may exchange information with the head-up display 2 via a cradle or the like.
  • the beacon receiver 3 ⁇ / b> A may be connected to the navigation device 1 instead of the head-up display 2. In this case, when the navigation apparatus 1 receives information such as the target speed Vtag from the beacon receiver 3 ⁇ / b> A, the navigation apparatus 1 transfers the information to the head-up display 2.
  • FIG. 2 shows the configuration of the navigation device 1.
  • the navigation device 1 includes a self-supporting positioning device 10, a GPS receiver 18, a system controller 20, a disk drive 31, a data storage unit 36, a communication interface 37, a communication device 38, an interface 39, and a display unit 40.
  • the self-supporting positioning device 10 includes an acceleration sensor 11, an angular velocity sensor 12, and a distance sensor 13.
  • the acceleration sensor 11 is made of, for example, a piezoelectric element, detects the acceleration of the vehicle Ve, and outputs acceleration data.
  • the angular velocity sensor 12 is composed of, for example, a vibrating gyroscope, detects the angular velocity of the vehicle Ve when the direction of the vehicle Ve is changed, and outputs angular velocity data and relative azimuth data.
  • the distance sensor 13 measures a vehicle speed pulse composed of a pulse signal generated with the rotation of the wheel of the vehicle Ve.
  • the GPS receiver 18 receives radio waves 19 carrying downlink data including positioning data from a plurality of GPS satellites.
  • the positioning data is used to detect the absolute position (also referred to as “current position”) of the vehicle Ve from latitude and longitude information.
  • the system controller 20 includes an interface 21, a CPU (Central Processing Unit) 22, a ROM (Read Only Memory) 23, and a RAM (Random Access Memory) 24, and controls the entire navigation device 1.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the interface 21 performs an interface operation with the acceleration sensor 11, the angular velocity sensor 12, the distance sensor 13, and the GPS receiver 18. From these, vehicle speed pulses, acceleration data, relative azimuth data, angular velocity data, GPS positioning data, absolute azimuth data, and the like are input to the system controller 20.
  • the CPU 22 controls the entire system controller 20.
  • the ROM 23 includes a nonvolatile memory (not shown) in which a control program for controlling the system controller 20 is stored.
  • the RAM 24 stores various data such as route data preset by the user via the input device 60 so as to be readable, and provides a working area to the CPU 22.
  • a system controller 20 a disk drive 31 such as a CD-ROM drive or a DVD-ROM drive, a data storage unit 36, a communication interface 37, a display unit 40, an audio output unit 50 and an input device 60 are mutually connected via a bus line 30. It is connected to the.
  • the disk drive 31 reads and outputs content data such as music data and video data from a disk 33 such as a CD or DVD under the control of the system controller 20.
  • the disk drive 31 may be either a CD-ROM drive or a DVD-ROM drive, or may be a CD and DVD compatible drive.
  • the data storage unit 36 is configured by, for example, an HDD or the like, and stores various data used for navigation processing such as map data.
  • the map data includes road data represented by links corresponding to roads and nodes corresponding to road connecting portions, facility information about each facility, and the like.
  • the communication device 38 is composed of, for example, an FM tuner, a beacon receiver, a portable terminal, a dedicated communication module, and the like, and via a communication interface 37, traffic jams distributed from a VICS (registered trademark, Vehicle Information Communication System) center Receive road traffic information such as traffic information and other information.
  • VICS Vehicle Information Communication System
  • the communication device 38 includes various information used for navigation processing such as guide route information, current position information acquired from the GPS receiver 18, information such as vehicle speed pulses acquired from the autonomous positioning device 10, and map data. It transmits to the up display 2.
  • the display unit 40 displays various display data on a display device such as a display under the control of the system controller 20.
  • the system controller 20 reads map data from the data storage unit 36.
  • the display unit 40 displays the map data read from the data storage unit 36 by the system controller 20 on the display screen.
  • the display unit 40 includes a graphic controller 41 that controls the entire display unit 40 based on control data sent from the CPU 22 via the bus line 30 and a memory such as a VRAM (Video RAM), and can display image information that can be displayed immediately.
  • a buffer memory 42 that temporarily stores, a display control unit 43 that controls display of a display 44 such as a liquid crystal or a CRT (Cathode Ray Tube) based on image data output from the graphic controller 41, and a display 44 are provided.
  • the display 44 functions as an image display unit, and includes, for example, a liquid crystal display device having a diagonal size of about 5 to 10 inches and is mounted near the front panel in the vehicle.
  • the audio output unit 50 performs D / A (Digital to Analog) conversion of audio digital data sent from the CD-ROM drive 31, DVD-ROM 32, RAM 24, or the like via the bus line 30 under the control of the system controller 20.
  • a D / A converter 51 to perform an amplifier (AMP) 52 that amplifies the audio analog signal output from the D / A converter 51, and a speaker 53 that converts the amplified audio analog signal into sound and outputs the sound into the vehicle. It is prepared for.
  • AMP amplifier
  • the input device 60 includes keys, switches, buttons, a remote controller, a voice input device, and the like for inputting various commands and data.
  • the input device 60 is disposed around the front panel and the display 44 of the main body of the in-vehicle electronic system mounted in the vehicle.
  • the display 44 is a touch panel system
  • the touch panel provided on the display screen of the display 44 also functions as the input device 60.
  • FIG. 3 is a schematic configuration diagram of the head-up display 2.
  • the head-up display 2 includes a light source unit 4 and a combiner 9.
  • the vehicle Ve includes a front window 25, a ceiling portion 27, a hood 28, a dashboard 29, and the like. It is attached.
  • the light source unit 4 is installed on the ceiling portion 27 in the passenger compartment via the support members 5a and 5b, and emits light constituting a guide image indicating information for assisting driving toward the combiner 9 so that the combiner 9 The driver is caused to visually recognize the virtual image “Iv”.
  • the combiner 9 projects the display image emitted from the light source unit 4 and reflects the display image to the driver's eye point “Pe” to display the display image as a virtual image Iv. And the combiner 9 has the support shaft part 8 installed in the ceiling part 27, and rotates the support shaft part 8 as a spindle.
  • the support shaft portion 8 is installed, for example, in the vicinity of the ceiling portion 27 in the vicinity of the upper end of the front window 25, in other words, the position where a sun visor (not shown) for the driver is installed.
  • the support shaft portion 8 may be installed instead of the above-described sun visor.
  • the combiner 9 is an example of the “display unit” in the present invention.
  • FIG. 4 is a diagram schematically showing the configuration of the light source unit 4.
  • the light source unit 3 includes a light source 54, a control unit 55, and a communication unit 56.
  • the light source 54 includes, for example, red, blue, and green laser light sources, and emits light (also referred to as “display light”) that constitutes a display image to be irradiated to the combiner 9 based on the control of the control unit 55. .
  • the communication unit 56 receives various information used for the navigation processing from the navigation device 1 based on the control of the control unit 55. For example, the communication unit 56 receives information necessary for generating a guidance image such as guidance route information, current position information, and vehicle speed information from the navigation device 1. In addition, the communication unit 56 acquires information on the target speed Vtag from the beacon receiver 3A.
  • the control unit 55 includes a CPU, a ROM that stores a control program executed by the CPU, data, and the like, and a RAM that sequentially reads and writes various data as a work memory when the CPU operates. Control.
  • the control unit 55 generates a guide image based on the information transmitted from the navigation device 1 and causes the light source 54 to emit display light constituting the guide image.
  • the control unit 55 performs display control of the object image based on the target speed Vtag transmitted from the beacon receiver 3A and the traveling speed of the vehicle Ve acquired from the navigation device 1. This will be described in detail in the section [Object Image Display Control].
  • the control unit 55 functions as a “control unit” and a computer that executes a program in the present invention.
  • the control unit 55 determines the object image with respect to the moving speed in the appearance of the forward scenery (that is, on the combiner 9) according to the speed difference between the target speed Vtag and the traveling speed of the vehicle Ve (also referred to as “speed difference Dv”). Increase the relative speed of Po. Thereby, the control unit 55 makes the driver suitably recognize intuitively whether the speed is excessive or insufficient based on the difference between the apparent moving speed of the forward scenery and the moving speed of the object image Po.
  • FIG. 5 is an example of a forward scenery viewed from the driver's seat.
  • the control unit 55 combines, as a virtual image Iv, a guide route image 81 in which a road 80 as a guide route is turned upside down and object images Po1 to Po3 arranged on the guide route image 81 as a virtual image Iv. 9 is displayed.
  • the object images Po1 to Po3 have a V shape (in other words, the shape of the head of an arrow) and are arranged along the guide route image 81.
  • the object images Po1 to Po3 have a similar shape that is enlarged as the upper end position of the combiner 9 is approached.
  • the control unit 55 displays a smaller object image Po displayed at a position corresponding to a distant place and a larger object image Po displayed at a position corresponding to a close position. Thereby, the control unit 55 makes the driver visually recognize that the object indicated by the object image Po exists in the actual landscape.
  • the control unit 55 moves the object images Po1 to Po3 closer to the position corresponding to the vehicle Ve on the guidance route image 81 as the vehicle Ve advances along the road 80 that is the guidance route (that is, the upper end of the combiner 9). In the direction of approaching). That is, the control unit 55 moves each object image Po in the same direction as the direction in which the front scenery moves relatively. At this time, the moving speed of the object image Po changes according to the apparent moving speed of the forward scenery and the speed difference Dv. This will be described later.
  • the interval between the adjacent object images Po is preferably set so as to increase as it approaches the upper end position of the combiner 9 (that is, L1> L2).
  • the Specifically, the widths L1 and L2 may be set so that the points on the road 80 corresponding to the display positions of the object images Po1 to Po3 are equally spaced.
  • the control unit 55 curves the guide route image 81 so as to correspond to the guide route, and displays the object image Po side by side along the shape of the guide route image 81.
  • FIG. 6A shows a display example of the combiner 9 when the vehicle Ve is traveling at the target speed Vtag (hereinafter 40 km / h).
  • FIG. 6B shows a display example of the combiner 9 when the vehicle Ve travels a predetermined distance while maintaining the target speed Vtag from the state of FIG.
  • the control unit 55 moves each object image Po at the same speed as the apparent moving speed of the forward scenery. Specifically, the control unit 55 displays the object image Po3 displayed at the same perspective as the outdoor light 90 in the forward scenery in FIG. 6A at the upper end direction of the combiner 9 at the same moving speed as the external light 90. Move to. As a result, also in FIG. 6B, the object image Po3 is displayed at a position where the same perspective as the exterior light 90 is obtained.
  • the control unit 55 matches the moving speed of the forward landscape on the combiner 9 with the moving speed of the object image Po on the combiner 9. And let the driver drive without a sense of incongruity. As a result, the driver unconsciously maintains this state, so that the traveling speed of the vehicle Ve can be suitably maintained at the target speed Vtag.
  • the control unit 55 stores in advance a map or a formula indicating a relationship between each traveling speed and the moving speed of the forward landscape on the combiner 9, and refers to the map or the formula so that each object image Determine the moving speed of Po.
  • the control unit 55 obtains an image from a camera (not shown) that captures a landscape viewed through the combiner 9, and calculates a time-series position change of the landscape in the image. Then, the moving speed of the forward scenery on the combiner 9 is estimated, and the moving speed of the object image Po is determined.
  • FIG. 7 shows a display example of the combiner 9 when the vehicle Ve travels up to 50 km / h and travels a predetermined distance from the state of FIG. 6A where the traveling speed of the vehicle Ve is 40 km / h which is the same as the target speed Vtag.
  • the control unit 55 moves each object image Po at a higher speed than the apparent moving speed of the forward scenery. Specifically, the control unit 55 displays the object image Po3 displayed at the same perspective as the outdoor light 90 in the forward scenery in the state of FIG. 6A faster than the external light 90 in the upper end direction of the combiner 9. Move to. More specifically, the control unit 55 moves the object image Po3 faster than the outside light 90 by an amount corresponding to the speed difference Dv (here, 10 km / h) between the traveling speed of the vehicle Ve and the target speed Vtag. . As a result, in FIG. 7, the object image Po3 is displayed at a position on the guide route image 81 corresponding to a position on the road 80 that is closer to the vehicle Ve than the outside light 90.
  • Dv speed difference
  • the control unit 55 moves the object image Po by a speed difference Dv at a speed higher than the apparent moving speed of the front scenery, and the traveling speed exceeds and exceeds the target speed Vtag.
  • the driver can be preferably made to recognize the degree.
  • the control unit 55 can suitably bring the traveling speed of the vehicle Ve close to the target speed Vtag.
  • the control unit 55 displays the object image Po with a smaller interval as compared with the example of FIG. 6B that travels at the target speed Vtag.
  • the control part 55 can make a driver
  • FIG. 8 shows a display example of the combiner 9 when the vehicle Ve travels a predetermined distance from the state of FIG. 6A in which the travel speed of the vehicle Ve is 40 km / h which is the same as the target speed Vtag. Indicates.
  • the control unit 55 moves each object image Po at a lower speed than the apparent moving speed of the forward scenery.
  • the control unit 55 displays the object image Po3 displayed at the same perspective as the outdoor light 90 in the forward scenery in the state of FIG. Move to. More specifically, the control unit 55 moves the object image Po3 slower than the outside light 90 by an amount corresponding to the speed difference Dv (here, 10 km / h) between the traveling speed of the vehicle Ve and the target speed Vtag. . As a result, in FIG. 8, the object image Po3 is displayed at a position on the guide route image 81 corresponding to a position on the road 80 farther from the vehicle Ve than the outside light 90.
  • the control unit 55 moves the object image Po at a speed lower than the apparent moving speed of the forward scenery by the speed difference Dv, so that the traveling speed is lower than the target speed Vtag and the extent thereof.
  • the driver can be preferably recognized.
  • the object image Po is moved at a speed lower than the apparent moving speed of the forward landscape, the driver feels uncomfortable and unconsciously matches the apparent moving speed of the forward landscape with the moving speed of the object image Po.
  • the control unit 55 can suitably bring the traveling speed of the vehicle Ve close to the target speed Vtag.
  • the control unit 55 displays the object image Po with a wider interval as compared with the example of FIG. 6B that travels at the target speed Vtag.
  • the interval between the object images Po is increased as the speed difference Dv is larger, and the density of the object image Po in the guide route image 81 is decreased. To do.
  • the control part 55 can make a driver
  • the head-up display 2 includes the light source unit 4 and the combiner 9.
  • the control unit 55 of the light source unit 4 displays the object image Po on the combiner 9 so as to overlap the scenery in front of the vehicle Ve.
  • the control part 55 changes the moving speed on the combiner 9 of the object image Po which a driver
  • the head-up display 2 can make a driver
  • the head-up display 2 generates a sound effect (for example, a short sound such as “beep”) each time one object image Po passes a predetermined position on the display (for example, the upper end position of the combiner 9 where the object image Po disappears). It may be output.
  • the controller 55 of the head-up display 2 may cause the sound output device (not shown) provided in the head-up display 2 to output sound effects, and outputs the sound effects to the sound output unit 50 or the like of the navigation device 1. You may let them.
  • the traveling speed of the vehicle Ve is faster than the target speed Vtag
  • the interval between the object images Po is shortened, thereby increasing the density of the object images Po and shortening the cycle of outputting the sound effects.
  • the traveling speed of the vehicle Ve is slower than the target speed Vtag
  • the interval between the object images Po becomes longer, thereby reducing the density of the object images Po and increasing the cycle of outputting the sound effects. Therefore, according to the present modification, the driver can intuitively recognize the degree of overspeed or underspeed with respect to the target speed Vtag of the traveling speed of the vehicle Ve by hearing in addition to vision.
  • Modification 2 In the display examples of FIGS. 5 to 8, the control unit 55 displays the object image Po at a position overlapping the sky together with the guide route image 81.
  • the display mode of the object image Po to which the present invention is applicable is not limited to this.
  • FIG. 9A shows a display example of the combiner 9 according to this modification.
  • the control unit 55 displays the guide route image 81 so as to overlap the road 80 of the actual guide route, and displays each object image Po so as to overlap the guide route image 81.
  • the control unit 55 displays each object image Po as the display mode of FIGS. Displayed in a vertically inverted manner. That is, in this case, the control unit 55 determines the moving direction of each object image Po in the lower end direction of the combiner 9 and enlarges and displays the object image Po as it approaches the lower end of the combiner 9.
  • FIG. 9B shows another display example of the combiner 9 according to this modification.
  • the control unit 55 displays each object image Po on the right side of the vanishing point Vp.
  • the control unit 55 rotates each object image Po clockwise by 90 degrees from the display modes of FIGS. indicate. That is, the control unit 55 sets the moving direction of each object image Po to the right end direction of the combiner 9 and enlarges and displays the object image Po as it approaches the right end of the combiner 9.
  • the control unit 55 may display each object image Po on the left side of the vanishing point Vp, or may display it on both the left and right sides of the vanishing point Vp.
  • the controller 55 may display the object image Po even when the route guidance is not executed. In this case, for example, based on the map data supplied from the navigation device 1 and the current position information, the control unit 55 recognizes the road on which the vehicle Ve is traveling and displays the object image Po in association with the road.
  • FIG. 10 shows a display example of the combiner 9 according to this modification.
  • the control unit 55 since the guide route is not set, the control unit 55 does not display the guide route image 81 and displays only the object image Po on the combiner 9 corresponding to the road 80 that is running. is doing. As described above, even when the route guidance is not executed, the control unit 55 displays the object image Po in association with the traveling road, so that the traveling speed of the vehicle Ve approaches the target speed Vtag. Thus, driving can be favorably supported.
  • the shape of the object image Po is not limited to the V shape shown in FIGS. 5 to 8 and may be various shapes.
  • FIG. 11 shows a display example of the combiner 9 according to this modification.
  • the control unit 55 displays a rectangular object image Po. Even in this case, the control unit 55 increases the relative speed of the object image Po with respect to the front landscape according to the speed difference Dv, and enlarges and displays the object image Po as it approaches the upper end position of the combiner 9.
  • Modification 5 In the description of FIGS. 7 and 8, the control unit 55 continuously changes the relative speed of the object image Po with respect to the interval of the object image Po and the apparent moving speed of the forward scenery according to the speed difference Dv. It was. Instead, the control unit 55 may change the interval between the object images Po and the above-described relative speed in a stepwise manner according to the speed difference Dv.
  • control unit 55 determines that the speed difference Dv is equal to or less than a predetermined speed difference, the case where the traveling speed is higher than the predetermined speed difference with respect to the target speed Vtag, and the case where the traveling speed is higher than the predetermined speed difference with respect to the target speed Vtag.
  • the interval and the relative speed of the object image Po may be switched between when the object is slow.
  • the control unit 55 determines whether the traveling speed of the vehicle Ve is larger or smaller than the target speed Vtag.
  • the display is the same as in the example of FIG. 6B when the speed difference Dv is zero. That is, in this case, the control unit 55 moves the object image Po so as to coincide with the apparent moving speed of the forward scenery.
  • the control unit 55 sets the interval between the object images Po to a predetermined interval that is shorter than the case where the speed difference Dv is within the predetermined speed difference.
  • the moving speed of the object image Po is increased by a predetermined speed with respect to the front landscape.
  • the control unit 55 sets the interval between the object images Po to a predetermined interval longer than that when the speed difference Dv is within the predetermined speed difference.
  • the moving speed of the object image Po is decreased by a predetermined speed with respect to the front landscape.
  • control unit 55 changes the interval of the object image Po according to the speed difference Dv between the target speed Vtag and the traveling speed of the vehicle Ve. Instead of this, the control unit 55 may change the depth width (that is, the width in the moving direction) of the object image Po according to the speed difference Dv.
  • FIG. 12A shows a display example of the combiner 9 corresponding to the modification of FIG.
  • the control unit 55 determines that the traveling speed of the vehicle Ve is faster than the target speed Vtag, and changes the depth width of the object image Po according to the speed difference Dv without changing the interval between the object images Po. Make it longer.
  • the display area of the object image Po is larger in FIG. 12A than in the display example in FIG. 6B in which the target speed Vtag and the traveling speed of the vehicle Ve match. Therefore, in this aspect, the faster the traveling speed of the vehicle Ve than the target speed Vtag, the faster the moving speed of the object image Po and the larger the display area of the object image Po.
  • the degree of excess of speed with respect to the target speed Vtag can be recognized.
  • FIG. 12B shows a display example of the combiner 9 corresponding to the modification of FIG.
  • the control unit 55 determines that the traveling speed of the vehicle Ve is slower than the target speed Vtag, and changes the depth width of the object image Po according to the speed difference Dv without changing the interval between the object images Po. Shorten it.
  • the display area of the object image Po is small compared to the display example of FIG. 6B in which the target speed Vtag and the traveling speed of the vehicle Ve match. Therefore, in this aspect, the slower the traveling speed of the vehicle Ve than the target speed Vtag, the slower the moving speed of the object image Po and the smaller the display area of the object image Po.
  • the degree of insufficient speed relative to the target speed Vtag can be recognized.
  • the head-up display 2 may recognize the target speed Vtag by recognizing a road sign indicating the speed limit, instead of acquiring information about the target speed Vtag by the beacon receiver 3A.
  • FIG. 13 shows a configuration example of a driving support system 100A according to a modification.
  • a driving support system 100A illustrated in FIG. 13 includes a camera 6 that captures a forward landscape. The camera 6 supplies the captured image of the front scenery to the head-up display 2.
  • the control unit 55 of the head-up display 2 detects the road sign indicating the speed limit and recognizes the character based on the image supplied from the camera 6, and recognizes the speed limit of the traveling road. Then, the control unit 55 sets the recognized speed limit or a speed slower than the speed limit by a predetermined rate or a predetermined speed as the target speed Vtag. Also by this aspect, the control part 55 can recognize the target speed Vtag suitably.
  • control unit 55 may recognize the target speed Vtag by obtaining information on the speed limit included in the map data stored in the data storage unit 36 of the navigation apparatus 1 from the navigation apparatus 1. .
  • the head-up display 2 has a combiner 9 and makes the driver visually recognize the virtual image Iv based on the emitted light of the light source unit 4 reflected by the combiner 9.
  • the configuration to which the present invention is applicable is not limited to this.
  • the head-up display 2 may not have the combiner 9 and may allow the driver to visually recognize the virtual image Iv based on the emitted light of the light source unit 4 reflected by the windshield 25.
  • the windshield 25 is an example of the “display unit” in the present invention.
  • the position of the light source unit 4 is not limited to the case where it is installed on the ceiling portion 27.
  • the light source unit 4 may be installed on the dashboard 29 or installed inside the dashboard 29.
  • the combiner 9 is provided on the dashboard 29, or light is directly reflected from the light source unit 4 on the windshield 25 to allow the driver to recognize the virtual image Iv.
  • the dashboard 29 is provided with an opening for allowing light to pass through the combiner 9 or the windshield 25.
  • the driving support system 100 instead of superimposing the object image Po on the front landscape with the head-up display 2, the driving support system 100 causes the navigation device 1 to display the object image Po on the front landscape image captured by the camera. Also good.
  • FIG. 14 shows a configuration example of the driving support system 100B according to the modification.
  • a driving support system 100B illustrated in FIG. 14 includes a camera 6 that captures a landscape in front of the vehicle Ve. Then, the system controller 20 of the navigation device 1 displays the guide route image 81 and the object image Po shown in FIGS. 6 to 8 on the image acquired from the camera 6 and displays them on the display 44. In the example of FIG. 14, the system controller 20 recognizes the target speed Vtag based on the speed limit acquired from the image acquired from the camera 6 or the map data according to the modified example 7, for example.
  • the navigation device 1 intuitively recognizes whether the target speed Vtag is excessive or insufficient as in the embodiment. Can be made.
  • the display 44 functions as a “display unit” in the present invention
  • the system controller 20 functions as a “control unit” in the present invention and a computer that executes a program.
  • the system controller 20 may execute part of the processing of the control unit 55.
  • the system controller 20 may generate a guide image such as the object image Po to be displayed on the head-up display 2, and the light source unit 4 of the head-up display 2 may receive the guide image.
  • the system controller 20 determines the display position of each object image Po based on the target speed Vtag and the traveling speed of the vehicle Ve, similarly to the control unit 55 of the embodiment, and obtains information on the display position of the object image Po.
  • the object image Po may be displayed on the head-up display 2 by transmitting to the head-up display 2. Therefore, in this modification, the system controller 20 functions as a “control unit” and a computer that executes a program in the present invention.
  • the head-up display 2 may have a part or all of the functions of the navigation device 1.
  • the light source unit 4 may include, for example, a memory that stores map data, sensors such as a GPS receiver, and the like.

Abstract

 ヘッドアップディスプレイ2は、光源ユニット4と、コンバイナ9とを備える。光源ユニット4の制御部55は、車両Veの前方の風景に見かけ上で重なるように、オブジェクト画像Poをコンバイナ9上に表示させる。そして、制御部55は、目標速度Vtagと走行速度との速度差Dvに応じて、運転者が視認するオブジェクト画像Poのコンバイナ9上での移動速度を変化させる。

Description

表示装置、制御方法、プログラム、及び記憶媒体
 本発明は、移動体の運転を支援する技術に関する。
 従来から、車両の走行速度が目標速度になるように案内を行う技術が知られている。例えば特許文献1には、自車両の走行速度と目標速度とを比較し、自車両の走行速度が目標速度を超えている場合に、加減速指示表示画像の点灯色を赤色に設定し、自車両の走行速度が目標速度を下回っている場合には、加減速指示表示画像の点灯色を緑色に設定する技術が開示されている。また、特許文献1では、加減速指示表示画像の点滅周期を、自車両の走行速度と目標速度との差が大きくなるにつれて早くなるように設定する点についても開示されている。
特開2012-8938号公報
 特許文献1では、加減速指示表示画像の点灯色及び点灯周期の変化が何を意味するか直感的に理解することが難しく、運転者は、加減速指示表示画像を視認した際、点灯色が指し示す意味や点滅周期が変化する意味を解釈した上で運転操作を行う必要があった。
 本発明は、上記のような課題を解決するためになされたものであり、目標速度に対する速度超過や速度不足を直感的に運転者に認識させることが可能な表示装置を提供することを主な目的とする。
 請求項に記載の発明は、移動体の前方の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる制御手段を備え、前記制御手段は、基準速度と前記移動体の走行速度との速度差に応じて、前記移動体の運転者が視認する前記オブジェクトの見かけ上の移動速度が変化するように前記表示手段を制御することを特徴とする。
 また、請求項に記載の発明は、表示装置が実行する制御方法であって、移動体の前方の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる制御工程を有し、前記制御工程は、基準速度と前記移動体の走行速度との速度差に応じて、前記移動体の運転者が視認する前記オブジェクトの見かけ上の移動速度が変化するように前記表示手段を制御することを特徴とする。
 また、請求項に記載の発明は、コンピュータが実行するプログラムであって、移動体の前方の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる制御手段として前記コンピュータを機能させ、前記制御手段は、基準速度と前記移動体の走行速度との速度差に応じて、前記移動体の運転者が視認する前記オブジェクトの見かけ上の移動速度が変化するように前記表示手段を制御することを特徴とする。
運転支援システムの概略構成を示す。 ナビゲーション装置の概略構成を示す。 ヘッドアップディスプレイの概略構成を示す。 光源ユニットの概略構成を示す。 運転席から視認される前方風景の一例である。 (A)は、車両が目標速度により走行中のコンバイナの表示例を示す。(B)は、(A)の状態から車両が目標速度を保ったまま所定距離だけ走行した場合のコンバイナの表示例を示す。 車両の走行速度と目標速度とが等しい状態から走行速度を上げて走行した場合のコンバイナの表示例を示す。 車両の走行速度と目標速度とが等しい状態から走行速度を下げて走行した場合のコンバイナの表示例を示す。 変形例2に係るコンバイナの表示例を示す。 変形例3に係るコンバイナの表示例を示す。 変形例4に係るコンバイナの表示例を示す。 変形例6に係るコンバイナの表示例を示す。 変形例7に係る運転支援システムの構成例を示す。 変形例9に係る運転支援システムの構成例を示す。
 本発明の1つの好適な実施形態では、表示装置は、移動体の前方の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる制御手段を備え、前記制御手段は、基準速度と前記移動体の走行速度との速度差に応じて、前記移動体の運転者が視認する前記オブジェクトの見かけ上の移動速度が変化するように前記表示手段を制御する。
 上記表示装置は、制御手段を有する。制御手段は、移動体の前方の風景を撮影した風景画像に重畳して、または風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる。このとき、制御手段は、基準速度と移動体の走行速度との速度差に応じて、運転者が視認するオブジェクトの見かけ上の移動速度が変化するように表示手段を制御する。この態様では、運転者が視認するオブジェクトの見かけ上の移動速度が、基準速度と走行速度との速度差に応じて変化するため、運転者は、オブジェクトを視認することで、移動体の基準速度に対する速度超過又は速度不足を直感的に認識することができる。
 上記表示装置の他の一態様では、前記制御手段は、前記基準速度と前記走行速度との速度差がない場合に、前記運転者が視認する、前記オブジェクトの見かけ上の移動速度と前記風景の見かけ上の移動速度とが同じとなるように前記表示手段を制御する。このようにすることで、表示装置は、移動体が基準速度で走行していない場合に、オブジェクトの見かけ上の移動速度と風景の見かけ上の移動速度とが異なることによる違和感を運転者に与え、無意識のうちにこれらの移動速度が一致するように運転させることができる。
 上記表示装置の他の一態様では、前記制御手段は、前記走行速度が前記基準速度よりも速い場合、前記走行速度と前記基準速度との速度差に応じた分だけ、前記オブジェクトの見かけ上の移動速度を、前記風景の見かけ上の移動速度よりも速くする。この態様により、表示装置は、現在の走行速度が基準速度を超過していること及び超過している程度を直感的に運転者に認識させることができる。
 上記表示装置の他の一態様では、前記制御手段は、前記走行速度が前記基準速度よりも遅い場合、前記走行速度と前記基準速度との速度差に応じた分だけ、前記オブジェクトの見かけ上の移動速度を、前記風景の見かけ上の移動速度よりも遅くする。この態様により、表示装置は、現在の走行速度が基準速度より速度不足であること及び速度不足の程度を直感的に運転者に認識させることができる。
 上記表示装置の他の一態様では、前記制御手段は、複数の前記オブジェクトを前記表示手段に表示させ、前記走行速度と前記基準速度との速度差に応じて前記オブジェクトの間隔を変化させる。この態様により、表示装置は、現在の走行速度と基準速度との大小関係をより明確に認識することができる。
 上記表示装置の他の一態様では、前記制御手段は、前記オブジェクトが所定位置を通過するたびに効果音を音声出力手段に出力させる。この態様では、基準速度と走行速度との速度差に応じて効果音が出力する間隔が変わることから、表示装置は、視覚に加えて聴覚により、基準速度に対する速度超過又は速度不足を運転者に好適に認識させることができる。
 上記表示装置の他の一態様では、前記制御手段は、前記移動体の遠方に対応する前記オブジェクトほど小さく、前記移動体の近傍に対応する前記オブジェクトほど大きく表示させる。この態様により、制御手段は、前方風景と同様の遠近感によりオブジェクトを運転者に視認させることができる。
 本発明の他の好適な実施形態では、表示装置が実行する制御方法であって、移動体の前方の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる制御工程を有し、前記制御工程は、基準速度と前記移動体の走行速度との速度差に応じて、前記移動体の運転者が視認する前記オブジェクトの見かけ上の移動速度が変化するように前記表示手段を制御する。表示装置は、この制御方法を実行することで、移動体の基準速度に対する速度超過又は速度不足を直感的に運転者に認識させることができる。
 本発明のさらに別の実施形態では、コンピュータが実行するプログラムであって、移動体の前方の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる制御手段として前記コンピュータを機能させ、前記制御手段は、基準速度と前記移動体の走行速度との速度差に応じて、前記移動体の運転者が視認する前記オブジェクトの見かけ上の移動速度が変化するように前記表示手段を制御する。コンピュータは、このプログラムを実行することで、移動体の基準速度に対する速度超過又は速度不足を直感的に運転者に認識させることができる。好適には、上記プログラムは、記憶媒体に記憶される。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [概略構成]
 (1)システム構成
 図1は、実施例に係る運転支援システム100の構成例を示す。図1に示すように、運転支援システム100は、車両Veに搭載されるナビゲーション装置1、ヘッドアップディスプレイ2及びビーコン受信機3Aと、ビーコン送信機3Bとを有する。
 ナビゲーション装置1は、出発地から目的地までの経路案内を行う機能などを有する。ナビゲーション装置1は、例えば、車両Veに設置される据え置き型のナビゲーション装置、PND(Portable Navigation Device)、又はスマートフォンなどの携帯電話とすることができる。
 ヘッドアップディスプレイ2は、現在位置を含む地図情報や経路案内情報、車両Veの走行速度、その他運転を補助する案内情報を表示する画像(「案内画像」とも呼ぶ。)を生成し、当該案内画像を運転者の目の位置(アイポイント)から虚像として視認させる装置である。本実施例では、ヘッドアップディスプレイ2は、案内画像として、案内ルートを示す案内ルート画像に加え、車両Veの走行速度に応じて移動する画像(「オブジェクト画像Po」とも呼ぶ。)を表示する。これにより、ヘッドアップディスプレイ2は、車両Veの走行速度が推奨される目標の速度(「目標速度Vtag」とも呼ぶ。)になるように運転を支援する。ヘッドアップディスプレイ2には、案内画像の表示に必要な各種情報がナビゲーション装置1から供給される。目標速度Vtagは、本発明における「基準速度」の一例である。
 ビーコン受信機3Aは、例えば光ビーコン受信機や電波ビーコン受信機であり、車両Veが走行中の道路に対応する目標速度Vtagなどの情報をビーコン送信機3Bから受信する。ビーコン受信機3Aは、受信した情報をヘッドアップディスプレイ2へ送信する。ビーコン送信機3Bは、例えば光ビーコン送信機や電波ビーコン送信機であり、ビーコン送信機3Bごとに定められる所定エリアに向けて目標速度Vtagの情報等を送信する。
 なお、ナビゲーション装置1がスマートフォンなどの携帯電話である場合、ナビゲーション装置1は、クレードルなどによって保持されても良い。この場合、ナビゲーション装置1は、クレードルなどを介して、ヘッドアップディスプレイ2と情報の授受を行うこととしても良い。また、ビーコン受信機3Aは、ヘッドアップディスプレイ2に代えて、ナビゲーション装置1と接続してもよい。この場合、ナビゲーション装置1は、ビーコン受信機3Aから目標速度Vtagなどの情報を受信した場合に、これらの情報をヘッドアップディスプレイ2に転送する。
 (2)ナビゲーション装置の構成
 図2は、ナビゲーション装置1の構成を示す。図2に示すように、ナビゲーション装置1は、自立測位装置10、GPS受信機18、システムコントローラ20、ディスクドライブ31、データ記憶ユニット36、通信用インタフェース37、通信装置38、インタフェース39、表示ユニット40、音声出力ユニット50、及び入力装置60を備える。
 自立測位装置10は、加速度センサ11、角速度センサ12及び距離センサ13を備える。加速度センサ11は、例えば圧電素子からなり、車両Veの加速度を検出し、加速度データを出力する。角速度センサ12は、例えば振動ジャイロからなり、車両Veの方向変換時における車両Veの角速度を検出し、角速度データ及び相対方位データを出力する。距離センサ13は、車両Veの車輪の回転に伴って発生されているパルス信号からなる車速パルスを計測する。
 GPS受信機18は、複数のGPS衛星から、測位用データを含む下り回線データを搬送する電波19を受信する。測位用データは、緯度及び経度情報等から車両Veの絶対的な位置(「現在位置」とも呼ぶ。)を検出するために用いられる。
 システムコントローラ20は、インタフェース21、CPU(Central Processing Unit)22、ROM(Read Only Memory)23及びRAM(Random Access Memory)24を含んでおり、ナビゲーション装置1全体の制御を行う。
 インタフェース21は、加速度センサ11、角速度センサ12及び距離センサ13並びにGPS受信機18とのインタフェース動作を行う。そして、これらから、車速パルス、加速度データ、相対方位データ、角速度データ、GPS測位データ、絶対方位データ等をシステムコントローラ20に入力する。CPU22は、システムコントローラ20全体を制御する。ROM23は、システムコントローラ20を制御する制御プログラム等が格納された図示しない不揮発性メモリ等を有する。RAM24は、入力装置60を介して使用者により予め設定された経路データ等の各種データを読み出し可能に格納したり、CPU22に対してワーキングエリアを提供したりする。
 システムコントローラ20、CD-ROMドライブ又はDVD-ROMドライブなどのディスクドライブ31、データ記憶ユニット36、通信用インタフェース37、表示ユニット40、音声出力ユニット50及び入力装置60は、バスライン30を介して相互に接続されている。
 ディスクドライブ31は、システムコントローラ20の制御の下、CD又はDVDといったディスク33から、音楽データ、映像データなどのコンテンツデータを読み出し、出力する。なお、ディスクドライブ31は、CD-ROMドライブ又はDVD-ROMドライブのうち、いずれか一方としてもよいし、CD及びDVDコンパチブルのドライブとしてもよい。
 データ記憶ユニット36は、例えば、HDDなどにより構成され、地図データなどのナビゲーション処理に用いられる各種データを記憶するユニットである。地図データは、道路に相当するリンクと、道路の接続部分に相当するノードとにより表された道路データや、各施設に関する施設情報などを含む。
 通信装置38は、例えば、FMチューナやビーコンレシーバ、携帯端末や専用の通信モジュールなどにより構成され、通信用インタフェース37を介して、VICS(登録商標、Vehicle Information Communication System)センタから配信される渋滞や交通情報などの道路交通情報、その他の情報を受信する。また、通信装置38は、案内ルートの情報、GPS受信機18から取得した現在位置の情報、自立測位装置10から取得した車速パルス等の情報及び地図データなど、ナビゲーション処理に用いられる各種情報をヘッドアップディスプレイ2に送信する。
 表示ユニット40は、システムコントローラ20の制御の下、各種表示データをディスプレイなどの表示装置に表示する。具体的には、システムコントローラ20は、データ記憶ユニット36から地図データを読み出す。表示ユニット40は、システムコントローラ20によってデータ記憶ユニット36から読み出された地図データなどを表示画面上に表示する。表示ユニット40は、バスライン30を介してCPU22から送られる制御データに基づいて表示ユニット40全体の制御を行うグラフィックコントローラ41と、VRAM(Video RAM)等のメモリからなり即時表示可能な画像情報を一時的に記憶するバッファメモリ42と、グラフィックコントローラ41から出力される画像データに基づいて、液晶、CRT(Cathode Ray Tube)等のディスプレイ44を表示制御する表示制御部43と、ディスプレイ44とを備える。ディスプレイ44は、画像表示部として機能し、例えば対角5~10インチ程度の液晶表示装置等からなり、車内のフロントパネル付近に装着される。
 音声出力ユニット50は、システムコントローラ20の制御の下、CD-ROMドライブ31又はDVD-ROM32、若しくはRAM24等からバスライン30を介して送られる音声デジタルデータのD/A(Digital to Analog)変換を行うD/Aコンバータ51と、D/Aコンバータ51から出力される音声アナログ信号を増幅する増幅器(AMP)52と、増幅された音声アナログ信号を音声に変換して車内に出力するスピーカ53とを備えて構成されている。
 入力装置60は、各種コマンドやデータを入力するための、キー、スイッチ、ボタン、リモコン、音声入力装置等から構成されている。入力装置60は、車内に搭載された当該車載用電子システムの本体のフロントパネルやディスプレイ44の周囲に配置される。また、ディスプレイ44がタッチパネル方式の場合、ディスプレイ44の表示画面上に設けられたタッチパネルも入力装置60として機能する。
 (3)ヘッドアップディスプレイの構成
 図3は、ヘッドアップディスプレイ2の概略構成図である。図3に示すように、本実施例に係るヘッドアップディスプレイ2は、光源ユニット4と、コンバイナ9とを備え、フロントウィンドウ25、天井部27、ボンネット28、及びダッシュボード29などを備える車両Veに取り付けられる。
 光源ユニット4は、支持部材5a、5bを介して車室内の天井部27に設置され、運転を補助する情報を示す案内画像を構成する光を、コンバイナ9に向けて出射することで、コンバイナ9を介して運転者に虚像「Iv」を視認させる。
 コンバイナ9は、光源ユニット4から出射される表示像が投影されると共に、表示像を運転者のアイポイント「Pe」へ反射することで当該表示像を虚像Ivとして表示させる。そして、コンバイナ9は、天井部27に設置された支持軸部8を有し、支持軸部8を支軸として回動する。支持軸部8は、例えば、フロントウィンドウ25の上端近傍の天井部27、言い換えると運転者用の図示しないサンバイザが設置される位置の近傍に設置される。なお、支持軸部8は、上述のサンバイザに代えて設置されてもよい。コンバイナ9は、本発明における「表示手段」の一例である。
 (4)光源ユニットの構成
 図4は、光源ユニット4の構成を概略的に示した図である。図4に示すように、光源ユニット3は、光源54と、制御部55と、通信部56とを有する。
 光源54は、例えば赤色、青色及び緑色の各色のレーザ光源を有し、制御部55の制御に基づき、コンバイナ9に照射させる表示像を構成する光(「表示光」とも呼ぶ。)を出射する。
 通信部56は、制御部55の制御に基づき、ナビゲーション処理に用いられる各種情報をナビゲーション装置1から受信する。例えば、通信部56は、ナビゲーション装置1から案内ルートの情報、現在位置の情報、及び車速の情報などの案内画像の生成に必要な情報を受信する。また、通信部56は、ビーコン受信機3Aから目標速度Vtagの情報を取得する。
 制御部55は、CPU、CPUが実行する制御プログラムやデータなどを記憶するROM、CPUが動作する際のワークメモリとして各種データが逐次読み書きされるRAMなどを有し、ヘッドアップディスプレイ2の全般的な制御を行う。
 制御部55は、ナビゲーション装置1から送信される情報に基づき、案内画像を生成し、案内画像を構成する表示光を光源54に出射させる。また、本実施例では、制御部55は、ビーコン受信機3Aから送信される目標速度Vtagと、ナビゲーション装置1から取得した車両Veの走行速度とに基づき、オブジェクト画像の表示制御を行う。これについては、[オブジェクト画像の表示制御]のセクションで詳しく説明する。
 そして、制御部55は、本発明における「制御手段」及びプログラムを実行するコンピュータとして機能する。
 [オブジェクト画像の表示制御]
 次に、虚像Ivとして視認されるオブジェクト画像Poの表示方法について説明する。制御部55は、目標速度Vtagと車両Veの走行速度との速度差(「速度差Dv」とも呼ぶ。)に応じて、前方風景の見かけ上(即ちコンバイナ9上)での移動速度に対するオブジェクト画像Poの相対速度を大きくする。これにより、制御部55は、前方風景の見かけ上の移動速度とオブジェクト画像Poの移動速度との違いに基づき、直感的に速度超過か速度不足かを運転者に好適に認識させる。
 (1)基本説明
 まず、オブジェクト画像Poの基本的な表示態様について、図5を参照して説明する。図5は、運転席から視認される前方風景の一例である。
 図5では、制御部55は、案内ルートである道路80を上空位置に上下反転させた案内ルート画像81と、案内ルート画像81上に並べられたオブジェクト画像Po1~Po3とを、虚像Ivとしてコンバイナ9上に表示させている。図5では、オブジェクト画像Po1~Po3は、V字形状(言い換えると矢印の頭部の形状)を有し、案内ルート画像81に沿って並べられている。
 また、オブジェクト画像Po1~Po3は、コンバイナ9の上端位置に近づくほど拡大された相似形を有する。言い換えると、制御部55は、遠方に対応する位置に表示するオブジェクト画像Poほど小さく、近くに対応する位置に表示するオブジェクト画像Poほど大きく表示する。これにより、制御部55は、実際の風景にオブジェクト画像Poが示すオブジェクトが存在しているように運転者に視認させる。
 そして、制御部55は、車両Veが案内ルートである道路80に沿って進むほど、オブジェクト画像Po1~Po3を、案内ルート画像81上で車両Veに対応する位置に近付く方向(即ちコンバイナ9の上端へ近づく方向)に移動させる。即ち、制御部55は、前方風景が相対的に移動する方向と同一方向に各オブジェクト画像Poを移動させる。このとき、オブジェクト画像Poの移動速度は、前方風景の見かけ上の移動速度及び速度差Dvに応じて変化する。これについては後述する。
 なお、隣り合うオブジェクト画像Po間の間隔(図5中の幅L1、L2)は、好適には、コンバイナ9の上端位置に近付くほど長くなるように(即ちL1>L2となるように)設定される。具体的には、各オブジェクト画像Po1~Po3の表示位置に対応する道路80上の各地点が等間隔になるように、幅L1、L2が設定されるとよい。
 なお、案内ルートがカーブする場合には、制御部55は、案内ルート画像81を案内ルートに対応するように湾曲させると共に、案内ルート画像81の形状に沿ってオブジェクト画像Poを並べて表示する。
 (2)走行速度が目標速度Vtagの場合
 制御部55は、車両Veが目標速度Vtagと同じ速度で走行している場合、前方風景のコンバイナ9上での移動速度と、オブジェクト画像Poのコンバイナ9上での移動速度とを一致させる。これについて、図6を参照して説明する。
 図6(A)は、車両Veが目標速度Vtag(以下では40km/hとする)により走行中のコンバイナ9の表示例を示す。また、図6(B)は、図6(A)の状態から車両Veが目標速度Vtagを保ったまま所定距離だけ走行した場合のコンバイナ9の表示例を示す。
 図6の例では、車両Veの走行速度が目標速度Vtagを保っていることから、制御部55は、各オブジェクト画像Poを、前方風景の見かけ上の移動速度と同じ速度により移動させている。具体的には、制御部55は、図6(A)で前方風景中の外灯90と同じ遠近感となる位置に表示されたオブジェクト画像Po3を、外灯90と同じ移動速度によりコンバイナ9の上端方向へ移動させる。その結果、図6(B)においても、オブジェクト画像Po3は、外灯90と同じ遠近感となる位置に表示されている。
 このように、制御部55は、車両Veが目標速度Vtagで走行している場合、前方風景のコンバイナ9上での移動速度と、オブジェクト画像Poのコンバイナ9上での移動速度とを一致させることで、運転者に違和感なく運転させる。これにより、運転者は、無意識にこの状態を維持しようとするため、車両Veの走行速度を目標速度Vtagに好適に保つことができる。
 ここで、オブジェクト画像Poの移動速度の決定方法について補足説明する。例えば、制御部55は、各走行速度と前方風景のコンバイナ9上での移動速度との関係を示すマップ又は式等を予め記憶しておき、当該マップ又は式を参照することで、各オブジェクト画像Poの移動速度を決定する。他の例では、制御部55は、コンバイナ9を介して視認される風景を撮影するカメラ(不図示)から画像を取得し、当該画像中の風景の時系列での位置変化を算出することで、コンバイナ9上での前方風景の移動速度を推定し、オブジェクト画像Poの移動速度を決定する。
 また、図6の例では、制御部55は、各オブジェクト画像Poを移動させる際に、その移動量に応じてオブジェクト画像Poを拡大させている。その結果、図6(B)でのオブジェクト画像Po3は、図6(A)でのオブジェクト画像Po3と比較して拡大している。また、図6(B)では、図6(A)においてオブジェクト画像Po1及びオブジェクト画像Po2に対応する道路80上の地点を既に通過したことから、制御部55は、オブジェクト画像Po1及びオブジェクト画像Po2を非表示にしている。また、制御部55は、オブジェクト画像Po4を新たに表示している。
 (3)走行速度が目標速度Vtagよりも速い場合
 制御部55は、走行速度が目標速度Vtagよりも速い場合、オブジェクト画像Poを速度差Dvの分だけ前方風景の見かけ上の移動速度よりも高速に移動させる。これにより、制御部55は、走行速度が目標速度Vtagよりも速いことを直感的に認識させる。
 図7は、車両Veの走行速度が目標速度Vtagと同じ40km/hである図6(A)の状態から、50km/hまで上げて所定距離だけ走行した場合のコンバイナ9の表示例を示す。
 図7の例では、制御部55は、各オブジェクト画像Poを前方風景の見かけ上の移動速度よりも高速に移動させている。具体的には、制御部55は、図6(A)の状態で前方風景中の外灯90と同じ遠近感となる位置に表示されたオブジェクト画像Po3を、外灯90よりも速くコンバイナ9の上端方向へ移動させる。より具体的には、制御部55は、車両Veの走行速度と目標速度Vtagとの速度差Dv(ここでは10km/h)に応じた分だけ、オブジェクト画像Po3を、外灯90よりも速く移動させる。その結果、図7では、オブジェクト画像Po3は、外灯90よりも車両Veに近い道路80上の位置に対応する案内ルート画像81上の位置に表示されている。
 このように、制御部55は、オブジェクト画像Poを速度差Dvの分だけ前方風景の見かけ上の移動速度よりも高速に移動させることで、走行速度が目標速度Vtagを超過していること及び超過の程度を好適に運転者に認識させることができる。また、オブジェクト画像Poを前方風景の見かけ上の移動速度よりも高速に移動させた場合、運転者は違和感を覚え、無意識に前方風景の見かけ上の移動速度とオブジェクト画像Poの移動速度とを一致させようとして、車両Veの速度を落とす。従って、制御部55は、車両Veの走行速度を目標速度Vtagに好適に近付けることができる。
 また、図7の例では、目標速度Vtagで走行する図6(B)の例と比較して、制御部55は、オブジェクト画像Poの間隔を狭めて表示している。このように、制御部55は、目標速度Vtagより高速で走行している場合、速度差Dvが大きいほど、オブジェクト画像Poの間隔を狭め、オブジェクト画像Poの案内ルート画像81内での密度を高くする。これにより、制御部55は、目標速度Vtagよりも走行速度が高いことをより直感的に運転者に認識させることができる。
 (4)走行速度が目標速度Vtagよりも遅い場合
 制御部55は、走行速度が目標速度Vtagよりも遅い場合、オブジェクト画像Poを速度差Dvの分だけ前方風景の見かけ上の移動速度よりも低速移動させる。これにより、制御部55は、走行速度が目標速度Vtagよりも遅いことを直感的に認識させる。
 図8は、車両Veの走行速度が目標速度Vtagと同じ40km/hである図6(A)の状態から、走行速度を30km/hに落として所定距離だけ走行した場合のコンバイナ9の表示例を示す。この例では、制御部55は、各オブジェクト画像Poを前方風景の見かけ上の移動速度よりも低速移動させている。
 具体的には、制御部55は、図6(A)の状態で前方風景中の外灯90と同じ遠近感となる位置に表示されたオブジェクト画像Po3を、外灯90よりも遅くコンバイナ9の上端方向へ移動させる。より具体的には、制御部55は、車両Veの走行速度と目標速度Vtagとの速度差Dv(ここでは10km/h)に応じた分だけ、オブジェクト画像Po3を、外灯90よりも遅く移動させる。その結果、図8では、オブジェクト画像Po3は、外灯90よりも車両Veに遠い道路80上の位置に対応する案内ルート画像81上の位置に表示されている。
 このように、制御部55は、オブジェクト画像Poを速度差Dvの分だけ前方風景の見かけ上の移動速度よりも低速移動させることで、走行速度が目標速度Vtagを下回っていること及びその程度を好適に運転者に認識させることができる。また、オブジェクト画像Poを前方風景の見かけ上の移動速度よりも低速移動させた場合、運転者は違和感を覚え、無意識に前方風景の見かけ上の移動速度とオブジェクト画像Poの移動速度とを一致させようとして、車両Veの速度を無意識に上げる。従って、制御部55は、車両Veの走行速度を目標速度Vtagに好適に近付けることができる。
 また、図8の例では、目標速度Vtagで走行する図6(B)の例と比較して、制御部55は、オブジェクト画像Poの間隔を広げて表示している。このように、制御部55は、目標速度Vtagより低速で走行している場合、速度差Dvが大きいほど、オブジェクト画像Poの間隔を広げ、オブジェクト画像Poの案内ルート画像81内での密度を低くする。これにより、制御部55は、目標速度Vtagよりも走行速度が低いことをより直感的に運転者に認識させることができる。
 以上説明したように、本実施例に係るヘッドアップディスプレイ2は、光源ユニット4と、コンバイナ9とを備える。光源ユニット4の制御部55は、車両Veの前方の風景に見かけ上で重なるように、オブジェクト画像Poをコンバイナ9上に表示させる。そして、制御部55は、目標速度Vtagと走行速度との速度差Dvに応じて、運転者が視認するオブジェクト画像Poのコンバイナ9上での移動速度を変化させる。これにより、ヘッドアップディスプレイ2は、目標速度Vtagに対する速度超過又は速度不足を直感的に運転者に認識させることができる。
 [変形例]
 以下、上述の実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
 (変形例1)
 ヘッドアップディスプレイ2は、1つのオブジェクト画像Poが表示上の所定位置(例えばオブジェクト画像Poが消失するコンバイナ9の上端位置)を通過するたびに、効果音(例えば「ピッ」などの短い音)を出力してもよい。この場合、ヘッドアップディスプレイ2の制御部55は、ヘッドアップディスプレイ2に設けられた図示しない音声出力装置に効果音を出力させてもよく、ナビゲーション装置1の音声出力ユニット50等に効果音を出力させてもよい。
 この場合、車両Veの走行速度が目標速度Vtagよりも速いほど、オブジェクト画像Poの間隔が短くなることによってオブジェクト画像Poの密度が増すと共に、効果音が出力される周期が短くなる。一方、車両Veの走行速度が目標速度Vtagよりも遅いほど、オブジェクト画像Poの間隔が長くなることによってオブジェクト画像Poの密度が少なくなると共に、効果音が出力される周期が長くなる。従って、本変形例によれば、運転者は、車両Veの走行速度の目標速度Vtagに対する速度超過又は速度不足の程度を、視覚に加えて聴覚により直感的に認識することができる。
 (変形例2)
 図5~図8の表示例では、制御部55は、オブジェクト画像Poを案内ルート画像81と共に上空と重なる位置に表示させていた。しかし、本発明が適用可能なオブジェクト画像Poの表示態様は、これに限定されない。
 図9(A)は、本変形例に係るコンバイナ9の表示例を示す。図9(A)では、制御部55は、案内ルート画像81を実際の案内ルートの道路80に重ねて表示し、かつ、各オブジェクト画像Poを案内ルート画像81に重ねて表示させている。この場合、コンバイナ9の略中央に位置する消失点「Vp」よりもオブジェクト画像Poが下側に位置することから、制御部55は、各オブジェクト画像Poを、図5~図8の表示態様と上下反転させた態様により表示する。即ち、この場合、制御部55は、各オブジェクト画像Poの移動方向を、コンバイナ9の下端方向に定め、かつ、コンバイナ9の下端に近付くほど、オブジェクト画像Poを拡大して表示する。
 図9(B)は、本変形例に係るコンバイナ9の他の表示例を示す。図9(B)では、制御部55は、各オブジェクト画像Poを、消失点Vpの右側に表示させている。この場合、消失点Vpよりもオブジェクト画像Poが右側に位置することから、制御部55は、各オブジェクト画像Poを、図5~図8の表示態様から90度だけ時計周りに回転させた態様で表示する。即ち、制御部55は、各オブジェクト画像Poの移動方向を、コンバイナ9の右端の方向に定め、かつ、コンバイナ9の右端に近付くほど、オブジェクト画像Poを拡大して表示する。同様に、制御部55は、各オブジェクト画像Poを、消失点Vpの左側に表示させてもよく、消失点Vpの左右両側に表示させてもよい。
 (変形例3)
 制御部55は、ルート案内を実行しない場合であっても、オブジェクト画像Poを表示してもよい。この場合、制御部55は、例えば、ナビゲーション装置1から供給される地図データ及び現在位置情報に基づき、車両Veが走行中の道路を認識し、当該道路に対応付けてオブジェクト画像Poを表示させる。
 図10は、本変形例に係るコンバイナ9の表示例を示す。図10の例では、制御部55は、案内ルートが設定されていないことから、案内ルート画像81を表示せず、オブジェクト画像Poのみを、走行中の道路80に対応させてコンバイナ9上に表示している。このように、制御部55は、ルート案内を実行していない場合であっても、走行中の道路に対応付けてオブジェクト画像Poを表示することで、車両Veの走行速度が目標速度Vtagに近付くように運転を好適に支援することができる。
 (変形例4)
 オブジェクト画像Poの形状は、図5~図8に示すV字形状に限定されず、種々の形状であってもよい。図11は、本変形例に係るコンバイナ9の表示例を示す。図11では、制御部55は、長方形のオブジェクト画像Poを表示させている。この場合であっても、制御部55は、速度差Dvに応じて、前方風景に対するオブジェクト画像Poの相対速度を大きくし、かつ、コンバイナ9の上端位置に近付くほどオブジェクト画像Poを拡大して表示させる。
 (変形例5)
 図7及び図8の説明では、制御部55は、速度差Dvに応じて、オブジェクト画像Poの間隔及びの前方風景の見かけ上の移動速度に対するオブジェクト画像Poの相対速度を連続的に変化させていた。これに代えて、制御部55は、速度差Dvに応じて、オブジェクト画像Poの間隔及びの上述の相対速度を段階的に変化させてもよい。
 例えば、制御部55は、速度差Dvが所定速度差以下である場合と、走行速度が目標速度Vtagに対して所定速度差より速い場合と、走行速度が目標速度Vtagに対して所定速度差より遅い場合とで、オブジェクト画像Poの間隔及び相対速度を切り替えてもよい。
 具体的には、速度差Dvが許容範囲内である所定速度差(例えば5km/h)以下である場合には、車両Veの走行速度の目標速度Vtagに対する大小に関わらず、制御部55は、速度差Dvが0である場合の図6(B)の例と同様に表示する。即ち、この場合、制御部55は、前方風景の見かけ上の移動速度と一致するようにオブジェクト画像Poを移動させる。また、走行速度が目標速度Vtagに対して上述の所定速度差より速い場合、制御部55は、オブジェクト画像Poの間隔を速度差Dvが所定速度差以内である場合よりも短い所定の間隔に設定すると共に、前方風景に対して所定速度だけオブジェクト画像Poの移動速度を速くする。また、走行速度が目標速度Vtagに対して所定速度差より遅い場合、制御部55は、オブジェクト画像Poの間隔を速度差Dvが所定速度差以内である場合よりも長い所定の間隔に設定すると共に、前方風景に対して所定速度だけオブジェクト画像Poの移動速度を遅くする。
 (変形例6)
 図7及び図8の説明では、制御部55は、目標速度Vtagと車両Veの走行速度との速度差Dvに応じてオブジェクト画像Poの間隔を変化させた。これに代えて、制御部55は、オブジェクト画像Poの奥行き幅(即ち移動方向の幅)を速度差Dvに応じて変化させてもよい。
 図12(A)は、図7の変形例に相当するコンバイナ9の表示例を示す。図12(A)では、制御部55は、目標速度Vtagよりも車両Veの走行速度が速いと判断し、オブジェクト画像Poの間隔を変えずに、オブジェクト画像Poの奥行き幅を速度差Dvに応じて長くする。その結果、図12(A)では、目標速度Vtagと車両Veの走行速度とが一致する図6(B)の表示例と比較して、オブジェクト画像Poの表示面積が大きい。従って、この態様では、目標速度Vtagよりも車両Veの走行速度が速いほど、オブジェクト画像Poの移動速度が速くなり、かつ、オブジェクト画像Poの表示面積が大きくなるため、運転者は、直感的に目標速度Vtagに対する速度超過の程度を認識することができる。
 図12(B)は、図8の変形例に相当するコンバイナ9の表示例を示す。図12(B)では、制御部55は、目標速度Vtagよりも車両Veの走行速度が遅いと判断し、オブジェクト画像Poの間隔を変えずに、オブジェクト画像Poの奥行き幅を速度差Dvに応じて短くする。その結果、図12(B)では、目標速度Vtagと車両Veの走行速度とが一致する図6(B)の表示例と比較して、オブジェクト画像Poの表示面積が小さい。従って、この態様では、目標速度Vtagよりも車両Veの走行速度が遅いほど、オブジェクト画像Poの移動速度が遅くなり、かつ、オブジェクト画像Poの表示面積が小さくなるため、運転者は、直感的に目標速度Vtagに対する速度不足の程度を認識することができる。
 (変形例7)
 ヘッドアップディスプレイ2は、ビーコン受信機3Aにより目標速度Vtagの情報を取得するのに代えて、制限速度を示す道路標識を画像認識することで、目標速度Vtagを認識してもよい。
 図13は、変形例に係る運転支援システム100Aの構成例を示す。図13に示す運転支援システム100Aは、前方風景を撮影するカメラ6を有する。カメラ6は、撮影した前方風景を示す画像をヘッドアップディスプレイ2に供給する。この場合、ヘッドアップディスプレイ2の制御部55は、カメラ6から供給された画像に基づき、制限速度を示す道路標識の検出及び文字認識を行い、走行道路の制限速度を認識する。そして、制御部55は、認識した制限速度、又は、当該制限速度より所定率若しくは所定速度だけ遅い速度を、目標速度Vtagに設定する。この態様によっても、制御部55は、好適に目標速度Vtagを認識することができる。
 他の例では、制御部55は、ナビゲーション装置1のデータ記憶ユニット36が記憶する地図データに含まれる制限速度に関する情報を、ナビゲーション装置1から取得することで、目標速度Vtagを認識してもよい。
 (変形例8)
 図3では、ヘッドアップディスプレイ2は、コンバイナ9を有し、コンバイナ9で反射させた光源ユニット4の出射光に基づき運転者に虚像Ivを視認させていた。しかし、本発明が適用可能な構成はこれに限定されない。これに代えて、ヘッドアップディスプレイ2は、コンバイナ9を有さず、フロントガラス25で反射させた光源ユニット4の出射光に基づき運転者に虚像Ivを視認させてもよい。この場合、フロントガラス25は、本発明における「表示手段」の一例である。
 また、光源ユニット4の位置は、天井部27に設置される場合に限定されない。これに代えて、光源ユニット4は、ダッシュボード29上に設置されたり、ダッシュボード29の内部に設置されたりしてもよい。ダッシュボード29上に設置される場合、ダッシュボード29には、コンバイナ9を設けるか、又はフロントガラス25に光源ユニット4から直接光を反射させ運転者に虚像Ivを認識させる。ダッシュボード29内に設置される場合、ダッシュボード29には、コンバイナ9又はフロントガラス25に光を通過させるための開口部が設けられる。
 (変形例9)
 運転支援システム100は、ヘッドアップディスプレイ2により前方風景に重畳させてオブジェクト画像Poを表示させるのに代えて、カメラにより撮影した前方風景画像にオブジェクト画像Poを重畳させてナビゲーション装置1により表示させてもよい。
 図14は、変形例に係る運転支援システム100Bの構成例を示す。図14に示す運転支援システム100Bは、車両Veの前方風景を撮影するカメラ6を有する。そして、ナビゲーション装置1のシステムコントローラ20は、カメラ6から取得した画像に、図6~図8等に示す案内ルート画像81及びオブジェクト画像Poを重ねてディスプレイ44に表示させる。なお、図14の例では、システムコントローラ20は、例えば、変形例7に従いカメラ6から取得した画像または地図データから取得した制限速度に基づき目標速度Vtagを認識する。
 このように、カメラ6が撮影した画像に重畳させてオブジェクト画像Poを重ねて表示することで、ナビゲーション装置1は、実施例と同様に、目標速度Vtagに対する速度超過又は速度不足を直感的に認識させることができる。なお、この変形例では、ディスプレイ44は、本発明における「表示手段」、システムコントローラ20は、本発明における「制御手段」及びプログラムを実行するコンピュータとして機能する。
 (変形例10)
 制御部55の処理の一部を、システムコントローラ20が実行してもよい。例えば、ヘッドアップディスプレイ2が表示するためのオブジェクト画像Poなどの案内画像をシステムコントローラ20が生成し、ヘッドアップディスプレイ2の光源ユニット4が当該案内画像を受信する態様であってもよい。この場合、システムコントローラ20は、目標速度Vtagと車両Veの走行速度とに基づき、実施例の制御部55と同様に各オブジェクト画像Poの表示位置を決定し、オブジェクト画像Poの表示位置に関する情報をヘッドアップディスプレイ2に送信することで、ヘッドアップディスプレイ2にオブジェクト画像Poを表示させてもよい。従って、この変形例では、システムコントローラ20は、本発明における「制御手段」及びプログラムを実行するコンピュータとして機能する。
 また、ヘッドアップディスプレイ2は、ナビゲーション装置1の一部又は全部の機能を有してもよい。この場合、光源ユニット4は、例えば、地図データを記憶するメモリやGPS受信機などの各センサなどを有してもよい。
 1 ナビゲーション装置
 2 ヘッドアップディスプレイ
 4 光源ユニット
 9 コンバイナ
 25 フロントガラス
 28 ボンネット
 29 ダッシュボード
 100、100A、100B 運転支援システム

Claims (10)

  1.  移動体の前方の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる制御手段を備え、
     前記制御手段は、基準速度と前記移動体の走行速度との速度差に応じて、前記移動体の運転者が視認する前記オブジェクトの見かけ上の移動速度が変化するように前記表示手段を制御することを特徴とする表示装置。
  2.  前記制御手段は、前記基準速度と前記走行速度との速度差がない場合に、前記運転者が視認する、前記オブジェクトの見かけ上の移動速度と前記風景の見かけ上の移動速度とが同じとなるように前記表示手段を制御することを特徴とする請求項1に記載の表示装置。
  3.  前記制御手段は、前記走行速度が前記基準速度よりも速い場合、前記走行速度と前記基準速度との速度差に応じた分だけ、前記オブジェクトの見かけ上の移動速度を、前記風景の見かけ上の移動速度よりも速くすることを特徴とする請求項1または2に記載の表示装置。
  4.  前記制御手段は、前記走行速度が前記基準速度よりも遅い場合、前記走行速度と前記基準速度との速度差に応じた分だけ、前記オブジェクトの見かけ上の移動速度を、前記風景の見かけ上の移動速度よりも遅くすることを特徴とする請求項1乃至3のいずれか一項に記載の表示装置。
  5.  前記制御手段は、複数の前記オブジェクトを前記表示手段に表示させ、前記走行速度と前記基準速度との速度差に応じて前記オブジェクトの間隔を変化させることを特徴とする請求項1乃至4のいずれか一項に記載の表示装置。
  6.  前記制御手段は、前記オブジェクトが所定位置を通過するたびに効果音を音声出力手段に出力させることを特徴とする請求項5に記載の表示装置。
  7.  前記制御手段は、前記移動体の遠方に対応する前記オブジェクトほど小さく、前記移動体の近傍に対応する前記オブジェクトほど大きく表示させることを特徴とする請求項1乃至6のいずれか一項に記載の表示装置。
  8.  表示装置が実行する制御方法であって、
     移動体の前方の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる制御工程を有し、
     前記制御工程は、基準速度と前記移動体の走行速度との速度差に応じて、前記移動体の運転者が視認する前記オブジェクトの見かけ上の移動速度が変化するように前記表示手段を制御することを特徴とする制御方法。
  9.  コンピュータが実行するプログラムであって、
     移動体の前方の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように、オブジェクトを表示手段に表示させる制御手段
    として前記コンピュータを機能させ、
     前記制御手段は、基準速度と前記移動体の走行速度との速度差に応じて、前記移動体の運転者が視認する前記オブジェクトの見かけ上の移動速度が変化するように前記表示手段を制御することを特徴とするプログラム。
  10.  請求項9に記載のプログラムを記憶したことを特徴とする記憶媒体。
PCT/JP2014/051654 2014-01-27 2014-01-27 表示装置、制御方法、プログラム、及び記憶媒体 WO2015111213A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/051654 WO2015111213A1 (ja) 2014-01-27 2014-01-27 表示装置、制御方法、プログラム、及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/051654 WO2015111213A1 (ja) 2014-01-27 2014-01-27 表示装置、制御方法、プログラム、及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2015111213A1 true WO2015111213A1 (ja) 2015-07-30

Family

ID=53681041

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/051654 WO2015111213A1 (ja) 2014-01-27 2014-01-27 表示装置、制御方法、プログラム、及び記憶媒体

Country Status (1)

Country Link
WO (1) WO2015111213A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017053616A1 (en) 2015-09-25 2017-03-30 Nyqamin Dynamics Llc Augmented reality display system
JP2017193196A (ja) * 2016-04-18 2017-10-26 株式会社デンソー ヘッドアップディスプレイシステム及び表示制御プログラム
JP2017211366A (ja) * 2016-05-19 2017-11-30 株式会社リコー 移動体システム、情報表示装置
EP3667641A4 (en) * 2017-11-17 2020-08-26 Aisin Aw Co., Ltd. VEHICLE DRIVING ASSISTANCE SYSTEM, METHOD AND PROGRAM
CN113276767A (zh) * 2020-02-19 2021-08-20 本田技研工业株式会社 控制装置、车辆、计算机可读存储介质以及控制方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58225500A (ja) * 1982-06-23 1983-12-27 山中 昭 速度誘導装置
JP2003312506A (ja) * 2002-04-19 2003-11-06 Mitsubishi Electric Corp 車両用操舵制御装置および車両用操舵制御方法
JP2004192556A (ja) * 2002-12-13 2004-07-08 Auto Network Gijutsu Kenkyusho:Kk 交通システム
JP2008501956A (ja) * 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置
JP2008214867A (ja) * 2007-02-28 2008-09-18 Studio Han Design:Kk 道路
JP2013005021A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置、情報処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58225500A (ja) * 1982-06-23 1983-12-27 山中 昭 速度誘導装置
JP2003312506A (ja) * 2002-04-19 2003-11-06 Mitsubishi Electric Corp 車両用操舵制御装置および車両用操舵制御方法
JP2004192556A (ja) * 2002-12-13 2004-07-08 Auto Network Gijutsu Kenkyusho:Kk 交通システム
JP2008501956A (ja) * 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置
JP2008214867A (ja) * 2007-02-28 2008-09-18 Studio Han Design:Kk 道路
JP2013005021A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置、情報処理方法及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017053616A1 (en) 2015-09-25 2017-03-30 Nyqamin Dynamics Llc Augmented reality display system
JP2017193196A (ja) * 2016-04-18 2017-10-26 株式会社デンソー ヘッドアップディスプレイシステム及び表示制御プログラム
JP2017211366A (ja) * 2016-05-19 2017-11-30 株式会社リコー 移動体システム、情報表示装置
EP3667641A4 (en) * 2017-11-17 2020-08-26 Aisin Aw Co., Ltd. VEHICLE DRIVING ASSISTANCE SYSTEM, METHOD AND PROGRAM
CN113276767A (zh) * 2020-02-19 2021-08-20 本田技研工业株式会社 控制装置、车辆、计算机可读存储介质以及控制方法

Similar Documents

Publication Publication Date Title
JP5964332B2 (ja) 画像表示装置、画像表示方法及び画像表示プログラム
JP2015172548A (ja) 表示制御装置、制御方法、プログラム、及び記憶媒体
JP2015128956A (ja) ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
WO2015111213A1 (ja) 表示装置、制御方法、プログラム、及び記憶媒体
JP5795386B2 (ja) 表示装置及び制御方法
JP5735658B2 (ja) 表示装置及び表示方法
JP6627214B2 (ja) 情報表示装置、制御方法、プログラム、及び記憶媒体
WO2015045112A1 (ja) 運転支援装置、制御方法、プログラム、及び記憶媒体
WO2013088511A1 (ja) 表示装置、表示方法、ヘッドアップディスプレイ及び検出装置
JP2018128466A (ja) ナビゲーション装置、ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
WO2015114807A1 (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP2015105903A (ja) ナビゲーション装置、ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP2015141155A (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
WO2014076841A1 (ja) 表示装置、制御方法、プログラム、及び記憶媒体
JP2015127170A (ja) ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP5813250B2 (ja) 表示装置、制御方法、プログラム、及び記憶媒体
JP6401925B2 (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP2015152467A (ja) 表示制御装置、制御方法、プログラム、及び記憶媒体
WO2014109030A1 (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
WO2014192135A1 (ja) 表示装置、表示方法及び表示プログラム
WO2013046426A1 (ja) ヘッドアップディスプレイ、画像表示方法、画像表示プログラム、及び表示装置
JP2018158725A (ja) ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
WO2013046423A1 (ja) ヘッドアップディスプレイ、制御方法、及び表示装置
WO2013046425A1 (ja) ヘッドアップディスプレイ、制御方法、及び表示装置
WO2014002167A1 (ja) 情報表示装置、情報表示方法、情報表示プログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14879677

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 14879677

Country of ref document: EP

Kind code of ref document: A1