WO2019017198A1 - 車両用表示装置及び表示制御装置 - Google Patents

車両用表示装置及び表示制御装置 Download PDF

Info

Publication number
WO2019017198A1
WO2019017198A1 PCT/JP2018/025291 JP2018025291W WO2019017198A1 WO 2019017198 A1 WO2019017198 A1 WO 2019017198A1 JP 2018025291 W JP2018025291 W JP 2018025291W WO 2019017198 A1 WO2019017198 A1 WO 2019017198A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image data
vehicle
movement
image
Prior art date
Application number
PCT/JP2018/025291
Other languages
English (en)
French (fr)
Inventor
雅史 野原
陽雄 大深
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017143909A external-priority patent/JP6680276B2/ja
Priority claimed from JP2018111301A external-priority patent/JP6708227B2/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN201880047202.8A priority Critical patent/CN110914094B/zh
Priority to DE112018003715.0T priority patent/DE112018003715B4/de
Publication of WO2019017198A1 publication Critical patent/WO2019017198A1/ja
Priority to US16/741,942 priority patent/US11320660B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/213
    • B60K35/60
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D7/00Indicating measured values
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • B60K2360/149
    • B60K2360/21
    • B60K35/23
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Definitions

  • the present invention relates to a display device for a vehicle that displays various images on a display unit installed in the vehicle, and a display control device that displays an image of an instrument indicating vehicle information on a display mounted on the vehicle.
  • the device disclosed in Patent Document 1 displays an image of instruments on a display unit installed in a vehicle. Further, in the device disclosed in Patent Document 1, in response to the movement of the driver's viewpoint, the shape of the instrument image changes to a shape as viewed from the driver's viewpoint.
  • the viewpoint does not mean the point at which the line of sight is poured, but means the position of the eye which is the base point of the line of sight.
  • Patent Document 1 there is a display control device that displays an image of an instrument, such as a speedometer and a tachometer, indicating information on travel control of a vehicle (hereinafter, vehicle information).
  • vehicle information information on travel control of a vehicle
  • Patent Document 1 the three-dimensional shape (hereinafter referred to as a stereo instrument model) of each instrument is internally represented in a virtual three-dimensional space based on 3D shape data of instruments to be displayed on the display, and the stereo instrument model A configuration is disclosed that displays an image when the user is looking in the direction of the eyes of the occupant on the display. Furthermore, the display control device of Patent Document 1 identifies the direction in which light is incident on the display, and displays an instrument image in which the shadow of the pointer generated by the incident light is applied to a display board on which a scale, numerical values, etc. are arranged. Do.
  • An object of the present disclosure is to provide a display device for a vehicle which can suppress difficulty in reading necessary information while giving a sense of reality to a driver.
  • this indication aims at providing the display control which can control the visibility degradation of the vehicle information originating in the gap between the display board and the pointer while displaying the instrument image with a three-dimensional effect. I assume.
  • a vehicle display device including: a display unit installed in a vehicle; a driver information acquisition unit acquiring a position of a viewpoint-related portion which is a portion moving with the driver's viewpoint or viewpoint; And an image data acquisition unit for acquiring image data for generating a display image to be displayed on the screen, and a drawing processing unit for generating a display image based on the image data and displaying the display image on the display unit.
  • the movement suppression image data and the movement promotion image data are divided, and the drawing processing unit determines the movement amount of the display image created from the movement promotion image data based on the change amount of the position of the viewpoint related part, And, it is larger than the movement amount of the display image created from the movement suppression image data.
  • the display image created from the movement promoting image data is determined based on the amount of change in the position of the viewpoint related portion, and the movement amount of the display image is determined from the movement suppression image data It is larger than the movement amount of the display image to be created. Therefore, it is possible to give the driver a sense of realism, as compared with the case where the movement amounts of all the display images are set as the movement amounts of the display image created from the movement suppression image data.
  • the movement amount of the display image created from the movement suppression image data is smaller than the movement amount of the movement promotion image data. Therefore, it is possible to suppress that it becomes difficult to read the necessary information by classifying the image data which needs to read the necessary information as the movement suppression image data.
  • a vehicle display device includes a display unit installed in a vehicle, a vehicle acceleration acquisition unit that acquires an acceleration generated in the vehicle, and image data for creating a display image to be displayed on the display unit.
  • the drawing processing unit determines the movement amount of the display image generated from the movement promotion image data based on the acceleration acquired by the vehicle acceleration acquisition unit, and the movement of the display image generated from the movement suppression image data Make it larger than the amount.
  • the display image generated from the movement promotion image data is determined based on the acceleration generated in the vehicle, and the movement amount of the display image is the display generated from the movement suppression image data It is larger than the moving amount of the image. Therefore, it is possible to give the driver a sense of realism, as compared with the case where the movement amounts of all the display images are set as the movement amounts of the display image created from the movement suppression image data.
  • the movement amount of the display image created from the movement suppression image data is smaller than the movement amount of the movement promotion image data. Therefore, it is possible to suppress that it becomes difficult to read the necessary information by classifying the image data which needs to read the necessary information as the movement suppression image data.
  • a display control device displays an image of an instrument indicating predetermined vehicle information related to travel control of a vehicle on a display mounted on the vehicle.
  • the display control device includes a three-dimensional model of each of a vehicle information acquisition unit for acquiring vehicle information, a rear panel object which is a three-dimensional model of a rear panel representing an appearance configuration of a scale of an instrument, and a plurality of scales provided in the scale.
  • a stereo meter model generation unit that generates a stereo meter model which is a stereo model of a meter by combining a certain scale object and a pointer object having a pointer body and a stereo model of the pointer of the meter; And a stereographic instrument model generation unit for providing a pointer object in a plane in which the pointer main body is opposed to the rear panel object with a predetermined separation distance, and While arranging at a position indicating a state according to the vehicle information acquired by the vehicle information acquisition unit, The closest scale object, to generate a three-dimensional instrument model by a predetermined protrusion amount is distance or less from the rear panel object.
  • the stereogram model generation unit generates a stereomodel in which at least a scale near the pointer pops out from the rear panel as a stereomodel of the instrument (that is, a stereogram model).
  • a stereomodel of the instrument that is, a stereogram model.
  • the distance in the depth direction between the pointer and the scale near the pointer is smaller than the separation distance from the rear panel to the pointer.
  • a back panel here is a member which removed the scale part in the above-mentioned display panel. That is, the distance between the back panel and the pointer corresponds to the distance between the display panel and the pointer.
  • a sense of depth according to the separation distance is expressed as a stereo meter model.
  • the scale object itself is also displayed in a mode that protrudes from the rear panel, so that a sense of depth is further expressed. According to such a display mode of the instrument image, it is possible to provide the occupant with a three-dimensional effect.
  • FIG. 1 is a block diagram showing the configuration of the display device for a vehicle according to the first embodiment
  • FIG. 2 is a diagram showing an installation example of the sight line detection device
  • FIG. 3 is a diagram showing a state in which the display object is arranged in the virtual space
  • FIG. 4 is a flowchart illustrating processing executed by the drawing processing unit of FIG.
  • Figure 5 is a view showing the speedometer dial, the rotation center C A tachometer dial
  • FIG. 6 is a diagram showing the road and the center of rotation of the car
  • FIG. 1 is a block diagram showing the configuration of the display device for a vehicle according to the first embodiment
  • FIG. 2 is a diagram showing an installation example of the sight line detection device
  • FIG. 3 is a diagram showing a state in which the display object is arranged in the virtual space
  • FIG. 4 is a flowchart illustrating processing executed by the drawing processing unit of FIG.
  • Figure 5 is a view showing the speedometer dial, the rotation center C A tachometer dial
  • FIG. 7 is a diagram showing the speedometer dial and the tachometer dial when the viewpoint position is 0 degrees;
  • FIG. 8 is a view showing a rotation angle ⁇ 2 of the speedometer dial 61 and the tachometer dial when the driver's viewpoint change angle ⁇ 1.
  • FIG. 9 is a diagram showing a road and a car when the viewpoint position is 0 degrees,
  • FIG. 10 is a view showing the rotation angle ⁇ 3 of the road and car when the driver's viewpoint change angle ⁇ 1.
  • FIG. 11 is a block diagram showing the configuration of a display device for a vehicle according to a second embodiment,
  • FIG. 12 is a flowchart illustrating processing executed by the drawing processing unit in FIG.
  • FIG. 13 is a diagram showing a specific example of processing of the drawing processing unit;
  • FIG. 14 is a diagram illustrating a specific example of processing of the drawing processing unit;
  • Figure 15 is a diagram showing an example of display object than the center of rotation C A is remotely located,
  • FIG. 16 is a diagram showing an example in which the display object is rotationally moved in the direction opposite to the head movement direction,
  • FIG. 17 is a block diagram showing a schematic configuration of a display system for a vehicle,
  • FIG. 18 is a diagram for explaining a display to be controlled by the display control device;
  • FIG. 19 is a view showing an example of a meter unit image displayed on the display,
  • FIG. 20 is a diagram for describing parts that constitute a 3D model of the instrument;
  • FIG. 21 is a block diagram for describing a schematic configuration of a display control device, FIG.
  • FIG. 22 is a diagram for explaining the positional relationship of each part constituting the stereo instrument model
  • FIG. 23 is a graph showing an example of the correspondence between the distance from the pointer object to the scale object and the protrusion amount
  • FIG. 24 is a diagram for explaining the operation of the drawing processing unit
  • FIG. 25 is a flowchart for explaining display control processing.
  • FIG. 26A is a view for explaining the effect of the embodiment
  • FIG. 26B is a view for explaining the effect of the embodiment
  • FIG. 27A is a diagram for explaining the operation of the comparison configuration
  • FIG. 27B is a diagram for explaining the operation of the comparison configuration
  • FIG. 28A is a view for explaining the operation of the embodiment
  • FIG. 28B is a view for explaining the operation of the embodiment
  • FIG. 29 is a view for explaining the operation of the modification 15
  • FIG. 30 is a block diagram showing a configuration of a modeling processing unit in the modification 15.
  • FIG. 31 is a diagram for illustrating the configuration of the modification 17.
  • a real analog meter having an entity is generally disposed opposite to the display board at a fixed distance so that the pointer can be turned.
  • a gap of a fixed distance is provided in the depth direction between the plane on which the pointer rotates and the display board.
  • Patent Document 1 in order to make the instrument image displayed on the display look as if it were a real analog meter having an entity, a stereometric instrument model that reproduces the separation between the display board and the pointer is generated, and Display the image viewed from the viewing direction.
  • a stereometric instrument model that reproduces the separation between the display board and the pointer is generated, and Display the image viewed from the viewing direction.
  • the gap between the indicator and the pointer and the positional deviation of the pointer with respect to the scale derived from the position of the occupant's eyes have the effect of providing a three-dimensional effect, while the accurate scale indicated by the pointer (in other words, the numerical value) ) Becomes difficult to understand.
  • the separation between the display board and the pointer is set small, the positional deviation of the pointer with respect to the scale can be suppressed even when the occupant views the display from an oblique direction, for example.
  • the separation between the display panel and the pointer is set small, the change in the display mode according to the position of the occupant's eyes (or the position of the head) becomes small, and the dynamic display considering the position of the occupant's eyes It is less valuable to control.
  • the separation between the display board and the pointer In order to perform display control in consideration of the position of the occupant's eyes, it is preferable to set the separation between the display board and the pointer to a somewhat large value. This is because the degree of change in the display mode according to the position of the occupant's eyes increases, and the driver can be provided with a three-dimensional effect.
  • the view point of the occupant is present in a direction other than the front direction of the display (for example, in the oblique direction) in the configuration for displaying a three-dimensional model when viewed from the driver's viewpoint
  • the case was illustrated, it does not restrict to this.
  • the three-dimensional instrument model is arranged in a posture in which the display panel is inclined with respect to the display surface of the display The same applies to the case of displaying in an aspect.
  • the structure of the display apparatus 1 for vehicles of 1st Embodiment is shown in FIG.
  • the vehicle display device 1 is mounted on a vehicle 2.
  • the vehicular display device 1 includes a display 10, an image data storage unit 20, a sight line detection device 30, and an arithmetic device 40.
  • the display 10 corresponding to the display unit is installed on an instrument panel of the vehicle 2 and displays various information regarding the vehicle 2.
  • the information is displayed as an image.
  • an image displayed on the display 10 will be referred to as a display image.
  • the displayed image is not limited to the one in which the shape is represented in detail as in the photograph, but also includes so-called geometric figures, illustrations, pictures and the like.
  • characters are also displayed on the display 10 as display images.
  • the image data storage unit 20 stores data (hereinafter, image data) for creating various display images to be displayed on the display 10.
  • image data also includes an image displayed three-dimensionally.
  • three-dimensional shapes are stored as image data.
  • the gaze detection device 30 detects the viewpoint and the gaze direction of the driver.
  • the visual axis detection device 30 is provided with a camera 31.
  • FIG. 2 shows an example of installation of the sight line detection device 30.
  • the visual axis detection device 30 is disposed below the display 10.
  • the imaging range of the camera 31 included in the sight line detection device 30 is set to include the driver's head 4.
  • the installation position of the visual axis detection device 30 is not limited to the position shown in FIG. 2, and may be installed at a position other than the position shown in FIG. 2 as long as the driver's head 4 can pick up an image.
  • the gaze detection device 30 analyzes the image captured by the camera 31 to detect the position of the driver's eyes. More specifically, the positions of the eye reference point and the movement point are detected. There is known a method of detecting the line of sight from these positional relationships, with the eye reference point as the eyelid and the eye movement point as the iris. There is also known a method of detecting the line of sight from the positional relationship of the eye, with the eye reflection point as the eye reflection point and the eye movement point as the pupil.
  • the arithmetic device 40 is a computer provided with a CPU, a RAM, a ROM, an I / O, and a bus line connecting these components.
  • the ROM stores programs to be executed by the CPU. This program may be stored in a non-transitory tangible storage medium, and the specific storage medium is not limited to the ROM. For example, the program may be stored in flash memory. Execution of a program by the CPU corresponds to execution of a method corresponding to the program.
  • the arithmetic device 40 executes the program stored in the ROM by the CPU, whereby the image data acquisition unit 41, the measurement value acquisition unit 42, the driver information acquisition unit 43, and the drawing processing unit 44, as shown in FIG. To realize the function as Note that part or all of the functional blocks included in the arithmetic device 40 may be realized using one or more ICs (in other words, as hardware). Further, some or all of the functions of the computing device 40 may be realized by a combination of software execution by the CPU and hardware components.
  • the image data acquisition unit 41 acquires image data from the image data storage unit 20.
  • FIG. 3 shows a state in which the display object 60 is disposed in the virtual space 50.
  • the image data acquisition unit 41 acquires the image data of the display object 60.
  • an image obtained by viewing the display object 60 disposed in the virtual space 50 from a virtual viewpoint is displayed on the display 10 as a display image. That is, these display objects 60 are objects displayed on the display 10.
  • the display object 60 shown in FIG. 3 is a speedometer dial 61, a tachometer dial 62, a road 63, and a car 64.
  • the car 64 has shown the own vehicle notionally.
  • the display object 60 may include items other than those shown in FIG.
  • various instruments such as a fuel gauge and a water thermometer, may be included in the display object 60.
  • the image data acquisition unit 41 acquires image data of the display object 60.
  • another illumination 65 and a camera 66 are disposed.
  • the illumination 65 indicates sunlight
  • the camera 66 indicates the driver's viewpoint and line of sight.
  • the image captured by the camera 66 is displayed on the display 10 as a display image.
  • the camera 66 disposed in the virtual space 50 means a virtual viewpoint.
  • the measurement value acquisition unit 42 acquires a measurement value to be reflected on the display object 60.
  • the display object 60 includes a speedometer dial 61 and a tachometer dial 62. Therefore, the measurement value acquisition unit 42 acquires the vehicle speed and the engine rotation speed as measurement values. These measured values are obtained from sensors that detect these measured values.
  • the driver information acquisition unit 43 acquires the position of the viewpoint of the driver.
  • the gaze detection device 30 sequentially detects the position of the driver's viewpoint. Therefore, the driver information acquisition unit 43 sequentially acquires the position of the viewpoint of the driver from the gaze detection device 30.
  • the viewpoint is an example of a viewpoint related part.
  • the drawing processing unit 44 displays an image based on the image data acquired by the image data acquisition unit 41, the measurement value sequentially acquired by the measurement value acquisition unit 42, and the position of the driver's viewpoint sequentially acquired by the driver information acquisition unit 43. Are sequentially created, and the created display image is displayed on the display 10.
  • the processing executed by the drawing processing unit 44 will be described using the flowchart shown in FIG.
  • S1 is a process which the measured value acquisition part 42 performs
  • S2 is a process which the driver
  • the process shown in FIG. 4 is performed periodically after the condition for displaying the display image on the display 10 is satisfied, such as when the power of the vehicle 2 is turned on, and the image data acquisition unit 41 acquires the image data. To be executed.
  • a measurement value is acquired.
  • the position of the driver's viewpoint is acquired.
  • the position of the pointer of the display object 60 provided with the pointer is determined among the display objects 60 disposed in the virtual space 50.
  • the display object 60 in which the position of the pointer determined in S3 is reflected is arranged in the virtual space 50.
  • the display 10 displays an image of the display object 60 rotated based on the angle change of the position of the viewpoint of the driver as viewed from the camera 66.
  • the rotation angle of the display object 60 is larger than the change angle ⁇ of the position of the driver's viewpoint, which is smaller than the change angle ⁇ of the position of the driver's viewpoint. It is divided into B group.
  • the change angle ⁇ is the center position of the driver's eyes, that is, the center of the head 4 in the left-right direction, a line segment G connecting the rotation center C determined for each display object 60 It means the angle made.
  • the reference line segment B is a line connecting the middle position of the driver's eyes and the center of rotation when the middle position of the driver's eyes is at the reference position.
  • the reference position is, for example, a position on a vertical plane parallel to the front-rear direction of the vehicle passing through the steering center.
  • the line segment G and the reference line segment B are shown in FIG. 8 and FIG.
  • Image data which needs to read information such as the position of a pointer is classified into an A group.
  • the need to read information means that it is necessary to recognize a slight difference in shape position or to recognize a slight difference in shape.
  • the position of the pointer is one that needs to be aware of slight differences in the shape's position. Moreover, there is a character as a thing which needs to recognize the difference in shape.
  • image data that the driver does not need to read information or does not need to read information in a short time is classified into group B.
  • the image data classified into the A group corresponds to movement suppression image data
  • the image data classified into the B group corresponds to movement promotion image data.
  • the image data of the speedometer dial 61 and the tachometer dial 62 are classified into the A group
  • the image data of the road 63 and the car 64 are classified into the B group.
  • rotation processing is performed on the display object 60 represented by the image data belonging to the A group.
  • the display target object 60 of the A group is rotated by an angle obtained by multiplying the change angle ⁇ of the position of the viewpoint of the driver by a positive coefficient smaller than one.
  • the specific value of the positive coefficient is determined based on experiments in consideration of the balance between securing of visibility and improvement of the sense of reality or the feeling of driving.
  • FIG. 5 shows a rotation center C A speedometer dial 61, tachometer dial 62.
  • the speedometer dial 61 and the tachometer dial 62 are arranged in the same plane.
  • this plane is referred to as a meter arrangement plane 67.
  • Rotation center C A is set to the meter arrangement plane 67. More specifically, the rotation center C A, in the meter arrangement surface 67, is set to an intermediate position between the speedometer dial 61 and tachometer dial 62.
  • rotation processing is performed on the display object 60 represented by the image data belonging to the B group.
  • the display object 60 of group B is rotated by an angle obtained by multiplying the change angle ⁇ of the position of the viewpoint of the driver by a positive coefficient larger than one.
  • the specific numerical value of the positive coefficient that determines the rotation angle of the group B is also determined based on experiments in consideration of the balance between securing of visibility and improvement of the sense of reality or the feeling of driving.
  • Figure 6 shows a rotation center C B of the road 63 and the car 64.
  • the center of rotation C B is set as far as possible forward in the virtual space 50.
  • the front is the direction away from the camera 66 in the imaging direction of the camera 66 facing an angle of 0 degrees.
  • the road 63 having a long shape is disposed in the direction toward the vanishing point.
  • FIG. 7 is a plan view of the virtual space 50, that is, a plan view.
  • FIGS. 8 to 10 are views of the virtual space 50 as viewed from above.
  • the direction shown in FIG. 7 is the reference direction of the speedometer dial 61 and the tachometer dial 62.
  • the meter arrangement plane 67 is orthogonal to the reference line segment B.
  • FIG. 8 shows the rotation angles ⁇ 2 of the speedometer dial 61 and the tachometer dial 62 when the change angle ⁇ of the viewpoint of the driver becomes the angle ⁇ 1.
  • the rotation angle ⁇ 2 of the speedometer dial 61 and the tachometer dial 62 is ⁇ 2 ⁇ 1 because it is an angle obtained by multiplying the change angle ⁇ 1 of the viewpoint of the driver by a coefficient smaller than one.
  • FIG. 9 shows the road 63 and the car 64 when the position of the viewpoint is 0 degrees.
  • the direction shown in FIG. 9 is the reference direction of the speedometer dial 61 and the tachometer dial 62.
  • the road 63 is parallel to the reference line segment B.
  • FIG. 10 shows the rotation angle ⁇ 3 of the road 63 and the car 64 when the change angle ⁇ of the viewpoint of the driver becomes the angle ⁇ 1.
  • the rotation angle ⁇ 3 of the road 63 and the car 64 is ⁇ 1 ⁇ 3 because it is an angle obtained by multiplying the change angle ⁇ 1 of the viewpoint of the driver by a coefficient larger than one.
  • an image of the display object 60 after the rotation processing in S5 and S6 is viewed from the position of the camera 66 is generated.
  • the generated image is a display image.
  • the position of the camera 66 is determined from the position of the viewpoint of the driver acquired in S2.
  • the position of the illumination 65 is the position of the sun at the time of image generation.
  • the position of the illumination 65 is determined using this relationship and the actual time, heading, and current position.
  • the current position uses, for example, the position detected by the GNSS receiver.
  • the heading direction may be calculated from the locus of the current position.
  • the road 63 and the car 64 may overlap the speedometer dial 61 or the tachometer dial 62. That is, the display object 60 of the A group and the display object 60 of the B group may overlap.
  • the display image created from the image data of group A is created so as to always be in front of the display image created from the image data of group B. After creating a display image, the display image is output to the display 10.
  • the display image belonging to the A group and the display image belonging to the B group each have the driver's position of 0 degrees
  • the image is rotationally moved with respect to the display image displayed at the time of.
  • the rotation angle of the display image created from the image data of group B is an angle obtained by multiplying the change angle ⁇ of the position of the viewpoint of the driver by a coefficient larger than one.
  • the rotation angle of the display image created from the image data of group A is an angle obtained by multiplying the change angle ⁇ by a positive coefficient smaller than one. Therefore, the rotational movement amount of the display image of the B group is larger than the rotational movement amount of the display image of the A group. Therefore, it is possible to give the driver a sense of realism as compared with the case where the rotational movement amounts of all the display images are used as the rotational movement amounts of the display image of group A.
  • the amount of rotational movement of the display image of group A is smaller than the amount of rotational movement of the display image of group B. Therefore, image data that needs to be read, such as the image data for creating the speedometer dial 61 and the tachometer dial 62, may be difficult to read by classifying it into the A group. It can be suppressed.
  • the display image generated from the image data of the A group is always displayed in front of the display image generated from the image data of the B group. This also suppresses the difficulty of reading necessary information.
  • the structure of the display apparatus 100 for vehicles of 2nd Embodiment is shown in FIG.
  • the vehicle display device 100 is mounted on the vehicle 2.
  • the vehicular display device 100 includes an acceleration sensor 70.
  • the arithmetic device 140 also includes a vehicle acceleration acquisition unit 145, and includes a drawing processing unit 144 different from the first embodiment.
  • the acceleration sensor 70 sequentially detects the acceleration in the width direction of the vehicle 2, that is, in the left and right direction. In addition to this, the acceleration in the front-rear direction and the vertical direction of the vehicle 2 may be detected.
  • the vehicle acceleration acquisition unit 145 sequentially acquires, from the acceleration sensor 70, the acceleration in the left-right direction that occurs in the vehicle 2.
  • the drawing processing unit 144 is different from the drawing processing unit 44 of the first embodiment in that the drawing processing unit 144 determines the rotation angle of the display target object 60 based on the acceleration in the left-right direction of the vehicle 2 acquired by the vehicle acceleration acquisition unit 145.
  • the processing of the drawing processing unit 144 will be described using the flowchart shown in FIG.
  • the process shown in FIG. 12 is a process executed in place of FIG.
  • S11 is a process performed by the measurement value acquisition unit 42, and is the same process as S1.
  • S12 is processing executed by the vehicle acceleration acquisition unit 145, and acquires the acceleration in the lateral direction of the vehicle 2 from the acceleration sensor 70.
  • S13 is a process performed by the driver information acquisition unit 43, and is the same process as S2. After S14, the drawing processing unit 144 executes this.
  • S14 and S15 are the same processes as S3 and S4 of FIG. 4, respectively.
  • rotation processing is performed on the display object 60 represented by the image data belonging to the A group among the display object 60.
  • the rotation angle of the display object 60 belonging to the A group is the change angle ⁇ of the viewpoint of the driver.
  • the rotation center C A is the same as the first embodiment.
  • the speedometer dial 61 and the tachometer dial 62 can be used as the driver's face even if the position of the driver's head 4 changes due to the acceleration of the vehicle 2 in the left-right direction. You can face it.
  • FIG. 13 shows a specific example of the process of S16.
  • the steering 3 is turned largely in a short time, so that a large acceleration is generated in the left and right direction of the vehicle 2, whereby the position of the driver's head 4 is largely moved to the right in the figure. ing.
  • the speedometer dial 61 and the tachometer dial 62 face the driver's face. Therefore, the reduction in the visibility of the speedometer dial 61 and the tachometer dial 62 can be suppressed.
  • rotation processing is performed on the display object 60 represented by the image data belonging to the B group among the display object 60.
  • the rotation angle of the display object 60 belonging to the B group is determined based on the magnitude of the acceleration acquired in S12. Specifically, the relationship between the magnitude of the acceleration in the left-right direction and the change angle ⁇ of the viewpoint of the driver is determined in advance based on experiments. Then, a value obtained by multiplying the acceleration obtained in S12 and the change angle ⁇ determined from the above relationship by a coefficient larger than 1 is set as the rotation angle.
  • the rotation angle of the display object 60 of the B group is larger than the angle of facing the driver's face. That is, also in the second embodiment, the rotational movement amount of the display object 60 of the B group is larger than the rotational movement amount of the display object 60 of the A group.
  • FIG. 14 shows a specific example of the process of S17.
  • the operation amount of the steering 3 is not large. Therefore, the acceleration in the lateral direction generated on the vehicle 2 by the rotation of the steering 3 is not so large. As a result, the change in the position of the driver's head 4 is not too large.
  • the rotation angle of the display object 60 in the B group is an angle obtained by multiplying the change angle ⁇ determined from the acceleration generated in the left and right direction of the vehicle 2 by a factor larger than one. Therefore, as shown in FIG. 14, the rotation angle ⁇ 5 with respect to the road 63 and the car 64 is larger than the change angle ⁇ 4 of the driver's face.
  • an image of the display object 60 after the rotation processing in S16 and S17 viewed from the position of the camera 66 is generated as a display image.
  • the position of the camera 66 and the position of the illumination 65 are determined in the same manner as in the first embodiment.
  • the second embodiment is also the same as the first embodiment in that the display image is created so that the display image created from the image data of the A group is always in front of the display image created from the image data of the B group. After creating a display image, the display image is output to the display 10.
  • the rotation angle of the display target object 60 of the B group is determined according to the acceleration in the left-right direction of the vehicle 2. Moreover, the rotation angle of the display object 60 of the B group is larger than the rotation angle of the display object 60 of the A group. Therefore, it is possible to give the driver a sense of realism and a feeling of driving as compared with the case where the rotational movement amounts of all the display images are set as the rotational movement amounts of the display image created from the image data of group A.
  • the rotation angle of the group B with respect to the display target 60 is a rotation angle obtained by multiplying the change angle ⁇ determined from the acceleration generated in the left and right direction of the vehicle 2 by a coefficient larger than one. Therefore, as illustrated in FIG. 14, even if the driver operates the steering 3 for a while, the road 63 and the car 64 move violently. Thus, the driver can be given a sense of realism.
  • the rotational movement amount of the display image of the A group is smaller than the rotational movement amount of the display image of the B group. Moreover, even if the position of the head 4 of the driver changes, the display image of the A group is set to be a rotation angle facing the face of the driver. Therefore, even if the position of the driver's head 4 changes, it can be suppressed that it becomes difficult to read necessary information represented in the display image of the A group.
  • the display object 60 When the display object 60 is linearly moved in the front-rear direction, when the movement amount is determined based on the viewpoint related part of the driver, the display object is displayed based on the change amount of the vehicle longitudinal direction position of the viewpoint related part. The object 60 is moved back and forth in the virtual space 50. The correspondence between the amount of change in the vehicle longitudinal direction position of the viewpoint related part and the amount of movement of the display object 60 in the longitudinal direction is set in advance.
  • the display object 60 When the display object 60 is linearly moved in the front-rear direction, when the movement amount is determined based on the acceleration in the front-rear direction generated in the vehicle 2, the display object 60 is generated based on the acceleration in the front-rear direction Is moved back and forth in the virtual space 50.
  • the correspondence between the longitudinal acceleration generated in the vehicle 2 and the movement amount of the display object 60 in the longitudinal direction is set in advance.
  • the rotation angle is determined based on the position of the viewpoint of the driver.
  • the rotation angle may be determined based on the position of the head 4.
  • the head 4 moves with the viewpoint.
  • the position of the head 4 is an example of a viewpoint related part.
  • the direction of sight may be used to determine the rotation angle.
  • the reference point and the movement point of the eye are detected. Therefore, even when the rotation angle is determined using the sight line direction, the position of the viewpoint is detected.
  • the rotation angle of the display object 60 is determined based on the angle change amount of the line of sight.
  • the display object 60 is divided into the A group and the B group.
  • a C group may be set.
  • the C group is a group that does not move at all even if the position of the viewpoint related part changes or the acceleration generated on the vehicle changes.
  • an image for transmitting information to the driver can be set as the C group by turning on or off.
  • an indicator such as a seat belt warning light can be set to the C group.
  • an image whose display position is at the corner or the periphery of the display 10 can be set as the C group.
  • the coefficient by which the change angle ⁇ of the position of the viewpoint of the driver is multiplied with respect to the display object 60 of the A group may be set to zero. That is, in the first embodiment, even if the position of the viewpoint related part changes, the group A may not be moved. Further, also in the second embodiment, the movement amount of the A group may be set to 0 regardless of the acceleration generated in the vehicle.
  • the images displayed on the vehicle display device may not include instruments such as the speedometer dial 61 and the tachometer dial 62.
  • the vehicle display device may be embodied as a navigation device.
  • the yaw angular acceleration may be detected as the acceleration in the left and right direction of the vehicle 2.
  • the yaw angular acceleration can be obtained, for example, by differentiating the yaw rate detected by the yaw rate sensor.
  • the road 63 is shown as the display object 60 belonging to the B group.
  • the road 63 has a depth shape, that is, a shape in the front-rear direction longer than the display object 60 belonging to the A group.
  • the depth shape long display object 60 by setting the rotation center C B forward, it is possible to provide a particularly realistic or driving feeling to the driver.
  • the display object 60 having a long depth shape is not limited to the road 63.
  • the river may be the display object 60.
  • either one of the rotation angle of group A and the rotation angle of group B may be determined in the same manner as in the first embodiment.
  • the rotation center CA at the time of rotationally moving the group A is a plane on which the speedometer dial 61 and the tachometer dial 62 which are the display objects 60 of the group A are disposed. It was set to the meter arrangement plane 67.
  • the rotation center C A may be disposed forward of the display object 60 of the A group. In other words, the display object 60 of the A group may be arranged farther than the center of rotation C A.
  • the rotation center C A is shown the example in between the display object 60 and the driver.
  • the change angle ⁇ of the driver's viewpoint is the angle ⁇ 6
  • the display target object 60 of group A is rotated about the CA as the rotation angle ⁇ 6
  • the driver's viewpoint change angle ⁇ is At the angle ⁇ 7
  • the display object 60 in the group A is rotated about the CA as an angle ⁇ 7. Therefore, in the example shown in FIG. 15, even if the position of the driver's head 4 changes, the display object 60 faces the driver's face.
  • the rotational movement amount of the display object 60 of group B is an angle obtained by multiplying the angles ⁇ 6 and ⁇ 7 by a coefficient larger than 1 and Do.
  • the rotation center C B of B group as well, similar to the rotation center C A of Group A, can be disposed between the driver and the B group of the display object 60.
  • both the group A and the group B are moved in the change direction of the viewpoint related part.
  • the B group may be moved in the opposite direction to the change direction of the viewpoint related part.
  • FIG. 16 shows an example in which the display object 60 is moved in the direction opposite to the change direction of the viewpoint of the driver.
  • the display object 60 is rotationally moved about C B as a rotation center, and in FIG. 16, the display object 60 is assumed to belong to the B group.
  • the movement amount of the display image the same segment G as the first embodiment, the amount of change in the angle between the line segment H toward the center of rotation C B from the display object 60.
  • the angle between the line segment G and the line segment H is zero.
  • the angle between the line segment G and the line segment H is the angle ⁇ 7 + ⁇ 8. Therefore, the change amount of the angle is also the angle ⁇ 7 + ⁇ 8.
  • the amount of rotational movement of the display target object 60 of the group A can be calculated by the calculation method described in the embodiments and the modifications described above. That is, in the modification 11, the rotational movement amount of the display target object 60 of the A group may be a rotational movement amount obtained by multiplying an angle ⁇ 7 which is a change angle of the driver's viewpoint by a positive coefficient smaller than one. it can. In addition, the display target object 60 of the A group may not be moved regardless of the viewpoint change angle of the driver. In any case, the rotational movement amount of the display image of group B is larger than the rotational movement amount of the display image of group A.
  • the movement amount of the display image is the change amount of the angle between the line segment G and the line segment H.
  • the rotational movement amount of the display target object 60 of the group A can be calculated by the calculation method described in the second embodiment and the modification.
  • the rotational movement amount of the display target object 60 of the group A is the direction of the acceleration in the left and right direction of the vehicle 2 and the driver can estimate The amount of rotational movement can be less than the angle of change of the viewpoint.
  • the display target object 60 of the A group may not be moved.
  • the rotational movement amount of the display image of group B is larger than the rotational movement amount of the display image of group A.
  • Modification 14 Providing the driver who looks at the display 10 a realistic image by moving the display position of the display image according to the amount of change of the position of the viewpoint related part while dividing the display image into the group A and the group B it can. However, it is also assumed that there are drivers who do not like realistic images. Therefore, the user may switch whether or not to execute the process of moving the display image in accordance with the amount of change in the position of the viewpoint related part.
  • the movement amount of the A group and the movement amount of the B group also have different preferences depending on individual users. Therefore, the user may be able to set the movement amount of the A group and the movement amount of the B group with respect to the amount of change in the position of the viewpoint related part by group or by grouping A group and B group together. .
  • FIG. 17 is a view showing an example of a schematic configuration of a display system 300 for a vehicle according to the present embodiment.
  • the vehicle display system 300 includes a display control device 201, a display 202, an occupant camera 203, and a vehicle ECU 204.
  • ECU is an abbreviation of Electronic Control Unit.
  • Each of the occupant camera 203 and the vehicle ECU 204 is communicably connected to the display control device 201 via a communication network (hereinafter, an in-vehicle network) built in the vehicle. Further, the display 202 and the display control device 201 are communicably connected to each other via the in-vehicle network or the dedicated line for video signals.
  • a communication network hereinafter, an in-vehicle network
  • a vehicle in which the vehicle display system 300 is used is referred to as a host vehicle.
  • the host vehicle is a vehicle having an engine as a drive source, it may be a vehicle having only a motor as a drive source (so-called electric car), and both the engine and the motor are driven. It may be a vehicle provided as a source (so-called hybrid car).
  • the display control device 201 roughly draws an image of an analog meter (hereinafter, analog meter) indicating information on travel control of the vehicle (hereinafter, vehicle information) by three-dimensional computer graphics, and the display 202 Is a device that displays on
  • the meter that indicates the vehicle information here is, for example, a tachometer that indicates the rotational speed of the engine or a speedometer that indicates the vehicle speed
  • an analog meter is a state to be displayed using a pointer having an actual state and a scale. It is an instrument indicating the numerical value of quantity (for example, vehicle speed).
  • the instrument image displayed by the display control device 201 is an image imitating the above-mentioned analog meter.
  • the display 202 is a device that displays an image input from the display control device 201.
  • the display 202 is a display (so-called meter display) 221 disposed in an area A1 located in front of the driver's seat on the instrument panel, as shown in FIG.
  • the display 202 is capable of full color display, and can be realized using a liquid crystal display, an organic EL display, a plasma display, or the like.
  • the display 202 may be a display mounted at a position other than the above-described position, and is provided, for example, at the top of the central portion in the vehicle width direction (hereinafter, central region) A2 of the instrument panel. May be a display 222 (so-called center display). Further, the display 202 may be a display disposed on the side of the steering column cover in the central area A2 as a display for displaying a navigation screen or the like. Furthermore, the display 202 may be a head-up display that projects a virtual image on a portion in front of the driver's seat of the windshield.
  • the display control device 201 displays, for example, a tachometer image 206 representing the current rotational speed of the engine as shown in FIG. 19 and a speedometer image 207 indicating the current vehicle speed, as shown in FIG.
  • the tachometer image 206 indicates the current rotational speed of the engine by rotating the pointer according to the rotational speed of the engine detected by the sensor on a substantially circular scale on which a scale and a numerical value are given in an arc. It is an image imitating an analog tachometer.
  • the speedometer image 207 is an analog indicating the current traveling speed by rotating the pointer according to the vehicle speed detected by the vehicle speed sensor on a substantially circular scale on which a scale and a numerical value are given in a circular arc. It is the image which imitated the speedometer of formula.
  • An instrument image corresponding to each vehicle information such as the rotational speed and the vehicle speed of the engine is arranged in a predetermined layout and displayed on the display 202.
  • the image finally displayed on the display 202 is also referred to as a meter unit image.
  • the display control device 201 selects a speedometer and a tachometer as meters to be displayed, and displays an image including an image of these two meters on the display 202 as a final meter unit image.
  • the case will be described. That is, the aspect in the case of drawing the image containing both the tachometer image 206 and the speedometer image 207 as a meter unit image is demonstrated.
  • the type, combination, and number of instruments to be displayed by the display control device 201 may be designed appropriately.
  • the type of meter to be displayed may be dynamically changed according to the state of the vehicle, such as whether the vehicle is traveling.
  • the meter to be displayed may be only a tachometer or only a speedometer. Images may be displayed that include other types of vehicle information (eg, shift positions).
  • a fuel gauge indicating the remaining amount of fuel using a pointer and a scale, a water temperature gauge indicating the temperature of cooling water for cooling the engine, or the like may be adopted as a meter to be displayed. That is, as the instrument image, an image imitating a fuel gauge or an image imitating a water thermometer may be drawn.
  • the own vehicle is a vehicle provided with a motor as a drive source, such as an electric car or a hybrid car, for example, it is adopted as an indicator whose display target is a battery remaining capacity indicator showing a battery remaining amount using a pointer or the like. can do.
  • the display control device 201 is configured as a computer. That is, the display control device 201 includes a CPU 211 which executes various arithmetic processing, a RAM 212, a flash memory 213, an I / O 214, a 3D model storage unit 215, and a bus line connecting these components.
  • the CPU 211 is configured to execute various arithmetic processing, and may be realized using, for example, a microprocessor or the like. Note that the display control device 201 may be realized using an MPU or a GPU instead of the CPU 211.
  • the RAM 212 is a volatile memory.
  • the flash memory 213 is a non-volatile memory.
  • the flash memory 213 stores a program (hereinafter, display control program) for causing a normal computer to function as the display control device 201.
  • the display control program described above may be stored in a storage medium having an entity (so-called non-transitory tangible storage medium). Execution of the display control program by the CPU 211 corresponds to execution of a method corresponding to the display control program.
  • the display control device 201 provides various functions by the CPU 211 executing a display control program. The various functions of the display control device 201 will be described later separately.
  • the I / O 214 is an interface for the display control device 201 to input and output data with an external device (for example, the vehicle ECU 204).
  • the I / O 214 may be realized using an IC, a digital circuit element, an analog circuit element, or the like.
  • the 3D model storage unit 215 is a storage device that stores data used when drawing an instrument image.
  • the 3D model storage unit 215 is realized using a non-volatile storage medium.
  • the data used when drawing an instrument image is data indicating a solid shape of each part for forming a 3D model of an instrument to be displayed on the display 202, such as a tachometer or a speedometer.
  • the data indicating the three-dimensional shape is, in other words, data indicating a three-dimensional model (so-called 3D model).
  • the 3D model storage unit 215 includes a back panel object 271 and a plurality of scale objects as solid shape data of each part that constitutes the tachometer model Md1 which is a 3D model of the tachometer. 272 and a pointer object 273.
  • the back board object 271 is data indicating a three-dimensional model of the back board, which is a plate-like member indicating the external shape of the tachometer scale board.
  • the back panel object 271 is, in other words, a member that provides the background of the turning range of the pointer.
  • the back panel object 271 is roughly shaped such that the scale portion is stamped out on the scale plate. Characters (specifically, an integer of 0 to 8) corresponding to the scale hole portion 911 are given in the vicinity of the hole portion (hereinafter, scale hole portion) 911 corresponding to the scale portion cut out in the back surface board object 271. ing.
  • the tachometer is provided with nine graduations for integers from 0 to 8, and accordingly, the graduation holes 911 are provided with nine graduation holes 911 for each number from 0 to 8. It shall be.
  • the character which shows the numerical value of each graduation as an example here shall be integrally provided in the back surface board object 271 as a surface design of the back surface board object 271, it does not restrict to this.
  • the character indicating the numerical value of each scale may be prepared in the 3D model storage unit 215 as an object independent of the rear panel object 271 (hereinafter, a character object).
  • the scale object 272 is a three-dimensional model of a tachometer scale. In the present embodiment, as an example, nine scale objects 272 are provided as scale objects 272 for each number from 0 to 8. Each scale object 272 is combined with the scale holes 911 of the back board object 271 to form a solid model as a scale (that is, a scale object).
  • the pointer object 273 is data indicating a three-dimensional model of the pointer member.
  • the pointer object 273 includes a pointer main body 931 which is a pointer main body, and a rotation shaft 932 which is joined to the rear panel object 271 to provide a rotation axis of the pointer main body 931.
  • the three-dimensional shape data of each part constituting the tachometer model Md1 has been described above in detail, but the three-dimensional shape data of each part constituting the speedometer model Md2 which is a 3D model of the speedometer is similarly provided.
  • the same reference numerals as those of the parts constituting the tachometer model Md1 will be given to the respective parts constituting the speedometer model Md2. That is, the 3D model storage unit 215 includes a back panel object 271, a plurality of scale objects 272, and a pointer object 273 as solid shape data of each part constituting the speedometer model Md2.
  • a plurality of patterns of three-dimensional shape data for each instrument may be prepared.
  • the three-dimensional shape data of a plurality of patterns may be properly used depending on the layout of the display screen, the state of the vehicle, the user's selection operation, and the like.
  • the 3D model storage unit 215 also stores data (hereinafter, design skin data) indicating design skins for changing the color, texture, and the like of each part of each instrument.
  • the occupant camera 203 is a camera installed so as to capture an image of the face of an occupant (hereinafter referred to as a driver) seated in the driver's seat.
  • the occupant camera 203 is disposed in a posture in which the center of the imaging direction (so-called optical axis) faces in the direction in which eyedrops set in the host vehicle are present.
  • the eye drop is a region set in advance based on an eye range that statistically represents the distribution of eye points of the driver (for details, see JIS D0021: 1997).
  • the occupant camera 203 may be disposed at a suitably designed position, for example, a steering column cover, a portion of the instrument panel facing the driver's seat, or the vicinity of a rearview mirror, so as to capture the driver's face area. .
  • the occupant camera 203 is realized using, for example, a near infrared light source, a near infrared camera, and a control unit that controls them.
  • the occupant camera 203 detects the position of the driver's head and the direction of the driver's face by performing known image recognition processing on the image captured by the near-infrared camera. Further, in the present embodiment, the position of the eye is also sequentially detected.
  • the occupant camera 203 sequentially outputs information indicating the head position, face orientation, eye position, and the like of the driver specified from the captured image to the display control device 201 as line-of-sight origin information.
  • the positions of the head and eyes may be expressed by coordinates in a three-dimensional coordinate system set in the vehicle.
  • the position of the head of the driver, the position of eyes, etc. function as information indicating the direction in which the eyes of the driver are present when viewed from the display 202. Further, the head position and the eye position of the driver correspond to information indicating the origin (in other words, the origin) of the line of sight to be poured on the display 202.
  • the occupant camera 203 may be configured to include not only the face portion of the driver but also the upper body in the imaging range.
  • the occupant camera 203 is not limited to an infrared camera, and may be an optical camera.
  • the occupant camera 203 can be realized using a known imaging device such as a CCD or a CMOS.
  • the occupant camera 203 corresponds to the line-of-sight origin detection device.
  • the gaze point origin detection device may be a device that estimates the position of the head of the driver by transmitting and receiving a search wave such as an ultrasonic wave or a millimeter wave.
  • the vehicle ECU 204 is an ECU that acquires information (that is, vehicle information) related to the state of the vehicle necessary for the driving operation from various sensors (hereinafter, on-vehicle sensors) 5 mounted on the host vehicle.
  • vehicle information that is, vehicle information
  • the vehicle ECU 204 acquires, as vehicle information, the traveling speed of the own vehicle, the rotational speed of the engine, the remaining amount of fuel, the coolant temperature of the engine, the cumulative traveling distance, the shift position, the direction indicator lever position, and the like.
  • the vehicle information also includes information for notifying the driver of the wearing condition of the seat belt, the lighting condition of the light, and the abnormal condition occurring in the drive system of the engine or the like.
  • the on-vehicle sensor 205 is, for example, a sensor for detecting the rotational speed of the engine, a vehicle speed sensor, a sensor for detecting the remaining amount of fuel, a water temperature gauge for detecting the temperature of cooling water for cooling the engine, a shift position sensor Etc.
  • each information which belongs to the above-mentioned vehicle information is also called element information.
  • the vehicle ECU 204 sequentially outputs the various vehicle information described above to the display control device 201.
  • the display control device 201 provides functions corresponding to various functional blocks shown in FIG. 21 by the CPU 211 executing the above-described display control program. That is, the display control device 201 includes a vehicle information acquisition unit F1, a modeling processing unit F2, a line-of-sight origin acquisition unit F3, and a drawing processing unit F4 as functional blocks.
  • part or all of the functional blocks included in the display control device 201 may be realized as hardware.
  • the aspect realized as hardware also includes an aspect realized using one or more ICs and the like. Further, some or all of the functional blocks included in the display control device 201 may be realized by a combination of software execution by the CPU 211 and hardware members.
  • the vehicle information acquisition unit F1 acquires various vehicle information from the vehicle ECU 204 and sequentially provides the same to the modeling processing unit F2. For example, the vehicle information acquisition unit F1 sequentially acquires the current vehicle speed and the engine rotation speed, and provides them to the modeling processing unit F2.
  • the modeling processing unit F2 is configured to internally represent the three-dimensional shape of each instrument to be displayed on a virtual three-dimensional space based on the 3D shape data stored in the 3D model storage unit 215. That is, the modeling processing unit F2 generates the tachometer model Md1 and the speedometer model Md2.
  • the modeling processing unit F2 corresponds to a stereoscopic instrument model generation unit. For convenience, processing of generating 3D models of various instruments based on 3D shape data stored in the 3D model storage unit 215 is referred to as modeling processing.
  • the three-dimensional model of each instrument is realized by defining the three-dimensional coordinates of the vertex of each part and their connection.
  • the modeling processing unit F2 forms a scale object by placing (specifically, fitting or inserting) a scale object 272 in each of the scale hole portions 911 included in the back panel object 271. Further, by arranging the bottom surface of the rotation shaft portion 932 to be in contact with a predetermined position (for example, the central portion) of the scale object, a 3D model (hereinafter referred to as a stereo meter model) of an instrument to be displayed is constructed.
  • a 3D model hereinafter referred to as a stereo meter model
  • the pointer object 273 pivots in a plane separated from the surface of the back panel object 271 by a predetermined separation distance ⁇ (in other words, it moves) in a combined state as a 3D model of the instrument as shown in FIG. Shall be configured to
  • the separation distance ⁇ is provided by the rotating shaft portion 932 provided in the pointer object 273.
  • the specific value of the separation distance ⁇ may be designed as appropriate.
  • the separation distance ⁇ is set to 4 mm.
  • the separation distance ⁇ may be another value such as 2 mm or 10 mm.
  • An axis Ax shown in FIG. 22 indicates the rotation axis of the pointer object 273.
  • the scale object 272 is basically arranged such that the tip thereof coincides with the surface of the back board object 271.
  • the position of the scale object 272 with respect to the surface of the rear panel object 271 (hereinafter, the rear panel surface), specifically, the amount by which the tip of the scale object protrudes from the rear panel surface (hereinafter, projection amount) ⁇ , And is determined by a protrusion amount adjustment unit F22 described later.
  • the aspect in which the protrusion amount ⁇ is set to 0 corresponds to an aspect in which the tip of the scale object 272 is disposed so as to coincide with the back surface.
  • the back panel surface is a surface on which the pointer object 273 is disposed out of the two surfaces of the back panel object 271.
  • a match here is not limited to a perfect match. Also included is an aspect in which the tip of the scale object 272 protrudes by a small amount from the back surface.
  • the modeling processing unit F2 includes a pointer position determining unit F21 and a protrusion amount adjusting unit F22 as sub functions for performing the modeling process.
  • the pointer position determination unit F21 is configured to determine the position of the pointer with respect to the back panel object 271 in the three-dimensional model of the instrument to be displayed.
  • the pointer position determination unit F21 is a pointer object for the back panel object 271 of the tachometer so that the pointer object 273 indicates the current engine rotation speed based on the engine rotation speed provided from the vehicle information acquisition unit F1.
  • the position of 273 (more specifically, the rotation angle) is determined.
  • the pointer position determination unit F21 determines the position of the pointer object 273 relative to the back panel object 271 of the speedometer so that the pointer object 273 indicates the current vehicle speed based on the vehicle speed provided from the vehicle information acquisition unit F1. Do.
  • the position of the pointer object 273 determined by the pointer position determination unit F21 in this manner corresponds to a position indicating the current state (specifically, a numerical value) of the vehicle information to be displayed.
  • the protrusion amount adjustment unit F22 is configured to determine the protrusion amount ⁇ of each of the scale objects 272 based on the pointer position determined by the pointer position determination unit F21.
  • the protrusion amount ⁇ of a certain scale object 272 is the amount by which the tip of the scale object 272 protrudes from the surface of the back surface object 271 (that is, the back surface).
  • the protrusion amount adjustment unit F22 sets the protrusion amount ⁇ according to the indicated value distance D that is the difference (conceptually the distance) between the numerical value associated with each of the scale objects 272 and the numerical value indicated by the pointer. decide. Specifically, the protrusion amount ⁇ is set to a larger value as the scale object 272 is associated with a numerical value closer to the value indicated by the pointer object 273. In other words, the scale object 72 at a position close to the position indicated by the pointer 73 sets the protrusion amount ⁇ relatively large compared to the scale object 72 at a position farther from the position indicated by the pointer 73. Do.
  • the protrusion amount ⁇ can be dynamically set to a value in the range of 0 or more and ⁇ or less.
  • the indicated value distance D for the scale object 272 associated with each of “2” and “4" on the scale is 1 (all strictly Is 1 ⁇ 1000 rpm).
  • the indicated value distance D for each of the scale objects 272 associated with each of “1” and “5” on the scale is 2 (strictly To 2 ⁇ 1000 rpm).
  • the protrusion amount adjustment unit F22 may set the protrusion amount ⁇ to be smaller with respect to the instruction value distance D in a linear function (in other words, linearly). Further, as shown by the broken line in FIG. The vertical axis in FIG. 23 represents the protrusion amount ⁇ , and the horizontal axis represents the indicated value distance D. Note that the value d plotted on the horizontal axis represents a numerical value for one scale. For example, the numerical value for one graduation in the tachometer of the present embodiment is 1000 [rpm], and the numerical value for one graduation in the speedometer of the present embodiment is 20 [km / h].
  • the control mode set to is shown. Further, FIG. 23 shows a control mode in which the protrusion amount ⁇ of the scale object 272 corresponding to the numerical value at which the designated value distance D is separated by 4 or more of the scale is set to 0 as the minimum value.
  • the maximum value of the protrusion amount ⁇ need not necessarily be ⁇ , and may be, for example, 0.7 ⁇ , 0.5 ⁇ , 0.3 ⁇ , or the like. If the value is larger than 0, as will be described later in detail, the positional deviation between the pointer and the scale in the display image is suppressed, so the visibility of the vehicle information can be improved. Further, the minimum value of the protrusion amount ⁇ does not necessarily have to be 0, and may be 0.1 ⁇ , 0.3 ⁇ , 0.5 ⁇ or the like.
  • the modeling processing unit F2 places the pointer object 273 at the central portion of the back panel object 271 at the rotation angle determined by the pointer position determining unit F21, and the projection amount adjustment unit F22 determines each scale object 272 from the back panel surface.
  • a stereometric instrument model is constructed which is arranged in such a manner as to project by an amount of projection ⁇ .
  • the configuration in which the pointer object 273 is disposed at the position determined by the pointer position determination unit F21 corresponds to the configuration in which the pointer object 273 is disposed at a position indicating a predetermined state.
  • the modeling processing unit F2 When the modeling processing unit F2 generates 3D models of all the instruments to be displayed, as shown in FIG. 24, the meter units arrange them in a predetermined layout on a flat object (hereinafter referred to as a base object) 74. Create an object 275.
  • the 3D models of all the instruments to be displayed here are, in other words, a tachometer model Md1 which is a 3D model of a tachometer, and a speedometer model Md2 which is a 3D model of a speedometer.
  • the base object 274 is an object having a role as a base on which the stereoscopic instrument model is attached, and is a member corresponding to the display surface of the display 202 in, for example, a virtual three-dimensional space.
  • the area in the base object 274 in which the stereoscopic instrument model is not arranged functions as a background in the meter unit image.
  • the meter unit object 275 generated by the modeling processing unit F2 is provided to the drawing processing unit F4.
  • the base object 274 may be disposed at a back side by a predetermined distance (for example, a length corresponding to 2 cm) from the display surface of the display 202 in the virtual three-dimensional space.
  • the back side is a direction from the vehicle interior space to the display 202 among the directions orthogonal to the display surface of the display 202.
  • the forward direction for the display 202 is a direction opposite to the depth direction, that is, a direction from the display 202 toward the vehicle interior space.
  • the edge of the base object 274 is a side wall connected to the edge of the display surface of the display 202 Objects (hereinafter, wall objects) may be set up.
  • the box-shaped object formed by combining the wall object and the base object 274 represents a housing that accommodates the stereo instrument model so that the stereo instrument model can be seen from the vehicle interior space.
  • the display surface of the display 202 corresponds to the opening of the housing.
  • the line-of-sight origin acquisition unit F ⁇ b> 3 is configured to acquire line-of-sight origin information from the occupant camera 203.
  • the content of the line-of-sight origin information acquired by the line-of-sight origin acquisition unit F3 may be the head position of the driver or, more specifically, the eye position.
  • eye position information information indicating the position of the eye
  • the eye position information acquired by the line-of-sight origin acquisition unit F3 is provided to the drawing processing unit F4.
  • the drawing processing unit F4 specifies the position and the direction in which the eye of the driver exists in the virtual three-dimensional space, based on the eye position information provided from the gaze point acquisition unit F3.
  • the position of the driver's eye in the virtual three-dimensional space specified here corresponds to the relative position of the driver's eye with respect to the meter unit object 275, as shown in FIG. In FIG. 24, the viewpoint of the driver is represented by the camera 208.
  • the drawing processing unit F4 draws the image of the meter unit object 275 viewed from the viewpoint of the driver.
  • the image drawn in this way is an image that represents the instrument placed at a predetermined position in the virtual three-dimensional space provided by the display 202 in a manner that can be viewed from the current driver.
  • FIG. 24 shows an aspect in the case where the viewpoint of the driver is present in front of the meter unit object 275. Further, FIG. 24 shows a mode in which the tachometer model Md1 is disposed on the display screen on the right side and the speedometer model Md2 is disposed on the left side when viewed from the driver. However, the left and right positions may be interchanged.
  • Display control process Next, display control processing performed by the display control processing will be described using the flowchart shown in FIG.
  • the display control process may be sequentially performed (for example, every 100 milliseconds) while the ignition power supply of the vehicle is on.
  • the vehicle information acquisition unit F1 acquires vehicle information and proceeds to S103.
  • processing is performed to determine the pointer position in each stereo meter model and the protrusion amount ⁇ of the scale object 272. That is, the pointer position in each stereo meter model is determined based on the vehicle information (specifically, the engine rotation speed and the vehicle speed) acquired in S102 by the pointer position determination unit F21.
  • the protrusion amount adjustment unit F22 determines the protrusion amount ⁇ of each scale object in accordance with the pointer position. For example, based on the pointer position, the designated value distance D for each scale object 272 is calculated, and the protrusion amount ⁇ corresponding to the designated value distance D is set. The method of determining the amount of protrusion ⁇ in accordance with the instruction value distance D is as described with reference to FIG. The determination of the protrusion amount ⁇ of the scale object according to the pointer position is performed for each of the instruments to be displayed. When the protrusion amount ⁇ of each of the scale objects 272 is determined, the process proceeds to S104.
  • the modeling processing unit F2 generates a stereometric instrument model for each of the instruments to be displayed, based on the pointer position and the protrusion amount ⁇ determined in S103. That is, the tachometer model Md1 and the speedometer model Md2 are generated. As a result, a 3D model of an instrument is constructed in which the scale protrudes from the rear panel toward the pointer side by an amount according to the pointer position. Then, by arranging the tachometer model Md1 and the speedometer model Md2 in the base object 274, a meter unit object 275 is generated, and the process proceeds to S105.
  • the sight-line origin acquisition unit F3 specifies the position (hereinafter, the viewpoint) of the driver's eye with respect to the meter unit object 275 based on the sight-line origin information provided from the occupant camera 203, and proceeds to S105.
  • the position of the eye used here may be the position of the head as described above.
  • the drawing processing unit F4 draws the image of the meter unit object 275 viewed from the viewpoint of the driver, causes the display 202 to display the image, and the present flow ends. If the driver's viewpoint exists in front of the meter unit object 275, an image of the meter unit object 275 viewed from the front is displayed. On the other hand, when the viewpoint of the driver is below the front direction of the meter unit object 275, an image of the meter unit object 275 viewed from below is displayed.
  • the front direction of the meter unit object 275 is a direction from the base object 274 toward the vehicle interior space among directions orthogonal to the center of the base object 274.
  • the front direction of the meter unit object 275 corresponds to the front direction of the display surface of the display 202.
  • the components included in the component names will be omitted and described for the components that make up the 3D instrument model in the state displayed on the display 202 in the following.
  • a back panel object 271 as a display image on the display 202 is described as a back panel.
  • the scale object 272 as a display image on the display 202 is simply described as a scale. The same applies to other members such as the pointer object 273.
  • comparison configuration using a stereometric instrument model in which the pointer is configured to rotate with a predetermined separation distance ⁇ with respect to the scale plate in which the scale is disposed on the same plane as the back plate, A display control apparatus for displaying an image obtained by viewing the three-dimensional model from a driver is introduced, and the effect of the present embodiment will be described.
  • the comparison configuration corresponds to the conventional configuration represented by Patent Document 1 and the like, and corresponds to a configuration in which the scale does not protrude from the rear panel.
  • the scale near the pointer is displayed in the form of jumping out from the rear panel.
  • FIG. 26A in a situation where the pointer points at 0 rpm in the tachometer, as shown in FIG. 28A, based on a 3D model in which the scale associated with 0 is made to project close to the pointer
  • the meter image is drawn.
  • FIG. 26B in the situation where the pointer points at 3000 rpm in the tachometer, as shown in FIG. 28B, an instrument image based on the 3D model in which the scale associated with 3000 rpm is protruded close to the pointer. Is drawn.
  • the scale near the pointer pops out three-dimensionally as shown in FIG. 28A and FIG. 28B even when the driver's viewpoint is below the front direction of the display. Be done.
  • the driver can easily recognize a specific scale (in other words, a numerical value) indicated by the pointer.
  • the configuration of the present embodiment it is possible to suppress the deterioration in the visibility of the vehicle information derived from the distance between the back panel and the pointer while displaying the instrument image having a three-dimensional effect.
  • the effects of the present embodiment have been described above taking the case of displaying a tachometer as an example, the same applies to other types of instruments (for example, a speedometer or a water thermometer).
  • the protrusion amount ⁇ of the scale object 272 closest to the pointer is set to the highest, and the heights of the other scale objects 272 are gradually reduced in height as they move away from the pointer. It is set. According to such a configuration, the protrusion amount ⁇ of each of the scale objects 272 changes as the pointer rotates. That is, since the protrusion amount ⁇ of the scale dynamically and sequentially changes according to the pointer position, the sense of reality given to the driver can be enhanced. As a result, the commercial value can be enhanced.
  • the protrusion amount ⁇ is approximately ⁇ when the indicated value distance D is 0 to 0.5 d. It is set.
  • the curve is set so that the projection amount ⁇ in a region where the indicated value distance D is 0 and convex upward and the indicated value distance D is 0 to 0.5 d is approximately ⁇ . .
  • the numerical value indicated by the pointer object 273 is an intermediate value between the two scales, both of those two scale objects 272 have the same height as the pointer. It pops up and is displayed.
  • the two graduations sandwiching the pointer are displayed in the form of jumping out to the same height as the pointer.
  • the driver can easily recognize that the numerical value indicated by the pointer is an intermediate value between the two scales. That is, each of the scale objects 272 located at a position at which the distance to the pointer object 273 (more specifically, the tip thereof) is equal to or less than half the scale interval causes the pointer object 273 to protrude to the plane where it rotates. The driver can easily recognize the numerical value indicated by the pointer.
  • the separation distance ⁇ between the rear panel and the pointer can be set to a value larger than that of a real instrument. If the separation distance ⁇ between the rear panel and the pointer is increased, the sense of depth provided by the stereo instrument model can be enhanced. That is, according to the present embodiment, the separation distance ⁇ between the back panel and the pointer can be set large, and an instrument image having a more stereoscopic effect can be displayed.
  • the above-mentioned operation of the display control device 201 is an operation when displaying certain vehicle information in an instrument image. Even if it is vehicle information (for example, vehicle speed etc.) which can be displayed by a meter picture, a meter picture may not always be always adopted as a display mode of the said vehicle information.
  • the display mode of the vehicle information may be the number of vehicle information to be displayed on the display 202, such as displaying in a meter image (i.e., analog meter) in some cases while displaying in a digital meter format in a specific case. You may control according to a combination.
  • the vehicle speed is displayed by an analog meter, while the number of vehicle information to be displayed is equal to or more than a predetermined number In the case, it may be displayed in digital meter format.
  • Digital meter format displays require less display space than analog meters, so more information can be accommodated within the display screen of the display. Note that, as described above, the type and the number of pieces of information to be displayed on the display 202 may be determined based on the traveling state, such as whether or not the vehicle is traveling.
  • the modeling processing unit F2 of the display control device 201 sets a character object 276 representing the numerical value for the numerical value existing at a position overlapping the pointer main body 931 in the front view among the numerical values associated with each scale.
  • a 3D model may be generated which is disposed above (in other words, in front of) the pointer body 931 of the object 273. According to such a configuration, as shown in FIG. 29, numerical values present at positions overlapping the hands on the display screen are displayed in a floating manner. Therefore, it is possible to reduce the possibility that the pointer object 273 hides the numerical value and it becomes difficult for the driver to read the numerical value near the pointer.
  • the display control device 201 may display a numerical value overlapping the pointer object 273 above the pointer object 273.
  • the upper side is the direction in which the pointer object 273 is present from the rear panel object 271, and the same direction as the front.
  • the modeling processing unit F2 in the configuration for displaying a numerical value overlapping the pointer object 273 in a floating manner, as shown in FIG. 30, includes a color tone adjustment unit F23 that adjusts the color tone of each part constituting the stereogram model.
  • the color tone adjustment unit F23 sets the color tone of the character object 276 to be raised to a color tone different from the color tone of another numerical value.
  • the color of the scale object 272A corresponding to the character object 276 among the plurality of scale objects 272 is set to the same or the same color as the color of the character object 276. That is, the color tone adjustment unit F23 is configured to align and display the color of the character object 276 and the scale object 272A corresponding to the character object 276. According to this aspect, the driver can more easily recognize the correspondence between the scale indicated by the pointer and the numerical value.
  • the color tone adjustment unit F23 sets the color of the character object 276 to be raised to a color different from any of the basic character color and the basic scale color. For example, when the basic character color is blue and the basic scale color is black, the color of the character object 276 is set to green, and the scale object 272A is darkened (that is, lightness and saturation are reduced). ) Set to green.
  • the same family of colors refers to colors having the same hue but different lightness and saturation.
  • the display control device 201 also controls the numerical value of the scale object 272 that is associated with the numerical value that is present at a position not overlapping the pointer main body 931 in front view among the numerical values associated with each scale. It may be displayed in the form of being floated to the same height as the tip.
  • the modeling processing unit F2 uses the character object 276 indicating the numerical value associated with each scale, from the back panel surface by the protrusion amount ⁇ set for the scale object 272 associated with the numerical value. Generate a stereo instrument model placed on the upper side. Such an aspect also makes it easy to recognize the correspondence between the scale and the numerical value.
  • the object 961 in which the floated character object 276 is thinned is arranged in the portion where the numerical value was originally arranged on the back panel surface, It is preferable to drop shadows.
  • the instrument image may be an image simulating an analog meter (bar-type meter) in which the pointer moves on a bar-type graduation plate in which the graduations are linearly arranged.
  • the drawing processing unit F4 described above detects the direction of the light source existing outside the display 202 as in Patent Document 1, and reflects the shadow of the pointer or the like generated by the light source, the gloss aspect of the meter, and the meter You may draw the image which reflected the aspect etc. of the reflected light.
  • each unit is expressed, for example, as S1.
  • each part can be divided into a plurality of sub-parts, while a plurality of parts can be combined into one part.
  • each part configured in this way can be referred to as a circuit, a device, a module, or a means.
  • each or a combination of the above-mentioned plurality of parts is not only a part of software combined with a hardware unit (for example, a computer) but also (ii) hardware (for example, integrated circuit, wiring As part of a logic circuit), with or without the function of the associated device.
  • a hardware unit for example, a computer
  • hardware for example, integrated circuit, wiring As part of a logic circuit
  • the hardware part can also be configured inside the microcomputer.

Abstract

車両用表示装置は、車両に設置された表示部(10)と、運転者の視点または視点とともに移動する部位である視点関連部位の位置を取得する運転者情報取得部(43)と、表示部に表示する表示画像を作成するための画像データを取得する画像データ取得部(41)と、画像データに基づいて表示画像を作成し、表示画像を表示部に表示する描画処理部(44)とを備える。画像データは、移動抑制画像データと移動促進画像データとに分けられており、描画処理部は、移動促進画像データから作成する表示画像の移動量を、視点関連部位の位置の変化量に基づいて決定し、かつ、移動抑制画像データから作成する表示画像の移動量よりも大きくする。

Description

車両用表示装置及び表示制御装置 関連出願の相互参照
 本出願は、2017年7月19日に出願された日本特許出願番号2017-140168号、2017年7月25日に出願された日本特許出願番号2017-143909号および2018年6月11日に出願された日本特許出願番号2018―111301号に基づくもので、ここにその記載内容を援用する。
 車両内に設置された表示部に種々の画像を表示する車両用表示装置、及び、車両情報を示す計器の画像を車両に搭載されたディスプレイに表示する表示制御装置に関する。
 車両に設置された表示部に種々の画像を表示する装置が知られている。特許文献1に開示されている装置は、車両に設置された表示部に計器類の画像を表示する。また、特許文献1に開示されている装置は、運転者の視点の移動に対応して、計器類の画像の形状が、運転者の視点から見た形状に変化する。なお、本明細書では、視点は、視線が注がれる点ではなく、その視線の基点である目の位置を意味する。
 また従来、特許文献1に開示されているように、例えばスピードメータ、タコメータといった、車両の走行制御に関する情報(以降、車両情報)を示す計器の画像を、ディスプレイに表示する表示制御装置がある。
 また、特許文献1には、ディスプレイに表示すべき計器の3D形状データに基づいて、仮想3次元空間上に各計器の3次元形状(以降、立体計器モデル)を内部表現し、当該立体計器モデルを乗員の視線方向から見た場合の画像をディスプレイに表示する構成が開示されている。さらに、特許文献1の表示制御装置は、ディスプレイに光が入射する方向を特定し、当該入射光によって生じる指針の影を、目盛りや数値等が配置されている表示盤に付与した計器画像を表示する。
特開2010-58633号公報
 本開示は、運転者に臨場感を与えつつ、必要な情報が読み取りにくくなることを抑制できる車両用表示装置を提供することを目的とする。
 また、本開示は、立体感のある計器画像を表示しつつ、且つ、表示盤と指針との離隔に由来する車両情報の視認性悪化を抑制することができる表示制御装置を提供することを目的とする。
 本開示の一態様による車両用表示装置は、車両に設置された表示部と、運転者の視点または視点とともに移動する部位である視点関連部位の位置を取得する運転者情報取得部と、表示部に表示する表示画像を作成するための画像データを取得する画像データ取得部と、画像データに基づいて表示画像を作成し、表示画像を表示部に表示する描画処理部とを備え、画像データは、移動抑制画像データと移動促進画像データとに分けられており、描画処理部は、移動促進画像データから作成する表示画像の移動量を、視点関連部位の位置の変化量に基づいて決定し、かつ、移動抑制画像データから作成する表示画像の移動量よりも大きくする。
 この車両用表示装置によれば、移動促進画像データから作成される表示画像は、視点関連部位の位置の変化量に基づいて決定され、かつ、その表示画像の移動量は、移動抑制画像データから作成される表示画像の移動量よりも大きい。よって、全ての表示画像の移動量を、移動抑制画像データから作成される表示画像の移動量とする場合に比較して、運転者に臨場感を与えることができる。また、移動抑制画像データから作成される表示画像の移動量は、移動促進画像データの移動量よりも小さい。よって、必要な情報を読み取る必要がある画像データは、移動抑制画像データに分類しておくことにより、必要な情報が読み取りにくくなることも抑制できる。
 本開示の他の態様による車両用表示装置は、車両に設置された表示部と、車両に生じる加速度を取得する車両加速度取得部と、表示部に表示する表示画像を作成するための画像データを取得する画像データ取得部と、画像データに基づいて表示画像を作成し、表示画像を表示部に表示する描画処理部とを備え、画像データは、移動抑制画像データと移動促進画像データとに分けられており、描画処理部は、移動促進画像データから作成する表示画像の移動量を、車両加速度取得部が取得した加速度に基づいて決定し、かつ、移動抑制画像データから作成する表示画像の移動量よりも大きくする。
 この車両用表示装置によれば、移動促進画像データから作成される表示画像は、車両に生じる加速度に基づいて決定され、かつ、その表示画像の移動量は、移動抑制画像データから作成される表示画像の移動量よりも大きい。よって、全ての表示画像の移動量を、移動抑制画像データから作成される表示画像の移動量とする場合に比較して、運転者に臨場感を与えることができる。また、移動抑制画像データから作成される表示画像の移動量は、移動促進画像データの移動量よりも小さい。よって、必要な情報を読み取る必要がある画像データは、移動抑制画像データに分類しておくことにより、必要な情報が読み取りにくくなることも抑制できる。
 本開示の他の態様による表示制御装置は、車両の走行制御に係る所定の車両情報を示す計器の画像を、車両に搭載されたディスプレイに表示する。表示制御装置は、車両情報を取得する車両情報取得部と、計器の目盛り盤の外観構成を表す背面盤の立体モデルである背面盤オブジェクトと、目盛り盤が備える複数の目盛りのそれぞれの立体モデルである目盛りオブジェクトと、計器の指針の立体モデルであって指針本体部を備える指針オブジェクトと、を組み合わせることによって計器の立体モデルである立体計器モデルを生成する立体計器モデル生成部と、立体計器モデルの画像をディスプレイに表示する描画処理部と、を備え、立体計器モデル生成部は、指針オブジェクトを、指針本体部が背面盤オブジェクトと所定の離隔距離をおいて対向する平面内にあって、且つ、車両情報取得部が取得した車両情報に応じた状態を示す位置に配置するとともに、少なくとも指針オブジェクトから最も近い目盛りオブジェクトについては、背面盤オブジェクトから離隔距離以下である所定量突出させた立体計器モデルを生成する。
 上記表示制御装置によれば、立体計器モデル生成部は、計器の立体モデル(つまり立体計器モデル)として、少なくとも指針近くの目盛りが背面盤から飛び出した立体モデルを生成する。このような立体モデルでは、指針と指針近くの目盛りとの奥行方向における距離は、背面盤から指針までの離隔距離よりも小さくなる。
 そのため、仮に描画処理部が特許文献1と同様に立体計器モデルを乗員の視点から見た画像を描画するものであり、且つ、乗員がディスプレイを例えば斜め方向から見た場合であっても、目盛りに対する指針の位置ずれを抑制できる。すなわち、背面盤と指針との離隔に由来する車両情報の視認性悪化を抑制することができる。なお、ここでの背面盤とは、前述の表示盤において目盛り部分を除去した部材である。すなわち背面盤と指針との離隔とは、表示盤と指針との離隔に相当する。
 また、背面盤と指針本体部との間には所定の離隔距離だけ隙間が空いているため、立体計器モデルとしては離隔距離に応じた奥行き感が表現される。さらに、上記構成では目盛りオブジェクト自体も背面盤から突出した態様で表示されるため、より一層奥行き感が表現される。このような計器画像の表示態様によれば、乗員に立体感を提供することができる。
 つまり、上記の構成によれば、立体感のある計器画像を表示しつつ、且つ、表示盤と指針との離隔に由来する車両情報の視認性悪化を抑制することができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、第1実施形態の車両用表示装置の構成を示すブロック図であり、 図2は、視線検出装置の設置例を示す図であり、 図3は、仮想空間に表示対象物が配置された状態を示す図であり、 図4は、図1の描画処理部が実行する処理を説明するフローチャートであり、 図5は、スピードメータ文字盤、タコメータ文字盤の回転中心Cを示す図であり、 図6は、道路および車の回転中心を示す図であり、 図7は、視点位置が0度のときのスピードメータ文字盤とタコメータ文字盤を示す図であり、 図8は、運転者の視点の変化角度θ1のときのスピードメータ文字盤61およびタコメータ文字盤の回転角度θ2を示す図であり、 図9は、視点位置が0度のときの道路、車を示す図であり、 図10は、運転者の視点の変化角度θ1のときの道路、車の回転角度θ3を示す図であり、 図11は、第2実施形態の車両用表示装置構成を示すブロック図であり、 図12は、図11の描画処理部が実行する処理を説明するフローチャートであり、 図13は、描画処理部の処理の具体例を示す図であり、 図14は、描画処理部の処理の具体例を示す図であり、 図15は、回転中心Cよりも表示対象物が遠方に配置されている例を示す図であり、 図16は、頭の移動方向とは反対方向に表示対象物を回転移動させる例を示す図であり、 図17は、車両用表示システムの概略的な構成を示すブロック図であり、 図18は、表示制御装置が制御対象とするディスプレイについて説明するための図であり、 図19は、ディスプレイに表示されるメータユニット画像の一例を示す図であり、 図20は、計器の3Dモデルを構成するパーツについて説明するための図であり、 図21は、表示制御装置の概略的な構成について説明するためのブロック図であり、 図22は、立体計器モデルを構成する各パーツの位置関係について説明するための図であり、 図23は、指針オブジェクトから目盛りオブジェクトまでの距離と突出量との対応関係の一例を示すグラフであり、 図24は、描画処理部の作動を説明するための図であり、 図25は、表示制御処理を説明するためのフローチャートであり、 図26Aは、実施形態の効果を説明するための図であり、 図26Bは、実施形態の効果を説明するための図であり、 図27Aは、比較構成の作動を説明するための図であり、 図27Bは、比較構成の作動を説明するための図であり、 図28Aは、実施形態の作動を説明するための図であり、 図28Bは、実施形態の作動を説明するための図であり、 図29は、変形例15の作動を説明するための図であり、 図30は、変形例15におけるモデリング処理部の構成を示すブロック図であり、 図31は、変形例17の構成を説明するための図である。
 特許文献1に開示されている装置よりも、一層の臨場感を運転者に与えるために、運転者の視点や頭の移動、あるいは、それら視点や頭の移動を生じさせる車両の加速度に応じて、表示部に表示している画像を、より大きく移動させることが考えられる。しかし、運転者の視点の移動等が生じたときに、表示部に表示している画像をより大きく移動させると、その画像の視認性が低下してしまい、たとえば、スピードメータに示される車両の速度など、運転者が、必要な情報を読み取りにくくなってしまう恐れがある。
 実体を有する本物のアナログメータは一般的に、指針が回動可能なように、表示盤とは一定距離離れて対向配置されている。換言すれば、指針が回動する平面と表示盤との間には奥行き方向において一定距離の隙間が設けられている。
 特許文献1においても、ディスプレイに表示する計器画像を、なるべく実体を有する本物のアナログメータのように見せるために、表示盤と指針との間の離隔を再現した立体計器モデルを生成し、ドライバの視線方向から見た画像を表示する。このように表示盤と指針との間の離隔を再現して表示する構成によれば、乗員がディスプレイを例えば斜め方向から見た場合、表示盤に付与されている目盛りと指針がずれて表示されるため、乗員に立体感を感じさせることができる。
 しかしながら、表示盤と指針との離隔及び乗員の目の位置に由来する、目盛りに対する指針の位置ずれは、立体感の提供といった効果を奏する一方、指針が指し示している正確な目盛り(換言すれば数値)がわかりにくくなってしまう。
 なお、表示盤と指針との離隔を小さく設定すれば、乗員がディスプレイを例えば斜め方向から見た場合であっても、目盛りに対する指針の位置ずれは抑制できる。しかしながら、表示盤と指針との離隔を小さく設定すれば、乗員の目の位置(或いは頭部の位置)に応じた表示態様の変化が小さくなり、乗員の目の位置を考慮した動的な表示制御を行う価値が小さくなってしまう。
 乗員の目の位置を考慮した表示制御を行う上では、表示盤と指針との離隔をある程度大きい値に設定しておいたほうが好ましい。乗員の目の位置に応じた表示態様の変化度合いが増大し、ドライバに立体感を提供することができるためである。
 なお、以上では指針と目盛りとがずれて見える場合として、ドライバの視点から見たときの立体モデルを表示する構成において乗員の視点がディスプレイにとっての正面方向以外の方向(例えば斜め方向)に存在する場合を例示したが、これに限らない。ドライバの視点に依らずに、立体モデルを所定の姿勢で配置した画像を表示する構成において、デザイン性の観点から、ディスプレイの表示面に対して表示盤が傾いた姿勢で立体計器モデルを配置した態様で表示する場合も同様である。
 (第1実施形態)
 以下、実施形態を図面に基づいて説明する。図1に第1実施形態の車両用表示装置1の構成を示す。車両用表示装置1は車両2に搭載されている。車両用表示装置1は、ディスプレイ10、画像データ記憶部20、視線検出装置30、演算装置40を備えている。
 表示部に相当するディスプレイ10は、車両2のインストルメントパネルに設置されて、車両2に関する種々の情報を表示する。情報は画像として表示される。以下、ディスプレイ10に表示される画像を表示画像とする。表示画像は、写真のような詳細に形状を表現したものに限られず、幾何学的な図形、イラストレーション、絵などと呼ばれるものも含まれる。また、ディスプレイ10には文字も、表示画像として表示される。
 画像データ記憶部20は、ディスプレイ10に表示する種々の表示画像を作成するためのデータ(以下、画像データ)が記憶されている。表示画像には三次元的に表示される画像も含まれている。三次元的に表示される表示画像については、画像データとして、三次元形状が記憶されている。
 視線検出装置30は、運転者の視点および視線方向を検出する。これらを検出するために、視線検出装置30はカメラ31を備えている。図2には、視線検出装置30の設置例を示している。図2の例では、視線検出装置30は、ディスプレイ10の下側に配置されている。視線検出装置30が備えるカメラ31の撮像範囲は、運転者の頭4が含まれるように設定されている。視線検出装置30の設置位置は、図2に示す位置に限られず、運転者の頭4が撮像できる位置であれば、図2に示す位置以外の位置に設置されていてもよい。
 視線検出装置30は、カメラ31が撮像した画像を解析して、運転者の目の位置を検出する。より具体的には、目の基準点および動点の位置を検出する。目の基準点を目頭とし、目の動点を虹彩として、これらの位置関係から視線を検出する方法が知られている。また、目の基準点を角膜反射とし、目の動点を瞳孔として、これらの位置関係から視線を検出する方法も知られている。
 演算装置40は、CPU、RAM、ROM、I/O、およびこれらの構成を接続するバスラインなどを備えたコンピュータである。ROMには、CPUが実行するプログラムが記憶されている。なお、このプログラムは、非遷移的実体的記録媒体(non- transitory tangible storage medium)に格納されていればよく、その具体的な記憶媒体はROMに限らない。例えばプログラムはフラッシュメモリに保存されていてもよい。CPUがプログラムを実行することは、プログラムに対応する方法が実行されることに相当する。
 演算装置40は、CPUがROMに格納されているプログラムを実行することによって、図1に示すように、画像データ取得部41、計測値取得部42、運転者情報取得部43、描画処理部44としての機能を実現する。なお、演算装置40が備える機能ブロックの一部または全部は、一つあるいは複数のIC等を用いて(換言すればハードウェアとして)実現してもよい。また、演算装置40が備える機能の一部又は全部を、CPUによるソフトウェアの実行とハードウェア部材の組み合わせによって実現してもよい。
 画像データ取得部41は、画像データ記憶部20から画像データを取得する。図3は、仮想空間50に表示対象物60が配置された状態を示している。画像データ取得部41は、この表示対象物60の画像データを取得する。
 本実施形態では、仮想空間50に配置された表示対象物60を仮想視点から見た画像が表示画像としてディスプレイ10に表示される。つまり、これら表示対象物60は、ディスプレイ10に表示される物体である。図3に示されている表示対象物60は、具体的には、スピードメータ文字盤61、タコメータ文字盤62、道路63、車64である。なお、車64は自車両を概念的に示している。これらは一例であり、表示対象物60には、図3に示す物以外が含まれていてもよい。たとえば、燃料計、水温計などの種々の計器が表示対象物60に含まれていてもよい。画像データ取得部41は、これら表示対象物60の画像データを取得する。
 図3に示す仮想空間50には、他に照明65、カメラ66が配置されている。照明65は太陽光を示すものであり、カメラ66は運転者の視点および視線を示すものである。このカメラ66により撮像される画像を表示画像としてディスプレイ10に表示する。よって、仮想空間50に配置されたカメラ66は、仮想視点を意味する。
 計測値取得部42は、表示対象物60に反映させる計測値を取得する。図3に示す例では、表示対象物60に、スピードメータ文字盤61、タコメータ文字盤62が含まれている。したがって、計測値取得部42は、計測値として、車速とエンジン回転速度を取得する。これらの計測値は、これらの計測値を検出するセンサから取得する。
 運転者情報取得部43は、運転者の視点の位置を取得する。視線検出装置30が運転者の視点の位置を逐次検出している。したがって、運転者情報取得部43は、視線検出装置30から、運転者の視点の位置を逐次取得する。なお、視点は、視点関連部位の一例である。
 描画処理部44は、画像データ取得部41が取得した画像データ、計測値取得部42が逐次取得した計測値、運転者情報取得部43が逐次取得した運転者の視点の位置に基づいて表示画像を逐次作成し、作成した表示画像をディスプレイ10に表示する。描画処理部44が実行する処理は、図4に示すフローチャートを用いて説明する。なお、図4において、S1は計測値取得部42が実行する処理、S2は運転者情報取得部43が実行する処理である。S3以降は、描画処理部44が実行する。
 図4に示す処理は、車両2の電源がオンになるなど、ディスプレイ10に表示画像を表示させる条件が成立した後であって、画像データ取得部41が画像データを取得した状態で、周期的に実行される。
 S1では、計測値を取得する。S2では、運転者の視点の位置を取得する。S3では、S1で取得した計測値に基づいて、仮想空間50に配置する表示対象物60のうち、指針を備える表示対象物60の指針の位置を決定する。
 S4では、仮想空間50に、S3で決定した指針の位置を反映させた表示対象物60を配置する。次のS5、S6の処理を行うことで、運転者の視点の位置の角度変化に基づいて回転させた表示対象物60をカメラ66から見た画像をディスプレイ10に表示させる。ただし、本実施形態では、表示対象物60を、運転者の視点の位置の変化角度θよりも回転角度を小さくするAグループと、運転者の視点の位置の変化角度θよりも回転角度を大きくするBグループに分けている。
 本実施形態の変化角度θは、運転者の両目の中間位置すなわち頭4の左右方向中心と、表示対象物60別に決定されている回転中心Cを結ぶ線分Gと、基準線分Bとのなす角度を意味する。基準線分Bは、運転者の両目の中間位置が基準位置にあるときの、運転者の両目の中間位置と回転中心とを結ぶ線分である。基準位置は、たとえば、ステアリング中心を通り、車両の前後方向に平行な鉛直平面上の位置とする。図8および図10に、これら線分G、基準線分Bを示している。
 指針の位置など情報を読み取る必要がある画像データはAグループに分類されている。情報を読み取る必要があるとは、形状の位置の少しの違いを認識する必要がある、あるいは、形状の少しの違いを認識する必要があることを意味する。形状の位置の少しの違いを認識する必要があるものとして、指針の位置がある。また、形状の違いを認識する必要があるものとして文字がある。
 一方、運転者にとって、情報を読み取るといった作業が必要ない、あるいは、情報を短時間で読み取る必要性が高くない画像データはBグループに分類されている。Aグループに分類されている画像データは移動抑制画像データに相当し、Bグループに分類されている画像データは移動促進画像データに相当する。図3の例では、スピードメータ文字盤61、タコメータ文字盤62の画像データはAグループに分類されており、道路63、車64の画像データはBグループに分類されている。
 S5では、Aグループに属する画像データが表す表示対象物60に対して回転処理を行う。Aグループの表示対象物60に対しては、運転者の視点の位置の変化角度θに1よりも小さい正の係数を掛けた角度だけ回転させる。正の係数の具体的数値は、視認性の確保と臨場感あるいは運転感の向上とのバランスを考慮して、実験に基づいて決定する。
 図5に、スピードメータ文字盤61、タコメータ文字盤62の回転中心Cを示している。スピードメータ文字盤61およびタコメータ文字盤62は同一平面に配置されている。この平面を以下、メータ配置平面67とする。回転中心Cは、このメータ配置平面67に設定されている。より詳しくは、回転中心Cは、メータ配置平面67において、スピードメータ文字盤61とタコメータ文字盤62との中間位置に設定されている。
 S6では、Bグループに属する画像データが表す表示対象物60に対して回転処理を行う。Bグループの表示対象物60に対しては、運転者の視点の位置の変化角度θに1よりも大きい正の係数を掛けた角度だけ回転させる。Bグループの回転角度を決定する正の係数の具体的数値も、視認性の確保と臨場感あるいは運転感の向上とのバランスを考慮して、実験に基づいて決定する。
 図6に、道路63および車64の回転中心Cを示している。回転中心Cは、仮想空間50においてできるだけ前方に設定される。前方は、角度0度を向いたカメラ66の撮像方向においてカメラ66から遠ざかる方向である。たとえば、仮想空間50において消失点となる位置に回転中心Cを設定する。奥行きが長い形状である道路63は、この消失点に向かう向きに配置する。
 図7には、視点の位置がθ=0度のときのスピードメータ文字盤61とタコメータ文字盤62を示している。また、図7には、基準線分Bも示している。なお、図7は、仮想空間50を上方から見た図、すなわち、平面図である。図8~図10も同様に、仮想空間50を上方から見た図である。図7に示す向きがスピードメータ文字盤61およびタコメータ文字盤62の基準の向きである。図7では、メータ配置平面67が基準線分Bに直交している。
 これに対して、図8は、運転者の視点の変化角度θが角度θ1となったときのスピードメータ文字盤61およびタコメータ文字盤62の回転角度θ2を示している。スピードメータ文字盤61およびタコメータ文字盤62の回転角度θ2は、運転者の視点の変化角度θ1に1よりも小さい係数を乗じた角度であることからθ2<θ1である。
 図9には、視点の位置が0度のときの道路63、車64を示している。この図9に示す向きがスピードメータ文字盤61およびタコメータ文字盤62の基準の向きである。図9では、道路63は基準線分Bと平行になっている。これに対して、図10は、運転者の視点の変化角度θが角度θ1となったときの道路63、車64の回転角度θ3を示している。道路63および車64の回転角度θ3は、運転者の視点の変化角度θ1に1よりも大きい係数を乗じた角度であることからθ1<θ3である。
 続くS7では、S5およびS6で回転処理を行った後の表示対象物60を、カメラ66の位置からみた画像を生成する。生成した画像が表示画像である。カメラ66の位置は、S2で取得した運転者の視点の位置から決定する。また、照明65の位置は、画像生成時点の太陽の位置とする。太陽の位置を決定するために、時刻と進行方位と現在位置から太陽の角度が定まる関係を備えておく。この関係と、実際の時刻、進行方位、現在位置とを用いて照明65の位置を決定する。現在位置は、たとえば、GNSS受信機が検出した位置を用いる。進行方位は、現在位置の軌跡から算出すればよい。
 なお、カメラ66の位置から見たとき、道路63および車64が、スピードメータ文字盤61あるいはタコメータ文字盤62が重なることもある。つまり、Aグループの表示対象物60とBグループの表示対象物60とが重なることもある。この場合、Aグループの画像データから作成する表示画像は、Bグループの画像データから作成する表示画像よりも常に手前になるように表示画像を作成する。表示画像を作成した後、その表示画像をディスプレイ10に出力する。
 以上の処理が実行されることで、運転者の視点の位置が0度方向から変化すると、Aグループに属する表示画像およびBグループに属する表示画像は、それぞれ、運転者の視点の位置が0度のときに表示される表示画像に対して回転移動した画像となる。
 ただし、Bグループの画像データから作成する表示画像の回転角度は、運転者の視点の位置の変化角度θに対して、1よりも大きい係数を掛けた角度としている。一方、Aグループの画像データから作成する表示画像の回転角度は、その変化角度θに1よりも小さい正の係数を掛けた角度としている。よって、Bグループの表示画像の回転移動量は、Aグループの表示画像の回転移動量よりも大きい。よって、全ての表示画像の回転移動量を、Aグループの表示画像の回転移動量としてしまう場合に比較して、運転者に臨場感を与えることができる。
 また、Aグループの表示画像の回転移動量は、Bグループの表示画像の回転移動量よりも小さくしている。よって、スピードメータ文字盤61、タコメータ文字盤62を作成する画像データなど、必要な情報を読み取る必要がある画像データは、Aグループに分類しておくことにより、必要な情報が読み取りにくくなることも抑制できる。
 また、本実施形態では、Aグループに属しているスピードメータ文字盤61とタコメータ文字盤62の回転中心Cをメータ配置平面67に設定している。一方、Bグループに属している道路63と車64の回転中心Cは、仮想空間50において回転中心Cよりも前方に設定している。このようにすることで、道路63と車64の回転中心Cをメータ配置平面67に設定する場合よりも、道路63と車64のディスプレイ10上での移動量が大きくなる。よって、運転者に、より臨場感を与えることができる。
 また、本実施形態では、Aグループの画像データから作成する表示画像を、Bグループの画像データから作成する表示画像よりも常に手前に表示している。これによっても、必要な情報が読み取りにくくなることが抑制される。
 (第2実施形態)
 次に、第2実施形態を説明する。この第2実施形態以下の説明において、それまでに使用した符号と同一番号の符号を有する要素は、特に言及する場合を除き、それ以前の実施形態における同一符号の要素と同一である。また、構成の一部のみを説明している場合、構成の他の部分については先に説明した実施形態を適用できる。
 図11に第2実施形態の車両用表示装置100の構成を示す。車両用表示装置100は車両2に搭載されている。車両用表示装置100は、加速度センサ70を備えている。また、演算装置140は、車両加速度取得部145を備えており、第1実施形態とは異なる描画処理部144を備える。
 加速度センサ70は、車両2の幅方向すなわち左右方向の加速度を逐次検出する。なお、これに加えて、車両2の前後方向および上下方向の加速度を検出してもよい。
 車両加速度取得部145は、加速度センサ70から車両2に生じる左右方向の加速度を逐次取得する。描画処理部144は、車両加速度取得部145が取得した車両2の左右方向の加速度に基づいて表示対象物60の回転角度を決定する点が、第1実施形態の描画処理部44と相違する。
 描画処理部144の処理は、図12に示すフローチャートを用いて説明する。図12に示す処理は、図4に代えて実行される処理である。なお、図12において、S11は計測値取得部42が実行する処理であり、S1と同じ処理である。S12は車両加速度取得部145が実行する処理であり、加速度センサ70から車両2の横方向の加速度を取得する。S13は運転者情報取得部43が実行する処理であり、S2と同じ処理である。S14以降は、描画処理部144が実行する。
 S14、S15はそれぞれ、図4のS3、S4と同じ処理である。S16では、表示対象物60のうち、Aグループに属する画像データが表す表示対象物60に対して回転処理を行う。ただし、第1実施形態とは異なり、このS16では、Aグループに属する表示対象物60の回転角度は、運転者の視点の変化角度θとする。なお、回転中心Cは第1実施形態と同じである。
 このようにしてAグループの回転角度を決定すると、車両2の左右方向の加速度により運転者の頭4の位置が変化しても、スピードメータ文字盤61およびタコメータ文字盤62を運転者の顔に正対させることができる。
 図13は、このS16の処理の具体例を示している。図13の例では、ステアリング3が短時間で大きく回されたことにより、車両2の左右方向に大きな加速度が生じ、これにより、運転者の頭4の位置が大きく図右側に移動した状態を示している。
 このように、運転者の頭4の位置が大きく移動しても、第2実施形態では、スピードメータ文字盤61およびタコメータ文字盤62を運転者の顔に正対する。したがって、スピードメータ文字盤61およびタコメータ文字盤62の視認性の低下が抑制できる。
 S17では、表示対象物60のうち、Bグループに属する画像データが表す表示対象物60に対して回転処理を行う。第2実施形態では、Bグループに属する表示対象物60の回転角度は、S12で取得した加速度の大きさに基づいて決定する。具体的には、左右方向の加速度の大きさと、運転者の視点の変化角度θとの関係を実験に基づいて予め決定しておく。そして、S12で取得した加速度と上記関係から定まる変化角度θに、1よりも大きい係数をかけた値を回転角度とする。
 このようにして回転角度を決定すると、Bグループの表示対象物60の回転角度は、運転者の顔に正対させる角度よりも大きな角度となる。つまり、第2実施形態でも、Bグループの表示対象物60の回転移動量はAグループの表示対象物60の回転移動量よりも大きい。
 図14は、S17の処理の具体例を示している。ただし、図13とは異なり、ステアリング3の操作量は大きくない。そのため、このステアリング3の回転により車両2に生じる左右方向の加速度もそれほど大きくない。その結果、運転者の頭4の位置の変化もそれほど大きくない。しかし、第2実施形態では、Bグループの表示対象物60の回転角度は、車両2の左右方向に生じた加速度から定まる変化角度θに1よりも大きい係数をかけた角度としている。そのため、図14に示すように、道路63および車64に対する回転角度θ5は、運転者の顔の変化角度θ4よりも大きい角度になっている。
 S18では、S16およびS17で回転処理を行った後の表示対象物60を、カメラ66の位置からみた画像を表示画像として生成する。なお、カメラ66の位置、照明65の位置は、第1実施形態と同じ方法で決定する。また、Aグループの画像データから作成する表示画像が、Bグループの画像データから作成する表示画像よりも常に手前になるように表示画像を作成する点も第1実施形態と同じである。表示画像を作成した後、その表示画像をディスプレイ10に出力する。
 この第2実施形態では、車両2の左右方向の加速度に応じてBグループの表示対象物60の回転角度を決定している。しかも、このBグループの表示対象物60の回転角度は、Aグループの表示対象物60の回転角度よりも大きい。よって、全ての表示画像の回転移動量を、Aグループの画像データから作成される表示画像の回転移動量としてしまう場合に比較して、運転者に臨場感および運転感を与えることができる。
 より具体的には、Bグループの表示対象物60に対する回転角度は、車両2の左右方向に生じた加速度から定まる変化角度θに、1よりも大きい係数をかけた回転角度である。よって、図14に例示しているように、運転者が少しステアリング3を操作しただけでも、道路63および車64が激しく移動する。よって、運転者に臨場感を与えることができる。
 また、Aグループの表示画像の回転移動量は、Bグループの表示画像の回転移動量よりも小さくなっている。しかも、Aグループの表示画像は、運転者の頭4の位置が変化しても、運転者の顔に正対する回転角度とされる。よって、運転者の頭4の位置が変化しても、Aグループの表示画像に表されている必要な情報が読み取りにくくなることも抑制できる。
 (変形例1)
 前述の実施形態では、描画処理部44、144は、表示対象物60を回転移動していたが、表示対象物60の移動態様は、回転移動ではなく前後方向への直線移動でもよい。
 表示対象物60を前後方向へ直線移動させる場合において、運転者の視点関連部位に基づいて移動量を決定する場合には、その視点関連部位の車両前後方向位置の変化量に基づいて、表示対象物60を仮想空間50で前後に移動させる。視点関連部位の車両前後方向位置の変化量と、表示対象物60の前後方向への移動量との対応は予め設定しておく。
 表示対象物60を前後方向へ直線移動させる場合において、車両2に生じる前後方向の加速度に基づいて移動量を決定する場合には、車両2に生じる前後方向の加速度に基づいて、表示対象物60を仮想空間50で前後に移動させる。車両2に生じる前後方向の加速度と、表示対象物60の前後方向への移動量との対応は予め設定しておく。
 (変形例2)
 第1実施形態では、運転者の視点の位置に基づいて回転角度を決定していた。しかし、視点の位置に代えて、頭4の位置に基づいて回転角度を決定してもよい。頭4は視点とともに移動するからである。頭4の位置は視点関連部位の一例である。
 (変形例3)
 また、視点の位置に代えて、視線方向を用いて回転角度を決定してもよい。視線方向を検出するためには、前述したように、目の基準点および動点を検出している。よって、視線方向を用いて回転角度を決定する場合にも、視点の位置を検出していることになる。視線を用いる場合、視線の角度変化量に基づいて、表示対象物60の回転角度を決定する。
 (変形例4)
 前述した実施形態では、表示対象物60をAグループとBグループに分けていた。しかし、これに加えて、Cグループを設定してもよい。Cグループは、視点関連部位の位置の変化あるいは車両に生じる加速度が変化しても、全く移動させないグループである。
 たとえば、ディスプレイ10に表示する情報のうち、点灯するか消灯するかで運転者に情報を伝達する画像をCグループとすることができる。具体的には、シートベルト警告灯などのインジケータをCグループとすることができる。また、別の観点として、表示位置がディスプレイ10の隅部あるいは周縁部にある画像をCグループとすることができる。これらの位置は、もともと運転者にとって視認性のよい位置ではないので、移動させることによる視認性の低下が好ましくなく、また、移動させても、運転者に臨場感を与えにくい位置だからである。
 (変形例5)
 第1実施形態において、Aグループの表示対象物60に対して、運転者の視点の位置の変化角度θに乗じる係数を0としてもよい。つまり、第1実施形態において、視点関連部位の位置が変化しても、Aグループは移動させなくてもよい。また、第2実施形態でも、車両に生じる加速度によらず、Aグループの移動量を0としてもよい。
 (変形例6)
 車両用表示装置に表示する画像にスピードメータ文字盤61、タコメータ文字盤62などの計器類が含まれていなくてもよい。たとえば、車両用表示装置は、ナビゲーション装置として具体化されてもよい。
 (変形例7)
 車両2の左右方向の加速度としてヨー角加速度を検出してもよい。ヨー角加速度は、たとえば、ヨーレートセンサが検出するヨーレートを微分することで取得できる。
 (変形例8)
 前述の実施形態では、Bグループに属する表示対象物60として道路63を示していた。道路63は、Aグループに属する表示対象物60と比較して奥行き形状、すなわち、前後方向の形状が長い。このように、奥行き形状が長い表示対象物60は、回転中心Cを前方に設定することによって、特に臨場感あるいは運転感を運転者に与えることができる。奥行き形状が長い表示対象物60は道路63に限られない。たとえば、川を表示対象物60としてもよい。
 (変形例9)
 第2実施形態において、Aグループの回転角度、およびBグループの回転角度のいずれか一方を第1実施形態と同じ方法で決定してもよい。
 (変形例10)
 第1、第2実施形態では、Aグループを回転移動させる際の回転中心Cは、Aグループの表示対象物60であるスピードメータ文字盤61およびタコメータ文字盤62が配置されている平面であるメータ配置平面67に設定されていた。しかし、回転中心Cを、Aグループの表示対象物60よりも前方に配置してもよい。換言すれば、Aグループの表示対象物60を、回転中心Cよりも遠方に配置してもよい。
 図15には、回転中心Cが運転者と表示対象物60の間にある例を図示している。図15に示す例では、運転者の視点の変化角度θが角度θ6のとき、Aグループの表示対象物60を、Cを回転中心として角度θ6回転させ、運転者の視点の変化角度θが角度θ7のとき、Aグループの表示対象物60を、Cを回転中心として角度θ7回転させている。したがって、図15に示す例では、運転者の頭4の位置が変化しても、表示対象物60を運転者の顔に正対する。
 Aグループの表示対象物60をこのように、角度θ6、θ7だけ回転させたとき、Bグループの表示対象物60の回転移動量は、角度θ6、θ7に1よりも大きい係数を掛けた角度とする。なお、Bグループの回転中心Cも、Aグループの回転中心Cと同様、運転者とBグループの表示対象物60の間に配置することができる。
 (変形例11)
 第1実施形態では、AグループおよびBグループともに、視点関連部位の変化方向に移動させていた。しかし、Bグループを視点関連部位の変化方向とは反対方向に移動させてもよい。図16には、表示対象物60を運転者の視点の変化方向とは反対方向に移動させている例を示している。表示対象物60はCを回転中心として回転移動させており、図16において表示対象物60はBグループに属するとする。
 この変形例11において、表示画像の移動量は、第1実施形態と同じ線分Gと、表示対象物60から回転中心Cに向かう線分Hとの間の角度の変化量である。破線で示す移動前の状態では、線分Gと線分Hとの間の角度は0である。これに対して、実線で示す頭4が移動した後の状態では、線分Gと線分Hとの間の角度は角度θ7+θ8である。したがって、角度の変化量も角度θ7+θ8である。
 この変形例11において、Aグループの表示対象物60の回転移動量は、これまでの実施形態および変形例にて説明した計算方法で計算することができる。すなわち、この変形例11において、Aグループの表示対象物60の回転移動量は、運転者の視点の変化角度である角度θ7に1よりも小さい正の係数を乗じた回転移動量とすることができる。また、運転者の視点変化角度によらず、Aグループの表示対象物60を移動させないとすることもできる。いずれの場合にも、Bグループの表示画像の回転移動量はAグループの表示画像の回転移動量よりも大きくなる。
 (変形例12)
 変形例11では、Bグループの表示対象物60を視点関連部位の変化方向とは反対方向に回転移動させることを説明した。また、第2実施形態において、Bグループの表示対象物60を、車両2の左右方向の加速度に応じて回転移動させることを説明した。そして、車両2の左右方向の加速度が生じると、その加速度により視点関連部位の位置が変化する。したがって、Bグループの表示対象物を車両2の左右方向の加速度とは反対方向に移動させてもよい。すでに説明した図16は、Bグループの表示対象物60を車両2の左右方向の加速度とは反対方向に移動させている例として見ることもできる。
 この変形例12でも、表示画像の移動量は、線分Gと線分Hとの間の角度の変化量である。この変形例12において、Aグループの表示対象物60の回転移動量は、第2実施形態および変形例にて説明した計算方法で計算することができる。たとえば、この変形例12において、Aグループの表示対象物60の回転移動量は、移動方向が車両2の左右方向の加速度の方向であって、車両2の左右方向の加速度から推定できる運転者の視点の変化角度以下の回転移動量とすることができる。また、車両2の左右方向の加速度によらず、Aグループの表示対象物60を移動させないとすることもできる。いずれの場合にも、Bグループの表示画像の回転移動量はAグループの表示画像の回転移動量よりも大きくなる。
 (変形例13)
 これまでに、表示対象物60の移動態様として、回転移動と前後方向への直線移動を説明した。これ以外にも、表示対象物60を移動態様として、回転移動に代えて左右方向のスライド移動を採用することもできる。図15や図16を見ると分かるように、運転者から見て回転中心Cが表示対象物60よりも遠方または前方にある場合、表示対象物60は運転者から見て左右方向に移動する。したがって、回転移動に代えて左右方向のスライド移動を採用することもできるのである。
 (変形例14)
 表示画像をAグループとBグループとに分けつつ、視点関連部位の位置の変化量に応じてそれらの表示画像の表示位置を移動させることで、ディスプレイ10を見る運転者に臨場感ある画像を提供できる。しかし、臨場感のある画像を好まない運転者が存在することも想定される。そこで、視点関連部位の位置の変化量に応じて表示画像を移動させる処理を実行するか、しないかを、ユーザが切り替え可能としてもよい。
 また、Aグループの移動量およびBグループの移動量も、個々のユーザにより好みが異なることが想定される。そこで、視点関連部位の位置の変化量に対するAグループの移動量およびBグループの移動量を、グループ別に、あるいは、AグループとBグループとをまとめて、ユーザが設定できるようになっていてもよい。
 (第3実施形態)
 以下、本開示の実施形態について図を用いて説明する。図17は、本実施形態に係る車両用表示システム300の概略的な構成の一例を示す図である。図17に示すように車両用表示システム300は、表示制御装置201、ディスプレイ202、乗員カメラ203、及び車両ECU204を備えている。なお、ECUは、Electronic Control Unitの略である。
 乗員カメラ203及び車両ECU204のそれぞれは、車両内に構築された通信ネットワーク(以降、車両内ネットワーク)を介して表示制御装置201と相互通信可能に接続されている。また、ディスプレイ202と表示制御装置201とは、前述の車両内ネットワーク又は映像信号用の専用線を介して相互通信可能に接続されている。
 以降において、車両用表示システム300が用いられている車両を自車両と称する。なお、本実施形態では、自車両はエンジンを駆動源とする車両とするが、その他、モータのみを駆動源として備える車両(いわゆる電気自動車)でもあってもよいし、エンジン及びモータの両方を駆動源として備える車両(いわゆるハイブリッドカー)であってもよい。
 表示制御装置201は、概略的には、車両の走行制御に関する情報(以降、車両情報)を示すアナログ式の計器(以降、アナログメータ)の画像を、3次元コンピュータグラフィックスにより描画し、ディスプレイ202に表示する装置である。ここでの車両情報を示す計器とは、例えばエンジンの回転速度を示すタコメータや車速を示すスピードメータであり、アナログメータとは、実態を有する指針と目盛り盤とを用いて、表示対象とする状態量(例えば車速)の数値を指し示す計器である。表示制御装置201が表示する計器画像とは、上記のアナログメータを模した画像である。
 ディスプレイ202は、表示制御装置201から入力された画像を表示するデバイスである。本実施形態では一例としてディスプレイ202は、図18に示すように、インストゥルメントパネルにおいて運転席の正面に位置する領域A1に配置されたディスプレイ(いわゆるメータディスプレイ)221とする。ディスプレイ202は、フルカラー表示が可能なものであり、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等を用いて実現することができる。
 なお、他の態様としてディスプレイ202は、上述した位置以外の位置に搭載されたディスプレイであってもよく、例えばインストゥルメントパネルの車幅方向中央部(以降、中央領域)A2の最上部に設けられたディスプレイ(いわゆるセンターディスプレイ)222であってもよい。また、ディスプレイ202は、ナビゲーション画面等を表示するディスプレイとして、中央領域A2においてステアリングコラムカバーの側方に配置されているディスプレイであってもよい。さらに、ディスプレイ202は、フロントガラスの運転席前方の一部分に虚像を映し出すヘッドアップディスプレイであってもよい。
 表示制御装置201は、前述の計器画像として、例えば図19に示すように現在のエンジンの回転速度を表すタコメータ画像206や、現在の車速を示すスピードメータ画像207を表示する。タコメータ画像206は、円弧状に目盛り及び数値が付与された略円形の目盛り盤上において指針をセンサが検出しているエンジンの回転速度に応じて回転させることによって、現在のエンジンの回転速度を指し示すアナログ式のタコメータを模した画像である。また、スピードメータ画像207は、円弧状に目盛り及び数値が付与された略円形の目盛り盤上において指針を車速センサが検出している車速に応じて回転させることによって、現在の走行速度を指し示すアナログ式のスピードメータを模した画像である。
 なお、エンジンの回転速度や車速といった各車両情報に対応する計器画像は、所定のレイアウトで配置されてディスプレイ202に表示される。便宜上、最終的にディスプレイ202に表示される画像のことをメータユニット画像とも称する。
 以降では一例として、表示制御装置201は表示対象とする計器として、スピードメータ及びタコメータを選択しており、最終的なメータユニット画像として、これら2つの計器の画像を含む画像をディスプレイ202に表示する場合について説明する。すなわち、タコメータ画像206及びスピードメータ画像207の両方を含む画像をメータユニット画像として描画する場合の態様について説明する。
 もちろん、表示制御装置201が表示対象とする計器の種類や、組み合わせ、数等は適宜設計されればよい。表示対象とする計器の種類等は、車両が走行中であるか否かといった、車両の状態などによって動的に変更されればよい。表示対象とする計器は、タコメータだけであっても良いし、スピードメータだけであってもよい。その他の種類の車両情報(例えばシフトポジション)を含む画像を表示してもよい。また、表示対象とする計器として、燃料の残量を指針と目盛りを用いて示す燃料計や、エンジンを冷やすための冷却水の温度を示す水温計などを採用してもよい。つまり、計器画像として、燃料計を模した画像や、水温計を模した画像を描画してもよい。なお、自車両が、例えば電気自動車やハイブリッド車などの、駆動源としてモータを備える車両である場合には、指針等を用いてバッテリー残量を示すバッテリー残量計を表示対象とする計器として採用することができる。
 この表示制御装置201は、コンピュータとして構成されている。すなわち、表示制御装置201は、種々の演算処理を実行するCPU211、RAM212、フラッシュメモリ213、I/O214、3Dモデル記憶部215、及び、これらの構成を接続するバスラインなどを備える。
 CPU211は種々の演算処理を実行する構成であって、例えばマイクロプロセッサ等を用いて実現されればよい。なお、表示制御装置201はCPU211の代わりに、MPUやGPUを用いて実現されていても良い。RAM212は揮発性のメモリである。フラッシュメモリ213は、不揮発性のメモリである。
 なお、フラッシュメモリ213には、通常のコンピュータを表示制御装置201として機能させるためのプログラム(以降、表示制御プログラム)等が格納されている。上述の表示制御プログラムは、実体を有する記憶媒体(いわゆる非遷移的実体的記録媒体:non- transitory tangible storage medium)に格納されていればよい。CPU211が表示制御プログラムを実行することは、表示制御プログラムに対応する方法が実行されることに相当する。表示制御装置201は、CPU211が表示制御プログラムを実行することによって、種々の機能を提供する。表示制御装置201が備える種々の機能については別途後述する。
 I/O214は、表示制御装置201が外部装置(例えば車両ECU204)とデータの入出力をするためのインターフェースである。I/O214は、ICやデジタル回路素子、アナログ回路素子などを用いて実現されればよい。
 3Dモデル記憶部215は、計器画像を描画する際に用いられるデータを記憶している記憶装置である。3Dモデル記憶部215は不揮発性の記憶媒体を用いて実現されている。計器画像を描画する際に用いられるデータとは、例えばタコメータやスピードメータといった、ディスプレイ202に表示すべき計器の3Dモデルを形成するためのパーツ毎の立体形状を示すデータである。立体形状を示すデータは、換言すれば立体モデル(いわゆる3Dモデル)を示すデータである。
 より具体的には、3Dモデル記憶部215は、図20に示すように、タコメータの3DモデルであるタコメータモデルMd1を構成するパーツ毎の立体形状データとして、背面盤オブジェクト271と、複数の目盛りオブジェクト272と、指針オブジェクト273とを備える。
 背面盤オブジェクト271は、タコメータの目盛り盤の外観形状を示す板状部材である背面盤の立体モデルを示すデータである。背面盤オブジェクト271は、換言すれば、指針の回動範囲の背景を提供する部材である。背面盤オブジェクト271は概略的に目盛り盤において目盛り部分が型抜きされた形状となっている。背面盤オブジェクト271において型抜きされた目盛り部分に相当する孔部(以降、目盛り孔部)911の近傍には、目盛り孔部911に対応する文字(具体的は0~8の整数)が付与されている。
 なお、本実施形態では一例として、タコメータは0~8までの整数に対する9つの目盛りを備えるものとし、それに伴い目盛り孔部911として、0~8までの各数字に対する9つの目盛り孔部911を備えるものとする。タコメータは、目盛りに対応付けられている数値を1000倍した値がエンジンの回転速度を示すように表現されているものとする。つまり、任意の数値n(n=0,1,2,3,…,8)に対応付けられている目盛りが示すエンジン回転速度は、n×1000[rpm]である。
 なお、ここでは一例として各目盛りの数値を示す文字は、背面盤オブジェクト271の表面デザインとして背面盤オブジェクト271に一体的に備えられているものとするが、これに限らない。各目盛りの数値を示す文字は、3Dモデル記憶部215において背面盤オブジェクト271とは独立したオブジェクト(以降、文字オブジェクト)として用意されてあってもよい。
 目盛りオブジェクト272は、タコメータの目盛りの立体モデルである。本実施形態では一例として、目盛りオブジェクト272として、0~8までの各数字に対する9つの目盛りオブジェクト272を備える。各目盛りオブジェクト272が背面盤オブジェクト271の目盛り孔部911と組み合わされることで、目盛り盤としての立体モデル(つまり目盛り盤オブジェクト)が形成される。
 指針オブジェクト273は、指針部材の立体モデルを示すデータである。指針オブジェクト273は、指針本体である指針本体部931と、背面盤オブジェクト271と接合されて指針本体部931の回転軸を提供する回転軸部932とを備える。
 以上では、タコメータモデルMd1を構成するパーツ毎の立体形状データについて詳細に説明したが、スピードメータの3DモデルであるスピードメータモデルMd2を構成するパーツ毎の立体形状データについても同様に備えている。以降では便宜上、スピードメータモデルMd2を構成する各パーツに対しても、タコメータモデルMd1を構成する各パーツと同様の符号を付して説明する。つまり、3Dモデル記憶部215は、スピードメータモデルMd2を構成するパーツ毎の立体形状データとして、背面盤オブジェクト271と、複数の目盛りオブジェクト272と、指針オブジェクト273とを備える。
 なお、計器毎の立体形状データは、複数パターン用意されていても良い。複数パターンの立体形状データは、表示画面のレイアウトや、車両の状態、ユーザの選択操作等によって使い分けられればよい。その他、3Dモデル記憶部215は、各計器のパーツ毎の色や質感などを変更するためのデザインスキンを示すデータ(以降、デザインスキンデータ)等も記憶している。
 乗員カメラ203は、運転席に着座している乗員(以降、ドライバ)の顔部を撮影するように設置されているカメラである。例えば乗員カメラ203は、撮像方向の中心(いわゆる光軸)が、自車両に設定されているアイリプスが存在する方向に向く姿勢で配置されている。アイリプスは、ドライバのアイポイントの分布を統計的に表したアイレンジに基づいて予め設定される領域である(詳細は、JISD0021:1997参照)。乗員カメラ203は、ドライバの顔領域を撮影するように、例えばステアリングコラムカバーや、インストゥルメントパネルの運転席に対向する部分、ルームミラー付近等、適宜設計される位置に配置されていればよい。
 この乗員カメラ203は、例えば近赤外光源、近赤外カメラ、及びそれらを制御する制御ユニットを用いて実現される。乗員カメラ203は、近赤外カメラの撮像画像に対して周知の画像認識処理を施すことでドライバの頭部の位置や、ドライバの顔の向きを検出する。また、本実施形態では、目の位置も逐次検出するものとする。乗員カメラ203は、撮影画像から特定したドライバの頭部位置や、顔の向き、目の位置等を示す情報を、視線原点情報として表示制御装置201へ逐次出力する。頭部や目の位置は、車両に設定されている3次元座標系での座標によって表現されれば良い。ドライバの頭部位置や、目の位置等は、ディスプレイ202から見てドライバの目が存在する方向を示す情報として機能する。また、ドライバの頭部位置や目の位置は、ディスプレイ202に注がれる視線の原点(換言すれば起点)を示す情報に相当する。
 なお、乗員カメラ203は、ドライバの顔部だけでなく、上半身も撮像範囲に含まれるように構成されていてもよい。また、乗員カメラ203は、赤外線カメラに限らず、光学式のカメラであってもよい。乗員カメラ203は、CCDやCMOS等の周知の撮像素子を用いて実現することができる。乗員カメラ203が視線原点検出装置に相当する。なお、視線原点検出装置は、超音波やミリ波などの探査波を送受信することでドライバの頭部の位置を推定する装置であってもよい。
 車両ECU204は、自車両に搭載されている種々のセンサ(以降、車載センサ)5から、運転操作に必要な車両の状態に関する情報(つまり車両情報)を取得するECUである。車両ECU204は、車両情報として、自車の走行速度、エンジンの回転速度、燃料の残量、エンジンの冷却水温、走行積算距離、シフト位置、方向指示器レバー位置等を取得する。また、シートベルトの着用状態、およびライトの点灯状態や、エンジンなどの駆動系などに生じた異常状態をドライバに通知する情報も車両情報に含まれる。
 ここでの車載センサ205とは、例えばエンジンの回転速度を検出するセンサや、車速センサ、燃料の残量を検出するセンサ、エンジンを冷やすための冷却水の温度を検出する水温計、シフトポジションセンサなどである。なお、上述したような車両情報に属する個々の情報を要素情報とも称する。車両ECU204は、上述の種々の車両情報を表示制御装置201に逐次出力する。
 (表示制御装置201の機能)
 次に、表示制御装置201が備える機能について図21を用いて説明する。表示制御装置201は、CPU211が上述の表示制御プログラムを実行することによって、図21に示す種々の機能ブロックに対応する機能を提供する。すなわち、表示制御装置201は機能ブロックとして、車両情報取得部F1、モデリング処理部F2、視線原点取得部F3、及び描画処理部F4を備える。
 なお、表示制御装置201が備える機能ブロックの一部又は全部は、ハードウェアとして実現されていてもよい。ハードウェアとして実現される態様には、一つあるいは複数のIC等を用いて実現される態様も含まれる。また、表示制御装置201が備える機能ブロックの一部又は全部は、CPU211によるソフトウェアの実行とハードウェア部材の組み合わせによって実現されていてもよい。
 車両情報取得部F1は、車両ECU204から種々の車両情報を取得し、モデリング処理部F2に逐次提供する。例えば車両情報取得部F1は現在の車速やエンジン回転速度を逐次取得してモデリング処理部F2に提供する。
 モデリング処理部F2は、3Dモデル記憶部215に保存されている3D形状データに基づいて、表示対象とする計器毎の3次元形状を、仮想3次元空間上に内部表現する構成である。すなわち、モデリング処理部F2は、タコメータモデルMd1や、スピードメータモデルMd2を生成する。モデリング処理部F2が立体計器モデル生成部に相当する。便宜上、3Dモデル記憶部215に保存されている3D形状データに基づいて各種計器の3Dモデルを生成する処理のことをモデリング処理と称する。各計器の立体モデルは、パーツ毎の頂点の3次元座標とそのつながりを定義することにより実現される。
 概略的には、モデリング処理部F2は、背面盤オブジェクト271が備える各目盛り孔部911に、目盛りオブジェクト272を配置(具体的は嵌合又は挿通)することにより目盛り盤オブジェクトを形成する。また、目盛り盤オブジェクトの所定位置(例えば中央部)に回転軸部932の底面が接するように配置されることで、表示対象とする計器の3Dモデル(以降、立体計器モデル)を構築する。
 なお、指針オブジェクト273は、図22に示すように、計器の3Dモデルとして組み合わされた状態において、背面盤オブジェクト271の表面から所定の離隔距離αだけ離れた平面内を回動(換言すれば移動)するように構成されているものとする。離隔距離αは、指針オブジェクト273が備える回転軸部932によって提供される。離隔距離αの具体的な値は適宜設計されればよい。ここでは一例として離隔距離αは4mmに設定されているものとする。もちろん、離隔距離αは、2mmや10mmなど、その他の値であっても良い。図22に示す軸Axは指針オブジェクト273の回転軸を示している。
 また、目盛りオブジェクト272は、基本的にはその先端が、背面盤オブジェクト271の表面と一致するように配置される。ただし、背面盤オブジェクト271の表面(以降、背面盤表面)に対する目盛りオブジェクト272の位置、具体的には、背面盤表面に対して目盛りオブジェクトの先端が飛び出している量(以降、突出量)βは、後述する突出量調整部F22によって決定される。
 なお、突出量βを0に設定している態様とは、換言すれば、目盛りオブジェクト272の先端が背面盤表面と一致するように配置している態様に相当する。ここでの背面盤表面とは、背面盤オブジェクト271が備える2つの面のうち、指針オブジェクト273が配置される側の面である。ここでの一致とは、完全な一致に限らない。目盛りオブジェクト272の先端が背面盤表面から微小量突出している態様も含む。
 このモデリング処理部F2は、上記モデリング処理を実施するためのサブ機能として、指針位置決定部F21及び突出量調整部F22を備える。指針位置決定部F21は、表示対象とする計器の立体モデルでの背面盤オブジェクト271に対する指針の位置を決定する構成である。具体的には指針位置決定部F21は、車両情報取得部F1から提供されるエンジン回転速度に基づいて、指針オブジェクト273が現在のエンジン回転速度を示すように、タコメータの背面盤オブジェクト271に対する指針オブジェクト273の位置(より具体的には回転角)を決定する。また、指針位置決定部F21は、車両情報取得部F1から提供される車速に基づいて、指針オブジェクト273が現在の車速を示すように、スピードメータの背面盤オブジェクト271に対する指針オブジェクト273の位置を決定する。このようにして指針位置決定部F21が決定する指針オブジェクト273の位置は、表示対象とする車両情報の現在の状態(具体的には数値)を示す位置に相当する。
 突出量調整部F22は、指針位置決定部F21が決定した指針位置に基づいて、各目盛りオブジェクト272の突出量βを決定する構成である。或る目盛りオブジェクト272の突出量βとは、背面盤オブジェクト271の表面(つまり背面盤表面)から当該目盛りオブジェクト272の先端が飛び出している量である。
 突出量調整部F22は、各目盛りオブジェクト272に対応づけられている数値と、指針が指し示している数値との差(概念的には距離)である指示値距離Dに応じて、突出量βを決定する。具体的には、指針オブジェクト273が指し示している値に近い数値と対応付けられている目盛りオブジェクト272ほど、突出量βを大きい値に設定する。換言すれば指針73が指示している位置に近い位置の目盛オブジェクト72は、指針73が指示している位置から遠い位置の目盛オブジェクト72に比較して相対的に突出量βを大きい値に設定する。突出量βは0以上、かつ、α以下の範囲の値に動的に設定可能である。例えばタコメータにおいて指針が「3」を指し示している場合に、目盛り盤上の「2」及び「4」のそれぞれと対応付けられている目盛りオブジェクト272についての指示値距離Dはいずれも1(厳密には1×1000rpm)である。また、タコメータにおいて指針が「3」を指し示している場合に、目盛り盤上の「1」及び「5」のそれぞれと対応付けられている目盛りオブジェクト272についての指示値距離Dはいずれも2(厳密には2×1000rpm)である。
 例えば、突出量調整部F22は、図23の実線に示すように、指示値距離Dに対して1次関数的に(換言すれば直線的に)突出量βが小さく設定しても良い。また、図23の破線に示すように、指示値距離Dに対して曲線的に突出量βが小さく設定しても良い。図23の縦軸は突出量βを表しており、横軸は指示値距離Dを示している。なお、横軸上にプロットしている値dは目盛り1つ分の数値を表している。例えば本実施形態のタコメータにおける目盛り1つ分の数値は1000[rpm]であり、本実施形態のスピードメータにおける目盛り1つ分の数値は20[km/h]である。
 図23の実線及び破線で示す例では、指示値距離Dが0である目盛りオブジェクト272、すなわち、指針オブジェクト273が指し示している数値に対応する目盛りオブジェクト272の突出量βを、最大値としてのαに設定する制御態様を示している。また、図23では、指示値距離Dが目盛り4つ分以上離れている数値に対応する目盛りオブジェクト272の突出量βは、最小値としての0に設定する制御態様を示している。
 なお、突出量βの最大値は必ずしもαである必要はなく、例えば0.7αや、0.5α、0.3αなどであっても良い。0よりも大きい値であれば、詳細は後述するように、表示画像における指針と目盛りとの位置ずれは抑制されるため、車両情報の視認性を向上させる事ができる。また、突出量βの最小値は必ずしも0である必要はなく、0.1αや0.3α、0.5αなどであっても良い。
 モデリング処理部F2は、指針オブジェクト273を指針位置決定部F21が決定した回転角度で、背面盤オブジェクト271の中央部に配置するとともに、各目盛りオブジェクト272を背面盤表面から突出量調整部F22が決定した突出量βだけ突出させた態様で配置した立体計器モデルを構築する。指針位置決定部F21が決定した位置に指針オブジェクト273を配置する構成は、所定の状態を示す位置に指針オブジェクト273を配置する構成に相当する。
 モデリング処理部F2は、表示対象とする全ての計器の3Dモデルを生成すると、図24に示すようにそれらを平板状のオブジェクト(以降、ベースオブジェクト)74上に、所定のレイアウトで配置したメータユニットオブジェクト275を生成する。なお、ここでの表示対象とする全ての計器の3Dモデルとは、すなわち、タコメータの3DモデルであるタコメータモデルMd1と、スピードメータの3DモデルであるスピードメータモデルMd2である。
 ベースオブジェクト274は、立体計器モデルが取り付けられる土台としての役割を担うオブジェクトであって、例えば仮想3次元空間においてディスプレイ202の表示面に相当する部材である。ベースオブジェクト274において立体計器モデルが配置されない領域は、メータユニット画像における背景として機能する。モデリング処理部F2が生成したメータユニットオブジェクト275は、描画処理部F4に提供される。
 なお、他の態様としてベースオブジェクト274は、仮想3次元空間においてディスプレイ202の表示面から所定距離(例えば2cm相当の長さだけ)奥側に配置されていても良い。ここでの奥側とはディスプレイ202の表示面に直交する方向のうち、車室内空間からディスプレイ202に向かう方向である。ディスプレイ202にとっての前方とは、奥行方向とは逆向きの方向、すなわちディスプレイ202から車室内空間に向かう方向である。
 そのようにベースオブジェクト274を仮想3次元空間においてディスプレイ202の表示面から所定距離奥側に配置する構成においては、ベースオブジェクト274の縁部に、ディスプレイ202の表示面の縁部と接続する側壁としてのオブジェクト(以降、壁面オブジェクト)が立設されていても良い。壁面オブジェクトとベースオブジェクト274とが組み合わさってなる箱型のオブジェクトは、立体計器モデルが車室内空間から見れるように立体計器モデルを収容する筐体を表現するものである。ディスプレイ202に表示面は、当該筐体の開口部に相当する。
 視線原点取得部F3は、乗員カメラ203から視線原点情報を取得する構成である。視線原点取得部F3が取得する視線原点情報の内容は、ドライバの頭部位置であっても良いし、より具体的に目の位置であっても良い。ここで、視線原点情報として目の位置を示す情報(以降、目位置情報)を取得するものとする。視線原点取得部F3が取得した目位置情報は、描画処理部F4に提供される。
 描画処理部F4は、視線原点取得部F3から提供される目位置情報に基づき、仮想3次元空間でのドライバの目が存在する位置及び方向を特定する。ここで特定される仮想3次元空間でのドライバの目の位置は、図24に示すように、メータユニットオブジェクト275に対するドライバの目の相対位置に相当する。なお、図24においては、ドライバの視点をカメラ208で表現している。
 そして、描画処理部F4は、ドライバの視点から見たメータユニットオブジェクト275の画像を描画する。このように描画された画像は、ディスプレイ202が提供する仮想3次元空間内の所定位置に配置された計器を、現在のドライバから視認できる態様で表現した画像である。なお、図24は、メータユニットオブジェクト275の正面にドライバの視点が存在している場合の態様を表している。また、図24ではタコメータモデルMd1を表示画面にドライバから見て右側、スピードメータモデルMd2を左側に配置した態様を示しているが、左右位置は入れ替わっても良い。
 (表示制御処理)
 次に図25に示すフローチャートを用いて、表示制御処理が実施する表示制御処理について説明する。表示制御処理は、車両のイグニッション電源がオンとなっている間、逐次(例えば100ミリ秒毎に)実行されればよい。
 まずS101ではモデリング処理部F2が表示対象とするメータを構成する各パーツの立体形状データを3Dモデル記憶部215から読み出す。すなわち、本実施形態では、タコメータとスピードメータのそれぞれに対応する各パーツの立体形状データを読み出してS102に移る。
 S102では車両情報取得部F1が車両情報を取得してS103に移る。S103では、各立体計器モデルでの指針位置及び目盛りオブジェクト272の突出量βを決定する処理を行う。すなわち、指針位置決定部F21がS102で取得した車両情報(具体的にはエンジン回転速度と車速)に基づいて、各立体計器モデルにおける指針位置を決定する。
 そして突出量調整部F22が、指針位置に応じて各目盛りオブジェクトの突出量βを決定する。例えば、指針位置に基づき、各目盛りオブジェクト272についての指示値距離Dを算出し、当該指示値距離Dに応じた突出量βを設定する。なお、指示値距離Dに応じた突出量βの決定方法は図23を用いて説明した通りである。指針位置に応じた目盛りオブジェクトの突出量βの決定は、表示対象とする計器毎に実施される。各目盛りオブジェクト272の突出量βを決定するとS104に移る。
 S104ではモデリング処理部F2が、S103で決定された指針位置及び突出量βに基づき、表示対象とする計器毎の立体計器モデルを生成する。すなわち、タコメータモデルMd1とスピードメータモデルMd2を生成する。これにより、目盛りが背面盤から指針側に指針位置に応じて量だけ突出した計器の3Dモデルが構築される。そして、これらタコメータモデルMd1とスピードメータモデルMd2とをベースオブジェクト274に配置することで、メータユニットオブジェクト275を生成しS105に移る。
 S105では視線原点取得部F3が、乗員カメラ203から提供されている視線原点情報に基づいて、メータユニットオブジェクト275に対するドライバの目の位置(以降、視点)を特定し、S105に移る。なお、ここで用いられる目の位置は前述の通り、頭部の位置であっても良い。
 S106では描画処理部F4が、ドライバの視点から見たメータユニットオブジェクト275の画像を描画し、ディスプレイ202に表示させて本フローを終了する。仮にドライバの視点がメータユニットオブジェクト275の正面に存在する場合にはメータユニットオブジェクト275を正面から見た画像を表示する。一方、ドライバの視点がメータユニットオブジェクト275の正面方向よりも下側に存在する場合にはメータユニットオブジェクト275を下側から見た画像を表示する。
 なお、メータユニットオブジェクト275の正面方向とは、ベースオブジェクト274の中心を通って直交する方向のうち、ベースオブジェクト274から車室内空間に向かう方向である。メータユニットオブジェクト275の正面方向は、ディスプレイ202の表示面にとっての正面方向に相当する。以降においてディスプレイ202に表示された状態での立体計器モデルを構成する部材については、部材名称に含まれるオブジェクトを省略して記載する。例えばディスプレイ202での表示画像としての背面盤オブジェクト271については背面盤と記載する。また、ディスプレイ202での表示画像としての目盛りオブジェクト272については単に目盛りと記載する。指針オブジェクト273等、その他の部材についても同様である。
 ここでは比較構成として、目盛りを背面盤と同一平面上に配置してなる目盛り盤に対して、指針が所定の離隔距離αをおいて回動するように構成された立体計器モデルを用いて、ドライバから当該立体モデルを見た画像を表示する表示制御装置を導入し、本実施形態の効果について説明する。なお、比較構成は、特許文献1等に代表される従来の構成に相当するものであって、目盛りを背面盤から突出させない構成に相当する。
 上記の比較構成では、図26Aに示すようにタコメータにおいて指針が0rpmを指している状況において、ドライバの視点がディスプレイの正面方向よりも下側に存在する場合、目盛り盤と指針との間に隙間に起因して、図27Aに示すように指針が「0」の目盛りから上側にずれた位置に表示される。
 同様に、比較構成では、図26Bに示すようにタコメータにおいて指針が3×1000rpmを指している状況において、ドライバの視点がディスプレイの正面方向よりも下側に存在する場合、比較構成では目盛り盤と指針との間に隙間に起因して、図27Bに示すように指針が3×1000rpmの目盛りから右上にずれた位置に表示されてしまう。
 このような指針と目盛りとの視覚的な(換言すれば表示画面上の)位置ずれは、ドライバに計器画像の立体感(具体的には奥行き感)を感じさせることに寄与する一方、指針が指し示している具体的な数値を認識しづらくさせてしまう。すなわち、ドライバは指針が0付近や3付近を指していることは認識できても、より具体的な数値は認識しづらい。
 一方、本実施形態の構成では、指針近くの目盛りは背面盤から飛び出した態様で表示される。具体的には、図26Aに示すようにタコメータにおいて指針が0rpmを指している状況においては、図28Aに示すように、0に対応付けられている目盛りを指針近くまで突出させた3Dモデルに基づいて計器画像が描画される。また、図26Bに示すようにタコメータにおいて指針が3000rpmを指している状況においては、図28Bに示すように、3000rpmに対応付けられている目盛りを指針近くまで突出された3Dモデルに基づいて計器画像が描画される。
 このような構成によれば、ドライバの視点がディスプレイの正面方向よりも下側に存在する場合であっても、図28A及び図28Bに示すように、指針近くの目盛りが立体的に飛び出して表示される。このような表示態様によれば指針と指針近くの目盛りとの奥行き方向における距離が抑制されるため、指針が指し示している具体的な目盛り(換言すれば数値)をドライバは認識しやすい。
 すなわち、本実施形態の構成によれば、立体感のある計器画像を表示しつつ、背面盤と指針との離隔に由来する車両情報の視認性悪化を抑制することができる。なお、以上ではタコメータを表示する場合を例にとって本実施形態の効果について説明したが、その他の種類の計器(例えばスピードメータや水温計)であっても同様である。
 また、上記の実施形態では、最も指針に近い目盛りオブジェクト272の突出量βを最も高く設定するとともに、それ以外の目盛りオブジェクト272の高さは指針から離れるにしたがって段階的に高さが下がるように設定している。このような構成によれば、指針が回動するに従って、各目盛りオブジェクト272の突出量βが変化する。つまり、指針位置に応じて目盛りの突出量βが動的に逐次変化するため、ドライバに与える臨場感を高めることができる。その結果、商品価値を高めることができる。
 さらに、指針位置に応じた突出量βの決定規則として、図23の曲線で示す例を採用する場合には、指示値距離Dが0~0.5dである場合の突出量βは略αに設定される。当該曲線は、指示値距離Dが0で上に凸であって、指示値距離Dが0~0.5dである領域での突出量βは略αとなる形状に設定されているためである。このような構成によれば、指針オブジェクト273が指し示している数値が、2つの目盛りの中間的な値となっている場合には、それらの2つの目盛りオブジェクト272の両方ともが、指針と同じ高さまで飛び出して表示される。すなわち、指針を挟む2つの目盛りが指針と同じ高さまで飛び出した態様で表示される。このような表示態様によれば、ドライバは、指針が指し示している数値が2つの目盛りの中間的な値であることを認識しやすい。つまり、指針オブジェクト273(より具体的にはその先端)との距離が目盛り間隔の半分以下となる位置に存在する目盛りオブジェクト272は、何れも指針オブジェクト273が回動する平面まで突出させることで、指針が指し示している数値をドライバが認識しやすくすることができる。
 また、本実施形態の構成によれば、上述のように、背面盤と指針との離隔距離αに由来する車両情報の視認性悪化を抑制できるため、車両情報の視認性を確保するための離隔距離αに対する制約を緩和される。故に、背面盤と指針との離隔距離αを本物の計器よりも大きい値に設定することができる。なお、背面盤と指針との離隔距離αを大きくすれば、立体計器モデルが提供する奥行き感を高めることができる。つまり、本実施形態によれば、背面盤と指針との離隔距離αを大きく設定し、より一層立体感を有する計器画像を表示することができる。
 なお、以上の表示制御装置201の作動は、或る車両情報を計器画像で表示する際の作動である。計器画像で表示可能な車両情報(例えば車速等)であっても、当該車両情報の表示態様として必ずしも常に計器画像が採用されなくとも良い。或る場合においては計器画像(すなわちアナログメータ)で表示する一方、特定の場合においてはデジタルメータ形式で表示するといったように、車両情報の表示態様は、ディスプレイ202に表示する車両情報の数や、組み合わせに応じて制御しても良い。
 例えば、ディスプレイ202に表示する車両情報の数が所定の数(例えば3)以下である場合には車速をアナログ式のメータで表示する一方、表示対象とする車両情報の数が所定数以上である場合には、デジタルメータ形式で表示してもよい。デジタルメータ形式の表示によれば、アナログメータほど表示スペースを必要としないため、より多くの情報をディスプレイの表示画面内に収容することができる。なお、ディスプレイ202に表示する情報の種類や数は、前述の通り、車両が走行中であるか否かといった走行状態などによって、決定されればよい。
 なお、前述の実施形態で述べた部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。また、構成の一部のみに言及している場合、他の部分については先に説明した実施形態の構成を適用することができる。
 (変形例15)
 表示制御装置201のモデリング処理部F2は、各目盛りに対応付けられている数値のうち、正面視において指針本体部931と重なる位置に存在する数値については、当該数値を示す文字オブジェクト276を、指針オブジェクト273の指針本体部931よりも上側(換言すれば前方)に配置した3Dモデルを生成しても良い。そのような構成によれば、図29に示すように、表示画面において指針と重なる位置に存在する数値は、浮かび上がって表示される。故に、指針オブジェクト273によって数値が隠れてしまい、ドライバが指針近くの数値を読み取りにくくなる恐れを低減することができる。
 このように表示制御装置201は、指針オブジェクト273と重なる数値を指針オブジェクト273よりも上側に浮かび上がらせて表示してもよい。なお、ここでの上側とは背面盤オブジェクト271から指針オブジェクト273が存在する方向であって、前方とは同じ方向となる。
指針オブジェクト273と重なる数値を浮かび上がらせて表示する構成におけるモデリング処理部F2は、図30に示すように、立体計器モデルを構成するパーツ毎の色調を調整する色調調整部F23を備えることが好ましい。色調調整部F23は、浮かび上がらせる文字オブジェクト276の色調を他の数値の色調とは異なる色調に設定する。また、複数の目盛りオブジェクト272のうち、当該文字オブジェクト276に対応する目盛りオブジェクト272Aの色を、当該文字オブジェクト276の色と同じ又は同一系統の色に設定する。すなわち、色調調整部F23は、文字オブジェクト276と、当該文字オブジェクト276に対応する目盛りオブジェクト272Aの色を揃えて表示する構成である。このような態様によれば、指針が指し示している目盛りと数値との対応関係をドライバはより一層認識しやすくなる。
 なお、前提として、数値の色としてデフォルトの色(以降、基本文字色)と、目盛りオブジェクト272の色としてデフォルトの色(以降、基本目盛り色)がそれぞれ予め設定されているものとする。色調調整部F23は、浮かび上がらせる文字オブジェクト276の色を基本文字色及び基本目盛り色の何れとも異なる色に設定する。例えば基本文字色が青色であって、基本目盛り色が黒色である場合には、文字オブジェクト276の色を緑色に設定するとともに、と目盛りオブジェクト272Aを、暗めの(つまり明度及び彩度を落とした)緑に設定する。同一系統の色とは、色相が同じであって、明度や彩度が異なる色を指す。
 また、表示制御装置201は、各目盛りに対応付けられている数値のうち、正面視において指針本体部931と重ならない位置に存在する数値についても、当該数値と対応付けられている目盛りオブジェクト272の先端と同じ高さまで浮かび上がらせた態様で表示しても良い。その場合、モデリング処理部F2は、各目盛りに対応付けられている数値を示す文字オブジェクト276を、その数値に対応付けられている目盛りオブジェクト272に設定されている突出量βだけ、背面盤表面から上側に配置した立体計器モデルを生成する。そのような態様によっても、目盛りと数値との対応関係が認識しやすくなる。なお、数値を背面盤表面から浮かび上がらせて表示する場合には、背面盤表面において元々数値が配置されていた部分には、浮かび上がせた文字オブジェクト276を薄くしたオブジェクト961を配置したり、シャドウを落としたりすることが好ましい。
 (変形例16)
 上述した実施形態では、指針オブジェクト273からの距離に応じて目盛りオブジェクト272の突出量βを変更する態様を開示したがこれに限らない。例えば、指針オブジェクト273の位置に依らずに、各目盛りオブジェクト272の突出量βは、0よりも大きい所定の値(例えば0.5α)に一律に設定してもよい。
 そのような態様によっても少なくとも指針近くの目盛りは背面盤から飛び出した態様で表示されるため、指針が配置されている平面と当該目盛りとの距離は、背面盤から指針までの離隔よりも小さくなる。そのため、ドライバの視点位置に由来する指針と目盛りとの視覚的なずれ度合いを抑制することができる。つまり、背面盤と指針との離隔に由来する車両情報の視認性悪化を抑制することができる。
 (変形例17)
 上述した実施形態等では、計器画像として、指針が目盛り盤上を回動するタイプのアナログメータを模した画像を描画する態様について例示したが、これに限らない。図31に示すように、計器画像は、目盛りが直線状に配列されたバー型の目盛り盤上を指針が移動するタイプのアナログメータ(バー型メータ)を模した画像であっても良い。
 (変形例18)
 上述した描画処理部F4は、特許文献1と同様に、ディスプレイ202の外部に存在する光源の方向を検出し、当該光源によって生じる指針等の影や、計器の光沢の態様、計器に対して反射する反射光の態様等を反映した画像を描画してもよい。
 本開示に記載されるフローチャート、あるいは、フローチャートの処理は、複数の部(あるいはステップと言及される)から構成され、各部は、たとえば、S1と表現される。さらに、各部は、複数のサブ部に分割されることができる、一方、複数の部が合わさって一つの部にすることも可能である。さらに、このように構成される各部は、サーキット、デバイス、モジュール、ミーンズとして言及されることができる。
 また、上記の複数の部の各々あるいは組合わさったものは、(i)  ハードウェアユニット(例えば、コンピュータ)と組み合わさったソフトウェアの部のみならず、(ii) ハードウェア(例えば、集積回路、配線論理回路)の部として、関連する装置の機能を含みあるいは含まずに実現できる。さらに、ハードウェアの部は、マイクロコンピュータの内部に構成されることもできる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。

Claims (18)

  1.  車両に設置された表示部(10)と、
     運転者の視点または前記視点とともに移動する部位である視点関連部位の位置を取得する運転者情報取得部(43)と、
     前記表示部に表示する表示画像を作成するための画像データを取得する画像データ取得部(41)と、
     前記画像データに基づいて前記表示画像を作成し、前記表示画像を前記表示部に表示する描画処理部(44)とを備え、
     前記画像データは、移動抑制画像データと移動促進画像データとに分けられており、
     前記描画処理部は、前記移動促進画像データから作成する前記表示画像の移動量を、前記視点関連部位の位置の変化量に基づいて決定し、かつ、前記移動抑制画像データから作成する前記表示画像の移動量よりも大きくする車両用表示装置。
  2.  車両に設置された表示部(10)と、
     車両に生じる加速度を取得する車両加速度取得部(145)と、
     前記表示部に表示する表示画像を作成するための画像データを取得する画像データ取得部(41)と、
     前記画像データに基づいて前記表示画像を作成し、前記表示画像を前記表示部に表示する描画処理部(144)とを備え、
     前記画像データは、移動抑制画像データと移動促進画像データとに分けられており、
     前記描画処理部は、前記移動促進画像データから作成する前記表示画像の移動量を、前記車両加速度取得部が取得した加速度に基づいて決定し、かつ、前記移動抑制画像データから作成する前記表示画像の移動量よりも大きくする車両用表示装置。
  3.  前記描画処理部は、前記画像データが表す表示対象物を回転移動させて前記表示画像を作成するようになっており、前記表示対象物の回転移動量を、前記視点関連部位から前記画像データの回転中心に向かう線分(G)の角度変化量に基づいて決定する請求項1に記載の車両用表示装置。
  4.  前記描画処理部は、前記視点関連部位から前記画像データの回転中心へ向かう線分の角度変化量に1よりも小さく0以上である係数を乗じて前記移動抑制画像データの回転移動量を決定し、前記角度変化量に1よりも大きい係数を乗じて前記移動促進画像データの回転移動量を決定する請求項3に記載の車両用表示装置。
  5.  前記描画処理部は、前記視点関連部位から前記画像データの回転中心へ向かう線分の角度変化量を前記移動抑制画像データの回転移動量とし、前記角度変化量に1よりも大きい係数を乗じて前記移動促進画像データの回転移動量を決定する請求項3に記載の車両用表示装置。
  6.  前記描画処理部は、移動抑制画像データから作成する前記表示画像の移動量を、前記視点関連部位の位置の変化量によらず0とする請求項1、3~5のいずれか1項に記載の車両用表示装置。
  7.  前記移動量は、前記視点関連部位から前記画像データの回転中心に向かう線分(G)と前記画像データから前記回転中心に向かう線分(H)との間の角度の変化量であり、
     前記描画処理部は、前記移動促進画像データを前記視点関連部位の位置の変化方向とは反対方向に移動させる一方、前記移動抑制画像データは前記視点関連部位の位置の変化方向に移動させる、または、前記視点関連部位の位置が変化しても前記移動抑制画像データは移動させないことで、前記移動促進画像データから作成する前記表示画像の移動量を前記移動抑制画像データから作成する前記表示画像の移動量よりも大きくする、請求項3から5のいずれか1項に記載の車両用表示装置。
  8.  前記車両加速度取得部は、前記車両の幅方向の加速度を取得し、
     前記描画処理部は、前記画像データが表す表示対象物を回転移動させて前記表示画像を作成するようになっており、前記表示対象物の回転移動量を、前記車両加速度取得部が検出する前記車両の幅方向の加速度に基づいて決定する請求項2に記載の車両用表示装置。
  9.  前記描画処理部は、移動抑制画像データから作成する前記表示画像の移動量を、前記車両加速度取得部が取得した加速度によらず0とする請求項2または8に記載の車両用表示装置。
  10.  前記移動量は、運転者の視点または前記視点とともに移動する部位である視点関連部位から前記画像データの回転中心に向かう線分(G)と前記画像データから前記回転中心に向かう線分(H)との間の角度の変化量であり、
     前記描画処理部は、前記移動促進画像データを、前記車両の幅方向の加速度とは反対方向に移動させる一方、前記移動抑制画像データは前記車両の幅方向の加速度の方向に移動させる、または、前記車両の加速度によらず前記移動抑制画像データは移動させないことで、前記移動促進画像データから作成する前記表示画像の移動量を前記移動抑制画像データから作成する前記表示画像の移動量よりも大きくする、請求項8に記載の車両用表示装置。
  11.  前記描画処理部は、前記表示対象物を仮想空間に配置して、仮想視点から前記表示対象物を見た画像を前記表示画像として生成するものであり、前記移動抑制画像データが表す前記表示対象物の回転中心は、前記移動促進画像データが表す前記表示対象物の回転中心よりも、前記仮想視点側に設定されている請求項3~5、7、8、10のいずれか1項に記載の車両用表示装置。
  12.  前記描画処理部は、前記移動促進画像データが表す前記表示対象物は、奥行きが、前記移動抑制画像データが表す前記表示対象物よりも長くなっている請求項11に記載の車両用表示装置。
  13.  前記描画処理部は、前記移動抑制画像データから作成する前記表示画像を、前記移動促進画像データから作成する前記表示画像よりも常に手前に表示する請求項1から12のいずれか1項に記載の車両用表示装置。
  14.  車両の走行制御に係る所定の車両情報を示す計器の画像を、前記車両に搭載されたディスプレイ(202)に表示する表示制御装置であって、
     前記車両情報を取得する車両情報取得部(F1)と、
     前記計器の目盛り盤の外観構成を表す背面盤の立体モデルである背面盤オブジェクト(271)と、前記目盛り盤が備える複数の目盛りのそれぞれの立体モデルである目盛りオブジェクト(272)と、前記計器の指針の立体モデルであって指針本体部を備える指針オブジェクト(273)と、を組み合わせることによって前記計器の立体モデルである立体計器モデルを生成する立体計器モデル生成部(F2)と、
     前記立体計器モデルの画像を前記ディスプレイに表示する描画処理部(F4)と、を備え、
     前記立体計器モデル生成部は、
     前記指針オブジェクトを、前記指針本体部が前記背面盤オブジェクトと所定の離隔距離をおいて対向する平面内にあって、且つ、前記車両情報取得部が取得した前記車両情報に応じた状態を示す位置に配置するとともに、
     少なくとも前記指針オブジェクトから最も近い前記目盛りオブジェクトについては、前記背面盤オブジェクトから前記離隔距離以下である所定量突出させた前記立体計器モデルを生成する表示制御装置。
  15.  請求項14に記載の表示制御装置であって、
     前記車両の乗員の目又は頭部の位置を検出する視線原点検出装置から、前記乗員の目又は頭部を示す情報を視線原点情報として取得する視線原点取得部(F3)をさらに備え、
     前記描画処理部は、前記視線原点取得部が取得した前記視線原点情報に基づき、前記立体計器モデルを前記乗員の視点から見たときの画像を前記ディスプレイに表示する表示制御装置。
  16.  請求項14または15に記載の表示制御装置であって、
     前記車両情報取得部が取得した前記車両情報に基づいて、前記目盛りオブジェクトと前記背面盤とを組み合わせてなる目盛り盤オブジェクトに対する前記指針オブジェクトの位置を決定する指針位置決定部(F21)と、
     前記背面盤に対する前記目盛りオブジェクトの突出量を調整する突出量調整部(F22)と、をさらに備え、
     前記突出量調整部は、前記指針位置決定部が決定した前記指針オブジェクトの位置に基づき、前記指針オブジェクトから近い複数の前記目盛りオブジェクトものほど、前記突出量を大きくするとともに、前記指針オブジェクトから離れるに従って前記突出量を小さい値に設定し、
     前記立体計器モデル生成部は、前記突出量調整部によって前記目盛りオブジェクト毎に設定された前記突出量に従った態様で前記背面盤オブジェクトに前記目盛りオブジェクトを配置した前記立体計器モデルを生成する表示制御装置。
  17.  請求項14から16のいずれか1項に記載の表示制御装置であって、
     前記立体計器モデル生成部は、
     前記立体計器モデルとして、前記背面盤オブジェクトの表面において前記目盛りオブジェクトの近傍となる所定位置に、当該目盛りオブジェクトに応じた文字を配置した前記立体計器モデルを生成するものであって、
     前記指針本体部と重なる位置に存在する文字については、当該文字を示す文字オブジェクト(276)を、前記指針本体部よりも上側に配置した前記立体計器モデルを生成する表示制御装置。
  18.  請求項17に記載の表示制御装置であって、
     前記背面盤オブジェクトの表面に配置される文字の色として、所定の色が基本文字色として設定されており、
     前記目盛りオブジェクトの色として、所定の色が基本目盛り色として設定されており、
     前記目盛りオブジェクト及び前記文字オブジェクトの色を調整する色調調整部(F23)をさらに備え、
     前記色調調整部は、前記文字オブジェクトの色を前記基本文字色及び前記基本目盛り色の何れとも異なる色に設定するとともに、当該文字オブジェクトが示す文字と対応する前記目盛りオブジェクトの色を、前記文字オブジェクトの色と同じ又は同一系統の色に設定する表示制御装置。

     
PCT/JP2018/025291 2017-07-19 2018-07-04 車両用表示装置及び表示制御装置 WO2019017198A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880047202.8A CN110914094B (zh) 2017-07-19 2018-07-04 车辆用显示装置以及显示控制装置
DE112018003715.0T DE112018003715B4 (de) 2017-07-19 2018-07-04 Fahrzeuganzeigevorrichtung
US16/741,942 US11320660B2 (en) 2017-07-19 2020-01-14 Vehicle display device and display control device

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2017-140168 2017-07-19
JP2017140168 2017-07-19
JP2017-143909 2017-07-25
JP2017143909A JP6680276B2 (ja) 2017-07-25 2017-07-25 表示制御装置
JP2018111301A JP6708227B2 (ja) 2017-07-19 2018-06-11 車両用表示装置
JP2018-111301 2018-06-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/741,942 Continuation US11320660B2 (en) 2017-07-19 2020-01-14 Vehicle display device and display control device

Publications (1)

Publication Number Publication Date
WO2019017198A1 true WO2019017198A1 (ja) 2019-01-24

Family

ID=65015578

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/025291 WO2019017198A1 (ja) 2017-07-19 2018-07-04 車両用表示装置及び表示制御装置

Country Status (2)

Country Link
US (1) US11320660B2 (ja)
WO (1) WO2019017198A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11328464B2 (en) 2017-07-25 2022-05-10 Denso Corporation Vehicular display apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6890288B2 (ja) * 2018-03-28 2021-06-18 パナソニックIpマネジメント株式会社 画像処理装置、画像表示システムおよび画像処理方法
JP7063167B2 (ja) * 2018-07-26 2022-05-09 トヨタ自動車株式会社 表示制御装置、車両用表示装置、表示制御方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007030531A (ja) * 2005-07-22 2007-02-08 Calsonic Kansei Corp 車両用表示装置
JP2009015284A (ja) * 2007-03-27 2009-01-22 Denso Corp 表示装置
JP2009120014A (ja) * 2007-11-14 2009-06-04 Mazda Motor Corp 車両用表示装置
JP2013137440A (ja) * 2011-12-28 2013-07-11 Kyowa:Kk 液晶表示部の立体感を向上させたグラフィックシステム
JP2015105064A (ja) * 2013-12-02 2015-06-08 矢崎総業株式会社 グラフィックメータ装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4231884B2 (ja) * 2006-09-27 2009-03-04 株式会社デンソーアイティーラボラトリ 注視対象物検出装置および注視対象物検出方法
JP5181939B2 (ja) 2008-09-03 2013-04-10 アイシン・エィ・ダブリュ株式会社 車両用計器表示装置、車両用計器表示方法及びコンピュータプログラム
JP2010143520A (ja) * 2008-12-22 2010-07-01 Toshiba Corp 車載用表示システム及び表示方法
CN105682973B (zh) * 2013-10-22 2018-06-19 日本精机株式会社 车辆信息投影系统和投影装置
CN106611512B (zh) * 2015-10-23 2020-02-07 杭州海康威视数字技术股份有限公司 前车起步的处理方法、装置和系统
JP6669139B2 (ja) 2017-07-25 2020-03-18 株式会社デンソー 車両用表示装置
CN108399903B (zh) * 2018-03-27 2020-11-27 京东方科技集团股份有限公司 一种成像位置的调节方法及装置、平视显示系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007030531A (ja) * 2005-07-22 2007-02-08 Calsonic Kansei Corp 車両用表示装置
JP2009015284A (ja) * 2007-03-27 2009-01-22 Denso Corp 表示装置
JP2009120014A (ja) * 2007-11-14 2009-06-04 Mazda Motor Corp 車両用表示装置
JP2013137440A (ja) * 2011-12-28 2013-07-11 Kyowa:Kk 液晶表示部の立体感を向上させたグラフィックシステム
JP2015105064A (ja) * 2013-12-02 2015-06-08 矢崎総業株式会社 グラフィックメータ装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11328464B2 (en) 2017-07-25 2022-05-10 Denso Corporation Vehicular display apparatus

Also Published As

Publication number Publication date
US20200150444A1 (en) 2020-05-14
US11320660B2 (en) 2022-05-03

Similar Documents

Publication Publication Date Title
JP6608146B2 (ja) ライブ映像を有する仮想透過型インストルメントクラスタ
US9961259B2 (en) Image generation device, image display system, image generation method and image display method
JP6265713B2 (ja) グラフィックメータ装置
WO2014174575A1 (ja) 車両用ヘッドアップディスプレイ装置
US11320660B2 (en) Vehicle display device and display control device
CN110914094B (zh) 车辆用显示装置以及显示控制装置
JP2018022105A (ja) ヘッドアップディスプレイ装置、表示制御方法及び制御プログラム
JP2012250609A (ja) 車両用計器
CN107063288A (zh) 车辆信息显示设备
JP6257978B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
US20160124224A1 (en) Dashboard system for vehicle
JP2022095303A (ja) 周辺画像表示装置、表示制御方法
US20190166357A1 (en) Display device, electronic mirror and method for controlling display device
CN107531197B (zh) 车辆用显示控制装置及车辆用显示装置
JP2014213636A (ja) 車両用表示装置
JP4929768B2 (ja) 視覚情報呈示装置及び視覚情報呈示方法
JP6680276B2 (ja) 表示制御装置
JP4967953B2 (ja) 車両用メータユニット
JP2008254703A (ja) 車両用メーターユニット
US11386871B2 (en) Instrumentation perspective and light emulator
CN115320374A (zh) 显示控制装置、车辆、显示控制方法以及非暂时性计算机可读记录介质
CN115061565A (zh) 调节显示设备的方法和装置
JP6708227B2 (ja) 車両用表示装置
WO2015068269A1 (ja) 表示装置
US20240083247A1 (en) Display control device, display control method, non-transitory computer-readable medium storing a program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18835992

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18835992

Country of ref document: EP

Kind code of ref document: A1