WO2021095590A1 - 表示制御装置 - Google Patents
表示制御装置 Download PDFInfo
- Publication number
- WO2021095590A1 WO2021095590A1 PCT/JP2020/041081 JP2020041081W WO2021095590A1 WO 2021095590 A1 WO2021095590 A1 WO 2021095590A1 JP 2020041081 W JP2020041081 W JP 2020041081W WO 2021095590 A1 WO2021095590 A1 WO 2021095590A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- filter
- acquisition unit
- unit
- value
- Prior art date
Links
- 238000012937 correction Methods 0.000 claims abstract description 46
- 238000001914 filtration Methods 0.000 claims abstract description 22
- 238000001514 detection method Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 11
- 230000006399 behavior Effects 0.000 description 8
- 239000000725 suspension Substances 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 2
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 2
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/02—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/166—Navigation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/167—Vehicle dynamics information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/177—Augmented reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
- B60K35/81—Arrangements for controlling instruments for controlling displays
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
Definitions
- This disclosure relates to a technology for controlling a display on an in-vehicle display or the like.
- AR-HUD head-up display
- AR-HUD head-up display
- HUD Head Up Display
- Patent Document 1 describes that the pitch angle and roll angle of the vehicle posture are detected by an angle sensor, the vehicle posture is estimated based on the detected angle, and the windshield is used based on the estimated vehicle posture.
- a technique for adjusting the angle of a mirror that projects an image and the display position in the image is disclosed. That is, a technique for suppressing a misalignment of a virtual image by adjusting the display position in this way is disclosed.
- the vehicle posture for example, the pitch angle
- the display position is corrected according to the output value (that is, the sensor value) of the pitch angle sensor.
- the sensor value often changes quickly, and in such a case, in the above-mentioned conventional technique, the display position also changes quickly, so that the display of the virtual image may flicker and be difficult to see. is there.
- One aspect of the present disclosure is that it is desirable to be able to provide a technique capable of both suppressing display flicker on an in-vehicle display or the like and quickly correcting a display position.
- One aspect of the present disclosure includes an information generation unit, a running state acquisition unit, a posture value acquisition unit, a characteristic acquisition unit, a filter processing unit, and a display position correction unit.
- the information generation unit is arranged in front of the driver's seat of the vehicle to display an image that the driver recognizes as a virtual image on the display unit in which the scenery in front of the vehicle can be visually recognized. It is configured to set the display position for displaying the landscape in an overlapping manner.
- the running state acquisition unit is configured to acquire the running state of the vehicle.
- the posture value acquisition unit is configured to acquire a vehicle posture value indicating the posture of the vehicle.
- the characteristic acquisition unit is configured to acquire a vehicle characteristic value indicating a vehicle characteristic from a characteristic storage unit that stores the vehicle characteristic value.
- the filter processing unit is configured to filter the vehicle attitude value acquired by the attitude value acquisition unit using a filter.
- This filter processing unit is configured to set the characteristics of the filter according to the traveling state of the vehicle acquired by the traveling state acquisition unit, and perform the filter processing using the set filter.
- the display position correction unit corrects the display position for displaying the image and the landscape in an overlapping manner based on the vehicle posture value processed by the filter processing unit and the vehicle characteristic value acquired by the characteristic acquisition unit. Is calculated, and the display position is corrected based on the correction amount.
- the correction amount of the display position is calculated and corrected based on the vehicle posture value and the vehicle characteristic value processed by the filter processing unit, the correction is performed according to the traveling state of the vehicle.
- the vehicle attitude value filtered by the set filter is used. That is, when correcting the display position, it is possible to use a vehicle posture value that has been appropriately filtered according to the traveling state of the vehicle.
- the flicker of the display can be suppressed according to the running state, and the display position can be quickly corrected. That is, it is possible to suppress display flicker on an in-vehicle display or the like and to quickly correct the display position.
- the flicker of the display can be reduced in the accelerating state by adopting a filter having a large time constant as compared with the case where the vehicle is in a stopped state or a constant speed running state.
- the display position can be quickly corrected.
- the information display system 1 is mounted on, for example, the vehicle 2 shown in FIG.
- the vehicle 2 equipped with the information display system 1 may be referred to as the own vehicle 2.
- the information display system 1 includes a display control device 3. Further, the information display system 1 includes a peripheral monitoring unit 5, a behavior detection unit 7, a driver detection unit 9, a map storage unit 11, a positioning unit 13, a navigation device 15, a characteristic storage unit 17, and a head-up display.
- a display (hereinafter, HUD) device 19 may be provided.
- HUD is an abbreviation for Head Up Display.
- Each part constituting the information display system 1 may send and receive information via the in-vehicle LAN.
- LAN is an abbreviation for Local Area Network.
- the information display system 1 projects an image onto the projection area 23 of the windshield 21 located in front of the driver's seat by the HUD device 19, so that the driver (that is, the driver) passes through the windshield 21.
- Various information is displayed on top of the actual scenery that is visually recognized.
- an image displayed superimposed on such an actual landscape will be referred to as an AR image.
- AR is an abbreviation for Augmented Reality. That is, here, as the HUD device 19, a head-up display (that is, AR-HUD) device having the above-mentioned AR function is used.
- the peripheral monitoring unit 5 includes at least one of a radar sensor and a camera.
- the radar sensor uses infrared rays, millimeter waves, ultrasonic waves, etc. as radar waves, and detects the distance from the target that reflects the radar wave, the direction in which the target exists, and the like.
- a visible light camera, an infrared camera, or the like is used as the camera.
- the camera is arranged so as to include a region visually recognized by the driver through the windshield 21 (hereinafter, a visible region) as an imaging range.
- the radar sensor is arranged so as to include the viewing area as the detection range.
- the peripheral monitoring unit 5 detects a target existing on the traveling path of the vehicle (for example, the own vehicle) 2 with a radar sensor and a camera, and generates target information including the position of the detected target.
- the detection target of the peripheral monitoring unit 5 includes, for example, various targets to be processed by the advanced driver assistance system (that is, ADAS).
- ADAS is an abbreviation for Advanced Driver Assistance System.
- the peripheral monitoring unit 5 may generate target information including the position of the target based on the map information stored in the map storage unit 11 described later.
- the behavior detection unit 7 outputs various signals indicating a driving operation by the driver, a signal indicating the behavior of the vehicle 2 as a result of the driving operation, and a signal indicating the state of the vehicle 2 affecting the behavior of the vehicle 2. Includes sensor.
- the behavior detection unit 7 includes a vehicle speed sensor 31, an acceleration sensor 33, sensors 35 for detecting output torque, a height sensor 37, and the like.
- the vehicle speed sensor 31 is a sensor that detects the speed of the vehicle 2.
- the acceleration sensor 33 is a sensor that detects the front-rear acceleration of the vehicle 2.
- the sensors 35 have various sensors for detecting various signals for calculating the output torque of the tire (that is, the tire output).
- Examples of the sensors 35 include various sensors that detect the amount of fuel, the amount of air, and the like supplied to the engine in the vehicle 2 driven by an internal combustion engine (that is, an engine). Then, the output torque of the engine, and therefore the output torque of the tire, can be calculated from the sensor values output from each sensor.
- the sensors 35 for example, in the vehicle 2 driven by electricity, various sensors for detecting the voltage and current of electricity supplied to the motor for driving the tire can be mentioned. Then, the output torque of the tire can be calculated from the sensor value output from each sensor.
- the height sensor 37 is provided on one of the wheels (for example, front wheels or rear wheels) of the vehicle 2 and outputs a detection signal according to the relative displacement amount (hereinafter, vehicle height detection value) H between the axle of the wheel and the vehicle body. To do. That is, the height sensor 37 is a change amount detection unit that detects a change amount of the vehicle height.
- the vehicle height detection value H includes the displacement amount of the suspension.
- the height sensor 37 is provided, for example, on the right rear wheel.
- the behavior detection unit 7 may include, for example, an accelerator pedal sensor, a brake pedal sensor, a steering angle sensor, a direction indicator switch, a yaw rate sensor, and the like.
- the driver detection unit 9 is a device that detects the driver's state such as the face position, face orientation, eye position, and line-of-sight direction from the driver's face image captured by the in-vehicle camera. Based on the signal from the driver detection unit 9, it is possible to obtain position information (that is, eye information) indicating the vertical and front-back positions of the eye, as will be described later.
- the driver detection unit 9 is known as a so-called driver status monitoring system (that is, DSM).
- DSM is an abbreviation for Driver Status Monitoring system.
- Map information, AR information, etc. are stored in the map storage unit 11.
- the map information is used for route guidance by the navigation device 15 and for superimposing an AR image on the actual landscape.
- Map information includes, for example, information on roads, information on lane markings such as white lines and road markings, and information on structures.
- the information about the road includes, for example, shape information such as position information for each point, curve curvature and slope, and connection relationship with other roads.
- Information on lane markings and road markings includes, for example, lane marking and road marking type information, location information, and three-dimensional shape information.
- the information about the structure includes, for example, type information, position information, and shape information of each structure.
- the structure includes, for example, road signs, traffic lights, street lights, tunnels, overpasses, buildings facing the road, and the like.
- the map information has the above-mentioned position information and shape information in the form of point cloud data, vector data, or the like of feature points represented by three-dimensional coordinates. That is, the map information represents a three-dimensional map including altitude in addition to latitude and longitude with respect to position information. Therefore, from the map information, information on the slope of the road at each point on the road, specifically, the longitudinal slope along the traveling direction of the road and the crossing slope along the width direction of the road can be extracted.
- the location information contained in the map information has a relatively small error on the order of centimeters.
- the map information is highly accurate map data in that it has position information based on three-dimensional coordinates including height information, and it is also highly accurate in that the error in the position information is relatively small. It is data.
- AR information is data used for displaying an AR image, and includes symbols, characters, icons, etc. that are superimposed and displayed on the background (that is, the actual landscape).
- the AR information may include information for route guidance linked with the navigation device 15 (for example, an arrow superimposed on the road surface).
- the positioning unit 13 is a device that generates position information for specifying the current position of the vehicle (for example, own vehicle) 2.
- the positioning unit 13 includes, for example, a GNSS receiver and sensors for autonomous navigation such as a gyroscope and a distance sensor.
- GNSS is an abbreviation for Global Navigation Satellite System.
- the GNSS receiver receives the transmission signal from the artificial satellite and detects the position coordinates and altitude of the own vehicle 2.
- the gyroscope outputs a detection signal according to the angular velocity of the rotational motion applied to the own vehicle 2.
- the distance sensor outputs the mileage of the own vehicle 2.
- the positioning unit 13 calculates the current position of the own vehicle 2 based on the output signals from these devices.
- the positioning unit 13 generates highly accurate position information and the like of the own vehicle 2 by combined positioning that combines the information from the GNSS receiver and the information from the sensor for autonomous navigation.
- the positioning unit 13 has an accuracy of identifying the lane in which the own vehicle 2 travels among the plurality of lanes, for example.
- the navigation device 15 provides route guidance based on the current position of the own vehicle 2 and the map data.
- the navigation device 15 identifies the current position and the traveling direction of the own vehicle 2 on the road by the positioning result of the positioning unit 13 and the map matching using the map data.
- the navigation device 15 provides the display control device 3 with map information, AR information, and the like regarding the current position and traveling direction of the own vehicle 2, the route to the destination, the roads and facilities existing in the driver's visual area, and the like.
- the characteristic storage unit 17 includes a non-volatile memory.
- the characteristic storage unit 17 stores the vehicle characteristic value (that is, characteristic information) G used at the time of conversion from the detected value (that is, the vehicle height detected value) H of the height sensor 37 to the vehicle pitch angle ⁇ .
- the vehicle pitch angle ⁇ is an angle of inclination of the vehicle body in the front-rear direction with respect to the horizontal plane.
- the HUD device 19 is arranged on the instrument panel 41.
- the HUD device 19 includes a projector 43 and an optical system 45.
- the projector 43 includes a liquid crystal display (hereinafter referred to as LCD) panel and a backlight.
- the projector 43 is fixed with the display screen of the LCD panel facing the optical system 45.
- the projector 43 displays an image on the LCD panel according to an instruction from the display control device 3, and transmits and illuminates the image with a backlight to emit light formed as a virtual image toward the optical system 45.
- the optical system 45 has at least a mirror 47 (for example, a concave mirror), and reflects and magnifies the light emitted from the projector 43 in a region on the windshield 21 set in the driver's visible region. It projects onto a certain projection area 23. As a result, the AR image as shown by Vi in FIG. 3 is superimposed and displayed on the actual landscape in the visible area of the driver.
- a mirror 47 for example, a concave mirror
- the display control device 3 includes a microcomputer (that is, a microcomputer) 50 having a CPU 51 and, for example, a semiconductor memory 53 such as a RAM 53a, a ROM 53b, and a flash memory 53c. Each function of the display control device 3 is realized by the CPU 51 executing a program stored in a non-transitional tangible recording medium (for example, a semiconductor memory 53).
- the display control device 3 is also called an HCU.
- HCU is an abbreviation for HMI Control Unit
- HMI is an abbreviation for Human Machine Interface.
- the microcomputer 50 of the display control device 3 has an information generation unit 61, a traveling state acquisition unit 63, and a posture as functional configurations realized by executing a program stored in the semiconductor memory 53. It includes a value acquisition unit 65, a characteristic acquisition unit 67, a filter processing unit 69, an eye information acquisition unit 71, and a display position correction unit 73.
- the information generation unit 61 superimposes and displays an AR image that is arranged in front of the driver's seat of the vehicle 2 and causes the driver to recognize the AR image as a virtual image in the projection area 23 of the windshield 21 where the scenery in front of the vehicle 2 can be visually recognized. It is configured to set the display position (that is, the projection position) to be displayed.
- the information generation unit 61 defines the region in the windshield 21 of the vehicle 2 on which the AR image to be recognized as a virtual image by the driver is projected as the projection region 23. Further, through the projection area 23, information on an object (for example, a road) existing in the landscape visible to the driver is acquired. Then, the projection position of the superimposed image (that is, the AR image) superimposed on the object in the projection area 23 is set according to the three-dimensional position information of the object.
- the traveling state acquisition unit 63 is configured to acquire the traveling state of the vehicle 2.
- the traveling state acquisition unit 63 can detect the traveling state of the vehicle 2 based on the signals from the vehicle speed sensor 31, the acceleration sensor 33, and the sensors 35 for detecting the output torque in the behavior detection unit 7. That is, it is possible to determine whether the traveling state of the vehicle 2 is a stopped state, a constant speed traveling state, or an accelerating state.
- the vehicle speed is 0 or 4 m / s or less based on the signal from the vehicle speed sensor 31, it can be determined that the vehicle is in a stopped state. Further, when it is determined that the change in the vehicle speed within the predetermined time is within the predetermined value in the traveling state based on the signal from the vehicle speed sensor 31, the constant speed traveling state (that is, the constant speed traveling state). It can be judged that there is.
- the acceleration state is set. Can be judged. The values of the respective determination values are different.
- the acceleration state includes both a case of having a positive acceleration and a case of having a negative acceleration (that is, a case of a deceleration state).
- the posture value acquisition unit 65 is configured to acquire a vehicle posture value indicating the posture of the vehicle 2.
- a signal that is, vehicle height detection value H
- the height that is, vehicle height
- the posture value acquisition unit 65 acquires the vehicle height detection value H, specifically the displacement amount of the suspension, based on the signal from the height sensor 37.
- the characteristic acquisition unit 67 is configured to acquire the vehicle characteristic value G indicating the characteristics of the vehicle 2 from the characteristic storage unit 17 that stores the vehicle characteristic value G.
- the vehicle characteristic value G is a characteristic value used when calculating the vehicle pitch angle ⁇ , as will be described later. Examples of the vehicle characteristic value G include the wheelbase, the distance from the front wheels to the position of the center of gravity of the load applied to the vehicle 2, the spring constants of the front and rear suspensions, and the like.
- the filter processing unit 69 is configured to filter a signal indicating a vehicle posture value (that is, a vehicle height detection value H) and a signal indicating eye information.
- a well-known moving average filter represented by the following equation (1) is used.
- y [i] is the output at the time of i
- x [i-n] is the input at the time of i-n
- i and n are positive integers.
- L indicates the number of samples and corresponds to the time constant.
- this moving average filter for example, as shown in FIG. 5, the high frequency component of the sensor signal of the voltage, which is an input value, is suppressed, and an output value with reduced responsiveness can be obtained. Note that 10 msec indicates a period in which the moving average is taken.
- filters having different time constants are used depending on the running state. Further, the time constant of the filter used when filtering the vehicle attitude value (that is, the vehicle height detection value H) and the time constant of the filter used when filtering the eye information are different.
- t01 is adopted as the time constant of the filter used for filtering the vehicle posture value
- t02 is adopted as the time constant of the filter used for filtering the eye information.
- t11 is adopted as the time constant of the filter used for filtering the vehicle attitude value
- t12 is adopted as the time constant of the filter used for filtering the eye information.
- t21 is adopted as the time constant of the filter used for filtering the vehicle attitude value
- t22 is adopted as the time constant of the filter used for filtering the eye information.
- each time constant of the filter for the vehicle posture value is smaller than each time constant of the filter for eye information. That is, since the change in the eyes is considered to be slower than the change in the vehicle posture value, the eye information is averaged over a longer period of time than the vehicle posture value.
- the time constant of the filter used for filtering the vehicle attitude value is set larger in the order of the stopped state, the constant speed running state, and the accelerated state.
- the time constant of the filter used for filtering the eye information is also set larger in the order of the stopped state, the constant speed running state, and the accelerated state.
- a well-known low-pass filter (that is, LPF) may be used instead of the moving average filter.
- LPF low-pass filter
- the eye information acquisition unit 71 is configured to acquire eye information (that is, eye position information) indicating the position of the driver's eyes.
- the eye information acquisition unit 71 can obtain the positions of the eyes in the vertical direction and the anteroposterior direction based on the signal from the driver detection unit 9.
- the driver's eye point has the mechanical characteristics of springs, masses, and dampers when viewed from the vehicle seat, and the frequency characteristics are different from the frequency characteristics of the vehicle attitude value. Therefore, in the present embodiment, as described above, the signal indicating the eye information is different from the time constant of the filter that processes the vehicle posture value, and is set according to the traveling state, the time constants t02, t12, It is processed using each filter of t22.
- the display position correction unit 73 receives the vehicle attitude value (that is, the processed vehicle attitude value) obtained by processing the signal indicating the vehicle attitude value acquired by the attitude value acquisition unit 65 by the filter processing unit 69, and the characteristic acquisition unit 67.
- the windshield is based on the acquired vehicle characteristic value G and the eye information obtained by processing the signal indicating the eye information acquired by the eye information acquisition unit 71 by the filter processing unit 69 (that is, the processed eye information). It is configured to correct the display position when the AR image is superimposed on the landscape in the projection area 23 in 21.
- Pitch correction amount a value in which the correction amount calculated from the filtered eye information (that is, the eye correction amount) is added is used.
- the projection position (that is, the reference projection position) of the AR image in the projection area 23 generated by the information generation unit 61 is corrected.
- step (hereinafter, S) 100 the display control device 3 acquires signals from the vehicle speed sensor 31, the acceleration sensor 33, and the sensors 35 for detecting the output torque of the behavior detection unit 7. .. That is, a signal indicating a running state (that is, a vehicle state) of the vehicle 2 such as a vehicle speed state and an acceleration state is acquired.
- the signal from the height sensor 37 is acquired. Specifically, a signal indicating a vehicle height detection value H indicating a displacement amount of the suspension (that is, a signal indicating a vehicle attitude value) is acquired.
- the signal from the driver detection unit 9 is acquired. That is, a signal indicating the position information of the driver's eyes (that is, eye information) is acquired.
- the vehicle state (that is, the running state) is determined. That is, as described above, the vehicle 2 is in a stopped state, an accelerated state, or a constant speed running state (that is, constant) based on the signals from the vehicle speed sensor 31, the acceleration sensor 33, and the sensors 35 for detecting the output torque. It is determined whether the vehicle is in a fast running state).
- the acceleration state includes not only the case of having a positive acceleration but also the case of having a negative acceleration (that is, a deceleration state).
- the process proceeds to S140, if it is determined that the vehicle is accelerating, the process proceeds to S170, and if it is determined that the vehicle is running at a constant speed, the process proceeds to S200. In other cases, for example, the process may return to S100.
- a filter having a time constant of t01 is used to filter the signal indicating the vehicle attitude value, specifically, the signal indicating the vehicle height detection value H obtained from the height sensor 37.
- a filter having a time constant of t02 is used to filter the signal indicating eye information (that is, eye position information), and the process proceeds to S230.
- a filter having a time constant of t11 is used to filter the signal indicating the vehicle attitude value, specifically, the signal indicating the vehicle height detection value H obtained from the height sensor 37.
- a filter having a time constant of t12 is used to filter the signal indicating eye information (that is, eye position information), and the process proceeds to S230.
- a filter having a time constant of t21 is used to filter the signal indicating the vehicle attitude value, specifically, the signal indicating the vehicle height detection value H obtained from the height sensor 37.
- a filter having a time constant of t22 is used to filter the signal indicating eye information (that is, eye position information), and the process proceeds to S230.
- the correction amount of the display position is calculated.
- the process of calculating the correction amount of the display position will be described in detail in the flowchart of FIG. 7 described later.
- the display position of the HUD device 19 is corrected by using the correction amount.
- the AR image generated by the information generation unit 61 is supplied to the HUD device 19 after the projection position is corrected by the correction amount. Specifically, the projection position (that is, the reference projection position) of the AR image in the projection area 23 generated by the information generation unit 61 is corrected by the correction amount (that is, the total correction amount), and the corrected projection position is corrected.
- the AR image is projected based on.
- S250 it is determined whether or not the end condition for terminating the main process is satisfied, and if an affirmative decision is made here, the main process is temporarily terminated, while if a negative decision is made, the process returns to S100. It should be noted that, for example, when the ignition switch is turned off or when a command to stop the operation of the HUD device 19 is input, it is determined that the termination condition is satisfied.
- the vehicle characteristic value G is acquired from the characteristic storage unit 17.
- the signal of the height sensor 37 filtered by the S150 (that is, the vehicle height detection value H) is acquired.
- the current position acquired from the positioning unit 13 that is, the gradient information ⁇ representing the road gradient of the road on which the own vehicle 2 is traveling is acquired.
- the gradient information ⁇ here represents a longitudinal gradient.
- the vehicle pitch angle ⁇ which is the inclination angle of the vehicle body in the front-rear direction with respect to the horizontal plane, is calculated using the following equation (6).
- G (H) is a vehicle pitch angle estimated from the vehicle characteristic value G using the vehicle height detection value H.
- C is an experimentally determined constant.
- the eye position information (that is, the eye information after the filtering) representing the eye position of the driver filtered in S160 is acquired.
- the eye position information is represented by, for example, the amount of deviation from the reference eye position.
- the amount of deviation of the position of the eye can be expressed by, for example, the angle of rotation of the eye from a reference point (for example, an object to be superimposed).
- the vehicle pitch angle ⁇ calculated in S330, the eye position information (for example, the angle of rotation) acquired in S340, and the object on which the AR image is superimposed is calculated based on the three-dimensional position.
- the AR image in the projection region is positioned on a straight line from the position of the eye to the object by adding the angle information of the eye indicated by the position information of the eye (that is, the angle of rotation of the eye) to the vehicle pitch angle ⁇ .
- the rotation angle of the mirror 47 is corrected.
- the eye angle information is information indicating an angle difference between the eye position and the object position due to the eye position being displaced in the vertical or anteroposterior direction, and is information indicating the angle difference between the eye position and the object. It can be obtained from the position.
- the eye position of the driver is Ei
- the projection area 23 is Di
- the position where the light imaged as a virtual image is emitted that is, the position of the projector 43 is represented by Si.
- the driver's eye position E0 indicates the position where the vehicle 2 is tilted forward
- the driver's eye position E1 indicates the position when the vehicle 2 is tilted forward at the vehicle pitch angle ⁇ .
- the AR image superimposed on the object (that is, the superimposed object) O is projected by a straight line connecting the eye position E0 and the object O. It needs to be projected at the position Pa that intersects the region D0.
- the AR image superimposed on the object O is the eye position E0 and the object O.
- the straight line connecting the above needs to be projected on the position Pb that intersects the projection area D1.
- the projection position Pb in the projection area D1 is a position shifted upward as compared with the projection position Pa in the projection area D0.
- the AR image superimposed on the object O needs to be projected on the position Pc on the projection area D1. There is.
- the projection position Pc when the eye position is displaced is shifted downward as compared with the projected position Pb when the eye position is not displaced.
- the position of the eye can be detected by the camera of the driver detection unit 9, it is possible to obtain the angles ⁇ 1 and ⁇ 2 formed by the position of the object (for example, the horizontal position) and the position of the eye. it can.
- ⁇ 1 is the angle before rotation
- ⁇ 2 is the angle after rotation. Therefore, the amount of movement (that is, the angle of rotation) when the eye moves from E0 to E1 can be obtained by ⁇ 2- ⁇ 1.
- the correction amount according to the vehicle pitch angle ⁇ that is, the deviation amount from Pa to Pb
- the correction amount caused by the deviation of the eye position that is, the deviation amount from Pb to Pc (that is, ⁇ 2- ⁇ 1).
- the correction amount is expressed by an angle, but finally, the position in the LCD panel (for example, the distance in the vertical direction and the number of pixels), and therefore the position in the projection area 23 (for example, the distance in the vertical direction and the number of pixels). Since the number) is corrected, the correction amount may be expressed by the correction amount of the position in the vertical direction of the LCD panel or the like or the position of the pixel.
- the relationship between the detected value of the height sensor 37 and the vehicle pitch angle is theoretically derived.
- the distance from the front wheel to the position of the center of gravity of the load applied to the vehicle 2 is a
- the distance from the front wheel to the rear wheel is b.
- Kf be the spring constant of the front suspension
- Kr be the spring constant of the rear suspension
- xf be the displacement amount of the front suspension
- xr be the displacement amount of the rear suspension.
- F be the load applied to the vehicle 2
- ⁇ be the vehicle pitch angle, which is the inclination angle of the vehicle body due to this load.
- Equation (7) can be obtained from the balance of force
- equation (8) can be obtained from the balance of moment around the front.
- the vehicle pitch angle ⁇ can be obtained by using the values of xf and xr thus obtained and the equation (12). From this relationship, it can be seen that there is a corresponding relationship between the detected value of the height sensor 37 (that is, xf or xr), and therefore the vehicle height detected value H and the vehicle pitch angle ⁇ .
- the characteristics of the filter used by the filter processing unit 69 are set according to the traveling state of the vehicle 2, and the vehicle attitude value (that is, the vehicle height) filtered using the set filter. Based on the detection value H) and the vehicle characteristic value G acquired by the characteristic acquisition unit 67, the display position when the AR image to be recognized as a virtual image is superimposed on the landscape in the projection area 23 of the windshield 21. Is configured to correct.
- the filter set as the vehicle posture value according to the running state of the vehicle 2 is used. Since the vehicle attitude value filtered by the above is used, it is possible to suppress the flicker of the display and quickly correct the display position when displaying the AR image.
- a filter having a larger time constant is used as compared with the case where the vehicle 2 is in the stopped state or the constant speed running state. In addition to being able to reduce the number, it is possible to quickly correct the display position when the vehicle is stopped.
- the time constant of the filter used in the constant speed running state is an intermediate value between the accelerated state and the stopped state, it is possible to moderately achieve both reduction of display flicker and quick correction of the display position.
- the vehicle pitch angle ⁇ that is, the pitch angle in the figure
- the amount of fluctuation in the pitch angle also increases. Therefore, the display position fluctuates frequently and the amount of fluctuation increases, which makes the driver feel flickering.
- the characteristics (for example, time constant) of the filter used for filtering the vehicle attitude value are changed in the running state of the vehicle 2, it is possible to carry out appropriate filtering according to the running state. it can. In this way, by adopting a filter having appropriate characteristics according to the traveling state, it is possible to achieve both reduction of display flicker and quick correction of the display position.
- the filter for eye information that processes eye information is configured to have characteristics different from the filter used for the vehicle posture value.
- the time constant of the filter that filters the eye information is set to be larger than the time constant of the filter that filters the vehicle attitude value. Then, when the above-mentioned display position is corrected, this eye information is also taken into consideration in the correction.
- the display control device 3 corresponds to the display control device
- the characteristic storage unit 17 corresponds to the characteristic storage unit
- the projection area 23 corresponds to the display unit
- the height sensor 37 is displaced.
- the information generation unit 61 corresponds to the information generation unit
- the running state acquisition unit 63 corresponds to the running state acquisition unit
- the posture value acquisition unit 65 corresponds to the posture value acquisition unit
- 67 corresponds to the characteristic acquisition unit
- the filter processing unit 69 corresponds to the filter processing unit
- the eye information acquisition unit 71 corresponds to the eye information acquisition unit
- the display position correction unit 73 corresponds to the display position correction unit.
- the time constant of the filter used when the vehicle is stopped or when the vehicle is running at a constant speed may be configured to be smaller than the time constant of the filter used when the vehicle is accelerating.
- the time constant of the filter used when the vehicle is stopped may be configured to be smaller than the time constant of the filter used when the vehicle is traveling at a constant speed.
- the present disclosure may be configured such that the time constant of the filter used for processing the eye information is larger than the time constant of the filter used for processing the vehicle posture value.
- the time constant of the filter used for processing the eye information is set to be larger than the time constant of the filter used for processing the vehicle attitude value, but a filter having the same time constant may be used.
- the filter used for processing the vehicle attitude value may be changed according to the traveling state. That is, the filter used for processing the eye information is not limited, and may not be changed according to the traveling state, for example.
- the display control device and method thereof described in the present disclosure are dedicated provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a computer.
- the display control device and its method described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits.
- the display control device and method thereof described in the present disclosure is a combination of a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured by.
- the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.
- the method for realizing the functions of each part included in the display control device does not necessarily include software, and all the functions may be realized by using one or a plurality of hardware.
- a plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Transportation (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Instrument Panels (AREA)
- Controls And Circuits For Display Device (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
本開示の1つの局面の表示制御装置(3)は、情報生成部(61)と走行状態取得部(63)と姿勢値取得部(65)と特性取得部(67)とフィルタ処理部(69)と表示位置補正部(73)とを備える。情報生成部(61)は画像と風景とを重ねて表示する表示位置を設定する。走行状態取得部(63)は車両2の走行状態を取得する。姿勢値取得部(65)は車両姿勢値を取得する。特性取得部(65)は車両特性値を取得する。フィルタ処理部(69)は車両姿勢値をフィルタ処理する。表示位置補正部(73)は表示位置を補正する補正量を算出し補正量に基づいて表示位置を補正する。更にフィルタ処理部(69)は車両(2)の走行状態に応じてフィルタの特性を設定しフィルタ処理を行う。
Description
本国際出願は、2019年11月11日に日本国特許庁に出願された日本国特許出願第2019-203975号に基づく優先権を主張するものであり、日本国特許出願第2019-203975号の全内容を本国際出願に参照により援用する。
本開示は、車載ディスプレイ等による表示を制御する技術に関する。
従来、ウィンドシールド越しに見える車外の風景中の対象物に虚像を重畳表示する装置として、AR機能を有したヘッドアップディスプレイ(以下、AR-HUD)が知られている。ARは、Augmented Realityの略であり、拡張現実と訳される。HUDは、Head Up Displayの略である。
ところで、AR-HUDでは、車両のピッチ角やロール角の変化によって、風景中の虚像の重畳位置がずれるという問題がある。
この対策として、下記特許文献1には、車両姿勢のピッチ角やロール角を角度センサによって検出し、検出した角度に基づいて車両姿勢を推定し、推定された車両姿勢に基づいて、ウィンドシールドに映像を投影するミラーの角度や映像内での表示位置を調整する技術が開示されている。つまり、このようにして表示位置を調整することで、虚像の位置ずれを抑制する技術が開示されている。
発明者の詳細な検討の結果、下記の課題が見出された。
前記特許文献1に記載の従来技術では、例えばピッチ角センサの出力値(即ち、センサ値)に応じて、車両姿勢(例えば、ピッチ角)を推定して表示位置を補正している。しかし、走行状態においては、センサ値が素早く変化することが多く、そのような場合には、前記従来技術では、表示位置も素早く変化してしまうので、虚像の表示がチラついて見えにくい可能性がある。
この対策として、センサ値にローパスフィルタ(即ち、LPF)をかけて、センサ値をゆっくり変化させることも考えられる。しかし、この場合には、表示位置を補正する際の追従性が低下する。そのため、虚像の重畳位置がずれた状態が長くなって、特に走行状態では、表示内容の認識性が低下する可能性がある。
このように、車載のディスプレイ等における表示のチラツキの抑制と表示位置の素早い補正との両立は容易ではないという課題が見出された。
本開示の一つの局面は、車載のディスプレイ等における表示のチラツキの抑制と表示位置の素早い補正とを両立できる技術を提供できることが望ましい。
本開示の1つの局面は、情報生成部と走行状態取得部と姿勢値取得部と特性取得部とフィルタ処理部と表示位置補正部とを備えている。
情報生成部は、車両の運転席の前方に配置されて車両の前方の風景が視認可能な表示部に対して、運転者に虚像として認識させる画像を風景に重ねて表示するために、画像と風景とを重ねて表示する表示位置を設定するように構成されている。
走行状態取得部は、車両の走行状態を取得するように構成されている。
姿勢値取得部は、車両の姿勢を示す車両姿勢値を取得するように構成されている。
特性取得部は、車両の特性を示す車両特性値を、当該車両特性値を記憶した特性記憶部から取得するように構成されている。
フィルタ処理部は、姿勢値取得部によって取得された車両姿勢値を、フィルタを用いてフィルタ処理するように構成されている。このフィルタ処理部は、走行状態取得部によって取得された車両の走行状態に応じてフィルタの特性を設定し、その設定されたフィルタを用いてフィルタ処理を行うように構成されている。
表示位置補正部は、フィルタ処理部で処理された車両姿勢値と、特性取得部によって取得された車両特性値と、に基づいて、画像と風景とを重ねて表示する表示位置を補正する補正量を算出し、その補正量に基づいて表示位置を補正するように構成されている。
このような構成によれば、フィルタ処理部で処理された車両姿勢値と車両特性値とに基づいて、表示位置の補正量を算出して補正を行う場合には、車両の走行状態に応じて設定されたフィルタによってフィルタ処理された車両姿勢値を用いる。つまり、表示位置の補正を行う場合には、車両の走行状態に応じて適切にフィルタ処理された車両姿勢値を用いることができる。
そのため、表示部に虚像として認識させる画像を風景に重ねて表示する際に、走行状態に応じて、表示のチラツキを抑制でき、しかも、表示位置の素早い補正を実現することが可能である。つまり、車載のディスプレイ等における表示のチラツキの抑制と表示位置の素早い補正との両立が可能である。
例えば車両が加速状態にある場合には、車両が停車状態や定速走行状態にある場合に比べて、時定数の大きなフィルタを採用することにより、加速状態では、表示のチラツキを低減できるとともに、停車状態等では、表示位置の素早い補正が可能となる。
以下に、図面を参照しながら、本開示を実施するための例示的な実施形態を説明する。
[1.実施形態]
[1-1.全体構成]
まず、本実施形態の表示制御装置を備えた情報表示システムの全体構成について説明する。
[1-1.全体構成]
まず、本実施形態の表示制御装置を備えた情報表示システムの全体構成について説明する。
図1に示すように、情報表示システム1は、例えば図2に示す車両2に搭載して使用される。以下、情報表示システム1を搭載する車両2を自車2ということがある。
情報表示システム1は、表示制御装置3を備える。また、情報表示システム1は、周辺監視部5と、挙動検知部7と、ドライバ検知部9と、地図記憶部11と、測位部13と、ナビゲーション装置15と、特性記憶部17と、ヘッドアップディスプレイ(以下、HUD)装置19とを備えてもよい。なお、HUDは、Head Up Displayの略である。
情報表示システム1を構成する各部は、車載LANを介して情報を送受信してもよい。LANは、Local Area Networkの略である。
情報表示システム1は、HUD装置19によって、図2に示すように、運転席前方に位置するウィンドシールド21の投影領域23に画像を投影することで、ウィンドシールド21を通して運転者(即ち、ドライバ)に視認される実風景に重ねて、様々な情報を表示する。以下では、このような実風景に重畳して表示される画像をAR画像という。ARは、Augmented Realityの略である。つまり、ここでは、HUD装置19として、上述したAR機能を有したヘッドアップディスプレイ(即ち、AR-HUD)装置を用いる。
図1に示すように、周辺監視部5は、レーダセンサおよびカメラのうち少なくとも一方を備える。レーダセンサは、赤外線、ミリ波、超音波などをレーダ波として使用し、レーダ波を反射した物標との距離や、その物標が存在する方向等を検出する。カメラとしては、可視光カメラや赤外線カメラ等が用いられる。カメラは、ウィンドシールド21を通してドライバによって視認される領域(以下、視認領域)を撮像範囲として含むように配置される。レーダセンサは、カメラと同様に、視認領域を検知範囲として含むように配置される。
周辺監視部5は、車両(例えば、自車)2の走行路上に存在する物標をレーダセンサおよびカメラで検知し、検知した物標の位置を含む物標情報等を生成する。周辺監視部5の検出対象には、例えば、先進運転支援システム(即ち、ADAS)での処理の対象となる種々の物標が含まれる。ADASは、Advanced Driver Assistance Systemの略である。なお、周辺監視部5は、後述する地図記憶部11に記憶された地図情報に基づいて、物標の位置を含む物標情報を生成してもよい。
挙動検知部7は、ドライバによる運転操作を表す信号、その運転操作の結果である車両2の挙動を表す信号、および車両2の挙動に影響を与える車両2の状態を表す信号を出力する種々のセンサを含む。
例えば、挙動検知部7は、車速センサ31、加速度センサ33、出力トルクの検出用のセンサ類35、ハイトセンサ37等を含む。
車速センサ31は、車両2の速度を検出するセンサである。
加速度センサ33は、車両2の前後加速度を検出するセンサである。
センサ類35は、タイヤの出力トルク(即ち、タイヤ出力)を算出するための各種の信号を検出するための各種のセンサを有する。センサ類35としては、例えば内燃機関(即ち、エンジン)で駆動される車両2では、エンジンに供給される燃料量や空気量等を検出する各種のセンサが挙げられる。そして、各センサから出力されるセンサ値から、エンジンの出力トルク、従ってタイヤの出力トルクを算出することができる。
また、センサ類35としては、例えば電気で駆動される車両2では、タイヤを駆動するモータに供給される電気の電圧や電流を検出する各種のセンサが挙げられる。そして、各センサから出力されるセンサ値から、タイヤの出力トルクを算出することができる。
ハイトセンサ37は、車両2の車輪(例えば、前輪又は後輪)のいずれかに設けられ、車輪の車軸と車体との相対変位量(以下、車高検出値)Hに応じた検出信号を出力する。つまり、このハイトセンサ37は、車高の変化量を検出する変化量検出部である。なお、この車高検出値Hとしては、サスペンションの変位量が挙げられる。本実施形態では、ハイトセンサ37は、例えば右後輪に設けられる。
なお、挙動検知部7には、前記センサ33~37以外に、例えば、アクセルペダルセンサ、ブレーキペダルセンサ、舵角センサ、方向指示スイッチ、およびヨーレートセンサ等が含まれてもよい。
ドライバ検知部9は、車内カメラにより撮像されたドライバの顔画像から、顔位置、顔の向き、眼位置および視線方向といったドライバの状態を検知する装置である。このドライバ検知部9からの信号に基づいて、後述するように、眼の上下や前後の位置を示す位置情報(即ち、眼情報)を得ることができる。なお、ドライバ検知部9は、いわゆるドライバ状況モニタリングシステム(即ち、DSM)として知られている。DSMは、Driver Status Monitoring systemの略である。
地図記憶部11には、地図情報およびAR情報等が記憶される。地図情報は、ナビゲーション装置15による経路案内や実風景にAR画像を重畳表示させるために用いられる。
地図情報には、例えば、道路に関する情報、白線等の区画線および道路標示に関する情報、構造物に関する情報が含まれる。道路に関する情報には、例えば、地点別の位置情報、カーブ曲率や勾配、他の道路との接続関係といった形状情報が含まれる。区画線および道路標示に関する情報には、例えば、区画線および道路標示の種別情報、位置情報、および3次元形状情報が含まれる。構造物に関する情報には、例えば、各構造物の種別情報、位置情報、および形状情報が含まれる。ここで構造物には、例えば、道路標識、信号機、街灯、トンネル、陸橋、および道路に面する建物等が含まれる。
地図情報は、上述の位置情報および形状情報を、3次元座標で表される特徴点の点群データやベクトルデータ等の形式で有する。すなわち地図情報は、位置情報に関して経緯度に加えて高度を含んだ3次元地図を表現する。従って、地図情報からは、道路上の各地点における道路の勾配に関する情報、具体的には、道路の進行方向に沿った縦断勾配および道路の幅方向に沿った横断勾配が抽出可能である。地図情報に含まれる位置情報は、センチメートルオーダの比較的小さい誤差を有する。地図情報は、高さ情報まで含んだ3次元座標による位置情報を有しているという点で精度の高い地図データであり、また、その位置情報の誤差が比較的小さいという点でも精度の高い地図データである。
AR情報は、AR画像の表示に用いられるデータであり、背景(即ち、実風景)に重畳して表示する記号、文字、およびアイコン等が含まれる。AR情報として、ナビゲーション装置15と連動した経路案内のための情報(例えば、路面に重畳表示される矢印など)が含まれてもよい。
測位部13は、車両(例えば、自車)2の現在位置を特定するための位置情報を生成する装置である。測位部13は、例えばGNSS受信機と、ジャイロスコープおよび距離センサ等の自律航法用のセンサとを備える。GNSSは、Global Navigation Satellite Systemの略である。GNSS受信機は、人工衛星からの送信信号を受信し、自車2の位置座標や高度を検出する。ジャイロスコープは、自車2に加えられる回転運動の角速度に応じた検出信号を出力する。距離センサは、自車2の走行距離を出力する。
測位部13は、これらの機器からの出力信号に基づき、自車2の現在位置を算出する。測位部13は、GNSS受信機からの情報と、自律航法用のセンサからの情報とを組み合わせる複合測位により、自車2の高精度な位置情報等を生成する。測位部13は、例えば複数車線のうち、自車2が走行する車線を特定する精度を有する。
ナビゲーション装置15は、自車2の現在位置と地図データとに基づいて経路案内を実施する。ナビゲーション装置15は、測位部13での測位結果と、地図データを利用したマップマッチングにより、道路上における自車2の現在位置や進行方位を特定する。ナビゲーション装置15は、自車2の現在位置および進行方位、目的地までの経路、ドライバの視覚領域内に存在する道路や施設に関する地図情報およびAR情報等を表示制御装置3に提供する。
特性記憶部17は、不揮発性メモリを備える。特性記憶部17には、ハイトセンサ37の検出値(即ち、車高検出値)Hから車両ピッチ角θへの変換時に用いられる車両特性値(即ち、特性情報)Gが記憶される。なお、車両ピッチ角θは、水平面に対する車体の前後方向の傾斜角度である。
図2および図3に示すように、HUD装置19は、インストルメントパネル41に配置される。HUD装置19は、プロジェクタ43と光学系45とを備える。プロジェクタ43は、液晶ディスプレイ(以下、LCD)パネルとバックライトとを備える。プロジェクタ43は、LCDパネルの表示画面を光学系45に向けた姿勢で固定される。プロジェクタ43は、表示制御装置3からの指示に従ってLCDパネルに画像を表示し、バックライトによって透過照明することで、虚像として結像される光を光学系45に向けて射出する。
光学系45は、少なくともミラー47(例えば、凹面鏡)を有しており、プロジェクタ43から射出された光を反射しかつ拡大して、ドライバの視認領域中に設定されたウィンドシールド21上の領域である投影領域23に投影する。これにより、ドライバの視認領域中の実風景に、図3のViで示されるようなAR画像が重畳表示される。
[1-2.表示制御装置]
次に、表示制御装置3について詳細に説明する。
次に、表示制御装置3について詳細に説明する。
図1に示すように、表示制御装置3は、CPU51と、例えば、RAM53a、ROM53b、フラッシュメモリ53c等の半導体メモリ53と、を有するマイクロコンピュータ(即ち、マイコン)50を備える。表示制御装置3の各機能は、CPU51が非遷移的有形記録媒体(例えば、半導体メモリ53)に格納されたプログラムを実行することにより実現される。表示制御装置3は、HCUとも呼ばれる。HCUは、HMI Control Unitの略であり、HMIは、Human Machine Interfaceの略である。
図4に示すように、表示制御装置3のマイコン50は、半導体メモリ53に記憶されたプログラムを実行することで実現される機能構成として、情報生成部61と、走行状態取得部63と、姿勢値取得部65と、特性取得部67と、フィルタ処理部69と、眼情報取得部71と、表示位置補正部73と、を備える。
情報生成部61は、車両2の運転席の前方に配置されて車両2の前方の風景が視認可能なウィンドシールド21の投影領域23に、ドライバに虚像として認識させるAR画像を風景に重ねて表示する表示位置(即ち、投影位置)を設定するように構成されている。
詳しくは、情報生成部61は、ドライバに虚像として認識させるAR画像が投影される、車両2のウィンドシールド21中の領域を、投影領域23とする。さらに、その投影領域23を介して、ドライバに視認される風景中に存在する対象物(例えば、道路)の情報を取得する。そして、その対象物の3次元位置情報に応じて、対象物に重畳する重畳画像(即ち、AR画像)の投影領域23内での投影位置を設定する。
走行状態取得部63は、車両2の走行状態を取得するように構成されている。この走行状態取得部63では、挙動検知部7における、車速センサ31、加速度センサ33、出力トルクの検出用のセンサ類35からの信号に基づいて、車両2の走行状態を検出することができる。つまり、車両2の走行状態が、停車状態か、定速走行状態か、加速状態かを判断することができる。
例えば車速センサ31からの信号に基づいて、車速が0又は4m/s以下であると判定された場合には、停車状態であると判断することができる。また、車速センサ31からの信号に基づいて、走行状態において、所定時間内における車速の変化が所定値以内であると判定された場合には、定速走行状態(即ち、一定速走行状態)であると判断することができる。
さらに、車速センサ31からの信号に基づいて、所定時間内における車速の変化の絶対値が所定の判定値以上であると判定された場合には、加速状態であると判断することができる。また、加速度センサ33からの信号に基づいて、車両2の前後加速度の絶対値が所定の判定値以上の場合であると判定された場合には、加速状態であると判断することができる。さらに、出力トルクの検出用のセンサ類35からの信号に基づいて、出力トルクを求めて、その出力トルクの変化の絶対値が所定の判定値以上と判定された場合には、加速状態であると判断することができる。なお、前記各判定値の値はそれぞれ異なる。
なお、ここでは、加速状態とは、正の加速度を有する場合と負の加速度を有する場合(即ち、減速状態の場合)の両方を含んでいる。
姿勢値取得部65は、車両2の姿勢を示す車両姿勢値を取得するように構成されている。本実施形態では、車両姿勢値として、ハイトセンサ37から得られる車両2の高さ(即ち、車高)を示す信号(即ち、車高検出値H)が用いられる。
つまり、姿勢値取得部65は、ハイトセンサ37からの信号に基づいて、車高検出値H、詳しくはサスペンションの変位量が取得される。
特性取得部67は、車両2の特性を示す車両特性値Gを、その車両特性値Gを記憶した特性記憶部17から取得するように構成されている。車両特性値Gは、後述するように、車両ピッチ角θを算出する際に用いられる特性値である。この車両特性値Gとしては、ホイールベース、フロント輪から車両2に加わる荷重の重心位置までの距離、前後のサスペンションのバネ定数等が挙げられる。
フィルタ処理部69は、車両姿勢値を示す信号(即ち、車高検出値H)や眼情報を示す信号をフィルタ処理するように構成されている。
本実施形態では、フィルタ処理に使用するフィルタとして、例えば下記(1)式で示される周知の移動平均フィルタを用いる。
なお、(1)式において、y[i]はiの時点における出力、x[i-n]はi-nの時点における入力であり、i、nは正の整数である。Lはサンプル数を示し時定数に相当する。
この移動平均フィルタを用いることにより、例えば図5に示すように、例えば入力値である電圧のセンサ信号は、その高周波成分が抑制されて、応答性が低下した出力値が得られる。なお、10msecは移動平均をとった期間を示している。
本実施形態では、後述するように、走行状態に応じて異なる時定数のフィルタを用いる。また、車両姿勢値(即ち、車高検出値H)に対してフィルタ処理を行う際に用いるフィルタの時定数と、眼情報に対してフィルタ処理を行う際に用いるフィルタの時定数が異なる。
例えば、停車状態においては、車両姿勢値のフィルタ処理に用いるフィルタの時定数としてt01を採用し、眼情報のフィルタ処理に用いるフィルタの時定数としてt02を採用する。加速状態においては、車両姿勢値のフィルタ処理に用いるフィルタの時定数としてt11を採用し、眼情報のフィルタ処理に用いるフィルタの時定数としてt12を採用する。定速走行状態においては、車両姿勢値のフィルタ処理に用いるフィルタの時定数としてt21を採用し、眼情報のフィルタ処理に用いるフィルタの時定数としてt22を採用する。
このとき、各時定数には、下記の(2)式~(4)式の関係が成立する。
t01<t02 ・・(2)
t11<t12 ・・(3)
t21<t22 ・・(4)
つまり、車両姿勢値用のフィルタの各時定数は、眼情報用のフィルタの各時定数よりそれぞれ小さい。即ち、眼の変化は車両姿勢値の変化よりゆっくりであると考えられるので、車両姿勢値に比べて、眼情報を長い時間をかけて平均をとるようにしている。
t11<t12 ・・(3)
t21<t22 ・・(4)
つまり、車両姿勢値用のフィルタの各時定数は、眼情報用のフィルタの各時定数よりそれぞれ小さい。即ち、眼の変化は車両姿勢値の変化よりゆっくりであると考えられるので、車両姿勢値に比べて、眼情報を長い時間をかけて平均をとるようにしている。
また、各時定数には、下記の関係(5)式も成立する。
(t01、t02)<(t21、t22)<(t11、t12) ・・(5)
つまり、停車状態には、車両姿勢値のフィルタ処理に用いるフィルタと眼情報のフィルタ処理に用いるフィルタとの各時定数を、定速走行状態及び加速状態の場合に比べて最も小さくして、最も早く更新を行う(即ち、最も早く処理する)。定速走行状態には、前記各時定数を停車状態の場合に比べて大きくして(例えば、やや大きくして)、時間をかけて(例えば、やや時間をかけて)処理する。加速状態には、前記各時定数を停車状態及び定速走行状態の場合に比べて最も大きくして、最も時間をかけて処理する。
つまり、停車状態には、車両姿勢値のフィルタ処理に用いるフィルタと眼情報のフィルタ処理に用いるフィルタとの各時定数を、定速走行状態及び加速状態の場合に比べて最も小さくして、最も早く更新を行う(即ち、最も早く処理する)。定速走行状態には、前記各時定数を停車状態の場合に比べて大きくして(例えば、やや大きくして)、時間をかけて(例えば、やや時間をかけて)処理する。加速状態には、前記各時定数を停車状態及び定速走行状態の場合に比べて最も大きくして、最も時間をかけて処理する。
このように、車両姿勢値のフィルタ処理に用いるフィルタの時定数を、停車状態の場合、定速走行状態の場合、加速状態の場合の順番に大きく設定する。しかも、眼情報のフィルタ処理に用いるフィルタの時定数も、停車状態の場合、定速走行状態の場合、加速状態の場合の順番に大きく設定する。
なお、移動平均フィルタではなく、周知のローパスフィルタ(即ち、LPF)を用いてもよい。この場合も、移動平均フィルタにて時定数を走行状態や処理対象に応じて変更したのと同様に、LPFの時定数も走行状態や処理対象に応じて変更して使用する。
眼情報取得部71は、ドライバの眼の位置を示す眼情報(即ち、眼の位置情報)を取得するように構成されている。この眼情報取得部71では、ドライバ検知部9からの信号に基づいて、眼の上下方向及び前後方向における位置を求めることができる。
なお、ドライバのアイポイントは、車両シートから見て、バネ、マス、ダンパの機械的特性を有しており、その周波数特性は、車両姿勢値の周波数特性とは異なる。そこで、本実施形態では、眼情報を示す信号は、上述したように、車両姿勢値を処理するフィルタの時定数とは異なり、且つ、走行状態に応じて設定される、時定数t02、t12、t22の各フィルタを用いて処理される。
表示位置補正部73は、姿勢値取得部65によって取得された車両姿勢値を示す信号をフィルタ処理部69で処理した車両姿勢値(即ち、処理後の車両姿勢値)と、特性取得部67によって取得された車両特性値Gと、眼情報取得部71によって取得された眼情報を示す信号をフィルタ処理部69で処理した眼情報(即ち、処理後の眼情報)と、に基づいて、ウィンドシールド21中の投影領域23にAR画像を風景と重ねて表示する際の表示位置を補正するように構成されている。
つまり、表示位置を補正する際には、走行状態に応じてフィルタ処理された車両姿勢値と車両特性値Gとに基づいて算出された補正量、従って車両ピッチ角θに応じた補正量(即ち、ピッチ補正量)に、更に、フィルタ処理された眼情報によって算出された補正量(即ち、眼補正量)を加味した値(即ち、総合補正量)が用いられる。
そして、この総合補正量に基づいて、情報生成部61にて生成された投影領域23におけるAR画像の投影位置(即ち、基準の投影位置)が補正される。
[1-3.制御処理]
次に、表示制御装置3にて実施される制御処理について、図6のフローチャートを用いて説明する。なお、本処理は、HUD装置19への給電が開始され表示可能な状態になると実行される。
次に、表示制御装置3にて実施される制御処理について、図6のフローチャートを用いて説明する。なお、本処理は、HUD装置19への給電が開始され表示可能な状態になると実行される。
<全体の処理>
図6に示すように、表示制御装置3は、ステップ(以下、S)100では、挙動検知部7の車速センサ31、加速度センサ33、出力トルクの検出用のセンサ類35からの信号を取得する。つまり、車速の状態や加速度の状態など車両2の走行状態(即ち、車両状態)を示す信号を取得する。
図6に示すように、表示制御装置3は、ステップ(以下、S)100では、挙動検知部7の車速センサ31、加速度センサ33、出力トルクの検出用のセンサ類35からの信号を取得する。つまり、車速の状態や加速度の状態など車両2の走行状態(即ち、車両状態)を示す信号を取得する。
続くS110では、ハイトセンサ37からの信号を取得する。詳しくは、サスペンションの変位量を示す車高検出値Hを示す信号(即ち、車両姿勢値を示す信号)を取得する。
続くS120では、ドライバ検知部9からの信号を取得する。つまり、ドライバの眼の位置情報(即ち、眼情報)を示す信号を取得する。
続くS130では、車両状態(即ち、走行状態)の判定を行う。つまり、上述したように、車速センサ31や加速度センサ33や出力トルクの検出用のセンサ類35からの信号に基づいて、車両2が停車状態か、加速状態か、定速走行状態(即ち、一定速走行状態)であるかを判定する。
なお、ここでは、加速状態として、正の加速度を有する場合だけでなく、負の加速度を有する場合(即ち、減速状態)も含むとする。
ここで、停車状態と判定されるとS140に進み、加速状態であると判定されるとS170に進み、定速走行状態であると判定されるとS200に進む。なお、その他の場合には、例えば前記S100に戻るようにしてもよい。
S140では、停車状態であるので、移動平均フィルタ(即ち、フィルタ)の時定数を上述したようにt01、t02としたフィルタを用意する。つまり、異なる時定数のフィルタを用意する。なお、t01<t02である。
続くS150では、時定数をt01としたフィルタを用いて、車両姿勢値を示す信号、詳しくはハイトセンサ37から得られる車高検出値Hを示す信号に対してフィルタ処理を行う。
続くS160では、時定数をt02としたフィルタを用いて、眼情報(即ち、眼の位置情報)を示す信号に対してフィルタ処理を行い、S230に進む。
一方、S170では、加速状態であるので、フィルタの時定数を上述したようにt11、t12としたフィルタを用意する。つまり、異なる時定数のフィルタを用意する。なお、t11<t12である。
続くS180では、時定数をt11としたフィルタを用いて、車両姿勢値を示す信号、詳しくはハイトセンサ37から得られる車高検出値Hを示す信号に対してフィルタ処理を行う。
続くS190では、時定数をt12としたフィルタを用いて、眼情報(即ち、眼の位置情報)を示す信号に対してフィルタ処理を行い、S230に進む。
一方、S200では、定速走行状態であるので、フィルタの時定数を上述したようにt21、t22としたフィルタを用意する。つまり、異なる時定数のフィルタを用意する。なお、t21<t22である。
続くS180では、時定数をt21としたフィルタを用いて、車両姿勢値を示す信号、詳しくはハイトセンサ37から得られる車高検出値Hを示す信号に対してフィルタ処理を行う。
続くS190では、時定数をt22としたフィルタを用いて、眼情報(即ち、眼の位置情報)を示す信号に対してフィルタ処理を行い、S230に進む。
なお、t01、t02、t11、t12、t21、t22は、上述した(5)式の関係を有する。
S230では、表示位置の補正量を算出する。なお、表示位置の補正量を算出する処理については、後述する図7のフローチャートにて詳細に説明する。
続くS240では、前記補正量を用いて、HUD装置19の表示位置を補正する。
つまり、情報生成部61で生成されたAR画像は、前記補正量によって投影位置が補正されて、HUD装置19に供給される。詳しくは、情報生成部61にて生成された投影領域23におけるAR画像の投影位置(即ち、基準の投影位置)が、補正量(即ち、総合補正量)によって補正され、その補正された投影位置に基づいて、AR画像の投影が行われる。
続くS250では、本処理を終了する終了条件が成立したか否かを判定し、ここで肯定判断されると一旦本処理を終了し、一方否定判断されると前記S100に戻る。なお、例えば、イグニションスイッチがオフされた場合、または、HUD装置19の作動を停止する指令が入力された場合に、終了条件が成立したと判定する。
<補正量の算出処理>
次に、前記S230で行われる表示位置の補正量の算出処理について、図7のフローチャートに基づいて、詳しく説明する。
次に、前記S230で行われる表示位置の補正量の算出処理について、図7のフローチャートに基づいて、詳しく説明する。
図7に示すように、S300では、特性記憶部17から車両特性値Gを取得する。
続くS310では、前記S150にてフィルタ処理されたハイトセンサ37の信号(即ち、車高検出値H)を取得する。
続く320では、地図記憶部11に記憶された地図情報に基づき、測位部13から取得される現在位置、すなわち自車2が走行中の道路の道路勾配を表す勾配情報ψを取得する。ここでの勾配情報ψは、縦断勾配を表す。
次に、S330では、前記S300で取得した車両特性値Gと、前記S310で取得した車高検出値H(即ち、フィルタ処理後の車高検出値H)と、前記S320で取得した勾配情報ψとに基づき、下記(6)式を用いて、水平面に対する車体の前後方向への傾斜角度である車両ピッチ角θを算出する。なお、G(H)は、車高検出値Hを用いて車両特性値Gから推定される車両ピッチ角である。Cは、実験的に決定される定数である。
θ=G(H)+C・ψ ・・(6)
続くS340では、前記S160でフィルタ処理されたドライバの眼位置を表す眼の位置情報(即ち、フィルタ処理後の眼情報)を取得する。眼の位置情報は、例えば、基準となる眼位置からのずれ量で表される。なお、この眼の位置のずれ量は、後述するように、例えば基準となる点(例えば、重畳対象物)からの眼の回転角等で表現することができる。
続くS340では、前記S160でフィルタ処理されたドライバの眼位置を表す眼の位置情報(即ち、フィルタ処理後の眼情報)を取得する。眼の位置情報は、例えば、基準となる眼位置からのずれ量で表される。なお、この眼の位置のずれ量は、後述するように、例えば基準となる点(例えば、重畳対象物)からの眼の回転角等で表現することができる。
続くS350では、前記S330で算出された車両ピッチ角度θと、前記S340で取得された眼の位置情報(例えば、回転角)と、AR画像が重畳される対象物(即ち、重畳対象物)の3次元位置とに基づいて、投影領域23でのAR画像の投影位置の補正量を算出する。
つまり、車両ピッチ角θに、眼の位置情報が示す眼の角度情報(即ち、眼の回転角)を加えて、眼の位置から対象物に到る直線上に、投影領域におけるAR画像が位置するように、例えばミラー47の回転角を補正する。
なお、眼の角度情報とは、眼の位置が上下や前後方向にずれることによって、眼の位置と対象物の位置との間の角度のずれを示す情報であり、眼の位置と対象物の位置とから求めることができる。
[1-4.補正量の算出の手順]
次に、前記図7にて実施されるAR画像の投影位置の補正量を算出する処理の概要を、図8を用いて説明する。
次に、前記図7にて実施されるAR画像の投影位置の補正量を算出する処理の概要を、図8を用いて説明する。
ここでは、説明の簡単化のため、勾配情報がψ=0°の場合について説明する。
車両2がピッチングを起こして車体が前傾した場合について説明する。ドライバの眼位置をEi、投影領域23をDi、虚像として結像される光が出射される位置、すなわちプロジェクタ43の位置をSiで表す。なお、i=0は、車両ピッチ角が0°の場合の位置、i=1は車両ピッチ角がθの場合の位置を示す。
HUD装置19の表示面(即ち、HUD表示面)であるウィンドシールド21の投影領域D0、光出射位置S0は、車両2がピッチングによって前傾すると、いずれも車両重心Jを回転の中心として角度θ(即ち車両ピッチ角θ)だけ回転した位置D0→D1、S0→S1に移動する。
なお、ドライバの眼位置E0は、車両2の前傾の位置を示し、ドライバの眼位置E1は、車両2が車両ピッチ角θで前傾した場合の位置を示している。
車両ピッチ角が0°の場合、すなわち眼位置がE0にある場合、対象物(即ち重畳対象物)Oに重畳されるAR画像は、眼位置E0と対象物Oとを接続する直線が、投影領域D0と交差する位置Paに投影される必要がある。
車両ピッチ角がθの場合に車両2のみを考慮したとき、すなわち車両2のみが傾斜して眼位置がE0にある場合、対象物Oに重畳されるAR画像は、眼位置E0と対象物Oとを接続する直線が、投影領域D1と交差する位置Pbに投影される必要がある。
つまり、投影領域D0における投影位置Paと比較して、投影領域D1における投影位置Pbは、上方にずれた位置となる。
更に、車両2が前傾したときに、実際の眼の位置が眼位置E1となった場合には、対象物Oに重畳されるAR画像は、投影領域D1上の位置Pcに投影される必要がある。
つまり、眼位置のずれが生じていない場合の投影位置Pbと比較して、眼位置のずれが生じている場合の投影位置Pcは、下方にずれる。
なお、図9に示すように、眼の位置は、ドライバ検知部9のカメラによって検知できるので、対象物の位置(例えば、水平位置)と眼の位置とのなす角度θ1、θ2を求めることができる。なお、θ1は回転前の角度、θ2は回転後の角度である。よって、眼がE0からE1に移動した場合の移動量(即ち、回転角)は、θ2-θ1によって求めることができる。
このように、車両ピッチ角θに応じた補正量、すなわちPaからPbへのずれ量と、眼位置のずれによって生じる補正量、すなわちPbからPcへのずれ量(即ち、θ2ーθ1)とを合計することで、AR画像の投影位置の補正量が算出される。
なお、ここでは、補正量について角度で表現したが、最終的には、LCDパネルにおける位置(例えば、上下方向の距離や画素数)、従って投影領域23における位置(例えば、上下方向の距離や画素数)を補正するので、補正量を、LCDパネル等の上下方向における位置や画素の位置の補正量で表現してもよい。
[1-5.車両特性値]
次に、特性記憶部17に記憶される車両特性値Gについて説明する。
次に、特性記憶部17に記憶される車両特性値Gについて説明する。
図10に示す簡易な2輪モデルを用いて、ハイトセンサ37の検出値と車両ピッチ角との関係を理論的に導出する。ここで、フロント輪から、車両2に加わる荷重の重心位置までの距離をa、フロント輪からリア輪までの距離をbとする。フロントサスペンションのバネ定数をKf、リアサスペンションのバネ定数をKr、フロントサスペンションの変位量をxf、リアサスペンションの変位量をxrとする。車両2に加わる荷重をF、この荷重による車体の傾き角である車両ピッチ角をθとする。
力の釣り合いから(7)式が得られ、フロントまわりのモーメントの釣り合いから(8)式が得られる。
(8)式をxrについて解くと(9)式が得られ、(9)式を(7)式に代入して整理すると(10)式が得られる。
このとき、車両ピッチ角θは、(11)式で表され、これをθについて解くことで(12)式が得られる。
つまり、ハイトセンサ37によってxfが得られれば、(10)式からFを求めることができ、そのFを用いて、(9)式からxrが算出される。同様に、ハイトセンサ37によってxrが得られれば、(9)式からFを求めることができ、そのFを用いて、(10)式からxfが算出される。
このようにして得られたxf、xrの値と(12)式を用いて、車両ピッチ角θを得ることができる。この関係から、ハイトセンサ37の検出値(即ち、xfまたはxr)、従って車高検出値Hと車両ピッチ角θとに対応関係があることがわかる。
[1-6.効果]
以上詳述した本実施形態によれば、以下の効果を奏する。
以上詳述した本実施形態によれば、以下の効果を奏する。
(1a)本実施形態では、車両2の走行状態に応じて、フィルタ処理部69で用いるフィルタの特性を設定し、その設定されたフィルタを用いてフィルタ処理された車両姿勢値(即ち、車高検出値H)と、特性取得部67によって取得された車両特性値Gと、に基づいて、ウィンドシールド21の投影領域23に、虚像として認識させるAR画像を風景に重ねて表示する際の表示位置を補正するように構成されている。
このような構成によれば、車両姿勢値と車両特性値とに基づいて、AR画像の表示位置の補正を行う場合には、車両姿勢値として、車両2の走行状態に応じて設定されたフィルタを用いてフィルタ処理された車両姿勢値を用いるので、AR画像を表示する際に、表示のチラツキの抑制と表示位置の素早い補正とを両立させることができる。
具体的には、車両2が加速状態にある場合には、車両2が停車状態や定速走行状態にある場合に比べて、時定数の大きなフィルタを採用するので、加速状態における表示のチラツキを低減できるとともに、停車状態等では、表示位置の素早い補正が可能となる。
なお、定速走行状態の場合に用いるフィルタの時定数は、加速状態と停車状態との中間の値であるので、表示のチラツキの低減と表示位置の素早い補正とを程よく両立することができる。
例えば、図11に例示するように、車速が増加すると車両ピッチ角θ(即ち、同図のピッチ角)は頻繁に変動し、ピッチ角の変動量も多くなる。そのため、表示位置が頻繁に変動し変動量も多くなるので、ドライバにはチラツキと感じる。
そこで、本実施形態では、車両2の走行状態において、車両姿勢値のフィルタ処理に用いるフィルタの特性(例えば、時定数)を変更するので、走行状態に応じた適切なフィルタ処理を実施することができる。このように、走行状態に応じた適切な特性のフィルタを採用することにより、表示のチラツキの低減と表示位置の素早い補正とを両立することができる。
(1b)さらに、本実施形態では、眼情報を処理する眼情報用のフィルタは、車両姿勢値に用いるフィルタとは異なる特性を有するように構成されている。
具体的には、眼情報をフィルタ処理するフィルタの時定数は、車両姿勢値をフィルタ処理するフィルタの時定数より大きく設定されている。そして、上述した表示位置の補正を行う場合には、この眼情報も加味して補正している。
このように、眼の変化に適した時定数が設定されたフィルタを用いることにより、表示のチラツキが一層抑制されるという利点がある。
[1-7.文言の対応関係]
本実施形態と本開示との関係において、表示制御装置3が表示制御装置に対応し、特性記憶部17が特性記憶部に対応し、投影領域23が表示部に対応し、ハイトセンサ37が変位量検出部に対応し、情報生成部61が情報生成部に対応し、走行状態取得部63が走行状態取得部に対応し、姿勢値取得部65が姿勢値取得部に対応し、特性取得部67が特性取得部に対応し、フィルタ処理部69がフィルタ処理部に対応し、眼情報取得部71が眼情報取得部に対応し、表示位置補正部73が表示位置補正部に対応する。
本実施形態と本開示との関係において、表示制御装置3が表示制御装置に対応し、特性記憶部17が特性記憶部に対応し、投影領域23が表示部に対応し、ハイトセンサ37が変位量検出部に対応し、情報生成部61が情報生成部に対応し、走行状態取得部63が走行状態取得部に対応し、姿勢値取得部65が姿勢値取得部に対応し、特性取得部67が特性取得部に対応し、フィルタ処理部69がフィルタ処理部に対応し、眼情報取得部71が眼情報取得部に対応し、表示位置補正部73が表示位置補正部に対応する。
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(2a)本開示では、車両の停車時または車両の定速走行時に用いるフィルタの時定数は、車両の加速時に用いるフィルタの時定数より小であるように構成されていてもよい。
(2b)本開示では、車両の停車時に用いるフィルタの時定数は、車両の定速走行時に用いるフィルタの時定数より小であるように構成されていてもよい。
(2c)本開示は、眼情報の処理に用いるフィルタの時定数は、車両姿勢値の処理に用いるフィルタの時定数より大であるように構成されていてもよい。
(2d)上記実施形態では、眼情報の処理に用いるフィルタの時定数を、車両姿勢値の処理に用いるフィルタの時定数より大としたが、同じ時定数のフィルタを用いてもよい。
(2e)また、車両姿勢値の処理に用いるフィルタの時定数のみを、走行状態に応じて変更してもよい。つまり、眼情報の処理に用いるフィルタとしては、限定はなく、例えば、走行状態に応じて変更しなくともよい。
(2f)本開示に記載の表示制御装置およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。
あるいは、本開示に記載の表示制御装置およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。
もしくは、本開示に記載の表示制御装置およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。
また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移的有形記録媒体に記憶されてもよい。表示制御装置に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(2g)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。
(2h)上述した表示制御装置の他、当該表示制御装置を構成要素とするシステム、当該表示制御装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的有形記録媒体、表示制御方法など、種々の形態で本開示を実現することもできる。
Claims (4)
- 車両(2)の運転席の前方に配置されて前記車両の前方の風景が視認可能な表示部(23)に対して、運転者に虚像として認識させる画像を前記風景に重ねて表示するために、前記画像と前記風景とを重ねて表示する表示位置を設定するように構成された情報生成部(61)と、
前記車両の走行状態を取得するように構成された走行状態取得部(63)と、
前記車両の姿勢を示す車両姿勢値を取得するように構成された姿勢値取得部(65)と、
前記車両の特性を示す車両特性値を、当該車両特性値を記憶した特性記憶部(17)から取得するように構成された特性取得部(67)と、
前記姿勢値取得部によって取得された前記車両姿勢値を、フィルタを用いてフィルタ処理するように構成されたフィルタ処理部(69)と、
前記フィルタ処理部で処理された前記車両姿勢値と、前記特性取得部によって取得された前記車両特性値と、に基づいて、前記画像と前記風景とを重ねて表示する前記表示位置を補正する補正量を算出し、当該補正量に基づいて前記表示位置を補正するように構成された表示位置補正部(73)と、
を備え、
前記フィルタ処理部は、前記走行状態取得部によって取得された前記車両の走行状態に応じて、前記フィルタの特性を設定し、当該設定されたフィルタを用いて前記フィルタ処理を行うように構成された、
表示制御装置。 - 請求項1に記載の表示制御装置であって、
前記運転者の眼の位置を示す眼情報を取得するように構成された眼情報取得部(71)
を備え、
前記眼情報を処理する眼情報用のフィルタは、前記車両姿勢値のフィルタ処理に用いる前記フィルタとは異なる特性を有するように構成されており、
前記眼情報用のフィルタによって処理された前記眼情報に基づいて、前記表示位置を補正するように構成された、
表示制御装置。 - 請求項1または請求項2に記載の表示制御装置であって、
前記走行状態取得部は、前記車両の速度又はタイヤ出力に基づいて、前記車両の走行状態を取得するように構成された、
表示制御装置。 - 請求項1から請求項3のいずれか1項に記載の表示制御装置であって、
前記姿勢値取得部は、前記車両の前部及び後部の少なくとも1箇所に配置されて、車高の変化量を検出する変化量検出部(37)からの信号に基づいて、前記車両姿勢値を取得するように構成された、
表示制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/734,969 US12051345B2 (en) | 2019-11-11 | 2022-05-02 | Vehicular display control device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203975A JP7120982B2 (ja) | 2019-11-11 | 2019-11-11 | 表示制御装置 |
JP2019-203975 | 2019-11-11 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/734,969 Continuation US12051345B2 (en) | 2019-11-11 | 2022-05-02 | Vehicular display control device |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021095590A1 true WO2021095590A1 (ja) | 2021-05-20 |
Family
ID=75898740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/041081 WO2021095590A1 (ja) | 2019-11-11 | 2020-11-02 | 表示制御装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12051345B2 (ja) |
JP (1) | JP7120982B2 (ja) |
WO (1) | WO2021095590A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7120982B2 (ja) * | 2019-11-11 | 2022-08-17 | 株式会社Soken | 表示制御装置 |
JP7534181B2 (ja) * | 2020-10-13 | 2024-08-14 | 株式会社Subaru | 車両の表示装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150212106A1 (en) * | 2014-01-27 | 2015-07-30 | Nissan North America, Inc. | Vehicle orientation indicator |
JP2019090615A (ja) * | 2017-11-10 | 2019-06-13 | 株式会社Soken | 姿勢検出装置、及び姿勢検出プログラム |
JP2019164318A (ja) * | 2018-03-20 | 2019-09-26 | パナソニックIpマネジメント株式会社 | 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010070066A (ja) * | 2008-09-18 | 2010-04-02 | Toshiba Corp | ヘッドアップディスプレイ |
DE102012001951A1 (de) * | 2012-02-02 | 2013-08-08 | Daimler Ag | Anzeigevorrichtung für ein Fahrzeug und Verfahren zum Betreiben einer Anzeigevorrichtung |
WO2017134865A1 (ja) * | 2016-02-05 | 2017-08-10 | 日立マクセル株式会社 | ヘッドアップディスプレイ装置 |
CN109643021B (zh) | 2016-08-29 | 2024-05-07 | 麦克赛尔株式会社 | 平视显示装置 |
US20180101010A1 (en) * | 2016-10-07 | 2018-04-12 | Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America | Head up display with improved image stability |
WO2019057496A1 (de) * | 2017-09-25 | 2019-03-28 | Continental Automotive Gmbh | Head-up-display |
JP6744374B2 (ja) * | 2018-09-27 | 2020-08-19 | 本田技研工業株式会社 | 表示装置、表示制御方法、およびプログラム |
UA120581C2 (uk) * | 2019-03-15 | 2019-12-26 | Апостера Гмбх | Пристрій компенсації трясіння для систем доповненої реальності в автомобілі (варіанти) і спосіб компенсації трясіння (варіанти) |
JP7063856B2 (ja) | 2019-07-30 | 2022-05-09 | 株式会社Soken | 表示制御装置 |
JP7057327B2 (ja) | 2019-07-30 | 2022-04-19 | 株式会社Soken | 表示制御装置 |
JP7120982B2 (ja) * | 2019-11-11 | 2022-08-17 | 株式会社Soken | 表示制御装置 |
-
2019
- 2019-11-11 JP JP2019203975A patent/JP7120982B2/ja active Active
-
2020
- 2020-11-02 WO PCT/JP2020/041081 patent/WO2021095590A1/ja active Application Filing
-
2022
- 2022-05-02 US US17/734,969 patent/US12051345B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150212106A1 (en) * | 2014-01-27 | 2015-07-30 | Nissan North America, Inc. | Vehicle orientation indicator |
JP2019090615A (ja) * | 2017-11-10 | 2019-06-13 | 株式会社Soken | 姿勢検出装置、及び姿勢検出プログラム |
JP2019164318A (ja) * | 2018-03-20 | 2019-09-26 | パナソニックIpマネジメント株式会社 | 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体 |
Also Published As
Publication number | Publication date |
---|---|
US12051345B2 (en) | 2024-07-30 |
JP7120982B2 (ja) | 2022-08-17 |
US20220270527A1 (en) | 2022-08-25 |
JP2021075174A (ja) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11506906B2 (en) | Head-up display system | |
WO2021020145A1 (ja) | 表示制御装置 | |
WO2018193708A1 (ja) | ヘッドアップディスプレイ装置およびその表示制御方法 | |
US11247565B2 (en) | Virtual image display device | |
US12051345B2 (en) | Vehicular display control device | |
WO2018207566A1 (ja) | 表示装置及び表示制御方法 | |
WO2021020385A1 (ja) | 表示制御装置 | |
JP6724886B2 (ja) | 虚像表示装置 | |
EP3694740A1 (en) | Display device, program, image processing method, display system, and moving body | |
US11945309B2 (en) | Display system | |
CN112987053A (zh) | 监测偏航传感器的方法和设备 | |
US20220028307A1 (en) | Gradient change detection system, display system using same, and storage medium that stores program for moving body | |
WO2021044741A1 (ja) | 表示制御装置、表示制御プログラム及びヘッドアップディスプレイ | |
JP2021030917A (ja) | 表示装置 | |
US11945310B2 (en) | Display system | |
US11875760B2 (en) | Display system | |
JP6891863B2 (ja) | 表示制御装置および表示制御プログラム | |
JP6496588B2 (ja) | 車両挙動制御装置 | |
WO2019074114A1 (en) | DISPLAY DEVICE, PROGRAM, IMAGE PROCESSING METHOD, DISPLAY SYSTEM, AND MOBILE BODY | |
JP6692981B1 (ja) | 表示装置及び表示方法 | |
JP2024129185A (ja) | 車両の情報表示方法および装置 | |
Günthner | Active Vision for Assistance Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20886889 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20886889 Country of ref document: EP Kind code of ref document: A1 |