WO2022030270A1 - 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法 - Google Patents

車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法 Download PDF

Info

Publication number
WO2022030270A1
WO2022030270A1 PCT/JP2021/027429 JP2021027429W WO2022030270A1 WO 2022030270 A1 WO2022030270 A1 WO 2022030270A1 JP 2021027429 W JP2021027429 W JP 2021027429W WO 2022030270 A1 WO2022030270 A1 WO 2022030270A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
peripheral
display control
image
display
Prior art date
Application number
PCT/JP2021/027429
Other languages
English (en)
French (fr)
Inventor
祐輔 三宅
竜也 奥野
敏治 白土
しおり 間根山
兼靖 小出
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2022030270A1 publication Critical patent/WO2022030270A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to a vehicle display control device, a vehicle display control system, and a vehicle display control method.
  • Patent Document 1 in a vehicle having an automatic driving function, a bird's-eye view display including an own vehicle icon and another vehicle icon corresponding to an actual relative positional relationship between the own vehicle and another vehicle is generated.
  • a technique for displaying on a display screen provided in a vehicle interior is disclosed.
  • Patent Document 1 discloses that the own vehicle icon is projected in the center of the bird's-eye view display. Further, Patent Document 1 discloses that the generation of the bird's-eye view display is repeatedly performed.
  • One purpose of this disclosure is a vehicle display control device that makes it possible to show the positional relationship between the own vehicle and surrounding vehicles more accurately as necessary, while making it less annoying to the user. It is an object of the present invention to provide a display control system for a vehicle and a display control method for a vehicle.
  • the vehicle display control device of the present disclosure is used in a vehicle, and a positional relationship acquisition unit that acquires a positional relationship between the vehicle and a vehicle around the vehicle and a vehicle that is acquired by the positional relationship acquisition unit.
  • a bird's-eye view showing the positional relationship between the vehicle and the peripheral vehicle is used in the passenger compartment of the vehicle by using an image of at least the peripheral vehicle among the vehicle and the peripheral vehicle viewed from a virtual viewpoint above the vehicle.
  • the display control unit is provided with a display control unit to be displayed on the display, and the display control unit reduces the frequency of updating the display position of the image of the peripheral vehicle in the bird's-eye view according to a predetermined condition regarding at least one of the vehicle and the peripheral vehicle.
  • the vehicle display control method of the present disclosure is a vehicle display control method used in a vehicle, and is a positional relationship between the vehicle and vehicles around the vehicle, which is executed by at least one processor.
  • the display control step includes, in accordance with a predetermined condition regarding at least one of the vehicle and peripheral vehicles. Reduce the frequency of updating the display position of images of surrounding vehicles in the bird's-eye view.
  • the bird's-eye view showing the positional relationship between the vehicle and the surrounding vehicles is displayed, it is possible to show the positional relationship between the own vehicle and the surrounding vehicles in the bird's-eye view display.
  • the display position of the image of the surrounding vehicle with respect to the own vehicle may change one by one. However, depending on the conditions relating to at least one of the vehicle and the peripheral vehicle, it may be less necessary to accurately indicate the display position of the image of the peripheral vehicle with respect to the own vehicle.
  • the update frequency of the display position of the image of the peripheral vehicle in the bird's-eye view is lowered according to a predetermined condition regarding at least one of the vehicle and the peripheral vehicle, the image of the peripheral vehicle that does not need to be accurately shown is not necessary.
  • the display position it is possible to reduce the annoyance caused by the fine movement of the display position. As a result, it is possible to show the positional relationship between the own vehicle and the surrounding vehicles more accurately as necessary, and to make the user less annoyed.
  • the vehicle display control system of the present disclosure includes a display used in a vehicle and used in the vehicle interior of the vehicle, and the above-mentioned vehicle display control device.
  • the vehicle system 1 shown in FIG. 1 is used in a vehicle capable of automatic driving (hereinafter referred to as an automatic driving vehicle).
  • the vehicle system 1 includes an HCU (Human Machine Interface Control Unit) 10, a communication module 20, a locator 30, a map database (hereinafter, map DB) 40, a vehicle status sensor 50, and a peripheral monitoring sensor 60.
  • HCU Human Machine Interface Control Unit
  • map DB map database
  • vehicle status sensor 50 a vehicle status sensor 50
  • peripheral monitoring sensor 60 a vehicle status sensor
  • This vehicle system 1 corresponds to a vehicle display control system.
  • the vehicle using the vehicle system 1 is not necessarily limited to an automobile, but the case where the system 1 is used for an automobile will be described below as an example.
  • the automation level As the degree of automatic driving of an autonomous vehicle (hereinafter referred to as the automation level), there may be a plurality of levels as defined by SAE, for example.
  • the automation level is divided into levels 0 to 5 as follows, for example.
  • Level 0 is the level at which the driver performs all driving tasks without the intervention of the system.
  • the driving task may be paraphrased as a dynamic driving task.
  • Driving tasks are, for example, steering, acceleration / deceleration, and peripheral monitoring.
  • Level 0 corresponds to so-called manual operation.
  • Level 1 is the level at which the system supports either steering or acceleration / deceleration.
  • Level 1 corresponds to so-called driving support.
  • Level 2 is the level at which the system supports both steering and acceleration / deceleration. Level 2 corresponds to so-called partial operation automation. Levels 1 and 2 shall also be part of autonomous driving.
  • level 1 and 2 automatic driving is automatic driving in which the driver has a monitoring obligation related to safe driving (hereinafter, simply monitoring obligation). Obligation to monitor is to visually monitor the surrounding area.
  • Levels 1 and 2 automatic driving can be rephrased as automatic driving in which the second task is not permitted.
  • the second task is an act other than driving permitted to the driver, and is a predetermined specific act.
  • the second task can also be rephrased as a secondary activity, another activity, and the like.
  • the second task must not prevent the driver from responding to the request to take over the driving operation from the autonomous driving system. As an example, viewing of contents such as videos, operation of smartphones, reading, eating, etc. are assumed as second tasks.
  • Level 3 is a level at which the system can perform all driving tasks in a specific place such as a highway, and the driver performs driving operations in an emergency. At level 3, the driver is required to be able to respond promptly when there is a request for a driver change from the system. Level 3 corresponds to so-called conditional operation automation. Level 4 is a level at which the system can perform all driving tasks except under specific circumstances such as unresponsive roads and extreme environments. Level 4 corresponds to so-called advanced driving automation. Level 5 is the level at which the system can perform all driving tasks in any environment. Level 5 corresponds to so-called complete operation automation.
  • level 3 to 5 automatic driving is automatic driving where the driver is not obliged to monitor.
  • Levels 3 to 5 autonomous driving can be rephrased as autonomous driving in which a second task is permitted.
  • the autonomous driving vehicle according to the first embodiment may be an autonomous driving vehicle in which the automation level cannot be switched, or may be an autonomous driving vehicle in which the automation level can be switched.
  • the automation level may be configured to be switchable only between some of the levels 0 to 5.
  • the communication module 20 transmits / receives information to / from another vehicle via wireless communication. That is, vehicle-to-vehicle communication is performed.
  • the communication module 20 may transmit and receive information via wireless communication with the roadside unit installed on the roadside. That is, road-to-vehicle communication may be performed.
  • the communication module 20 may receive information on the peripheral vehicle transmitted from the peripheral vehicle of the own vehicle via the roadside unit.
  • the communication module 20 may send and receive information to and from a center outside the own vehicle via wireless communication. That is, wide area communication may be performed.
  • the communication module 20 may receive information on the peripheral vehicle transmitted from the peripheral vehicle of the own vehicle via the center.
  • the locator 30 is equipped with a GNSS (Global Navigation Satellite System) receiver and an inertial sensor.
  • the GNSS receiver receives positioning signals from a plurality of positioning satellites.
  • the inertial sensor includes, for example, a gyro sensor and an acceleration sensor.
  • the locator 30 sequentially positions the vehicle position (hereinafter referred to as the own vehicle position) and the traveling direction of the own vehicle equipped with the locator 30 by combining the positioning signal received by the GNSS receiver and the measurement result of the inertial sensor.
  • the position of the own vehicle shall be represented by, for example, the coordinates of latitude and longitude.
  • the mileage obtained from the signals sequentially output from the vehicle speed sensor mounted on the vehicle may also be used.
  • the map DB 40 is a non-volatile memory and stores map data such as link data, node data, road shape, and structures.
  • the map data may be a three-dimensional map composed of point clouds of road shapes and feature points of structures.
  • the locator 30 may be configured not to use a GNSS receiver.
  • the locator 30 uses this three-dimensional map and a peripheral monitoring sensor 60 such as a lidar (Light Detection and Ringing / Laser Imaging Detection and Ringing) or a peripheral monitoring camera that detects a point cloud of feature points of a road shape and a structure. It may be configured to specify the position of the own vehicle by using the detection result of.
  • the three-dimensional map may be generated based on the captured image by REM (Road Experience Management).
  • the communication module 20 may receive the map data distributed from the external server by, for example, wide area communication and store it in the map DB 40.
  • the map DB 40 may be used as a volatile memory, and the communication module 20 may be configured to sequentially acquire map data of an area corresponding to the position of the own vehicle.
  • the vehicle state sensor 50 is a group of sensors for detecting various states of the own vehicle.
  • the vehicle state sensor 50 includes a vehicle speed sensor that detects a vehicle speed, a steering sensor that detects a steering angle, and the like.
  • the vehicle state sensor 50 outputs the detected sensing information to the in-vehicle LAN.
  • the sensing information detected by the vehicle state sensor 50 may be output to the in-vehicle LAN via the ECU mounted on the own vehicle.
  • the peripheral monitoring sensor 60 monitors the surrounding environment of the own vehicle.
  • the peripheral monitoring sensor 60 detects obstacles around the own vehicle such as moving objects such as pedestrians and other vehicles, and stationary objects such as falling objects on the road. In addition, it detects road markings such as driving lane markings around the vehicle.
  • the peripheral monitoring sensor 60 is, for example, a peripheral monitoring camera that captures a predetermined range around the own vehicle, a millimeter wave radar that transmits an exploration wave to a predetermined range around the own vehicle, a sonar, a sensor such as LIDAR.
  • the peripheral monitoring camera sequentially outputs the captured images to be sequentially captured as sensing information to the automatic driving ECU 80.
  • Sensors that transmit exploration waves such as sonar, millimeter-wave radar, and LIDAR sequentially output scanning results based on the received signal obtained when the reflected wave reflected by an obstacle is received to the automatic operation ECU 80 as sensing information.
  • the sensing information detected by the peripheral monitoring sensor 60 may be output to the in-vehicle LAN via the automatic driving ECU 80.
  • the vehicle control ECU 70 is an electronic control device that controls the running of the own vehicle. Examples of the traveling control include acceleration / deceleration control and / or steering control.
  • the vehicle control ECU 70 includes a steering ECU that performs steering control, a power unit control ECU that performs acceleration / deceleration control, a brake ECU, and the like.
  • the vehicle control ECU 70 performs driving control by outputting control signals to each traveling control device such as an electronically controlled throttle, a brake actuator, and an EPS (Electric Power Steering) motor mounted on the own vehicle.
  • EPS Electronic Power Steering
  • the automatic operation ECU 80 includes, for example, a processor, a memory, an I / O, and a bus connecting these, and executes a process related to automatic operation by executing a control program stored in the memory.
  • the memory referred to here is a non-transitory tangible storage medium that stores programs and data that can be read by a computer non-temporarily. Further, the non-transitional substantive storage medium is realized by a semiconductor memory, a magnetic disk, or the like.
  • the automatic operation ECU 80 includes a first automatic operation ECU 81 and a second automatic operation ECU 82.
  • the following description will be made assuming that the first automatic operation ECU 81 and the second automatic operation ECU 82 each include a processor, a memory, an I / O, and a bus connecting them. It should be noted that a common processor may be configured to carry out the functions of the first automatic operation ECU 81 and the second automatic operation ECU 82 by the virtualization technology.
  • the first automatic operation ECU 81 is responsible for the above-mentioned automatic operation function of level 2 or lower. In other words, the first automatic operation ECU 81 enables automatic operation for which monitoring is obligatory.
  • the first automatic driving ECU 81 can execute at least one of vertical control and horizontal control of the own vehicle.
  • the vertical direction is a direction that coincides with the front-rear direction of the own vehicle.
  • the lateral direction is a direction that coincides with the width direction of the own vehicle.
  • the first automatic driving ECU 81 executes acceleration / deceleration control of the own vehicle as vertical control.
  • the first automatic driving ECU 81 executes steering control of the own vehicle as lateral control.
  • the first automatic operation ECU 81 includes a first environment recognition unit, an ACC control unit, an LTA control unit, and the like as functional blocks.
  • the first environment recognition unit recognizes the driving environment around the own vehicle based on the sensing information acquired from the peripheral monitoring sensor 60 and the information of the peripheral vehicle of the own vehicle received by the communication module 20.
  • the first environment recognition unit recognizes the detailed position of the own vehicle in the own lane from information such as the left and right lane markings of the own lane (hereinafter referred to as the own lane).
  • the first environment recognition unit may also recognize the position of the peripheral vehicle with respect to the own vehicle, the traveling direction of the peripheral vehicle, the relative speed of the peripheral vehicle with respect to the own vehicle, the speed of the peripheral vehicle, the acceleration of the peripheral vehicle, and the like.
  • the traveling direction of the peripheral vehicle may be recognized, for example, from the time-series change in the position of the peripheral vehicle with respect to the own vehicle.
  • the traveling direction of the peripheral vehicle can be rephrased as the direction of the peripheral vehicle.
  • the speed of the peripheral vehicle may be recognized from, for example, the vehicle speed of the own vehicle and the relative speed of the peripheral vehicle.
  • the speed of the peripheral vehicle may be recognized from the received information when the speed of the peripheral vehicle can be received by the communication module 20 as the information of the peripheral vehicle.
  • the acceleration of the surrounding vehicle for example, the front-rear acceleration and the left-right acceleration may be recognized.
  • the front-rear acceleration may be recognized, for example, based on the change in the speed of a peripheral vehicle per unit time.
  • the left-right acceleration may be recognized, for example, based on the change in the position of the surrounding vehicle per unit time.
  • the acceleration of the peripheral vehicle may be recognized from the received information when the acceleration of the peripheral vehicle can be received by the communication module 20 as the information of the peripheral vehicle.
  • the first environment recognition unit may also recognize the lighting state of the blinker lamps of surrounding vehicles.
  • the lighting state of the winker lamp of the peripheral vehicle may be recognized, for example, by image recognition processing for the captured image of the peripheral vehicle.
  • the first environment recognition unit may have the same configuration as the second environment recognition unit described later.
  • the ACC control unit executes ACC (Adaptive Cruise Control) control that realizes constant speed running of the own vehicle or follow-up running of the preceding vehicle at the target speed.
  • the ACC control unit may execute the ACC control using the position and speed of the vehicle around the own vehicle recognized by the first environment recognition unit.
  • the ACC control unit may execute the ACC control by causing the vehicle control ECU 70 to perform acceleration / deceleration control.
  • the LTA control unit executes LTA (Lane Tracing Assist) control for maintaining the vehicle running in the lane.
  • the LTA control unit may execute the LTA control using the detailed position of the own vehicle in the traveling lane recognized by the first environment recognition unit.
  • the LTA control unit may execute the LTA control by causing the vehicle control ECU 70 to perform steering control.
  • the ACC control is an example of vertical control.
  • LTA control is an example of lateral control.
  • the first automatic operation ECU 81 realizes level 2 automatic operation by executing both ACC control and LTA control.
  • the first automatic operation ECU 81 may realize level 1 automatic operation by executing either ACC control or LTA control.
  • the second automatic operation ECU 82 has the above-mentioned automatic operation function of level 3 or higher. In other words, the second automatic operation ECU 82 enables automatic operation without monitoring obligation.
  • the second automatic operation ECU 82 includes a second environment recognition unit, an action determination unit, a trajectory generation unit, and the like as functional blocks.
  • the second environment recognition unit is based on the sensing information acquired from the peripheral monitoring sensor 60, the position of the own vehicle acquired from the locator 30, the map data acquired from the map DB 40, the information of other vehicles acquired by the communication module 20, and the like. Recognize the driving environment around the car. As an example, the second environment recognition unit uses this information to generate a virtual space that reproduces the actual driving environment. In the second environment recognition unit, as in the first environment recognition unit, the position of the peripheral vehicle with respect to the own vehicle, the traveling direction of the peripheral vehicle, the relative speed of the peripheral vehicle with respect to the own vehicle, the speed of the peripheral vehicle, and the acceleration of the peripheral vehicle. Etc. should be recognized.
  • the second environment recognition unit may be configured to utilize the recognition result of the first environment recognition unit. Further, the second environment recognition unit may recognize the detailed position of the peripheral vehicle in each lane from, for example, information such as the left and right lane markings of the own lane and the surrounding lane and the position of the peripheral vehicle with respect to the own vehicle.
  • the second environment recognition unit determines the manual driving area (hereinafter referred to as MD area) in the driving area of the own vehicle.
  • the second environment recognition unit determines the automatic driving area (hereinafter referred to as AD area) in the traveling area of the own vehicle.
  • the second environment recognition unit determines the ST section in the AD area.
  • the second environment recognition unit determines the non-ST section in the AD area.
  • the MD area is an area where automatic driving is prohibited.
  • the MD area is an area defined by the driver to perform all of the vertical control, horizontal control, and peripheral monitoring of the own vehicle.
  • the MD area may be a general road.
  • the AD area is an area where automatic driving is permitted.
  • the AD area is an area defined in which the vehicle can substitute one or more of the vertical control, the horizontal control, and the peripheral monitoring.
  • the AD area may be a highway or a motorway.
  • the AD area is divided into a non-ST section where automatic operation of level 2 or lower is possible and an ST section where automatic operation of level 3 or higher is possible.
  • the non-ST section where the level 1 automatic operation is permitted and the non-ST section where the level 2 automatic operation is permitted are not separately classified.
  • the ST section may be, for example, a traveling section in which traffic congestion occurs (hereinafter referred to as a traffic jam section). Further, the ST section may be, for example, a traveling section in which a high-precision map is prepared.
  • the non-ST section may be a section that does not correspond to the ST section.
  • the action judgment unit determines the planned action (hereinafter referred to as future action) for the own vehicle based on the recognition result of the driving environment in the second environment recognition unit.
  • the action judgment unit judges future actions for driving the own vehicle by automatic driving.
  • the action judgment unit may determine the type of behavior that the vehicle should take in order to reach the destination as a future action. Examples of this type include going straight, turning right, turning left, and changing lanes.
  • the action judgment unit determines that the transfer of the driving control right to the driver (that is, the driving change) is necessary, the action judgment unit generates a driving change request and provides it to the HCU 10.
  • the behavior judgment unit determines that the transfer of the driving control right to the driver (that is, the driving change) is necessary
  • the action judgment unit generates a driving change request and provides it to the HCU 10.
  • the case where it is necessary to transfer the driving control right to the driver there is a case where the own vehicle moves from the AD area to the MD area.
  • a problem occurs in the recognition of the driving environment by the second environment recognition unit due to sensor lost, communication failure, or the like.
  • the track generation unit generates a driving track of the own vehicle in a section where automatic driving can be executed, based on the recognition result of the driving environment in the second environment recognition unit and the future action determined by the action judgment unit.
  • the traveling track includes, for example, a target position of the own vehicle according to the progress, a target speed at each target position, and the like.
  • the track generation unit sequentially provides the generated travel track to the vehicle control ECU 70 as a control command to be followed by the own vehicle in automatic driving.
  • the automatic driving system including the above automatic driving ECU 80 enables automatic driving of level 2 or lower and level 3 or higher in the own vehicle.
  • the automatic driving ECU 80 may be configured to switch the automation level of the automatic driving of the own vehicle as needed.
  • the automatic driving of level 3 or higher may be switched to the automatic driving of level 2 or lower.
  • the automatic operation ECU 80 may be configured to generate a peripheral monitoring request and provide it to the HCU 10 when switching from the automatic operation without the monitoring obligation to the automatic operation with the monitoring obligation.
  • the display device 90 is a display device provided in the own vehicle.
  • the display 90 is provided in the vehicle interior of the own vehicle so that the display surface faces.
  • the display 90 is provided so that the display surface is located in front of the driver's seat of the own vehicle.
  • various displays such as a liquid crystal display, an organic EL display, and a head-up display (hereinafter, HUD) can be used.
  • the HCU 10 is mainly composed of a computer equipped with a processor, a volatile memory, a non-volatile memory, an I / O, and a bus connecting these, and is connected to the display 90 and the in-vehicle LAN.
  • the HCU 10 controls the display on the display 90 by executing a control program stored in the non-volatile memory.
  • This HCU 10 corresponds to a vehicle display control device. The configuration of the HCU 10 regarding the control of the display on the display 90 will be described in detail below.
  • the HCU 10 has an information acquisition unit 101, a distance identification unit 102, a lane change identification unit 103, a deviation identification unit 104, and a display control unit 105 as functional blocks for controlling the display on the display 90. Be prepared. Further, the execution of the processing of each functional block of the HCU 10 by the computer corresponds to the execution of the display control method for the vehicle. In addition, a part or all of the functions executed by the HCU 10 may be configured in terms of hardware by one or a plurality of ICs or the like. Further, a part or all of the functional blocks included in the HCU 10 may be realized by a combination of software execution by a processor and hardware members.
  • the information acquisition unit 101 acquires information input from the outside of the HCU 10.
  • the information acquisition unit 101 acquires, for example, the recognition result of the driving environment recognized by the automatic driving ECU 80.
  • the information acquisition unit 101 includes a positional relationship acquisition unit 111 as a sub-functional block.
  • the positional relationship acquisition unit 111 acquires the positional relationship between the own vehicle and surrounding vehicles.
  • the process in the positional relationship acquisition unit 111 corresponds to the positional relationship acquisition process.
  • the positional relationship acquisition unit 111 may acquire, for example, the position of the peripheral vehicle with respect to the own vehicle recognized by the automatic driving ECU 80 as the positional relationship between the own vehicle and the peripheral vehicle.
  • the positional relationship acquisition unit also acquires the positional relationship of surrounding vehicles with respect to the lane.
  • the positional relationship acquisition unit 111 may acquire, for example, the detailed position of the peripheral vehicle in each lane recognized by the automatic driving ECU 80 as the positional relationship of the peripheral vehicle with respect to the lane.
  • the distance specifying unit 102 specifies the distance between the own vehicle and the peripheral vehicle for each peripheral vehicle.
  • the distance specifying unit 102 may specify the distance between the own vehicle and the peripheral vehicle from the positional relationship between the own vehicle and the peripheral vehicle acquired by the positional relationship acquisition unit 111.
  • the distance specifying unit 102 may specify the linear distance between the own vehicle and the peripheral vehicle as the distance between the own vehicle and the peripheral vehicle.
  • the distance specifying unit 102 may specify the linear distance between the own vehicle and the peripheral vehicle by calculating the linear distance between the position coordinates of the own vehicle and the position coordinates of the peripheral vehicle.
  • the distance specifying unit 102 may specify the distance between the own vehicle and the peripheral vehicle in the front-rear direction of the own vehicle as the distance between the own vehicle and the peripheral vehicle.
  • the lane change specifying unit 103 specifies that the lane change of surrounding vehicles is performed. As an example, the lane change specifying unit 103 may specify that the lane change is performed for the peripheral vehicle that has recognized the lighting of the turn signal lamp by the automatic driving ECU 80. In addition, the lane change specifying unit 103 may specify that the lane change is performed for peripheral vehicles whose left-right acceleration recognized by the automatic driving ECU 80 is equal to or greater than the threshold value.
  • the threshold value referred to here may be a value that distinguishes whether or not the acceleration is left-right acceleration that is presumed to cause a lane change.
  • the deviation specifying unit 104 identifies the deviation of the lateral position of the peripheral vehicle with respect to the center of the lane in which the peripheral vehicle travels.
  • the deviation specifying unit 104 may specify the deviation of the lateral position of the peripheral vehicle with respect to the center of the lane in which the peripheral vehicle travels by using the detailed position of the peripheral vehicle in each lane recognized by the automatic driving ECU 80. ..
  • the horizontal position can be rephrased as a position in the width direction of the road.
  • the display control unit 105 controls the display on the display 90.
  • the process in the display control unit 105 corresponds to the display control process.
  • the display control unit 105 uses the positional relationship between the own vehicle and the peripheral vehicle acquired by the positional relationship acquisition unit 111 to show the positional relationship between the own vehicle and the peripheral vehicle as seen from a virtual viewpoint above the own vehicle.
  • the bird's-eye view is displayed on the display 90.
  • This virtual viewpoint may be directly above the own vehicle or may be located at a position deviated from directly above the own vehicle. For example, it may be a bird's-eye view seen from a virtual viewpoint above and behind the own vehicle.
  • the bird's-eye view may include an image showing a dividing line between the own lane and the surrounding lane and an image showing the own vehicle and the surrounding vehicle.
  • the bird's-eye view may not include the image of the own vehicle (hereinafter referred to as the own vehicle image).
  • the own vehicle image For example, in a bird's-eye view showing a situation in front of the own vehicle, assuming that the front end of the own vehicle is located at the lower end of the bird's-eye view, an image of a peripheral vehicle among the own vehicle and a peripheral vehicle (hereinafter, peripheral vehicle image). ) Is shown as an example.
  • the bird's-eye view will be described by taking as an example an image showing a lane marking between the own lane and the surrounding lane.
  • the display control unit 105 shall fix the display position of the own vehicle image in the bird's-eye view. Further, the display control unit 105 also fixes the orientation of the own vehicle image in the bird's-eye view. Therefore, the display position and orientation in the bird's-eye view are updated only in the peripheral vehicle image of the own vehicle image and the peripheral vehicle image.
  • the orientation of the own vehicle image indicates the orientation of the own vehicle shown in the image.
  • the display control unit 105 displays a bird's-eye view that imitates the actual positional relationship between the own vehicle and the surrounding vehicles by converting the coordinates indicating the positions of the surrounding vehicles with respect to the own vehicle into the coordinates in the bird's-eye view. Just let me do it.
  • the image showing the lane marking between the own lane and the surrounding lane may be an image that does not imitate the degree of curvature of the actual lane marking, or may be an image that imitates the degree of curvature of the actual lane marking.
  • the image showing the lane marking between the own lane and the surrounding lane is an image simulating the degree of curvature of the actual lane marking.
  • FIG. 3 shows an example of displaying a bird's-eye view seen from a virtual viewpoint above and behind the own vehicle.
  • Sc in FIG. 3 shows the display screen of the display 90.
  • the HVI in FIG. 3 shows an image of the own vehicle.
  • OVIa, OVIb, and OVIc in FIG. 3 show images of peripheral vehicles.
  • Peripheral vehicle image The peripheral vehicle indicated by OVIa is hereinafter referred to as peripheral vehicle OVa.
  • the peripheral vehicle indicated by OVIb is hereinafter referred to as peripheral vehicle OVb.
  • Peripheral vehicle image The peripheral vehicle indicated by OVIc will be referred to as peripheral vehicle OVc hereafter.
  • the peripheral vehicle OVa is located in the own lane.
  • the peripheral vehicle OVb and the peripheral vehicle OVc are located in the peripheral lane. Further, it is assumed that the distance from the own vehicle increases in the order of peripheral vehicle OVa, peripheral vehicle OVb, and peripheral vehicle OVc.
  • the own vehicle image HVI, the peripheral vehicle image OVIa, the peripheral vehicle image OVIb, and the peripheral vehicle image OVIc that imitate the positional relationship between the actual own vehicle and the peripheral vehicle OVa, the peripheral vehicle OVb, and the peripheral vehicle OVc are displayed. .. Further, in the bird's-eye view, an image PLI showing a dividing line between the own lane and the surrounding lane is also displayed.
  • the display control unit 105 updates the display position of the peripheral vehicle image in the bird's-eye view.
  • the display control unit shall be able to update the display position of the peripheral vehicle image for each peripheral vehicle.
  • the display control unit 105 may periodically update the display position of the peripheral vehicle image in the bird's-eye view. It is assumed that the display control unit 105 can change the cycle for updating the display position of the peripheral vehicle image (hereinafter referred to as the update frequency) for each peripheral vehicle.
  • the update frequency may be the same as the frequency at which the positional relationship acquisition unit 111 periodically acquires the positional relationship between the own vehicle and the surrounding vehicles.
  • the display control unit 105 may be configured to periodically update the display orientation of the peripheral vehicle image in the bird's-eye view.
  • the display control unit 105 may reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view according to the distance specified by the distance specifying unit 102 for each peripheral vehicle.
  • lowering the update frequency means lowering the update frequency that exists in at least two stages. For example, it may be configured to be lower than the default update frequency.
  • the display control unit 105 may gradually reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view as the distance increases.
  • the vertical axis of FIG. 4 shows the update frequency of the display position of the peripheral vehicle image.
  • the horizontal axis of FIG. 4 indicates the distance of surrounding vehicles from the own vehicle.
  • the update frequency "high” may be configured to correspond to the default update frequency.
  • the present invention is not limited to the example of FIG.
  • the update frequency may be changed to 3 or more steps by setting the threshold value TH to 2 or more.
  • the display control unit 105 may linearly reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view as the distance increases.
  • the vertical axis of FIG. 5 shows the update frequency of the display position of the peripheral vehicle image.
  • the horizontal axis of FIG. 5 indicates the distance of surrounding vehicles from the own vehicle.
  • the display control unit 105 is a peripheral vehicle whose display position update frequency according to the distance specified by the distance specifying unit 102 is less than or equal to a specified value, and the deviation specified by the deviation specifying unit 104 is less than the threshold value.
  • the specified value referred to here is a distance at which at least two or more stages of update frequency are switched, and may be arbitrarily set.
  • the update frequency has the above-mentioned two stages of "high” and “low”, and the following description will be continued by taking the case where the specified value is the frequency "low” as an example.
  • the deviation threshold value may be a value that can be arbitrarily set, and may be, for example, a value that determines whether or not the target peripheral vehicle crosses the lane marking of the traveling lane.
  • the deviation threshold is referred to as a deviation threshold.
  • the center of the traveling lane is shown in the schematic diagram.
  • the alternate long and short dash line in FIG. 6 indicates the center of the traveling lane of the peripheral vehicle OVa.
  • the HD of FIG. 6 shows the actual lateral displacement of the peripheral vehicle OVa with respect to the center of the traveling lane.
  • the display control unit 105 is a peripheral vehicle whose display position update frequency according to the distance specified by the distance specifying unit 102 is equal to or less than the above-mentioned specified value, and the lane change specifying unit 103 changes lanes.
  • the traveling lane in which the lateral position with respect to the traveling lane of the peripheral vehicle is acquired by the positional relationship acquisition unit 111 in the bird's-eye view. It is preferable to display the vehicle at a position according to the positional relationship of the surrounding vehicles with respect to the vehicle.
  • peripheral vehicles whose lanes are changed will be displayed at positions according to the actual positional relationship in the schematic diagram.
  • Peripheral vehicles that change lanes are relatively likely to affect the running of their own vehicle, so it is highly necessary to show a more accurate positional relationship with their own vehicle.
  • the above configuration by reducing the frequency of updating the display position, the troublesomeness of finely moving the display position is suppressed, but for the peripheral vehicle in which the lane is changed, the own vehicle and the peripheral vehicle are used. It becomes possible to show the positional relationship more accurately.
  • the display control unit 105 is a peripheral vehicle in which the update frequency of the display position according to the distance specified by the distance specifying unit 102 is equal to or less than the above-mentioned specified value, and the deviation specified by the deviation specifying unit 104 is the deviation threshold value.
  • the display control unit 105 when updating the display position of the image of the peripheral vehicle, the lateral position of the peripheral vehicle with respect to the traveling lane is acquired by the positional relationship acquisition unit 111 with respect to the traveling lane in the bird's-eye view. It is preferable to display the display at a position according to the positional relationship of surrounding vehicles.
  • the display orientation of the surrounding vehicle image in the bird's-eye view is also periodically updated, the display orientation may be updated at the same time as the display position is updated.
  • the flowchart of FIG. 10 may be configured to start when the switch for starting the internal combustion engine or the motor generator of the own vehicle (hereinafter, power switch) is turned on and the above-mentioned bird's-eye view is displayed.
  • power switch the switch for starting the internal combustion engine or the motor generator of the own vehicle
  • the configuration may be such that the function for displaying the peripheral vehicle image is switched from off to on while the power switch is on.
  • the update frequency is in two stages of “high” and “low” will be described as an example.
  • the bird's-eye view displayed on the display 90 shall include an image of the own vehicle, an image of surrounding vehicles, and an image showing a dividing line between the own lane and the surrounding lane.
  • the peripheral vehicle image included in the bird's-eye view may be configured to narrow down the peripheral vehicle image within a certain distance specified by the distance specifying unit 102.
  • the constant value here is a value larger than the above-mentioned threshold value TH, and may be a value that can be arbitrarily set.
  • the display position of the peripheral vehicle image is updated by the display control unit 105 at the update frequency set for each peripheral vehicle by using the positional relationship between the own vehicle and the peripheral vehicle acquired by the positional relationship acquisition unit 111.
  • the update frequency-related processing may be configured to be performed for each peripheral vehicle to be displayed as a peripheral vehicle image in the bird's-eye view.
  • step S1 the distance specifying unit 102 specifies the distance between the own vehicle and the surrounding vehicle.
  • step S2 if the distance specified in S1 is equal to or greater than the threshold value TH (YES in S2), the process proceeds to step S4. On the other hand, when the distance specified in S1 is less than the threshold value TH (NO in S2), the process proceeds to step S3.
  • step S3 the display control unit 105 maintains the setting of the update frequency of the display position of the peripheral vehicle image to the default "high”, and moves to step S9.
  • step S4 the display control unit 105 lowers the setting of the update frequency of the display position of the peripheral vehicle image from the default "high” to "low".
  • step S5 if it is specified in the lane change specifying unit 103 that the lane change of the surrounding vehicle is performed (YES in S5), the process proceeds to step S6. On the other hand, if the lane change specifying unit 103 does not specify that the lane change of the surrounding vehicle is performed (NO in S5), the process proceeds to step S7.
  • step S6 when the display control unit 105 updates the display position of the image of the peripheral vehicle, for example, the traveling unit 111 acquires the lateral position of the peripheral vehicle with respect to the traveling lane in the bird's-eye view. It is set to be displayed at a position (that is, an actual position) according to the positional relationship of the surrounding vehicles with respect to the lane, and the process proceeds to step S9.
  • step S7 if the deviation specified by the deviation specifying unit 104 is equal to or greater than the deviation threshold value (YES in S7), the process proceeds to step S6. On the other hand, when the deviation specified by the deviation specifying unit 104 is less than the deviation threshold value (NO in S7), the process proceeds to step S8.
  • step S8 when the display control unit 105 updates the display position of the image of the peripheral vehicle, for example, in the bird's-eye view, the lateral position with respect to the traveling lane of the peripheral vehicle is set to the center position of the traveling lane of the peripheral vehicle. Is set to be displayed in, and the process proceeds to step S9.
  • step S9 if it is the end timing of the display position update related process (YES in S9), the display position update related process is terminated. On the other hand, if it is not the end timing of the display position update related process (NO in S9), the process returns to S1 and the process is repeated.
  • the end timing of the display position update related processing the power switch is turned off, the function for displaying the peripheral vehicle image is turned off, and the like.
  • a threshold value for dividing the update frequency of 3 or more stages into high frequency and low frequency may be used.
  • ⁇ Summary of Embodiment 1> since the bird's-eye view showing the positional relationship between the own vehicle and the peripheral vehicle is displayed, it is possible to show the positional relationship between the own vehicle and the peripheral vehicle in the bird's-eye view display.
  • the display position of the image of the surrounding vehicle with respect to the own vehicle may change one by one. However, it is highly necessary to accurately indicate the display position because the surrounding vehicles near the own vehicle have a large effect on the own vehicle, while the peripheral vehicles far from the own vehicle have a small effect on the own vehicle, so the display position is accurate. There is little need to show.
  • the frequency of updating the display position of the image of the peripheral vehicle in the bird's-eye view is reduced, so that it is not necessary to accurately show the image of the peripheral vehicle.
  • the display position it is possible to reduce the annoyance caused by the fine movement of the display position. As a result, it is possible to show the positional relationship between the own vehicle and the surrounding vehicles more accurately as necessary, and to make the user less annoyed.
  • the HCU 10a has an information acquisition unit 101a, a distance specifying unit 102, a lane change specifying unit 103, a deviation specifying unit 104, and a display control unit 105a as functional blocks for controlling the display on the display 90. Be prepared.
  • the HCU 10a is the same as the HCU 10 of the first embodiment except that the information acquisition unit 101a and the display control unit 105a are provided instead of the information acquisition unit 101 and the display control unit 105.
  • This HCU10a corresponds to a vehicle display control device. Further, the execution of the processing of each functional block of the HCU 10a by the computer corresponds to the execution of the vehicle display control method.
  • the information acquisition unit 101a includes a behavior-related value acquisition unit 112.
  • This behavior-related value acquisition unit 112 corresponds to the peripheral behavior-related value acquisition unit.
  • the information acquisition unit 101a is the same as the information acquisition unit 101 of the first embodiment except that the behavior-related value acquisition unit 112 is provided.
  • the behavior-related value acquisition unit 112 acquires values related to the behavior of surrounding vehicles (hereinafter referred to as behavior-related values).
  • Behavior-related values include the vehicle speed of the peripheral vehicle, the relative speed of the peripheral vehicle with respect to the own vehicle, the acceleration of the peripheral vehicle, and the like.
  • the behavior-related value acquisition unit 112 may be configured to acquire the behavior-related value recognized by the automatic operation ECU 80.
  • the display control unit 105a changes the update frequency of the display position of the image of the peripheral vehicle in the bird's-eye view according to the behavior-related value acquired by the behavior-related value acquisition unit 112 instead of the distance of the peripheral vehicle from the own vehicle. Except for the point, it is the same as the display control unit 105 of the first embodiment.
  • the process in the display control unit 105a corresponds to the display control process.
  • the display control unit 105a reduces the update frequency of the display position of the peripheral vehicle image in the bird's-eye view as the vehicle speed becomes slower for each peripheral vehicle.
  • lowering the update frequency means lowering the update frequency that exists in at least two stages. For example, it may be configured to be lower than the default update frequency. The same applies to the statement that the frequency of subsequent updates will be reduced.
  • the display control unit 105a may gradually reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view as the vehicle speed becomes slower. Further, the display control unit 105a may linearly reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view as the vehicle speed becomes slower.
  • the display control unit 105a updates the display position of the image of the peripheral vehicle in the bird's-eye view when the peripheral vehicle is at or below the vehicle speed estimated to be congested, as compared with the case where the peripheral vehicle is higher than the vehicle speed estimated to be congested. It may be configured to reduce the frequency.
  • the display control unit 105a reduces the frequency of updating the display position of the peripheral vehicle image in the bird's-eye view according to the relative speed of the peripheral vehicle with respect to the own vehicle for each peripheral vehicle.
  • the display control unit 105a may gradually reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view as the relative speed of the peripheral vehicle with respect to the own vehicle decreases. Further, the display control unit 105a may linearly reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view in accordance with the decrease in the relative speed of the peripheral vehicle with respect to the own vehicle.
  • the display control unit 105a may reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view according to the decrease in the absolute value of the acceleration of the peripheral vehicle for each peripheral vehicle.
  • the display control unit 105a may gradually reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view as the absolute value of the acceleration of the peripheral vehicle decreases. Further, the display control unit 105a may linearly reduce the update frequency of the display position of the peripheral vehicle image in the bird's-eye view as the absolute value of the acceleration of the peripheral vehicle decreases.
  • the absolute value of the acceleration of the surrounding vehicle is small, the movement of the peripheral vehicle is small. Therefore, the influence on the own vehicle is small and the necessity of accurately indicating the display position is low as compared with the case where the surrounding vehicles move a lot.
  • the absolute value of the acceleration of the peripheral vehicle becomes smaller, the update frequency of the display position of the image of the peripheral vehicle in the bird's-eye view is reduced, so that it is necessary to show it accurately.
  • the display position of the image of a low peripheral vehicle it is possible to suppress the annoyance caused by the fine movement of the display position.
  • step S21 the behavior-related value acquisition unit 112 acquires the behavior-related value.
  • the behavior-related values for example, the vehicle speed of the peripheral vehicle, the relative speed of the peripheral vehicle with respect to the own vehicle, and the acceleration of the peripheral vehicle are acquired.
  • step S22 when the vehicle speed of the peripheral vehicle specified in S21 is less than the vehicle speed threshold value (hereinafter, vehicle speed threshold value) for classifying the update frequency into "high” and "low” (YES in S22), Move to step S26.
  • vehicle speed threshold value hereinafter, vehicle speed threshold value for classifying the update frequency into "high” and "low”
  • step S23 when the relative speed of the surrounding vehicle with respect to the own vehicle specified in S21 is less than the threshold value of the relative speed (hereinafter referred to as the relative speed threshold value) for classifying the update frequency into "high” and "low” (S23). In YES), the process proceeds to step S26. On the other hand, when the relative speed of the peripheral vehicle with respect to the own vehicle specified in S21 is equal to or higher than the relative speed threshold value (NO in S23), the process proceeds to step S24.
  • step S24 when the absolute value of the acceleration of the peripheral vehicle specified in S21 is less than the acceleration threshold value (hereinafter referred to as the acceleration threshold value) for classifying the update frequency into “high” and “low” (YES in S24).
  • the acceleration threshold value hereinafter referred to as the acceleration threshold value for classifying the update frequency into "high” and "low” (YES in S24).
  • step S26 when the absolute value of the acceleration of the peripheral vehicle specified in S21 is equal to or greater than the acceleration threshold value (NO in S24), the process proceeds to step S25.
  • step S25 the display control unit 105a maintains the setting of the update frequency of the display position of the peripheral vehicle image to the default "high”, and moves to step S31.
  • step S26 the display control unit 105a lowers the setting of the update frequency of the display position of the peripheral vehicle image from the default "high” to "low".
  • a threshold value for dividing the update frequency of 3 or more stages into high frequency and low frequency may be used as the vehicle speed threshold value, the relative speed threshold value, and the acceleration threshold value.
  • the display position of the image of the surrounding vehicle with respect to the own vehicle may change one by one. However, as described above, it is necessary to accurately indicate the display position of the image of the peripheral vehicle with respect to the own vehicle depending on the values related to the behavior of the peripheral vehicle such as the vehicle speed of the peripheral vehicle, the relative speed of the peripheral vehicle with respect to the own vehicle, and the acceleration of the peripheral vehicle. It may be of low sex.
  • the frequency of updating the display position of the image of the peripheral vehicle in the bird's-eye view is reduced according to the values related to the behavior of the peripheral vehicle such as the vehicle speed of the peripheral vehicle, the relative speed of the peripheral vehicle with respect to the own vehicle, and the acceleration of the peripheral vehicle.
  • the display position of the image of the peripheral vehicle which is less necessary to show accurately, it is possible to suppress the troublesomeness due to the fine movement of the display position. As a result, it is possible to show the positional relationship between the own vehicle and the surrounding vehicles more accurately as necessary, and to make the user less annoyed.
  • the case where the vehicle speed of the peripheral vehicle, the relative speed of the peripheral vehicle with respect to the own vehicle, and the acceleration of the peripheral vehicle is used as the values related to the behavior of the peripheral vehicle has been described as an example, but the description is not necessarily limited to this. No.
  • the configuration may be such that only a part of the vehicle speed of the peripheral vehicle, the relative speed of the peripheral vehicle with respect to the own vehicle, and the acceleration of the peripheral vehicle is used.
  • the value is related to the behavior of the peripheral vehicle such that the necessity of recognizing the exact position of the peripheral vehicle is switched, the value other than the vehicle speed of the peripheral vehicle, the relative speed of the peripheral vehicle with respect to the own vehicle, and the acceleration of the peripheral vehicle is used. It may be the configuration to be used.
  • the HCUs 10 and 10a are used in the autonomous driving vehicle has been described as an example, but the description is not limited to this.
  • the HCU10, 10a may be used in a vehicle that does not have an automatic driving function.
  • the HCUs 10 and 10a are used in an autonomous driving vehicle.
  • the HCUs 10 and 10a are preferably used during automatic driving in an autonomous driving vehicle.
  • the present invention is not necessarily limited to this.
  • the configuration may be such that the update frequency of the display position of the image of the peripheral vehicle in the bird's-eye view is changed according to the state related to the automatic driving of the own vehicle (hereinafter referred to as the fourth embodiment).
  • the fourth embodiment an example of the fourth embodiment will be described with reference to the drawings.
  • the vehicle system 1 of the fourth embodiment is the same as the vehicle system 1 of the first embodiment except that the HCU 10b is included instead of the HCU 10.
  • the automation level of the autonomous driving vehicle of this embodiment can be switched.
  • the automation level may be configured to be switchable only between some of the levels 0 to 5.
  • the case where the autonomous driving vehicle can switch between the automatic driving of the automation level 3 and the automatic driving or the manual driving of the automation level 2 or less will be described as an example.
  • automated driving at automation level 3 may be permitted only during traffic jams.
  • the HCU 10b includes an information acquisition unit 101b, a distance specifying unit 102, a lane change specifying unit 103, a deviation specifying unit 104, and a display control unit 105b as functional blocks for controlling the display on the display 90. Be prepared.
  • the HCU 10b is the same as the HCU 10 of the first embodiment except that the information acquisition unit 101b and the display control unit 105b are provided instead of the information acquisition unit 101 and the display control unit 105.
  • This HCU10b corresponds to a vehicle display control device. Further, the execution of the processing of each functional block of the HCU 10b by the computer corresponds to the execution of the vehicle display control method.
  • the information acquisition unit 101b includes an automatic driving-related acquisition unit 113.
  • the automatic driving-related acquisition unit 113 corresponds to the automatic operation-related state acquisition unit.
  • the information acquisition unit 101b is the same as the information acquisition unit 101 of the first embodiment, except that the information acquisition unit 101b includes the automatic operation-related acquisition unit 113.
  • the automatic driving-related acquisition unit 113 acquires a state related to automatic driving of the own vehicle (hereinafter, automatic driving-related state). Examples of the autonomous driving-related state include whether or not the driver of the own vehicle is obliged to monitor the surroundings, whether or not there is a request for driving change, and whether or not there is a request for peripheral monitoring.
  • the driving change request and the peripheral monitoring request are requests from the system on the own vehicle side to the driver.
  • the automatic driving-related acquisition unit 113 may be configured to acquire these automatic driving-related states from the action determination unit of the automatic driving ECU 80.
  • the display control unit 105b changes the update frequency of the display position of the image of the peripheral vehicle in the bird's-eye view according to the automatic driving-related state acquired by the automatic driving-related acquisition unit 113 instead of the distance of the peripheral vehicle from the own vehicle. It is the same as the display control unit 105 of the first embodiment except that the above point is required.
  • the process in the display control unit 105b corresponds to the display control process.
  • step S41 the automatic driving-related acquisition unit 113 acquires the automatic driving-related state.
  • the automatic driving-related state for example, whether or not the driver of the own vehicle is obliged to monitor the surroundings, whether or not there is a request for driving change, and whether or not there is a request for peripheral monitoring is acquired.
  • step S42 if the automatic driving-related state acquired in S41 is a state in which the driver of the own vehicle is obliged to monitor the surroundings (YES in S42), the process proceeds to step S44.
  • the automatic driving-related state acquired in S41 is a state in which the driver of the own vehicle is not obliged to monitor the surroundings (NO in S42)
  • the process proceeds to step S43.
  • step S43 if the automatic driving-related state acquired in S41 is a state with a driving change request (TOR in FIG. 14) or a peripheral monitoring request (PMR in FIG. 14) (YES in S43), step S44. Move to. On the other hand, if the automatic operation-related state acquired in S41 is a state in which there is no operation change request and peripheral monitoring request (NO in S43), the process proceeds to step S45.
  • step S44 the display control unit 105b maintains the setting of the update frequency of the display position of the peripheral vehicle image to the default "high”, and moves to step S50.
  • step S45 the display control unit 105b lowers the setting of the update frequency of the display position of the peripheral vehicle image from the default "high” to "low".
  • steps S46 to S49 is performed in the same manner as the processing of S5 to S8.
  • step S50 when it is the end timing of the display position update related process (YES in S50), the display position update related process is terminated. On the other hand, if it is not the end timing of the display position update related process (NO in S50), the process returns to S41 and the process is repeated.
  • the display position of the image of the surrounding vehicle with respect to the own vehicle may change one by one. However, as described above, depending on the autonomous driving-related state of the own vehicle, such as whether or not the driver of the own vehicle is obliged to monitor the surroundings, whether or not there is a request for driving change, and whether or not there is a request for peripheral monitoring, the image of the surrounding vehicle is displayed for the own vehicle. In some cases it is less necessary to pinpoint the location.
  • the display position of the image of the surrounding vehicle in the bird's-eye view according to the automatic driving related state of the own vehicle such as the presence / absence of the driver's peripheral monitoring obligation, the presence / absence of the driving change request, and the presence / absence of the peripheral monitoring request. Since the update frequency of the vehicle is reduced, it is possible to reduce the annoyance caused by the fine movement of the display position of the image of the peripheral vehicle, which is less necessary to be shown accurately. As a result, it is possible to show the positional relationship between the own vehicle and the surrounding vehicles more accurately as necessary, and to make the user less annoyed.
  • the case where the driver of the own vehicle is obliged to monitor the surroundings, the presence or absence of the driving change request, and the presence or absence of the peripheral monitoring request is used as the automatic driving-related state of the own vehicle has been described as an example. , Not necessarily limited to this. If the situation is related to autonomous driving, where the need to recognize the exact position of the surrounding vehicle is switched, automatic driving other than whether or not the driver of the own vehicle is obliged to monitor the surrounding area, whether or not there is a request for a change of driving, and whether or not there is a request for peripheral monitoring. It may be configured to use related states.
  • a hands-on-off state which is a hands-on state or a hands-off state
  • the hands-on state is a state in which the driver holds the steering wheel by hand.
  • the hands-off state is a state in which the driver does not hold the steering wheel by hand.
  • the hands-on / off state may be detected by a sensor provided on the steering wheel. Alternatively, it may be detected by image recognition for the captured image captured by the carrier.
  • the update frequency is lower than that in the hands-off state. This is because the driver's line of sight should be toward the front of the vehicle from the display surface of the display 90 in the hands-on state, and it is necessary to accurately indicate the display position of the image of the surrounding vehicle with respect to the vehicle in the hands-off state. This is because the sex is low.
  • the display control unit 105b is obliged to monitor the driver's surroundings, and is obliged to monitor the driver's surroundings when there is a driving change request or a peripheral monitoring request and in a hands-off state. , It may be configured to increase the update frequency more than in the case where there is a driving change request or a peripheral monitoring request and in a hands-on state.
  • the display control units 105, 105a, 105b may be configured to include an image imitating an actual lane in the bird's-eye view.
  • the image imitating the actual lane is an image imitating the presence or absence of a curve in the actual lane.
  • the image may be an image that imitates the degree of curvature of the curve.
  • the display control units 105, 105a, 105b the lane of the display position of the image of the peripheral vehicle in the bird's-eye view is curved even at the timing when the display position of the image of the peripheral vehicle is not updated.
  • the orientation of the image of the surrounding vehicle may be configured to be tilted along the direction in which the lane is curved (hereinafter referred to as the fifth embodiment).
  • the information acquisition units 101, 101a, 101b may acquire information including the degree of curvature of each lane. Then, the display control unit 105, 105a, 105b uses the degree of curve of each lane acquired by the information acquisition units 101, 101a, 101b to determine the direction of the peripheral vehicle image OVIa as shown in FIG.
  • the traveling lane of the peripheral vehicle shown in the image OVIa may be tilted along the curved direction and displayed. According to this, it is possible to suppress the deviation between the direction of the curve of the lane displayed in the bird's-eye view and the direction of the surrounding vehicle image. Therefore, it is possible to prevent the user from having difficulty in grasping the positional relationship between the own vehicle and the peripheral vehicle.
  • the above-mentioned processing in the display control units 105, 105a, 105b may be performed by narrowing down to peripheral vehicle images of peripheral vehicles whose display position update frequency is, for example, the above-mentioned specified value or less. This is because as the frequency of updating the display position decreases, the difference between the direction of the curve of the lane displayed in the bird's-eye view and the direction of the surrounding vehicle image tends to increase.
  • the display control units 105, 105a, 105b may be configured to indicate that the peripheral vehicle image performing the specific driving is being driven by changing the display mode of the peripheral vehicle image. ..
  • the display control units 105, 105a, and 105b may be configured to indicate that the peripheral vehicle image of the peripheral vehicle that is meandering is being meandered by changing the display mode of the peripheral vehicle image. .. Whether or not the peripheral vehicle is meandering may be determined by, for example, the HCU10, 10a, 10b based on the change in the lateral position of the peripheral vehicle sequentially specified by the deviation specifying unit 104. Changes in the display mode of the peripheral vehicle image indicating that the vehicle is meandering include blinking, changing the display color, and the like. In addition, as shown in FIG. 16, an icon (see MM in FIG. 16) that makes the image of meandering operation may be superimposed and displayed. According to this, it becomes possible for the user to easily recognize the meandering driving of the peripheral vehicle, which is difficult to recognize only by the display position of the peripheral vehicle image that is sequentially updated.
  • the above-mentioned processing in the display control units 105, 105a, 105b may be performed by narrowing down to peripheral vehicle images of peripheral vehicles whose display position update frequency is, for example, the above-mentioned specified value or less. This is because the frequency of updating the display position decreases, so that the user can easily recognize the meandering driving of the peripheral vehicle, which is particularly difficult to recognize only by the display position of the peripheral vehicle image that is sequentially updated. According to this, it becomes possible for the user to easily recognize the sudden deceleration of the peripheral vehicle, which may be difficult to recognize only by the display position of the peripheral vehicle image that is sequentially updated.
  • the display control units 105, 105a, and 105b are configured to show that the peripheral vehicle image of the peripheral vehicle that is rapidly decelerating is suddenly decelerated by changing the display mode of the peripheral vehicle image. May be good.
  • Examples of the change in the display mode of the peripheral vehicle image indicating that the vehicle is suddenly decelerating include a change in the display color and an superimposed display of an icon that makes the image of the sudden deceleration.
  • the display control units 105, 105a, 105b have a configuration indicating that the hazard lamp is turned on by changing the display mode of the peripheral vehicle image for the peripheral vehicle image of the peripheral vehicle in which the hazard lamp is turned on. May be. Whether or not the peripheral vehicle has the hazard lamp turned on may be determined by the HCUs 10, 10a, and 10b from the recognition result of the driving environment by the automatic driving ECU 80. In this case, the automatic driving ECU 80 may be configured to recognize the lighting state of the hazard lamps of peripheral vehicles by image recognition or the like as the driving environment. Examples of the change in the display mode of the peripheral vehicle image indicating that the hazard lamp is lit include superimposed display of an icon that makes the image that the hazard lamp is lit. According to this, it becomes possible for the user to easily recognize the lighting of the hazard lamp of the peripheral vehicle, which is difficult to recognize only by the display position of the peripheral vehicle image that is sequentially updated.
  • control unit and the method thereof described in the present disclosure may be realized by a dedicated computer constituting a processor programmed to execute one or a plurality of functions embodied by a computer program.
  • the apparatus and method thereof described in the present disclosure may be realized by a dedicated hardware logic circuit.
  • the apparatus and method thereof described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor for executing a computer program and one or more hardware logic circuits.
  • the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

自車と周辺車両との位置関係を取得する位置関係取得部(111)と、位置関係取得部(111)で取得する自車と周辺車両との位置関係を用いて、自車よりも上方の仮想視点から見た自車画像及び周辺車両画像でその位置関係を示す俯瞰図を、自車の車室内で用いられる表示器(90)に表示させる表示制御部(105)とを備え、表示制御部(105)は、自車からの周辺車両の距離が遠くなるのに応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げる。

Description

車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法 関連出願の相互参照
 この出願は、2020年8月6日に日本に出願された特許出願第2020-133993号を基礎としており、基礎の出願の内容を、全体的に、参照により援用している。
 本開示は、車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法に関するものである。
 例えば、特許文献1には、自動運転機能を備える車両において、自車と他車との実際の相対的な位置関係に対応する自車アイコンと他車アイコンとを含む俯瞰表示を生成して、車室内に設けられた表示画面に表示させる技術が開示されている。特許文献1には、自車アイコンは俯瞰表示の中央に映し出されることが開示されている。また、特許文献1には、俯瞰表示の生成が繰り返し実施されることが開示されている。
特開2017-166913号公報
 特許文献1に開示の技術では、自車アイコンは俯瞰表示の中央に映し出されるため、自車と他車との位置関係が変われば他車アイコンの俯瞰表示における位置が変更されることになる。自車と周辺車両との位置関係を俯瞰表示で示すことは、実際の自車と周辺車両との位置関係をユーザに認識しやすくするために有用と考えられる。しかしながら、繰り返し実施される俯瞰表示の生成の都度、他車アイコンの位置が細かく動き、ユーザに煩わしさを感じさせるおそれがあった。
 この開示のひとつの目的は、自車と周辺車両との位置関係を必要に応じてより正確に示しつつも、ユーザに煩わしさをより感じさせにくくすることを可能とする車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法を提供することにある。
 上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、開示の更なる有利な具体例を規定する。請求の範囲に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
 上記目的を達成するために、本開示の車両用表示制御装置は、車両で用いられ、車両と車両の周辺車両との位置関係を取得する位置関係取得部と、位置関係取得部で取得する車両と周辺車両との位置関係を用いて、車両よりも上方の仮想視点から見た車両及び周辺車両のうちの少なくとも周辺車両の画像でその位置関係を示す俯瞰図を、車両の車室内で用いられる表示器に表示させる表示制御部とを備え、表示制御部は、車両及び周辺車両の少なくともいずれかに関する所定の条件に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げる。
 上記目的を達成するために、本開示の車両用表示制御方法は、車両で用いられる車両用表示制御方法であって、少なくとも1つのプロセッサにより実行される、車両と車両の周辺車両との位置関係を取得する位置関係取得工程と、位置関係取得工程で取得した車両と周辺車両との位置関係を用いて、車両よりも上方の仮想視点から見た車両及び周辺車両のうちの少なくとも周辺車両の画像でその位置関係を示す俯瞰図を、車両の車室内で用いられる表示器に表示させる表示制御工程とを含み、表示制御工程では、車両及び周辺車両の少なくともいずれかに関する所定の条件に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げる。
 以上の構成によれば、車両と周辺車両との位置関係を示す俯瞰図を表示させるので、自車と周辺車両との位置関係を俯瞰表示で示すことが可能になる。自車に対する周辺車両の画像の表示位置は、逐一変化し得る。しかしながら、車両及び周辺車両の少なくともいずれかに関する条件によっては、自車に対する周辺車両の画像の表示位置を正確に示す必要性が低い場合もある。これに対して、車両及び周辺車両の少なくともいずれかに関する所定の条件に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げるので、正確に示す必要性が低い周辺車両の画像の表示位置については、表示位置が細かく動くことによる煩わしさを抑えることが可能になる。その結果、自車と周辺車両との位置関係を必要に応じてより正確に示しつつも、ユーザに煩わしさをより感じさせにくくすることが可能になる。
 上記目的を達成するために、本開示の車両用表示制御システムは、車両で用いられ、車両の車室内で用いられる表示器と、前述の車両用表示制御装置とを含む。
 これによれば、前述の車両用表示制御装置を含むので、自車と周辺車両との位置関係を必要に応じてより正確に示しつつも、ユーザに煩わしさをより感じさせにくくすることが可能になる。
車両用システム1の概略的な構成の一例を示す図である。 HCU10の概略的な構成に一例を示す図である。 俯瞰図の表示の一例について説明するための図である。 自車からの周辺車両の距離に応じた周辺車両の表示位置の更新頻度の一例について説明するための図である。 自車からの周辺車両の距離に応じた周辺車両の表示位置の更新頻度の一例について説明するための図である。 周辺車両OVaの、走行車線の中央に対する実際の横位置のずれの一例について説明するための図である。 俯瞰図の表示の一例について説明するための図である。 周辺車両OVaの、走行車線の中央に対する実際の横位置のずれの一例について説明するための図である。 俯瞰図の表示の一例について説明するための図である。 HCU10での表示位置更新関連処理の流れの一例を示すフローチャートである。 HCU10aの概略的な構成に一例を示す図である。 HCU10aでの表示位置更新関連処理の流れの一例を示すフローチャートである。 HCU10bの概略的な構成に一例を示す図である。 HCU10bでの表示位置更新関連処理の流れの一例を示すフローチャートである。 俯瞰図の表示の一例について説明するための図である。 俯瞰図の表示の一例について説明するための図である。
 図面を参照しながら、開示のための複数の実施形態を説明する。なお、説明の便宜上、複数の実施形態の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態における説明を参照することができる。
 (実施形態1)
 <車両用システム1の概略構成>
 以下、本開示の実施形態1について図面を用いて説明する。図1に示す車両用システム1は、自動運転が可能な車両(以下、自動運転車両)で用いられる。車両用システム1は、図1に示すように、HCU(Human Machine Interface Control Unit)10、通信モジュール20、ロケータ30、地図データベース(以下、地図DB)40、車両状態センサ50、周辺監視センサ60、車両制御ECU70、自動運転ECU80、及び表示器90を含んでいる。この車両用システム1が車両用表示制御システムに相当する。車両用システム1を用いる車両は、必ずしも自動車に限るものではないが、以下では自動車に用いる場合を例に挙げて説明を行う。
 自動運転車両の自動運転の度合い(以下、自動化レベル)としては、例えばSAEが定義しているように、複数のレベルが存在し得る。自動化レベルは、例えば以下のようにレベル0~5に区分される。
 レベル0は、システムが介入せずに運転者が全ての運転タスクを実施するレベルである。運転タスクは動的運転タスクと言い換えてもよい。運転タスクは、例えば操舵、加減速、及び周辺監視とする。レベル0は、いわゆる手動運転に相当する。レベル1は、システムが操舵と加減速とのいずれかを支援するレベルである。レベル1は、いわゆる運転支援に相当する。レベル2は、システムが操舵と加減速とのいずれをも支援するレベルである。レベル2は、いわゆる部分運転自動化に相当する。レベル1~2も自動運転の一部であるものとする。
 例えば、レベル1~2の自動運転は、安全運転に係る監視義務(以下、単に監視義務)が運転者にある自動運転とする。監視義務としては、目視による周辺監視がある。レベル1~2の自動運転は、セカンドタスクが許可されない自動運転と言い換えることができる。セカンドタスクとは、運転者に対して許可される運転以外の行為であって、予め規定された特定行為である。セカンドタスクは、セカンダリアクティビティ,アザーアクティビティ等と言い換えることもできる。セカンドタスクは、自動運転システムからの運転操作の引き継ぎ要求にドライバが対応することを妨げてはならないとされる。一例として、動画等のコンテンツの視聴,スマートフォン等の操作,読書,食事等の行為が、セカンドタスクとして想定される。
 レベル3は、高速道路等の特定の場所ではシステムが全ての運転タスクを実施可能であり、緊急時に運転者が運転操作を行うレベルである。レベル3では、システムから運転交代の要求があった場合に、運転手が迅速に対応可能であることが求められる。レベル3は、いわゆる条件付運転自動化に相当する。レベル4は、対応不可能な道路,極限環境等の特定状況下を除き、システムが全ての運転タスクを実施可能なレベルである。レベル4は、いわゆる高度運転自動化に相当する。レベル5は、あらゆる環境下でシステムが全ての運転タスクを実施可能なレベルである。レベル5は、いわゆる完全運転自動化に相当する。
 例えば、レベル3~5の自動運転は、監視義務が運転者にない自動運転とする。レベル3~5の自動運転は、セカンドタスクが許可される自動運転と言い換えることができる。実施形態1での自動運転車両は、自動化レベルの切り替えが可能でない自動運転車両であってもよいし、自動化レベルの切り替えが可能な自動運転車両であってもよい。自動化レベルは、レベル0~5のうちの一部のレベル間でのみ切り替え可能な構成であってもよい。
 通信モジュール20は、他車との間で、無線通信を介して情報の送受信を行う。つまり、車車間通信を行う。通信モジュール20は、路側に設置された路側機との間で、無線通信を介して情報の送受信を行ってもよい。つまり、路車間通信を行ってもよい。路車間通信を行う場合、通信モジュール20は、路側機を介して、自車の周辺車両から送信されるその周辺車両の情報を受信してもよい。また、通信モジュール20は、自車の外部のセンタとの間で、無線通信を介して情報の送受信を行ってもよい。つまり、広域通信を行ってもよい。広域通信を行う場合、通信モジュール20は、センタを介して、自車の周辺車両から送信されるその周辺車両の情報を受信してもよい。
 ロケータ30は、GNSS(Global Navigation Satellite System)受信機及び慣性センサを備えている。GNSS受信機は、複数の測位衛星からの測位信号を受信する。慣性センサは、例えばジャイロセンサ及び加速度センサを備える。ロケータ30は、GNSS受信機で受信する測位信号と、慣性センサの計測結果とを組み合わせることにより、ロケータ30を搭載した自車の車両位置(以下、自車位置)及び進行方向を逐次測位する。自車位置は、例えば緯度経度の座標で表されるものとする。なお、自車位置の測位には、車両に搭載された車速センサから逐次出力される信号から求めた走行距離も用いる構成としてもよい。
 地図DB40は、不揮発性メモリであって、リンクデータ,ノードデータ,道路形状,構造物等の地図データを格納している。地図データは、道路形状及び構造物の特徴点の点群からなる3次元地図であってもよい。地図データとして、道路形状及び構造物の特徴点の点群からなる3次元地図を用いる場合、ロケータ30は、GNSS受信機を用いない構成としてもよい。例えば、ロケータ30は、この3次元地図と、道路形状及び構造物の特徴点の点群を検出するLIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)若しくは周辺監視カメラ等の周辺監視センサ60での検出結果とを用いて、自車位置を特定する構成としてもよい。なお、3次元地図は、REM(Road Experience Management)によって撮像画像をもとに生成されたものであってもよい。
 なお、通信モジュール20は、外部サーバから配信される地図データを例えば広域通信で受信し、地図DB40に格納してもよい。この場合、地図DB40を揮発性メモリとし、通信モジュール20が自車位置に応じた領域の地図データを逐次取得する構成としてもよい。
 車両状態センサ50は、自車の各種状態を検出するためのセンサ群である。車両状態センサ50としては、車速を検出する車速センサ,操舵角を検出する操舵センサ等がある。車両状態センサ50は、検出したセンシング情報を車内LANへ出力する。なお、車両状態センサ50で検出したセンシング情報は、自車に搭載されるECUを介して車内LANへ出力される構成であってもよい。
 周辺監視センサ60は、自車の周辺環境を監視する。一例として、周辺監視センサ60は、歩行者,他車等の移動物体、及び路上の落下物等の静止物体といった自車周辺の障害物を検出する。他にも、自車周辺の走行区画線等の路面標示を検出する。周辺監視センサ60は、例えば、自車周辺の所定範囲を撮像する周辺監視カメラ、自車周辺の所定範囲に探査波を送信するミリ波レーダ、ソナー、LIDAR等のセンサである。周辺監視カメラは、逐次撮像する撮像画像をセンシング情報として自動運転ECU80へ逐次出力する。ソナー、ミリ波レーダ、LIDAR等の探査波を送信するセンサは、障害物によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果をセンシング情報として自動運転ECU80へ逐次出力する。周辺監視センサ60で検出したセンシング情報は、自動運転ECU80を介して車内LANへ出力される構成とすればよい。
 車両制御ECU70は、自車の走行制御を行う電子制御装置である。走行制御としては、加減速制御及び/又は操舵制御が挙げられる。車両制御ECU70としては、操舵制御を行う操舵ECU、加減速制御を行うパワーユニット制御ECU及びブレーキECU等がある。車両制御ECU70は、自車に搭載された電子制御スロットル、ブレーキアクチュエータ、EPS(Electric Power Steering)モータ等の各走行制御デバイスへ制御信号を出力することで走行制御を行う。
 自動運転ECU80は、例えばプロセッサ、メモリ、I/O、これらを接続するバスを備え、メモリに記憶された制御プログラムを実行することで自動運転に関する処理を実行する。ここで言うところのメモリは、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、半導体メモリ又は磁気ディスクなどによって実現される。
 自動運転ECU80は、第1自動運転ECU81及び第2自動運転ECU82を備える。第1自動運転ECU81及び第2自動運転ECU82が、それぞれプロセッサ、メモリ、I/O、これらを接続するバスを備えるものとして以降の説明を行う。なお、仮想化技術によって共通のプロセッサが第1自動運転ECU81及び第2自動運転ECU82の機能を担う構成としてもよい。
 第1自動運転ECU81は、前述のレベル2以下の自動運転の機能を担う。言い換えると、第1自動運転ECU81は、監視義務のある自動運転を、実施可能にする。例えば、第1自動運転ECU81は、自車の縦方向制御及び横方向制御の少なくともいずれかを実行可能である。縦方向とは、自車の前後方向と一致する方向である。横方向とは、自車の幅方向と一致する方向である。第1自動運転ECU81は、縦方向制御として、自車の加減速制御を実行する。第1自動運転ECU81は、横方向制御として、自車の操舵制御を実行する。第1自動運転ECU81は、機能ブロックとして、第1環境認識部、ACC制御部、及びLTA制御部等を備える。
 第1環境認識部は、周辺監視センサ60から取得するセンシング情報,通信モジュール20で受信する自車の周辺車両の情報に基づき、自車の周囲の走行環境を認識する。一例として、第1環境認識部は、例えば自車の走行車線(以下、自車線)の左右の区画線等の情報から、自車線における自車の詳細な位置を認識する。他にも、第1環境認識部は、周辺車両の自車に対する位置、周辺車両の進行方向、周辺車両の自車に対する相対速度、周辺車両の速度、周辺車両の加速度等も認識すればよい。
 周辺車両の進行方向は、例えば周辺車両の自車に対する位置の時系列的な変化から認識すればよい。周辺車両の進行方向は、周辺車両の向きと言い換えることもできる。周辺車両の速度は、例えば自車の車速と周辺車両の相対速度とから認識すればよい。周辺車両の速度は、周辺車両の情報として周辺車両の速度が通信モジュール20で受信できる場合には、受信した情報から認識してもよい。周辺車両の加速度は、例えば前後加速度,左右加速度を認識すればよい。前後加速度は、例えば周辺車両の速度の単位時間あたりの変化をもとに認識すればよい。左右加速度は、例えば周辺車両の位置の単位時間あたりの変化をもとに認識すればよい。周辺車両の加速度は、周辺車両の情報として周辺車両の加速度が通信モジュール20で受信できる場合には、受信した情報から認識してもよい。
 また、第1環境認識部は、周辺車両のウィンカーランプの点灯状態も認識すればよい。周辺車両のウィンカーランプの点灯状態は、例えば周辺車両の撮像画像に対する画像認識処理によって認識すればよい。なお、第1環境認識部は、後述の第2環境認識部と同様の構成としてもよい。
 ACC制御部は、目標速度での自車の定速走又は先行車への追従走行を実現するACC(Adaptive Cruise Control)制御を実行する。ACC制御部は、第1環境認識部で認識した自車の周囲の車両の位置及び速度を用いて、ACC制御を実行すればよい。ACC制御部は、車両制御ECU70で加減速制御を行わせることでACC制御を実行すればよい。LTA制御部は、自車の車線内走行を維持するLTA(Lane Tracing Assist)制御を実行する。LTA制御部は、第1環境認識部で認識した走行車線における自車の詳細な位置を用いて、LTA制御を実行すればよい。LTA制御部は、車両制御ECU70で操舵制御を行わせることでLTA制御を実行すればよい。なお、ACC制御は縦方向制御の一例である。LTA制御は横方向制御の一例である。
 第1自動運転ECU81は、ACC制御およびLTA制御の両方を実行することで、レベル2の自動運転を実現する。第1自動運転ECU81は、ACC制御及びLTA制御のいずれか一方を実行することで、レベル1の自動運転を実現してもよい。
 一方、第2自動運転ECU82は、前述のレベル3以上の自動運転の機能を担う。言い換えると、第2自動運転ECU82は、監視義務のない自動運転を、実施可能にする。第2自動運転ECU82は、機能ブロックとして、第2環境認識部、行動判断部、及び軌道生成部等を備える。
 第2環境認識部は、周辺監視センサ60から取得するセンシング情報、ロケータ30から取得する自車位置、地図DB40から取得する地図データ、及び通信モジュール20で取得する他車の情報等に基づき、自車の周囲の走行環境を認識する。一例として、第2環境認識部は、これらの情報を用いて、実際の走行環境を再現した仮想空間を生成する。なお、第2環境認識部でも、第1環境認識部と同様に、自車に対する周辺車両の位置、周辺車両の進行方向、自車に対する周辺車両の相対速度、周辺車両の速度、周辺車両の加速度等も認識すればよい。第2環境認識部は、第1環境認識部での認識結果を利用する構成としてもよい。また、第2環境認識部は、例えば自車線及び周辺車線の左右の区画線等の情報と、自車に対する周辺車両の位置とから、各車線における周辺車両の詳細な位置を認識すればよい。
 第2環境認識部は、自車の走行地域における手動運転エリア(以下、MDエリア)の判別を行う。第2環境認識部は、自車の走行地域における自動運転エリア(以下、ADエリア)の判別を行う。第2環境認識部は、ADエリアにおけるST区間の判別を行う。第2環境認識部は、ADエリアにおける非ST区間の判別を行う。
 MDエリアは、自動運転が禁止されるエリアである。言い換えると、MDエリアは、自車の縦方向制御、横方向制御、及び周辺監視の全てを運転者が実行すると規定されたエリアである。例えば、MDエリアは、一般道路とすればよい。
 ADエリアは、自動運転が許可されるエリアである。言い換えると、ADエリアは、縦方向制御、横方向制御、及び周辺監視のうちの1つ以上を、自車が代替すること可能と規定されたエリアである。例えば、ADエリアは、高速道路,自動車専用道路とすればよい。
 ADエリアは、レベル2以下の自動運転が可能な非ST区間と、レベル3以上の自動運転が可能なST区間とに区分される。本実施形態では、レベル1の自動運転が許可される非ST区間と、レベル2の自動運転が許可される非ST区間とを分けて区分しないものとする。ST区間は、例えば渋滞が発生している走行区間(以下、渋滞区間)とすればよい。また、ST区間は、例えば高精度地図が整備された走行区間とすればよい。非ST区間は、ST区間に該当しない区間とすればよい。
 行動判断部は、第2環境認識部での走行環境の認識結果に基づいて、自車に予定される行動(以下、将来行動)を判断する。行動判断部は、自動運転によって自車を走行させるための将来行動を判断する。行動判断部は、目的地に到着するために自車が取るべき振る舞いの類型を将来行動として決定すればよい。この類型としては、例えば直進,右折,左折,車線変更等が挙げられる。
 また、行動判断部は、運転者への運転制御権の移譲(つまり、運転交代)が必要であると判断した場合に、運転交代要求を生成し、HCU10へと提供する。運転者への運転制御権の移譲が必要となる場合の一例としては、自車がADエリアからMDエリアに移る場合が挙げられる。他にも、センサロスト,通信不具合等で第2環境認識部での走行環境の認識に不具合が生じた場合が挙げられる。
 軌道生成部は、第2環境認識部での走行環境の認識結果、及び行動判断部で決定された将来行動に基づき、自動運転を実行可能な区間での自車の走行軌道を生成する。走行軌道には、例えば進行に応じた自車の目標位置および各目標位置での目標速度等が含まれる。軌道生成部は、生成した走行軌道を、自動運転において自車が従う制御指令として車両制御ECU70に逐次提供する。
 以上の自動運転ECU80を含んで構成される自動運転システムにより、自車においてレベル2以下、及びレベル3以上の自動運転が実行可能となる。また、例えば自動運転ECU80は、必要に応じて自車の自動運転の自動化レベルを切り替える構成とすればよい。一例として、自車がADエリアのうちのST区間から非ST区間に移る場合に、レベル3以上の自動運転からレベル2以下の自動運転に切り替えればよい。また、自動運転ECU80は、監視義務のない自動運転から監視義務のある自動運転に切り替える場合に、周辺監視要求を生成し、HCU10へと提供する構成とすればよい。
 表示器90は、自車に設けられる表示装置である。表示器90は、自車の車室内に表示面が向くように設けられる。例えば、表示器90は、自車の運転席正面に表示面が位置するように設けられる。表示器90としては、液晶ディスプレイ,有機ELディスプレイ,ヘッドアップディスプレイ(以下、HUD)等の種々のディスプレイを用いることができる。
 HCU10は、プロセッサ、揮発性メモリ、不揮発性メモリ、I/O、これらを接続するバスを備えるコンピュータを主体として構成され、表示器90と車内LANとに接続されている。HCU10は、不揮発性メモリに記憶された制御プログラムを実行することにより、表示器90での表示を制御する。このHCU10が車両用表示制御装置に相当する。なお、表示器90での表示の制御に関するHCU10の構成については以下で詳述する。
 <HCU10の概略構成>
 続いて、図2を用いてHCU10の概略構成についての説明を行う。HCU10は、表示器90での表示の制御に関して、図2に示すように、情報取得部101、距離特定部102、車線変更特定部103、ずれ特定部104、及び表示制御部105を機能ブロックとして備える。また、コンピュータによってHCU10の各機能ブロックの処理が実行されることが、車両用表示制御方法が実行されることに相当する。なお、HCU10が実行する機能の一部又は全部を、一つ或いは複数のIC等によりハードウェア的に構成してもよい。また、HCU10が備える機能ブロックの一部又は全部は、プロセッサによるソフトウェアの実行とハードウェア部材の組み合わせによって実現されてもよい。
 情報取得部101は、HCU10の外部から入力される情報を取得する。情報取得部101は、例えば自動運転ECU80で認識した走行環境の認識結果を取得する。情報取得部101は、サブ機能ブロックとして、位置関係取得部111を備える。位置関係取得部111は、自車と周辺車両との位置関係を取得する。この位置関係取得部111での処理が位置関係取得工程に相当する。位置関係取得部111は、例えば自動運転ECU80で認識した自車に対する周辺車両の位置を、自車と周辺車両との位置関係として取得すればよい。また、位置関係取得部は、車線に対する周辺車両の位置関係も取得する。位置関係取得部111は、例えば自動運転ECU80で認識した各車線における周辺車両の詳細な位置を、車線に対する周辺車両の位置関係として取得すればよい。
 距離特定部102は、周辺車両別に、自車と周辺車両との距離を特定する。距離特定部102は、位置関係取得部111で取得した自車と周辺車両との位置関係から、自車と周辺車両との距離を特定すればよい。距離特定部102は、自車と周辺車両との距離として、自車と周辺車両との直線距離を特定すればよい。この場合、距離特定部102は、自車の位置座標と周辺車両の位置座標との直線距離を算出することで、自車と周辺車両との直線距離を特定すればよい。また、距離特定部102は、自車と周辺車両との距離として、自車の前後方向における自車と周辺車両との距離を特定してもよい。
 車線変更特定部103は、周辺車両の車線変更が行われることを特定する。一例として、車線変更特定部103は、自動運転ECU80でウィンカーランプの点灯を認識した周辺車両について、車線変更が行われることを特定すればよい。他にも、車線変更特定部103は、自動運転ECU80で認識した左右加速度が閾値以上の周辺車両について、車線変更が行われることを特定すればよい。ここで言うところの閾値とは、車線変更が行われると推定される左右加速度か否かを区別する値とすればよい。
 ずれ特定部104は、周辺車両の走行する車線の中央に対するその周辺車両の横位置のずれを特定する。一例として、ずれ特定部104は、自動運転ECU80で認識した各車線における周辺車両の詳細な位置を用いて、周辺車両の走行する車線の中央に対するその周辺車両の横位置のずれを特定すればよい。横位置とは道路幅方向における位置と言い換えることもできる。
 表示制御部105は、表示器90での表示を制御する。この表示制御部105での処理が表示制御工程に相当する。表示制御部105は、位置関係取得部111で取得する自車と周辺車両との位置関係を用いて、自車よりも上方の仮想視点から見た、自車と周辺車両との位置関係を示す俯瞰図を表示器90に表示させる。この仮想視点は、自車の直上であってもよいし、自車の直上からずれた位置であってもよい。例えば、自車よりも上方且つ後方の仮想視点から見た俯瞰図であってもよい。本実施形態では、俯瞰図には、自車線と周辺車線との区画線を示す画像と、自車と周辺車両とを示す画像とを含む構成とすればよい。なお、俯瞰図において自車位置が固定である場合には、俯瞰図に自車の画像(以下、自車画像)を含まない構成としてもよい。例えば、自車よりも前方の状況に絞って示す俯瞰図において、俯瞰図の下端に自車前端が位置するものとして、自車と周辺車両とのうちの周辺車両の画像(以下、周辺車両画像)のみを示す場合が例に挙げられる。なお、以降では、俯瞰図には、自車線と周辺車線との区画線を示す画像を含む場合を例に挙げて説明を行う。
 表示制御部105は、俯瞰図における自車画像の表示位置を固定するものとする。また、表示制御部105は、俯瞰図における自車画像の向きも固定するものとする。よって、俯瞰図において表示位置及び向きが更新されるのは、自車画像と周辺車両画像とのうちの周辺車両画像のみとなる。なお、自車画像の向きとは、画像で示される自車の向きを表す。一例として、表示制御部105は、自車に対する周辺車両の位置を示す座標を、俯瞰図における座標に座標変換することで、実際の自車と周辺車両との位置関係を模した俯瞰図を表示させればよい。自車線と周辺車線との区画線を示す画像については、実際の区画線の湾曲度合いを模していない画像としてもよいし、実際の区画線の湾曲度合いを模した画像としてもよい。自車と周辺車両との位置関係をより正確に示しためには、自車線と周辺車線との区画線を示す画像を、実際の区画線の湾曲度合いを模した画像とすることが好ましい。
 ここで、図3を用いて、俯瞰図の表示の一例について説明を行う。図3では、自車よりも上方且つ後方の仮想視点から見た俯瞰図を表示させる場合の一例を示す。図3のScが表示器90の表示画面を示す。図3のHVIが自車画像を示す。図3のOVIa,OVIb,OVIcが周辺車両画像を示す。周辺車両画像OVIaで示される周辺車両を以降では周辺車両OVaとする。周辺車両画像OVIbで示される周辺車両を以降では周辺車両OVbとする。周辺車両画像OVIcで示される周辺車両を以降では周辺車両OVcとする。周辺車両OVaは自車線に位置する。周辺車両OVb,周辺車両OVcは周辺車線に位置する。また、自車からの距離は、周辺車両OVa,周辺車両OVb,周辺車両OVcの順に長くなっているものとする。俯瞰図では、実際の自車と周辺車両OVa,周辺車両OVb,周辺車両OVcとの位置関係を模した自車画像HVI,周辺車両画像OVIa,周辺車両画像OVIb,周辺車両画像OVIcが表示される。また、俯瞰図では、自車線と周辺車線との区画線を示す画像PLIも表示される。
 また、表示制御部105は、俯瞰図における周辺車両画像の表示位置を更新する。表示制御部は、周辺車両別に周辺車両画像の表示位置を更新することが可能なものとする。表示制御部105は、俯瞰図における周辺車両画像の表示位置を、周期的に更新するものとすればよい。表示制御部105は、周辺車両画像の表示位置を更新する周期(以下、更新頻度)を、周辺車両別に変更可能となっているものとする。一例として、デフォルトの更新頻度は、位置関係取得部111で自車と周辺車両との位置関係を周期的に取得する頻度と同じとすればよい。なお、表示制御部105は、俯瞰図における周辺車両画像の表示向きも周期的に更新する構成としてもよい。
 表示制御部105は、周辺車両別に、距離特定部102で特定した距離が遠くなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を下げればよい。ここで、更新頻度を下げるとは、少なくとも2段階以上存在する更新頻度を下げることを示す。例えば、デフォルトの更新頻度よりも下げる構成とすればよい。
 一例としては、表示制御部105は、図4に示すように、距離が遠くなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を段階的に下げればよい。図4の縦軸が周辺車両画像の表示位置の更新頻度を示している。図4の横軸が自車からの周辺車両の距離を示している。図4の例では、距離が閾値TH以上か否かで、更新頻度を「低」と「高」との2段階に変更する例を示す。ここで、更新頻度「高」が、デフォルトの更新頻度に該当する構成とすればよい。なお、図4の例に限らず、閾値THを2以上とすることで更新頻度を3段階以上に変更する構成としてもよい。また、表示制御部105は、図5に示すように、距離が遠くなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を直線的に下げてもよい。なお、図5の縦軸が周辺車両画像の表示位置の更新頻度を示している。図5の横軸が自車からの周辺車両の距離を示している。
 表示制御部105は、距離特定部102で特定した距離に応じた表示位置の更新頻度が規定値以下の周辺車両であって、且つ、ずれ特定部104で特定したずれが閾値未満の周辺車両については、その周辺車両の画像の表示位置の更新を行う際に、俯瞰図において、その周辺車両の走行車線に対する横位置を、その周辺車両の走行車線の中央の位置に表示させることが好ましい。ここで言うところの規定値は、少なくとも2段階以上存在する更新頻度が切り替わる距離であって、任意に設定可能とすればよい。一例として、更新頻度は前述の「高」と「低」との2段階であって、規定値は頻度「低」である場合を例に挙げて以降の説明を続ける。また、ずれの閾値は、任意に設定可能な値であって、例えば対象とする周辺車両が走行車線の区画線を跨ぐか否かを区分する値とすればよい。以下ではずれの閾値をずれ閾値と呼ぶ。
 以上の構成によれば、図6に示すように、走行車線の中央に対する実際の横位置HDのずれが小さくおさまっている場合には、図7に示すように、模式図においては走行車線の中央に周辺車両画像OVIaを表示させることになる。なお、図6の一点鎖線が周辺車両OVaの走行車線の中央を示している。図6のHDが、周辺車両OVaの、走行車線の中央に対する実際の横位置のずれを示している。走行車線の中央に対する実際の横位置のずれが小さくおさまっている場合には、模式図において走行車線の中央に周辺車両画像を表示させたとしても、自車と周辺車両との位置関係は大きく異ならない。よって、表示位置の更新頻度を下げることで細かく表示位置が動く煩わしさを抑えつつも、自車と周辺車両との位置関係をより正確に示すことが可能になる。
 一方、表示制御部105は、距離特定部102で特定した距離に応じた表示位置の更新頻度が上述の規定値以下の周辺車両であって、且つ、車線変更特定部103で車線変更が行われることを特定した周辺車両については、その周辺車両の画像の表示位置の更新を行う際に、俯瞰図において、その周辺車両の走行車線に対する横位置を、位置関係取得部111で取得するその走行車線に対するその周辺車両の位置関係に従った位置に表示させることが好ましい。
 これによれば、車線変更が行われる周辺車両については、模式図において実際の位置関係に従った位置に表示させることになる。車線変更を行う周辺車両は、自車の走行に影響を与える可能性が比較的高いため、より正確な自車に対する位置関係を示す必要性が高いと考えられる。これに対して、以上の構成によれば、表示位置の更新頻度を下げることで細かく表示位置が動く煩わしさを抑えつつも、車線変更が行われる周辺車両については、自車と周辺車両との位置関係をより正確に示すことが可能になる。
 また、表示制御部105は、距離特定部102で特定した距離に応じた表示位置の更新頻度が上述の規定値以下の周辺車両であって、且つ、ずれ特定部104で特定したずれがずれ閾値以上の周辺車両については、その周辺車両の画像の表示位置の更新を行う際に、俯瞰図において、その周辺車両の走行車線に対する横位置を、位置関係取得部111で取得するその走行車線に対するその周辺車両の位置関係に従った位置に表示させることが好ましい。
 以上の構成によれば、図8に示すように、走行車線の中央に対する実際の横位置のずれが大きくなっている場合には、図9に示すように、模式図において実際の自車HVと周辺車両OVaとの位置関係に従った位置に周辺車両画像OVIaを表示させることになる。走行車線の中央に対する実際の横位置のずれが大きくなっている周辺車両は、自車の走行に影響を与える可能性が比較的高いため、より正確な自車に対する位置関係を示す必要性が高いと考えられる。これに対して、以上の構成によれば、表示位置の更新頻度を下げることで細かく表示位置が動く煩わしさを抑えつつも、自車の走行に影響を与える可能性が比較的高いと考えられる周辺車両については、自車と周辺車両との位置関係をより正確に示すことが可能になる。
 なお、俯瞰図における周辺車両画像の表示向きも周期的に更新する場合には、表示位置の更新に併せて表示向きの更新も行う構成とすればよい。
 <HCU10での表示位置更新関連処理>
 ここで、図10のフローチャートを用いて、HCU10での周辺車両画像の表示位置の更新に関する処理(以下、表示位置更新関連処理)の流れの一例について説明を行う。図10のフローチャートは、自車の内燃機関又はモータジェネレータを始動させるためのスイッチ(以下、パワースイッチ)がオンになって前述の俯瞰図が表示される場合に開始する構成とすればよい。他にも、周辺車両画像の表示を行う機能のオンオフを切り替えることができる構成の場合には、周辺車両画像の表示を行う機能がオンとなっている状態でパワースイッチがオンされる場合に開始する構成とすればよい。他にも、パワースイッチがオンになっている状態において、周辺車両画像の表示を行う機能がオフからオンに切り替わった場合に開始する構成としてもよい。図10の例では、更新頻度が「高」と「低」との2段階である場合を例に挙げて説明を行う。
 なお、表示器90に表示される俯瞰図には、自車画像,周辺車両画像,自車線と周辺車線との区画線を示す画像を含むものとする。俯瞰図に含ませる周辺車両画像は、距離特定部102で特定された距離が一定以内の周辺車両についてのものに絞る構成とすればよい。ここで言うところの一定とは、前述の閾値THよりも大きい値であって、任意に設定可能な値とすればよい。また、周辺車両画像の表示位置は、表示制御部105によって、位置関係取得部111で取得する自車と周辺車両との位置関係を用いて、周辺車両別に設定される更新頻度で更新されるものとする。更新頻度関連処理は、俯瞰図での周辺車両画像の表示の対象となる周辺車両ごとに行われる構成とすればよい。
 ステップS1では、距離特定部102が、自車と周辺車両との距離を特定する。ステップS2では、S1で特定した距離が閾値TH以上であった場合(S2でYES)には、ステップS4に移る。一方、S1で特定した距離が閾値TH未満であった場合(S2でNO)には、ステップS3に移る。
 ステップS3では、表示制御部105が、周辺車両画像の表示位置の更新頻度の設定を、デフォルトの「高」に維持して、ステップS9に移る。一方、ステップS4では、表示制御部105が、周辺車両画像の表示位置の更新頻度の設定を、デフォルトの「高」から「低」に下げる。
 ステップS5では、車線変更特定部103で周辺車両の車線変更が行われることを特定した場合(S5でYES)には、ステップS6に移る。一方、車線変更特定部103で周辺車両の車線変更が行われることを特定していない場合(S5でNO)には、ステップS7に移る。
 ステップS6では、表示制御部105が、例えば周辺車両の画像の表示位置の更新を行う際に、俯瞰図において、その周辺車両の走行車線に対する横位置を、位置関係取得部111で取得するその走行車線に対するその周辺車両の位置関係に従った位置(つまり、実位置)に表示させるように設定し、ステップS9に移る。
 ステップS7では、ずれ特定部104で特定したずれがずれ閾値以上の場合(S7でYES)には、ステップS6に移る。一方、ずれ特定部104で特定したずれがずれ閾値未満の場合(S7でNO)には、ステップS8に移る。ステップS8では、表示制御部105が、例えば周辺車両の画像の表示位置の更新を行う際に、俯瞰図において、その周辺車両の走行車線に対する横位置を、その周辺車両の走行車線の中央の位置に表示させるように設定し、ステップS9に移る。
 ステップS9では、表示位置更新関連処理の終了タイミングであった場合(S9でYES)には、表示位置更新関連処理を終了する。一方、表示位置更新関連処理の終了タイミングでなかった場合(S9でNO)には、S1に戻って処理を繰り返す。表示位置更新関連処理の終了タイミングの一例としては、パワースイッチがオフになったこと,周辺車両画像の表示を行う機能がオフになったこと等が挙げられる。
 なお、更新頻度が3段階以上である場合には、閾値THの代わりに、3段階以上の更新頻度を高頻度と低頻度とに区分する閾値を用いる構成とすればよい。
 <実施形態1のまとめ>
 実施形態1の構成によれば、自車と周辺車両との位置関係を示す俯瞰図を表示させるので、自車と周辺車両との位置関係を俯瞰表示で示すことが可能になる。自車に対する周辺車両の画像の表示位置は、逐一変化し得る。しかしながら、自車から近い周辺車両は自車への影響が大きいために表示位置を正確に示す必要性が高い一方、自車から遠い周辺車両は自車への影響が小さいために表示位置を正確に示す必要性が低い。これに対して、自車からの周辺車両の距離が遠くなるのに応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げるので、正確に示す必要性が低い周辺車両の画像の表示位置については、表示位置が細かく動くことによる煩わしさを抑えることが可能になる。その結果、自車と周辺車両との位置関係を必要に応じてより正確に示しつつも、ユーザに煩わしさをより感じさせにくくすることが可能になる。
 (実施形態2)
 実施形態1では、自車からの周辺車両の距離に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を変更する構成を示したが、必ずしもこれに限らない。例えば、周辺車両の挙動に関する値に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を変更する構成(以下、実施形態2)としてもよい。以下では、実施形態2の一例について図を用いて説明する。実施形態2の車両用システム1は、HCU10の代わりにHCU10aを含む点を除けば、実施形態1の車両用システム1と同様である。
 <HCU10aの概略構成>
 続いて、図11を用いてHCU10aの概略構成についての説明を行う。HCU10aは、表示器90での表示の制御に関して、図11に示すように、情報取得部101a、距離特定部102、車線変更特定部103、ずれ特定部104、及び表示制御部105aを機能ブロックとして備える。HCU10aは、情報取得部101及び表示制御部105の代わりに情報取得部101a及び表示制御部105aを備える点を除けば、実施形態1のHCU10と同様である。このHCU10aが車両用表示制御装置に相当する。また、コンピュータによってHCU10aの各機能ブロックの処理が実行されることが、車両用表示制御方法が実行されることに相当する。
 情報取得部101aは、挙動関連値取得部112を備える。この挙動関連値取得部112が周辺挙動関連値取得部に相当する。情報取得部101aは、挙動関連値取得部112を備える点を除けば、実施形態1の情報取得部101と同様である。挙動関連値取得部112は、周辺車両の挙動に関する値(以下、挙動関連値)を取得する。挙動関連値としては、周辺車両の車速,自車に対する周辺車両の相対速度,周辺車両の加速度等が挙げられる。挙動関連値取得部112は、自動運転ECU80で認識した挙動関連値を取得する構成とすればよい。
 表示制御部105aは、自車からの周辺車両の距離の代わりに、挙動関連値取得部112で取得した挙動関連値に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を変更する点を除けば、実施形態1の表示制御部105と同様である。この表示制御部105aでの処理が表示制御工程に相当する。
 表示制御部105aは、周辺車両別に、車速が遅くなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を下げることが好ましい。ここで、更新頻度を下げるとは、少なくとも2段階以上存在する更新頻度を下げることを示す。例えば、デフォルトの更新頻度よりも下げる構成とすればよい。以降の更新頻度を下げるとの記載についても同様とする。表示制御部105aは、車速が遅くなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を段階的に下げればよい。また、表示制御部105aは、車速が遅くなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を直線的に下げてもよい。
 周辺車両の車速が遅い場合、周辺車両の大きな動きは少ない。よって、周辺車両の大きな動きが多い場合に比べて、自車への影響が小さく、表示位置を正確に示す必要性が低い。これに対して、以上の構成によれば、周辺車両の車速が遅くなるのに応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げるので、正確に示す必要性が低い周辺車両の画像の表示位置については、表示位置が細かく動くことによる煩わしさを抑えることが可能になる。また、特に周辺車両が渋滞している場合には、周辺車両の大きな動きは少なくなる。よって、表示制御部105aは、周辺車両が渋滞と推定される車速以下の場合に、周辺車両が渋滞と推定される車速よりも大きい場合よりも、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げる構成としてもよい。
 表示制御部105aは、周辺車両別に、自車に対する周辺車両の相対速度が小さくなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を下げることが好ましい。表示制御部105aは、自車に対する周辺車両の相対速度が小さくなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を段階的に下げればよい。また、表示制御部105aは、自車に対する周辺車両の相対速度が小さくなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を直線的に下げてもよい。
 自車に対する周辺車両の相対速度が小さい場合、自車に対する周辺車両の動きは少ない。よって、自車に対する周辺車両の動きが多い場合に比べて、自車への影響が小さく、表示位置を正確に示す必要性が低い。これに対して、以上の構成によれば、自車に対する周辺車両の相対速度が小さくなるのに応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げるので、正確に示す必要性が低い周辺車両の画像の表示位置については、表示位置が細かく動くことによる煩わしさを抑えることが可能になる。
 表示制御部105aは、周辺車両別に、周辺車両の加速度の絶対値が小さくなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を下げればよい。表示制御部105aは、周辺車両の加速度の絶対値が小さくなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を段階的に下げればよい。また、表示制御部105aは、周辺車両の加速度の絶対値が小さくなるのに応じて、俯瞰図における周辺車両画像の表示位置の更新頻度を直線的に下げてもよい。
 周辺車両の加速度の絶対値が小さい場合、周辺車両の動きは少ない。よって、周辺車両の動きが多い場合に比べて、自車への影響が小さく、表示位置を正確に示す必要性が低い。これに対して、以上の構成によれば、周辺車両の加速度の絶対値が小さくなるのに応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げるので、正確に示す必要性が低い周辺車両の画像の表示位置については、表示位置が細かく動くことによる煩わしさを抑えることが可能になる。
 <HCU10aでの表示位置更新関連処理>
 ここで、図12のフローチャートを用いて、HCU10aでの表示位置更新関連処理の流れの一例について説明を行う。図12のフローチャートも図10のフローチャートと同様にして開始する構成とすればよい。図12の例でも、更新頻度が「高」と「低」との2段階である場合を例に挙げて説明を行う。更新頻度が「高」がデフォルトの更新頻度とすればよい。
 ステップS21では、挙動関連値取得部112が、挙動関連値を取得する。挙動関連値としては、例えば周辺車両の車速,自車に対する周辺車両の相対速度,周辺車両の加速度を取得する。ステップS22では、S21で特定した周辺車両の車速が、更新頻度を「高」と「低」とに区分する車速の閾値(以下、車速閾値)未満であった場合(S22でYES)には、ステップS26に移る。一方、S21で特定した周辺車両の車速が車速閾値以上であった場合(S22でNO)には、ステップS23に移る。
 ステップS23では、S21で特定した自車に対する周辺車両の相対速度が、更新頻度を「高」と「低」とに区分する相対速度の閾値(以下、相対速度閾値)未満であった場合(S23でYES)には、ステップS26に移る。一方、S21で特定した自車に対する周辺車両の相対速度が相対速度閾値以上であった場合(S23でNO)には、ステップS24に移る。
 ステップS24では、S21で特定した周辺車両の加速度の絶対値が、更新頻度を「高」と「低」とに区分する加速度の閾値(以下、加速度閾値)未満であった場合(S24でYES)には、ステップS26に移る。一方、S21で特定した周辺車両の加速度の絶対値が加速度閾値以上であった場合(S24でNO)には、ステップS25に移る。
 ステップS25では、表示制御部105aが、周辺車両画像の表示位置の更新頻度の設定を、デフォルトの「高」に維持して、ステップS31に移る。一方、ステップS26では、表示制御部105aが、周辺車両画像の表示位置の更新頻度の設定を、デフォルトの「高」から「低」に下げる。
 ステップS27~ステップS30の処理は、S5~S8の処理と同様にして行う。ステップS31では、表示位置更新関連処理の終了タイミングであった場合(S31でYES)には、表示位置更新関連処理を終了する。一方、表示位置更新関連処理の終了タイミングでなかった場合(S31でNO)には、S21に戻って処理を繰り返す。
 なお、更新頻度が3段階以上である場合には、車速閾値,相対速度閾値,加速度閾値として、3段階以上の更新頻度を高頻度と低頻度とに区分する閾値を用いる構成とすればよい。
 <実施形態2のまとめ>
 実施形態2の構成によっても、自車と周辺車両との位置関係を示す俯瞰図を表示させるので、自車と周辺車両との位置関係を俯瞰表示で示すことが可能になる。自車に対する周辺車両の画像の表示位置は、逐一変化し得る。しかしながら、前述したように、周辺車両の車速,自車に対する周辺車両の相対速度,周辺車両の加速度といった周辺車両の挙動に関する値によっては、自車に対する周辺車両の画像の表示位置を正確に示す必要性が低い場合もある。これに対して、周辺車両の車速,自車に対する周辺車両の相対速度,周辺車両の加速度といった周辺車両の挙動に関する値に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げるので、正確に示す必要性が低い周辺車両の画像の表示位置については、表示位置が細かく動くことによる煩わしさを抑えることが可能になる。その結果、自車と周辺車両との位置関係を必要に応じてより正確に示しつつも、ユーザに煩わしさをより感じさせにくくすることが可能になる。
 実施形態2では、周辺車両の挙動に関する値として、周辺車両の車速、自車に対する周辺車両の相対速度、及び周辺車両の加速度を用いる場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、周辺車両の車速、自車に対する周辺車両の相対速度、及び周辺車両の加速度のうちの一部のみを用いる構成としてもよい。また、周辺車両の正確な位置を認識する必要性が切り替わるような周辺車両の挙動に関する値であれば、周辺車両の車速、自車に対する周辺車両の相対速度、及び周辺車両の加速度以外の値を用いる構成としてもよい。
 (実施形態3)
 実施形態1,2では、自動運転車両でHCU10,10aを用いる場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、自動運転機能を有していない車両でHCU10,10aを用いる構成としてもよい。ただし、自動運転車両では、自動運転時において自車と周辺車両との位置関係を俯瞰図で示す要求が、自動運転機能を有していない車両よりも高いと考えられる。よって、HCU10,10aは、自動運転車両で用いられることが好ましい。特に、HCU10,10aは、自動運転車両での自動運転時に用いられることが好ましい。
 (実施形態4)
 実施形態1では、自車からの周辺車両の距離に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を変更する構成を示したが、必ずしもこれに限らない。例えば、自車の自動運転に関する状態に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を変更する構成(以下、実施形態4)としてもよい。以下では、実施形態4の一例について図を用いて説明する。実施形態4の車両用システム1は、HCU10の代わりにHCU10bを含む点を除けば、実施形態1の車両用システム1と同様である。
 本実施形態では、レベル3~5の自動運転は、監視義務が運転者にない自動運転とする。レベル3~5の自動運転は、セカンドタスクが許可される自動運転と言い換えることができる。本実施形態では、レベル3以上の自動化レベルとレベル2以下の自動化レベルとの切り替えで監視義務の有無が切り替わるものとする。よって、レベル3以上の自動化レベルからレベル2以下の自動化レベルに切り替わる場合に、安全運転に係る監視が運転者に要求されることになるものとする。一方、運転者への運転交代については、レベル2以上の自動化レベルからレベル1以下の自動化レベルに切り替わる場合に要求される構成としてもよい。また、レベル3以上の自動化レベルからレベル2以下の自動化レベルに切り替わる場合に、運転者への運転交代が要求される構成としてもよい。
 本施形態の自動運転車両は、自動化レベルが切り替え可能であるものとする。自動化レベルは、レベル0~5のうちの一部のレベル間でのみ切り替え可能な構成であってもよい。本実施形態では、自動運転車両が、自動化レベル3の自動運転と、自動化レベル2以下の自動運転若しくは手動運転とを切り替え可能な場合を例に挙げて説明を行う。例えば、自動化レベル3の自動運転は、渋滞時に限定して許可されるものとすればよい。
 <HCU10bの概略構成>
 続いて、図13を用いてHCU10bの概略構成についての説明を行う。HCU10bは、表示器90での表示の制御に関して、図13に示すように、情報取得部101b、距離特定部102、車線変更特定部103、ずれ特定部104、及び表示制御部105bを機能ブロックとして備える。HCU10bは、情報取得部101及び表示制御部105の代わりに情報取得部101b及び表示制御部105bを備える点を除けば、実施形態1のHCU10と同様である。このHCU10bが車両用表示制御装置に相当する。また、コンピュータによってHCU10bの各機能ブロックの処理が実行されることが、車両用表示制御方法が実行されることに相当する。
 情報取得部101bは、自動運転関連取得部113を備える。この自動運転関連取得部113が自動運転関連状態取得部に相当する。情報取得部101bは、自動運転関連取得部113を備える点を除けば、実施形態1の情報取得部101と同様である。自動運転関連取得部113は、自車の自動運転に関する状態(以下、自動運転関連状態)を取得する。自動運転関連状態としては、自車の運転者の周辺監視義務の有無,運転交代要求の有無,周辺監視要求の有無等が挙げられる。運転交代要求,周辺監視要求は、自車側のシステムからの運転者への要求である。自動運転関連取得部113は、自動運転ECU80の行動判断部から、これらの自動運転関連状態を取得する構成とすればよい。
 表示制御部105bは、自車からの周辺車両の距離の代わりに、自動運転関連取得部113で取得した自動運転関連状態に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を変更する点を除けば、実施形態1の表示制御部105と同様である。この表示制御部105bでの処理が表示制御工程に相当する。
 表示制御部105bは、自動運転関連取得部113で取得する自動運転関連状態に応じて、周辺車両の画像の表示位置の更新頻度を下げる。表示制御部105bは、自動運転関連取得部113で取得する自動運転関連状態が、運転者の周辺監視義務がなく、且つ、運転交代要求及び周辺監視要求のない状態である場合は、運転者の周辺監視義務がある、若しくは運転交代要求又は周辺監視要求のある状態である場合よりも、周辺車両の画像の表示位置の更新頻度を下げることが好ましい。
 自車の運転者に周辺監視義務がある場合、自車の運転者に周辺監視義務がない場合に比べ、自車に対する周辺車両の画像の表示位置を正確に示す必要性が高い。一方、自車の運転者に周辺監視義務がない場合、自車に対する周辺車両の画像の表示位置を正確に示す必要性が低い。また、自車側のシステムから運転者に運転交代要求又は周辺監視要求が行われている場合は、運転者が周辺状況を即座に把握する必要性が高い。これに対して、以上の構成によれば、自車に対する周辺車両の画像の表示位置を正確に示す必要性が低い場合に、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げる。よって、正確に示す必要性が低い場合に、周辺車両の画像の表示位置の更新頻度を下げ、表示位置が細かく動くことによる煩わしさを抑えることが可能になる。
 <HCU10bでの表示位置更新関連処理>
 ここで、図14のフローチャートを用いて、HCU10bでの表示位置更新関連処理の流れの一例について説明を行う。図14のフローチャートも図10のフローチャートと同様にして開始する構成とすればよい。図14の例では、更新頻度が「高」と「低」との2段階であるものとする。更新頻度が「高」がデフォルトの更新頻度とすればよい。
 ステップS41では、自動運転関連取得部113が、自動運転関連状態を取得する。自動運転関連状態としては、例えば自車の運転者の周辺監視義務の有無,運転交代要求の有無,周辺監視要求の有無を取得する。ステップS42では、S41で取得した自動運転関連状態が、自車の運転者の周辺監視義務ありの状態であった場合(S42でYES)には、ステップS44に移る。一方、S41で取得した自動運転関連状態が、自車の運転者の周辺監視義務なしの状態であった場合(S42でNO)には、ステップS43に移る。
 ステップS43では、S41で取得した自動運転関連状態が、運転交代要求(図14ではTOR)又は周辺監視要求(図14ではPMR)ありの状態であった場合(S43でYES)には、ステップS44に移る。一方、S41で取得した自動運転関連状態が、運転交代要求及び周辺監視要求なしの状態であった場合(S43でNO)には、ステップS45に移る。
 ステップS44では、表示制御部105bが、周辺車両画像の表示位置の更新頻度の設定を、デフォルトの「高」に維持して、ステップS50に移る。一方、ステップS45では、表示制御部105bが、周辺車両画像の表示位置の更新頻度の設定を、デフォルトの「高」から「低」に下げる。
 ステップS46~ステップS49の処理は、S5~S8の処理と同様にして行う。ステップS50では、表示位置更新関連処理の終了タイミングであった場合(S50でYES)には、表示位置更新関連処理を終了する。一方、表示位置更新関連処理の終了タイミングでなかった場合(S50でNO)には、S41に戻って処理を繰り返す。
 <実施形態4のまとめ>
 実施形態4の構成によっても、自車と周辺車両との位置関係を示す俯瞰図を表示させるので、自車と周辺車両との位置関係を俯瞰表示で示すことが可能になる。自車に対する周辺車両の画像の表示位置は、逐一変化し得る。しかしながら、前述したように、自車の運転者の周辺監視義務の有無,運転交代要求の有無,周辺監視要求の有無といった自車の自動運転関連状態によっては、自車に対する周辺車両の画像の表示位置を正確に示す必要性が低い場合もある。これに対して、自車の運転者の周辺監視義務の有無,運転交代要求の有無,周辺監視要求の有無といった自車の自動運転関連状態に応じて、俯瞰図における周辺車両の画像の表示位置の更新頻度を下げるので、正確に示す必要性が低い周辺車両の画像の表示位置については、表示位置が細かく動くことによる煩わしさを抑えることが可能になる。その結果、自車と周辺車両との位置関係を必要に応じてより正確に示しつつも、ユーザに煩わしさをより感じさせにくくすることが可能になる。
 実施形態4では、自車の自動運転関連状態として、自車の運転者の周辺監視義務の有無,運転交代要求の有無,周辺監視要求の有無を用いる場合を例に挙げて説明を行ったが、必ずしもこれに限らない。周辺車両の正確な位置を認識する必要性が切り替わるような自動運転関連状態であれば、自車の運転者の周辺監視義務の有無,運転交代要求の有無,周辺監視要求の有無以外の自動運転関連状態を用いる構成としてもよい。
 例えば、自動運転関連状態として、ハンズオン状態かハンズオフ状態かのハンズオンオフ状態も用いる構成としてもよい。ハンズオン状態とは、運転者がステアリングホイールを手で把持している状態である。ハンズオフ状態とは、運転者がステアリングホイールを手で把持していない状態である。ハンズオンオフ状態は、ステアリングホイールに設けられたセンサで検出すればよい。他にも、運手者を撮像した撮像画像に対する画像認識によって検出してもよい。
 表示制御部105bは、ハンズオン状態である場合に、ハンズオフ状態よりも更新頻度を下げることが好ましい。これは、ハンズオン状態では運転者の視線は表示器90の表示面よりも自車前方に向かう筈であり、ハンズオフ状態の場合よりも、自車に対する周辺車両の画像の表示位置を正確に示す必要性が低いためである。例えば、運転者の周辺監視義務がなく、運転交代要求及び周辺監視要求のない状態である場合であって、且つ、ハンズオン状態である場合に、運転者の周辺監視義務がなく、運転交代要求及び周辺監視要求のない状態である場合であって、且つ、ハンズオフ状態よりも更新頻度を下げる構成としてもよい。一方、表示制御部105bは、運転者の周辺監視義務があり、運転交代要求又は周辺監視要求のある状態である場合であって、且つ、ハンズオフ状態の場合に、運転者の周辺監視義務があり、運転交代要求又は周辺監視要求のある状態である場合であって、且つ、ハンズオン状態の場合よりも更新頻度を上げる構成としてもよい。
 (実施形態5)
 また、表示制御部105,105a,105bは、俯瞰図に実際の車線を模した画像を含む構成としてもよい。実際の車線を模した画像とは、実際の車線のカーブの有無を模した画像である。例えば、カーブの湾曲度合いまで模した画像とすればよい。この場合、表示制御部105,105a,105bは、周辺車両の画像の表示位置の更新が行われないタイミングであっても、俯瞰図における周辺車両の画像の表示位置の車線がカーブしている場合には、俯瞰図におけるその周辺車両の画像の向きは、その車線がカーブしている向きに沿って傾かせて表示させる構成(以下、実施形態5)とすればよい。
 実施形態5では、情報取得部101,101a,101bが、各車線の湾曲度合いも含む情報を取得すればよい。そして、表示制御部105,105a,105bが、情報取得部101,101a,101bで取得したこの各車線の湾曲度合いを用いて、図15に示すように、周辺車両画像OVIaの向きを、周辺車両画像OVIaで示す周辺車両の走行車線がカーブしている向きに沿って傾かせて表示させればよい。これによれば、俯瞰図において表示される車線のカーブの向きと周辺車両画像の向きとの乖離を抑えることが可能になる。よって、自車と周辺車両との位置関係をユーザが把握しにくくなることを抑制することができる。
 また、表示制御部105,105a,105bでの上述の処理は、例えば表示位置の更新頻度が前述の規定値以下の周辺車両についての周辺車両画像に絞り込んで行う構成としてもよい。これは、表示位置の更新頻度が下がることで、俯瞰図において表示される車線のカーブの向きと周辺車両画像の向きとの乖離が大きくなりやすいためである。
 (実施形態6)
 また、表示制御部105,105a,105bは、特定の運転を行っている周辺車両画像について、周辺車両画像の表示態様を変更することで、特定の運転を行っていることを示す構成としてもよい。
 例えば、表示制御部105,105a,105bは、蛇行運転している周辺車両の周辺車両画像について、周辺車両画像の表示態様を変更することで、蛇行運転を行っていることを示す構成としてもよい。周辺車両が蛇行運転しているか否かは、例えばずれ特定部104で逐次特定する周辺車両の横位置の変化をもとにHCU10,10a,10bで判断すればよい。蛇行運転を行っていることを示す周辺車両画像の表示態様の変更としては、点滅,表示色の変更等がある。他にも、図16に示すように、蛇行運転をしていることをイメージさせるアイコン(図16のMM参照)を重畳表示させる構成としてもよい。これによれば、逐次更新される周辺車両画像の表示位置だけでは認識しにくい周辺車両の蛇行運転を、ユーザに認識しやすくすることが可能になる。
 また、表示制御部105,105a,105bでの上述の処理は、例えば表示位置の更新頻度が前述の規定値以下の周辺車両についての周辺車両画像に絞り込んで行う構成としてもよい。これは、表示位置の更新頻度が下がることで、逐次更新される周辺車両画像の表示位置だけでは特に認識しにくい周辺車両の蛇行運転を、ユーザに認識しやすくするためである。これによれば、逐次更新される周辺車両画像の表示位置だけでは認識しにくい場合もある周辺車両の急減速を、ユーザに認識しやすくすることが可能になる。
 他にも、表示制御部105,105a,105bは、急減速している周辺車両の周辺車両画像について、周辺車両画像の表示態様を変更することで、急減速を行っていることを示す構成としてもよい。急減速を行っていることを示す周辺車両画像の表示態様の変更としては、表示色の変更,急減速をしていることをイメージさせるアイコンの重畳表示等が挙げられる。
 また、表示制御部105,105a,105bは、ハザードランプを点灯している周辺車両の周辺車両画像について、周辺車両画像の表示態様を変更することで、ハザードランプを点灯していることを示す構成としてもよい。周辺車両がハザードランプを点灯しているか否かは、自動運転ECU80での走行環境の認識結果からHCU10,10a,10bで判断すればよい。この場合、自動運転ECU80では、走行環境として、周辺車両のハザードランプの点灯状態も画像認識等によって認識する構成とすればよい。ハザードランプを点灯していることを示す周辺車両画像の表示態様の変更としては、ハザードランプを点灯していることをイメージさせるアイコンの重畳表示等が挙げられる。これによれば、逐次更新される周辺車両画像の表示位置だけでは認識することが困難な周辺車両のハザードランプの点灯を、ユーザに認識しやすくすることが可能になる。
 なお、本開示は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。また、本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された1つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウェア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと1つ以上のハードウェア論理回路との組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。

Claims (14)

  1.  車両で用いられ、
     前記車両と前記車両の周辺車両との位置関係を取得する位置関係取得部(111)と、
     前記位置関係取得部で取得する前記車両と前記周辺車両との位置関係を用いて、前記車両よりも上方の仮想視点から見た前記車両及び前記周辺車両のうちの少なくとも前記周辺車両の画像でその位置関係を示す俯瞰図を、前記車両の車室内で用いられる表示器(90)に表示させる表示制御部(105,105a,105b)とを備え、
     前記表示制御部は、前記車両及び前記周辺車両の少なくともいずれかに関する所定の条件に応じて、前記俯瞰図における前記周辺車両の画像の表示位置の更新頻度を下げる車両用表示制御装置。
  2.  請求項1において、
     前記表示制御部は、前記周辺車両別に前記更新頻度を変更可能となっている車両用表示制御装置。
  3.  請求項2において、
     前記表示制御部(105)は、前記周辺車両別に、前記車両からの距離が遠くなるのに応じて、前記更新頻度を下げる車両用表示制御装置。
  4.  請求項2において、
     前記周辺車両の挙動に関する値を取得する周辺挙動関連値取得部(112)を備え、
     前記表示制御部(105a)は、前記周辺車両別に、前記周辺挙動関連値取得部で取得する前記周辺車両の挙動に関する値に応じて、前記更新頻度を変更する車両用表示制御装置。
  5.  請求項4において、
     前記周辺挙動関連値取得部は、前記周辺車両の挙動に関する値として、少なくとも前記周辺車両の車速を取得するものであって、
     前記表示制御部は、前記周辺車両別に、前記周辺挙動関連値取得部で取得する前記周辺車両の車速が遅くなるのに応じて、前記更新頻度を下げる車両用表示制御装置。
  6.  請求項4又は5において、
     前記周辺挙動関連値取得部は、前記周辺車両の挙動に関する値として、少なくとも前記車両に対する前記周辺車両の相対速度を取得するものであって、
     前記表示制御部は、前記周辺車両別に、前記周辺挙動関連値取得部で取得する前記相対速度が小さくなるのに応じて、前記更新頻度を下げる車両用表示制御装置。
  7.  請求項4~6のいずれか1項において、
     前記周辺挙動関連値取得部は、前記周辺車両の挙動に関する値として、少なくとも前記周辺車両の加速度を取得するものであって、
     前記表示制御部は、前記周辺車両別に、前記周辺挙動関連値取得部で取得する前記周辺車両の加速度の絶対値が小さくなるのに応じて、前記更新頻度を下げる車両用表示制御装置。
  8.  請求項1~7のいずれか1項において、
     自動運転が可能な車両で用いられる車両用表示制御装置。
  9.  請求項8において、
     前記車両の前記自動運転に関する状態である自動運転関連状態を取得する自動運転関連状態取得部(113)を備え、
     前記表示制御部(105b)は、前記自動運転関連状態取得部で取得する前記自動運転関連状態に応じて、前記周辺車両の画像の表示位置の前記更新頻度を下げる車両用表示制御装置。
  10.  請求項9において、
     前記自動運転関連状態取得部は、前記自動運転関連状態として、前記車両の運転者の周辺監視義務の有無、及び前記車両側のシステムからの前記運転者への運転制御権の移譲の要求である運転交代要求又は前記車両側のシステムからの前記運転者への周辺監視の要求である周辺監視要求の有無を少なくとも取得するものであって、
     前記表示制御部は、前記自動運転関連状態取得部で取得する前記自動運転関連状態が、前記運転者の周辺監視義務がなく、且つ、前記運転交代要求及び前記周辺監視要求のない状態である場合は、前記運転者の周辺監視義務がある、若しくは前記運転交代要求又は前記周辺監視要求のある状態である場合よりも、前記周辺車両の画像の表示位置の前記更新頻度を下げる車両用表示制御装置。
  11.  請求項2~10のいずれか1項において、
     前記表示制御部は、前記周辺車両別に前記更新頻度を変更可能となっているものであって、前記俯瞰図に車線を示す画像も含むものであり、
     前記位置関係取得部は、前記車線に対する前記周辺車両の位置関係も取得するものであり、
     前記周辺車両の車線変更が行われることを特定する車線変更特定部(103)と、
     前記周辺車両の走行する車線の中央に対するその周辺車両の横位置のずれを特定するずれ特定部(104)とを備え、
     前記表示制御部は、前記更新頻度が規定値以下の前記周辺車両であって、且つ、前記車線変更特定部で車線変更が行われることを特定した前記周辺車両若しくは前記ずれ特定部で特定した前記ずれが閾値以上の前記周辺車両については、その周辺車両の画像の表示位置の更新を行う際に、前記俯瞰図において、その周辺車両の走行車線に対する横位置を、前記位置関係取得部で取得する前記車線に対するその周辺車両の位置関係に従った位置に表示させる一方、前記更新頻度が規定値以下の前記周辺車両であって、且つ、前記ずれ特定部で特定した前記ずれが閾値未満の前記周辺車両については、その周辺車両の画像の表示位置の更新を行う際に、前記俯瞰図において、その周辺車両の走行車線に対する横位置を、その周辺車両の走行車線の中央の位置に表示させる車両用表示制御装置。
  12.  請求項1~11のいずれか1項において、
     前記表示制御部は、前記俯瞰図に実際の車線を模した画像も含むものであり、
     前記表示制御部は、前記周辺車両の画像の表示位置の更新が行われないタイミングであっても、前記俯瞰図における前記周辺車両の画像の表示位置の車線がカーブしている場合には、前記俯瞰図におけるその周辺車両の画像の向きは、その車線がカーブしている向きに沿って傾かせて表示させる車両用表示制御装置。
  13.  車両で用いられ、
     前記車両の車室内で用いられる表示器(90)と、
     請求項1~12のいずれか1項に記載の車両用表示制御装置(10,10a,10b)とを含む車両用表示制御システム。
  14.  車両で用いられる車両用表示制御方法であって、
     少なくとも1つのプロセッサにより実行される、
     前記車両と前記車両の周辺車両との位置関係を取得する位置関係取得工程と、
     前記位置関係取得工程で取得した前記車両と前記周辺車両との位置関係を用いて、前記車両よりも上方の仮想視点から見た前記車両及び前記周辺車両のうちの少なくとも前記周辺車両の画像でその位置関係を示す俯瞰図を、前記車両の車室内で用いられる表示器(90)に表示させる表示制御工程とを含み、
     前記表示制御工程では、前記車両及び前記周辺車両の少なくともいずれかに関する所定の条件に応じて、前記俯瞰図における前記周辺車両の画像の表示位置の更新頻度を下げる車両用表示制御方法。
PCT/JP2021/027429 2020-08-06 2021-07-22 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法 WO2022030270A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020133993A JP2022030187A (ja) 2020-08-06 2020-08-06 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法
JP2020-133993 2020-08-06

Publications (1)

Publication Number Publication Date
WO2022030270A1 true WO2022030270A1 (ja) 2022-02-10

Family

ID=80119635

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/027429 WO2022030270A1 (ja) 2020-08-06 2021-07-22 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法

Country Status (2)

Country Link
JP (1) JP2022030187A (ja)
WO (1) WO2022030270A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006240449A (ja) * 2005-03-02 2006-09-14 Denso Corp 運転支援装置
JP2008185454A (ja) * 2007-01-30 2008-08-14 Xanavi Informatics Corp 車載電子装置、車両制御システム
JP2013228776A (ja) * 2012-04-24 2013-11-07 Jvc Kenwood Corp 移動体管理装置、移動体管理方法、及び移動体管理プログラム
JP2019096235A (ja) * 2017-11-27 2019-06-20 三菱自動車工業株式会社 運転支援制御装置及び車両
JP2020073374A (ja) * 2019-12-25 2020-05-14 株式会社デンソー 車両用表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006240449A (ja) * 2005-03-02 2006-09-14 Denso Corp 運転支援装置
JP2008185454A (ja) * 2007-01-30 2008-08-14 Xanavi Informatics Corp 車載電子装置、車両制御システム
JP2013228776A (ja) * 2012-04-24 2013-11-07 Jvc Kenwood Corp 移動体管理装置、移動体管理方法、及び移動体管理プログラム
JP2019096235A (ja) * 2017-11-27 2019-06-20 三菱自動車工業株式会社 運転支援制御装置及び車両
JP2020073374A (ja) * 2019-12-25 2020-05-14 株式会社デンソー 車両用表示装置

Also Published As

Publication number Publication date
JP2022030187A (ja) 2022-02-18

Similar Documents

Publication Publication Date Title
KR102223270B1 (ko) 여분의 초음파 radar를 구비한 자율 주행 차량
US10139818B2 (en) Visual communication system for autonomous driving vehicles (ADV)
US10254539B2 (en) On-vehicle device, method of controlling on-vehicle device, and computer-readable storage medium
US9707959B2 (en) Driving assistance apparatus
US20230191911A1 (en) Vehicle display apparatus
JP6906175B2 (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP2021006448A (ja) 単一車両走行用に設計された自動運転システムでの車両隊列実施
US20230166755A1 (en) Vehicle display control device, vehicle display control system, and vehicle display control method
US20230103715A1 (en) Vehicle display control device, vehicle display control system, and vehicle display control method
WO2022230781A1 (ja) 車両用報知制御装置及び車両用報知制御方法
JP7355057B2 (ja) 車両用制御装置及び車両用制御方法
WO2022030270A1 (ja) 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法
JP7424327B2 (ja) 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法
CN115218888A (zh) 用于更新高清地图的系统和方法
JP7302311B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
WO2022030269A1 (ja) 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法
WO2022030372A1 (ja) 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法
WO2023021930A1 (ja) 車両用制御装置及び車両用制御方法
US20240106989A1 (en) Vehicle display control device and non-transitory computer-readable medium
WO2023026707A1 (ja) 車両用制御装置及び車両用制御方法
WO2021020155A1 (ja) 車両制御装置
WO2023002797A1 (ja) 制御装置
WO2019176310A1 (ja) 車載システム
JP2023033097A (ja) 車両用制御装置及び車両用制御方法
JP2024075621A (ja) 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21853741

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21853741

Country of ref document: EP

Kind code of ref document: A1