WO2021015090A1 - 制御装置 - Google Patents

制御装置 Download PDF

Info

Publication number
WO2021015090A1
WO2021015090A1 PCT/JP2020/027665 JP2020027665W WO2021015090A1 WO 2021015090 A1 WO2021015090 A1 WO 2021015090A1 JP 2020027665 W JP2020027665 W JP 2020027665W WO 2021015090 A1 WO2021015090 A1 WO 2021015090A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
content
control device
determination unit
satisfied
Prior art date
Application number
PCT/JP2020/027665
Other languages
English (en)
French (fr)
Inventor
貢司 大山
猛 羽藤
靖 作間
しおり 間根山
一輝 小島
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020099537A external-priority patent/JP2021018807A/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2021015090A1 publication Critical patent/WO2021015090A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to a control device that controls a head-up display device.
  • Patent Document 1 describes that an object is superimposed and displayed using a head-up display device. The object expresses no entry or the like.
  • One aspect of the present disclosure is a control device configured to control a head-up display device.
  • the head-up display device is mounted on the vehicle and superimposes the content on the landscape in front.
  • the control device determines whether or not the vehicle is planned to turn right or left, and an intersection determination unit configured to determine whether or not the position of the vehicle is within an intersection area including an intersection.
  • the right / left turn determination unit configured as described above, the target detection unit configured to detect a target, and the following (a) to (c) are configured to determine whether or not they are satisfied.
  • the head-up display device is used to set the future travel path of the target.
  • a content display unit for displaying the content arranged along the line is provided.
  • intersection determination unit has determined that the position of the vehicle is within the intersection area.
  • the right / left turn determination unit has determined that the vehicle is scheduled to make a right or left turn.
  • the control device which is one aspect of the present disclosure, can call the driver's attention to the target by displaying the content when the conditions including the above (a) to (c) are satisfied.
  • FIG. 1 The configuration of the vehicle system 1 will be described with reference to FIGS. 1 to 3.
  • the vehicle system 1 shown in FIG. 1 is mounted on the vehicle 3 shown in FIG.
  • the vehicle system 1 includes an HMI (Human Machine Interface) system 5, an ADAS locator 7, a peripheral monitoring sensor 9, a vehicle control ECU 11, a driving support ECU 13, and a communication device 15.
  • HMI Human Machine Interface
  • ADAS locator 7 a peripheral monitoring sensor 9
  • vehicle control ECU 11 a driving support ECU 13
  • communication device 15 Each component of the vehicle system 1 is connected by an in-vehicle LAN 17.
  • the HMI system 5 includes a HUD (Head Up Display) device 19, a control device 21, a meter 23, an operating device 25, and a DSM (Driver Status Monitor) 27.
  • HUD Head Up Display
  • control device 21 a control device 21
  • meter 23 a meter 23
  • operating device 25 a DSM (Driver Status Monitor) 27.
  • DSM Driver Status Monitor
  • the HUD device 19 is provided on the instrument panel 29 of the vehicle 3. Therefore, the HUD device 19 is mounted on the vehicle 3.
  • the HUD device 19 includes a projector 31.
  • the projector 31 forms the display image 32 based on the image data.
  • the projector 31 is, for example, a liquid crystal type or a scanning type projector.
  • the image data is output from the control device 21.
  • the HUD device 19 includes an optical system 33.
  • the display image 32 is projected onto the front windshield 35 via the optical system 33.
  • the driver 37 perceives the luminous flux 39 of the display image 32 reflected on the vehicle interior side by the front windshield 35.
  • the driver 37 also perceives the luminous flux from the landscape in front of the vehicle 3.
  • the driver 37 visually recognizes the virtual image 41 of the display image 32 formed in front of the front windshield 35 by superimposing it on a part of the landscape in front. Therefore, the HUD device 19 superimposes and displays the virtual image 41 on the landscape in front.
  • the first content 115 and the second content 119 which will be described later, are a part of the virtual image 41.
  • the control device 21 includes a microcomputer having a CPU 43 and, for example, a semiconductor memory such as RAM or ROM (hereinafter referred to as memory 45).
  • a microcomputer having a CPU 43 and, for example, a semiconductor memory such as RAM or ROM (hereinafter referred to as memory 45).
  • Each function of the control device 21 is realized by the CPU 43 executing a program stored in a non-transitional substantive recording medium.
  • the memory 45 corresponds to a non-transitional substantive recording medium in which a program is stored.
  • the method corresponding to the program is executed.
  • the control device 21 may include one microcomputer or a plurality of microcomputers.
  • the control device 21 includes an intersection determination unit 47, a right / left turn determination unit 49, a target detection unit 51, a condition determination unit 53, a content display unit 55, and an obstacle detection unit 57. , The area calculation unit 59, the traffic light state acquisition unit 61, the preceding vehicle determination unit 63, and the display device control unit 65.
  • the meter 23 is provided on the instrument panel 29 as shown in FIG.
  • the meter 23 is a display device capable of displaying an image.
  • the image displayed by the meter 23 is not superimposed on the landscape in front of the vehicle 3.
  • the operation device 25 is a group of switches operated by the driver 37.
  • the DSM 27 captures a range including the face of the driver 37 and generates an image.
  • the ADAS locator 7 includes a GNSS (Global Navigation Satellite System) receiver 67, an inertial sensor 69, and a map DB 71.
  • the GNSS receiver 67 receives positioning signals from a plurality of artificial satellites.
  • the inertial sensor 69 includes, for example, a 3-axis gyro sensor and a 3-axis acceleration sensor.
  • the ADAS locator 7 detects the position of the vehicle 3 by combining the positioning signal received by the GNSS receiver 67 and the measurement result of the inertial sensor 69.
  • Map DB71 is a non-volatile memory.
  • the map DB 71 stores map information.
  • the map information includes the position of the intersection, the type of lane, and the like.
  • Types of lanes include, for example, a straight lane, a right turn lane, and a left turn lane.
  • the peripheral monitoring sensor 9 includes a front camera 73 and a millimeter wave radar 75.
  • the peripheral monitoring sensor 9 detects other vehicles 79, obstacles 111, and the like existing around the vehicle.
  • the vehicle control ECU 11 controls the vehicle 3 according to the driving operation of the driver 37 and the like.
  • the driving support ECU 13 provides driving support according to the detection result of the peripheral monitoring sensor 9.
  • the communication device 15 can perform wireless communication with the infrastructure 77 and another vehicle 79.
  • the processing executed by the control device 21 will be described with reference to FIGS. 4 to 9. Hereinafter, the example shown in FIG. 5 will be described.
  • the case shown in FIG. 5 is a case where the vehicle 3 exists at the intersection 81.
  • the intersection 81 is composed of a road 83 and a road 85.
  • Road 83 has lanes 87, 89, 91, 93.
  • the lane 87 is a lane that travels upward in FIG. 5, and is a lane that goes straight through the intersection 81.
  • Lane 89 is a lane that travels upward in FIG. 5, and is a lane that turns right at an intersection 81.
  • the lane 91 is a lane that travels downward in FIG. 5, and is a lane that goes straight through the intersection 81.
  • the lane 93 is a lane that travels downward in FIG. 5, and is a lane that turns right at an intersection 81.
  • Road 85 has lanes 95 and 97.
  • the lane 95 is a lane that travels to the right in FIG. 5, and is a lane that goes straight through the intersection 81.
  • the lane 97 is a lane that travels to the left in FIG. 5, and is a lane that goes straight through the intersection 81.
  • the case shown in FIG. 5 is a case in a country or region passing on the left side.
  • the intersection determination unit 47 determines whether or not the position of the vehicle 3 is in the intersection area 99 including the intersection 81.
  • the intersection region 99 is, for example, an region surrounded by a stop line 101 in front of the intersection 81. Stop lines 101 are provided in lanes 87, 91, 95, and 97, respectively.
  • the intersection determination unit 47 can determine whether or not the position of the vehicle 3 is in the intersection area 99 by using, for example, the infrastructure 77.
  • Infrastructure 77 sends a unique signal only within the intersection area 99.
  • the intersection determination unit 47 determines that the position of the vehicle 3 is in the intersection region 99. Further, when the communication device 15 does not receive the peculiar signal, the intersection determination unit 47 determines that the position of the vehicle 3 is not in the intersection region 99.
  • intersection determination unit 47 can also use, for example, the ADAS locator 7 to determine whether or not the position of the vehicle 3 is in the intersection area 99.
  • step 2 If it is determined that the position of the vehicle 3 is in the intersection area 99, this process proceeds to step 2. If it is determined that the position of the vehicle 3 is not within the intersection area 99, this process ends.
  • the right / left turn determination unit 49 determines whether or not the vehicle 3 is scheduled to make a right turn.
  • the right / left turn determination unit 49 can determine whether or not the vehicle 3 is scheduled to make a right turn by using, for example, the state of the blinker of the vehicle 3.
  • the right turn signal is blinking
  • the right / left turn determination unit 49 determines that the vehicle 3 is scheduled to make a right turn. If the right turn signal is not blinking, the right / left turn determination unit 49 determines that the vehicle 3 is not scheduled to make a right turn.
  • the right / left turn determination unit 49 can determine whether or not the vehicle 3 is scheduled to make a right turn, for example, according to the type of lane in which the vehicle 3 is traveling. When the vehicle 3 is traveling in the lane dedicated to turning right, the right / left turn determination unit 49 determines that the vehicle 3 is scheduled to make a right turn. When the vehicle 3 is traveling in a lane other than the one dedicated to turning right, the right / left turn determination unit 49 determines that the vehicle 3 is not scheduled to turn right.
  • step 3 If it is determined that vehicle 3 is going to turn right, this process proceeds to step 3. If it is determined that the vehicle 3 is not scheduled to turn right, this process ends.
  • the right / left turn determination unit 49 determines whether or not the vehicle 3 is scheduled to make a left turn. The method for determining whether or not the vehicle 3 is scheduled to turn left is the same as the method for determining whether or not the vehicle 3 is scheduled to turn right.
  • the target detection unit 51 detects the target.
  • the target is, for example, another vehicle 79, as shown in FIG.
  • the target detection unit 51 detects another vehicle 79 by using, for example, a peripheral monitoring sensor 9. Further, the target detection unit 51 detects the other vehicle 79 by receiving the position information of the other vehicle 79 using, for example, the communication device 15.
  • the position information of the other vehicle 79 is transmitted by, for example, the infrastructure 77, the other vehicle 79, or the like.
  • step 4 the condition determination unit 53 determines whether or not the traveling routes intersect. As shown in FIG. 5, the crossing of the traveling routes means that the future traveling route 103 when the vehicle 3 turns right and the future traveling route 105 of the other vehicle 79 detected in the step 3 intersect. is there.
  • the condition determination unit 53 can calculate the future travel route 103 when the vehicle 3 turns right by using, for example, the ADAS locator 7.
  • the condition determination unit 53 can calculate the future travel path 105 of the other vehicle 79, assuming that the other vehicle 79 goes straight as it is, for example.
  • step 5 If it is determined that an intersection of travel routes will occur, this process proceeds to step 5. If it is determined that the travel routes do not intersect, this process ends.
  • the traffic light state acquisition unit 61 acquires the state of the traffic light 107 related to the road 83.
  • the state of the traffic light 107 includes red, blue, and right turn only.
  • the infrastructure 77 transmits a signal indicating the state of the traffic light 107.
  • the traffic light state acquisition unit 61 acquires the state of the traffic light 107 by receiving a signal from the infrastructure 77 using, for example, the communication device 15. Further, the traffic light state acquisition unit 61 may acquire the state of the traffic light 107 by using the peripheral monitoring sensor 9.
  • step 6 the condition determination unit 53 determines the state of the traffic light 107 acquired in step 5. If the state of the traffic light 107 is neither red nor only right turn is possible, this process proceeds to step 7. The case where only red and right turn are not possible is, for example, blue. When the state of the traffic light 107 is red or only a right turn is possible, this process ends.
  • the preceding vehicle determination unit 63 determines whether or not the preceding vehicle 109 shown in FIG. 6 exists.
  • the preceding vehicle 109 is a vehicle traveling in front of the vehicle 3 in the same direction as the vehicle 3.
  • the preceding vehicle 109 is, for example, a vehicle that is scheduled to make a right turn like the vehicle 3 and has not started a right turn at this time. In the case shown in FIG. 5, the preceding vehicle 109 does not exist.
  • the preceding vehicle determination unit 63 can detect the preceding vehicle 109 by using, for example, the peripheral monitoring sensor 9. Further, the preceding vehicle determination unit 63 can detect the preceding vehicle 109, for example, by receiving the signal transmitted by the preceding vehicle 109 by the communication device 15.
  • step 8 If it is determined that the preceding vehicle 109 does not exist, this process proceeds to step 8. If it is determined that the preceding vehicle 109 exists, this process ends.
  • the obstacle detection unit 57 detects the obstacle 111 shown in FIGS. 5 and 6.
  • the obstacle 111 is a target existing around the vehicle 3. Examples of the obstacle 111 include another vehicle 79, a fixed object, and the like.
  • the obstacle detection unit 57 can detect the obstacle 111 by using, for example, the peripheral monitoring sensor 9.
  • the area calculation unit 59 calculates the hidden area 113 shown in FIG.
  • the hidden area 113 is an area hidden by the obstacle 111 when viewed from the driver 37.
  • the area calculation unit 59 uses the DSM 27 to detect the eye position of the driver 37.
  • the DSM 27 calculates the hidden area 113 based on the position of the vehicle 3, the position of the eyes of the driver 37, the position of the obstacle 111, and the size of the obstacle 111.
  • step 10 the condition determination unit 53 determines whether or not the target detected in step 3 is in the hidden area 113 calculated in step 9. In the example shown in FIG. 5, another vehicle 79 corresponding to the target is in the hidden area 113.
  • step 11 If there is a target in the hidden area 113, this process proceeds to step 11. If there is no target in the hidden area 113, this process ends.
  • step 11 the content display unit 55 uses the HUD device 19 to display the first content 115 shown in FIG. 7.
  • FIG. 7 shows the landscape in front of the driver 37 as seen from the viewpoint.
  • 117 is the display range of the HUD device 19.
  • the first content 115 is arranged along the portion of the lane 91 in which the other vehicle 79 will travel in the future from the viewpoint of the driver 37.
  • the portion of the lane 91 that the other vehicle 79 will travel in the future corresponds to the future travel route of the other vehicle 79.
  • the first content 115 is displayed near the boundary between the lane 91 and the lane 89. Therefore, the driver 37 can understand that the first content 115 prohibits the entry into the lane 91.
  • the first content 115 has a form extending in the vertical direction when viewed from the viewpoint of the driver 37. Therefore, the first content 115 can be displayed larger within a limited angle of view, and the visibility of the first content 115 can be improved as compared with the case where the first content 115 extends in the horizontal direction.
  • the first content 115 is displayed so as to move in the traveling direction of another vehicle 79, for example.
  • the first content 115 maintains a certain distance from, for example, another vehicle 79.
  • the first content 115 moves in the traveling direction of the other vehicle 79, for example, ahead of the other vehicle 79. In that case, even if the driver 37 cannot see the other vehicle 79, the driver 37 can recognize that the other vehicle 79, which is an oncoming vehicle, is going straight by looking at the first content 115.
  • the form of the first content 115 differs depending on, for example, the type of other vehicle 79.
  • the form of the first content 115 is the V-shaped form shown in FIG. 7.
  • the form of the first content 115 is, for example, an arc shape as shown in FIG.
  • the form of the first content 115 may be, for example, a form imitating a four-wheeled vehicle or a two-wheeled vehicle.
  • step 4 when there are a plurality of other vehicles 79 that are determined to have crossed travel routes, the content display unit 55 displays the first content 115 corresponding to each of the other vehicles 79.
  • the display device control unit 65 displays an image on the meter 23.
  • the image is, for example, the one shown in FIG.
  • the image represents vehicle 3, running lane 89, and first content 115.
  • the relative position of the first content 115 with respect to the vehicle 3 is the same for the display by the HUD device 19 and the display by the meter 23.
  • step 12 the condition determination unit 53 determines whether or not the brake of the vehicle 3 is off. If the brake of the vehicle 3 is off, this process proceeds to step 13. When the brake of the vehicle 3 is on, this process ends.
  • the content display unit 55 uses the HUD device 19 to display the second content 119 shown in FIG. From the viewpoint of the driver 37, the second content 119 is located in front of the vehicle 3.
  • the second content 119 is, for example, a display that calls attention to entering the lane 91.
  • the second content 119 can prevent the vehicle 3 from starting a right turn in a state where the driver 37 cannot see that another vehicle 79 is entering the intersection 81.
  • the control device 21 displays the first content 115 by using the HUD device 19 on the condition that the following (a) to (c) are satisfied.
  • intersection determination unit 47 has determined that the position of the vehicle 3 is within the intersection area 99.
  • the control device 21 can call the driver 37's attention to the other vehicle 79 by displaying the first content 115.
  • the control device 21 displays the first content 115 that moves in the traveling direction of the other vehicle 79. Therefore, the effect of calling the driver 37's attention to the other vehicle 79 is even higher.
  • the control device 21 displays the first content 115 by using the HUD device 19 on the condition that the following (d) is satisfied in addition to the above (a) to (c).
  • the control device 21 can display the first content 115 only when it is more necessary to call the driver 37's attention to the other vehicle 79.
  • the control device 21 displays the first content 115 in a different form depending on the type of the other vehicle 79.
  • the driver 37 can understand the types of other vehicles 79 based on the form of the first content 115.
  • the control device 21 displays the first content 115 by using the HUD device 19 on the condition that the following (e) is satisfied in addition to the above (a) to (c).
  • the control device 21 can display the first content 115 only when it is more necessary to call the driver 37's attention to the other vehicle 79.
  • the control device 21 displays the first content 115 by using the HUD device 19 on the condition that the following (f) is satisfied in addition to the above (a) to (c).
  • the preceding vehicle determination unit 63 has determined that the preceding vehicle 109 does not exist.
  • the control device 21 can display the first content 115 only when it is more necessary to call the driver 37's attention to the other vehicle 79.
  • intersection area 99 is an area surrounded by the stop line 101. Therefore, it is easy to set the intersection area 99.
  • control device 21 further includes a notification unit 121 in addition to the configuration in the first embodiment.
  • FIG. 13 is basically the same as the case shown in FIG. However, in the case shown in FIG. 13, there is a pedestrian crossing 123.
  • the pedestrian crossing 123 crosses the road 85.
  • the vehicle 3 turns right at the intersection 81, the vehicle 3 passes the pedestrian crossing 123.
  • steps 21 and 22 in FIG. 12 are the same as the processes of steps 1 and 2 in the first embodiment.
  • step 23 the preceding vehicle determination unit 63 determines whether or not the preceding vehicle 109 shown in FIG. 6 exists.
  • the meaning of the preceding vehicle 109 and the detection method of the preceding vehicle 109 are the same as those in the first embodiment. In the case shown in FIG. 13, the preceding vehicle 109 does not exist. If it is determined that the preceding vehicle 109 does not exist, this process proceeds to step 24. If it is determined that the preceding vehicle 109 exists, this process ends.
  • step 24 the condition determination unit 53 determines whether or not the following (h) is satisfied.
  • the preceding vehicle determination unit 63 determines that the preceding vehicle 109 exists when the vehicle 3 enters the intersection area 99, and then the preceding vehicle 109 no longer exists.
  • step 25 If the condition determination unit 53 determines that (h) is not satisfied, this process proceeds to step 26.
  • step 25 the notification unit 121 notifies the driver 37 of the vehicle 3 by using the HUD device 19 or the meter 23.
  • steps 26 and 27 are the same as the processes of steps 3 and 4 in the first embodiment. If it is determined in step 27 that the traveling routes intersect, the present process proceeds to step 30. If it is determined that the travel routes do not intersect, this process proceeds to step 28.
  • step 28 it is determined whether or not the target detection unit 51 has detected a pedestrian 125 on or around the pedestrian crossing 123 in the process of step 26. When the pedestrian 125 is detected, this process proceeds to step 30. If the pedestrian 125 is not detected, this process proceeds to step 29.
  • step 29 the content display unit 55 displays the third content using the HUD device 19.
  • the third content is content indicating that it is possible to turn right.
  • steps 30 to 32 are the same as the processes of steps 5, 6 and 8 in the first embodiment.
  • step 33 the obstacle detection unit 57 determines whether or not the obstacle 111 is detected in the process of step 32. When the obstacle 111 is detected, this process proceeds to step 34. If the obstacle 111 is not detected, this process proceeds to step 35.
  • step 34 the content display unit 55 displays the first content 115A using the HUD device 19.
  • the first content 115A includes content for vehicles and content for pedestrians.
  • the content for the vehicle is basically the same content as the first content 115 in the first embodiment.
  • Content for pedestrians is different from content for vehicles. If a positive determination is made in the process of step 27, the content display unit 55 displays the content for the vehicle. When the pedestrian 125 is detected in the process of step 26, the content display unit 55 displays the content for the pedestrian.
  • the content display unit 55 When a positive judgment is made in the process of step 27 and a pedestrian 125 is detected in the process of step 26, the content display unit 55 simultaneously displays both the content for the vehicle and the content for the pedestrian. ..
  • step 35 the content display unit 55 displays the first content 115B using the HUD device 19.
  • the first content 115B includes content for vehicles and content for pedestrians.
  • the content for the vehicle is basically the same content as the first content 115 in the first embodiment.
  • Content for pedestrians is different from content for vehicles. If a positive determination is made in the process of step 27, the content display unit 55 displays the content for the vehicle. When the pedestrian 125 is detected in the process of step 26, the content display unit 55 displays the content for the pedestrian.
  • the content display unit 55 When a positive judgment is made in the process of step 27 and a pedestrian 125 is detected in the process of step 26, the content display unit 55 simultaneously displays both the content for the vehicle and the content for the pedestrian. ..
  • the first content 115A and the first content 115B are basically the same contents.
  • the aspect of the first content 115A is an emphasized aspect as compared with the aspect of the first content 115B.
  • Examples of the emphasized mode include a mode in which the brightness is high, a mode in which the display object is large, a mode in which the display object is represented by a conspicuous color, a mode in which the display object moves violently, and the like.
  • step 36 the condition determination unit 53 determines whether or not the brake of the vehicle 3 is off. If the brake of the vehicle 3 is off, this process proceeds to step 38. When the brake of the vehicle 3 is on, this process ends.
  • step 37 the condition determination unit 53 determines whether or not the brake of the vehicle 3 is off. If the brake of the vehicle 3 is off, this process proceeds to step 39. When the brake of the vehicle 3 is on, this process ends.
  • step 38 the content display unit 55 displays the second content 119A using the HUD device 19.
  • the second content 119A includes content for vehicles and content for pedestrians.
  • the content for the vehicle is basically the same content as the second content 119 in the first embodiment.
  • Content for pedestrians is different from content for vehicles. If a positive determination is made in the process of step 27, the content display unit 55 displays the content for the vehicle. When the pedestrian 125 is detected in the process of step 26, the content display unit 55 displays the content for the pedestrian.
  • the content display unit 55 When a positive judgment is made in the process of step 27 and a pedestrian 125 is detected in the process of step 26, the content display unit 55 simultaneously displays both the content for the vehicle and the content for the pedestrian. ..
  • step 39 the content display unit 55 displays the second content 119B using the HUD device 19.
  • the second content 119B includes content for vehicles and content for pedestrians.
  • the content for the vehicle is basically the same content as the second content 119 in the first embodiment.
  • Content for pedestrians is different from content for vehicles. If a positive determination is made in the process of step 27, the content display unit 55 displays the content for the vehicle. When the pedestrian 125 is detected in the process of step 26, the content display unit 55 displays the content for the pedestrian.
  • the content display unit 55 When a positive judgment is made in the process of step 27 and a pedestrian 125 is detected in the process of step 26, the content display unit 55 simultaneously displays both the content for the vehicle and the content for the pedestrian. ..
  • the second content 119A and the second content 119B are basically the same contents.
  • the aspect of the second content 119A is an emphasized aspect as compared with the aspect of the second content 119B.
  • Examples of the emphasized mode include a mode in which the brightness is high, a mode in which the display object is large, a mode in which the display object is represented by a conspicuous color, a mode in which the display object moves violently, and the like.
  • the control device 21 displays the content for pedestrians by using the HUD device 19 on the condition that the following (a), (b), and (g) are satisfied.
  • intersection determination unit 47 has determined that the position of the vehicle 3 is within the intersection area 99.
  • the target detection unit 51 detected a pedestrian 125 on the pedestrian crossing 123.
  • control device 21 may call the driver 37's attention to the pedestrian 125 by displaying the content for the pedestrian. it can.
  • control device 21 When displaying both the content for the vehicle and the content for the pedestrian, the control device 21 displays both contents at the same time.
  • the control device 21 can simultaneously call the attention of the driver 37 to the other vehicle 79 and the pedestrian 125.
  • the control device 21 notifies the driver 37 on the condition that (a), (b), and (h) are satisfied.
  • the driver 37 can know by notification that the preceding vehicle 109 has disappeared and the vehicle 3 has taken the lead.
  • steps 5 and 6 may be omitted. If an affirmative decision is made in step 4, the present process can proceed to any of steps 7, 10 and 11.
  • step 7 may be omitted. If an affirmative decision is made in step 6, the present process can proceed to any of steps 10 and 11.
  • steps 8 to 10 may be omitted. If an affirmative decision is made in step 7, this process can proceed to step 11.
  • intersection region 99 may include a region outside the stop line 101.
  • the image shown in FIG. 8 may be displayed on a display device other than the meter 23.
  • step 33 if a negative determination is made in step 33, the first content 115B and the second content 119B may not be displayed.
  • the determination in steps 32 and 33 may not be performed. In this case, when the affirmative judgment is made in step 31, the same first content 115 can be displayed.
  • the timing of displaying the content for pedestrians may be the timing of releasing the brake of the vehicle 3.
  • control device 21 may further display warning content when the right / left turn speed is equal to or greater than the threshold value.
  • the warning content is, for example, an icon.
  • the control device 21 and its method described in the present disclosure are dedicated provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a computer. Alternatively, the control device 21 and its method described in the present disclosure may be realized by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the control device 21 and its method described in the present disclosure is a combination of a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured by. The computer program may also be stored on a computer-readable non-transitional tangible recording medium as an instruction executed by the computer. The method for realizing the functions of each part included in the control device 21 does not necessarily include software, and all the functions may be realized by using one or a plurality of hardware.
  • a plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.
  • control device 21 In addition to the control device 21 described above, a system having the control device 21 as a component, a program for operating a computer as the control device 21, a non-transitional actual record of a semiconductor memory or the like in which this program is recorded
  • the present disclosure can also be realized in various forms such as a medium and a control method for a HUD device.

Abstract

制御装置(21)は、ヘッドアップディスプレイ装置(19)を制御する。制御装置は、交差点判断ユニットと、右左折判断ユニットと、物標検出ユニットと、条件判断ユニットと、コンテンツ表示ユニットとを備える。交差点判断ユニットは、車両の位置が交差点領域の中にあるか否かを判断する。右左折判断ユニットは、車両が右折又は左折する予定であるか否かを判断する。条件判断ユニットは、以下の(a)~(c)が充足されるか否かを判断する。コンテンツ表示ユニットは、前記(a)~(c)が充足されると判断することを必要条件として、物標の将来の走行経路に沿って配置されたコンテンツを表示する。

Description

制御装置 関連出願の相互参照
 本国際出願は、2019年7月19日に日本国特許庁に出願された日本国特許出願第2019-133833号に基づく優先権、及び、2020年6月8日に日本国特許庁に出願された日本国特許出願第2020-99537号に基づく優先権を主張するものであり、日本国特許出願第2019-133833号の全内容及び日本国特許出願第2020-99537号の全内容を本国際出願に参照により援用する。
 本開示は、ヘッドアップディスプレイ装置を制御する制御装置に関する。
 特許文献1には、ヘッドアップディスプレイ装置を用いてオブジェクトを重畳表示することが記載されている。オブジェクトは、進入禁止等を表現している。
特開2018-200626号公報
 発明者の詳細な検討の結果、車両が交差点で右左折しようとするとき、他の車両等に対するドライバの注意を喚起する必要があるという課題が見出された。本開示の1つの局面では、他の車両等に対するドライバの注意を喚起することができる制御装置を提供することが好ましい。
 本開示の1つの局面は、ヘッドアップディスプレイ装置を制御するように構成された制御装置である。ヘッドアップディスプレイ装置は、車両に搭載され、コンテンツを前方の風景に重畳表示する。制御装置は、前記車両の位置が交差点を含む交差点領域の中にあるか否かを判断するように構成された交差点判断ユニットと、前記車両が右折又は左折する予定であるか否かを判断するように構成された右左折判断ユニットと、物標を検出するように構成された物標検出ユニットと、以下の(a)~(c)が充足されるか否かを判断するように構成された条件判断ユニットと、前記(a)~(c)が充足されると前記条件判断ユニットが判断することを必要条件として、前記ヘッドアップディスプレイ装置を用いて、前記物標の将来の走行経路に沿って配置された前記コンテンツを表示するコンテンツ表示ユニットと、を備える。
 (a)前記車両の位置が前記交差点領域の中にあると前記交差点判断ユニットが判断したこと。
 (b)前記車両が右折又は左折する予定であると前記右左折判断ユニットが判断したこと。
 (c)前記車両が右折又は左折した場合の将来の走行経路と、前記物標検出ユニットが検出した前記物標の将来の走行経路とが交差すること。
 前記(a)~(c)が充足される場合は、物標に対するドライバの注意を喚起する必要性が高い場合である。本開示の1つの局面である制御装置は、前記(a)~(c)を含む条件が充足される場合、コンテンツを表示することで、物標に対するドライバの注意を喚起することができる。
車両システムの構成を表すブロック図である。 車両及びHUD装置の構成を表す説明図である。 制御装置の機能的構成を表すブロック図である。 制御装置が実行する処理を表すフローチャートである。 交差点における車両、他の車両、障害物等の位置を表す説明図である。 交差点における車両、他の車両、障害物、先行車等の位置を表す説明図である。 第1コンテンツを表す説明図である。 メータに表示された画像を表す説明図である。 第1コンテンツ及び第2コンテンツを表す説明図である。 二輪車に対応する第1コンテンツを表す説明図である。 制御装置の機能的構成を表すブロック図である。 制御装置が実行する処理を表すフローチャートである。 交差点における車両、他の車両、障害物、横断歩道、歩行者等の位置を表す説明図である。
 本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
 1.車両システム1の構成
 車両システム1の構成を、図1~図3に基づき説明する。図1に示す車両システム1は、図2に示す車両3に搭載されている。図1に示すように、車両システム1は、HMI(Human Machine Interface)システム5、ADASロケータ7、周辺監視センサ9、車両制御ECU11、運転支援ECU13、及び通信機15を備える。車両システム1の各構成要素は、車内LAN17により接続されている。
 図1に示すように、HMIシステム5は、HUD(Head Up Display)装置19、制御装置21、メータ23、操作デバイス25、及びDSM(Driver Status Monitor)27を備える。
 図2に示すように、HUD装置19は、車両3のインストルメンタルパネル29に設けられる。よって、HUD装置19は、車両3に搭載される。HUD装置19はプロジェクタ31を備える。プロジェクタ31は、画像データに基づき表示画像32を形成する。プロジェクタ31は、例えば、液晶式又は走査式のプロジェクタである。画像データは制御装置21から出力される。
 HUD装置19は光学系33を備える。表示画像32は、光学系33を経て、フロントウインドシールド35に投影される。ドライバ37は、フロントウインドシールド35によって車室内側に反射された表示画像32の光束39を知覚する。また、ドライバ37は、車両3の前方の風景からの光束も知覚する。
 そのため、ドライバ37は、フロントウインドシールド35の前方にて結像する表示画像32の虚像41を、前方の風景の一部と重ねて視認する。よって、HUD装置19は、虚像41を前方の風景に重畳表示する。後述する第1コンテンツ115及び第2コンテンツ119は、虚像41の一部である。
 制御装置21は、CPU43と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ45とする)と、を有するマイクロコンピュータを備える。
 制御装置21の各機能は、CPU43が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ45が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御装置21は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
 制御装置21は、図3に示すように、交差点判断ユニット47と、右左折判断ユニット49と、物標検出ユニット51と、条件判断ユニット53と、コンテンツ表示ユニット55と、障害物検出ユニット57と、領域算出ユニット59と、信号機状態取得ユニット61と、先行車判断ユニット63と、表示デバイス制御ユニット65と、を備える。
 メータ23は、図2に示すように、インストルメンタルパネル29に設けられている。メータ23は、画像を表示可能な表示デバイスである。メータ23が表示する画像は、車両3の前方の風景に重畳されない。
 操作デバイス25は、ドライバ37により操作されるスイッチ群である。DSM27は、ドライバ37の顔を含む範囲を撮影し、画像を生成する。
 図1に示すように、ADASロケータ7は、GNSS(Global Navigation Satellite System)受信機67、慣性センサ69、及び地図DB71を備える。GNSS受信機67は、複数の人工衛星から測位信号を受信する。慣性センサ69は、例えば、3軸ジャイロセンサ及び3軸加速度センサを備える。ADASロケータ7は、GNSS受信機67で受信する測位信号と、慣性センサ69の計測結果とを組み合わせることにより、車両3の位置を検出する。
 地図DB71は不揮発性メモリである。地図DB71は地図情報を記憶している。地図情報は、交差点の位置、車線の種別等を含む。車線の種別として、例えば、直進の車線、右折の車線、左折の車線等がある。
 周辺監視センサ9は、前方カメラ73と、ミリ波レーダ75と、を含む。周辺監視センサ9は、車両の周囲に存在する他の車両79、障害物111等を検出する。
 車両制御ECU11は、ドライバ37の運転操作等に応じて車両3を制御する。運転支援ECU13は、周辺監視センサ9の検出結果等に応じて運転支援を行う。通信機15は、インフラ77及び他の車両79と無線通信を行うことができる。
 2.制御装置21が実行する処理
 制御装置21が実行する処理を図4~図9に基づき説明する。以下では、図5に示す事例を挙げて説明する。図5に示す事例は、車両3が交差点81に存在する事例である。交差点81は、道路83と道路85とにより構成される。
 道路83は、車線87、89、91、93を備える。車線87は、図5において上方向に走行する車線であって、交差点81を直進する車線である。車線89は、図5において上方向に走行する車線であって、交差点81において右折する車線である。車線91は、図5において下方向に走行する車線であって、交差点81を直進する車線である。車線93は、図5において下方向に走行する車線であって、交差点81において右折する車線である。
 道路85は、車線95、97を備える。車線95は、図5において右方向に走行する車線であって、交差点81を直進する車線である。車線97は、図5において左方向に走行する車線であって、交差点81を直進する車線である。図5に示す事例は、左側通行の国又は地域における事例である。
 図4のステップ1では、車両3の位置が交差点81を含む交差点領域99の中にあるか否かを、交差点判断ユニット47が判断する。図5に示すように、交差点領域99は、例えば、交差点81の手前の停止線101により囲まれる領域である。停止線101は、車線87、91、95、97にそれぞれ設けられている。
 交差点判断ユニット47は、例えば、インフラ77を利用して、車両3の位置が交差点領域99の中にあるか否かを判断することができる。インフラ77は、交差点領域99の中にのみ、特有の信号を送っている。特有の信号を通信機15が受信した場合、交差点判断ユニット47は、車両3の位置が交差点領域99の中にあると判断する。また、特有の信号を通信機15が受信しない場合、交差点判断ユニット47は、車両3の位置が交差点領域99の中にないと判断する。
 また、交差点判断ユニット47は、例えば、ADASロケータ7を使用して、車両3の位置が交差点領域99の中にあるか否かを判断することもできる。
 車両3の位置が交差点領域99の中にあると判断した場合、本処理はステップ2に進む。車両3の位置が交差点領域99の中にないと判断した場合、本処理は終了する。
 ステップ2では、車両3が右折する予定であるか否かを、右左折判断ユニット49が判断する。右左折判断ユニット49は、例えば、車両3のウインカーの状態を利用して、車両3が右折する予定であるか否かを判断することができる。右折のウインカーが点滅している場合、右左折判断ユニット49は、車両3が右折する予定であると判断する。右折のウインカーが点滅していない場合、右左折判断ユニット49は、車両3が右折する予定ではないと判断する。
 また、右左折判断ユニット49は、例えば、車両3が走行中の車線の種類に応じて、車両3が右折する予定であるか否かを判断することができる。車両3が右折専用の車線を走行している場合、右左折判断ユニット49は、車両3が右折する予定であると判断する。車両3が右折専用以外の車線を走行している場合、右左折判断ユニット49は、車両3が右折する予定ではないと判断する。
 車両3が右折する予定であると判断した場合、本処理はステップ3に進む。車両3が右折する予定ではないと判断した場合、本処理は終了する。なお、右側通行の道路の場合、右左折判断ユニット49は、車両3が左折する予定であるか否かを判断する。車両3が左折する予定であるか否かの判断方法は、右折する予定であるかの判断方法と同様である。
 ステップ3では、物標検出ユニット51が物標を検出する。物標とは、例えば、図5に示すように、他の車両79である。物標検出ユニット51は、例えば、周辺監視センサ9を用いて他の車両79を検出する。また、物標検出ユニット51は、例えば、通信機15を用いて他の車両79の位置情報を受信することで、他の車両79を検出する。他の車両79の位置情報は、例えば、インフラ77、他の車両79等により送信される。
 ステップ4では、走行経路の交差が生じるか否かを、条件判断ユニット53が判断する。走行経路の交差とは、図5に示すように、車両3が右折した場合の将来の走行経路103と、前記ステップ3で検出した他の車両79の将来の走行経路105とが交差することである。
 条件判断ユニット53は、例えば、ADASロケータ7を用いて、車両3が右折した場合の将来の走行経路103を算出することができる。条件判断ユニット53は、例えば、他の車両79がそのまま直進すると仮定して、他の車両79の将来の走行経路105を算出することができる。
 走行経路の交差が生じると判断した場合、本処理はステップ5に進む。走行経路の交差が生じないと判断した場合、本処理は終了する。
 ステップ5では、道路83に関する信号機107の状態を、信号機状態取得ユニット61が取得する。信号機107の状態として、赤、青、右折のみ可等がある。インフラ77は、信号機107の状態を表す信号を送信している。信号機状態取得ユニット61は、例えば、通信機15を用いてインフラ77から信号を受信することで、信号機107の状態を取得する。また、信号機状態取得ユニット61は、周辺監視センサ9を用いて信号機107の状態を取得してもよい。
 ステップ6では、前記ステップ5で取得した信号機107の状態について、条件判断ユニット53が判断を行う。信号機107の状態が、赤、及び、右折のみ可のいずれでもない場合、本処理はステップ7に進む。赤、及び、右折のみ可のいずれでもない場合とは、例えば、青である場合である。信号機107の状態が、赤、又は、右折のみ可である場合、本処理は終了する。
 ステップ7では、図6に示す先行車109が存在するか否かを、先行車判断ユニット63が判断する。先行車109とは、車両3の前方を、車両3と同じ方向に走行中の車両である。先行車109は、例えば、車両3と同様に右折する予定であり、現時点では右折を開始していない車両である。図5に示す事例では先行車109は存在しない。
 先行車判断ユニット63は、例えば、周辺監視センサ9を用いて先行車109を検出することができる。また、先行車判断ユニット63は、例えば、先行車109が送信する信号を通信機15で受信することで、先行車109を検出することができる。
 先行車109が存在しないと判断した場合、本処理はステップ8に進む。先行車109が存在すると判断した場合、本処理は終了する。
 ステップ8では、障害物検出ユニット57が、図5、図6に示す障害物111を検出する。障害物111とは、車両3の周囲に存在する物標である。障害物111として、例えば、他の車両79、固定物等が挙げられる。障害物検出ユニット57は、例えば、周辺監視センサ9を用いて障害物111を検出することができる。
 ステップ9では、図5に示す隠された領域113を、領域算出ユニット59が算出する。隠された領域113は、ドライバ37から見て、障害物111により隠された領域である。領域算出ユニット59は、DSM27を用いて、ドライバ37の目の位置を検出する。DSM27は、車両3の位置、ドライバ37の目の位置、障害物111の位置、及び障害物111の大きさに基づき、隠された領域113を算出する。
 ステップ10では、前記ステップ3で検出した物標が、前記ステップ9で算出した隠された領域113の中にあるか否かを条件判断ユニット53が判断する。図5に示す事例では、物標に対応する他の車両79が、隠された領域113の中にある。
 隠された領域113の中に物標がある場合、本処理はステップ11に進む。隠された領域113の中に物標がない場合、本処理は終了する。
 ステップ11では、コンテンツ表示ユニット55が、HUD装置19を用いて、図7に示す第1コンテンツ115を表示する。図7は、ドライバ37の視点から見た前方の風景を表す。117は、HUD装置19の表示範囲である。
 第1コンテンツ115は、ドライバ37の視点から見て、車線91のうち、他の車両79が将来走行する部分に沿って配置されている。車線91のうち、他の車両79が将来走行する部分は、他の車両79の将来の走行経路に対応する。第1コンテンツ115は、車線91と車線89との境界付近に表示される。そのため、ドライバ37は、第1コンテンツ115が車線91への進入を禁止していることを理解することができる。
 第1コンテンツ115は、ドライバ37の視点から見て、鉛直方向に延びる形態を有する。そのため、水平方向に延びる形態である場合と比べて、限られた画角内において第1コンテンツ115を大きく表示し、第1コンテンツ115の視認性を高めることができる。第1コンテンツ115は、例えば、他の車両79の走行方向に動くように表示される。第1コンテンツ115は、例えば、他の車両79との間に一定の距離を維持する。第1コンテンツ115は、例えば、他の車両79よりも先行して、他の車両79の走行方向に動く。その場合、ドライバ37から他の車両79が見えていなくても、ドライバ37は、第1コンテンツ115を見ることにより、対向車である他の車両79が直進してくることを認識できる。
 第1コンテンツ115の形態は、例えば、他の車両79の種類に応じて異なる。例えば、他の車両79の種類が四輪車である場合、第1コンテンツ115の形態は、図7に示すV字型の形態である。他の車両79の種類が二輪車である場合、第1コンテンツ115の形態は、例えば、図10に示すように、円弧状である。第1コンテンツ115の形態は、例えば、四輪車や二輪車を模した形態であってもよい。
 前記ステップ4において、走行経路の交差が生じると判断した他の車両79が複数存在する場合、コンテンツ表示ユニット55は、それぞれの他の車両79に対応する第1コンテンツ115を表示する。
 また、ステップ11では、表示デバイス制御ユニット65が、メータ23に画像を表示する。画像は、例えば、図8に示すものである。画像は、車両3、走行中の車線89、及び第1コンテンツ115を表す。車両3に対する第1コンテンツ115の相対位置は、HUD装置19による表示と、メータ23による表示とで同一である。
 ステップ12では、車両3のブレーキがオフであるか否かを条件判断ユニット53が判断する。車両3のブレーキがオフである場合、本処理はステップ13に進む。車両3のブレーキがオンである場合、本処理は終了する。
 ステップ13では、コンテンツ表示ユニット55が、HUD装置19を用いて、図9に示す第2コンテンツ119を表示する。ドライバ37の視点から見て、第2コンテンツ119は車両3の前方に位置する。第2コンテンツ119は、例えば、車線91へ進入することへの注意を喚起する表示である。第2コンテンツ119は、他の車両79が交差点81内に進入してくることをドライバ37が視認できない状態で車両3が右折を開始してしまうことを抑制できる。
 3.制御装置21が奏する効果
 (1A)制御装置21は、以下の(a)~(c)が充足されることを必要条件として、HUD装置19を用いて、第1コンテンツ115を表示する。
 (a)車両3の位置が交差点領域99の中にあると交差点判断ユニット47が判断したこと。
 (b)車両3が右折する予定であると右左折判断ユニット49が判断したこと。
 (c)車両3が右折した場合の将来の走行経路103と、他の車両79の将来の走行経路105とが交差すること。
 前記(a)~(c)が充足される場合は、他の車両79に対するドライバ37の注意を喚起する必要性が高い場合である。制御装置21は、前記(a)~(c)を含む条件が充足される場合、第1コンテンツ115を表示することで、他の車両79に対するドライバ37の注意を喚起することができる。
 (1B)制御装置21は、他の車両79の走行方向に動く第1コンテンツ115を表示する。そのため、他の車両79に対するドライバ37の注意を喚起する効果が一層高い。
 (1C)制御装置21は、前記(a)~(c)に加えて以下の(d)が充足されることを必要条件として、HUD装置19を用いて、第1コンテンツ115を表示する。
 (d)他の車両79は、ドライバ37から見て、隠された領域113の中にあること。
 前記(d)が充足される場合は、ドライバ37が他の車両79を直接視認することができないため、他の車両79に対するドライバ37の注意を喚起する必要性が一層高い場合である。制御装置21は、他の車両79に対するドライバ37の注意を喚起する必要性が一層高い場合に限り、第1コンテンツ115を表示することができる。
 (1D)制御装置21は、他の車両79の種類に応じて異なる形態の第1コンテンツ115を表示する。ドライバ37は、第1コンテンツ115の形態に基づき、他の車両79の種類を理解することができる。
 (1E)制御装置21は、前記(c)を充足する他の車両79が複数存在する場合、それぞれの他の車両79に対応する第1コンテンツ115を表示する。そのため、制御装置21は、それぞれの他の車両79に対するドライバ37の注意を喚起することができる。
 (1F)制御装置21は、前記(a)~(c)に加えて以下の(e)が充足されることを必要条件として、HUD装置19を用いて、第1コンテンツ115を表示する。
 (e)信号機状態取得ユニット61が取得した信号機107の状態は、赤、及び、右折のみ可のいずれでもないこと。
 前記(e)が充足される場合は、車両3及び他の車両79が走行可能な場合であるため、他の車両79に対するドライバ37の注意を喚起する必要性が一層高い場合である。制御装置21は、他の車両79に対するドライバ37の注意を喚起する必要性が一層高い場合に限り、第1コンテンツ115を表示することができる。
 (1G)制御装置21は、前記(a)~(c)に加えて以下の(f)が充足されることを必要条件として、HUD装置19を用いて、第1コンテンツ115を表示する。
 (f)先行車109が存在しないと先行車判断ユニット63が判断したこと。
 前記(f)が充足される場合は、車両3の右折を開始できる場合であるため、他の車両79に対するドライバ37の注意を喚起する必要性が一層高い場合である。制御装置21は、他の車両79に対するドライバ37の注意を喚起する必要性が一層高い場合に限り、第1コンテンツ115を表示することができる。
 (1H)交差点領域99は、停止線101により囲まれる領域である。そのため、交差点領域99を設定することが容易である。
 (1I)制御装置21は、図8に示す画像をメータ23に表示する。そのため、他の車両79に対するドライバ37の注意を一層喚起することができる。
<第2実施形態>
 1.第1実施形態との相違点
 第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
 図11に示すように、制御装置21は、第1実施形態での構成に加えて、報知ユニット121をさらに備える。
 2.制御装置21が実行する処理
 次に、第2実施形態の制御装置21が実行する処理について、図12のフローチャートを用いて説明する。また、以下では、図13に示す事例を挙げて説明する。図13に示す事例は、図5に示す事例と基本的には同様である。ただし、図13に示す事例では、横断歩道123が存在する。横断歩道123は、道路85を横断する。車両3が交差点81において右折した場合、車両3は横断歩道123を通過する。
 図12のステップ21、22の処理は、第1実施形態におけるステップ1、2の処理と同様である。
 ステップ23では、図6に示す先行車109が存在するか否かを、先行車判断ユニット63が判断する。先行車109の意味、及び先行車109の検出方法は、第1実施形態と同様である。図13に示す事例では先行車109は存在しない。先行車109が存在しないと判断した場合、本処理はステップ24に進む。先行車109が存在すると判断した場合、本処理は終了する。
 ステップ24では、以下の(h)が充足されるか否かを条件判断ユニット53が判断する。
 (h)車両3が交差点領域99に入ったときは先行車109が存在し、その後、先行車109が存在しなくなったと先行車判断ユニット63が判断したこと。
 (h)が充足されると条件判断ユニット53が判断した場合、本処理はステップ25に進む。(h)が充足されないと条件判断ユニット53が判断した場合、本処理はステップ26に進む。
 ステップ25では、報知ユニット121が、HUD装置19又はメータ23を用いて、車両3のドライバ37に報知を行う。
 ステップ26、27の処理は、第1実施形態におけるステップ3、4の処理と同様である。ステップ27において走行経路の交差が生じると判断した場合、本処理はステップ30に進む。走行経路の交差が生じないと判断した場合、本処理はステップ28に進む。
 ステップ28では、前記ステップ26の処理において、横断歩道123の上又はその周囲にいる歩行者125を物標検出ユニット51が検出したか否かを判断する。歩行者125を検出した場合、本処理はステップ30に進む。歩行者125を検出しなかった場合、本処理はステップ29に進む。
 ステップ29では、コンテンツ表示ユニット55が、HUD装置19を用いて、第3コンテンツを表示する。第3コンテンツは、右折可能であることを示すコンテンツである。
 ステップ30~32の処理は、第1実施形態におけるステップ5、6、8の処理と同様である。
 ステップ33では、前記ステップ32の処理において障害物111を検出したか否かを障害物検出ユニット57が判断する。障害物111を検出した場合、本処理はステップ34に進む。障害物111を検出しなかった場合、本処理はステップ35に進む。
 ステップ34では、コンテンツ表示ユニット55が、HUD装置19を用いて、第1コンテンツ115Aを表示する。
 第1コンテンツ115Aとして、車両用のコンテンツと、歩行者用のコンテンツとがある。車両用のコンテンツは、第1実施形態における第1コンテンツ115と基本的には同様のコンテンツである。歩行者用のコンテンツは、車両用のコンテンツとは異なる。前記ステップ27の処理で肯定判断した場合、コンテンツ表示ユニット55は、車両用のコンテンツを表示する。前記ステップ26の処理で歩行者125を検出した場合、コンテンツ表示ユニット55は、歩行者用のコンテンツを表示する。
 前記ステップ27の処理で肯定判断し、且つ、前記ステップ26の処理で歩行者125を検出した場合、コンテンツ表示ユニット55は、車両用のコンテンツと、歩行者用のコンテンツとの両方を同時に表示する。
 ステップ35では、コンテンツ表示ユニット55が、HUD装置19を用いて、第1コンテンツ115Bを表示する。
 第1コンテンツ115Bとして、車両用のコンテンツと、歩行者用のコンテンツとがある。車両用のコンテンツは、第1実施形態における第1コンテンツ115と基本的には同様のコンテンツである。歩行者用のコンテンツは、車両用のコンテンツとは異なる。前記ステップ27の処理で肯定判断した場合、コンテンツ表示ユニット55は、車両用のコンテンツを表示する。前記ステップ26の処理で歩行者125を検出した場合、コンテンツ表示ユニット55は、歩行者用のコンテンツを表示する。
 前記ステップ27の処理で肯定判断し、且つ、前記ステップ26の処理で歩行者125を検出した場合、コンテンツ表示ユニット55は、車両用のコンテンツと、歩行者用のコンテンツとの両方を同時に表示する。
 第1コンテンツ115Aと第1コンテンツ115Bとは、基本的には同様のコンテンツである。ただし、第1コンテンツ115Aの態様は、第1コンテンツ115Bの態様に比べて、強調された態様である。強調された態様として、例えば、輝度が高い態様、表示物が大きい態様、目立ち易い色で表された態様、表示物の動きが激しい態様等が挙げられる。
 ステップ36では、車両3のブレーキがオフであるか否かを条件判断ユニット53が判断する。車両3のブレーキがオフである場合、本処理はステップ38に進む。車両3のブレーキがオンである場合、本処理は終了する。
 ステップ37では、車両3のブレーキがオフであるか否かを条件判断ユニット53が判断する。車両3のブレーキがオフである場合、本処理はステップ39に進む。車両3のブレーキがオンである場合、本処理は終了する。
 ステップ38では、コンテンツ表示ユニット55が、HUD装置19を用いて、第2コンテンツ119Aを表示する。
 第2コンテンツ119Aとして、車両用のコンテンツと、歩行者用のコンテンツとがある。車両用のコンテンツは、第1実施形態における第2コンテンツ119と基本的には同様のコンテンツである。歩行者用のコンテンツは、車両用のコンテンツとは異なる。前記ステップ27の処理で肯定判断した場合、コンテンツ表示ユニット55は、車両用のコンテンツを表示する。前記ステップ26の処理で歩行者125を検出した場合、コンテンツ表示ユニット55は、歩行者用のコンテンツを表示する。
 前記ステップ27の処理で肯定判断し、且つ、前記ステップ26の処理で歩行者125を検出した場合、コンテンツ表示ユニット55は、車両用のコンテンツと、歩行者用のコンテンツとの両方を同時に表示する。
 ステップ39では、コンテンツ表示ユニット55が、HUD装置19を用いて、第2コンテンツ119Bを表示する。
 第2コンテンツ119Bとして、車両用のコンテンツと、歩行者用のコンテンツとがある。車両用のコンテンツは、第1実施形態における第2コンテンツ119と基本的には同様のコンテンツである。歩行者用のコンテンツは、車両用のコンテンツとは異なる。前記ステップ27の処理で肯定判断した場合、コンテンツ表示ユニット55は、車両用のコンテンツを表示する。前記ステップ26の処理で歩行者125を検出した場合、コンテンツ表示ユニット55は、歩行者用のコンテンツを表示する。
 前記ステップ27の処理で肯定判断し、且つ、前記ステップ26の処理で歩行者125を検出した場合、コンテンツ表示ユニット55は、車両用のコンテンツと、歩行者用のコンテンツとの両方を同時に表示する。
 第2コンテンツ119Aと第2コンテンツ119Bとは、基本的には同様のコンテンツである。ただし、第2コンテンツ119Aの態様は、第2コンテンツ119Bの態様に比べて、強調された態様である。強調された態様として、例えば、輝度が高い態様、表示物が大きい態様、目立ち易い色で表された態様、表示物の動きが激しい態様等が挙げられる。
 3.制御装置21が奏する効果
 以上詳述した第2実施形態によれば、前述した第1実施形態の効果を奏し、さらに、以下の効果を奏する。
 (2A)制御装置21は、以下の(a)、(b)、及び(g)が充足されることを必要条件として、HUD装置19を用いて、歩行者用のコンテンツを表示する。
 (a)車両3の位置が交差点領域99の中にあると交差点判断ユニット47が判断したこと。
 (b)車両3が右折する予定であると右左折判断ユニット49が判断したこと。
 (g)物標検出ユニット51が、横断歩道123に歩行者125を検出したこと。
 (a)、(b)、及び(g)が充足される場合は、歩行者125に対するドライバ37の注意を喚起する必要性が高い場合である。制御装置21は、(a)、(b)、及び(g)を含む条件が充足される場合、歩行者用のコンテンツを表示することで、歩行者125に対するドライバ37の注意を喚起することができる。
 (2B)制御装置21は、車両用のコンテンツと、歩行者用のコンテンツとの両方を表示する場合、両方のコンテンツを同時に表示する。制御装置21は、他の車両79及び歩行者125に対するドライバ37の注意を同時に喚起することができる。
 (2C)制御装置21は、(a)、(b)、及び(h)が充足されることを必要条件として、ドライバ37に報知を行う。ドライバ37は、先行車109が存在しなくなり、車両3が先頭となったことを報知によって知ることができる。
<他の実施形態>
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (1)道路が右側通行の国又は地域で使用される車両システム1では、第1、第2実施形態における左右を入れ替える。
 (2)第1実施形態において、前記ステップ5、6の処理は省略してもよい。前記ステップ4で肯定判断した場合、本処理は、前記ステップ7、10、11のいずれかに進むことができる。
 (3)第1実施形態において、前記ステップ7の処理は省略してもよい。前記ステップ6で肯定判断した場合、本処理は、前記ステップ10、11のいずれかに進むことができる。
 (4)第1実施形態において、前記ステップ8~10の処理は省略してもよい。前記ステップ7で肯定判断した場合、本処理は、前記ステップ11に進むことができる。
 (5)第1、第2実施形態において、交差点領域99は、停止線101よりも外側の領域を含んでいてもよい。
 (6)第1、第2実施形態において、メータ23以外の表示デバイスに図8に示す画像を表示してもよい。
 (7)第2実施形態において、前記ステップ33で否定判断した場合は、第1コンテンツ115B及び第2コンテンツ119Bを表示しなくてもよい。
 (8)第2実施形態において、前記ステップ32、33の判断は行わなくてもよい。この場合、前記ステップ31で肯定判断したときは、同一の第1コンテンツ115を表示することができる。
 (9)第2実施形態において、歩行者用のコンテンツを表示するタイミングは、車両3のブレーキを離したタイミングであってもよい。
 (10)第1、第2実施形態において、制御装置21は、右左折速度が閾値以上である場合に警告コンテンツをさらに表示してもよい。警告コンテンツは、例えば、アイコンである。
 (11)本開示に記載の制御装置21及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御装置21及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御装置21及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。制御装置21に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
 (12)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
 (13)上述した制御装置21の他、当該制御装置21を構成要素とするシステム、当該制御装置21としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、HUD装置の制御方法等、種々の形態で本開示を実現することもできる。

Claims (12)

  1.  車両(3)に搭載され、コンテンツ(115、119)を前方の風景に重畳表示するヘッドアップディスプレイ装置(19)を制御するように構成された制御装置(21)であって、
     前記車両の位置が交差点(81)を含む交差点領域(99)の中にあるか否かを判断するように構成された交差点判断ユニット(47)と、
     前記車両が右折又は左折する予定であるか否かを判断するように構成された右左折判断ユニット(49)と、
     物標(79)を検出するように構成された物標検出ユニット(51)と、
     以下の(a)~(c)が充足されるか否かを判断するように構成された条件判断ユニット(53)と、
     前記(a)~(c)が充足されると前記条件判断ユニットが判断することを必要条件として、前記ヘッドアップディスプレイ装置を用いて、前記物標の将来の走行経路に沿って配置された前記コンテンツ(115)を表示するコンテンツ表示ユニット(55)と、
     を備える制御装置。
     (a)前記車両の位置が前記交差点領域の中にあると前記交差点判断ユニットが判断したこと。
     (b)前記車両が右折又は左折する予定であると前記右左折判断ユニットが判断したこと。
     (c)前記車両が右折又は左折した場合の将来の走行経路(103)と、前記物標検出ユニットが検出した前記物標の将来の走行経路(105)とが交差すること。
  2.  請求項1に記載の制御装置であって、
     前記コンテンツ表示ユニットは、前記物標の走行方向に動く前記コンテンツを表示するように構成された制御装置。
  3.  請求項1又は2に記載の制御装置であって、
     障害物(111)を検出するように構成された障害物検出ユニット(57)と、
     前記車両のドライバ(37)から見て前記障害物により隠された領域(113)を算出するように構成された領域算出ユニット(59)と、
     をさらに備え、
     前記条件判断ユニットは、前記(a)~(c)に加えて以下の(d)が充足されるか否かを判断するように構成され、
     前記コンテンツ表示ユニットは、前記(a)~(d)が充足されると前記条件判断ユニットが判断することを必要条件として、前記コンテンツを表示する制御装置。
     (d)前記物標は、前記車両のドライバから見て前記障害物により隠された領域の中にあること。
  4.  請求項1~3のいずれか1項に記載の制御装置であって、
     前記コンテンツ表示ユニットは、前記物標の種類に応じて異なる形態の前記コンテンツを表示するように構成された制御装置。
  5.  請求項1~4のいずれか1項に記載の制御装置であって、
     前記(c)を充足する前記物標が複数存在する場合、前記コンテンツ表示ユニットは、それぞれの前記物標に対応する前記コンテンツを表示する制御装置。
  6.  請求項1~5のいずれか1項に記載の制御装置であって、
     前記車両が走行中の道路に関する信号機(107)の状態を取得するように構成された信号機状態取得ユニット(61)をさらに備え、
     前記条件判断ユニットは、前記(a)~(c)に加えて以下の(e)が充足されるか否かを判断するように構成され、
     前記コンテンツ表示ユニットは、前記(a)~(c)及び前記(e)が充足されると前記条件判断ユニットが判断することを必要条件として、前記コンテンツを表示する制御装置。
     (e)信号機状態取得ユニットが取得した前記信号機の状態は、赤、及び、右折のみ可のいずれでもないこと。
  7.  請求項1~6のいずれか1項に記載の制御装置であって、
     前記車両の前方を、前記車両と同じ方向に走行中の先行車(109)が存在するか否かを判断するように構成された先行車判断ユニット(63)をさらに備え、
     前記条件判断ユニットは、前記(a)~(c)に加えて以下の(f)が充足されるか否かを判断するように構成され、
     前記コンテンツ表示ユニットは、前記(a)~(c)及び前記(f)が充足されると前記条件判断ユニットが判断することを必要条件として、前記コンテンツを表示する制御装置。
     (f)前記先行車が存在しないと前記先行車判断ユニットが判断したこと。
  8.  請求項1~7のいずれか1項に記載の制御装置であって、
     前記交差点領域は、交差点の手前の停止線(101)により囲まれる領域である制御装置。
  9.  請求項1~8のいずれか1項に記載の制御装置であって、
     前記車両、前記車両が走行中の車線、及び前記コンテンツを表す画像を、前記車両に搭載された表示デバイス(23)に表示するように構成された表示デバイス制御ユニット(65)をさらに備える制御装置。
  10.  請求項1~9のいずれか1項に記載の制御装置であって、
     前記条件判断ユニットは、前記(a)~(c)に加えて以下の(g)が充足されるか否かを判断するように構成され、
     前記コンテンツ表示ユニットは、前記(a)、前記(b)、及び前記(g)が充足されると前記条件判断ユニットが判断することを必要条件として、歩行者用のコンテンツを表示する制御装置。
     (g)前記物標検出ユニットが、前記車両が右折又は左折するときに通過する横断歩道に歩行者を検出したこと。
  11.  請求項10に記載の制御装置であって、
     前記コンテンツ表示ユニットは、前記物標の将来の走行経路に沿って配置された前記コンテンツと、前記歩行者用のコンテンツとの両方を表示する場合、前記物標の将来の走行経路に沿って配置された前記コンテンツと、前記歩行者用のコンテンツとを同時に表示する制御装置。
  12.  請求項1~11のいずれか1項に記載の制御装置であって、
     前記車両の前方を、前記車両と同じ方向に走行中の先行車(109)が存在するか否かを判断するように構成された先行車判断ユニット(63)をさらに備え、
     前記条件判断ユニットは、前記(a)~(c)に加えて以下の(h)が充足されるか否かを判断するように構成され、
     前記(a)、前記(b)、及び前記(h)が充足されると前記条件判断ユニットが判断することを必要条件として、前記車両のドライバに報知を行う報知ユニット(121)をさらに備える制御装置。
     (h)前記車両が前記交差点領域に入ったときは前記先行車が存在し、その後、前記先行車が存在しなくなったと前記先行車判断ユニットが判断したこと。
PCT/JP2020/027665 2019-07-19 2020-07-16 制御装置 WO2021015090A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019133833 2019-07-19
JP2019-133833 2019-07-19
JP2020099537A JP2021018807A (ja) 2019-07-19 2020-06-08 制御装置
JP2020-099537 2020-06-08

Publications (1)

Publication Number Publication Date
WO2021015090A1 true WO2021015090A1 (ja) 2021-01-28

Family

ID=74192582

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/027665 WO2021015090A1 (ja) 2019-07-19 2020-07-16 制御装置

Country Status (1)

Country Link
WO (1) WO2021015090A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150185039A1 (en) * 2012-09-12 2015-07-02 Bayerische Motoren Werke Aktiengesellschaft Contact-Analogue Display, in Particular of a Lane Change
JP2016099778A (ja) * 2014-11-20 2016-05-30 パナソニックIpマネジメント株式会社 端末装置
WO2017077598A1 (ja) * 2015-11-04 2017-05-11 日産自動車株式会社 自動運転車両操作装置及び自動運転車両操作方法
JP2018147111A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150185039A1 (en) * 2012-09-12 2015-07-02 Bayerische Motoren Werke Aktiengesellschaft Contact-Analogue Display, in Particular of a Lane Change
JP2016099778A (ja) * 2014-11-20 2016-05-30 パナソニックIpマネジメント株式会社 端末装置
WO2017077598A1 (ja) * 2015-11-04 2017-05-11 日産自動車株式会社 自動運転車両操作装置及び自動運転車両操作方法
JP2018147111A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム

Similar Documents

Publication Publication Date Title
US11008016B2 (en) Display system, display method, and storage medium
JP6354776B2 (ja) 車両の制御装置
US10293690B2 (en) Vehicle information projecting system and vehicle information projecting method
JP4807263B2 (ja) 車両用表示装置
JP7052786B2 (ja) 表示制御装置および表示制御プログラム
US20220130296A1 (en) Display control device and display control program product
JP6443716B2 (ja) 画像表示装置、画像表示方法及び画像表示制御プログラム
JP2020064402A (ja) 表示装置
JP7011559B2 (ja) 表示装置、表示制御方法、およびプログラム
JP2015210644A (ja) 車両用表示システム
JP5327025B2 (ja) 車両用走行案内装置、車両用走行案内方法及びコンピュータプログラム
JP2017166913A (ja) 表示制御装置及び表示制御方法
JP6748947B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
US20190286125A1 (en) Transportation equipment and traveling control method therefor
WO2020189238A1 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP2010146459A (ja) 運転支援装置
JP2019027996A (ja) 車両用表示方法及び車両用表示装置
JP2020095044A (ja) 表示制御装置及び表示制御方法
JP2021149319A (ja) 表示制御装置、表示制御方法およびプログラム
WO2021015090A1 (ja) 制御装置
JP7301898B2 (ja) 車両用表示装置
JP2023136698A (ja) 車両用表示制御装置、表示装置及び車両用表示制御方法
JP7234650B2 (ja) 表示制御装置及び表示制御プログラム
JP2021018807A (ja) 制御装置
JP2018019155A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20843992

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20843992

Country of ref document: EP

Kind code of ref document: A1