WO2018029978A1 - 車外表示処理装置及び車外表示システム - Google Patents

車外表示処理装置及び車外表示システム Download PDF

Info

Publication number
WO2018029978A1
WO2018029978A1 PCT/JP2017/022093 JP2017022093W WO2018029978A1 WO 2018029978 A1 WO2018029978 A1 WO 2018029978A1 JP 2017022093 W JP2017022093 W JP 2017022093W WO 2018029978 A1 WO2018029978 A1 WO 2018029978A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
display
display device
outside
scene
Prior art date
Application number
PCT/JP2017/022093
Other languages
English (en)
French (fr)
Inventor
真也 來山
成宏 羽田
林 邦彦
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2018029978A1 publication Critical patent/WO2018029978A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to a vehicle outside display processing device that performs display toward the periphery of a vehicle, and a vehicle outside display system including the vehicle outside display processing device.
  • Patent Document 1 discloses a road surface around the vehicle by a road surface projection device for the purpose of allowing other people such as passengers and pedestrians of other vehicles to recognize the position at each time from the current time of the vehicle to 3 seconds later.
  • a technique for irradiating a laser beam is disclosed above.
  • Patent Literature 1 since the field of view for a person's central vision is limited, when the other person's line of sight is not facing the road surface, the other person cannot recognize the display drawn on the road surface. End up. Since the direction of the line of sight may vary depending on the traffic state, such as when the line of sight is more distant than when the vehicle is stopped, it is sufficient if the line of sight is not facing the road surface, even for others around the vehicle. Conceivable.
  • This disclosure is intended to provide an out-of-vehicle display processing device and an out-of-vehicle display system that allow a person around the own vehicle to more reliably recognize a display that presents information toward the vicinity of the own vehicle.
  • the vehicle exterior display processing device is used in a vehicle, and is a road surface display device that is a vehicle exterior display device that displays from the vehicle toward the road surface around the vehicle, and the vehicle from the vehicle surroundings.
  • a road surface display device that is a vehicle exterior display device that displays from the vehicle toward the road surface around the vehicle, and the vehicle from the vehicle surroundings.
  • a display processing unit that can display information to be displayed, and a display device determination unit that determines the display device outside the vehicle to be displayed by the display processing unit.
  • the display device determination unit determines the display device outside the vehicle to be displayed by the display processing unit so that a plurality of types of display devices outside the vehicle display simultaneously, or the plurality of types of display devices outside the vehicle.
  • the outside display device to be displayed is determined by the display processing unit so that the display is switched.
  • At least one of the road surface display device, the aerial display device, and the own vehicle outer surface display device can display information on at least one of a plurality of types of outside display devices that can be displayed by the display processing unit. Can be displayed.
  • the display device determination unit determines the display device outside the vehicle to be displayed by the display processing unit so that a plurality of types of display devices outside the vehicle display simultaneously, or switches between the plurality of types of display devices outside the vehicle for display.
  • the display processing unit determines a display device outside the vehicle so that the display is performed.
  • the vehicle outside display system is used in a vehicle, and is a road surface display device that is a vehicle outside display device that performs display from the vehicle toward the road surface around the vehicle, and At least one of a plurality of types of outside display devices of an aerial display device that is a vehicle outside display device that performs display toward the air and a vehicle outside surface display device that is a vehicle outside display device that performs display on the outside surface of the vehicle.
  • a vehicle exterior display processing device according to the first aspect.
  • the display processing unit determines the display device outside the vehicle to be displayed by the display processing unit so that a plurality of types of display devices outside the vehicle display simultaneously, or switches between the plurality of types of display devices outside the vehicle for display.
  • the display processing unit determines a display device outside the vehicle so that the display is performed. Therefore, it is possible to change the display location to a location other than the road surface, or to simultaneously display the location other than the road surface, thereby preventing the situation where the display is always performed only on the road surface.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of a driving support system
  • FIG. 2 is a diagram for explaining a road surface display device.
  • FIG. 3 is a diagram for explaining the aerial display device.
  • FIG. 4 is a view for explaining the own vehicle outer surface display device.
  • FIG. 5 is a diagram for explaining the vehicle outer surface display device,
  • FIG. 6 is a diagram illustrating an example of a schematic configuration of the driving assistance ECU.
  • FIG. 7 is a flowchart showing an example of the flow of the outside display related processing in the driving support ECU.
  • FIG. 8 is a diagram showing a display example on the road surface display device and the aerial display device in the attention area running scene,
  • FIG. 9 is a diagram illustrating a display example on the aerial display device and the own vehicle outer surface display device in the start request scene.
  • a driving assistance system 1 shown in FIG. 1 is used in an automobile (hereinafter simply referred to as a vehicle), and includes a driving assistance ECU 10, an ADAS (Advanced Driver Assistance Systems) locator 20, a surrounding monitoring sensor 30, a vehicle control ECU 40, and an outside display.
  • a device 50 is included. It is assumed that the driving support ECU 10, the ADAS locator 20, and the vehicle control ECU 40 are connected to an in-vehicle LAN, for example.
  • a vehicle equipped with the driving support system 1 is referred to as a host vehicle.
  • the ADAS locator 20 includes a GNSS (Global Navigation Satellite System) receiver, an inertial sensor, and a map database (hereinafter referred to as DB) storing map data.
  • the GNSS receiver receives positioning signals from a plurality of artificial satellites.
  • the inertial sensor includes, for example, a triaxial gyro sensor and a triaxial acceleration sensor.
  • the map DB is a non-volatile memory and stores map data such as link data, node data, and road shapes.
  • the link data includes a link ID for identifying the link, a link length indicating the length of the link, a link direction, a link travel time, link shape information, node coordinates (latitude / longitude) at the start and end of the link, and road attributes. It consists of each data such as.
  • the road attributes include road name, road type, road width, number of lanes, speed regulation value, and the like.
  • Node data includes node ID, node coordinates, node name, node type, connection link ID describing the link ID of the link connected to the node, intersection type, etc. Consists of
  • the ADAS locator 20 sequentially measures the vehicle position of the vehicle on which the ADAS locator 20 is mounted by combining the positioning signal received by the GNSS receiver and the measurement result of the inertial sensor.
  • the vehicle position may be measured using a travel distance obtained from a pulse signal sequentially output from a wheel speed sensor mounted on the host vehicle. And the measured vehicle position is output to in-vehicle LAN.
  • the ADAS locator 20 also reads map data from the map DB and outputs it to the in-vehicle LAN.
  • the map data may be obtained from a server outside the vehicle using a vehicle-mounted communication module used for telematics communication such as DCM (Data Communication Module) mounted on the vehicle.
  • DCM Data Communication Module
  • the surrounding monitoring sensor 30 is a moving object such as a pedestrian, an animal other than a human being, a vehicle other than the own vehicle, a person driving another vehicle, a falling object on the road, a stationary object such as a guardrail, a curbstone, or a tree. Detect obstacles around your vehicle. In addition, road markings such as travel lane lines and stop lines around the vehicle may be detected. Other vehicles include bicycles, motorcycles, automobiles, etc. other than the own vehicle.
  • the surrounding monitoring sensor 30 is, for example, a surrounding monitoring camera that captures a predetermined range around the host vehicle, a millimeter wave radar that transmits an exploration wave to the predetermined range around the host vehicle, sonar, LIDAR (Light Detection and Ranging / Laser Imaging Detection and Ranging).
  • the peripheral monitoring camera sequentially outputs captured images that are sequentially captured to the driving assistance ECU 10 as sensing results.
  • a sensor that transmits an exploration wave such as sonar, millimeter wave radar, or LIDAR sequentially outputs a scanning result based on a received signal obtained when a reflected wave reflected by an obstacle is received to the driving support ECU 10 as a sensing result.
  • the vehicle control ECU 40 is an electronic control device that performs acceleration / deceleration control and / or steering control of the host vehicle.
  • the vehicle control ECU 40 includes a steering ECU that performs steering control, a power unit control ECU that performs acceleration / deceleration control, a brake ECU, and the like.
  • the vehicle control ECU 40 acquires detection signals output from sensors such as an accelerator position sensor, a brake pedal force sensor, a rudder angle sensor, and a wheel speed sensor mounted on the host vehicle, and performs electronic control throttle, brake actuator, EPS (Electric Power Steering) Outputs control signals to each travel control device such as a motor. Further, the vehicle control ECU 40 can output detection signals of the above-described sensors to the in-vehicle LAN.
  • the outside display device 50 performs a display for presenting information toward the outside of the vehicle.
  • a road surface display device 51, an aerial display device 52, and a host vehicle outer surface display device 53 are provided as the vehicle outside display device 50.
  • the road surface display device 51, the aerial display device 52, and the host vehicle outer surface display device 53 will be described with reference to FIGS.
  • the road surface display device 51 performs display from the own vehicle toward the road surface around the own vehicle.
  • the road surface display device 51 is a device that projects light, and is mounted on the host vehicle so that the projected light is directed toward the road surface.
  • the road surface display device 51 may project visible light onto the road surface, or may draw on the road surface with a visible light semiconductor laser. Further, the road surface display device 51 may be mounted on the roof, bonnet, headlamp, bumper, etc. of the own vehicle.
  • Examples of display representations on the road surface by the road surface display device 51 include display of various shapes such as arrows, blinking of the display, division of the display area (see A in FIG. 2), and the like.
  • the display area is divided, the display color may be different for each divided area, the display luminance may be different, or the area may be different.
  • the road surface display apparatus 51 can switch the distance and area which project light by switching the angle which projects light toward a road surface with an actuator.
  • the structure which switches the distance and area which project light by switching the number of the light sources which project light may be sufficient.
  • the aerial display device 52 performs display from the own vehicle toward the air around the own vehicle.
  • the aerial display device 52 is a device that projects light, and is mounted on the host vehicle so that the projected light travels into the air.
  • the aerial display device 52 may emit light by turning the atmosphere into plasma by focusing the laser beam in the air.
  • water vapor may be blown into the air in the form of a mist, and light may be projected or laser-drawn onto the mist of water vapor.
  • the aerial display device 52 may be mounted on the roof, bonnet, headlamp, bumper or the like of the own vehicle. Examples of the representation of the display toward the road surface by the road surface display device 51 include display of various shapes such as arrows (see B in FIG. 3), blinking of the display, rotation of the display, and the like.
  • the own vehicle outer surface display device 53 performs display on the outer surface of the own vehicle as shown in FIGS.
  • the own vehicle outer surface display device 53 may be a light source such as an LED disposed on the outer surface of the own vehicle, a display disposed on the outer surface of the own vehicle, or light on the outer surface of the own vehicle. It may be a projector that projects.
  • the location displayed by the own vehicle outer surface display device 53 may be the hood, fender, wheel, windshield, etc. of the own vehicle.
  • Examples of display expression by the vehicle exterior surface display device 53 include display of various shapes such as arrows (see C, D in FIG. 4 and F in FIG. 5), display of text, blinking of the display, rotation of the display, and the like. is there.
  • rotation may be expressed by blinking a plurality of LED light sources (see E in FIG. 4) arranged in the circumferential direction of the wheel in order in the circumferential direction.
  • the driving support ECU 10 includes a processor, a volatile memory, a non-volatile memory, an I / O, and a bus connecting them, and executes various processes by executing a control program stored in the non-volatile memory.
  • the driving assistance ECU 10 recognizes the traveling environment of the host vehicle from the vehicle position and map data of the host vehicle acquired from the ADAS locator 20, the sensing result acquired from the surrounding monitoring sensor 30, and the like. In addition, the driving assistance ECU 10 generates a driving plan for driving the vehicle by automatic driving based on the recognized driving environment.
  • a recommended route for making the vehicle head for the destination is generated.
  • a short-term travel plan for traveling according to the recommended route is generated.
  • execution of steering for lane change, acceleration / deceleration for speed adjustment, steering and braking for obstacle avoidance, and the like is determined.
  • the driving support ECU 10 causes the vehicle control ECU 40 to automatically perform acceleration, braking, and / or steering of the host vehicle according to the generated travel plan.
  • the driving assistance ECU 10 determines the vehicle outside display device 50 to be displayed outside the vehicle according to the scene in which the relationship between the subject around the vehicle to which information is to be presented and the vehicle is classified.
  • the display outside the vehicle 50 is made to display. Therefore, this driving assistance ECU 10 corresponds to a vehicle outside display processing device.
  • a configuration including the driving support ECU 10 and the outside display device 50 corresponds to the outside display system. Details of processing in the driving support ECU 10 will be described below.
  • the driving support ECU 10 includes a driving environment recognition unit 101, a driving plan generation unit 102, an automatic driving function unit 103, a vehicle information acquisition unit 104, a scene specification unit 105, a display device determination unit 106, a display content determination unit 107, and a display processing unit. 108 is provided. Note that some or all of the functions executed by the driving support ECU 10 may be configured in hardware by one or a plurality of ICs.
  • the travel environment recognition unit 101 recognizes the position, shape, and movement state of objects around the vehicle from the vehicle position and map data of the vehicle acquired from the ADAS locator 20, the sensing result acquired from the surrounding monitoring sensor 30, and the like. Recognize the driving environment of the vehicle. For example, the position, shape, and movement state of an object around the own vehicle may be recognized by a known method using a peripheral monitoring camera and / or a sensor that transmits a survey wave.
  • the traveling environment recognition unit 101 detects road markings such as traveling lane markings by well-known image recognition processing such as edge detection from captured image data acquired from the periphery monitoring camera.
  • the travel environment recognition unit 101 may be configured to recognize the travel environment of the host vehicle using information on other vehicles acquired through vehicle-to-vehicle communication or road-to-vehicle communication.
  • the traveling environment recognition unit 101 is a person driving a vehicle such as an automobile, a bicycle, or a motorcycle, and / or a position of a person outside the vehicle such as a pedestrian, a gaze direction, a gazing point, a walking ability, a traffic It also recognizes the surrounding person state such as the intention of the person and the traffic state.
  • a person may be recognized by a known image recognition process such as template matching from captured image data acquired from a peripheral monitoring camera.
  • the position of the person may be recognized by a known method using a peripheral monitoring camera and / or a sensor that transmits an exploration wave.
  • the configuration is such that the face direction detected from the captured image data acquired from the peripheral monitoring camera is recognized as the gaze direction by a known technique for detecting the face direction from the captured image data of the face. That's fine. If the position of the human pupil or the eyeball position can be recognized, the line-of-sight direction may be recognized from the position of the pupil or the eyeball position. The gaze point may be recognized from the position of the person and the gaze direction of the person.
  • a configuration may be adopted in which a person with low walking ability such as an elderly person or a child is recognized by a known image recognition process such as template matching for a pedestrian.
  • the intention of passing may be recognized from the position of the person, the gaze direction of the person, and the gaze point of the person. For example, if a person is looking at or staring at a pedestrian crossing, a roadway outside the pedestrian crossing, or a stopped vehicle, pass in front of a pedestrian crossing or a roadway outside the pedestrian crossing or a stopped vehicle Recognize the intention.
  • the intention of passing the pedestrian crossing may be recognized.
  • the traffic state may be recognized from the position of the person. For example, if a person is located on a pedestrian crossing, it recognizes that it is passing a pedestrian crossing. do it. Therefore, the driving environment recognition unit 101 corresponds to the target information detection unit.
  • the recognition of the surrounding human state may be performed using learning data after learning the surrounding human state recognized in the past as learning data.
  • the travel plan generation unit 102 generates a travel plan for driving the vehicle by automatic driving.
  • the travel plan generated by the travel plan generation unit 102 is output to the automatic driving function unit 103.
  • the travel plan generation unit 102 uses the vehicle position and map data of the host vehicle acquired from the ADAS locator 20 to generate a recommended route for directing the host vehicle to the destination as a medium to long-term travel plan.
  • the recommended route may be configured to search using the Dijkstra method by setting a link cost so that, for example, a road suitable for running by automatic driving is prioritized.
  • the travel plan generation unit 102 generates a short-term travel plan for traveling according to the recommended route based on the travel environment of the host vehicle recognized by the travel environment recognition unit 101. As specific examples, it is determined to execute steering for lane change, acceleration / deceleration for speed adjustment, stopping at a temporary stop position, steering and braking for obstacle avoidance, and the like.
  • the automatic driving function unit 103 causes the vehicle control ECU 40 to automatically perform acceleration, braking, and / or steering of the host vehicle so that the driver can perform the driving operation. Do.
  • This function of performing the driving operation is called an automatic driving function.
  • the automatic driving function there is a function of controlling the traveling speed of the own vehicle so as to maintain the target inter-vehicle distance from the preceding vehicle by adjusting the driving force and the braking force.
  • there is a function to automatically move the vehicle to the adjacent lane Furthermore, there is also a function for forcibly decelerating the vehicle by generating a braking force based on the sensing result in front.
  • an automatic driving function a function for performing acceleration / deceleration and steering so that the vehicle position of the host vehicle travels along the recommended route generated by the travel plan generation unit 102, and travel along a recommended travel locus
  • a function of performing acceleration / deceleration and steering and a function of automatically stopping on a road shoulder or the like in an emergency.
  • what was described here is an example to the last, and it is good also as a structure provided with another function as an automatic driving
  • the vehicle information acquisition unit 104 acquires a state quantity related to the behavior of the host vehicle from the detection result of each sensor output via the vehicle control ECU 40.
  • vehicle information such as the vehicle speed of the own vehicle is acquired.
  • the vehicle information acquisition unit 104 may acquire the detection result of the sensor without using the vehicle control ECU 40.
  • the scene specifying unit 105 determines the target of the vehicle surrounding the vehicle to which information should be presented and the vehicle from the traveling environment recognized by the traveling environment recognition unit 101 and the vehicle information acquired by the vehicle information acquisition unit 104. Identify scenes that classify relationships with cars. In other words, the scene is specified from the vehicle position and map data of the own vehicle, the sensing result acquired from the surrounding monitoring sensor 30, and the vehicle information of the own vehicle acquired by the vehicle information acquisition unit 104. As an example, the scene is recognized by the traveling environment recognition unit 101 as to whether or not the traveling state of the own vehicle, the situation when the own vehicle is stopped, and whether a pedestrian or a person driving the vehicle exists within the sensing range. What is necessary is just to set it as the structure classified according to the surrounding person state, the road classification in which the own vehicle is located, the arrangement of vehicles around the own vehicle, and the like.
  • the scene specifying unit 105 there is a scene (hereinafter referred to as a caution area travel scene) that is traveling in an area (hereinafter referred to as a caution area) where attention should be paid to the vicinity of the vehicle.
  • the scene specifying unit 105 may determine that the host vehicle is traveling from the vehicle speed of the host vehicle acquired by the vehicle information acquiring unit 104.
  • the scene specifying unit 105 may determine the caution area from the traveling environment of the host vehicle recognized by the traveling environment recognition unit 101.
  • Examples of caution areas include road areas below one lane on one side, road areas where pedestrians are located on a single road, road areas where pedestrians with low walking ability such as children and elderly people are located, and distances to intersections are within the threshold range And road areas where oncoming vehicles or parked vehicles exist.
  • Examples of exclusion from the attention area include a road area where a preceding vehicle exists within a forward threshold range, a road area corresponding to an automobile-only road, a private land, an area outside a road in a parking lot, and the like.
  • the scene specifying unit 105 may determine that the host vehicle is stopped from the vehicle speed of the host vehicle acquired by the vehicle information acquiring unit 104. Moreover, the scene specific
  • the predetermined time here can be arbitrarily set, and may be set to 1 minute, for example. What is necessary is just to measure the stop time of the own vehicle by a timer circuit etc.
  • the presence of the vehicle following the own vehicle may be determined from the traveling environment of the own vehicle recognized by the traveling environment recognition unit 101.
  • Existence other than the next vehicle that is closest to the host vehicle may be recognized by the traveling environment recognition unit 101 using information on other vehicles acquired through inter-vehicle communication or road-to-vehicle communication.
  • the scene specifying unit 105 may determine that the start is not desired when the above-mentioned determination that the start is desired is not made while the host vehicle is stopped by the automatic driving function.
  • the operation input unit that receives an operation input that gives priority to the passage of another person receives the operation input, it may be determined that the vehicle does not want to start.
  • the traveling environment recognition unit 101 may be determined from the traveling environment of the host vehicle recognized by the traveling environment recognition unit 101 that the pedestrian or the vehicle estimated to be intended to pass in the direction intersecting with the host vehicle is located in front of the host vehicle.
  • the intention of passing a pedestrian or a vehicle may be determined from the intention of passing among the surrounding person states described above. Note that the intention of passing a pedestrian or a vehicle may be determined based on the fact that the traveling environment recognition unit 101 recognizes that a pedestrian crossing or a pedestrian crossing is waiting.
  • the display device determination unit 106 determines the outside-vehicle display device 50 that performs display according to the scene specified by the scene specification unit 105.
  • the scene identifying unit 105 identifies a caution area travel scene
  • at least the road surface display device 51 and the aerial display device 52 of the outside vehicle display device 50 are determined as the outside vehicle display device 50 for performing display. To do.
  • the road surface display device 51 and the aerial display device 52 are determined as the vehicle outside display device 50 that performs the display when the attention area traveling scene is specified.
  • the display device determining unit 106 displays at least the aerial display device 52 and the own vehicle outer surface display device 53 of the outside display device 50. This is determined as the vehicle outside display device 50 to be displayed.
  • the road surface display device 51 may also be determined as the vehicle outside display device 50 that performs display.
  • the aerial display device 52 and the vehicle exterior surface display device 53 are The description will be made on the assumption that the display device 50 outside the vehicle to be displayed is determined.
  • the display device determining unit 106 displays at least the road surface display device 51 and the vehicle exterior surface display device 53 of the vehicle exterior display device 50. This is determined as the vehicle outside display device 50 to be displayed.
  • the aerial display device 52 may be determined as the vehicle outside display device 50 that performs display.
  • the road surface display device 51 and the vehicle outside surface display device 53 are changed. The description will be made on the assumption that the display device 50 outside the vehicle to be displayed is determined. Since the display in the air may obstruct the other person's path by blocking the other person's path, when the traffic promotion scene is specified, the aerial display device 52 is excluded from the outside display device 50 that performs the display. It is preferable to do.
  • the display content determination unit 107 determines the display content on the outside display device 50 that has been determined to be displayed by the display device determination unit 106 according to the scene specified by the scene specification unit 105. Details of the display contents will be described later.
  • the display processing unit 108 causes the outside display device 50 that has been determined to be displayed by the display device determination unit 106 to display the display content determined by the display content determination unit 107.
  • Example of a flow of processing related to display on the vehicle outside display device 50 corresponding to a scene in the driving support ECU 10 (hereinafter referred to as vehicle outside display related processing) will be described using the flowchart of FIG. 7 may be configured to start when, for example, the ignition power of the own vehicle is turned on.
  • step S1 when the scene specifying unit 105 specifies a scene as a caution area running scene (YES in S1), the process proceeds to step S2. On the other hand, when it is not specified as the attention area travel scene (NO in S1), the process proceeds to step S5. In addition, in step S1, you may add to the conditions that the own vehicle is below the speed of slow driving (for example, 10 km / h or less).
  • step S2 the display device determination unit 106 determines the road surface display device 51 and the aerial display device 52 as the vehicle outside display device 50 that performs display.
  • step S3 the display content determination unit 107 determines the display content to be displayed on the road surface display device 51 and the aerial display device 52.
  • the road surface display device 51 may be determined to display a range indicating that the host vehicle cannot be stopped.
  • the aerial display device 52 may be determined so as to perform a display informing that the vehicle is approaching.
  • the display processing unit 108 causes the road surface display device 51 and the aerial display device 52 to display simultaneously.
  • the display processing unit 108 causes the road surface display device 51 to display a range indicating that the host vehicle cannot be stopped.
  • the range in which the host vehicle cannot be stopped may be a range from the host vehicle extending in front of the host vehicle to the stop distance of the host vehicle.
  • the stop distance is a distance obtained by combining a so-called idle running distance and a braking distance, and a distance estimated according to the vehicle speed of the host vehicle may be used.
  • the display processing unit 108 may display the range in which the host vehicle cannot be stopped by projecting light from the road surface display device 51 to the range in which the host vehicle cannot be stopped on the road surface (see G in FIG. 8).
  • the display processing unit 108 may switch the area for projecting light by switching the angle at which light is projected and the number of light sources that project light. Moreover, the display which shows the range which cannot stop the own vehicle is good also as a structure which changes the color and brightness
  • the display processing unit 108 causes the aerial display device 52 to perform a display informing that the vehicle is approaching.
  • the display processing unit 108 may perform a display informing that the vehicle is approaching by projecting light from the aerial display device 52 so as to cause the display to extend forward in the course of the vehicle to the air (FIG. 8). H).
  • the display notifying the approach of the host vehicle to be displayed on the aerial display device 52 is farther than the display of the range in which the host vehicle cannot be stopped displayed on the road surface display device 51 in order to enable early warning to the vicinity of the host vehicle. It is preferable to display up to the above.
  • the display notifying that the host vehicle is approaching may be a display in which arrows indicating the traveling direction of the host vehicle are continued, or may be blinked to draw attention.
  • the display processing unit 108 may be configured to cause the host vehicle outer surface display device 53 to display the vehicle speed and acceleration / deceleration status of the host vehicle.
  • the vehicle speed and acceleration / deceleration status of the host vehicle may be represented by text such as “40 km / h” or “accelerating”.
  • step S5 when the own vehicle is stopped (YES in S5), the process proceeds to step S6. On the other hand, if the vehicle is not stopped (NO in S5), the display processing unit 108 does not display on the outside display device 50, and the process proceeds to step S14.
  • step S6 when the scene identifying unit 105 identifies the scene as a start request scene (YES in S6), the process proceeds to step S7. On the other hand, when it is not specified as the start request scene (NO in S6), the process proceeds to step S10.
  • step S7 the display device determination unit 106 determines that the aerial display device 52 and the vehicle exterior surface display device 53 are the vehicle exterior display devices 50 that perform display.
  • step S ⁇ b> 8 the display content determination unit 107 determines display contents to be displayed on the aerial display device 52 and the own vehicle outer surface display device 53. As an example, the determination may be made so that both the aerial display device 52 and the vehicle outer surface display device 53 perform a display notifying the start of the vehicle.
  • the display processing unit 108 causes the aerial display device 52 and the own vehicle outer surface display device 53 to simultaneously display.
  • the display processing unit 108 causes the aerial display device 52 to perform a display notifying the start of the own vehicle.
  • the display processing unit 108 may perform a display informing the start of the host vehicle by projecting light from the aerial display device 52 so that the display indicating the traveling direction after the start of the host vehicle is performed in the air. (See I in FIG. 9).
  • the display in the air informing the start of the host vehicle may be a display in which arrows indicating the direction of travel after the start of the host vehicle are continued, or may be blinked to draw attention.
  • the display in the air notifying the start of the host vehicle is intended to call attention to the vicinity of the host vehicle, so that it stops near the host vehicle rather than the display notifying the approach of the host vehicle in the attention area driving scene. It is preferable to do.
  • the display processing unit 108 also causes the host vehicle outer surface display device 53 to perform a display notifying the start of the host vehicle.
  • the display processing unit 108 causes the vehicle outer surface display device 53 to display a text such as “start” on the outer surface of the vehicle such as a windshield of the vehicle, thereby displaying a notification of the start of the vehicle. (See J in FIG. 9).
  • the display on the outer surface of the host vehicle that notifies the start of the host vehicle displays an arrow that indicates the traveling direction after the host vehicle starts, or an arrow that indicates the rotation direction of the wheel when the host vehicle starts. It is good also as a structure. In addition, it is good also as a structure which rotates a display in the rotation direction of the wheel at the time of the start of the own vehicle, or blinks several LED light sources arranged in the circumferential direction of the wheel in order.
  • the display processing unit 108 may be configured to cause the road surface display device 51 to display to notify the start of the own vehicle. For example, a configuration may be adopted in which an arrow indicating the traveling direction after the vehicle starts is displayed on the road surface.
  • step S10 when the scene specifying unit 105 specifies the scene as a passage promotion scene (YES in S10), the process proceeds to step S11. On the other hand, when it is not specified as a traffic promotion scene (NO in S10), the display processing unit 108 does not display on the outside display device 50, and proceeds to step S14.
  • step S11 the display device determination unit 106 determines the road surface display device 51 and the own vehicle outer surface display device 53 as the vehicle outer display device 50 that performs display.
  • step S12 the display content determination unit 107 determines the display content to be displayed on the road surface display device 51 and the host vehicle outer surface display device 53. As an example, it may be determined that both the road surface display device 51 and the host vehicle outer surface display device 53 perform a display that promotes traffic of the target.
  • the object mentioned here is a pedestrian or a vehicle that is estimated to be intended to pass in the direction intersecting with the own vehicle.
  • the display processing unit 108 causes the road surface display device 51 and the own vehicle outer surface display device 53 to display simultaneously.
  • the display processing unit 108 causes the road surface display device 51 to perform a display prompting the target to pass.
  • the display processing unit 108 may perform a display that prompts the passage of the target by projecting light that causes the road surface display device 51 to display an arrow pointing in a direction intersecting with the own vehicle on the road surface.
  • the display on the road surface that prompts the subject to pass may be a text display such as “Please pass first”, or may be blinked to draw attention.
  • the display processing unit 108 also causes the host vehicle outer surface display device 53 to perform a display prompting the subject to pass.
  • the display processing unit 108 performs a display prompting the subject to pass by causing the vehicle outer surface display device 53 to display a text such as “Please pass first” on the outer surface of the vehicle such as a windshield of the vehicle. You can do it.
  • the display on the outer surface of the host vehicle that prompts the traffic of the target is configured to display an arrow pointing toward the rear of the host vehicle or an arrow indicating the direction opposite to the rotation direction of the wheel when the host vehicle starts. It is good.
  • the display processing unit 108 may be configured to cause the aerial display device 52 to perform a display prompting the target to pass.
  • the display in the air for encouraging the passage of the object is displayed so as to open the passage of the object so as not to obstruct the passage of the object.
  • stimulates the passage of object by the display of the tunnel or the wall which blocks the front of the own vehicle etc. toward the direction where the object passes.
  • step S14 when it is the end timing of the outside display related process (YES in S14), the outside display related process is ended. On the other hand, if it is not the end timing of the outside-vehicle display related process (NO in S14), the process returns to S1 and is repeated. Examples of the end timing of the outside display related process include when the ignition power of the own vehicle is turned off.
  • the display since a plurality of types of the outside display devices 50 are displayed at the same time, the display may be within the field of view of people around the own vehicle as compared with the case where only one type of the outside display device 50 is displayed. Can be increased.
  • a set of the vehicle outside display devices 50 to be displayed at the same time is determined according to the scene specified by the scene specifying unit 105, the vehicle outside display device 50 that is more easily entered depending on the scene depending on the field of view of a person around the vehicle. Can be displayed.
  • the display content to be displayed on the outside display device 50 is determined for each outside display device 50 according to the scene, it is possible to display the display content suitable for the scene and the display location.
  • the road surface display device 51 displays on the road surface a range indicating that the host vehicle cannot be stopped, and the aerial display device 52 displays a display notifying that the vehicle is approaching in the air.
  • the inventor has found through experiments that a walking pedestrian rarely turns his gaze toward the road surface at his feet and is looking in the air in the traveling direction.
  • the configuration of the first embodiment in the attention area running scene, since the display is performed in the air and the road surface, even if the display is difficult to be recognized by the pedestrian only by the display on the road surface, Combining display in the air makes it easier to recognize the display.
  • the display in the air makes the vehicle approachable to the vicinity of the vehicle, makes it easier to look at the road surface, and the display on the road surface makes it possible to notice the range where the vehicle can not stop, thereby raising the level of attention. The effect is obtained.
  • both the aerial display device 52 and the own vehicle outer surface display device 53 are displayed to notify the start of the own vehicle.
  • the inventor has found through experiments that the pedestrian turns his line of sight toward the vehicle body up to a distance of about 5 m between the pedestrians, and the line of sight movement toward the vehicle body is less at a position closer than that.
  • the configuration of the first embodiment since the display is performed on the air and the outer surface of the own vehicle, walking with a distance of about several meters from the own vehicle is only performed on the outer surface of the own vehicle. Even if it is difficult for the person to recognize the display, the display can be more easily recognized by combining the display in the air. In addition, by displaying the start of the vehicle in the air, it is possible to easily prevent traffic ahead of the vehicle.
  • both the road surface display device 51 and the host vehicle outer surface display device 53 are caused to display to promote the traffic of the target.
  • the display since the display is performed on the road surface and the outer surface of the own vehicle in the traffic promotion scene, the display to the pedestrian whose distance from the own vehicle is about several meters is only displayed on the outer surface of the own vehicle. Even when it is difficult to recognize, the display can be more easily recognized by combining the display on the road surface.
  • the display by performing display that promotes traffic on the road surface instead of in the air, it is possible to prompt the traffic of the target without inhibiting traffic in front of the vehicle.
  • the present invention is not necessarily limited thereto.
  • one type of the outside display device 50 to be displayed among the plurality of types of outside display devices 50 may be configured to be switched according to the scene specified by the scene specifying unit 105.
  • the vehicle outer surface display device 53 is made to display,
  • the display may be switched to the display on the road surface display device 51 or the aerial display device 52.
  • the combination of the scene specified by the scene specifying unit 105 and the outside display device 50 that performs display is merely an example, and is not limited to the combination described in the above-described embodiment, and may be another combination. .
  • a configuration in which the types of outside display devices 50 that perform display are increased compared to scenes where only pedestrians with low walking ability exist as pedestrians, etc. And it is sufficient.
  • a configuration in which a display on the road surface display device 51 is added as compared to a scene where only a pedestrian who does not point at an umbrella exists.
  • Modification 2 In the above-described embodiment, the configuration in which the road surface display device 51, the aerial display device 52, and the own vehicle outer surface display device 53 are the vehicle outer display device 50 is shown, but the present invention is not necessarily limited thereto. In the case of a plurality of types of outside display devices 50, only two types of the road surface display device 51, the aerial display device 52, and the own vehicle outside surface display device 53 may be used as the outside display device 50.
  • Modification 3 In the first embodiment, the configuration in which the display on the outside display device 50 is not performed depending on the scene is shown. However, the configuration is not necessarily limited thereto, and the display on the outside display device 50 is always performed regardless of the scene. Good. For example, it is good also as a structure which always performs the simultaneous display with the multiple types of exterior display apparatus 50 irrespective of a scene.
  • Modification 4 In the first embodiment, an example of a vehicle having an automatic driving function is shown, but the present invention is not necessarily limited thereto. For example, it may be configured to be applied to a vehicle that does not have an automatic driving function. In this case, the scene specifying unit 105 may be configured to determine that it is not desired to start when the operation input unit that receives an operation input that gives priority to the passage of another person receives the operation input.
  • the configuration in which the driving environment recognition unit 101 recognizes the state of the surrounding person includes a person driving a vehicle such as an automobile, a bicycle, or a motorcycle, but is not limited thereto.
  • a vehicle such as an automobile, a bicycle, or a motorcycle
  • the object whose information is presented by the outside display device 50 may be configured to include only pedestrians.
  • the first embodiment shows a configuration in which the driving support ECU 10 is responsible for the function of recognizing the traveling environment of the host vehicle from the sensing result acquired from the surrounding monitoring sensor 30, the automatic driving function, and the function of executing the vehicle-related display related processing.
  • the driving support ECU 10 is responsible for the function of recognizing the traveling environment of the host vehicle from the sensing result acquired from the surrounding monitoring sensor 30, the automatic driving function, and the function of executing the vehicle-related display related processing.
  • these functions may be performed by a plurality of ECUs.
  • each section is expressed as, for example, S1. Further, each section can be divided into a plurality of subsections, while a plurality of sections can be combined into one section. Further, each section configured in this manner can be referred to as a device, module, or means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

路面表示装置(51)と、空中表示装置(52)と、自車外面表示装置(53)とのうちの、複数種類の車外表示装置(50)に、情報を提示する表示処理部(108)と、前記車外表示装置を決定する表示装置決定部(106)とを備える。前記表示装置決定部は、複数種類の前記車外表示装置に同時に表示を行わせるか、若しくは複数種類の前記車外表示装置を切り替えて表示を行わせるように、前記車外表示装置を決定する。

Description

車外表示処理装置及び車外表示システム 関連出願の相互参照
 本出願は、2016年8月8日に出願された日本特許出願番号2016-155817号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両の周辺に向けた表示を行わせる車外表示処理装置、及びこの車外表示処理装置を含む車外表示システムに関するものである。
 特許文献1には、自車両の現時刻から3秒後までの各時間における位置を他車両の乗員,歩行者等の他者に認識させることを目的として、路面投射装置によって自車周辺の路面上にレーザ光を照射する技術が開示されている。
特開2009-248598号公報
 特許文献1に開示の技術では、人の中心視に対する視界範囲は限られているため、他者の視線が路面に向いていない場合には、路面に描画された表示を他者が認識できなくなってしまう。通行中は停止中よりも遠方に視線が向く等、通行状態によって視線方向の傾向が異なる場合が考えられるため、車両周辺の他者であっても、視線が路面に向いていない場合は十分に考えられる。
 本開示は、自車周辺に向けて情報を提示する表示を、より確実に自車周辺の人に認識させることを可能にする車外表示処理装置及び車外表示システムを提供することを目的とする。
 本開示の第一の態様において、車外表示処理装置は、車両で用いられ、自車から自車周辺の路面に向けて表示を行う車外表示装置である路面表示装置と、自車から自車周辺の空中に向けて表示を行う車外表示装置である空中表示装置と、自車の外面に表示を行う車外表示装置である自車外面表示装置とのうちの、少なくともいずれか複数種類の車外表示装置に、情報を提示する表示を行わせることができる表示処理部と、前記表示処理部で表示を行わせる前記車外表示装置を決定する表示装置決定部とを備える。前記表示装置決定部は、複数種類の前記車外表示装置に同時に表示を行わせるように、前記表示処理部で表示を行わせる前記車外表示装置を決定するか、若しくは複数種類の前記車外表示装置を切り替えて表示を行わせるように、前記表示処理部で表示を行わせる前記車外表示装置を決定する。
 上記の車外表示処理装置によれば、路面表示装置と空中表示装置と自車外面表示装置とのうち、表示処理部が表示を行わせることができる少なくともいずれか複数種類の車外表示装置に、情報を提示する表示を行わせることが可能になる。また、表示装置決定部は、複数種類の車外表示装置に同時に表示を行わせるように、表示処理部で表示を行わせる車外表示装置を決定するか、若しくは複数種類の車外表示装置を切り替えて表示を行わせるように、表示処理部で表示を行わせる車外表示装置を決定する。よって、表示を行う場所を路面以外に切り替えたり、路面以外にも同時に表示させたりして、表示が常に路面にのみしか行われない状況を生じなくさせることが可能になる。従って、表示が常に路面にのみしか行われない状況に比べ、表示が自車周辺の人の視界範囲に入る可能性を高めることが可能になる。その結果、自車周辺に向けて情報を提示する表示を、より確実に自車周辺の人に認識させることが可能になる。
 本開示の第二の態様において、車外表示システムは、車両で用いられ、自車から自車周辺の路面に向けて表示を行う車外表示装置である路面表示装置と、自車から自車周辺の空中に向けて表示を行う車外表示装置である空中表示装置と、自車の外面に表示を行う車外表示装置である自車外面表示装置とのうちの、少なくともいずれか複数種類の車外表示装置と、第一の態様の車外表示処理装置とを含む。
 上記の車外表示システムによれば、路面表示装置と空中表示装置と自車外面表示装置とのうち、表示処理部が表示を行わせることができる少なくともいずれか複数種類の車外表示装置に、情報を提示する表示を行わせることが可能になる。また、表示装置決定部は、複数種類の車外表示装置に同時に表示を行わせるように、表示処理部で表示を行わせる車外表示装置を決定するか、若しくは複数種類の車外表示装置を切り替えて表示を行わせるように、表示処理部で表示を行わせる車外表示装置を決定する。よって、表示を行う場所を路面以外に切り替えたり、路面以外にも同時に表示させたりして、表示が常に路面にのみしか行われない状況を生じなくさせることが可能になる。従って、表示が常に路面にのみしか行われない状況に比べ、表示が自車周辺の人の視界範囲に入る可能性を高めることが可能になる。その結果、自車周辺に向けて情報を提示する表示を、より確実に自車周辺の人に認識させることが可能になる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、運転支援システムの概略的な構成の一例を示す図であり、 図2は、路面表示装置について説明するための図であり、 図3は、空中表示装置について説明するための図であり、 図4は、自車外面表示装置について説明するための図であり、 図5は、自車外面表示装置について説明するための図であり、 図6は、運転支援ECUの概略的な構成の一例を示す図であり、 図7は、運転支援ECUでの車外表示関連処理の流れの一例を示すフローチャートであり、 図8は、注意領域走行シーンにおける路面表示装置と空中表示装置とでの表示例を示す図であり、 図9は、発進要求シーンにおける空中表示装置と自車外面表示装置とでの表示例を示す図である。
 図面を参照しながら、開示のための複数の実施形態及び変形例を説明する。なお、説明の便宜上、複数の実施形態及び変形例の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態及び/又は変形例における説明を参照することができる。
 (実施形態1)
 <運転支援システム1の概略構成>
 以下、本実施形態について図面を用いて説明する。図1に示す運転支援システム1は、自動車(以下、単に車両)で用いられるものであり、運転支援ECU10、ADAS(Advanced Driver Assistance Systems)ロケータ20、周辺監視センサ30、車両制御ECU40、及び車外表示装置50を含んでいる。運転支援ECU10、ADASロケータ20、及び車両制御ECU40は、例えば車内LANに接続されているものとする。運転支援システム1を搭載している車両を以降では自車と呼ぶ。
 ADASロケータ20は、GNSS(Global Navigation Satellite System)受信機、慣性センサ、地図データを格納した地図データベース(以下、DB)を備えている。GNSS受信機は、複数の人工衛星からの測位信号を受信する。慣性センサは、例えば3軸ジャイロセンサ及び3軸加速度センサを備える。地図DBは、不揮発性メモリであって、リンクデータ、ノードデータ、道路形状等の地図データを格納している。
 リンクデータは、リンクを特定するリンクID、リンクの長さを示すリンク長、リンク方位、リンク旅行時間、リンクの形状情報、リンクの始端と終端とのノード座標(緯度/経度)、及び道路属性等の各データから構成される。道路属性としては、道路名称、道路種別、道路幅員、車線数、及び速度規制値等がある。ノードデータは、地図上のノード毎に固有の番号を付したノードID、ノード座標、ノード名称、ノード種別、ノードに接続するリンクのリンクIDが記述される接続リンクID、交差点種別等の各データから構成される。
 ADASロケータ20は、GNSS受信機で受信する測位信号と、慣性センサの計測結果とを組み合わせることにより、ADASロケータ20を搭載した自車の車両位置を逐次測位する。なお、車両位置の測位には、自車に搭載された車輪速センサから逐次出力されるパルス信号から求めた走行距離等も用いる構成としてもよい。そして、測位した車両位置を車内LANへ出力する。また、ADASロケータ20は、地図DBから地図データを読み出し、車内LANへ出力することも行う。なお、地図データは、例えば自車に搭載されたDCM(Data Communication Module)といったテレマティクス通信に用いられる車載通信モジュールを用いて自車外のサーバから取得する構成としてもよい。また、ADASロケータ20の代わりにナビゲーション装置のロケータや地図DBを用いる構成としてもよい。
 周辺監視センサ30は、歩行者,人間以外の動物,自車以外の他車,他車を操縦している人物等の移動物体、さらに路上の落下物,ガードレール,縁石,樹木等の静止物体といった自車周辺の障害物を検出する。他にも、自車周辺の走行区画線、停止線等の路面標示を検出してもよい。なお、他車としては、自車以外の自転車,オートバイ,自動車等がある。
 周辺監視センサ30は、例えば、自車周囲の所定範囲を撮像する周辺監視カメラ、自車周囲の所定範囲に探査波を送信するミリ波レーダ、ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等のセンサである。周辺監視カメラは、逐次撮像する撮像画像をセンシング結果として運転支援ECU10へ逐次出力する。ソナー、ミリ波レーダ、LIDAR等の探査波を送信するセンサは、障害物によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果をセンシング結果として運転支援ECU10へ逐次出力する。
 車両制御ECU40は、自車の加減速制御及び/又は操舵制御を行う電子制御装置である。車両制御ECU40としては、操舵制御を行う操舵ECU、加減速制御を行うパワーユニット制御ECU及びブレーキECU等がある。車両制御ECU40は、自車に搭載されたアクセルポジションセンサ、ブレーキ踏力センサ、舵角センサ、車輪速センサ等の各センサから出力される検出信号を取得し、電子制御スロットル、ブレーキアクチュエータ、EPS(Electric Power Steering)モータ等の各走行制御デバイスへ制御信号を出力する。また、車両制御ECU40は、上述の各センサの検出信号を車内LANへ出力可能である。
 車外表示装置50は、自車の外部に向けて情報を提示する表示を行う。実施形態1の例では、車外表示装置50として、路面表示装置51、空中表示装置52、及び自車外面表示装置53を備える。ここで、図2~図5を用いて、路面表示装置51、空中表示装置52、及び自車外面表示装置53についての説明を行う。
 路面表示装置51は、図2に示すように、自車から自車周辺の路面に向けて表示を行うものである。路面表示装置51は、光を投射する装置であって、投射する光が路面に向かうように自車に搭載される。路面表示装置51は、可視光を路面に投影するものであってもよいし、可視光半導体レーザによって路面に描画するものであってもよい。また、路面表示装置51は、自車のルーフ,ボンネット,ヘッドランプ,バンパー等に搭載すればよい。
 路面表示装置51による路面に向けた表示の表現例としては、矢印等の種々の形状の表示,表示の点滅,表示領域の分割(図2のA参照)等がある。表示領域の分割を行う場合には、分割した領域ごとに表示色を異ならせたり、表示の輝度を異ならせたり、面積を異ならせたりする構成としてもよい。また、路面表示装置51は、光を路面に向けて投射する角度をアクチュエータによって切り換えたりすることで光を投射する距離や面積を切り替え可能なことが好ましい。なお、光を投射する光源の数を切り替えることで光を投射する距離や面積を切り替える構成であってもよい。
 空中表示装置52は、図3に示すように、自車から自車周辺の空中に向けて表示を行うものである。空中表示装置52は、光を投射する装置であって、投射する光が空中に向かうように自車に搭載される。一例として、空中表示装置52は、レーザビームを空中でフォーカスすることで大気をプラズマ化して発光させるものとすればよい。他にも、空中に例えば水蒸気を霧状に吹き出し、この霧状の水蒸気に光を投影したりレーザ描画したりする構成としてもよい。また、空中表示装置52は、自車のルーフ,ボンネット,ヘッドランプ,バンパー等に搭載すればよい。路面表示装置51による路面に向けた表示の表現例としては、矢印(図3のB参照)等の種々の形状の表示,表示の点滅,表示の回転等がある。
 自車外面表示装置53は、図4及び図5に示すように、自車の外面に表示を行うものである。自車外面表示装置53は、自車の外面に配置されたLED等の光源であってもよいし、自車の外面に配置されたディスプレイであってもよいし、自車の外面に光を投影するプロジェクタであってもよい。自車外面表示装置53によって表示を行う箇所は、自車のボンネット,フェンダー,ホイール,ウィンドシールド等とすればよい。自車外面表示装置53による表示の表現例としては、矢印(図4のC,D及び図5のF参照)等の種々の形状の表示,テキストの表示,表示の点滅,表示の回転等がある。一例として、ホイールの周方向に配列した複数のLED光源(図4のE参照)を周方向に順番に点滅させることで回転を表現する等すればよい。
 運転支援ECU10は、プロセッサ、揮発性メモリ、不揮発性メモリ、I/O、これらを接続するバスを備え、不揮発性メモリに記憶された制御プログラムを実行することで各種の処理を実行する。運転支援ECU10は、ADASロケータ20から取得した自車の車両位置及び地図データ、周辺監視センサ30から取得したセンシング結果等から、自車の走行環境を認識する。また、運転支援ECU10は、認識した走行環境をもとに、自動運転によって自車を走行させるための走行計画を生成する。
 例えば中長期の走行計画として、自車を目的地へ向かわせるための推奨経路を生成する。また、推奨経路に従った走行を行うための短期の走行計画を生成する。具体例としては、車線変更のための操舵、速度調整のための加減速、及び障害物回避のための操舵及び制動等の実行を決定する。そして、運転支援ECU10は、生成した走行計画に従い、自車の加速、制動、及び/又は操舵を車両制御ECU40に自動で行わせることで、自動運転を行わせる。
 他にも、運転支援ECU10は、情報を提示すべき自車周辺の対象と自車との関係を分類したシーンに応じて、自車外部に向けて表示させる車外表示装置50を決定し、決定した車外表示装置50に表示を行わせる。よって、この運転支援ECU10が車外表示処理装置に相当する。また、運転支援ECU10と車外表示装置50とを含む構成が車外表示システムに相当する。なお、運転支援ECU10での処理の詳細については以下で述べる。
 <運転支援ECU10の概略構成>
 続いて、図6を用いて、運転支援ECU10の概略構成について説明を行う。運転支援ECU10は、走行環境認識部101、走行計画生成部102、自動運転機能部103、車両情報取得部104、シーン特定部105、表示装置決定部106、表示内容決定部107、及び表示処理部108を備えている。なお、運転支援ECU10が実行する機能の一部または全部を、一つあるいは複数のIC等によりハードウェア的に構成してもよい。
 走行環境認識部101は、ADASロケータ20から取得した自車の車両位置及び地図データ、周辺監視センサ30から取得したセンシング結果等から、自車の周囲の物体の位置,形状,移動状態を認識し、自車の走行環境を認識する。例えば自車の周囲の物体の位置,形状,移動状態は、周辺監視カメラ及び/又は探査波を送信するセンサを用いて公知の方法によって認識すればよい。また、走行環境認識部101は、周辺監視カメラから取得した撮像画像のデータからエッジ検出等の周知の画像認識処理によって、走行区画線等の路面標示を検出する。なお、走行環境認識部101は、車車間通信や路車間通信によって取得した他車両の情報も用いて自車の走行環境を認識する構成としてもよい。
 さらに、走行環境認識部101は、自動車,自転車,自動二輪車といった車両を運転している人物、及び/又は歩行者といった自車外の人物の自車に対する位置、視線方向、注視点、歩行能力、通行の意図、及び通行の状態といった周辺人物状態も認識する。まず、人物の認識は、周辺監視カメラから取得した撮像画像のデータから、テンプレートマッチング等の周知の画像認識処理によって行う構成とすればよい。人物の位置は、周辺監視カメラ及び/又は探査波を送信するセンサを用いて公知の方法によって認識すればよい。視線方向については、一例として、顔の撮像画像のデータから顔向きを検出する周知の技術によって、周辺監視カメラから取得した撮像画像のデータから検出した顔向きを、視線方向として認識する構成とすればよい。なお、人物の瞳孔の位置や眼球位置まで認識できる場合には、瞳孔の位置や眼球位置から視線方向を認識する構成とすればよい。注視点は、人物の位置とその人物の視線方向とから認識すればよい。
 歩行能力については、歩行者を対象として、テンプレートマッチング等の周知の画像認識処理によって、高齢者,子供等の歩行能力の低い人物を認識する構成とすればよい。通行の意図については、人物の位置,人物の視線方向,人物の注視点から認識すればよい。例えば、人物が横断歩道や横断歩道外の車道や停車中の車両に、視線を向けていたり注視していたりする場合には、横断歩道や横断歩道外の車道や停車中の車両前を通行する意図を認識すればよい。他にも、人物の視線方向が左右を複数回往復している場合に通行する意図を認識する構成としてもよい。また、人物が横断歩道の手前に位置する場合に、横断歩道を通行する意図を認識してもよい。通行の状態については、人物の位置から認識すればよい。例えば、人物が横断歩道上に位置する場合は、横断歩道を通行していることを認識し、人物が横断歩道の手前に位置し続ける場合は、横断歩道の通行待ちをしていることを認識すればよい。よって、走行環境認識部101が対象情報検出部に相当する。周辺人物状態の認識は、過去に認識した周辺人物状態を学習データとして学習を行った上で、この学習データを用いて行う構成としてもよい。
 走行計画生成部102は、自動運転によって自車を走行させるための走行計画を生成する。走行計画生成部102で生成された走行計画は、自動運転機能部103に出力される。走行計画生成部102は、ADASロケータ20から取得した自車の車両位置及び地図データを用いて、中長期の走行計画として、自車を目的地へ向かわせるための推奨経路を生成する。この推奨経路は、例えば自動運転による走行を行うのに適した道路ほど優先されるようにリンクコストを設定して、ダイクストラ法を用いて探索する構成とすればよい。また、走行計画生成部102は、走行環境認識部101によって認識された自車の走行環境をもとに、推奨経路に従った走行を行うための短期の走行計画を生成する。具体例としては、車線変更のための操舵、速度調整のための加減速、一時停止位置での停車、及び障害物回避のための操舵及び制動等の実行を決定する。
 自動運転機能部103は、走行計画生成部102から出力される走行計画に従い、自車の加速、制動、及び/又は操舵を車両制御ECU40に自動で行わせることで、ドライバによる運転操作の代行を行う。この運転操作の代行を行う機能を自動運転機能と呼ぶ。自動運転機能の一例としては、駆動力及び制動力を調整することで、先行車との目標車間距離を維持するように自車の走行速度を制御する機能がある。また、走行区画線への接近を阻む方向への操舵力を発生させることで、走行中の車線を維持して自車を走行させる機能がある。他にも、隣接車線へと自車を自動で移動させる機能がある。さらに、前方のセンシング結果をもとに制動力を発生させることで、自車を強制的に減速させる機能もある。
 また、自動運転機能の一例として、走行計画生成部102で生成した推奨経路に自車の車両位置が沿って走行するように加減速及び操舵を行わせる機能、推奨される走行軌跡に沿って走行するように加減速及び操舵を行わせる機能、緊急時に路肩等に自動で停車させる機能等もある。なお、ここで述べたのは、あくまで一例であり、自動運転機能として他の機能を備えている構成としてもよい。実施形態1では、自車が自動運転機能によって少なくとも一時停止位置での停車を自動で行うものとする。
 車両情報取得部104は、車両制御ECU40を介して出力される各センサの検出結果から、自車の挙動に関する状態量を取得する。具体例としては、自車の車速等の車両情報を取得する。なお、車両情報取得部104は、車両制御ECU40を介さずにセンサの検出結果を取得する構成としてもよい。
 シーン特定部105は、走行環境認識部101によって認識された自車の走行環境と、車両情報取得部104で取得した自車の車両情報とから、情報を提示すべき自車周辺の対象と自車との関係を分類したシーンを特定する。言い換えると、自車の車両位置及び地図データと、周辺監視センサ30から取得したセンシング結果と、車両情報取得部104で取得した自車の車両情報とから、シーンを特定する。一例として、シーンは、自車の走行状態、自車の停車中の状況、歩行者若しくは車両を運転している人物がセンシング範囲内に存在するか否か、走行環境認識部101によって認識された周辺人物状態、自車の位置する道路種別、自車周辺の自動車の配置等によって分類されている構成とすればよい。
 シーン特定部105で特定するシーンの一例として、自車の接近を周辺に注意喚起すべき領域(以下、注意領域)を走行中のシーン(以下、注意領域走行シーン)がある。シーン特定部105は、自車が走行中であることは、車両情報取得部104で取得する自車の車速から判断すればよい。また、シーン特定部105は、注意領域を、走行環境認識部101によって認識された自車の走行環境から判断すればよい。注意領域の一例としては、片側一車線以下の道路領域、単路に歩行者が位置する道路領域、子供や高齢者といった歩行能力の低い歩行者が位置する道路領域、交差点までの距離が閾値範囲内の道路領域、対向車若しくは駐車車両が存在する道路領域等がある。なお、注意領域から除外する例としては、前方の閾値範囲内に先行車両が存在する道路領域、自動車専用道路に該当する道路領域、私有地や駐車場内の道路外の領域等がある。
 シーン特定部105で特定するシーンの他の例として、自車の停車中において発進が望まれるシーン(以下、発進要求シーン)がある。シーン特定部105は、自車が停車中であることは、車両情報取得部104で取得する自車の車速から判断すればよい。また、シーン特定部105は、発進が望まれることを、自車の停車時間が所定時間を超えたことや、自車の後続車の存在から判断すればよい。ここで言うところの所定時間は、任意に設定可能であって、例えば1分等とすればよい。自車の停車時間は、タイマ回路等によって計測すればよい。また、自車の後続車の存在は、走行環境認識部101によって認識された自車の走行環境から判断すればよい。なお、自車の後続車が5台等の所定台数を超えた場合に、発進が望まれることを判断する構成としてもよい。自車の直近の後続車以外の存在については、車車間通信や路車間通信で取得する他車両の情報を用いて走行環境認識部101で認識する構成とすればよい。
 シーン特定部105で特定するシーンのさらに他の例として、自車の停車中において発進を望まないシーンであって、且つ、自車前方に自車と交差する方向への通行を意図すると推定される歩行者や車両が位置するシーン(以下、通行促進シーン)がある。シーン特定部105は、自動運転機能による自車の停車中において前述の発進が望まれる判断がされない場合に、発進を望まないと判断すればよい。他にも、他者の通行を優先する旨の操作入力を受け付ける操作入力部でこの操作入力を受け付けた場合に、発進を望まないと判断する構成としてもよい。また、自車前方に自車と交差する方向への通行を意図すると推定される歩行者や車両が位置することは、走行環境認識部101によって認識された自車の走行環境から判断すればよい。一例として、歩行者や車両の通行の意図は、前述した周辺人物状態のうちの通行の意図から判断すればよい。なお、歩行者や車両の通行の意図は、横断歩道を通行していることや横断歩道の通行待ちをしていることを走行環境認識部101によって認識していることから判断してもよい。
 表示装置決定部106は、シーン特定部105で特定したシーンに応じた、表示を行わせる車外表示装置50を決定する。一例として、シーン特定部105で注意領域走行シーンと特定された場合には、車外表示装置50のうちの少なくとも路面表示装置51と空中表示装置52とを、表示を行わせる車外表示装置50として決定する。なお、自車外面表示装置53も表示を行わせる車外表示装置50として決定する構成としてもよい。ただし、以降では、注意領域走行シーンと特定された場合に、路面表示装置51と空中表示装置52とを、表示を行わせる車外表示装置50と決定するものとして説明を行う。
 また、表示装置決定部106は、シーン特定部105で発進要求シーンと特定された場合には、車外表示装置50のうちの少なくとも空中表示装置52と自車外面表示装置53とを、表示を行わせる車外表示装置50として決定する。なお、路面表示装置51も表示を行わせる車外表示装置50として決定する構成としてもよいが、以降では、発進要求シーンと特定された場合に、空中表示装置52と自車外面表示装置53とを、表示を行わせる車外表示装置50と決定するものとして説明を行う。
 さらに、表示装置決定部106は、シーン特定部105で通行促進シーンと特定された場合には、車外表示装置50のうちの少なくとも路面表示装置51と自車外面表示装置53とを、表示を行わせる車外表示装置50として決定する。なお、空中表示装置52も表示を行わせる車外表示装置50として決定する構成としてもよいが、以降では、通行促進シーンと特定された場合に、路面表示装置51と自車外面表示装置53とを、表示を行わせる車外表示装置50と決定するものとして説明を行う。空中への表示が他者の進路を塞ぐことで他者の通行を妨げる場合もあるので、通行促進シーンと特定された場合には、表示を行わせる車外表示装置50から空中表示装置52を除外することが好ましい。
 表示内容決定部107は、シーン特定部105で特定したシーンに応じた、表示装置決定部106で表示を行わせる決定がされた車外表示装置50での表示内容を決定する。表示内容の詳細については後述する。表示処理部108は、表示装置決定部106で表示を行わせる決定がされた車外表示装置50に、表示内容決定部107で決定した表示内容の表示を行わせる。
 <運転支援ECU10での車外表示関連処理>
 続いて、図7のフローチャートを用いて、運転支援ECU10でのシーンに応じた車外表示装置50での表示に関連する処理(以下、車外表示関連処理)の流れの一例について説明を行う。図7のフローチャートは、例えば、自車のイグニッション電源がオンになったときに開始する構成とすればよい。
 まず、ステップS1では、シーン特定部105がシーンを注意領域走行シーンと特定した場合(S1でYES)には、ステップS2に移る。一方、注意領域走行シーンと特定しなかった場合(S1でNO)には、ステップS5に移る。なお、ステップS1では、自車が徐行程度の速度以下(例えば10km/h以下)であることも条件に加えてもよい。ステップS2では、表示装置決定部106が、路面表示装置51と空中表示装置52とを、表示を行わせる車外表示装置50と決定する。
 ステップS3では、表示内容決定部107が、路面表示装置51と空中表示装置52とに表示させる表示内容を決定する。一例として、路面表示装置51には、自車が停止できない範囲を示す表示を行わせるよう決定すればよい。また、空中表示装置52には、自車の接近を知らせる表示を行わせるよう決定すればよい。
 ステップS4では、表示処理部108が、路面表示装置51と空中表示装置52とに同時に表示を行わせる。一例として、表示処理部108は、路面表示装置51には、自車が停止できない範囲を示す表示を行わせる。自車が停止できない範囲とは、自車前方に広がる自車から自車の停止距離までの範囲とすればよい。停止距離は、いわゆる空走距離と制動距離とを合わせた距離であって、自車の車速に応じて推定される距離を用いればよい。表示処理部108は、路面表示装置51から、路面上の自車が停止できない範囲に光を投射させることで、自車が停止できない範囲を示す表示を行わせればよい(図8のG参照)。表示処理部108は、光を投射する角度や光を投射する光源の数を切り替えることで、光を投射する面積を切り替えればよい。また、自車が停止できない範囲を示す表示は、自車への接近の度合いに応じて光の色や輝度を変化させる構成としてもよい。
 一例として、表示処理部108は、空中表示装置52には、自車の接近を知らせる表示を行わせる。表示処理部108は、空中表示装置52から、自車の進路前方に伸びる表示を空中に行わせるように光を投射させることで、自車の接近を知らせる表示を行わせればよい(図8のH参照)。空中表示装置52に行わせる自車の接近を知らせる表示は、自車周辺への早期の注意喚起を可能とするために、路面表示装置51に表示させる自車が停止できない範囲の表示よりも遠方まで表示させる構成とすることが好ましい。また、自車の接近を知らせる表示は、自車の進行方向を示す矢印を連続させた表示等としてもよいし、注意を引くために点滅させたりしてもよい。
 なお、ここでは、注意領域走行シーンにおいて、路面表示装置51と空中表示装置52とに同時に表示を行わせる構成を示したが、自車外面表示装置53にも同時に表示を行わせる構成としてもよい。この場合、表示処理部108は、自車外面表示装置53に、自車の車速や加減速の状況を示す表示を行わせる構成とすればよい。例えば、自車の車速や加減速の状況を「40km/h」,「加速中」等のテキストで表す構成とすればよい。また、矢印の大きさや長さ、点滅や回転の速度で自車の車速や加減速の大きさを表す構成としてもよい。他にも、矢印の向きや回転の方向によって自車の加速か減速かを表す構成としてもよい。
 ステップS5では、自車が停車中であった場合(S5でYES)には、ステップS6に移る。一方、自車が停車中でなかった場合(S5でNO)には、表示処理部108が車外表示装置50に表示を行わせず、ステップS14に移る。ステップS6では、シーン特定部105がシーンを発進要求シーンと特定した場合(S6でYES)には、ステップS7に移る。一方、発進要求シーンと特定しなかった場合(S6でNO)には、ステップS10に移る。
 ステップS7では、表示装置決定部106が、空中表示装置52と自車外面表示装置53とを、表示を行わせる車外表示装置50と決定する。ステップS8では、表示内容決定部107が、空中表示装置52と自車外面表示装置53とに表示させる表示内容を決定する。一例として、空中表示装置52と自車外面表示装置53との両方に、自車の発進を知らせる表示を行わせるよう決定すればよい。
 ステップS9では、表示処理部108が、空中表示装置52と自車外面表示装置53とに同時に表示を行わせる。一例として、表示処理部108は、空中表示装置52に、自車の発進を知らせる表示を行わせる。表示処理部108は、空中表示装置52から、自車の発進後の進行方向を示す表示を空中に行わせるように光を投射させることで、自車の発進を知らせる表示を行わせればよい(図9のI参照)。自車の発進を知らせる空中への表示は、自車の発進後の進行方向を示す矢印を連続させた表示等としてもよいし、注意を引くために点滅させたりしてもよい。また、自車の発進を知らせる空中への表示は、自車近傍への注意喚起を意図したものであるため、注意領域走行シーンにおいて自車の接近を知らせる表示よりも自車近傍に止まるようにすることが好ましい。
 一例として、表示処理部108は、自車外面表示装置53にも、自車の発進を知らせる表示を行わせる。表示処理部108は、自車外面表示装置53によって自車のウィンドシールド等の自車外面に「発進します」等のテキストの表示を行わせることで、自車の発進を知らせる表示を行わせればよい(図9のJ参照)。また、自車の発進を知らせる自車外面への表示は、自車の発進後の進行方向を示す矢印を表示させたり、自車の発進時の車輪の回転方向を示す矢印を表示させたりする構成としてもよい。他にも、自車の発進時の車輪の回転方向に、表示を回転させたり、ホイールの周方向に配列した複数のLED光源を順番に点滅させたりする構成としてもよい。
 なお、ここでは、発進要求シーンにおいて、空中表示装置52と自車外面表示装置53とに同時に表示を行わせる構成を示したが、路面表示装置51にも同時に表示を行わせる構成としてもよい。この場合、表示処理部108は、路面表示装置51にも、自車の発進を知らせる表示を行わせる構成とすればよい。例えば、自車の発進後の進行方向を示す矢印の表示を路面に行わせたりする構成とすればよい。
 ステップS10では、シーン特定部105がシーンを通行促進シーンと特定した場合(S10でYES)には、ステップS11に移る。一方、通行促進シーンと特定しなかった場合(S10でNO)には、表示処理部108が車外表示装置50に表示を行わせず、ステップS14に移る。
 ステップS11では、表示装置決定部106が、路面表示装置51と自車外面表示装置53とを、表示を行わせる車外表示装置50と決定する。ステップS12では、表示内容決定部107が、路面表示装置51と自車外面表示装置53とに表示させる表示内容を決定する。一例として、路面表示装置51と自車外面表示装置53との両方に、対象の通行を促進させる表示を行わせるよう決定すればよい。ここで言うところの対象とは、自車と交差する方向への通行を意図すると推定される歩行者や車両である。
 ステップS13では、表示処理部108が、路面表示装置51と自車外面表示装置53とに同時に表示を行わせる。一例として、表示処理部108は、路面表示装置51に、対象の通行を促す表示を行わせる。表示処理部108は、路面表示装置51から、自車と交差する方向を向いた矢印を路面上に表示させる光を投射させることで、対象の通行を促す表示を行わせればよい。また、対象の通行を促す路面への表示は、「お先に通行して下さい」等のテキストの表示であってもよいし、注意を引くために点滅させたりしてもよい。
 一例として、表示処理部108は、自車外面表示装置53にも、対象の通行を促す表示を行わせる。表示処理部108は、自車外面表示装置53によって自車のウィンドシールド等の自車外面に「お先に通行して下さい」等のテキストの表示を行わせることで、対象の通行を促す表示を行わせればよい。また、対象の通行を促す自車外面への表示は、自車の後方に向いた矢印を表示させたり、自車の発進時の車輪の回転方向と逆方向を示す矢印を表示させたりする構成としてもよい。他にも、自車の発進時の車輪の回転方向と逆方向に、表示を回転させたり、ホイールの周方向に配列した複数のLED光源を順番に点滅させたりする構成としてもよい。これによれば、発進時とは逆方向への動きを周囲にイメージさせることで発進を行わないことを知らせ、対象の通行を促すことが可能になる。
 なお、ここでは、発進要求シーンにおいて、路面表示装置51と自車外面表示装置53とに同時に表示を行わせる構成を示したが、空中表示装置52にも同時に表示を行わせる構成としてもよい。この場合、表示処理部108は、空中表示装置52にも、対象の通行を促す表示を行わせる構成とすればよい。対象の通行を促す空中への表示は、対象の通行を妨げないように対象の通路を空けるように表示させるものとする。例えば、対象の通行する方向に向けたトンネルや自車前方を塞ぐ壁等の表示によって、対象の通行を促す構成とすればよい。
 ステップS14では、車外表示関連処理の終了タイミングであった場合(S14でYES)には、車外表示関連処理を終了する。一方、車外表示関連処理の終了タイミングでなかった場合(S14でNO)には、S1に戻って処理を繰り返す。車外表示関連処理の終了タイミングとしては、例えば自車のイグニッション電源がオフになったとき等が挙げられる。
 <実施形態1のまとめ>
 実施形態1の構成によれば、複数種類の車外表示装置50を同時に表示させるので、1種類の車外表示装置50のみ表示させる場合に比べ、表示が自車周辺の人の視界範囲に入る可能性を高めることが可能になる。また、シーン特定部105で特定したシーンに応じて、複数種類同時に表示させる車外表示装置50の組を決定するので、シーンに応じて、自車周辺の人の視界範囲により入りやすい車外表示装置50に表示を行わせることが可能になる。その結果、自車周辺に向けて情報を提示する表示を、より確実に自車周辺の人に認識させることが可能になる。さらに、シーンに応じて、車外表示装置50に表示させる表示内容を車外表示装置50ごとに決定するので、シーンと表示場所とに合った表示内容を表示させることが可能になる。
 例えば、注意領域走行シーンにおいては、路面表示装置51によって路面に、自車が停止できない範囲を示す表示を行わせるとともに、空中表示装置52によって空中に、自車の接近を知らせる表示を行わせる。歩行中の歩行者が足元の路面に視線を向けることがほとんどなく、進行方向の空中を見ていることを、発明者は実験で見出した。これに対し、実施形態1の構成によれば、注意領域走行シーンにおいて、空中と路面とに表示を行わせるので、路面への表示だけでは歩行者に表示が認識されにくい場合であっても、空中への表示も組み合わせることで、より表示が認識されやすくなる。また、空中への表示で自車の接近を自車周辺に気付かせて、路面にも視線が向きやすくさせ、路面への表示で自車が停止できない範囲を気付かせることで、より高い注意喚起の効果が得られる。
 他にも、発進要求シーンにおいては、空中表示装置52と自車外面表示装置53との両方に、自車の発進を知らせる表示を行わせる。歩行者が車両の車体に視線を向けるのは、歩車間距離5m程度までで、それ以上に接近した位置では車体への視線移動は少なくなることを発明者は実験で見出した。これに対し、実施形態1の構成によれば、発進要求シーンにおいて、空中と自車外面とに表示を行わせるので、自車外面への表示だけでは自車との距離が数m程度の歩行者に表示が認識されにくい場合であっても、空中への表示も組み合わせることで、より表示が認識されやすくなる。また、空中へ自車の発進を知らせる表示を行うことで、自車前方の通行を抑止しやすくすることもできる。
 また、通行促進シーンにおいては、路面表示装置51と自車外面表示装置53との両方に、対象の通行を促進させる表示を行わせる。実施形態1の構成によれば、通行促進シーンにおいて、路面と自車外面とに表示を行わせるので、自車外面への表示だけでは自車との距離が数m程度の歩行者に表示が認識されにくい場合であっても、路面への表示も組み合わせることで、より表示が認識されやすくなる。また、空中でなく路面へ対象の通行を促進させる表示を行うことで、自車前方の通行を抑止せずに、対象の通行を促すこともできる。
 (実施形態2)
 実施形態1では、複数種類の車外表示装置50を同時に表示させる構成を示したが、必ずしもこれに限らない。例えば、複数種類の車外表示装置50のうちの表示させる1種類の車外表示装置50を、シーン特定部105で特定するシーンに応じて切り替える構成としてもよい。一例としては、自車が停車中であって自車と歩行者等の対象との距離が例えば5mといった所定距離以上離れている場合には、自車外面表示装置53に表示を行わせる一方、この所定距離未満となった場合には、路面表示装置51若しくは空中表示装置52での表示に切り替える構成とすればよい。
 また、シーンに応じて、複数種類の車外表示装置50を同時に表示させる場合と、1種類の車外表示装置50に表示させる場合とを切り替える構成としてもよい。
 (変形例1)
 また、シーン特定部105で特定するシーンと、表示を行わせる車外表示装置50との組み合わせはあくまで一例であって、前述の実施形態で説明した組み合わせに限らず、他の組み合わせであってもよい。例えば、高齢者や子供といった歩行能力の低い歩行者が存在するシーンでは、歩行者として歩行能力が低い歩行者以外しか存在しないシーンよりも、表示を行わせる車外表示装置50の種類を増やす構成等とすればよい。また、傘を指している歩行者が存在するシーンでは、傘を指していない歩行者しか存在しないシーンに比べて、路面表示装置51での表示を追加する構成等も挙げられる。
 (変形例2)
 前述の実施形態では、路面表示装置51と空中表示装置52と自車外面表示装置53とを車外表示装置50とする構成を示したが、必ずしもこれに限らない。複数種類の車外表示装置50であれば、路面表示装置51と空中表示装置52と自車外面表示装置53とのうちの2種類のみを車外表示装置50とする構成としてもよい。
 (変形例3)
 実施形態1では、シーンによっては車外表示装置50での表示を行わせない構成を示したが、必ずしもこれに限らず、シーンによらずに車外表示装置50での表示を常に行わせる構成としてもよい。例えば、シーンによらずに複数種類の車外表示装置50での同時表示を常に行わせる構成としてもよい。
 (変形例4)
 実施形態1では、自動運転機能を備える車両の例を示したが、必ずしもこれに限らない。例えば、自動運転機能を備えない車両に適用する構成としてもよい。この場合、シーン特定部105は、他者の通行を優先する旨の操作入力を受け付ける操作入力部でこの操作入力を受け付けた場合に、発進を望まないと判断する構成とすればよい。
 (変形例5)
 実施形態1では、走行環境認識部101で周辺人物状態を認識する対象に、自動車,自転車,自動二輪車といった車両を運転している人物も含む構成を示したが、必ずしもこれに限らない。例えば、走行環境認識部101で周辺人物状態を認識する対象に、車両を運転している人物を含まず、歩行者のみを対象とする構成としてもよい。この場合、車外表示装置50によって情報を提示する対象も、歩行者のみとする構成とすればよい。
 (変形例6)
 実施形態1では、周辺監視センサ30から取得したセンシング結果等から自車の走行環境を認識する機能と、自動運転機能と、車外表示関連処理を実行する機能とを運転支援ECU10が担う構成を示したが、必ずしもこれに限らない。例えば、これらの機能を複数のECUで担う構成としてもよい。
 ここで、この出願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のセクション(あるいはステップと言及される)から構成され、各セクションは、たとえば、S1と表現される。さらに、各セクションは、複数のサブセクションに分割されることができる、一方、複数のセクションが合わさって一つのセクションにすることも可能である。さらに、このように構成される各セクションは、デバイス、モジュール、ミーンズとして言及されることができる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (11)

  1.  車両で用いられ、
     自車から自車周辺の路面に向けて表示を行う車外表示装置である路面表示装置(51)と、自車から自車周辺の空中に向けて表示を行う車外表示装置である空中表示装置(52)と、自車の外面に表示を行う車外表示装置である自車外面表示装置(53)とのうちの、少なくともいずれか複数種類の車外表示装置(50)に、情報を提示する表示を行わせることができる表示処理部(108)と、
     前記表示処理部で表示を行わせる前記車外表示装置を決定する表示装置決定部(106)とを備え、
     前記表示装置決定部は、複数種類の前記車外表示装置に同時に表示を行わせるように、前記表示処理部で表示を行わせる前記車外表示装置を決定するか、若しくは複数種類の前記車外表示装置を切り替えて表示を行わせるように、前記表示処理部で表示を行わせる前記車外表示装置を決定する車外表示処理装置。
  2.  請求項1において、
     前記表示装置決定部は、自車の周辺を監視する周辺監視センサ(30)でのセンシング結果を用いて、情報を提示すべき自車周辺の対象と自車との関係を分類したシーンに応じた、表示を行わせる前記車外表示装置を決定し、
     前記表示処理部は、前記表示装置決定部で表示を行わせる決定がされた前記車外表示装置に表示を行わせる車外表示処理装置。
  3.  請求項2において、
     自車の周辺を監視する周辺監視センサでのセンシング結果を用いて、人物としての前記対象の自車に対する位置、視線方向、注視点、歩行能力、通行の意図、及び通行の状態の少なくともいずれかである対象情報を検出する対象情報検出部(101)をさらに備え、
     前記表示装置決定部は、前記対象情報検出部で検出した前記対象情報を用いて、前記シーンに応じた、表示を行わせる前記車外表示装置を決定する車外表示処理装置。
  4.  請求項2又は3において、
     前記シーンに応じた、前記表示装置決定部で表示を行わせる決定がされた前記車外表示装置での表示内容を決定する表示内容決定部(107)をさらに備え、
     前記表示処理部は、前記表示装置決定部で表示を行わせる決定がされた前記車外表示装置に、前記表示内容決定部で決定した表示内容の表示を行わせる車外表示処理装置。
  5.  請求項2~4のいずれか1項において、
     前記表示処理部は、前記シーンの変化によって前記表示装置決定部で表示を行わせる決定がされる前記車外表示装置が変化する場合に、このシーンの変化に応じて、表示を行わせる前記車外表示装置を切り替える車外表示処理装置。
  6.  請求項1~5のいずれか1項において、
     前記表示処理部は、複数種類の前記車外表示装置に同時に表示を行わせる車外表示処理装置。
  7.  請求項2~5のいずれか1項において、
     前記表示装置決定部は、前記シーンに応じた、同時に表示を行わせる複数種類の前記車外表示装置の組を決定するものであり、
     前記表示処理部は、前記表示装置決定部で表示を行わせる決定がされた前記車外表示装置の組に同時に表示を行わせる車外表示処理装置。
  8.  請求項7において、
     前記表示装置決定部は、前記シーンが、自車の接近を周辺に注意喚起すべき領域を走行中のシーンである場合に、複数種類の前記車外表示装置のうちの少なくとも前記路面表示装置と前記空中表示装置とを同時に表示を行わせる車外表示装置として決定し、
     前記表示処理部は、前記表示装置決定部で表示を行わせる決定がされた組に表示を同時に行わせるとともに、前記路面表示装置には自車が停止できない範囲を示す表示を行わせ、前記空中表示装置には自車の接近を知らせる表示を行わせる車外表示処理装置。
  9.  請求項7又は8において、
     前記表示装置決定部は、前記シーンが、自車の停車中において発進が望まれるシーンである場合に、複数種類の前記車外表示装置のうちの少なくとも前記自車外面表示装置と前記空中表示装置とを同時に表示を行わせる車外表示装置として決定し、
     前記表示処理部は、前記表示装置決定部で表示を行わせる決定がされた前記車外表示装置の組に、自車の発進を知らせる表示を同時に行わせる車外表示処理装置。
  10.  請求項7~9のいずれか1項において、
     前記表示装置決定部は、前記シーンが、自車の停車中において発進を望まないシーンであって、且つ、自車前方に自車と交差する方向への通行を意図すると推定される前記対象が位置するシーンである場合に、複数種類の前記車外表示装置のうちの少なくとも前記自車外面表示装置と前記路面表示装置とを同時に表示を行わせる車外表示装置として決定し、
     前記表示処理部は、前記表示装置決定部で表示を行わせる決定がされた前記車外表示装置の組に、前記対象の通行を促す表示を同時に行わせる車外表示処理装置。
  11.  車両で用いられ、
     自車から自車周辺の路面に向けて表示を行う車外表示装置である路面表示装置(51)と、自車から自車周辺の空中に向けて表示を行う車外表示装置である空中表示装置(52)と、自車の外面に表示を行う車外表示装置である自車外面表示装置(53)とのうちの、少なくともいずれか複数種類の車外表示装置(50)と、
     請求項1~10のいずれか1項に記載の車外表示処理装置(10)とを含む車外表示システム。
     
PCT/JP2017/022093 2016-08-08 2017-06-15 車外表示処理装置及び車外表示システム WO2018029978A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016155817A JP6680136B2 (ja) 2016-08-08 2016-08-08 車外表示処理装置及び車外表示システム
JP2016-155817 2016-08-08

Publications (1)

Publication Number Publication Date
WO2018029978A1 true WO2018029978A1 (ja) 2018-02-15

Family

ID=61162081

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/022093 WO2018029978A1 (ja) 2016-08-08 2017-06-15 車外表示処理装置及び車外表示システム

Country Status (2)

Country Link
JP (1) JP6680136B2 (ja)
WO (1) WO2018029978A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020100655A1 (ja) * 2018-11-15 2020-05-22 株式会社小糸製作所 車両用照明システム
CN111200689A (zh) * 2018-11-19 2020-05-26 阿尔派株式会社 移动体用投影装置、便携终端、程序
US10679530B1 (en) 2019-02-11 2020-06-09 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for mobile projection in foggy conditions

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6613265B2 (ja) * 2017-06-01 2019-11-27 本田技研工業株式会社 予測装置、車両、予測方法およびプログラム
JP6989418B2 (ja) * 2018-03-12 2022-01-05 矢崎総業株式会社 車載システム
DE112018007719B4 (de) * 2018-07-04 2022-03-31 Mitsubishi Electric Corporation Informationsanzeigevorrichtung und informationsanzeigeverfahren
JP7158279B2 (ja) * 2018-12-28 2022-10-21 株式会社小糸製作所 標識灯システム
JP7202208B2 (ja) * 2019-02-13 2023-01-11 株式会社Subaru 自動運転システム
JP7149199B2 (ja) * 2019-02-13 2022-10-06 株式会社Subaru 自動運転システム
JP2020149598A (ja) * 2019-03-15 2020-09-17 豊田合成株式会社 車載警告装置
WO2020262453A1 (ja) * 2019-06-28 2020-12-30 株式会社小糸製作所 車両用情報表示システム、車両用情報表示装置、車両制御システム
JP7440237B2 (ja) * 2019-10-16 2024-02-28 トヨタ自動車株式会社 表示装置
WO2021149560A1 (ja) * 2020-01-23 2021-07-29 株式会社小糸製作所 灯具システム、自動車、運転支援装置、交通システム
US20240102627A1 (en) * 2021-02-03 2024-03-28 Koito Manufacturing Co., Ltd. Road surface rendering device
CN113428080A (zh) * 2021-06-22 2021-09-24 阿波罗智联(北京)科技有限公司 无人车提醒行人或车辆避让的方法、装置、无人车

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05221263A (ja) * 1992-02-17 1993-08-31 Nippon Steel Corp 車両用表示装置
JP2009018711A (ja) * 2007-07-12 2009-01-29 Denso Corp 車両用表示灯
JP2014184876A (ja) * 2013-03-25 2014-10-02 Stanley Electric Co Ltd 路面照射信号灯具
JP2016055691A (ja) * 2014-09-08 2016-04-21 株式会社小糸製作所 車両用表示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05221263A (ja) * 1992-02-17 1993-08-31 Nippon Steel Corp 車両用表示装置
JP2009018711A (ja) * 2007-07-12 2009-01-29 Denso Corp 車両用表示灯
JP2014184876A (ja) * 2013-03-25 2014-10-02 Stanley Electric Co Ltd 路面照射信号灯具
JP2016055691A (ja) * 2014-09-08 2016-04-21 株式会社小糸製作所 車両用表示システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020100655A1 (ja) * 2018-11-15 2020-05-22 株式会社小糸製作所 車両用照明システム
JPWO2020100655A1 (ja) * 2018-11-15 2021-09-30 株式会社小糸製作所 車両用照明システム
EP3882077A4 (en) * 2018-11-15 2021-12-15 Koito Manufacturing Co., Ltd. VEHICLE LIGHTING SYSTEM
JP7309751B2 (ja) 2018-11-15 2023-07-18 株式会社小糸製作所 車両用照明システム
CN111200689A (zh) * 2018-11-19 2020-05-26 阿尔派株式会社 移动体用投影装置、便携终端、程序
CN111200689B (zh) * 2018-11-19 2022-05-03 阿尔派株式会社 移动体用投影装置、便携终端及便携终端的显示方法
US10679530B1 (en) 2019-02-11 2020-06-09 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for mobile projection in foggy conditions

Also Published As

Publication number Publication date
JP6680136B2 (ja) 2020-04-15
JP2018024291A (ja) 2018-02-15

Similar Documents

Publication Publication Date Title
WO2018029978A1 (ja) 車外表示処理装置及び車外表示システム
CN110356402B (zh) 车辆控制装置、车辆控制方法及存储介质
CN109515434B (zh) 车辆控制装置、车辆控制方法及存储介质
JP6617534B2 (ja) 運転支援装置
JP6515814B2 (ja) 運転支援装置
US11900812B2 (en) Vehicle control device
JP6288286B2 (ja) 走行制御装置および走行制御方法
US11347233B2 (en) Vehicle control apparatus, vehicle control system, and image sensor
US10045173B1 (en) Vehicle outside notification device
JP2019156269A (ja) 車両制御装置、車両制御方法、及びプログラム
CN112874513A (zh) 驾驶支援装置
JP2021175630A (ja) 運転支援装置
WO2020189238A1 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP2021131775A (ja) 車両の運転支援システム
US20190265727A1 (en) Vehicle control device
JP6894354B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2005145282A (ja) 車両走行支援装置
CN115223397B (zh) 交通系统
CN113727895A (zh) 车辆控制方法以及车辆控制装置
WO2017138343A1 (ja) 運転教示装置
JP7334107B2 (ja) 車両制御方法及び車両制御装置
JP2022060075A (ja) 運転支援装置
US20190266895A1 (en) Vehicle control device
JP7480801B2 (ja) 車両用報知制御装置及び車両用報知制御方法
Sule et al. Autononous Cars: The future of Roadways

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17839053

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17839053

Country of ref document: EP

Kind code of ref document: A1