WO2023194793A1 - 情報提供装置及び情報提供方法 - Google Patents

情報提供装置及び情報提供方法 Download PDF

Info

Publication number
WO2023194793A1
WO2023194793A1 PCT/IB2023/000131 IB2023000131W WO2023194793A1 WO 2023194793 A1 WO2023194793 A1 WO 2023194793A1 IB 2023000131 W IB2023000131 W IB 2023000131W WO 2023194793 A1 WO2023194793 A1 WO 2023194793A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
intersection
intersection area
pass
Prior art date
Application number
PCT/IB2023/000131
Other languages
English (en)
French (fr)
Inventor
龍馬 三角
誠秀 中村
Original Assignee
日産自動車株式会社
ルノー エス. ア. エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社, ルノー エス. ア. エス. filed Critical 日産自動車株式会社
Publication of WO2023194793A1 publication Critical patent/WO2023194793A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention

Definitions

  • the present invention relates to an information providing device and an information providing method.
  • Patent Document 1 When displaying the stopped state of a vehicle with an automatic driving function, the surrounding conditions of the own vehicle are detected, and if the own vehicle becomes stopped in the future due to the surrounding conditions during automatic driving, it will be detected based on the road surface of the surrounding conditions. It is known to display a stop display extending upward on a display device (Patent Document 1).
  • the problem to be solved by the present invention is to provide an information providing device and an information providing method that can suppress the feeling of anxiety given to vehicle occupants.
  • the present invention acquires intersection areas where other moving objects intersect with areas in which other moving objects can move on a travel route set by autonomous driving control, and allows the own vehicle to pass through the intersection areas based on the driving environment around the own vehicle.
  • the vehicle is traveling to the intersection area. The above problem is solved by changing the information according to the determination result as to whether or not the own vehicle can pass through the intersection area.
  • FIG. 1 is a block diagram showing an example of a driving support system including a driving support device according to the present invention.
  • FIG. 2 is a diagram (part 1) showing an example of an image displayed when driving support is executed by the driving support system shown in FIG. 1;
  • FIG. 2 is a diagram (part 2) showing an example of an image displayed when driving support is executed by the driving support system shown in FIG. 1;
  • FIG. 3 is a diagram (part 3) showing an example of an image displayed when driving support is executed by the driving support system shown in FIG. 1;
  • 2 is a flowchart (part 1) showing an example of a processing procedure in the driving support device of FIG. 1;
  • 2 is a flowchart (Part 2) illustrating an example of a processing procedure in the driving support device of FIG. 1;
  • FIG. 1 is a block diagram showing a driving support system 10 according to the present invention.
  • the driving support system 10 is an in-vehicle system that uses autonomous driving control to drive the vehicle to a destination set by the occupants of the vehicle (including the driver).
  • Autonomous driving control refers to autonomously controlling the driving behavior of a vehicle using a driving support device (described later), and the driving behavior includes acceleration, deceleration, starting, stopping, and turning to the right or left. This includes all driving movements, such as steering, changing lanes, and pulling alongside.
  • autonomously controlling the driving operation means that the driving support device controls the driving operation using a device of the vehicle. In other words, the driving support device intervenes and controls these driving operations within a predetermined range. Driving operations that do not require intervention are manually operated by the driver.
  • the driving support system 10 includes an imaging device 11, a distance measuring device 12, a state detection device 13, a map information 14, a position detection device 15, a navigation device 16, a vehicle control device 17, a display device 18, and A driving support device 19 is provided.
  • the driving support device 19 of this embodiment includes, as a part thereof, an information providing device having an information providing function.
  • the devices constituting the driving support system 10 are connected via a CAN (Controller Area Network) or other in-vehicle LAN, and can exchange information with each other.
  • CAN Controller Area Network
  • the imaging device 11 is a device that recognizes objects around the vehicle using images, and is, for example, a camera equipped with an imaging device such as a CCD, an ultrasonic camera, an infrared camera, or the like.
  • a plurality of imaging devices 11 can be provided in one vehicle, and can be arranged, for example, in the front grille of the vehicle, below the left and right door mirrors, and near the rear bumper. This can reduce blind spots when recognizing objects around the vehicle.
  • the distance measuring device 12 is a device for calculating the relative distance and relative speed between the vehicle and the target object, and includes, for example, a laser radar, a millimeter wave radar, etc. (LRF, etc.), a LiDAR (light detection and ranging) unit, a super A radar device such as a sonic radar or a sonar.
  • a plurality of distance measuring devices 12 can be provided in one vehicle, and can be arranged, for example, at the front, right side, left side, and rear of the vehicle. Thereby, the relative distance and relative speed of the vehicle to surrounding objects can be calculated accurately.
  • Objects detected by the imaging device 11 and distance measuring device 12 include road lane boundaries, center lines, road signs, median strips, guardrails, curbs, expressway side walls, road signs, traffic lights, crosswalks, and construction work. These include the scene, accident scene, and traffic restrictions.
  • the objects also include obstacles that may affect the running of the vehicle, such as cars other than the own vehicle (other vehicles), motorcycles, bicycles, and pedestrians.
  • the detection results of the imaging device 11 and the distance measuring device 12 are acquired by the driving support device 19 at predetermined time intervals as necessary.
  • the detection results of the imaging device 11 and the distance measuring device 12 can be integrated or synthesized (so-called sensor fusion) in the driving support device 19, thereby complementing missing information about the detected object.
  • the driving support device 19 calculates the position information of the object based on the self-position information, which is the position where the vehicle is traveling, acquired by the position detection device 15 and the relative position (distance and direction) of the vehicle and the object. can.
  • the calculated object position information is integrated with multiple pieces of information such as the detection results of the imaging device 11 and the distance measuring device 12 and the map information 14 in the driving support device 19, and is combined with driving environment information around the vehicle. Become. Further, using the detection results of the imaging device 11 and the distance measuring device 12 and the map information 14, it is also possible to recognize objects around the vehicle and predict their movements.
  • the state detection device 13 is a device for detecting the running state of the vehicle, and includes a vehicle speed sensor, an acceleration sensor, a yaw rate sensor (eg, a gyro sensor), a steering angle sensor, an inertial measurement unit, and the like. There are no particular limitations on these devices, and known devices can be used. Further, the arrangement and number of these devices can be set as appropriate within a range that can appropriately detect the driving state of the vehicle. The detection results of each device are acquired by the driving support device 19 at predetermined time intervals as necessary.
  • the map information 14 is information used for generating driving routes, controlling driving operations, etc., and includes road information, facility information, and their attribute information.
  • Road information and road attribute information include road width, road radius of curvature, road shoulder structures, road traffic regulations (speed limit, lane change availability), road merging and branching points, increase in number of lanes, etc. Contains information such as the location of the decrease.
  • the map information 14 is high-definition map information that can grasp the movement trajectory for each lane, and includes two-dimensional position information and/or three-dimensional position information at each map coordinate, road/lane boundary information at each map coordinate, and road attribute information. , lane up/down information, lane identification information, connection destination lane information, etc.
  • the road/lane boundary information in the high-definition map information is information that indicates the boundary between the road on which the vehicle travels and other areas.
  • a road on which a vehicle travels is a road on which a vehicle travels, and the form of the road is not particularly limited.
  • the map information 14 is stored in a readable state in a recording medium provided in a driving support device 19, an in-vehicle device, or a server on a network.
  • the driving support device 19 acquires the map information 14 as necessary.
  • the position detection device 15 is a positioning system for detecting the current position of the vehicle, and is not particularly limited, and a known device can be used.
  • the position detection device 15 calculates the current position of the vehicle from, for example, radio waves received from a GPS (Global Positioning System) satellite. Further, the position detection device 15 estimates the current position of the vehicle from the vehicle speed information and acceleration information acquired from the vehicle speed sensor, acceleration sensor, and gyro sensor that are the state detection device 13, and compares the estimated current position with the map information 14. In this way, the current position of the vehicle may be calculated.
  • GPS Global Positioning System
  • the navigation device 16 is a device that refers to the map information 14 and calculates a driving route from the current position of the vehicle detected by the position detection device 15 to a destination set by the occupant (including the driver).
  • the navigation device 16 uses the road information, facility information, etc. of the map information 14 to search for a travel route for the vehicle to reach the destination from the current location.
  • the travel route includes at least information about the road on which the vehicle travels, the travel lane, and the travel direction of the vehicle, and is displayed, for example, in a linear format. There may be multiple travel routes depending on the search conditions.
  • the travel route calculated by the navigation device 16 is output to the driving support device 19.
  • the vehicle control device 17 is an on-vehicle computer such as an electronic control unit (ECU), and electronically controls on-vehicle equipment that governs the running of the vehicle.
  • the vehicle control device 17 includes a vehicle speed control device 171 that controls the traveling speed of the vehicle, and a steering control device 172 that controls the steering operation of the vehicle.
  • the vehicle speed control device 171 and the steering control device 172 autonomously control the operations of these drive devices and steering devices according to control signals input from the driving support device 19. This allows the vehicle to autonomously travel along the set travel route.
  • Information necessary for autonomous control by the vehicle speed control device 171 and the steering control device 172 such as the traveling speed, acceleration, steering angle, and attitude of the vehicle, is acquired from the state detection device 13.
  • the drive devices controlled by the vehicle speed control device 171 include an electric motor and/or an internal combustion engine that are driving sources, a power transmission device including a drive shaft and an automatic transmission that transmit the output from these driving sources to the drive wheels, Examples include a drive device that controls a power transmission device.
  • the braking device controlled by the vehicle speed control device 171 is, for example, a braking device that brakes wheels.
  • a control signal corresponding to a set traveling speed is input to the vehicle speed control device 171 from the driving support device 19.
  • the vehicle speed control device 171 generates signals to control these drive devices based on the control signals input from the driving support device 19, and transmits the signals to the drive devices to autonomously control the running speed of the vehicle. to control.
  • the steering device controlled by the steering control device 172 is a steering device that controls the steered wheels according to the steering angle of the steering wheel, and includes, for example, a steering actuator such as a motor attached to a column shaft of the steering wheel.
  • the steering control device 172 controls the steering so that the vehicle travels while maintaining a predetermined lateral position (position in the left-right direction of the vehicle) with respect to the set travel route based on the control signal input from the driving support device 19.
  • This control includes at least the detection results of the imaging device 11 and the distance measuring device 12, the driving state of the vehicle obtained by the state detection device 13, the map information 14, and the information on the current position of the vehicle obtained by the position detection device 15. Use one.
  • the display device 18 is a device for providing necessary information to the occupants of the vehicle, and is, for example, a projector such as a liquid crystal display provided on an instrument panel or a head-up display (HUD).
  • the display device 18 may include an input device for a vehicle occupant to input instructions to the driving support device 19. Examples of the input device include a touch panel that receives input using a user's finger or a stylus pen, a microphone that obtains a user's voice instructions, and a switch attached to a vehicle steering wheel. Further, the display device 18 may include a speaker as an output device.
  • the driving support device 19 is a device that controls the driving of the vehicle by controlling and cooperating with the devices that make up the driving support system 10, and drives the vehicle to a set destination.
  • the destination is set, for example, by a vehicle occupant.
  • the driving support device 19 is, for example, a computer, and includes a CPU (Central Processing Unit) 191 that is a processor, a ROM (Read Only Memory) 192 in which a program is stored, and a RAM (Random Access Memory) that functions as an accessible storage device. y ) 193.
  • the CPU 191 is an operating circuit that executes a program stored in the ROM 192 and realizes the functions of the driving support device 19.
  • the driving support device 19 has a driving support function that allows the vehicle to travel to a set destination using autonomous driving control. Further, the driving support device 19 of this embodiment includes an information providing device as a part thereof. As an information providing function, the information providing device has an intersection area acquisition function that acquires an intersection area where the vehicle's driving route intersects with an area in which other moving objects can move, and a driving environment recognition function that recognizes the driving environment around the own vehicle. A passing judgment function that determines whether the vehicle can pass through the intersection area, and an approach notification function that provides information to the occupants of the vehicle to notify them that the vehicle is approaching the intersection area. and has.
  • the programs stored in the ROM 192 include programs for realizing these functions, and these functions are realized by the CPU 191 executing the programs stored in the ROM 192. In FIG. 1, each function is extracted and shown as a functional block for convenience.
  • the control unit 20 has a function (that is, a driving support function) of driving the vehicle to a set destination by autonomous driving control.
  • the driving support device 19 displays an image showing the driving environment of the own vehicle on the display device 18 when performing driving support using the driving support function.
  • FIG. 2A is a diagram showing an example of an image displayed on the display device 18.
  • the image shown in FIG. 2A is a bird's-eye view image obtained when a virtual viewpoint is set diagonally upward behind the host vehicle V and the front of the host vehicle V is photographed from the position of the viewpoint.
  • Information such as the lane and sign of the road on which the host vehicle V travels, the traveling position of the host vehicle V, and obstacles existing around the host vehicle V is displayed in the bird's-eye view image.
  • the image shown in FIG. 2A is a two-dimensional image created by computer graphics (CG)
  • the image showing the driving environment of the own vehicle V displayed on the display device 18 is not limited to this. do not have.
  • the image showing the driving environment may be a three-dimensional image, or may be an image acquired by the imaging device 11.
  • an image created by CG may be displayed superimposed on the image acquired by the imaging device 11.
  • the driving scene shown in FIG. 2A corresponds to the actual driving scene of the host vehicle V. That is, in the driving scene shown in FIG. 2A, the host vehicle V is traveling on a road with two lanes on each side.
  • the driving direction of the vehicle in lanes L1 and L2 is from the bottom to the top (from the front to the back) of the drawing, and the driving direction of the vehicle in lanes L3 and L4 is from the top to the bottom (back) of the drawing.
  • the direction is from the front side).
  • the road on which the host vehicle V is traveling intersects with a road with one lane on each side in front of the host vehicle V.
  • the traveling direction of the vehicle in lane L5 is from the right side to the left side in the drawing
  • the traveling direction of the vehicle on lane L6 is from the left side to the right side in the drawing.
  • intersection C is the area where the two roads intersect.
  • a traffic light is installed at intersection C.
  • vehicles traveling in lanes L1 and L3 can go straight through intersection C or turn left, and vehicles traveling in lanes L2 and L4 can go straight through intersection C or turn right. shall be.
  • the destination Px (not shown) is set by the occupant of the own vehicle V at a position after going straight on the left side of the drawing in the lane L5.
  • the navigation device 16 sets the traveling route R of the host vehicle V using the driving support function of the control unit 20.
  • the navigation device 16 sets, for example, a travel route R shown in FIG. 2A.
  • the driving route R is a route in which the vehicle travels in the lane L1, turns left at the intersection C, travels in the lane L5, and reaches the destination Px.
  • the host vehicle V travels along the travel route R in the lane L1.
  • the travel of the host vehicle V is controlled by autonomous driving control using the driving support function of the driving support device 19.
  • a plurality of support levels are set in the driving support of the driving support device 19.
  • the support level is a level indicating how much the driving support device 19 intervenes in controlling the driving operation of the host vehicle V (in other words, how much the driver's manual operation intervenes).
  • the driving support device 19 realizes driving support defined at each support level using a driving support function.
  • the support level is, for example, SAE J3016: SEP2016, Taxonomy and Definitions for Terms published by the Society of Automotive Engineers (SAE).
  • SAE Society of Automotive Engineers
  • Driving automation defined in Related to Driving Automation Systems for On-Road Motor Vehicles Can be set based on level.
  • the driving support device 19 executes all driving tasks of the host vehicle V, and the response to the case where it is difficult to continue control is continuously executed in a limited area. It is assumed that driving support of support level 4, which is the level of support provided by the driver, is being executed. In this case, the driving support device 19 decelerates the own vehicle V when approaching the intersection C, and monitors the state of the traffic lights installed at the intersection C and the pedestrians and bicycles crossing the crosswalks CW1 and CW3. Detect. Then, when the state of the traffic light does not instruct the vehicle V to stop and there are no pedestrians or bicycles crossing the crosswalks CW1 and CW3, it is determined that the vehicle V can turn left at the intersection C, Enter intersection C.
  • driving support of support level 4 which is the level of support provided by the driver
  • the driving support device 19 controls the display device 18 so as to provide appropriate information to the occupants of the own vehicle V.
  • This control is mainly realized by the functions of the acquisition section 21, the recognition section 22, the determination section 23, and the provision section 24.
  • the acquisition unit 21 has a function (that is, an intersection area acquisition function) of acquiring an intersecting area where another mobile object intersects with a movable area in the driving route R set by autonomous driving control.
  • Other moving objects are traffic participants other than the own vehicle V, such as other vehicles, motorcycles, bicycles, and pedestrians.
  • the area in which other moving objects can move is an area in which traffic participants other than the host vehicle V can move when moving from the current position to the destination.
  • areas where pedestrians can move are areas where pedestrians can walk, such as sidewalks, crosswalks, and pedestrian bridges.
  • the area in which other vehicles and motorcycles can move is the area on the road where the vehicle V can move.
  • the driving support device 19 uses the intersection area acquisition function of the acquisition unit 21 to acquire the driving route R from the navigation device 16. Next, in the travel route R, an intersection area where another moving object intersects with a movable area is acquired.
  • the intersection of the driving route R and an area in which other moving objects can move means that if a traffic participant other than the own vehicle V exists in an area in which that traffic participant can move, the own vehicle V is traveling. This means that when the vehicle V travels along the route R, the host vehicle V comes into contact with another moving object.
  • the traveling route R of the own vehicle V and the area in which traffic participants other than the own vehicle V can move exist on the same plane, and when viewed from above, the traveling route R of the own vehicle V is This means that the area overlaps with part or all of the area in which traffic participants other than the own vehicle V can move.
  • a crosswalk existing on the travel route R becomes a crossing area.
  • a pedestrian bridge exists on the travel route R, even if the own vehicle V runs along the travel route R while the pedestrian is walking on the pedestrian bridge, the own vehicle V and the pedestrian There is no contact with. This is because the road on which the host vehicle V travels and the pedestrian bridge on which the pedestrian walks do not exist on the same plane.
  • the map information 14 includes road information of roads that the host vehicle V passes when traveling along the travel route R. Furthermore, the map information 14 also includes information on areas on the road through which the host vehicle V passes, where traffic participants other than the host vehicle V can move, and their attributes. Therefore, the driving support device 19 can extract the intersection area existing on the travel route R using the intersection area acquisition function of the acquisition unit 21.
  • intersection area examples include an intersection where a road on which the host vehicle V travels intersects with a road on which another vehicle travels, a crosswalk installed on the road on which the host vehicle V travels, and the like.
  • the intersection area when the own vehicle V enters a facility located in a position facing a road, if a sidewalk is provided between the roadway and the facility, the portion of the sidewalk facing the facility is the crossing area. become. In other words, if a pedestrian is walking on a sidewalk between the facility and the roadway, and the vehicle V enters the facility, the pedestrian will come into contact with the vehicle V, and the sidewalk will be closed. It becomes an intersection area.
  • intersection C becomes an intersection area.
  • the crosswalks CW1 and CW2 become crossing areas.
  • the crosswalks CW1 and CW3 become the crossing area
  • the crosswalks CW1 and CW4 become the crossing area.
  • the recognition unit 22 has a function of recognizing the driving environment around the own vehicle V (that is, a driving environment recognition function).
  • the driving support device 19 uses the driving environment recognition function of the recognition unit 22 to acquire the detection results of the imaging device 11 and the distance measuring device 12, performs processing such as pattern matching and sensor fusion on the acquired detection results, and performs automatic processing. Recognize the driving environment of the vehicle V. For example, the driving support device 19 detects other vehicles traveling around the own vehicle V based on the detection results of the imaging device 11, and determines the distance from the own vehicle V to the other vehicle based on the detection results of the distance measuring device 12. , detects the direction in which the other vehicle exists with respect to the own vehicle V, and recognizes the position of the other vehicle with respect to the own vehicle V.
  • the driving support device 19 detects a pedestrian crossing the crosswalk in front of the own vehicle V from the detection result of the imaging device 11, and detects a pedestrian crossing the crosswalk in front of the own vehicle V from the detection result of the distance measuring device 12. Detects the distance to V and recognizes the position of other vehicles relative to own vehicle V.
  • a traffic light may be installed at intersection C, which is a crossing area.
  • the driving support device 19 uses the driving environment recognition function of the recognition unit 22 to detect that a traffic light exists in front of the own vehicle V from the detection result of the imaging device 11 and the map information 14. Determine whether or not. If it is determined that a traffic light exists in front of the own vehicle V, the state of the traffic light is detected as the driving environment.
  • the state of a traffic light is, for example, the state of the light of the traffic light.
  • the state of the traffic light is red (that is, the state where the vehicle V must stop before intersection C), and the state where the traffic light is yellow (that is, a state in which the vehicle V cannot enter the intersection C unless it is unable to stop); and a state in which the traffic light is blue (in other words, the vehicle V can enter the intersection C).
  • the state of the traffic light is detected from an image acquired by the imaging device 11.
  • the driving support device 19 uses the driving environment recognition function of the recognition unit 22 to identify, for example, a preceding vehicle and a following vehicle traveling in lane L1, and a vehicle traveling in lane L2.
  • the oncoming vehicle and oncoming vehicles traveling in lanes L3 and L4 are detected as other vehicles.
  • the position of the other vehicle traveling around the own vehicle V is recognized.
  • the driving support device 19 detects pedestrians crossing the crosswalks CW1, CW2, CW3, and CW4, and recognizes the presence of pedestrians as the driving environment of the host vehicle V. Since no pedestrians are detected in the driving scene shown in FIG. 2A, it is recognized that there are no pedestrians around the own vehicle V. Further, the driving support device 19 determines whether a traffic light is installed at the intersection C. In the driving scene shown in FIG. 2A, it is assumed that a traffic light is installed at an intersection C, and the traffic light is in a yellow light state.
  • the determination unit 23 has a function (that is, a passage determination function) of determining whether or not the own vehicle V can pass through the intersection area based on the driving environment of the own vehicle V recognized by the driving environment recognition function.
  • the driving support device 19 uses the passage determination function of the determining unit 23 to determine whether or not an obstacle exists in the intersection area, and if it is determined that there is no obstacle in the intersection area, the own vehicle V is in the intersection area. It is determined that it is possible to pass through. On the other hand, if it is determined that an obstacle exists in the intersection area, it is determined that the own vehicle V cannot pass through the intersection area.
  • the driving support device 19 determines whether the traffic light is in a state that instructs the vehicle to stop. If it is determined that the state of the traffic light is a state that instructs a stop (that is, a red light state), it is determined that the own vehicle V cannot pass through the intersection area, and the state of the traffic light is not a state that instructs a stop. (In other words, the blue light state), it is determined that the own vehicle V can pass through the intersection area.
  • the own vehicle V is at the intersection C. Determine whether you can park in front of the vehicle. If it is determined that the host vehicle V cannot stop before the intersection C, the driving support device 19 determines that the traffic light is not in a state that instructs the driver to stop and that the host vehicle V can pass through the intersection area. On the other hand, if it is determined that the own vehicle V can stop before the intersection C, the driving support device 19 determines that the traffic light is in a state that instructs to stop and that the own vehicle V cannot pass through the intersection area. judge.
  • the driving support device 19 determines whether the obstacle is present in the intersection area or not. , and when it is determined that the traffic light is not in a state that instructs a stop, it is determined that the own vehicle V can pass through the intersection area. On the other hand, if the driving support device 19 determines that an obstacle exists in the intersection area or if it determines that the traffic light is in a state that instructs a stop, the driving support device 19 determines that the own vehicle V cannot pass through the intersection area. judge.
  • the driving support device 19 also determines whether or not the own vehicle V can pass through the intersection area even when the own vehicle V stops before the intersection area and then starts moving. For example, when the own vehicle V stops in front of the intersection C according to the stop signal and then starts moving, it is determined whether the own vehicle V can pass through the intersection C or not.
  • the driving support device 19 uses the driving environment recognition function to determine that there are no other vehicles running around the own vehicle V as the driving environment, and that the own vehicle V It is recognized that there are no pedestrians around. Therefore, the driving support device 19 determines that other vehicles and pedestrians are not present at the intersection C.
  • the driving support device 19 recognizes that the state of the traffic light is a yellow light state using the driving environment recognition function.
  • the driving support device 19 determines that the traffic light is in a state that instructs the vehicle to stop. Therefore, in the driving scene shown in FIG. 2A, the driving support device 19 determines that the own vehicle V cannot pass through the intersection area.
  • the providing unit 24 has a function of providing information to the in-vehicle terminal and/or electronic terminal in the own vehicle V to notify that the own vehicle V is approaching the intersection area (that is, an approach notification function).
  • the in-vehicle terminal and electronic terminal of the own vehicle V are, for example, the display device 18, but are not limited to this, and may be the display part of the instrument panel of the own vehicle V, or the on-vehicle terminal when executing the above-mentioned support level 3 or 4 driving assistance. It includes a terminal for providing information to the occupants of the vehicle V.
  • the driving support device 19 uses the approach notification function of the providing unit 24 to inform the occupants of the own vehicle V that the own vehicle V is approaching the intersection area using the in-vehicle terminal and/or electronic terminal of the own vehicle V. Provide information that informs the public. Further, the driving support device 19 repeatedly performs the passage determination process using the passage determination function while the host vehicle V travels from the current position to the intersection area. Then, according to the obtained determination result, the information provided to the in-vehicle terminal and/or electronic terminal in the own vehicle V (that is, the information provided to the occupants of the own vehicle V) is changed.
  • the information notifying that the own vehicle V is approaching the intersection area includes information regarding the intersection area to which the own vehicle V is approaching. For example, it includes information indicating whether the intersection area corresponds to an intersection, a crosswalk, or a sidewalk facing a facility that the host vehicle V can enter. In addition to this, information indicating the distance from the current position of the host vehicle V to the intersection area may be included.
  • the driving support device 19 acquires the current position of the own vehicle V from the position detection device 15, and when the distance from the current position of the own vehicle V to the intersection area is less than or equal to a predetermined distance, the driving support device 19 acquires the current position of the own vehicle V from the position detection device 15. Provides information indicating that V is approaching the intersection area.
  • the predetermined distance is set to an appropriate distance within a range in which obstacles in the intersection area can be detected using the imaging device 11, distance measuring device 12, etc. of the own vehicle V.
  • the information provided by the driving support device 19 includes information according to the determination result as to whether or not the own vehicle V can pass through the intersection area, and information on whether or not the own vehicle V can pass through the intersection area.
  • Information regarding the judgment is included. Specifically, information indicating that it is being determined whether or not an obstacle exists in the intersection area, information indicating the type of obstacle (i.e., traffic participant) that exists in the intersection area, and information indicating whether or not an obstacle exists in the intersection area, Examples of the information include information indicating the lighting status of traffic lights, information indicating whether or not the host vehicle V can pass through the intersection area, and the like.
  • Pieces of information are displayed on the display device 18 to show them to the occupants of the host vehicle V, but instead, they may be output as audio from a speaker included in the display device 18.
  • the occupants may be informed that their vehicle is approaching an intersection area only by voice, such as "We are almost at an intersection.”
  • the voice can be recorded voice or synthesized voice.
  • these pieces of information may be displayed together with the distance from the host vehicle V to the intersection area. Alternatively or in addition to this, this information may be displayed at the position of the intersection area on the travel route R displayed on the display device 18. Alternatively or in addition to this, this information may be displayed superimposed on the image outside the vehicle acquired from the imaging device 11. Further, the display device 18 on which this information is displayed includes not only a display mounted on the own vehicle V but also a display of a terminal owned by a passenger of the own vehicle V.
  • the driving support device 19 executes all the driving tasks of the own vehicle V and the supervisor monitors the running of the own vehicle V at a remote location away from the own vehicle V, such as in an unmanned taxi
  • the above-mentioned information may be displayed on a display included in a terminal for monitoring the running of the own vehicle V.
  • an image (icon) X stating "Intersection soon" is displayed. displayed on the device 18.
  • the image X is information notifying that the host vehicle V is approaching the intersection area.
  • the position where image X is displayed is the position of intersection C on travel route R displayed on display device 18.
  • sound effects may be output from a speaker included in the display device 18. The timing of outputting the sound effect is, for example, at the same time as the image X is displayed.
  • an image Va showing the own vehicle V, an image D showing the distance from the own vehicle V to the intersection C, and an image Y showing the lighting state of the traffic light are displayed.
  • the distance from the left edge of image D to the position indicated by a black triangle C corresponds to the distance from the own vehicle V to the intersection C
  • the distance from the left edge to the right edge of image D corresponds to the distance from the own vehicle V to the destination. It corresponds to the distance to Px.
  • Image Y shown in FIG. 2A shows a horizontal signal, and corresponds to blue, yellow, and red light states in order from the left side.
  • Image Y shown in FIG. 2A shows a yellow light state corresponding to the light state of the traffic light at intersection C.
  • the driving support device 19 changes the information provided to the occupants of the host vehicle V according to the determination result obtained by the passage determination function. Specifically, when it is determined that the own vehicle V cannot pass through the intersection area, the degree of emphasis of the display portion of the information displayed on the display device 18 is increased. For example, increasing the size of the information display area, deepening the color of the information display area, increasing the brightness of the information display area, reducing the transparency of the information display area, and reducing the information display area. Execute at least one of the emphasizing effects. An example of an effect that emphasizes the information display portion is to make the information display portion blink. At this time, a sound effect that draws the occupant's attention may be output from a speaker included in the display device 18. Note that if the information display part is already highlighted, the driving support device 19 changes the degree of emphasis of the information display part displayed on the display device 18 when it is determined that the own vehicle V cannot pass through the intersection area.
  • the information display format may be maintained without changing the information.
  • the degree of emphasis of the display portion of the information displayed on the display device 18 is reduced. For example, reducing the size of the information display area, reducing the color of the information display area, reducing the brightness of the information display area, increasing the transparency of the information display area, and reducing the information display area. At least one of the following is performed to make it less noticeable. An example of an effect that makes the information display portion less noticeable is fading out the information display portion. Further, when the driving support device 19 determines that the own vehicle V can pass through the intersection area, the driving support device 19 may hide the display portion of the information displayed on the display device 18 and stop providing the information.
  • the own vehicle V may pass through the intersection area. Hides the information that informs you that the vehicle is approaching, and stops providing that information. Thereby, the driving support device 19 can notify the occupants of the host vehicle V that the vehicle is traveling after determining whether or not the vehicle can pass through the intersection area.
  • FIG. 2B is an image displayed on the display device 18 when the state of the traffic light at intersection C changes to a red light state after displaying image X in the driving scene shown in FIG. 2A.
  • the traveling position of the own vehicle V in the lane L1 moves to a position close to the intersection C, and the length of the image Da indicating the distance to the intersection C and the destination Px.
  • the length is shorter than that of image D.
  • the image showing the lighting condition of the traffic light at intersection C has changed to the image Ya showing the red lighting condition.
  • the traffic light installed at intersection C has turned red, so vehicle V must stop before intersection C. Therefore, since it is determined that the vehicle V cannot pass through the intersection C (intersection area), the image X, which is the information notifying that the vehicle V is approaching the intersection area, is changed to change to The image Xa is information that informs the occupants of the own vehicle V that the own vehicle V will stop before the intersection C, and is displayed at the intersection C position. By displaying the image Xa, it is possible to notify the occupants of the own vehicle V that the own vehicle V will stop at the position where the image is displayed.
  • Image Xa has a larger display portion than image X, and the use of bold font increases the degree of emphasis. Thereby, the degree of display emphasis can be increased.
  • the driving support device 19 provides information according to the determination result of whether or not an obstacle exists in the intersection area, Information depending on the state of the traffic light may be provided to the crew separately. For example, in the case of the driving scene shown in FIG.
  • the determination result of whether or not there is an obstacle in the intersection area is displayed at the intersection C, and the determination result of whether or not there is an obstacle in the intersection area is displayed, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the judgment result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result is displayed at the intersection C, and the determination result
  • FIG. 2C displays an image Xa in the driving scene shown in FIG. 2B, and displays the image Xa on the display device 18 when the state of the traffic light changes to a blue light state after the host vehicle V has stopped in front of the intersection C.
  • This is the image to display.
  • the own vehicle V is traveling at a position on the crosswalk CW1
  • the length of the image Db indicating the distance to the intersection C and the destination Px is shorter than the length of the image Da.
  • the image showing the lighting state of the traffic light at intersection C has changed to image Yb showing the blue lighting state. Since the traffic light installed at the intersection C is in a blue light state, the host vehicle V does not need to stop before the intersection C. Therefore, in the driving scene shown in FIG. 2C, the image Xa that informs the occupants that the host vehicle V will stop before the intersection C is not displayed.
  • Image Z is displayed at the position of the crosswalk CW3 in order to inform the occupant that a pedestrian is present on the crosswalk CW3.
  • Image Z is an image that notifies the occupant of the presence of a pedestrian.
  • an image Xb in which "Pedestrian is crossing” is displayed next to the image Z. That is, the image Xa is changed to the image Xb based on the determination of whether or not the intersection area in the driving scene shown in FIG. 2C can be passed.
  • the size of the display portion of image Xb is smaller than that of image Xa, and the degree of emphasis is reduced by using a normal font instead of bold.
  • the driving support device 19 uses the driving environment recognition function of the recognition unit 22 to recognize pedestrians and bicycles crossing the intersection C when the own vehicle V turns left at an intersection C equipped with a traffic light along the driving route R. , detect the status of traffic lights and recognize the driving environment.
  • the passage determination function of the determination unit 23 determines whether or not the own vehicle V can pass through the intersection area based on the state of the traffic light.
  • the approach notification function of the providing unit 24 displays information to be provided to the occupants of the host vehicle V. Decrease the degree of emphasis of a part.
  • the emphasis level of the display part of the information provided to the occupants of the own vehicle V is increased or the information is displayed. Keep a part unchanged.
  • the driving support device 19 determines that the vehicle V can pass through the intersection C based on the state of the traffic lights, reduces the emphasis of the information display portion, and then determines that the vehicle V can pass through the intersection C based on the pedestrian and bicycle detection results. , it is determined whether or not the own vehicle can pass through intersection C. If it is determined that the own vehicle V can pass through the intersection C based on the detection results of pedestrians and bicycles, the provision of information regarding whether or not the vehicle V can pass through the intersection C is stopped to the occupants. On the other hand, if it is determined that the own vehicle V can pass through the intersection C based on the detection results of pedestrians and bicycles, the emphasis level of the display part of the information provided to the occupants is increased or the information is displayed. Keep a part unchanged. Thereby, the information notifying that the own vehicle V is approaching the intersection area can be changed in stages according to the determination of whether the intersection area can be passed.
  • the driving support device 19 uses the driving environment recognition function of the recognition unit 22 to recognize pedestrians, bicycles, and motorists crossing the intersection C.
  • the oncoming vehicle of the vehicle V and the state of traffic lights are detected, and the driving environment is recognized.
  • the oncoming vehicle of the host vehicle V is a vehicle traveling in lane L3 or lane L4.
  • the passage determination function of the determination unit 23 determines whether the own vehicle V can pass through the intersection C based on the state of the traffic light (specifically, the state of the lights).
  • the approach notification function of the providing unit 24 reduces the emphasis of the display portion of the information provided to the occupants of the host vehicle V. .
  • the emphasis level of the display part of the information provided to the occupants of the own vehicle V is increased or the information is displayed. Keep a part unchanged.
  • the driving support device 19 determines that the vehicle V can pass through the intersection C based on the state of the traffic lights, reduces the emphasis of the display portion of the information provided to the occupants of the vehicle V, and then determines that the vehicle V can pass through the intersection C. , it is determined whether the own vehicle V can pass through the intersection C based on the detection results of the bicycle and the oncoming vehicle. If it is determined that the own vehicle V can pass through the intersection C based on the detection results of pedestrians, bicycles, and oncoming vehicles, the provision of information regarding whether or not the vehicle V can pass through the intersection C is stopped to the occupants.
  • the emphasis level of the display part of the information provided to the occupants of the own vehicle V may be changed. Increase the size or keep the displayed portion of the information unchanged. Thereby, the information notifying that the own vehicle V is approaching the intersection area can be changed in stages according to the determination of whether the intersection area can be passed.
  • FIGS. 3A and 3B are an example of a flowchart showing information processing executed in the driving support system 10 of this embodiment. The processing described below is executed at predetermined time intervals by the CPU 191, which is the processor of the driving support device 19.
  • step S1 of FIG. 3A the intersection area acquisition function of the acquisition unit 21 acquires the driving route R from the navigation device 16, and in the subsequent step S2, it is determined from the map information 14 that other moving objects can move. The area is acquired, and in the subsequent step S3, an intersection area is acquired.
  • step S4 the driving environment recognition function of the recognition unit 22 acquires the current position of the own vehicle V from the position detection device 15, and in the subsequent step S5, the distance from the own vehicle V to the intersection area is It is determined whether the distance is less than or equal to a predetermined distance. If it is determined that the distance from the host vehicle V to the intersection area exceeds the predetermined distance, the process proceeds to step S14 in FIG. 3B.
  • step S5 may be repeated until the distance from the own vehicle V to the intersection area becomes equal to or less than a predetermined distance. On the other hand, if it is determined that the distance from the host vehicle V to the intersection area is less than or equal to the predetermined distance, the process proceeds to step S6.
  • step S6 the approach notification function of the providing unit 24 displays an image notifying that the vehicle is approaching the intersection area at the intersection area position on the travel route displayed on the display device 18.
  • step S7 the passage determination function of the determination unit 23 determines whether a traffic light is installed in the intersection area. If it is determined that no traffic light is installed in the intersection area, the process proceeds to step S8, an obstacle present in the intersection area is detected, and the process proceeds to step S11. On the other hand, if it is determined that a traffic light is installed in the intersection area, the process proceeds to step S9, and the state of the traffic light installed in the intersection area and the obstacles present in the intersection area are detected. In step S10 following step S9, it is determined whether the state of the traffic light is instructing the vehicle to stop.
  • step S15 If it is determined that the traffic light is instructing the vehicle to stop, the process advances to step S15. On the other hand, if it is determined that the state of the traffic light does not instruct the vehicle to stop, the process proceeds to step S11. In step S11, it is determined whether an obstacle exists in the intersection area. If it is determined that there is no obstacle in the intersection area, the process proceeds to step S12, and it is determined that the own vehicle V can pass through the intersection area.
  • step S13 the approach notification function of the providing unit 24 reduces the emphasis level of the display of the image regarding whether or not it is possible to pass through the intersection area, or stops displaying the image (makes it invisible).
  • step S14 the driving support function of the control unit 20 autonomously controls the running of the own vehicle V via the vehicle control device 17 so that the own vehicle V travels along the traveling route R. After that, execution of the routine shown in FIG. 3 is stopped, and the display control processing in the driving support device 19 is ended.
  • step S15 if it is determined that there is an obstacle in the intersection area, the process proceeds to step S15, and it is determined that the own vehicle V cannot pass through the intersection area.
  • the approach notification function of the providing unit 24 increases the degree of emphasis on display of the image regarding whether or not the intersection area can be passed, or maintains the display of the image.
  • step S17 it is determined whether or not the determination of passing through the intersection area has been repeated a predetermined number of times (for example, five times) or more. If it is determined that the crossing area passage determination has not been repeated a predetermined number of times or more, the process proceeds to step S7, and the crossing area passage determination is repeated.
  • the present embodiment includes an acquisition unit 21 that acquires an intersection area where another moving object intersects with a movable area in a driving route R set by autonomous driving control, and a driving environment around the host vehicle V.
  • a recognition unit 22 that recognizes, a determination unit 23 that determines whether or not the own vehicle V can pass through the intersection area based on the driving environment, and an in-vehicle terminal and/or an electronic terminal in the own vehicle V.
  • a providing unit 24 that provides information notifying that the own vehicle V is approaching the intersection area, and the providing unit 24 provides the information that the own vehicle V is approaching the intersection area.
  • the present invention provides an information providing device that changes the information according to the determination result of the determination section 23. As a result, when approaching an intersection area such as intersection C, appropriate information can be provided to the occupants of the vehicle, and the sense of anxiety given to the occupants of the vehicle can be suppressed.
  • the intersection area includes an intersection, a crosswalk, and a sidewalk facing a facility into which the host vehicle V can enter. Therefore, the intersection area can be recognized more accurately.
  • the providing unit 24 changes at least one of the color, brightness, and size of the information display portion. This allows information to be changed more effectively.
  • the providing unit 24 determines the degree of emphasis of the display portion of the information. If the determination unit 23 determines that the own vehicle V can pass through the intersection area, the degree of emphasis of the display portion of the information is decreased or provision of the information is stopped. As a result, when approaching an intersection area such as intersection C, it is possible to notify the occupants of the vehicle that it has been determined whether or not the own vehicle V can pass through the intersection area, thereby suppressing the sense of anxiety caused to the occupants of the vehicle. can.
  • the providing unit 24 displays the information together with the distance from the host vehicle V to the intersection area, and displays the information on the display device 18. At least one of displaying the information at the position of the intersection area on the travel route R and displaying the information in a superimposed manner on an image outside the vehicle acquired from the imaging device 11 is performed. Thereby, information can be effectively displayed to the occupants of the vehicle.
  • the providing unit 24 determines that the own vehicle V can pass through the intersection area.
  • the degree of emphasis of the information display portion is reduced even before the information is passed through.
  • the recognition unit 22 recognizes obstacles existing around the host vehicle V as the driving environment. , the state of the traffic light, and the determining unit 23 determines whether the obstacle is present in the intersection area and whether the state of the traffic light is a state instructing a stop; If it is determined that the obstacle does not exist in the intersection area and the state of the traffic light does not instruct a stop, it is determined that the own vehicle V can pass through the intersection area. Thereby, when a traffic light is installed in the intersection area, it is possible to appropriately determine whether or not the vehicle can pass through the intersection area.
  • the providing unit 24 provides information corresponding to the determination result of whether or not the obstacle exists in the intersection area, and the state of the traffic light indicating that the vehicle should stop. information corresponding to the determination result as to whether or not the vehicle is in a state where the in-vehicle terminal and/or the electronic terminal is separately provided. This allows the environment to be expressed in more detail in the intersection area.
  • the determination unit 23 determines whether the own vehicle V can pass through the intersection area when the own vehicle V starts after stopping in front of the intersection area. Determine whether or not. Thereby, it is possible to more reliably determine whether or not the vehicle can pass through the intersection area.
  • the recognition unit 22 determines, as the travel environment, that Pedestrians and bicycles crossing the intersection C and the state of the traffic light are detected, and the determination unit 23 determines whether the own vehicle V can pass through the intersection C based on the state of the traffic light. If the determining unit 23 determines that the own vehicle V can pass through the intersection C based on the state of the traffic light, the providing unit 24 determines the degree of emphasis of the display portion of the information. After reducing the degree of emphasis, the determination unit 23 determines whether or not the own vehicle V can pass through the intersection C based on the detection results of the pedestrian and the bicycle.
  • the providing unit 24 stops providing the information when the determining unit 23 determines that the own vehicle V can pass through the intersection C based on the detection results of the pedestrian and the bicycle. Thereby, when the own vehicle V turns left, information can be effectively displayed to the occupants of the vehicle.
  • the recognition unit 22 determines, as the travel environment, that Pedestrians and bicycles crossing the intersection C, oncoming vehicles of the own vehicle V, and the state of the traffic lights are detected, and the determination unit 23 determines whether the own vehicle V is in the
  • the provision unit 24 determines whether the vehicle V can pass through the intersection C, and if the determination unit 23 determines that the own vehicle V can pass through the intersection C based on the state of the traffic light, After reducing the degree of emphasis of the display portion of the information, the determination unit 23 determines whether the own vehicle V is at the intersection based on the detection results of the pedestrian, the bicycle, and the oncoming vehicle.
  • the providing unit 24 determines whether the own vehicle V can pass the intersection C. If it is determined that the vehicle can pass, the provision of the information is stopped. Thereby, when the host vehicle V turns right, information can be effectively displayed to the vehicle occupants.
  • the providing unit 24 includes a display mounted on the host vehicle V, a display included in a terminal for monitoring the travel of the host vehicle V, and a display of the host vehicle V.
  • the information is displayed on at least one display of the passenger's terminal. This makes it possible to provide the person who supervises the running of the vehicle with information regarding whether or not the vehicle can pass through the intersection area.
  • the present embodiment is an information providing method executed using a processor, in which the processor acquires an intersecting area where another moving object intersects with a movable area in a driving route R set by autonomous driving control. , recognizes the driving environment around the host vehicle V, determines whether the host vehicle V can pass through the intersection area based on the travel environment, and determines whether the host vehicle V can pass through the intersection area, and providing a terminal with information notifying that the own vehicle V is approaching the intersection area, and while the own vehicle V travels to the intersection area, the own vehicle V passes through the intersection area; An information providing method is provided in which the information is changed according to a determination result as to whether or not the information is available. As a result, when approaching an intersection area such as intersection C, appropriate information can be provided to the occupants of the vehicle, and the sense of anxiety given to the occupants of the vehicle can be suppressed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

自律走行制御により設定された走行経路(R)において、他の移動体が移動可能な 領域と交わる交差領域を取得し、自車両(V)の周囲の走行環境に基づき、自車両( V)が交差領域を通過できるか否かを判定し、自車両(V)内の車載端末及び/又は 電子端末に対して自車両(V)が交差領域に接近していることを報知する情報を提供 する情報提供装置及び情報提供方法において、自車両(V)が交差領域まで走行する 間、自車両(V)が交差領域を通過できるか否かの判定結果に応じて、報知する情報 を変化させる。

Description

情報提供装置及び情報提供方法
 本発明は、情報提供装置及び情報提供方法に関するものである。
 自動運転機能を有する自車両の停車状態を表示する場合に、自車両の周囲状況を検出し、自車両が自動運転中に周囲状況において将来的に停車状態となるときは、周囲状況の路面から上方に延出する停止表示を表示装置に表示させることが知られている(特許文献1)。
特開2019−27996号公報
 たとえば、車両が、信号機が設置されていない横断歩道を通過する場合に、歩行者が存在しないことを確認するために減速することがある。このような場合に、上記従来技術では、車両が停車する必要があるか否かは、歩行者が横断歩道に存在するか否かによるため、横断歩道を渡っている歩行者が検出され、車両が停車する必要があると判定されるまでは、車両の乗員に対して情報を提供しない。その結果、上記従来技術では、車両の乗員に対して何ら情報を提供しないまま車両が横断歩道へ接近することになり、車両の乗員に不安感を与えるという問題がある。
 本発明が解決しようとする課題は、車両の乗員に与える不安感を抑制できる情報提供装置及び情報提供方法を提供することである。
 本発明は、自律走行制御により設定された走行経路において、他の移動体が移動可能な領域と交わる交差領域を取得し、自車両の周囲の走行環境に基づき、自車両が交差領域を通過できるか否かを判定し、自車両内の車載端末及び/又は電子端末に対して自車両が交差領域に接近していることを報知する情報を提供する場合に、自車両が交差領域まで走行する間、自車両が交差領域を通過できるか否かの判定結果に応じて当該情報を変化させることによって上記課題を解決する。
 本発明によれば、車両の乗員に与える不安感を抑制できる。
本発明に係る運転支援装置を含む運転支援システムの一例を示すブロック図である。 図1に示す運転支援システムにて運転支援を実行する場合に表示される画像の一例を示す図である(その1)。 図1に示す運転支援システムにて運転支援を実行する場合に表示される画像の一例を示す図である(その2)。 図1に示す運転支援システムにて運転支援を実行する場合に表示される画像の一例を示す図である(その3)。 図1の運転支援装置における処理手順の一例を示すフローチャートである(その1)。 図1の運転支援装置における処理手順の一例を示すフローチャートである(その2)。
 以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明は、左側通行の法規を有する国で、車両が左側通行で走行することを前提とする。右側通行の法規を有する国では、車両が右側通行で走行するため、以下の説明の左と右を対称にして読み替えるものとする。
[運転支援システムの構成]
 図1は、本発明に係る運転支援システム10を示すブロック図である。運転支援システム10は車載システムであり、自律走行制御により、車両の乗員(ドライバーを含む)により設定された目的地まで車両を走行させる。自律走行制御とは、後述する運転支援装置を用いて車両の走行動作を自律的に制御することをいい、当該走行動作には、加速、減速、発進、停車、右方向又は左方向への転舵、車線変更、幅寄せなど、あらゆる走行動作が含まれる。また、自律的に走行動作を制御するとは、運転支援装置が、車両の装置を用いて走行動作の制御を行うことをいう。つまり、運転支援装置は、予め定められた範囲内でこれらの走行動作に介入し、制御する。介入されない走行動作については、ドライバーによる手動の操作が行われる。
 図1に示すように、運転支援システム10は、撮像装置11、測距装置12、状態検出装置13、地図情報14、位置検出装置15、ナビゲーション装置16、車両制御装置17、表示装置18、及び運転支援装置19を備える。また、図1に示すように、本実施形態の運転支援装置19は、その一部として、情報提供機能を有する情報提供装置を含む。運転支援システム10を構成する装置は、CAN(Controller Area Network)その他の車載LANによって接続され、互いに情報を授受できる。
 撮像装置11は、画像により車両の周囲の対象物を認識する装置であり、たとえば、CCDなどの撮像素子を備えるカメラ、超音波カメラ、赤外線カメラなどのカメラである。撮像装置11は、一台の車両に複数を設けることができ、たとえば、車両のフロントグリル部、左右ドアミラーの下部及びリアバンパ近傍に配置できる。これにより、車両の周囲の対象物を認識する場合の死角を減らすことができる。
 測距装置12は、車両と対象物との相対距離および相対速度を演算するための装置であり、たとえば、レーザーレーダー、ミリ波レーダーなど(LRFなど)、LiDAR(light detection and ranging)ユニット、超音波レーダーなどのレーダー装置又はソナーである。測距装置12は、一台の車両に複数設けることができ、たとえば、車両の前方、右側方、左側方及び後方に配置できる。これにより、車両の周囲の対象物との相対距離及び相対速度を正確に演算できる。
 撮像装置11及び測距装置12にて検出する対象物は、道路の車線境界線、中央線、路面標識、中央分離帯、ガードレール、縁石、高速道路の側壁、道路標識、信号機、横断歩道、工事現場、事故現場、交通制限などである。また、対象物には、自車両以外の自動車(他車両)、自動二輪車(オートバイ)、自転車、歩行者など、車両の走行に影響を与える可能性がある障害物も含まれている。撮像装置11及び測距装置12の検出結果は、必要に応じて、運転支援装置19により所定の時間間隔で取得される。
 また、撮像装置11及び測距装置12の検出結果は、運転支援装置19にて統合又は合成(いわゆるセンサフュージョン)することができ、これにより、検出した対象物の不足する情報を補完できる。たとえば、位置検出装置15により取得した、車両が走行する位置である自己位置情報と、車両と対象物の相対位置(距離と方向)とにより、運転支援装置19にて対象物の位置情報を算出できる。算出された対象物の位置情報は、運転支援装置19にて、撮像装置11及び測距装置12の検出結果、並びに地図情報14などの複数の情報と統合され、車両の周囲の走行環境情報となる。また、撮像装置11及び測距装置12の検出結果と、地図情報14とを用いて、車両の周囲の対象物を認識し、その動きを予測することもできる。
 状態検出装置13は、車両の走行状態を検出するための装置であり、車速センサ、加速度センサ、ヨーレートセンサ(たとえばジャイロセンサ)、舵角センサ、慣性計測ユニットなどが挙げられる。これらの装置については、特に限定はなく、公知のものを用いることができる。また、これらの装置の配置及び数は、車両の走行状態を適切に検出できる範囲内で適宜に設定できる。各装置の検出結果は、必要に応じて、運転支援装置19により所定の時間間隔で取得される。
 地図情報14は、走行経路の生成、走行動作の制御などに用いられる情報であり、道路情報、施設情報及びそれらの属性情報を含む。道路情報及び道路の属性情報には、道路の幅、道路の曲率半径、路肩の構造物、道路交通法規(制限速度、車線変更の可否)、道路の合流地点と分岐地点、車線数の増加・減少位置などの情報が含まれている。地図情報14は、レーンごとの移動軌跡を把握できる高精細地図情報であり、各地図座標における二次元位置情報及び/又は三次元位置情報、各地図座標における道路・レーンの境界情報、道路属性情報、レーンの上り・下り情報、レーン識別情報、接続先レーン情報などを含む。
 高精細地図情報の道路・レーンの境界情報は、車両が走行する走路とそれ以外との境界を示す情報である。車両が走行する走路とは、車両が走行するための道であり、走路の形態は特に限定されない。境界は、車両の進行方向に対して左右それぞれに存在し、形態は特に限定されない。境界は、たとえば、路面標示又は道路構造物であり、路面標示としては車線境界線、中央線などが挙げられ、道路構造物としては中央分離帯、ガードレール、縁石、トンネル、高速道路の側壁などが挙げられる。なお、交差点内のような走路境界が明確に特定できない地点では、予め、走路に境界が設定されている。この境界は架空のものであって、実際に存在する路面標示または道路構造物ではない。
 地図情報14は、運転支援装置19、車載装置、又はネットワーク上のサーバに設けられた記録媒体に読み込み可能な状態で記憶されている。運転支援装置19は、必要に応じて地図情報14を取得する。
 位置検出装置15は、車両の現在位置を検出するための測位システムであり、特に限定されず、公知のものを用いることができる。位置検出装置15は、たとえば、GPS(Global Positioning System)用の衛星から受信した電波などから車両の現在位置を算出する。また、位置検出装置15は、状態検出装置13である車速センサ、加速度センサ及びジャイロセンサから取得した車速情報及び加速度情報から車両の現在位置を推定し、推定した現在位置を地図情報14と照合することで、車両の現在位置を算出してもよい。
 ナビゲーション装置16は、地図情報14を参照して、位置検出装置15により検出された車両の現在位置から、乗員(ドライバーを含む)により設定された目的地までの走行経路を算出する装置である。ナビゲーション装置16は、地図情報14の道路情報及び施設情報などを用いて、車両が現在位置から目的地まで到達するための走行経路を検索する。走行経路は、車両が走行する道路、走行車線及び車両の走行方向の情報を少なくとも含み、たとえば線形で表示される。検索条件に応じて、走行経路は複数存在し得る。ナビゲーション装置16にて算出された走行経路は、運転支援装置19に出力される。
 車両制御装置17は、電子制御ユニット(ECU:Electronic Control Unit)などの車載コンピュータであり、車両の走行を律する車載機器を電子的に制御する。車両制御装置17は、車両の走行速度を制御する車速制御装置171と、車両の操舵操作を制御する操舵制御装置172を備える。車速制御装置171及び操舵制御装置172は、運転支援装置19から入力された制御信号に応じて、これらの駆動装置及び操舵装置の動作を自律的に制御する。これにより、車両は、設定した走行経路に従って自律的に走行できる。車速制御装置171及び操舵制御装置172による自律的な制御に必要な情報、たとえば車両の走行速度、加速度、操舵角度及び姿勢は、状態検出装置13から取得する。
 車速制御装置171が制御する駆動装置としては、走行駆動源である電動モータ及び/又は内燃機関、これら走行駆動源からの出力を駆動輪に伝達するドライブシャフトや自動変速機を含む動力伝達装置、動力伝達装置を制御する駆動装置などが挙げられる。また、車速制御装置171が制御する制動装置は、たとえば、車輪を制動する制動装置である。車速制御装置171には、運転支援装置19から、設定した走行速度に応じた制御信号が入力される。車速制御装置171は、運転支援装置19から入力された制御信号に基づいて、これらの駆動装置を制御する信号を生成し、駆動装置に当該信号を送信することで、車両の走行速度を自律的に制御する。
 一方、操舵制御装置172が制御する操舵装置は、ステアリングホイールの操舵角度に応じて操舵輪を制御する操舵装置であり、たとえば、ステアリングのコラムシャフトに取り付けられるモータなどのステアリングアクチュエータが挙げられる。操舵制御装置172は、運転支援装置19から入力された制御信号に基づき、設定した走行経路に対して所定の横位置(車両の左右方向の位置)を維持しながら車両が走行するように、操舵装置の動作を自律的に制御する。この制御には、撮像装置11及び測距装置12の検出結果、状態検出装置13で取得した車両の走行状態、地図情報14及び位置検出装置15で取得した車両の現在位置の情報のうちの少なくとも一つを用いる。
 表示装置18は、車両の乗員に必要な情報を提供するための装置であり、たとえば、インストルメントパネルに設けられた液晶ディスプレイ、ヘッドアップディスプレイ(HUD)などのプロジェクターである。表示装置18は、車両の乗員が、運転支援装置19に指示を入力するための入力装置を備えてもよい。入力装置としては、ユーザの指触又はスタイラスペンによって入力されるタッチパネル、ユーザの音声による指示を取得するマイクロフォン、車両のステアリングホイールに取付けられたスイッチなどが挙げられる。また、表示装置18は、出力装置としてのスピーカーを備えてもよい。
 運転支援装置19は、運転支援システム10を構成する装置を制御して協働させることで車両の走行を制御し、設定された目的地まで車両を走行させるための装置である。目的地は、たとえば車両の乗員が設定する。運転支援装置19は、たとえばコンピュータであり、プロセッサであるCPU(Central Processing Unit)191と、プログラムが格納されたROM(Read Only Memory)192と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)193とを備える。CPU191は、ROM192に格納されたプログラムを実行し、運転支援装置19が有する機能を実現するための動作回路である。
 運転支援装置19は、自律走行制御により、設定された目的地まで車両を走行させる運転支援機能を有する。また、本実施形態の運転支援装置19は、その一部として情報提供装置を含む。情報提供装置は、情報提供機能として、車両の走行経路において他の移動体が移動可能な領域と交わる交差領域を取得する交差領域取得機能と、自車両の周囲の走行環境を認識する走行環境認識機能と、車両が交差領域を通過できるか否かを判定する通過判定機能と、自車両の乗員に対して、自車両が交差領域に接近していることを報知する情報を提供する接近報知機能とを有する。ROM192に格納されたプログラムはこれらの機能を実現するためのプログラムを備え、CPU191がROM192に格納されたプログラムを実行することで、これらの機能が実現される。図1には、各機能を機能ブロックとして便宜的に抽出して示す。
[機能ブロックの機能]
 以下、機能ブロックである制御部20、取得部21、認識部22、判定部23及び提供部24が実現する機能について、図2A~2Cを用いて説明する。
 制御部20は、自律走行制御により、設定された目的地まで車両を走行させる機能(つまり運転支援機能)を有する。運転支援装置19は、運転支援機能による運転支援を実行する場合に、自車両の走行環境を示す画像を表示装置18に表示する。図2Aは、表示装置18に表示される画像の一例を示す図である。図2Aに示す画像は、自車両V後方の斜め上方に仮想的な視点を設定し、当該視点の位置から自車両Vの前方を撮影した場合に取得される鳥瞰画像である。当該鳥瞰画像には、自車両Vが走行する道路の車線及び標識、自車両Vの走行位置、自車両Vの周囲に存在する障害物などの情報が表示される。
 なお、図2Aに示す画像は、コンピュータ・グラフィックス(CG)により作成された2次元画像であるが、表示装置18に表示される、自車両Vの走行環境を示す画像は、これに限られない。たとえば、走行環境を示す画像は3次元画像であってもよく、撮像装置11により取得された画像であってもよい。また、撮像装置11により取得された画像に、CGで作成された画像を重ねて表示してもよい。
 図2Aに示す走行シーンは、自車両Vの実際の走行シーンに対応している。すなわち、図2Aに示す走行シーンにおいて、自車両Vは、片側2車線の道路を走行している。車線L1,L2における車両の走行方向は、図面の下側から上側(手前側から奥側)に向かう方向であり、車線L3,L4における車両の走行方向は、図面の上側から下側(奥側から手前側)に向かう方向である。自車両Vが走行している道路は、自車両Vの前方で、片側1車線の道路と交差している。片側1車線の道路において、車線L5における車両の走行方向は、図面の右側から左側に向かう方向であり、車線L6における車両の走行方向は、図面の左側から右側に向かう方向である。
 図2Aに示すとおり、2つの道路が交差する範囲が交差点Cとなっている。交差点Cには、歩行者及び自転車が片側2車線の道路を横断するための横断歩道CW1,CW2及び歩行者及び自転車が片側1車線の道路を横断するための横断歩道CW3,CW4が設けられている。また、交差点Cには信号機が設置されているものとする。図2Aに示す走行シーンでは、車線L1,L3を走行する車両は、交差点Cを直進又は左折することができ、車線L2,L4を走行する車両は、交差点Cを直進又は右折することができるものとする。また、目的地Px(図示しない)は、自車両Vの乗員によって、車線L5を図面左側に直進した先の位置に設定されてものとする。
 この場合、ナビゲーション装置16は、制御部20の運転支援機能により、自車両Vの走行経路Rを設定する。ナビゲーション装置16は、たとえば、図2Aに示す走行経路Rを設定する。走行経路Rは、車線L1を走行し、交差点Cを左折し、車線L5を走行し、目的地Pxに到達する経路である。自車両Vは、図2Aに示すとおり、走行経路Rに沿って車線L1を走行する。
 自車両Vの走行は、運転支援装置19の運転支援機能による自律走行制御で制御される。運転支援装置19の運転支援における支援レベルは、複数設定されている。支援レベルとは、自車両Vの走行動作の制御に対して、運転支援装置19がどの程度介入するのか(換言すれば、ドライバーの手動操作がどの程度介入するか)を示す水準である。運転支援装置19は、運転支援機能により、各支援レベルで定義された運転支援を実現する。支援レベルは、例えば、米国自動車技術会(SAE:Society of Automotive Engineers)から公開されているSAE J3016:SEP2016,Taxonomy and Definitions for Terms Related to Driving Automation Systems for On−Road Motor Vehiclesにおいて定義された運転自動化レベルに基づいて設定することができる。
 図2Aに示す走行シーンにおいて、運転支援装置19は、たとえば、運転支援装置19が自車両Vの全ての運転タスクを実行し、制御継続が困難な場合への応答は限定領域において持続的に実行する水準である支援レベル4の運転支援を実行しているものとする。この場合、運転支援装置19は、交差点Cに接近するに際に、自車両Vを減速させ、交差点Cに設置された信号機の状態と、横断歩道CW1,CW3を渡っている歩行者及び自転車とを検出する。そして、信号機の状態が自車両Vの停車を指示しておらず、横断歩道CW1,CW3を渡っている歩行者及び自転車が存在しない場合に、自車両Vが交差点Cを左折できると判定し、交差点Cに進入する。
 この一連の判定と自律走行制御が運転支援装置19により実行される場合に、自車両Vの乗員に適切な情報を提供できないときは、自車両Vの乗員が不安感を覚える。すなわち、信号機の状態の判定と、歩行者及び自転車との接触を回避する判定と判定結果を提供せずに、自律走行制御により交差点Cに進入すると、自車両Vの乗員は、自車両Vが交差点Cの手前又は交差点Cの中で急停車するのではないかと不安になることがある。そこで、本実施形態の運転支援装置19は、自車両Vの乗員に適切な情報を提供できるよう、表示装置18を制御する。この制御は、主に取得部21、認識部22、判定部23及び提供部24の有する機能により実現される。
 取得部21は、自律走行制御により設定された走行経路Rにおいて、他の移動体が移動可能な領域と交わる交差領域を取得する機能(つまり交差領域取得機能)を有する。他の移動体とは、他車両、自動二輪車、自転車、歩行者などの自車両V以外の交通参加者である。他の移動体が移動可能な領域とは、自車両V以外の交通参加者が、現在位置から目的地まで移動する場合に移動できる領域である。たとえば、歩行者が移動可能な領域は、歩道、横断歩道、歩道橋などの歩行者が歩行できる領域である。他車両及び自動二輪車が移動可能な領域は、自車両Vと同様に、道路の走行可能な領域である。
 運転支援装置19は、取得部21の交差領域取得機能により、ナビゲーション装置16から走行経路Rを取得する。次に、走行経路Rにおいて、他の移動体が移動可能な領域と交わる交差領域を取得する。走行経路Rと、他の移動体が移動可能な領域とが交わるとは、自車両V以外の交通参加者が、その交通参加者が移動可能な領域に存在する場合に、自車両Vが走行経路Rに沿って走行すると、自車両Vと他の移動体とが接触することを言う。つまり、自車両Vの走行経路Rと、自車両V以外の交通参加者が移動可能な領域とが同じ平面上に存在し、且つ、平面視した場合に、自車両Vの走行経路Rが、自車両V以外の交通参加者が移動可能な領域の一部又は全部と重複していることを言う。
 たとえば、走行経路R上に横断歩道が存在する場合は、横断歩道上に歩行者が存在するときに、自車両Vが走行経路Rに沿って走行すると、自車両Vは歩行者と接触する。そのため、走行経路R上に存在する横断歩道は、交差領域となる。これに対して、走行経路R上に歩道橋が存在する場合は、歩行者が歩道橋を歩行しているときに、自車両Vが走行経路Rに沿って走行したとしても、自車両Vと歩行者とは接触することはない。自車両Vが走行する道路と、歩行が歩行する歩道橋とは、同じ平面上に存在しないからである。
 地図情報14には、自車両Vが走行経路Rに沿って走行する場合に通過する道路の道路情報が含まれている。また、地図情報14には、自車両Vが通過する道路において自車両V以外の交通参加者が移動可能な領域と、その属性の情報も含まれている。そのため、運転支援装置19は、取得部21の交差領域取得機能により、走行経路R上に存在する交差領域を抽出できる。
 交差領域として、具体的には、自車両Vが走行する道路と、他車両が走行する道路とが交差する交差点、自車両Vが走行する道路上に設置された横断歩道などが挙げられる。また、自車両Vが、道路に面した位置に立地している施設に進入する場合に、車道と施設との間に歩道が設けられているときは、施設に面した部分の歩道が交差領域になる。つまり、歩行者が、施設と車道との間に存在する歩道を歩行している場合に、自車両Vが施設に進入すると、自車両Vと歩行者とが接触してしまうため、当該歩道が交差領域となる。
 図2Aに示す走行シーンの場合は、交差点Cの中に他車両が存在する場合に、自車両Vが交差点Cに進入すると、自車両Vが他車両に接触するおそれがある。そのため、交差点Cは交差領域となる。また、自車両Vが交差点Cを直進する場合に、歩行者又は自転車が横断歩道CW1,CW2を渡っていると、自車両Vが歩行者又は自転車に接触するおそれがある。そのため、横断歩道CW1,CW2は交差領域となる。同様に、自車両Vが交差点Cを左折する場合は、横断歩道CW1,CW3が交差領域となり、自車両Vが交差点Cを右折する場合は、横断歩道CW1,CW4が交差領域となる。
 認識部22は、自車両Vの周囲の走行環境を認識する機能(つまり走行環境認識機能)を有する。運転支援装置19は、認識部22の走行環境認識機能により、撮像装置11及び測距装置12の検出結果を取得し、取得した検出結果に対してパターンマッチングやセンサフュージョンなどの処理を行い、自車両Vの走行環境を認識する。たとえば、運転支援装置19は、撮像装置11の検出結果から、自車両Vの周囲を走行する他車両を検出し、測距装置12の検出結果から、自車両Vから当該他車両までの距離と、自車両Vに対して当該他車両が存在する方向を検出し、自車両Vに対する他車両の位置を認識する。また、運転支援装置19は、撮像装置11の検出結果から、自車両Vの前方の横断歩道を渡っている歩行者を検出し、測距装置12の検出結果から、自車両Vから当該歩行者までの距離を検出し、自車両Vに対する他車両の位置を認識する。
 交差領域である交差点Cには、信号機が設置されている場合がある。運転支援装置19は、走行環境として信号機の状態を認識するために、認識部22の走行環境認識機能により、撮像装置11の検出結果及び地図情報14から、自車両Vの前方に信号機が存在するか否かを判定する。そして、自車両Vの前方に信号機が存在すると判定した場合は、走行環境として信号機の状態を検出する。信号機の状態とは、たとえば信号機の灯火の状態であり、具体的には、信号機が赤色の灯火状態(つまり、自車両Vが交差点Cの手前で停車しなければならない状態)と、信号機が黄色の灯火状態(つまり、停車できない場合を除き、自車両Vが交差点Cに進入できない状態)と、信号機が青色の灯火状態(つまり、自車両Vが交差点Cに進入できる状態)とである。信号機の状態は、撮像装置11により取得された画像から検出する。
 図2Aに示す走行シーンの場合は、運転支援装置19は、認識部22の走行環境認識機能により、たとえば、車線L1を走行している先行車両及び後続車両と、車線L2を走行している並走車両と、車線L3,L4を走行している対向車両とを他車両として検出する。そして、自車両Vに対する他車両の方向及び距離から、自車両Vの周囲を走行する他車両の位置を認識する。図2Aに示す走行シーンでは、自車両V以外の車両は走行していないため、自車両Vの周囲を走行している他車両が存在しないと認識される。また、運転支援装置19は、横断歩道CW1,CW2,CW3,CW4を渡っている歩行者を検出し、自車両Vの走行環境として、歩行者の存在を認識する。図2Aに示す走行シーンでは歩行者が検出されないため、自車両Vの周囲には歩行者が存在しないと認識される。さらに、運転支援装置19は、交差点Cに信号機が設置されているか否かを判定する。図2Aに示す走行シーンでは、交差点Cに信号機が設置されており、信号機の状態は黄色の灯火状態であるとする。
 判定部23は、走行環境認識機能により認識された、自車両Vの走行環境に基づいて、自車両Vが交差領域を通過できるか否かを判定する機能(つまり通過判定機能)を有する。運転支援装置19は、判定部23の通過判定機能により、交差領域に障害物が存在するか否かを判定し、交差領域に障害物が存在しないと判定した場合は、自車両Vが交差領域を通過できると判定する。これに対して、交差領域に障害物が存在すると判定した場合は、自車両Vが交差領域を通過できないと判定する。
 これに加えて、運転支援装置19は、交差領域(具体的には交差点C)に信号機が設置されている場合は、信号機の状態が停車を指示する状態であるか否かを判定する。そして、信号機の状態が停車を指示する状態(つまり、赤色の灯火状態)であると判定した場合は、自車両Vが交差領域を通過できないと判定し、信号機の状態が停車を指示する状態でない(つまり、青色の灯火状態)と判定した場合は、自車両Vが交差領域を通過できると判定する。
 なお、黄色の灯火状態については、自車両Vの走行状態(特に自車両Vの走行速度)と、自車両Vから交差領域(交差点C)までの距離に基づいて、自車両Vが交差点Cの手前に停車できるか否かを判定する。自車両Vが交差点Cの手前に停車できないと判定した場合は、運転支援装置19は、信号機の状態が停車を指示する状態でなく、自車両Vが交差領域を通過できると判定する。これに対して、自車両Vが交差点Cの手前に停車できると判定した場合は、運転支援装置19は、信号機の状態が停車を指示する状態であり、自車両Vが交差領域を通過できないと判定する。
 したがって、運転支援装置19は、信号機が設置されている交差点のように、交差領域における障害物の有無と、信号機の状態とを判定する必要がある場合は、障害物が交差領域に存在せず、且つ、信号機の状態が停車を指示する状態でないと判定したときに、自車両Vが交差領域を通過できると判定する。これに対して、運転支援装置19は、障害物が交差領域に存在すると判定した場合又は信号機の状態が停車を指示する状態であると判定した場合は、自車両Vが交差領域を通過できないと判定する。なお、運転支援装置19は、自車両Vが交差領域の手前で停車した後に発車する場合にも、自車両Vが交差領域を通過できるか否かを判定する。たとえば、自車両Vが、停車信号に従って交差点Cの手前の位置で停車した後に発車する場合に、自車両Vが交差点Cを通過できるか否かを判定する。
 図2Aに示す走行シーンの場合は、交差点Cに信号機が設置されているため、交差点Cにおける障害物の有無と、信号機の状態とを判定する。障害物の有無について、図2Aに示す走行シーンでは、運転支援装置19は、走行環境認識機能により、走行環境として、自車両Vの周囲を走行している他車両が存在せず、自車両Vの周囲には歩行者が存在しないと認識している。そのため、運転支援装置19は、他車両及び歩行者が交差点Cに存在しないと判定する。これに対して、信号機の状態について、図2Aに示す走行シーンでは、運転支援装置19は、走行環境認識機能により、信号機の状態は黄色の灯火状態であると認識している。図2Aに示す走行シーンでは、自車両Vから交差点Cまでの距離が、自車両Vが交差点Cの手前に停車するのに十分な距離であるとする。この場合、運転支援装置19は、信号機の状態が停車を指示する状態であると判定する。したがって、図2Aに示す走行シーンでは、運転支援装置19は、自車両Vが交差領域を通過できないと判定する。
 提供部24は、自車両V内の車載端末及び/又は電子端末に対して、自車両Vが交差領域に接近していることを報知する情報を提供する機能(つまり接近報知機能)を有する。自車両Vの車載端末及び電子端末は、たとえば表示装置18であるが、それに限られず、自車両Vのインストルメントパネルの表示部分、上述した支援レベル3又は4の運転支援を実行する場合に自車両Vの乗員に情報を提供するための端末などを含む。運転支援装置19は、提供部24の接近報知機能により、自車両Vの乗員に対して、自車両Vの車載端末及び/又は電子端末を用いて、自車両Vが交差領域に接近していることを報知する情報を提供する。また、運転支援装置19は、自車両Vが現在位置から交差領域まで走行する間、通過判定機能による通過判定の処理を繰り返し行う。そして、得られた判定結果に応じて、自車両Vの内の車載端末及び/又は電子端末に提供する情報(つまり、自車両Vの乗員に提供する情報)を変化させる。
 自車両Vが交差領域に接近していることを報知する情報には、自車両Vが接近している交差領域に関する情報が含まれる。たとえば、交差領域が、交差点、横断歩道及び自車両Vが進入できる施設に面した歩道のいずれに該当するかを示す情報を含む。これに加えて、自車両Vの現在位置から交差領域までの距離を示す情報を含んでもよい。運転支援装置19は、位置検出装置15から自車両Vの現在位置を取得し、自車両Vの現在位置から交差領域までの距離が所定距離以下となった場合に、当該交差領域について、自車両Vが交差領域に接近していることを報知する情報を提供する。所定距離は、自車両Vの撮像装置11及び測距装置12などを用いて、交差領域の障害物を検出できる範囲内で適宜の距離を設定する。
 これに加えて、運転支援装置19が提供する情報には、自車両Vが交差領域を通過できるか否かの判定結果に応じた情報と、自車両Vが交差領域を通過できるか否かの判定に関する情報とが含まれる。具体的には、交差領域に障害物が存在するか否かを判定していることを示す情報、交差領域に存在する障害物(つまり交通参加者)の種類を示す情報、交差領域に設置された信号機の灯火状態を示す情報、自車両Vが交差領域を通過できるか否かを示す情報などが挙げられる。これらの情報は、自車両Vの乗員に示すために表示装置18に表示されるが、これに代えて、表示装置18が備えるスピーカーから音声として出力されてもよい。つまり、乗員に対して、自車両が交差領域に接近していることを、「まもなく交差点です」などの音声のみで報知してもよい。自車両Vが交差領域を通過できるか否かの判定結果に応じた情報と、自車両Vが交差領域を通過できるか否かの判定に関する情報についても同様である。音声には、録音した音声又は合成音声を用いることができる。
 また、これらの情報は、自車両Vから交差領域までの距離とともに表示してもよい。これに代えて又はこれに加えて、これら情報は、表示装置18に表示された走行経路R上の交差領域の位置に表示してもよい。これに代えて又はこれに加えて、これらの情報は、撮像装置11から取得した車外の画像に重ねて表示してもよい。また、これらの情報が表示される表示装置18には、自車両Vに搭載されたディスプレイだけでなく、自車両Vの乗員が有する端末のディスプレイが含まれる。さらに、無人タクシーのように、運転支援装置19が自車両Vの全ての運転タスクを実行し、監督者が、自車両Vから離れた遠隔地で自車両Vの走行を監視している場合は、上述した情報を、自車両Vの走行を監視するための端末が備えるディスプレイに表示してもよい。
 図2Aに示す走行シーンの場合は、自車両Vが交差点Cに接近しており、自車両Vが減速又は停車する必要があるため、「まもなく交差点」と記載された画像(アイコン)Xを表示装置18に表示する。当該画像Xが、自車両Vが交差領域に接近していることを報知する情報である。画像Xを表示する位置は、表示装置18に表示された走行経路R上の交差点Cの位置である。これにより、自車両Vの乗員は、運転支援装置19が、自車両Vが交差点Cに接近していると認識していることを確認できる。また、画像Xを表示する場合に、表示装置18が備えるスピーカーから効果音を出力してもよい。効果音を出力するタイミングは、たとえば画像Xの表示と同時である。
 また、領域Aには、自車両Vを示す画像Vaと、自車両Vから交差点Cのまでの距離を示す画像Dとともに、信号機の灯火状態を示す画像Yが表示されている。画像Dの左端から、黒い三角形でCと示された位置までの距離が、自車両Vから交差点Cまでの距離に対応し、画像Dの左端から右端までの距離が、自車両Vから目的地Pxまでの距離に対応している。図2Aに示す画像Yは横向きの信号を示しており、左側から順に青色、黄色、赤色の灯火状態に対応している。図2Aに示す画像Yは、交差点Cの信号機の灯火状態に対応して、黄色の灯火状態を示すものとなっている。
 運転支援装置19は、通過判定機能により得られた判定結果に応じて、自車両Vの乗員に提供する情報を変化させる。具体的には、自車両Vが交差領域を通過できないと判定した場合は、表示装置18に表示された情報の表示部分の強調度合いを大きくする。たとえば、情報の表示部分の大きさを拡大すること、情報の表示部分の色を濃くすること、情報の表示部分の明度を上げること、情報の表示部分の透明度を下げること、情報の表示部分を強調する演出を実行することのうち少なくとも一つを実行する。情報の表示部分を強調する演出としては、情報の表示部分を点滅させることが挙げられる。この際、表示装置18が備えるスピーカーから、乗員の注意を喚起する効果音を出力してもよい。なお、情報の表示部分がすでに強調されている場合は、運転支援装置19は、自車両Vが交差領域を通過できないと判定した場合に、表示装置18に表示された情報の表示部分の強調度合いを変化させず、情報の表示態様を維持してもよい。
 これに対して、自車両Vが交差領域を通過できると判定した場合は、表示装置18に表示された情報の表示部分の強調度合いを小さくする。たとえば、情報の表示部分の大きさを縮小すること、情報の表示部分の色を薄くすること、情報の表示部分の明度を下げること、情報の表示部分の透明度を上げること、情報の表示部分を目立ちにくくする演出を実行することのうち少なくとも一つを実行する。情報の表示部分を目立ちにくくする演出としては、情報の表示部分をフェードアウトさせることが挙げられる。また、運転支援装置19は、自車両Vが交差領域を通過できると判定した場合は、表示装置18に表示された情報の表示部分を非表示にし、情報の提供を停止してもよい。特に、自車両Vが交差領域を通過する前に、自車両Vが交差領域を通過できると判定した場合は、自車両Vが交差領域を通過する前であっても、自車両Vが交差領域に接近していることを報知する情報を非表示にし、その情報の提供を停止する。これにより、自車両Vの乗員に対して、運転支援装置19が、交差領域の通過可否を判定した上で車両を走行させていることを報知できる。
 図2Bは、図2Aに示す走行シーンにおいて画像Xを表示した後に、交差点Cの信号機の状態が赤色の灯火状態に変化した場合に、表示装置18に表示する画像である。図2Bに示す走行シーンでは、自車両Vの進行に伴い、車線L1における自車両Vの走行位置が交差点Cに近い位置に移動し、交差点C及び目的地Pxまでの距離を示す画像Daの長さが画像Dよりも短くなっている。また、交差点Cの信号機の灯火状態を示す画像が、赤色の灯火状態を示す画像Yaに変化している。
 図2Bに示す走行シーンでは、交差点Cに設置された信号機の状態が赤色の灯火状態となったため、自車両Vは交差点Cの手前で停車しなければならない。したがって、自車両Vは交差点C(交差領域)を通過できないと判定されるため、自車両Vが交差領域に接近していることを報知する情報である画像Xを、判定結果に応じた画像Xaに変化させる。画像Xaは、自車両Vの乗員に、自車両Vが交差点Cの手前で停車することを報知する情報であり、を交差点Cの位置に表示されている。画像Xaを表示することで、自車両Vの乗員に対して、自車両Vが、当該画像が表示された位置に停車することを報知できる。これに加えて、自車両Vの乗員に対して、運転支援装置19が、横断歩道CW1及び交差点Cの通過可否の判定を実行していることを示すことができる。これにより、交差点Cへの接近に際し、自車両Vの乗員に適切な情報を与えることができる。
 画像Xaは、画像Xと比較してその表示部分の大きさが大きく、太字のフォントを用いることで強調度合いが大きくなっている。これにより、表示の強調度合いを大きくすることができる。また、図2Bに示す走行シーンのように、交差領域に信号機が設置されている場合は、運転支援装置19は、交差領域に障害物が存在するか否かの判定結果に応じた情報と、信号機の状態に応じた情報とを別々に乗員に提供してもよい。たとえば図2Bに示す走行シーンの場合は、交差領域に障害物が存在するか否かの判定結果を交差点Cの位置に表示し、信号機の灯火状態が停車を指示する状態であるか否かの判定結果を、画像Yaとして下部の領域Aに表示する。これにより、表示の強調度合いをより大きくすることができる。
 図2Cは、図2Bに示す走行シーンにおいて画像Xaを表示し、自車両Vが交差点Cの手前の位置に停車した後に、信号機の状態が青色の灯火状態に変化した場合に、表示装置18に表示する画像である。図2Cに示す走行シーンでは、自車両Vは横断歩道CW1上の位置を走行しており、交差点C及び目的地Pxまでの距離を示す画像Dbの長さが画像Daよりも短くなっている。また、交差点Cの信号機の灯火状態を示す画像が、青色の灯火状態を示す画像Ybに変化している。交差点Cに設置された信号機の状態は青色の灯火状態のため、自車両Vは、交差点Cの手前に停車する必要はない。そのため、図2Cに示す走行シーンでは、自車両Vが交差点Cの手前で停車することを乗員に報知する画像Xaは非表示となっている。
 図2Cに示す走行シーンでは、横断歩道CW3を渡っている歩行者が検出されたものとする。この場合、横断歩道CW3上に歩行者が存在することを乗員に報知するため、横断歩道CW3の位置に画像Zが表示される。画像Zは、歩行者の存在を乗員に報知する画像である。そして、歩行者が横断中のため自車両Vが停車していることを乗員に報知するため、画像Zの隣に、「歩行者横断中」と記載された画像Xbが表示される。すなわち、図2Cに示す走行シーンにおける交差領域の通過可否の判定に基づいて、画像Xaを画像Xbに変化させたことになる。画像Xbは、画像Xaと比較してその表示部分の大きさが小さく、太字ではなく通常のフォントを用いることで強調度合いが小さくなっている。歩行者が横断歩道CW3の横断を完了した後、画像Xb及びZの表示は停止し(非表示にし)、自車両Vは、制御部20の運転支援機能により、交差点Cを左折して車線L5に進入する。
 以下、自車両Vが交差点Cを左折する場合と右折する場合について、それぞれ、運転支援装置19における具体的な処理の一例を示す。
 まず、自車両Vが交差点Cを左折する場合について説明する。運転支援装置19は、自車両Vが、信号機が設けられた交差点Cを走行経路Rに沿って左折する場合に、認識部22の走行環境認識機能により、交差点Cを横断する歩行者及び自転車と、信号機の状態とを検出し、走行環境を認識する。次に、判定部23の通過判定機能により、信号機の状態に基づいて、自車両Vが交差領域を通過できるか否かを判定する。信号機の状態(具体的には灯火状態)に基づいて、自車両Vが交差点Cを通過できると判定した場合は、提供部24の接近報知機能により、自車両Vの乗員に提供する情報の表示部分の強調度合いを小さくする。これに対して、信号機の状態に基づいて、自車両Vが交差点Cを通過できないと判定した場合は、自車両Vの乗員に提供する情報の表示部分の強調度合いを大きくする又は当該情報の表示部分を変化させずに維持する。
 また、運転支援装置19は、信号機の状態に基づいて、自車両Vが交差点Cを通過できると判定し、情報の表示部分の強調度合いを小さくした後に、歩行者及び自転車の検出結果に基づいて、自車両が交差点Cを通過できるか否かを判定する。そして、歩行者及び自転車の検出結果に基づいて、自車両Vが交差点Cを通過できると判定した場合は、乗員に対して、交差点Cの通過可否に関する情報の提供を停止する。これに対して、歩行者及び自転車の検出結果に基づいて、自車両Vが交差点Cを通過できると判定した場合は、乗員に提供する情報の表示部分の強調度合いを大きくする又は当該情報の表示部分を変化させずに維持する。これにより、交差領域の通過可否の判定に応じて、自車両Vが交差領域に接近していることを報知する情報を段階的に変化させることができる。
 次に、自車両Vが交差点Cを右折する場合について説明する。運転支援装置19は、自車両Vが、信号機が設けられた交差点を走行経路Rに沿って右折する場合に、認識部22の走行環境認識機能により、交差点Cを横断する歩行者及び自転車並びに自車両Vの対向車両と、信号機の状態とを検出し、走行環境を認識する。図2Aに示す走行シーンの場合、自車両Vの対向車両は、車線L3又は車線L4を走行する車両である。次に、判定部23の通過判定機能により、信号機の状態(具体的には灯火状態)に基づいて、自車両Vが交差点Cを通過できるか否かを判定する。信号機の状態に基づいて、自車両Vが交差点Cを通過できると判定した場合は、、提供部24の接近報知機能により、自車両Vの乗員に提供する情報の表示部分の強調度合いを小さくする。これに対して、信号機の状態に基づいて、自車両Vが交差点Cを通過できないと判定した場合は、自車両Vの乗員に提供する情報の表示部分の強調度合いを大きくする又は当該情報の表示部分を変化させずに維持する。
 また、運転支援装置19は、信号機の状態に基づいて、自車両Vが交差点Cを通過できると判定し、自車両Vの乗員に提供する情報の表示部分の強調度合いを小さくした後に、歩行者、自転車及び対向車両の検出結果に基づいて、自車両Vが交差点Cを通過できるか否かを判定する。そして、歩行者、自転車及び対向車両の検出結果に基づいて、自車両Vが交差点Cを通過できると判定した場合は、乗員に対して、交差点Cの通過可否に関する情報の提供を停止する。これに対して、歩行者、自転車及び対向車両の検出結果に基づいて、自車両Vが交差点Cを通過できないと判定した場合は、自車両Vの乗員に提供する情報の表示部分の強調度合いを大きくする又は当該情報の表示部分を変化させずに維持する。これにより、交差領域の通過可否の判定に応じて、自車両Vが交差領域に接近していることを報知する情報を段階的に変化させることができる。
[運転支援システムにおける処理]
 図3A~3Bを参照して、運転支援装置19が情報を処理する際の手順を説明する。図3A~3Bは、本実施形態の運転支援システム10において実行される、情報の処理を示すフローチャートの一例である。以下に説明する処理は、運転支援装置19のプロセッサであるCPU191により所定の時間間隔で実行される。
 まず、図3AのステップS1にて、取得部21の交差領域取得機能により、ナビゲーション装置16から走行経路Rを取得し、続くステップS2にて、地図情報14から、他の移動体が移動可能な領域を取得し、続くステップS3にて、交差領域を取得する。次に、ステップS4にて、認識部22の走行環境認識機能により、位置検出装置15から、自車両Vの現在位置を取得し、続くステップS5にて、自車両Vから交差領域までの距離は所定距離以下であるか否かを判定する。自車両Vから交差領域までの距離が所定距離を超えると判定した場合は、図3BのステップS14に進む。これに代えて、自車両Vから交差領域までの距離が所定距離以下となるまでステップS5を繰り返してもよい。これに対して、自車両Vから交差領域までの距離が所定距離以下であると判定した場合は、ステップS6に進む。
 ステップS6にて、提供部24の接近報知機能により、表示装置18に表示された走行経路上の交差領域の位置に、交差領域に接近していることを報知する画像を表示する。図3Bに移り、ステップS7にて、判定部23の通過判定機能により、交差領域に信号機が設置されているか否かを判定する。交差領域に信号機が設置されていないと判定した場合は、ステップS8に進み、交差領域に存在する障害物を検出してステップS11に進む。これに対して、交差領域に信号機が設置されていると判定した場合は、ステップS9に進み、交差領域に設置された信号機の状態と、交差領域に存在する障害物とを検出する。ステップS9に続くステップS10にて、信号機の状態は停車を指示しているか否かを判定する。信号機の状態は停車を指示していると判定した場合は、ステップS15に進む。これに対して、信号機の状態は停車を指示していないと判定した場合は、ステップS11に進む。ステップS11にて、交差領域に障害物が存在するか否かを判定する。交差領域に障害物が存在しないと判定した場合は、ステップS12に進み、自車両Vが交差領域を通過できると判定する。
 ステップS12に進み、自車両Vが交差領域を通過できると判定した場合は、ステップS13に進む。ステップS13にて、提供部24の接近報知機能により、交差領域の通過可否に関する画像の表示の強調度合いを小さくする又は当該画像の表示を停止する(非表示にする)。続くステップS14にて、制御部20の運転支援機能により、自車両Vが走行経路Rに沿って走行するように、車両制御装置17を介して自車両Vの走行を自律制御する。その後、図3に示すルーチンの実行を停止し、運転支援装置19における表示制御の処理を終了する。
 これに対して、交差領域に障害物が存在すると判定した場合は、ステップS15に進み、自車両Vが交差領域を通過できないと判定する。この場合は、続くステップS16にて、提供部24の接近報知機能により、交差領域の通過可否に関する画像の表示の強調度合いを大きくする又は当該画像の表示を維持する。続くステップS17にて、交差領域の通過判定を所定回数(たとえば5回)以上繰り返したか否かを判定する。交差領域の通過判定を所定回数以上繰り返していないと判定した場合は、ステップS7に進み、交差領域の通過判定を繰り返す。これに対して、交差領域の通過判定を所定回数以上繰り返したと判定した場合は、図3に示すルーチンの実行を停止し、運転支援装置19における表示制御の処理を終了する。そして、制御部20の運転支援機能により、ドライバーに手動操作による運転を要求する。
[本発明の実施態様]
 以上のとおり、本実施形態は、自律走行制御により設定された走行経路Rにおいて、他の移動体が移動可能な領域と交わる交差領域を取得する取得部21と、自車両Vの周囲の走行環境を認識する認識部22と、前記走行環境に基づいて、前記自車両Vが前記交差領域を通過できるか否かを判定する判定部23と、前記自車両V内の車載端末及び/又は電子端末に対して、前記自車両Vが前記交差領域に接近していることを報知する情報を提供する提供部24と、を備え、前記提供部24は、前記自車両Vが前記交差領域まで走行する間、前記判定部23の判定結果に応じて前記情報を変化させる、情報提供装置を提供する。これにより、交差点Cなどの交差領域に接近する際に、車両の乗員に対して適切な情報を提供でき、車両の乗員に与える不安感を抑制できる。
 また、本実施形態の情報提供装置によれば、前記交差領域は、交差点、横断歩道及び前記自車両Vが進入できる施設に面した歩道を含む。これにより、交差領域をより正確に認識できる。
 また、本実施形態の情報提供装置によれば、前記提供部24は、前記情報の表示部分の色、明度及び大きさのうち少なくとも一つを変化させる。これにより、情報をより効果的に変化させることができる。
 また、本実施形態の情報提供装置によれば、前記提供部24は、前記判定部23が、前記自車両Vが前記交差領域を通過できないと判定した場合は、前記情報の表示部分の強調度合いを大きくし、前記判定部23が、前記自車両Vが前記交差領域を通過できると判定した場合は、前記情報の前記表示部分の前記強調度合いを小さくする又は前記情報の提供を停止する。これにより、交差点Cなどの交差領域に接近する際に、自車両Vが交差領域を通過できるか否かを判定したことを車両の乗員に対して報知でき、車両の乗員に与える不安感を抑制できる。
 また、本実施形態の情報提供装置によれば、前記提供部24は、前記情報を、前記自車両Vから前記交差領域までの距離とともに表示すること、前記情報を、表示装置18に表示された前記走行経路R上の前記交差領域の位置に表示すること、及び前記情報を、撮像装置11から取得した車外の画像に重ねて表示することのうち少なくとも一つを実行する。これにより、車両の乗員に対して情報を効果的に表示できる。
 また、本実施形態の情報提供装置によれば、前記提供部24は、前記判定部23が、前記自車両Vが前記交差領域を通過できると判定した場合は、前記自車両Vが前記交差領域を通過する前であっても、前記情報の表示部分の強調度合いを小さくする。これにより、これにより、交差領域に接近する際に、自車両Vが交差領域を通過できるか否かを判定したことを車両の乗員に対して早めに報知でき、車両の乗員に与える不安感を抑制できる。
 また、本実施形態の情報提供装置によれば、前記認識部22は、前記自車両Vの前方に信号機が存在する場合は、前記走行環境として、前記自車両Vの周囲に存在する障害物と、前記信号機の状態とを検出し、前記判定部23は、前記障害物が前記交差領域に存在するか否かと、前記信号機の前記状態が停車を指示する状態であるか否かとを判定し、前記障害物が前記交差領域に存在せず、且つ、前記信号機の前記状態が停車を指示する状態でないと判定した場合は、前記自車両Vが前記交差領域を通過できると判定する。これにより、交差領域に信号機が設置されている場合に、交差領域の通過可否を適切に判定できる。
 また、本実施形態の情報提供装置によれば、前記提供部24は、前記障害物が前記交差領域に存在するか否かの判定結果に応じた情報と、前記信号機の前記状態が停車を指示する状態であるか否かの判定結果に応じた情報とを別々に前記車載端末及び/又は前記電子端末に提供する。これにより、交差領域に環境をより詳細に表現できる。
 また、本実施形態の情報提供装置によれば、前記判定部23は、前記自車両Vが前記交差領域の手前で停車した後に発車する場合に、前記自車両Vが前記交差領域を通過できるか否かを判定する。これにより、交差領域の通過可否の判定をより確実に実行できる。
 また、本実施形態の情報提供装置によれば、前記認識部22は、前記自車両Vが、信号機が設けられた交差点Cを前記走行経路Rに沿って左折する場合に、前記走行環境として、前記交差点Cを横断する歩行者及び自転車と、前記信号機の状態とを検出し、前記判定部23は、前記信号機の前記状態に基づいて、前記自車両Vが前記交差点Cを通過できるか否かを判定し、前記提供部24は、前記判定部23が、前記信号機の前記状態に基づいて、前記自車両Vが前記交差点Cを通過できると判定した場合は、前記情報の表示部分の強調度合いを小さくし、前記判定部23は、前記強調度合いを小さくした後に、前記歩行者及び前記自転車の検出結果に基づいて、前記自車両Vが前記交差点Cを通過できるか否かを判定し、前記提供部24は、前記判定部23が、前記歩行者及び前記自転車の前記検出結果に基づいて、前記自車両Vが前記交差点Cを通過できると判定した場合は、前記情報の提供を停止する。これにより、自車両Vが左折する場合に、車両の乗員に対して情報を効果的に表示できる。
 また、本実施形態の情報提供装置によれば、前記認識部22は、前記自車両Vが、信号機が設けられた交差点Cを前記走行経路Rに沿って右折する場合に、前記走行環境として、前記交差点Cを横断する歩行者及び自転車並びに前記自車両Vの対向車両と、前記信号機の状態とを検出し、前記判定部23は、前記信号機の前記状態に基づいて、前記自車両Vが前記交差点Cを通過できるか否かを判定し、前記提供部24は、前記判定部23が、前記信号機の前記状態に基づいて、前記自車両Vが前記交差点Cを通過できると判定した場合は、前記情報の表示部分の強調度合いを小さくし、前記判定部23は、前記強調度合いを小さくした後に、前記歩行者、前記自転車及び前記対向車両の検出結果に基づいて、前記自車両Vが前記交差点Cを通過できるか否かを判定し、前記提供部24は、前記判定部23が、前記歩行者、前記自転車及び前記対向車両の前記検出結果に基づいて、前記自車両Vが前記交差点Cを通過できると判定した場合は、前記情報の提供を停止する。これにより、自車両Vが右折する場合に、車両の乗員に対して情報を効果的に表示できる。
 また、本実施形態の情報提供装置によれば、前記提供部24は、前記自車両Vに搭載されたディスプレイ、前記自車両Vの走行を監視するための端末が備えるディスプレイ及び前記自車両Vの乗員の端末のディスプレイの少なくとも一つに前記情報を表示する。これにより、車両の走行を監督する者にも、交差領域の通過可否に関する情報を提供できる。
 また、本実施形態は、プロセッサを用いて実行する情報提供方法において、前記プロセッサは、自律走行制御により設定された走行経路Rにおいて、他の移動体が移動可能な領域と交わる交差領域を取得し、自車両Vの周囲の走行環境を認識し、前記走行環境に基づいて、前記自車両Vが前記交差領域を通過できるか否かを判定し、前記自車両V内の車載端末及び/又は電子端末に対して、前記自車両Vが前記交差領域に接近していることを報知する情報を提供し、前記自車両Vが前記交差領域まで走行する間、前記自車両Vが前記交差領域を通過できるか否かの判定結果に応じて前記情報を変化させる、情報提供方法を提供する。これにより、交差点Cなどの交差領域に接近する際に、車両の乗員に対して適切な情報を提供でき、車両の乗員に与える不安感を抑制できる。
10…運転支援システム
 11…撮像装置
 12…測距装置
 13…状態検出装置
 14…地図情報
 15…位置検出装置
 16…ナビゲーション装置
 17…車両制御装置
  171…車速制御装置
  172…操舵制御装置
 18…表示装置
 19…運転支援装置(情報提供装置)
  191…CPU(プロセッサ)
  192…ROM
  193…RAM
20…制御部
 21…取得部
 22…認識部
 23…判定部
 24…提供部
A…領域
C…交差点
CW1、CW2、CW3、CW4…横断歩道
L1、L2、L3、L4、L5、L6…車線
Px…目的地
R…走行経路
V…自車両
D、Da、Db、Va、X、Xa、Xb、Y、Ya、Yb、Z…画像

Claims (13)

  1.  自律走行制御により設定された走行経路において、他の移動体が移動可能な領域と交わる交差領域を取得する取得部と、
     自車両の周囲の走行環境を認識する認識部と、
     前記走行環境に基づいて、前記自車両が前記交差領域を通過できるか否かを判定する判定部と、
     前記自車両内の車載端末及び/又は電子端末に対して、前記自車両が前記交差領域に接近していることを報知する情報を提供する提供部と、を備え、
     前記提供部は、前記自車両が前記交差領域まで走行する間、前記判定部の判定結果に応じて前記情報を変化させる、情報提供装置。
  2.  前記交差領域は、交差点、横断歩道及び前記自車両が進入できる施設に面した歩道を含む、請求項1に記載の情報提供装置。
  3.  前記提供部は、前記情報の表示部分の色、明度及び大きさのうち少なくとも一つを変化させる、請求項1又は2に記載の情報提供装置。
  4.  前記提供部は、
     前記判定部が、前記自車両が前記交差領域を通過できないと判定した場合は、前記情報の表示部分の強調度合いを大きくし、
     前記判定部が、前記自車両が前記交差領域を通過できると判定した場合は、前記情報の前記表示部分の前記強調度合いを小さくする又は前記情報の提供を停止する、請求項1~3のいずれか一項に記載の情報提供装置。
  5.  前記提供部は、
     前記情報を、前記自車両から前記交差領域までの距離とともに表示すること、
     前記情報を、表示装置に表示された前記走行経路上の前記交差領域の位置に表示すること、及び
     前記情報を、撮像装置から取得した車外の画像に重ねて表示することのうち少なくとも一つを実行する、請求項1~4のいずれか一項に記載の情報提供装置。
  6.  前記提供部は、
     前記判定部が、前記自車両が前記交差領域を通過できると判定した場合は、前記自車両が前記交差領域を通過する前であっても、前記情報の表示部分の強調度合いを小さくする、請求項1~5のいずれか一項に記載の情報提供装置。
  7.  前記認識部は、
     前記自車両の前方に信号機が存在する場合は、前記走行環境として、前記自車両の周囲に存在する障害物と、前記信号機の状態とを検出し、
     前記判定部は、
     前記障害物が前記交差領域に存在するか否かと、前記信号機の前記状態が停車を指示する状態であるか否かとを判定し、
     前記障害物が前記交差領域に存在せず、且つ、前記信号機の前記状態が停車を指示する状態でないと判定した場合は、前記自車両が前記交差領域を通過できると判定する、請求項1~6のいずれか一項に記載の情報提供装置。
  8.  前記提供部は、前記障害物が前記交差領域に存在するか否かの判定結果に応じた情報と、前記信号機の前記状態が停車を指示する状態であるか否かの判定結果に応じた情報とを別々に前記車載端末及び/又は前記電子端末に提供する、請求項7に記載の情報提供装置。
  9.  前記判定部は、前記自車両が前記交差領域の手前で停車した後に発車する場合に、前記自車両が前記交差領域を通過できるか否かを判定する、請求項1~8のいずれか一項に記載の情報提供装置。
  10.  前記認識部は、
     前記自車両が、信号機が設けられた交差点を前記走行経路に沿って左折する場合に、前記走行環境として、前記交差点を横断する歩行者及び自転車と、前記信号機の状態とを検出し、
     前記判定部は、
     前記信号機の前記状態に基づいて、前記自車両が前記交差点を通過できるか否かを判定し、
     前記提供部は、
     前記判定部が、前記信号機の前記状態に基づいて、前記自車両が前記交差点を通過できると判定した場合は、前記情報の表示部分の強調度合いを小さくし、
     前記判定部は、
     前記強調度合いを小さくした後に、前記歩行者及び前記自転車の検出結果に基づいて、前記自車両が前記交差点を通過できるか否かを判定し、
     前記提供部は、
     前記判定部が、前記歩行者及び前記自転車の前記検出結果に基づいて、前記自車両が前記交差点を通過できると判定した場合は、前記情報の提供を停止する、請求項1~9のいずれか一項に記載の情報提供装置。
  11.  前記認識部は、
     前記自車両が、信号機が設けられた交差点を前記走行経路に沿って右折する場合に、前記走行環境として、前記交差点を横断する歩行者及び自転車並びに前記自車両の対向車両と、前記信号機の状態とを検出し、
     前記判定部は、
     前記信号機の前記状態に基づいて、前記自車両が前記交差点を通過できるか否かを判定し、
     前記提供部は、
     前記判定部が、前記信号機の前記状態に基づいて、前記自車両が前記交差点を通過できると判定した場合は、前記情報の表示部分の強調度合いを小さくし、
     前記判定部は、
     前記強調度合いを小さくした後に、前記歩行者、前記自転車及び前記対向車両の検出結果に基づいて、前記自車両が前記交差点を通過できるか否かを判定し、
     前記提供部は、
     前記判定部が、前記歩行者、前記自転車及び前記対向車両の前記検出結果に基づいて、前記自車両が前記交差点を通過できると判定した場合は、前記情報の提供を停止する、請求項1~10のいずれか一項に記載の情報提供装置。
  12.  前記提供部は、前記自車両に搭載されたディスプレイ、前記自車両の走行を監視するための端末が備えるディスプレイ及び前記自車両の乗員の端末のディスプレイの少なくとも一つに前記情報を表示する、請求項1~11のいずれか一項に記載の情報提供装置。
  13.  プロセッサを用いて実行する情報提供方法において、
     前記プロセッサは、
     自律走行制御により設定された走行経路において、他の移動体が移動可能な領域と交わる交差領域を取得し、
     自車両の周囲の走行環境を認識し、
     前記走行環境に基づいて、前記自車両が前記交差領域を通過できるか否かを判定し、
     前記自車両内の車載端末及び/又は電子端末に対して、前記自車両が前記交差領域に接近していることを報知する情報を提供し、
     前記自車両が前記交差領域まで走行する間、前記自車両が前記交差領域を通過できるか否かの判定結果に応じて前記情報を変化させる、情報提供方法。
PCT/IB2023/000131 2022-04-05 2023-03-17 情報提供装置及び情報提供方法 WO2023194793A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-062765 2022-04-05
JP2022062765 2022-04-05

Publications (1)

Publication Number Publication Date
WO2023194793A1 true WO2023194793A1 (ja) 2023-10-12

Family

ID=88244153

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2023/000131 WO2023194793A1 (ja) 2022-04-05 2023-03-17 情報提供装置及び情報提供方法

Country Status (1)

Country Link
WO (1) WO2023194793A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285732A (ja) * 2005-04-01 2006-10-19 Xanavi Informatics Corp 車載端末装置
JP2019036100A (ja) * 2017-08-14 2019-03-07 株式会社デンソー 運転支援装置
JP2021067988A (ja) * 2019-10-18 2021-04-30 日立Astemo株式会社 車両制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285732A (ja) * 2005-04-01 2006-10-19 Xanavi Informatics Corp 車載端末装置
JP2019036100A (ja) * 2017-08-14 2019-03-07 株式会社デンソー 運転支援装置
JP2021067988A (ja) * 2019-10-18 2021-04-30 日立Astemo株式会社 車両制御装置

Similar Documents

Publication Publication Date Title
KR102254750B1 (ko) 회전들을 위한 자율 차량들의 준비
US11414080B2 (en) Vehicle control device, vehicle control method, and storage medium
US11498563B2 (en) Vehicle control device, vehicle control method, and storage medium
CN109515434B (zh) 车辆控制装置、车辆控制方法及存储介质
JP4967015B2 (ja) 安全運転支援装置
US11900812B2 (en) Vehicle control device
JP6613527B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7202208B2 (ja) 自動運転システム
JP2019027996A (ja) 車両用表示方法及び車両用表示装置
CN113228128B (zh) 驾驶辅助方法及驾驶辅助装置
CN113401056A (zh) 显示控制装置、显示控制方法以及计算机可读取存储介质
WO2022162909A1 (ja) 表示制御装置及び表示制御方法
WO2023194793A1 (ja) 情報提供装置及び情報提供方法
WO2023194794A1 (ja) 情報提供装置及び情報提供方 法
JP2022060075A (ja) 運転支援装置
JP7235526B2 (ja) 自動運転システム
JP7145097B2 (ja) 自動運転システム
JP7428294B2 (ja) 走行支援方法及び走行支援装置
WO2023089835A1 (ja) 車両の走行支援方法及び走行支援装置
WO2024069690A1 (ja) 運転支援方法及び運転支援装置
WO2023089837A1 (ja) 車両の走行支援方法及び走行支援装置
WO2023067793A1 (ja) 運転支援方法及び運転支援装置
JP7149199B2 (ja) 自動運転システム
WO2024069689A1 (ja) 運転支援方法及び運転支援装置
WO2024100855A1 (ja) 表示制御装置及び表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23784409

Country of ref document: EP

Kind code of ref document: A1