WO2023243183A1 - 車両制御装置および車両制御システム - Google Patents

車両制御装置および車両制御システム Download PDF

Info

Publication number
WO2023243183A1
WO2023243183A1 PCT/JP2023/013190 JP2023013190W WO2023243183A1 WO 2023243183 A1 WO2023243183 A1 WO 2023243183A1 JP 2023013190 W JP2023013190 W JP 2023013190W WO 2023243183 A1 WO2023243183 A1 WO 2023243183A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
invisible area
vehicle control
sun
Prior art date
Application number
PCT/JP2023/013190
Other languages
English (en)
French (fr)
Inventor
建志 伊藤
勇樹 堀田
大司 清宮
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Publication of WO2023243183A1 publication Critical patent/WO2023243183A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/40Transportation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/20Information sensed or collected by the things relating to the thing itself
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/20Analytics; Diagnosis

Definitions

  • a vehicle control system installed in a vehicle that performs driving support and automatic driving recognizes the situation around the vehicle based on information obtained from sensor devices, and performs driving support and automatic driving based on the surrounding situation.
  • peripheral situation recognition using a camera device which is one type of sensor device
  • Vehicle control systems are required to avoid such dangerous situations in backlit environments. To ensure safety, vehicle control systems are required to avoid environments where performance limits occur, or to take measures to prevent problems even if performance limits occur.
  • Patent Document 1 discloses a technique for searching for a route in which the angular difference between the forward camera photographing direction and the direction in which the sun is located remains outside a predetermined range.
  • the predetermined range is a range of angular differences that are estimated to make it impossible to recognize the surrounding situation due to backlighting.
  • Patent Document 1 ensures safety by avoiding dangerous areas where the camera photographing direction and the direction of the sun are within a predetermined range.
  • all roads traveling westward in the evening are out of range, which greatly reduces the availability of the vehicle control system.
  • Patent Document 2 discloses a technique that sets a dangerous area where it is difficult to recognize a traffic light due to backlighting, etc., and determines whether the line of sight from the camera to the traffic light is blocked by surrounding vehicles outside the dangerous area.
  • Patent Document 2 mentions a dangerous area where traffic lights cannot be recognized, it does not disclose how to set the position of this dangerous area.
  • the position of the sun changes from moment to moment, and the dangerous area due to backlight also changes from moment to moment.
  • a vehicle control system or a vehicle control device included in the vehicle control system calculates position information of a visible object and the position of the sun at predetermined time information. Then, based on the calculated sun position information and the position information of the visible object, an area on the road where the visible object is difficult to see due to backlighting (hereinafter referred to as an invisible area) is calculated. Furthermore, safety is ensured by controlling vehicle travel or backlight protection devices based on the calculated invisible area. For example, the speed of the vehicle is adjusted so that the position of the vehicle at a timing when the object to be viewed must be visually recognized, such as when entering an intersection, is not within the invisible area. For example, if it is determined that the sun is on the right side of the visible object when viewed from the viewing subject within the invisible area, the sun visor is controlled so that it overlaps with the position of the sun when viewed from the viewing subject.
  • the safety of a vehicle control system in a backlit environment is ensured by accurately calculating a dangerous area where it is difficult to see the target object due to backlighting at a predetermined time and with respect to the target object. while improving availability. Furthermore, the safety of the vehicle control system can be improved by taking countermeasures based on information about the dangerous area.
  • FIG. 1 is a functional block diagram showing the configuration of a vehicle control system including a vehicle control device according to a first embodiment of the present invention.
  • a specific example of a part of the processing flow of a vehicle control information generation unit (related to a backlight countermeasure device).
  • a specific example of a part of the processing flow of the vehicle control information generation unit (related to vehicle stop position adjustment).
  • FIG. 3 is a functional block diagram showing the configuration of a vehicle control system according to a third embodiment of the present invention.
  • the vehicle control device 110 is an ECU (Electronic Control Unit).
  • the vehicle control device 110 generates travel control information for driving support or automatic driving of the vehicle 102 based on various input information provided from the map information management device 111, the sensor device group 112, etc., and generates travel control information for backlight countermeasures. Control information for the device group 114 is generated. Then, the vehicle control device 110 outputs control information to the actuator group 113, the backlight countermeasure device group 114, and the like.
  • the vehicle control device 110 includes a processing section 120 and a storage section 121.
  • the processing unit 120 is configured to include, for example, a CPU (Central Processing Unit) that is a central processing unit. However, in addition to the CPU, it may be configured to include a GPU (Graphics Processing Unit), FPGA (Field-Programmable Gate Array), ASIC (Application Specific Integrated Circuit), etc., or it may be configured by any one of them. good.
  • the storage unit 121 includes, for example, a storage device such as an HDD (Hard Disk Drive), a flash memory, or a ROM (Read Only Memory), and a memory such as a RAM (Random Access Memory).
  • the storage unit 121 stores programs processed by the processing unit 120, data groups necessary for the processing, and the like.
  • the storage unit 121 is also used as a main memory when the processing unit 120 executes a program, and is also used to temporarily store data necessary for calculations of the program.
  • the map information management device 111 includes information regarding visible objects, and the visible objects are associated with various object information (traffic lights, landmarks, etc.) in digital road map data, for example. . Furthermore, the map information management device 111 outputs the current position of the specified vehicle 102, map data around it, route information, and visible object information to the vehicle control device 110 via the in-vehicle network.
  • the sensor device group 112 is a collection of devices that detect the surrounding situation of the vehicle 102 and various states of the vehicle 102.
  • the sensor device group 112 includes, for example, a camera device, millimeter wave radar, LiDAR, sonar, wheel odometry, and the like.
  • the sensor device group 112 transmits sensing observation information around the vehicle 102 and information on environmental elements such as obstacles, road markings, signs, and signals identified based on the observation information to the vehicle control device 110 via the in-vehicle network.
  • Output. "Obstacles" include, for example, other vehicles other than the vehicle 102, pedestrians, fallen objects on the road, road edges, and the like.
  • the sensor device group 112 detects position information, traveling speed, steering angle, accelerator operation amount, brake operation amount, etc. of the vehicle 102, and outputs the detected information to the vehicle control device 110 via the in-vehicle network.
  • the actuator group 113 is a device group that controls control elements such as steering, brakes, and accelerators that determine the movement of the vehicle.
  • the actuator group 113 controls the movement of the vehicle based on operation information of the steering wheel, brake pedal, accelerator pedal, etc. by the driver and control command values output from the vehicle control device 110.
  • the backlight countermeasure device group 114 is an in-vehicle device that blocks or reduces sunlight (direct sunlight) on the viewer in the vehicle within the specified invisible area.
  • the backlight countermeasure device group 114 includes, for example, an electric lens hood for the sensor device group 112, an electric sun visor for the driver of the vehicle 102, and a light control glass device that changes the transmittance of sunlight.
  • the processing unit 120 included in the vehicle control device 110 has the functions of a map information acquisition unit 130, a sun position calculation unit 131, an invisible area calculation unit 132, an invisible area output unit 133, a vehicle surrounding situation recognition unit 134, and a visual recognition unit 134. It includes a disabled area acquisition section 135, a vehicle control information generation section 136, and a vehicle control information output section 137.
  • the processing unit 120 realizes these by executing a predetermined operation program stored in the storage unit 121.
  • the map information acquisition unit 130 acquires information from the map information management device 111 via the in-vehicle network, and stores it in the map data group 141 and the visible object data group 142 of the storage unit 121.
  • the sun position calculation unit 131 calculates the position of each visible object on the route of the vehicle 102 and the sun's position information at a predetermined time from the map data group 141 and the visible object data group 142.
  • the predetermined time is, for example, when the vehicle 102 passes around the visible object based on the speed of the vehicle 102 that can be obtained from the sensor data group 144 and the distance on the route to the visible object that can be obtained from the map data group 141. This is the expected time.
  • the time when the vehicle 102 is expected to pass around the visible object based on the distance on the route to the visible object and information on the legal maximum speed of the road on the route. be.
  • it is the current time.
  • the predetermined time may be expressed as a single time, or may be expressed as time information having a range of two values: a start time and an end time.
  • the sun position calculated by the sun position calculation unit 131 calculates a single position information if the predetermined time is a single time, or calculates a single position information if the predetermined time is a single time; For example, it is expressed as the range of positions that the sun can take during that time.
  • the invisible area output unit 133 outputs the information stored in the invisible area data group 143. As long as it is output within the same vehicle control device 110, it may be output as pointer information to the invisible area data group 143 instead of the invisible area information itself.
  • the self-vehicle surrounding situation recognition unit 134 recognizes the situation of the driving road, other vehicles, etc. around the vehicle 102 based on the information of the map data group 141 and the sensor data group 144.
  • the self-vehicle surrounding situation recognition unit 134 is realized by a known technology in driving support and automatic driving.
  • the invisible area acquisition unit 135 acquires information about the invisible area from the invisible area output unit 133, and stores it in the invisible area data group 143 if necessary.
  • the invisible area output unit 133 outputs pointer information for the invisible area data group 143, it is only necessary to hold the pointer information.
  • the vehicle control information generation unit 136 first generates driving control information necessary for driving support and automatic driving based on the situation around the vehicle 102 recognized by the own vehicle surrounding situation recognition unit 134, and stores it in the driving control data group 145. do. Generation of this travel control information is realized using known technology in driving support and automatic driving.
  • the vehicle control information generation unit 136 updates the travel control information included in the travel control data group 145 based on the situation around the vehicle 102, the map data group 141, and the invisible area data group 143. Specifically, based on the route information included in the map data group 141 and the travel control data group 145, it is determined whether the vehicle 102 passes through an invisible area. If it is determined that the vehicle will pass, travel control is considered to prevent the vehicle from falling into a dangerous situation in the invisible area, and the travel control data group 145 is updated. For example, when the vehicle 102 stops in an invisible area and must visually recognize an object at that time, the travel control data group 145 is updated so that the vehicle 102 stops in front of or on the other side of the invisible area. For example, when the vehicle 102 traveling at a predetermined speed needs to visually recognize a visible object within an invisible area, the travel control data group 145 is updated to accelerate or decelerate the speed of the vehicle 102.
  • the vehicle control information generation unit 136 determines that the vehicle 102 passes through an invisible area, the vehicle control information generation unit 136 generates a backlight that allows the viewer to see the object by blocking or reducing backlight in the invisible area.
  • Control information for controlling the countermeasure device group 114 may be generated.
  • the vehicle control information generation unit 136 stores the generated control information in the backlight countermeasure device control data group 146.
  • an electric sun visor may be installed so as to overlap the area on the right side of the visible object when viewed from the viewing subject. Generate information to control the movement.
  • the vehicle control information output unit 137 outputs the travel control information included in the travel control data group 145 to the actuator group 113. Further, the vehicle control information output unit 137 outputs the control information included in the backlight countermeasure device control data group 146 to the backlight countermeasure device group 114. That is, the vehicle control information output unit 137 outputs information for operating the backlight countermeasure device group 114 as vehicle control information.
  • the visible object data group 142 is a set of data related to visible objects output by the map information management device 111.
  • the visible object data group 142 includes information such as the ID, position, size, direction, type, and corresponding road of the visible object, for example.
  • the type is information indicating the type of the object to be visually recognized, and corresponds to, for example, a traffic light.
  • the corresponding road is information about the road corresponding to the visible object. For example, if the object to be visually recognized is a traffic light, the traffic light in the straight direction at an intersection is visually recognized, and the traffic light in the orthogonal direction is not visually recognized. In this way, it includes information for associating objects in order to identify objects to be visually recognized depending on the road.
  • the structure of the visible object data group 142 is not limited to that shown in FIG. 1 and the above-mentioned description.
  • the visible object data group 142 may be included in the map data group 141.
  • flag information indicating that the object is a visible object may be added to various object information such as a traffic light included in the map data group 141.
  • the invisible area data group 143 is a set of data related to invisible areas.
  • the invisible area data group 143 includes, for example, the ID of the invisible area, the ID of the corresponding visible object, and the position information of the vertices forming the invisible area.
  • the information of the invisible area data group 143 is generated and stored by the invisible area calculation unit 132.
  • the sensor data group 144 is a collection of data related to information detected by the sensor device group 112.
  • the detection information includes, for example, information regarding environmental elements such as obstacles, road markings, signs, and traffic lights identified based on observation information sensed by the sensor device group 112, and the position, traveling speed, steering angle, and accelerator operation of the vehicle 102. This includes information such as the amount of brake operation and the amount of brake operation.
  • the travel control data group 145 is a collection of data related to planning information for controlling the travel of the vehicle 102, and includes the planned trajectory of the vehicle 102, control command values to be output to the actuator group 113, and the like.
  • the information of the travel control data group 145 is generated and stored by the vehicle control information generation section 136.
  • the backlight countermeasure device control data group 146 is a set of data related to the control of the backlight countermeasure device group 114, and includes control command values to be output to the backlight countermeasure device group 114.
  • the information of the backlight countermeasure device control data group 146 is generated and stored by the vehicle control information generation unit 136.
  • FIG. 2 is a diagram illustrating an example of information regarding the visual recognition target object data group 142.
  • Column 201 is an ID that uniquely identifies the object to be viewed.
  • Column 202 is a value indicating the type of the object to be viewed.
  • the values shown in column 202 include, for example, values corresponding to traffic lights, signs, electronic display boards, and the like.
  • Columns 203, 204, and 205 are information indicating the position, size, and direction of the visible object, respectively.
  • the column 203 includes, for example, horizontal position and vertical position information and altitude information in the map data group 141.
  • the column 203 may be expressed in the same coordinate system as the coordinate system expressed in the map data group 141, or may be expressed in a different coordinate system that has a one-to-one correspondence with that coordinate system.
  • Column 204 includes information on the width, depth, and height of the object to be viewed.
  • the column 205 is expressed as an angle with respect to a predetermined direction or a predetermined coordinate axis in the map data group 141 as a reference.
  • the column 206 is information that identifies the road to which the visible object is related, and the road ID stored in the map data group 141 is set.
  • a plurality of columns 206 may be set assuming that the column 206 is related to a plurality of roads, or a lane ID may be set as a value for identifying a related lane.
  • Information regarding the visible target object is not limited to the content shown in FIG. 2.
  • a traffic light sub-type information that identifies a pedestrian traffic light, a traffic light with a right turn arrow, etc. may be included.
  • information on the ID of each object included in the map data group 141 may be included.
  • Information similar to 2 may be expressed.
  • FIG. 3 is a diagram showing an example of information regarding the invisible area data group 143.
  • Column 301 is an ID for uniquely identifying the invisible area.
  • Column 302 is set to any value present in column 201 of visible object data group 142, and associates the visible object with the invisible area.
  • the ID of the various object information is here. Set.
  • Column 303 is the number of vertices included in each invisible area.
  • Columns 304 to 307 are position information of each vertex when the number of vertices is four.
  • Columns 304 to 307 are composed of, for example, horizontal position information, vertical position information, and altitude information in the map data group 141.
  • the columns 304 to 307 may be expressed in the same coordinate system as the coordinate system expressed in the map data group 141, or may be expressed in a different coordinate system that has a one-to-one correspondence with that coordinate system. good.
  • FIG. 4 is a diagram showing a processing flow of the sun position calculation unit 131.
  • the sun position calculation unit 131 refers to the map data group 141 and the visible object data group 142 and acquires all visible objects on the route of the vehicle 102 (step S401). For example, if the route information of the vehicle 102 is given as a list of road IDs, it may be obtained by searching the road ID list information and the column 206 of the visible object data group 142. Even if the route information is a list of lane IDs and the column 206 of the visible object data group 142 is the lane ID, the same search is possible.
  • the position information of the road area is acquired from the list of road IDs and the map data group 141, and within a predetermined distance from the position. It may also be acquired by searching for visible objects that exist in .
  • the sun position calculation unit 131 calculates the sun position based on this time information and the position information of the selected object to be viewed (step S404).
  • This calculation method is realized using a known technique, and the calculated sun position is expressed, for example, in terms of elevation angle and azimuth.
  • the expression of the sun position information calculated in step S404 differs depending on the expression of the time information in step S403. If the time information is expressed as a single time, the position of the sun corresponding to that time will be expressed as a single position information.
  • time information is expressed as information having a width of a start time and an end time
  • the position of the sun is also expressed as a range of sun positions that can take place between the start time and the end time.
  • the sun position calculation unit 131 checks whether there is a visible target object that has not been subjected to the processes of steps S403 to S404, among the visible target objects obtained in step S401 (step S405). If the object exists (YES in step S405), the process returns to step S402 and another object to be viewed is selected. If it does not exist (NO in step S405), the process of the sun position calculation unit 131 ends.
  • the invisible area calculation unit 132 sets a visible target object peripheral area for the selected visible target object.
  • the invisible area calculation unit 132 sets a visible target object surrounding area including the space around the selected visible target object for the spatial area occupied by the selected visible target object based on the position information of the selected visible target object, Calculate the invisible area from the sun's position information and the area around the visible object. Specifically, in consideration of backlighting, an area including the surrounding space of the selected visual recognition target object is set for the space occupied by the selected visual recognition target object. Details of the area around the visible object will be described below.
  • the size of the area around the visible object may be calculated by multiplying the size of the selected visible object by a predetermined coefficient, or by adding a predetermined value to the size of the selected visible object. It may be calculated by Details of the area around the visible object will be described later using FIG. 6.
  • step S505 the invisible area calculation unit 132 checks whether there is a visible target object that has not been processed in steps S502 to S504 yet. If the object exists (YES in step S505), the process returns to step S501 and another object to be viewed is selected. If it does not exist (NO in step S505), the process of the invisible area calculation unit 132 ends.
  • FIG. 6 is a diagram showing a traffic light, which is an example of a visible object, and the corresponding surrounding area of the visible object.
  • the visible object 601 is a traffic light, and information regarding its position and size is included in the visible object data group 142.
  • the invisible area calculation unit 132 generates a visible target object peripheral area 602 for the visible target object 601.
  • the size of the visible target object peripheral area 602 may be calculated by multiplying the size of the visible target object 601 by a predetermined coefficient, or may be calculated by adding a predetermined size. .
  • the center of the visible target object 601 is configured to be the same as the center of the visible target object peripheral area 602.
  • FIG. 7 is a top view of a road 701 on which a visible object 601 is installed.
  • a visible target object 601 and a corresponding visible target object peripheral area 602 are set.
  • the sun 702 exists on the other side of the visible object 601.
  • the position of the sun 702 (elevation angle ⁇ 1, azimuth ⁇ 2) is calculated by the sun position calculation unit 131.
  • the invisible area calculation unit 132 calculates the invisible area 703 based on the visible object peripheral area 602 and the position information of the sun 702. An example of a method for calculating this invisible area 703 will be described below.
  • the vertices of the visible target object peripheral area 602 are vertices 704, 705, 706, and 707 in a counterclockwise direction from the upper left.
  • a line with an elevation angle ⁇ 1 and an azimuth ⁇ 2 is drawn from the vertex 704 toward the sun.
  • This line is a line from the vertex 704 toward the sun.
  • extend that line in the opposite direction calculate the point where it intersects with the surface of the road 701, and that point becomes the vertex 708. This is based on the position information (including altitude information) of any point on the road included in the map data group 141, the position information (including altitude information) and the size of the visible target object surrounding area 602 set in step S503.
  • the invisible area 703 can be easily calculated. This is because the map data group 141 includes altitude information at each position on the road, and this is taken into consideration.
  • an invisible area 703 corresponding to each position of the sun 702 within that position range is calculated. However, it can be easily calculated by overlapping the respective invisible areas 703.
  • FIG. 7 illustrates a method for calculating the invisible area 703 on the surface of the road 701.
  • a method of calculating the invisible area that takes into account the height information of the viewing subject will also be mentioned.
  • the height information of the visual recognition subject is the eye level of the driver, and in the case of the sensor device group 112, it is the height information at which the sensor device group 112 is installed. These are expressed, for example, as heights from the tire contact surface of the vehicle 102.
  • an invisible area 703 is calculated by calculating the point where the extension of a line drawn from the visible object peripheral area 602 in the direction of the sun intersects with the surface of the road 701.
  • the invisible area is calculated by calculating the vertices 708 to 711 that intersect with the surface of the road 701 instead of the points that intersect with this surface. That is, the invisible area calculation unit 132 calculates the invisible area based on the height information of the position of the viewer who visually recognizes the object to be viewed in the vehicle.
  • the invisible area 703 calculated using this method is an invisible area that corresponds to the height that the viewing subject views, and is a highly accurate area that takes into consideration the viewing subject's visibility.
  • FIG. 8 is a diagram showing the entire processing flow of the vehicle control information generation section 136.
  • step S801 the vehicle control information generation unit 136 uses the information in the map data group 141, the information on the vehicle 102 that can be obtained from the sensor device group 112, and the situation around the vehicle 102 recognized by the own vehicle surrounding situation recognition unit 134. Based on this, travel control information is generated and stored in the travel control data group 145.
  • the process in step S801 is realized using known technology related to driving support and automatic driving.
  • the vehicle control information generation unit 136 refers to the route information, the invisible area data group 143, and the travel control data group 145 included in the map data group 141, and determines the possibility that the vehicle 102 will pass through an invisible area. Determine if there is. For example, it may be determined whether an invisible area exists on the route of the vehicle 102 by referring to the travel control data group 145, or whether an invisible area exists on the route of the vehicle 102 by referring to route information. You can also determine whether it exists. If it is determined that there is a possibility of passing (YES in step S802), the process moves to step S803. If it is determined that there is no possibility of passing (NO in step S802), the processing of the vehicle control information generation unit 136 is ended.
  • FIG. 9 is a diagram showing a processing flow for controlling the backlight countermeasure device group 114 as an example of step S803. This process is performed in order to allow the viewing subject to see the object even in the invisible area by blocking sunlight that enters the viewing subject of the vehicle 102 with the backlight countermeasure device group 114.
  • step S901 the vehicle control information generation unit 136 calculates the positional relationship between the sun and the visible object when the visual subject of the vehicle 102 views the object within the invisible area. For example, in the invisible area, a positional relationship is calculated such that the sun is on the right side of the visible object as viewed from the viewing subject.
  • the vehicle When entering the invisible area, the vehicle initially exists above the visible object as seen from the viewing subject, but as the vehicle moves, it may change over time, such as moving from above the visible object to below the visible object. You can calculate it here.
  • step S1001 the vehicle control information generation unit 136 determines whether a problem may occur in which it is difficult to perform appropriate processing regarding the driving support and automatic driving provided by the vehicle control system 101 when the vehicle 102 is stopped within the invisible area.
  • the visible object is a traffic light.
  • Whether or not to consider this traffic light use case can be determined according to the information in column 202 of the visible object data group.
  • a problem may occur, for example, when a stop line corresponding to a traffic light exists within an invisible area. This can be easily determined by utilizing the information in the map data group 141. In this case, if the vehicle 102 stops in the invisible area, the color of the traffic light becomes difficult to see due to backlight, making it difficult to judge when the vehicle 102 should start.
  • the case where no problem occurs is, for example, the case where the stop line corresponding to the traffic light and the invisible area are separated by some distance. This can also be easily determined based on the information in the map data group 141. In this case, no problem may occur because the vehicle 102 may determine whether to start or not depending on the situation of surrounding vehicles on the road, without depending on the color of the traffic light.
  • step S1001 If it is determined that a problem may occur (YES in step S1001), the process moves to step S1002. If it is determined that this does not occur (NO in step S1001), the process in step S803 ends.
  • the vehicle control information generation unit 136 modifies the travel control information included in the travel control data group 145 so that the vehicle 102 does not stop within the invisible area. For example, if it is determined that the vehicle must stop within the invisible area, the travel control information is corrected so that the vehicle stops before the invisible area. Alternatively, if it is determined that the vehicle can be stopped on the other side of the invisible area when viewed from the vehicle 102, the travel control information is corrected so that the vehicle can be stopped on the other side of the invisible area. Alternatively, after confirming that the vehicle 102 does not need to stop in or around the invisible area, the travel control information is corrected so that the vehicle 102 passes through the invisible area. Then, the vehicle control information generation unit 136 ends the process of step S803.
  • FIG. 11 is a diagram showing a processing flow related to driving control of the vehicle 102 as an example of step S803. This process is performed in order to avoid problems caused by difficulty in visually recognizing objects to be viewed when the vehicle 102 travels at a predetermined speed by adjusting the speed of the vehicle 102.
  • the vehicle control information generation unit 136 determines whether a problem may occur in which it is difficult for the vehicle control system 101 to perform appropriate processing regarding driving support and automatic driving when the vehicle 102 passes through an invisible area at a predetermined speed.
  • the predetermined speed is the current speed of the vehicle 102 that can be obtained from the sensor device group 112, the legal maximum speed on the road that can be obtained from the map data group 141, or the surroundings of the vehicle 102 recognized by the own vehicle surrounding situation recognition unit 134. This is the speed assumed based on the traveling speed of the vehicle, etc. Further, the predetermined speed does not need to be uniquely determined, and the range of the predetermined speed may be determined using two pieces of information: the legal minimum speed and the legal maximum speed. In this case, in the following description, similar processing can be easily realized by repeating similar processing for each value within the range.
  • the object to be visually recognized is a traffic light.
  • a problem may occur, for example, when the position of the vehicle 102 at a predetermined speed overlaps with an invisible area at the time when it is determined whether to enter an intersection by visually checking the color of a traffic light. . This can be easily determined from the distance along the route from the invisible area to the traffic light, which can be obtained from the map data group 141 and the invisible area data group 143, and the predetermined speed. In this case, the backlight makes it difficult to see the color of the traffic light, making it difficult to judge whether the vehicle 102 should enter the intersection.
  • a case in which no problem occurs is, for example, a case in which the position of the vehicle 102 at a predetermined speed does not overlap with an invisible area at the time when it is determined whether to enter an intersection by visually checking the color of a traffic light. It is. In this case, since the color of the traffic light can be recognized at the required timing, appropriate processing can be performed.
  • the vehicle control information generation unit 136 modifies the travel control information included in the travel control data group 145 and adjusts the speed of the vehicle 102 in and around the invisible area. For example, the position of the vehicle 102 at the time when it is determined whether to enter an intersection by visually checking the color of the traffic light is on the other side of the invisible area (that is, on the side closer to the traffic light than the invisible area). The speed of vehicle 102 is reduced. Alternatively, the speed of the vehicle 102 is increased so that the position of the vehicle 102 at that timing is closer to the invisible area (that is, further away from the traffic light than the invisible area). Then, the vehicle control information generation unit 136 ends the process of step S803.
  • the vehicle control device 110 calculates the invisible area corresponding to the visible target object, and provides information for controlling the actuator group 113 and the backlight countermeasure device group 114 based on the invisible area. Output. This makes it possible to improve the availability of driving support and autonomous driving in backlit environments while ensuring safety.
  • the processing unit 1210 included in the server device 1202 has a server-side map information management unit 1221, a sun position calculation unit 131, an invisible area calculation unit 132, and an invisible area output unit 133 as its functions.
  • the processing unit 1210 realizes these by executing a predetermined operation program stored in the storage unit 1211.
  • the map information acquisition unit 130 acquires information regarding the map data group 141 and the visible object data group 142, and stores the information in the map data group 141 and the visible object data group 142 in the storage unit 121. do.
  • the map information acquisition unit 130 may acquire the map information from the map information management device 111 as in the first embodiment, or may acquire it from the server-side map information management unit 1221 via the network 1203.
  • the storage unit 121 included in the vehicle control device 110 includes a map data group 141, a visible object data group 142, an invisible area data group 143, a sensor data group 144, a travel control data group 145, and a backlight countermeasure device control data group. 146 are included. These data groups are the same as in the first embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明の課題は、逆光環境において運転支援および自動運転を行う車両制御システムに関して、安全性を担保しつつ可用性を向上することである。本発明の車両に搭載される車両制御装置は、所定の時刻における太陽の位置情報を算出する太陽位置算出部と、前記太陽の位置情報と前記視認対象物体の位置情報から前記視認対象物体を視認困難な視認不能領域を算出する視認不能領域算出部と、算出した前記視認不能領域を出力する視認不能領域出力部と、を備える。さらに、車両制御装置は、前記視認不能領域の情報を取得する視認不能領域取得部と、取得した前記視認不能領域の情報に基づいて車両の経路上にある前記視認不能領域を特定し、特定された前記視認不能領域に基づき前記車両の制御情報を出力する車両制御情報出力部と、を備える。

Description

車両制御装置および車両制御システム
 本発明は、車両制御装置および車両制御システムに関する。
 車両に搭載される、運転支援や自動運転を行う車両制御システムは、センサ装置から取得した情報に基づいて車両周辺の状況を認識し、その周辺の状況に基づいて運転支援や自動運転を行う。
 センサ装置の1つであるカメラ装置を活用した周辺状況認識では、逆光が原因で撮像画像の一部が白飛びすることにより車両の周辺の物体を認識できないといった性能限界がある。カメラ装置を活用して信号の色を認識する時にこの性能限界が発生すると、事故等の危険な状況に陥ってしまう。車両制御システムは、逆光環境下でのこのような危険な状況を回避することが求められる。安全性を担保するため、車両制御システムは性能限界が発生するような環境を回避するか、性能限界が発生しても問題ないように対策を行うことが求められる。
特開2017-207340号公報 特開2019-121307号公報
 特許文献1は、前方カメラ撮影方向と太陽の位置する方向との角度差が、所定の範囲の範囲外を維持する経路を探索する技術を開示している。所定の範囲とは、逆光により周辺状況の認識ができなくなると推定される角度差の範囲である。特許文献1は、カメラ撮影方向と太陽の方向が所定の範囲の範囲内となる危険な領域を避けることにより、安全性を担保している。しかし、特許文献1に従うと、夕方時に西向きに進む道路が全て範囲外となる等、車両制御システムの可用性を大きく低下させる。
 特許文献2は、逆光等により信号機の認識が困難となる危険な領域を設定し、その危険な領域以外でカメラから信号機に対する視線が周辺車両により遮蔽されるか判定する技術を開示している。特許文献2は、信号機を認識できない危険な領域について言及しているが、この危険な領域の位置をどのように設定するかが開示されていない。安全性を担保するためには、危険な領域を必要以上に十分に設定することが望ましいが、必要以上に広く設定するとその分車両制御システムの可用性が低下する。さらに、太陽の位置は刻々と変化するものであり、逆光による危険な領域も刻々と変化する。特許文献2は、危険な領域と時間帯の関連付けについては言及しているが、時間帯に対応して逆光による危険な領域の位置をどのように設定するかは開示されていない。夕方の時間帯において危険となりうる領域を十分に広く設定してもよいが、その分車両制御システムの可用性が低下する。
 本発明は、上記の課題を解決するためになされたものであり、車両に搭載されるセンサ装置もしくは車両の運転者(以下、視認主体)が視認しなければならない物体(以下、視認対象物体)を考慮する。視認対象物体は、例えば信号機が該当する。
 本発明では、車両制御システムもしくはその車両制御システムに含まれる車両制御装置が、視認対象物体の位置情報と所定の時刻情報における太陽の位置とを算出する。そして、算出した太陽の位置情報と、視認対象物体の位置情報に基づいて、逆光により視認対象物体を視認困難な道路上の領域(以下、視認不能領域)を算出する。さらに、算出した視認不能領域に基づいて、車両の走行もしくは逆光対策用装置を制御することで安全性を担保する。例えば、交差点進入時のように、視認対象物体を視認しなければならないタイミングにおける車両の位置が、視認不能領域の範囲内にならないように車両の速度を調整する。例えば、視認不能領域内で視認主体から見た時に、太陽が視認対象物体の右側にあると判断した場合、視認主体から見た時に太陽の位置に重なるようにサンバイザーを制御する。
 本発明では、気象情報や地図情報に基づいて太陽光が遮蔽されるか判断して、視認不能領域を算出しないことを選択してもよい。例えば曇天時、雨天時、高層ビル等が視認対象物体の背後に存在すると判断したときは視認不能領域を算出しない。
 本発明によれば、所定の時刻と視認対象物体に対して、逆光により視認対象物体を視認困難な危険な領域を正確に算出することで、逆光環境下における車両制御システムの安全性を担保しつつ可用性を向上できる。さらに、その危険な領域の情報に基づいて対策することで車両制御システムの安全性を向上できる。
 本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の、課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第1の実施形態に関する車両制御装置を含む、車両制御システムの構成を示す機能ブロック図。 視認対象物体データ群の情報の一例。 視認不能領域データ群の情報の一例。 太陽位置算出部の処理フロー。 視認不能領域算出部の処理フロー。 視認対象物体および視認対象物体周辺領域の一例。 視認不能領域算出方法の一例。 車両制御情報生成部の処理フロー。 車両制御情報生成部の一部の処理フローの具体例(逆光対策用装置に関する)。 車両制御情報生成部の一部の処理フローの具体例(車両の停止位置調整に関する)。 車両制御情報生成部の一部の処理フローの具体例(車両の速度調整に関する)。 本発明の第3の実施形態に関する車両制御システムの構成を示す機能ブロック図。
 以下、図1から図11を参照して、車両制御装置の第1の実施形態を説明する。
[第1の実施形態]
(システム構成)
 図1は、本発明の第1の実施形態に関する車両制御装置110を含む車両制御システム101の構成を示す機能ブロック図である。車両制御システム101は車両102に搭載される。車両制御システム101は、車両102の周辺における走行道路や周辺車両等の状況を認識し、車両102の運転支援や走行制御を行うシステムである。車両制御システム101は、車両制御装置110、地図情報管理装置111、センサ装置群112、アクチュエータ群113、逆光対策用装置群114を含んで構成される。車両制御装置110、地図情報管理装置111、センサ装置群112、アクチュエータ群113、逆光対策用装置群114は車載ネットワークにより互いに接続される。
 車両制御装置110はECU(Electronic Control Unit)である。車両制御装置110は、地図情報管理装置111、センサ装置群112、等から提供される各種入力情報に基づいて、車両102の運転支援または自動運転のための走行制御情報を生成し、逆光対策用装置群114の制御情報を生成する。そして、車両制御装置110は、アクチュエータ群113、逆光対策用装置群114等に制御情報を出力する。
 車両制御装置110は、処理部120と記憶部121を有する。処理部120は、例えば、中央演算処理装置であるCPU(Central Processing Unit)を含んで構成される。ただし、CPUに加えて、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等を含んで構成されてもよいし、いずれか1つにより構成されてもよい。記憶部121は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)などの記憶装置や、RAM(Random Access Memory)などのメモリを含んで構成される。記憶部121には、処理部120が処理するプログラムや、その処理に必要なデータ群等が格納される。また、記憶部121は、処理部120がプログラムを実行する際の主記憶として、一時的にプログラムの演算に必要なデータを格納する用途にも利用される。
 地図情報管理装置111は、車両102周辺のデジタル地図情報、車両102の走行経路に関する情報、視認対象物体に関する情報を管理及び提供する装置である。地図情報管理装置111は、例えば、ナビゲーション装置等により構成される。地図情報管理装置111は、例えば、車両102の周辺を含む所定地域のデジタル道路地図データを備えており、センサ装置群112から出力される車両102の位置情報等に基づき、地図上での車両102の現在位置、すなわち車両102が走行中の道路や車線を特定するように構成されている。他にも、地図情報管理装置111は視認対象物体に関する情報を備えており、その視認対象物体は、例えば、デジタル道路地図データ内の各種オブジェクト情報(信号機、ランドマーク等)と対応付けられている。また、地図情報管理装置111は、特定した車両102の現在位置、その周辺の地図データ、経路情報、視認対象物体情報を、車載ネットワークを介して車両制御装置110に出力する。
 センサ装置群112は、車両102の周辺の状況や車両102の各種状態を検出する装置の集合体である。センサ装置群112は、例えば、カメラ装置、ミリ波レーダ、LiDAR、ソナー、ホイールオドメトリ等が該当する。センサ装置群112は、車両102周辺のセンシングの観測情報や、その観測情報に基づき特定した障害物、路面標示、標識、信号等の環境要素に関する情報を、車載ネットワークを介して車両制御装置110に出力する。「障害物」とは、例えば、車両102以外の車両である他車両や、歩行者、道路への落下物、路端等である。他にも、センサ装置群112は、車両102の位置情報、走行速度、操舵角、アクセル操作量、ブレーキ操作量等を検出し、車載ネットワークを介して車両制御装置110に出力する。
 アクチュエータ群113は、車両の動きを決定する操舵、ブレーキ、アクセル等の制御要素を制御する装置群である。アクチュエータ群113は、運転者によるハンドル、ブレーキペダル、アクセルペダル等の操作情報や車両制御装置110から出力される制御指令値に基づいて、車両の動きを制御する。
 逆光対策用装置群114は、特定された視認不能領域内で車両における視認主体に対する太陽光(直射日光)を遮蔽もしくは軽減する車両内装置である。逆光対策用装置群114は、例えば、センサ装置群112向けに電動のレンズフード、車両102の運転者向けに電動のサンバイザー、太陽光の透過率を変更させる調光ガラス装置がある。
 車両制御装置110に含まれる処理部120はその機能として、地図情報取得部130、太陽位置算出部131、視認不能領域算出部132、視認不能領域出力部133、自車周辺状況認識部134、視認不能領域取得部135、車両制御情報生成部136、車両制御情報出力部137、を有する。処理部120は、記憶部121に格納されている所定の動作プログラムを実行することで、これらを実現する。
 地図情報取得部130は、地図情報管理装置111から車載ネットワークを介して情報を取得し、記憶部121の地図データ群141や視認対象物体データ群142に格納する。
 太陽位置算出部131は、地図データ群141や視認対象物体データ群142から、車両102の経路上の各視認対象物体に関して、その位置と所定の時刻における太陽の位置情報を算出する。所定の時刻とは、例えば、センサデータ群144から取得できる車両102の速度と、地図データ群141から取得できる視認対象物体までの経路上の距離に基づいて、車両102が視認対象物体周辺を通過すると予想される時刻である。あるいは、地図データ群141に基づいて、視認対象物体までの経路上の距離と、経路上の道路の法定最高速度の情報に基づいて、車両102が視認対象物体周辺を通過すると予想される時刻である。あるいは、現在の時刻である。あるいは、現在の時刻に対して所定の時間が経過した後の時刻である。また、所定の時刻は単一の時刻で表現されてもよいし、開始時刻と終了時刻の2つの値で構成される幅を持った時刻情報で表現されてもよい。太陽位置算出部131が算出する太陽の位置は、所定の時刻が単一の時刻であれば単一の位置情報を算出し、開始時刻と終了時刻の2つの値で表現される時刻情報であれば、その時間の中で太陽が取り得る位置の範囲で表現される。
 視認不能領域算出部132は、太陽位置算出部131が算出した太陽の位置情報と、視認対象物体データ群142に含まれる視認対象物体の位置情報に基づいて、所定の時刻および所定の視認対象物体の位置における視認不能領域を算出する。そして、視認不能領域算出部132は、その結果を視認不能領域データ群143に格納する。
 視認不能領域出力部133は、視認不能領域データ群143に格納された情報を出力する。同じ車両制御装置110内に対する出力であれば、視認不能領域の情報そのものに代えて、視認不能領域データ群143に対するポインタ情報として出力してもよい。
 自車周辺状況認識部134は、地図データ群141、センサデータ群144の情報に基づいて、車両102周辺の走行道路や他車両等の状況を認識する。自車周辺状況認識部134は、運転支援および自動運転における公知の技術で実現される。
 視認不能領域取得部135は、視認不能領域出力部133から視認不能領域の情報を取得し、必要であれば視認不能領域データ群143に格納する。視認不能領域出力部133が視認不能領域データ群143に対するポインタ情報を出力する場合は、そのポインタ情報を保持するのみでよい。
 車両制御情報生成部136は、まず、自車周辺状況認識部134が認識した車両102周辺の状況に基づき、運転支援や自動運転に必要な走行制御情報を生成し、走行制御データ群145に格納する。この走行制御情報の生成は、運転支援および自動運転における公知の技術で実現される。
 さらに、車両制御情報生成部136は、車両102周辺の状況と、地図データ群141、視認不能領域データ群143に基づいて、走行制御データ群145に含まれる走行制御情報を更新する。具体的には、地図データ群141に含まれる経路情報や走行制御データ群145に基づいて、車両102が視認不能領域を通過するか判断する。通過すると判断した場合、視認不能領域において危険な状況に陥らないような走行制御を検討し、走行制御データ群145を更新する。例えば、車両102が視認不能領域内で停止し、その際に視認対象物体を視認しなければならない場合、視認不能領域の手前もしくは向こう側で停止するように走行制御データ群145を更新する。例えば、所定の速度で走行する車両102が視認不能領域内で視認対象物体を視認しなければならない場合、車両102の速度を加減速するように走行制御データ群145を更新する。
 他にも、車両制御情報生成部136は、車両102が視認不能領域を通過すると判断した場合、視認不能領域において逆光を遮蔽もしくは軽減することで視認主体が視認対象物体を視認できるように、逆光対策用装置群114を制御させる制御情報を生成してもよい。この場合、車両制御情報生成部136は、生成した制御情報を逆光対策用装置制御データ群146に格納する。例えば、視認主体が車両102の運転者であり、視認主体から見た時に太陽が視認対象物体の右側にある状況では、視認主体から見て視認物体の右側の領域と重なるように電動のサンバイザーを動かすように制御するための情報を生成する。
 車両制御情報生成部136の処理は、上記説明の内容に限定されない。例えば、運転支援や自動運転に必要な走行制御データ群145の情報を生成した後で視認不能領域の情報に基づいて走行制御データ群145の情報を更新する代わりに、最初から視認不能領域を考慮して走行制御データ群145の情報を生成してもよい。また、視認不能領域の情報に基づいて、安全な運転支援や自動運転のために必要な他の処理が追加されてもよい。
 車両制御情報出力部137は、走行制御データ群145に含まれる走行制御情報をアクチュエータ群113に出力する。また、車両制御情報出力部137は、逆光対策用装置制御データ群146に含まれる制御情報を逆光対策用装置群114に出力する。つまり、車両制御情報出力部137は、逆光対策用装置群114を作動させる情報を車両の制御情報として出力する。
 記憶部121には、地図データ群141、視認対象物体データ群142、視認不能領域データ群143、センサデータ群144、走行制御データ群145、逆光対策用装置制御データ群146が含まれる。
 地図データ群141は、地図情報管理装置111が出力する車両102周辺のデジタル地図情報、車両102の走行経路に関するデータの集合である。地図データ群141は、道路情報、車線情報、標識情報、信号機情報、ランドマーク情報、等を含んでいる。これらの情報は公知の技術を用いて表現される。
 視認対象物体データ群142は、地図情報管理装置111が出力する視認対象物体に関するデータの集合である。視認対象物体データ群142は、例えば、視認対象物体のID、位置、サイズ、方向、種別、対応する道路、等の情報を含む。種別は、その視認対象物体が何の種類であるかを示す情報であり、例えば信号機が該当する。対応する道路は、その視認対象物体に対応する道路の情報である。例えば、視認対象物体が信号機である場合、交差点において直進方向の信号機を視認し、直交方向の信号機は視認しない。このように道路に応じて視認対象物体を特定するために関連付けを行う情報を含む。視認対象物体データ群142は、その構成は、図1および前述の説明内容に限定されない。例えば、視認対象物体データ群142は、地図データ群141に含まれる形であってもよい。例えば、地図データ群141に含まれる信号機等の各種オブジェクト情報に対して、視認対象物体であることを示すフラグ情報を追加する形で表現されてもよい。
 視認不能領域データ群143は、視認不能領域に関するデータの集合である。視認不能領域データ群143は、例えば、視認不能領域のID、対応する視認対象物体のID、視認不能領域を構成する頂点の位置情報を含む。視認不能領域データ群143の情報は、視認不能領域算出部132によって生成、格納される。
 センサデータ群144は、センサ装置群112による検出情報に関するデータの集合である。検出情報は、例えば、センサ装置群112のセンシングの観測情報に基づき特定した障害物や路面標示、標識、信号等の環境要素に関する情報や、車両102の位置、走行速度、操舵角、アクセルの操作量、ブレーキの操作量等の情報を含む。
 走行制御データ群145は、車両102の走行を制御するための計画情報に関するデータの集合であり、車両102の計画軌道、アクチュエータ群113に出力する制御指令値等が含まれる。走行制御データ群145の情報は、車両制御情報生成部136によって生成、格納される。
 逆光対策用装置制御データ群146は、逆光対策用装置群114の制御に関するデータの集合であり、逆光対策用装置群114に出力する制御指令値等が含まれる。逆光対策用装置制御データ群146の情報は、車両制御情報生成部136によって生成、格納される。
(データ構成例)
 図2は、視認対象物体データ群142に関する情報の一例を示す図である。
 列201は、視認対象物体を一意に識別するIDである。列202は、視認対象物体の種別を示す値である。列202が示す値として、例えば、信号機、標識、電光表示板等に対応する値がある。
 列203、列204、列205はそれぞれ視認対象物体の位置、サイズ、方向を示す情報である。列203は、例えば、地図データ群141における横位置、縦位置の情報と高度情報で構成される。列203は、地図データ群141で表現されている座標系と同じ座標系で表現されてもよいし、その座標系と1対1で対応付けられた別の座標系で表現されてもよい。列204は、視認対象物体の幅、奥行き、高さの情報で構成される。列205は、地図データ群141における所定の方向あるいは所定の座標軸を基準として、それに対する角度で表現される。
 列206は、視認対象物体が関連する道路を識別する情報であり、地図データ群141に格納されている道路IDが設定される。列206は複数の道路に関連する場合を想定して複数設定可能であってもよいし、関連する車線を識別する値として車線IDを設定してもよい。
 視認対象物体に関する情報は図2の内容に限定されない。例えば、信号機であれば歩行者用信号機、右折矢印付き信号機等を識別するサブ種別の情報を含んでもよい。例えば、視認対象物体と地図データ群141の各オブジェクト情報を関連付けるために、地図データ群141に含まれる各オブジェクトのIDの情報を含んでもよい。さらに、前述の通り、図2に示すテーブルを準備することに代えて、地図データ群141に含まれている各種オブジェクト情報に対して、視認対象物体であることを示すフラグを追加することで図2と同様の情報が表現されてもよい。
 図3は、視認不能領域データ群143に関する情報の一例を示す図である。列301は視認不能領域を一意に識別するためのIDである。列302は視認対象物体データ群142の列201に存在するいずれかの値が設定され、視認対象物体と視認不能領域を対応付ける。図2において、視認対象物体データ群142を準備する代わりに、地図データ群141の各種オブジェクト情報に視認対象物体であることを示すフラグ情報を追加する場合は、その各種オブジェクト情報のIDがここに設定される。
 列303は、各視認不能領域に含まれる頂点数である。列304~307は、頂点数が4の時の各頂点の位置情報である。列304~307は、例えば、地図データ群141における横位置、縦位置の情報と高度情報で構成される。列304~307は、地図データ群141で表現されている座標系と同じ座標系で表現されてもよいし、その座標系と1対1で対応付けられた別の座標系で表現されてもよい。
 視認不能領域データ群143に関する情報は、図3の内容に限定されない。例えば、視認不能領域が5以上の多角形であることを想定して、5以上の頂点に関する情報を含んでもよい。
(視認不能領域の算出)
 図4~図7を用いて、太陽位置算出部131と視認不能領域算出部132が実施する視認不能領域算出の処理を説明する。
 図4は、太陽位置算出部131の処理フローを示す図である。
 太陽位置算出部131は、地図データ群141、視認対象物体データ群142を参照し、車両102の経路上の視認対象物体を全て取得する(ステップS401)。例えば、車両102の経路情報が道路IDのリストで与えられている場合、その道路IDのリスト情報と視認対象物体データ群142の列206を検索することで取得してもよい。経路情報が車線IDのリストであり、視認対象物体データ群142の列206が車線IDであっても同様に検索可能である。他にも、車両102の経路情報が道路IDのリストで与えられている場合、その道路IDのリストと地図データ群141から道路領域の位置情報を取得し、その位置から所定の距離の範囲内に存在する視認対象物体を検索することで取得してもよい。
 そして、太陽位置算出部131は、取得した視認対象物体の中から1つを選択する(ステップS402)。以降のステップS403~S404は、ここで選択された視認対象物体(以下、選択視認対象物体)に対して行われる。
 太陽位置算出部131は、車両102が選択視認対象物体を視認する時刻を設定する(ステップS403)。例えば、センサデータ群144から車両102の速度を取得し、その速度もしくはそこから計算された平均速度と地図データ群141に含まれる車両102の経路情報に基づいて、車両102が選択視認対象物体付近を通過する時刻を予測して設定する。あるいは、地図データ群141に含まれる車両102の経路情報と、その経路上の道路の法定最高速度の情報に基づいて、車両102が選択視認対象物体付近を通過する時刻を予測して設定してもよい。あるいは、選択視認対象物体が車両102の周辺に存在することを想定して現在の時刻を設定してもよい。あるいは、現在の時刻から所定の時間が経過した後の時刻を設定してもよい。また、時刻は単一の時刻で表現されてもよいし、開始時刻と終了時刻の2つの情報により幅を持った時刻情報で表現されてもよい。
 次に、太陽位置算出部131は、この時刻情報と選択視認対象物体の位置情報に基づいて太陽の位置を算出する(ステップS404)。この算出方法は公知の技術で実現され、算出された太陽の位置は、例えば、仰角および方位で表現される。また、ステップS404で算出される太陽の位置情報の表現は、ステップS403の時刻情報の表現によって異なる。時刻情報が単一の時刻で表現されていれば、その時刻に対応する太陽の位置が単一の位置情報として表現される。時刻情報が開始時刻と終了時刻という幅を持った情報として表現される場合、太陽の位置も開始時刻から終了時刻の間に取り得る太陽の位置範囲として表現される。
 そして、太陽位置算出部131は、ステップS401で取得した視認対象物体に対して、ステップS403~S404の処理がまだ行われていない視認対象物体が存在するか確認する(ステップS405)。存在する場合(ステップS405でYES)、ステップS402に戻って別の視認対象物体を選択する。存在しない場合(ステップS405でNO)、太陽位置算出部131の処理を終了する。
 ところで、ステップS403~S404は必ずしも全ての視認対象物体に対して行われなくてもよい。複数の視認対象物体が近接している場合、これらの視認対象物体に対してステップS403~S404で設定される時刻はほぼ同じとなり、さらにその時刻に基づいて算出される太陽の位置はほぼ同じとなる可能性が高い。このため、選択視認対象物体が、既にステップS403~S404の処理が完了している他の視認対象物体に近接している場合、ステップS403~S404に代えて、その他の視認対象物体に関して算出された情報を複製してもよい。
 図5は、視認不能領域算出部132の処理フローを示す図である。
 視認不能領域算出部132は、太陽位置算出部131が処理した視認対象物体の中から改めて1つの視認対象物体を選択する(ステップS501)。以降のステップS502~S504は、ここで選択された視認対象物体(以下、選択視認対象物体)に対して行われる。
 視認不能領域算出部132は、選択視認対象物体を視認する際に太陽光が遮蔽されるか判断する(ステップS502)。例えば、地図情報管理装置111が動的な情報として地図データ群141の情報に加えて、その地図データに含まれる地域の気象情報を一緒に出力している場合、気象情報から曇天か雨天かを判断し、太陽光が遮蔽されると判断してもよい。つまり、所定の時刻における選択視認対象物体が属する地域の気象情報を取得し、気象情報から逆光による影響が小さいと判断した場合に視認不能領域を算出しないと判断してもよい。あるいは、地図データ群141に含まれる高層ビル等に関するランドマーク情報から、その位置と大きさと選択視認対象物体との位置関係に基づいて太陽光が遮蔽されるか判断してもよい。つまり、視認不能領域算出部132は、太陽の位置情報と選択視認対象物体の位置情報と地図情報から選択視認対象物体と太陽の間に太陽光を遮蔽する障害物が存在すると判断した場合に視認不能領域を算出しないと判断してもよい。例えば、高層ビルのように大きなランドマークが存在し、選択視認対象物体と太陽の間にランドマークが存在して近接している場合、太陽光が遮蔽されると判断してもよい。視認不能領域算出部132は、太陽光が遮蔽されると判断した場合(ステップS502でYES)、ステップS505に移動する。遮蔽されないと判断した場合(ステップS502でNO)、ステップS503に移動する。
 ステップS503では、視認不能領域算出部132は、選択視認対象物体に対して視認対象物体周辺領域を設定する。視認不能領域算出部132は、選択視認対象物体の位置情報に基づき選択視認対象物体が占める空間上の領域に対して、選択視認対象物体の周辺の空間を含む視認対象物体周辺領域を設定し、太陽の位置情報と視認対象物体周辺領域から視認不能領域を算出する。具体的には、逆光を考慮して、選択視認対象物体が占める空間に対して、選択視認対象物体の周辺空間を含む領域を設定する。視認対象物体周辺領域の詳細を以下で説明する。
 視認主体が逆光により選択視認対象物体を視認するのが困難となるのは、視認主体が選択視認対象物体を視認した時、選択視認対象物体の周辺に太陽が存在する場合である。言い換えると、太陽とその視認主体を結ぶ線が、選択視認対象物体の周辺を通過する場合である。そこで、視認対象物体周辺領域を導入し、太陽と視認主体を結ぶ線が視認対象物体周辺領域を通過する場合、視認主体が選択視認対象物体を視認困難とみなす。視認対象物体周辺領域の大きさは、選択視認対象物体の大きさに対して所定の係数を乗算させることで算出してもよいし、選択視認対象物体の大きさに対して所定の値を加算させて算出してもよい。視認対象物体周辺領域の詳細は図6を用いて後述する。
 視認不能領域算出部132は、ステップS503で設定した視認対象物体周辺領域とステップS404で算出した太陽の位置情報に基づいて、視認不能領域を算出する(ステップS504)。この算出方法の一例は図7を用いて後述する。ここで算出された視認不能領域は、視認不能領域データ群143に格納される。
 ステップS505では、視認不能領域算出部132は、ステップS502~S504の処理がまだ行われていない視認対象物体が存在するか確認する。存在する場合(ステップS505でYES)、ステップS501に戻って別の視認対象物体を選択する。存在しない場合(ステップS505でNO)、視認不能領域算出部132の処理を終了する。
 図6は視認対象物体の一例である信号機と、対応する視認対象周辺領域を示す図である。視認対象物体601は信号機であり、その位置や大きさに関する情報は視認対象物体データ群142に含まれる。視認不能領域算出部132は、ステップS503において、視認対象物体601に対して視認対象物体周辺領域602を生成する。視認対象物体周辺領域602の大きさは、視認対象物体601の大きさに対して所定の係数を乗算させることで算出してもよいし、所定の大きさを加算することで算出してもよい。視認対象物体601の中心は、視認対象物体周辺領域602の中心と同じとなるように構成される。
 視認対象物体601の空間は、図6に示すように視認主体が視認する面に基づいて平面として考えてもよいし、奥行きも含めて立体として考えてもよい。図7は、視認する面に基づいて平面と考えた場合を描画して説明する。立体として考えた場合の考え方は、図7の説明の中で必要に応じて補足する。
 図7を用いて、視認対象物体601と視認対象物体周辺領域602を例として、視認不能領域の具体的な算出方法の一例を説明する。
 図7は、視認対象物体601が設置されている道路701を上から見た図である。視認対象物体601とそれに対応する視認対象物体周辺領域602が設定されている。道路701の手前側(図7の下側)から見ると、視認対象物体601の向こう側に太陽702が存在する。太陽702の位置(仰角θ1、方位θ2)は太陽位置算出部131で算出されている。
 視認不能領域算出部132は、視認対象物体周辺領域602と太陽702の位置情報に基づき、視認不能領域703を算出する。この視認不能領域703の算出方法の一例を以下で説明する。
 視認対象物体周辺領域602の各頂点は左上から反時計回りに頂点704、705、706、707である。まず、頂点704から太陽に向かって仰角θ1、方位θ2の線を引く。この線は頂点704から太陽に向かう線となる。次に、その線を逆方向に延長し、それが道路701の面と交わる点を算出し、その点が頂点708となる。これは、地図データ群141に含まれる道路上の任意の点の位置情報(高度情報を含む)、ステップS503において設定した視認対象物体周辺領域602の位置情報(高度情報を含む)と大きさに基づいて算出可能である。頂点704に対応する頂点708を算出するのと同様に、頂点705に対応する頂点709、頂点706に対応する頂点710、頂点707に対応する頂点711を算出する。視認不能領域703は、これらの頂点708~711を頂点とする四角形として与えられる。図7の例は視認対象物体周辺領域が四角形であることを前提とした説明であるが、その他の多角形でも、同様に視認対象物体周辺領域の各頂点と、それに対応する道路701上の頂点を算出することで容易に算出可能である。
 道路701が上り坂、下り坂の場合でも視認不能領域703を容易に算出可能である。これは、地図データ群141には道路の各位置における高度情報が含まれており、それを考慮するためである。
 太陽702の位置情報が、所定の開始時刻と終了時刻の間で取り得る太陽の位置範囲として表現されている場合、その位置範囲内での太陽702の各位置に対応する視認不能領域703を算出し、それぞれの視認不能領域703を重ね合わせることで容易に算出できる。
 視認対象物体周辺領域602が奥行きを含めた立体である場合、太陽702からその立体を道路701に投影した場合の形を考慮することで視認不能領域703を容易に算出可能である。例えば、太陽の方位が道路701の進行方向と平行な場合、頂点704と頂点707は道路701の手前側から見て、視認対象物体周辺領域602の手前側の上端の2つの頂点とし、頂点705と頂点706は道路701の手前側から見て、視認対象物体周辺領域602の奥側の下端の2つの頂点を選択すればよい。さらに、必要に応じて、視認対象物体周辺領域602上の他の頂点や辺上の点に対応する道路701上の点を算出し、その結果に基づいて視認不能領域703を算出することもできる。
(視認主体の高さ情報を考慮した視認不能領域の算出)
 図7は道路701上の面における視認不能領域703の算出方法を説明した。ここで、視認主体の高さ情報を考慮した視認不能領域の算出方法についても言及する。
 視認主体の高さ情報とは、車両102の運転者であればその運転者の目の高さであり、センサ装置群112であればそのセンサ装置群112が設置される高さ情報である。これらは、例えば、車両102のタイヤ接地面からの高さとして表現される。
 図7は視認対象物体周辺領域602から太陽の方向に対して引いた線の延長線と道路701の面が交わる点を算出することで、視認不能領域703を算出した。ここで、道路701の面に代えて、道路701に平行であり、道路701の面から前述の車両102のタイヤ接地面からの高さ情報を加算した位置に存在する面を考える。図7の説明において、道路701の面と交わる点に代えて、この面と交わる頂点708~711を算出することで視認不能領域を算出する。つまり、視認不能領域算出部132は、車両における視認対象物体を視認する視認主体の位置の高さ情報に基づいて視認不能領域を算出する。この方法で算出する視認不能領域703は、視認主体が視認する高さに応じた視認不能領域であり、視認主体が視認することを考慮した、より精度が高い領域となる。
(車両制御情報の生成)
 図8~図11を参照して、車両制御情報生成部136の処理を説明する。図8は、車両制御情報生成部136の処理フローの全体を示す図である。
 車両制御情報生成部136は、ステップS801で、地図データ群141の情報と、センサ装置群112から取得できる車両102の情報と、自車周辺状況認識部134により認識された車両102周辺の状況に基づいて、走行制御情報を生成し走行制御データ群145に格納する。ステップS801の処理は、運転支援および自動運転に関する公知の技術で実現される。
 ステップS802では、車両制御情報生成部136は、地図データ群141に含まれる 経路情報、視認不能領域データ群143、走行制御データ群145を参照し、車両102が視認不能領域を通過する可能性があるか判断する。例えば、走行制御データ群145を参照して車両102の走行予定の軌跡上に視認不能領域が存在するか判断してもよいし、経路情報を参照して車両102の経路上に視認不能領域が存在するかで判断してもよい。通過する可能性があると判断した場合(ステップS802でYES)、ステップS803に移動する。通過する可能性がないと判断した場合(ステップS802でNO)、車両制御情報生成部136の処理を終了する。
 ステップS803では、車両制御情報生成部136は、視認不能領域に基づいて走行制御データ群145に含まれる走行制御情報を修正する。あるいは、車両制御情報生成部136は、視認不能領域に基づいて逆光対策用装置群114を制御するための制御情報を生成し、逆光対策用装置制御データ群146に格納する。このステップS803の例は図9~図11を用いて後述する。そして、車両制御情報生成部136の処理を終了する。
 以降、図9~図11を参照して、ステップS803の処理の一例を説明する。
 図9は、ステップS803の一例として、逆光対策用装置群114を制御する処理フローを示す図である。この処理は、車両102の視認主体に入る太陽光を逆光対策用装置群114により遮蔽することで、視認不能領域内でも視認主体が視認対象物体を視認可能にするためになされるものである。
 車両制御情報生成部136はステップS901で、視認不能領域内で車両102の視認主体が視認する時の、太陽と視認対象物体の位置関係を算出する。例えば、視認不能領域内では、視認主体から見て視認対象物体の右側に太陽が存在するといった位置関係を算出する。視認不能領域内に入った時に、視認主体から見て最初は視認対象物体の上側に存在するが、走行するにつれて視認対象物体の上側から視認対象物体の下側に移動する、等の時間変化もここで算出してよい。
 車両制御情報生成部136はステップS902で、ステップS901で算出した位置関係に応じて、逆光対策用装置群114の制御情報を生成する。例えば、視認不能領域内で視認主体から見た時に、視認対象物体の右側に太陽が存在する場合、視認主体の視界において、視認対象物体の右側領域に逆光対策用装置群114を配置するように制御する情報を生成し、逆光対策用装置制御データ群146に格納する。そして、ステップS803の処理を終了する。
 図10は、ステップS803の一例として、車両102の走行制御に関する処理フローを示す図である。この処理は、車両102の停止位置を調整することで、停止した際に視認対象物体を視認困難になることにより発生する問題を回避するためになされるものである。
 車両制御情報生成部136はステップS1001で、視認不能領域内で車両102が停止した場合、車両制御システム101が提供する運転支援や自動運転に関して適切な処理が困難という問題が発生しうるか判断する。
 ここで、視認対象物体が信号機である場合を例として考える。この信号機のユースケースを考慮するかどうかは、視認対象物体データ群の列202の情報に従って判断可能である。問題が発生しうる場合とは、例えば、信号機に対応する停止線が視認不能領域内に存在する場合である。これは地図データ群141の情報を活用することで容易に判断できる。この場合、視認不能領域において車両102が停止した場合、信号機の色が逆光により視認困難となるため、車両102がいつ発進すべきか否かの判断が困難となる。
 一方、問題が発生しない場合とは、例えば、信号機に対応する停止線と視認不能領域がある程度離れている場合である。これも地図データ群141の情報に基づいて容易に判断できる。この場合、車両102は信号機の色に依存することなく、道路上の周辺車両の状況に応じて発進すべきか否かの判断を行ってよいため、問題が発生しない場合がある。
 問題が発生しうると判断した場合(ステップS1001でYES)、ステップS1002に移動する。発生しないと判断した場合(ステップS1001でNO)、ステップS803の処理を終了する。
 車両制御情報生成部136はステップS1002で、視認不能領域内で車両102が停止しないように走行制御データ群145に含まれる走行制御情報を修正する。例えば、視認不能領域内で停止しなければならないと判断した場合、視認不能領域の手前で停止するように走行制御情報を修正する。あるいは、車両102から見て視認不能領域の向こう側に停止できると判断した場合は、視認不能領域の向こう側で停止するように走行制御情報を修正する。あるいは、車両102が視認不能領域内およびその周辺で停止する必要がないことを確認してから、視認不能領域を通過するように走行制御情報を修正する。そして、車両制御情報生成部136はステップS803の処理を終了する。
 図11は、ステップS803の一例として、車両102の走行制御に関する処理フローを示す図である。この処理は、車両102の速度を調整することで、所定の速度で走行した時に視認対象物体の視認が困難なことにより発生する問題を回避するためになされるものである。
 車両制御情報生成部136はステップS1101で、車両102が所定の速度で視認不能領域を通過した場合、車両制御システム101の運転支援や自動運転に関する適切な処理が困難という問題が発生しうるか判断する。所定の速度とは、センサ装置群112から取得可能な車両102の現在の速度、地図データ群141から取得可能な道路上の法定最高速度、自車周辺状況認識部134が認識した車両102の周辺車両の走行速度、等に基づいて想定する速度である。また、所定の速度は一意に定める必要はなく、法定最低速度と法定最高速度という2つの情報で所定の速度の範囲を定めてもよい。この場合、以降の説明において、その範囲内のそれぞれの値に対して同様の処理を繰り返す等により、同様の処理を容易に実現可能である。
 ここで、図10と同様に、視認対象物体が信号機である場合を例として考える。問題が発生しうる場合とは、例えば、信号機の色を視認して交差点に進入するか否かを判断するタイミングにおける車両102の位置が、所定の速度の場合に視認不能領域と重なる場合である。これは、地図データ群141、視認不能領域データ群143から取得できる視認不能領域から信号機までの経路上の距離と、所定の速度から容易に判断できる。この場合、逆光により信号機の色が視認困難のため、車両102が交差点に進入すべきか否かの判断が困難となる。
 一方、問題が発生しない場合とは、例えば、信号機の色を視認して交差点に進入するか否かを判断するタイミングにおける車両102の位置が、所定の速度の場合に視認不能領域と重ならない場合である。この場合、必要なタイミングで信号機の色を認識できるため、適切な処理が可能である。
 問題が発生しうると判断した場合(ステップS1101でYES)、ステップS1102に移動する。発生しないと判断した場合(ステップS1101でNO)、ステップS803の処理を終了する。
 車両制御情報生成部136はステップS1102で、走行制御データ群145に含まれる走行制御情報を修正し、視認不能領域内およびその周辺における車両102の速度を調整する。例えば、信号機の色を視認して交差点に進入するか否かを判断するタイミングにおける車両102の位置が、視認不能領域の向こう側(すなわち、視認不能領域よりもさらに信号機に近い側)となるように車両102の速度を小さくする。あるいは、そのタイミングにおける車両102の位置が、視認不能領域の手前側(すなわち、視認不能領域よりもさらに信号機から離れる側)となるように車両102の速度を大きくする。そして、車両制御情報生成部136はステップS803の処理を終了する。
 図9~図11はいずれもステップS803の処理の一例を示す図であるが、ステップS803で行われる処理は図9~図11のいずれかに限定されない。例えば、図9~11を統合して複数の処理を同時に行ってもよい。例えば、図9~図11以外にも、車両制御システム101の安全性を向上するために、視認不能領域の情報に基づいて、走行制御データ群145に対して何らかの修正を加えてもよい。
 図1~図11の説明に従うことで、車両制御装置110は、視認対象物体に対応する視認不能領域を算出し、視認不能領域に基づいてアクチュエータ群113や逆光対策用装置群114を制御する情報を出力する。これにより、逆光環境における運転支援や自動運転の安全性を担保しつつ、その可用性を向上することが可能となる。
[第2の実施形態]
(システム構成)
 本発明の第2の実施形態は、第1の実施形態における車両制御装置110の一部で構成される。第2の実施形態は、図1において処理部120に地図情報取得部130、太陽位置算出部131、視認不能領域算出部132、視認不能領域出力部133を含み、さらに記憶部121に地図データ群141、視認対象物体データ群142、視認不能領域データ群143を含んで構成される車両制御装置110である。
(第2の実施形態の処理)
 第2の実施形態に関して、地図情報取得部130、太陽位置算出部131、視認不能領域算出部132は、第1の実施形態と同じ処理を行う。視認不能領域出力部133は、車両102内の他の車両制御装置に対して視認不能領域の情報を出力する。他の車両制御装置は、その視認不能領域に基づいて、車両の走行制御生成等の処理を行う。すなわち、第2の実施形態において、車両制御装置110は、地図データ群141、視認対象物体データ群142に基づいて視認不能領域を算出し、その視認不能領域の情報を出力する、という役割を担う。
[第3の実施形態]
(システム構成)
 図12を参照して本発明の第3の実施形態を説明する。
 図12は、本発明の第3の実施の形態に係る車両制御システム1201の構成を示す機能ブロック図である。車両制御システム1201は、サーバ装置1202と車両102、そして車両102に搭載される車両制御装置110を含んで構成される。サーバ装置1202は、車両102の位置とは独立した場所である遠隔地に配置される装置であり、サーバ装置1202と車両102はネットワーク1203を介して接続される。車両制御システム1201は、サーバ装置1202および車両102に搭載された車両制御装置110により、本発明の第1の実施形態と同様のことを実現する。
 サーバ装置1202は情報処理装置であり、処理部1210および記憶部1211を有する。処理部1210は、中央演算処理装置であるCPU(Central Processing Unit)を含んで構成される。ただし、CPUに加えて、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等を含んで構成されてもよいし、いずれか1つにより構成されてもよい。記憶部1211は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)などの記憶装置や、RAM(Random Access Memory)などのメモリを含んで構成される。記憶部1211は、処理部1210が処理するプログラムや、その処理に必要なデータ群等が格納される。また、処理部1210がプログラムを実行する際の主記憶として、一時的にプログラムの演算に必要なデータを格納する用途にも利用される。
 サーバ装置1202に含まれる処理部1210はその機能として、サーバ側地図情報管理部1221、太陽位置算出部131、視認不能領域算出部132、視認不能領域出力部133を有する。処理部1210は、記憶部1211に格納されている所定の動作プログラムを実行することで、これらを実現する。
 サーバ側地図情報管理部1221は、記憶部1211内の地図データ群141、視認対象物体データ群142の情報を管理し、処理部1210の他の機能や他の装置に対してこれらの情報を出力する。
 太陽位置算出部131、視認不能領域算出部132は、本発明の第1の実施形態と同一である。視認不能領域出力部133は、第1の実施形態とは異なり、ネットワーク1203を介して車両制御装置110に視認不能領域の情報を出力する。記憶部1211には、地図データ群141、視認対象物体データ群142、視認不能領域データ群143が含まれる。これらは車両制御装置110の記憶部121が有するデータ群と同じ役割を持つ。
 車両102では、第1の実施形態と同様に、車両制御装置110、地図情報管理装置111、センサ装置群112、アクチュエータ群113、逆光対策用装置群114を含む。ただし、第3の実施形態では、地図情報管理装置111は必ず含まれるとは限らない。
 車両制御装置110に含まれる処理部120は、第1の実施形態とは異なり、地図情報取得部130、自車周辺状況認識部134、視認不能領域取得部135、車両制御情報生成部136、車両制御情報出力部137を含む。
 地図情報取得部130は、第1の実施形態と同様に、地図データ群141、視認対象物体データ群142に関する情報を取得し、記憶部121の地図データ群141、視認対象物体データ群142に格納する。地図情報取得部130は、第1の実施形態と同様に地図情報管理装置111から取得してもよいし、ネットワーク1203を介してサーバ側地図情報管理部1221から取得してもよい。
 視認不能領域取得部135は、第1の実施形態とは異なり、ネットワーク1203を介して視認不能領域出力部133が出力する視認不能領域の情報を取得し、視認不能領域データ群143に格納する。自車周辺状況認識部134、車両制御情報生成部136、車両制御情報出力部137は、本発明の第1の実施形態と同一である。
 車両制御装置110に含まれる記憶部121には、地図データ群141、視認対象物体データ群142、視認不能領域データ群143、センサデータ群144、走行制御データ群145、逆光対策用装置制御データ群146が含まれる。これらのデータ群は第1の実施形態と同一である。
 本発明の第3の実施形態では、第1の実施形態とは異なり、視認不能領域を算出する処理をサーバ装置1202が担い、その視認不能領域に基づいて車両102の走行制御情報を生成および修正する処理と、逆光対策用装置群114の制御情報を生成する処理を車両制御装置110が担う。本発明の第3の実施形態の特徴は、視認不能領域の算出をサーバ装置1202が担うことにある。例えば、車両102の情報に依存せず、現在の時刻あるいは所定の時間が経過した後の所定の時刻における視認不能領域を算出することにより、多数の車両102に対して視認不能領域の情報を配信することが可能となる。
 以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
101:車両制御システム、102:車両、110:車両制御装置、111:地図情報管理装置、112:センサ装置群、113:アクチュエータ群、114:逆光対策用装置群、120:処理部、121:記憶部、130:地図情報取得部、131:太陽位置算出部、132:視認不能領域算出部、133:視認不能領域出力部、134:自車周辺状況認識部、135:視認不能領域取得部、136:車両制御情報生成部、137:車両制御情報出力部、141:地図データ群、142:視認対象物体データ群、143:視認不能領域データ群、144:センサデータ群、145:走行制御データ群、146:逆光対策用装置制御データ群、601:視認対象物体、602:視認対象物体周辺領域、701:道路、702:太陽、703:視認不能領域、1201:車両制御システム、1202:サーバ装置、1203:ネットワーク、1210:処理部、1211:記憶部、1221:サーバ側地図情報管理部

Claims (11)

  1.  車両に搭載される車両制御装置であって、
     所定の時刻における太陽の位置情報を算出する太陽位置算出部と、
     前記太陽の位置情報と視認対象物体の位置情報から前記視認対象物体を視認困難な視認不能領域を算出する視認不能領域算出部と、
     該視認不能領域算出部により算出した前記視認不能領域を出力する視認不能領域出力部と、を備えることを特徴とする車両制御装置。
  2.  前記視認不能領域算出部は、
     前記車両における前記視認対象物体を視認する視認主体の位置の高さ情報に基づいて前記視認不能領域を算出することを特徴とする請求項1に記載の車両制御装置。
  3.  前記視認不能領域算出部は、
     前記視認対象物体の位置情報に基づき前記視認対象物体が占める空間上の領域に対して、前記視認対象物体の周辺の空間を含む視認対象物体周辺領域を設定し、
     前記太陽の位置情報と前記視認対象物体周辺領域から前記視認不能領域を算出することを特徴とする請求項1に記載の車両制御装置。
  4.  前記視認不能領域算出部は、
     所定の時刻における前記視認対象物体が属する地域の気象情報を取得し、
     前記気象情報から逆光による影響が小さいと判断した場合に前記視認不能領域を算出しないことを特徴とする請求項1に記載の車両制御装置。
  5.  前記視認不能領域算出部は、
     前記太陽の位置情報と前記視認対象物体の位置情報と地図情報から前記視認対象物体と前記太陽の間に太陽光を遮蔽する障害物が存在すると判断した場合に前記視認不能領域を算出しないことを特徴とする請求項1に記載の車両制御装置。
  6.  前記太陽位置算出部は、
     車両の位置情報と時刻情報から所定の時刻における太陽の位置情報を算出することを特徴とする請求項1に記載の車両制御装置。
  7.  前記太陽位置算出部と、前記視認不能領域算出部と、前記視認不能領域出力部と、を備え、
     さらに、前記視認不能領域出力部から前記視認不能領域の情報を取得する視認不能領域取得部と、
     取得した前記視認不能領域の情報に基づいて車両の経路上にある前記視認不能領域を特定し、
     特定された前記視認不能領域に基づき前記車両の制御情報を出力する車両制御情報出力部と、
     を備えることを特徴とする請求項1に記載の車両制御装置。
  8.  前記車両制御情報出力部は、
     特定された前記視認不能領域内で前記車両における視認主体に対する太陽光を遮蔽もしくは軽減させる車両内装置を作動させる情報を前記車両の制御情報として出力することを特徴とする請求項7に記載の車両制御装置。
  9.  前記車両制御情報出力部は、
     特定された前記視認不能領域内で前記車両が停止する場合に、
     前記視認不能領域の手前もしくは前記視認不能領域の向こう側で停止させる情報を前記車両の制御情報として出力することを特徴とする請求項7に記載の車両制御装置。
  10.  前記車両制御情報出力部は、
     特定された前記視認不能領域を前記車両が通過する場合に、
     前記車両が前記視認対象物体を視認する必要がある時点における前記車両の位置が前記視認不能領域と重ならないように前記車両の速度を調整させる情報を前記車両の制御情報として出力することを特徴とする請求項7に記載の車両制御装置。
  11.  車両とは独立した場所に設置されるサーバ装置と、車両に搭載される車両制御装置と、を備える車両制御システムであって、
     前記サーバ装置は、所定の時刻における太陽の位置情報を算出する太陽位置算出部と、前記太陽の位置情報と視認対象物体の位置情報から前記視認対象物体を視認困難な視認不能領域を算出する視認不能領域算出部と、前記視認不能領域の情報を出力する視認不能領域出力部と、を備え、
     前記車両制御装置は、前記視認不能領域出力部から前記視認不能領域の情報を取得する視認不能領域取得部と、取得した前記視認不能領域の情報に基づいて、前記車両の経路上にある前記視認不能領域を特定し、特定された前記視認不能領域に基づき前記車両の制御情報を出力する車両制御情報出力部と、を備えることを特徴とする車両制御システム。
PCT/JP2023/013190 2022-06-15 2023-03-30 車両制御装置および車両制御システム WO2023243183A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022096451A JP2023183056A (ja) 2022-06-15 2022-06-15 車両制御装置および車両制御システム
JP2022-096451 2022-06-15

Publications (1)

Publication Number Publication Date
WO2023243183A1 true WO2023243183A1 (ja) 2023-12-21

Family

ID=89192584

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/013190 WO2023243183A1 (ja) 2022-06-15 2023-03-30 車両制御装置および車両制御システム

Country Status (2)

Country Link
JP (1) JP2023183056A (ja)
WO (1) WO2023243183A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008284914A (ja) * 2007-05-15 2008-11-27 Honda Motor Co Ltd 車両用シェード付き窓ガラス
JP2018106239A (ja) * 2016-12-22 2018-07-05 株式会社Jvcケンウッド 画像処理装置、画像処理方法、及び画像処理プログラム
JP2021014994A (ja) * 2019-07-10 2021-02-12 株式会社デンソー 走行ルート設定システム、走行ルート設定方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008284914A (ja) * 2007-05-15 2008-11-27 Honda Motor Co Ltd 車両用シェード付き窓ガラス
JP2018106239A (ja) * 2016-12-22 2018-07-05 株式会社Jvcケンウッド 画像処理装置、画像処理方法、及び画像処理プログラム
JP2021014994A (ja) * 2019-07-10 2021-02-12 株式会社デンソー 走行ルート設定システム、走行ルート設定方法、及びプログラム

Also Published As

Publication number Publication date
JP2023183056A (ja) 2023-12-27

Similar Documents

Publication Publication Date Title
US10564434B2 (en) Display control device for vehicle
US10269331B2 (en) Display control device for vehicle
CN111052733B (zh) 周围车辆显示方法及周围车辆显示装置
JP6273976B2 (ja) 車両用表示制御装置
JP7052786B2 (ja) 表示制御装置および表示制御プログラム
US20160167580A1 (en) Warning device
WO2020125178A1 (zh) 车辆驾驶提示方法及装置
CN110036426B (zh) 控制装置和控制方法
US20170036678A1 (en) Autonomous vehicle control system
CN111034186B (zh) 周围车辆显示方法及周围车辆显示装置
JP6229798B2 (ja) 走行制御装置および走行制御方法
US11694408B2 (en) Information processing device, information processing method, program, and movable object
JP6984624B2 (ja) 表示制御装置および表示制御プログラム
US11747815B2 (en) Limiting function of a vehicle control device related to defective image
JP2019027996A (ja) 車両用表示方法及び車両用表示装置
JP2022079590A (ja) 表示制御装置および表示制御プログラム
JP6765357B2 (ja) 走行制御装置、走行制御方法およびプログラム
JP7379033B2 (ja) 運転支援方法及び運転支援装置
JP2022060076A (ja) 車両の走行制御装置
US20240042857A1 (en) Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program
JP2020152161A (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
WO2023243183A1 (ja) 車両制御装置および車両制御システム
JPWO2018198746A1 (ja) 車両制御装置
WO2021020155A1 (ja) 車両制御装置
JP7038610B2 (ja) 運転支援方法及び運転支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23823487

Country of ref document: EP

Kind code of ref document: A1