WO2023058306A1 - 車載装置、車載システム、制御方法及びコンピュータプログラム - Google Patents

車載装置、車載システム、制御方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2023058306A1
WO2023058306A1 PCT/JP2022/029575 JP2022029575W WO2023058306A1 WO 2023058306 A1 WO2023058306 A1 WO 2023058306A1 JP 2022029575 W JP2022029575 W JP 2022029575W WO 2023058306 A1 WO2023058306 A1 WO 2023058306A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
data
processing
unit
Prior art date
Application number
PCT/JP2022/029575
Other languages
English (en)
French (fr)
Inventor
明紘 小川
Original Assignee
住友電気工業株式会社
株式会社オートネットワーク技術研究所
住友電装株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社, 株式会社オートネットワーク技術研究所, 住友電装株式会社 filed Critical 住友電気工業株式会社
Priority to CN202280060497.9A priority Critical patent/CN117916786A/zh
Publication of WO2023058306A1 publication Critical patent/WO2023058306A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to an in-vehicle device, an in-vehicle system, a control method, and a computer program.
  • This application claims priority based on Japanese application No. 2021-164872 filed on October 6, 2021, and incorporates all the descriptions described in the Japanese application.
  • Various systems have been proposed for assisting drivers of automobiles, motorcycles, etc. (hereinafter referred to as vehicles). For example, sensor information is collected from roadside devices equipped with various sensor devices (e.g., cameras, radars, etc.) set on roads and their surroundings, and analyzed to obtain traffic-related information (e.g., accidents, traffic jams, etc.). , is also proposed to be provided to the vehicle as dynamic driving assistance information.
  • traffic-related information e.g., accidents, traffic jams, etc.
  • information is collected not only from sensors installed in roadside equipment, but also from sensors installed in vehicles, communicated via server computers, or used to communicate between vehicles. It is also proposed to directly communicate with each other and use it effectively for driving support.
  • PHEV plug-in hybrid electric vehicles
  • EV electric vehicles
  • ECU Electronic Control Unit
  • a vehicle capable of automatic operation is equipped with an ECU for automatic operation.
  • the ECU for automatic driving appropriately communicates with the outside and acquires necessary information (for example, road traffic information and dynamic driving support information).
  • necessary information for example, road traffic information and dynamic driving support information.
  • engine control ECU a stop-start control ECU, a transmission control ECU, an airbag control ECU, a power steering control ECU, a hybrid control ECU, and the like.
  • patent document 1 does not relate to driving support information, hierarchical information based on the determination result according to the positional relationship (e.g. distance) and movement state (e.g. acceleration) between two user terminals Techniques for controlling transmission to user terminals are disclosed.
  • positional relationship e.g. distance
  • movement state e.g. acceleration
  • An in-vehicle device is an in-vehicle device mounted in a vehicle having an automatic driving function, and includes an allowable delay estimating unit that estimates the time until the vehicle reaches a dynamic object as an allowable delay, Based on the load status of information processing and information transmission in the vehicle, the transfer delay is estimated as the time from when the in-vehicle device receives data from outside the vehicle until the in-vehicle device transfers the data to the execution part of the autonomous driving function.
  • a transfer delay estimating unit that selects a specific analysis process from a plurality of analysis processes for analyzing data received from the outside based on the difference between the allowable delay and the transfer delay; a driving assistance information generating unit that performs selected specific analysis processing and generates driving assistance information, the data received from the outside includes information about the dynamic object, and the driving assistance information is used for the automated driving function. forwarded to the execution part.
  • An in-vehicle system is an in-vehicle system mounted in a vehicle having an automatic driving function, comprising: an executing unit for the automatic driving function; , and the in-vehicle device described above.
  • a control method is a control method for supporting an automatic driving function of a vehicle, and includes an allowable delay estimation step of estimating the time required for the vehicle to reach a dynamic object as an allowable delay; Based on the load status of information processing and information transmission in the vehicle, the time from when the in-vehicle device receives data from the outside of the vehicle to when the in-vehicle device transfers the data to the execution part of the autonomous driving function. as a transfer delay; and a determination step of selecting a specific analysis process from among a plurality of analysis processes for analyzing data received from the outside based on the difference between the allowable delay and the transfer delay.
  • a computer program includes a computer mounted on a vehicle, an allowable delay estimation function for estimating a time required for the vehicle to reach a dynamic object as an allowable delay, and information processing and information processing in the vehicle.
  • a transfer delay estimation function that estimates the time from when the computer receives data from the outside of the vehicle to when the computer transfers the data to the execution unit of the autonomous driving function as a transfer delay based on the load state of transmission, and an allowable Judgment function that selects a specific analysis process from multiple analysis processes for analyzing data received from the outside based on the difference between delay and transfer delay, and a specific analysis process selected by the judgment function
  • a computer program for realizing a driving assistance information generation function that executes and generates driving assistance information, wherein the data received from the outside includes information about a dynamic object, and the driving assistance information is the automatic driving function. forwarded to the execution part.
  • FIG. 1 is a schematic diagram showing a usage form of an in-vehicle system according to an embodiment of the present disclosure.
  • FIG. 2 is a block diagram showing the hardware configuration of the in-vehicle system shown in FIG. 1.
  • FIG. 3 is a block diagram showing the hardware configuration of the vehicle-mounted gateway shown in FIG.
  • FIG. 4 is a block diagram showing the functional configuration of the vehicle-mounted gateway shown in FIG.
  • FIG. 5 is a schematic diagram showing the processing status by the functions shown in FIG.
  • FIG. 6 is a flow chart showing processing related to generation and transfer of hierarchical information executed by the in-vehicle gateway.
  • FIG. 7 is a flowchart showing processing when each additional processing is executed in order.
  • FIG. 8 is a schematic diagram showing a situation in which the data provided to the automatic driving ECU changes according to the distance from the host vehicle to the dynamic object in the in-vehicle system of the same vehicle.
  • FIG. 9 is a plan view showing vehicles approaching an intersection and traffic conditions at the intersection over time.
  • FIG. 10 is a diagram showing an example of information presented inside the vehicle.
  • FIG. 11 is a diagram showing an example of information presented in the vehicle subsequent to FIG.
  • FIG. 12 is a diagram showing an example of information presented in the vehicle subsequent to FIG. 11.
  • FIG. 13 is a diagram showing an example of information presented in the vehicle subsequent to FIG. 12.
  • FIG. 14 is a block diagram showing the configuration of an in-vehicle system according to a modification.
  • 15 is a block diagram showing the hardware configuration of the expansion device shown in FIG. 14.
  • FIG. 14 is a block diagram showing the hardware configuration of the expansion device shown in FIG. 14.
  • the quality of driving assistance information By acquiring sensor data and analyzing it to generate and integrate dynamic information about detected objects (i.e., dynamic objects such as people and vehicles), the quality of driving assistance information, such as the level of detail and accuracy, can be improved. . On the other hand, it takes time to transmit and receive sensor data and the like, to perform analysis processing, etc., and these times become delay time. There is a trade-off relationship between the quality of the driving assistance information and the delay time, and the time range in which the driving assistance information can be applied to control vehicle travel varies depending on traffic conditions.
  • driving support information is provided to a vehicle from a server computer or the like
  • a server computer or the like if the distance between the vehicle and the dynamic object is relatively large, detailed information can be generated by taking a long time for analysis processing and provided to the vehicle.
  • the distance between the vehicle and the dynamic object is relatively small, even if the analysis process takes time to generate detailed information and provide it to the vehicle, the vehicle does not have time to effectively utilize it, and it is wasted.
  • it may take some time from the time the driving assistance information is received to the time it is actually used for example, there is a delay time in the vehicle). Therefore, when dynamic information is provided to a vehicle as driving assistance information, it is desired to provide appropriate driving assistance information at a timing when it can be used effectively, taking into consideration the delay time in the vehicle.
  • Patent Document 1 According to Patent Document 1, this request cannot be met.
  • Patent Literature 1 since the output of hierarchical information cannot be controlled according to the delay, it is difficult to apply it to highly real-time services such as vehicle driving support and automatic driving.
  • An in-vehicle device is an in-vehicle device mounted in a vehicle having an automatic driving function, and is an in-vehicle device that estimates the time until the vehicle reaches a dynamic object as an allowable delay. Based on the delay estimating unit and the information processing and information transmission load state in the vehicle, the time from when the in-vehicle device receives data from the outside of the vehicle to when the in-vehicle device transfers the data to the automatic driving function execution unit. as a transfer delay, and a determination unit that selects a specific analysis process from a plurality of analysis processes for analyzing data received from the outside based on the difference between the allowable delay and the transfer delay.
  • the in-vehicle device is not limited to one that is installed as a standard device in a vehicle having an automatic driving function, but also includes devices that can be installed later as expansion devices.
  • Autonomous driving preferably includes all levels above Level 1 (that is, driving assistance), which will be described later.
  • the data received from the outside may further include sensor data
  • the information about the dynamic object may include location information and simple attribute information of the dynamic object.
  • the driving support information generating unit may generate hierarchical driving support information including a result of executing a specific analysis process, position information, and simple attribute information as respective layers.
  • position information and simple attribute information of dynamic objects provided from outside the vehicle can be effectively used as driving support information.
  • driving support information including detailed attributes of dynamic objects By analyzing the position information and simple attribute information of the dynamic object, it is possible to generate driving support information including movement prediction of the dynamic object.
  • the driving support information includes the first layer including the analysis results of a specific analysis process that processes sensor data, and the analysis results of a specific analysis process that does not process sensor data. and a second layer comprising
  • the specific analysis processing that does not process sensor data is at least one of the analysis result of the specific analysis processing that processes sensor data and information about the dynamic object may be processed. As a result, it is possible to improve the accuracy of specific analysis processing that does not process sensor data.
  • the determination unit subtracts the transfer delay from the allowable delay to calculate the difference, and determines whether the difference is greater than a predetermined value of 0 or more. If the difference is greater than a predetermined value, a specific analysis process may be selected, and if the difference is less than or equal to the predetermined value, no specific analysis process may be selected. As a result, an appropriate specific analysis process can be selected, and wasteful processing can be suppressed.
  • the information about the dynamic object may be transferred to the execution unit together with information indicating that the transfer delay is equal to or greater than the allowable delay.
  • the automatic driving execution unit can determine whether or not to use the information on the dynamic object, and there is a possibility that the information on the dynamic object will be used.
  • the in-vehicle device further includes a storage unit that stores a processing time table that records the processing time corresponding to the amount of data to be processed for each of the plurality of analysis processes. If the difference is greater than a predetermined value, the determination unit refers to the processing time table using the data amount of the data to specify the processing time of the data, and then determines whether the processing time is equal to or less than the difference.
  • a specific analysis process may be selected by determining whether or not. As a result, an appropriate specific analysis process can be selected, and the analysis result can be effectively used for vehicle travel control.
  • the processing time table further includes an acquisition time for newly acquiring sensor data to be processed, with respect to the analysis processing that targets sensor data among the plurality of analysis processing.
  • the determination unit refers to the processing time table and determines whether or not the total value of the specified processing time and acquisition time is equal to or less than the difference. processing may be selected. As a result, even when sensor data is newly acquired and analyzed, an appropriate specific analysis process can be selected, and analysis results can be effectively used for vehicle travel control.
  • An in-vehicle system is an in-vehicle system mounted in a vehicle having an automatic driving function, and acquires data including information about an executing unit of the automatic driving function and a dynamic object. and an in-vehicle device according to any one of (1) to (8) above.
  • the communication unit may further transmit the driving support information generated by the in-vehicle device to the other vehicle along with information on the position and traveling direction of the vehicle. As a result, it is possible to control the running of the vehicle using the driving support information without executing analysis processing in the other vehicle.
  • the determination unit of the in-vehicle device may estimate the communication time of the driving support information transmitted from the communication unit, and A specific analysis process may be selected from among a plurality of analysis processes based on. As a result, an appropriate specific analysis process can be selected, and useless analysis can be suppressed.
  • a control method is a control method for supporting an automatic driving function of a vehicle, and includes an allowable delay estimation for estimating a time required for the vehicle to reach a dynamic object as an allowable delay.
  • the in-vehicle device installed in the vehicle receives data from the outside of the vehicle, and then the in-vehicle device transfers the data to the execution unit of the automatic driving function.
  • a specific analysis process is selected from a plurality of analysis processes for analyzing data received from the outside based on a transfer delay estimation step of estimating the time to as a transfer delay and the difference between the allowable delay and the transfer delay.
  • driving support information that is hierarchized in appropriate layers within the own vehicle according to the time it takes for the own vehicle to reach the dynamic object, that is, the distance between the own vehicle and the dynamic object.
  • the assistance information can be used for running control of the own vehicle.
  • a computer program includes a computer mounted on a vehicle, an allowable delay estimation function for estimating the time until the vehicle reaches a dynamic object as an allowable delay, and information in the vehicle Transfer delay estimation function that estimates the time from when the computer receives data from the outside of the vehicle until the computer transfers the data to the execution part of the autonomous driving function as a transfer delay based on the load state of processing and information transmission.
  • driving support information that is hierarchized in appropriate layers within the own vehicle according to the time it takes for the own vehicle to reach the dynamic object, that is, the distance between the own vehicle and the dynamic object.
  • the assistance information can be used for running control of the own vehicle.
  • an in-vehicle system 100 is installed in a vehicle 102.
  • the in-vehicle system 100 communicates with infrastructure sensors 104 fixedly installed on roads (including intersections) and their surroundings (hereinafter also referred to as roadsides), and receives sensor data and dynamic information as analysis results thereof. do.
  • the in-vehicle system 100 communicates with in-vehicle systems 110 onboard other vehicles 112 to receive sensor data and dynamic information from onboard sensors.
  • the in-vehicle system 100 also communicates with a traffic light 106 to acquire information about the state of the traffic light (hereinafter referred to as signal information). These communications may be communications via the base station 108 or direct communications not via the base station 108 .
  • the base station 108 provides mobile communication services through, for example, 4G (ie, 4th generation mobile communication system) lines and 5G (ie, 5th generation mobile communication system) lines.
  • Base station 108 is connected to network 114 .
  • Infrastructure sensors 104 and traffic lights 106 may also be connected to network 114 .
  • the in-vehicle system 100 and the in-vehicle system 110 also have a function of communicating directly with each other without going through the base station 108 (that is, V2V (Vehicle to Vehicle)).
  • Wi-Fi communication for example, is used for mutual communication that does not involve the base station 108 .
  • a pedestrian 900, a vehicle 102, and a vehicle 112 shown in FIG. Pedestrian 900 is also a detection target of sensors mounted on vehicle 102 and vehicle 112 .
  • the infrastructure sensor 104 is installed on the roadside, is a device equipped with a function of acquiring roadside information, and has a communication function with the base station 108 .
  • the infrastructure sensor 104 is, for example, an image sensor (such as a digital surveillance camera), a radar (such as a millimeter wave radar), or a laser sensor (such as LiDAR (Light Detection And Ranging)). Note that the infrastructure sensor 104 may be equipped with or connected to a roadside device having a computing function.
  • the sensor data acquired by the sensors mounted on each of the vehicles 102 and 112 are analyzed by the in-vehicle system 100 and the in-vehicle system 110, and the analysis results are stored as dynamic information.
  • Dynamic information is used in self-driving functions of the ego vehicle.
  • Autonomous driving is classified into Level 1 to Level 5 according to the driving subject (ie, human or system) and the driving area (ie, limited or unrestricted).
  • Automated driving for which dynamic information can be used is not limited to level 4 or higher fully automated driving (i.e., the system is the main driving force without a human being driving), as well as level 1 and It is preferable to include Level 2 as well as Conditional Autonomous Driving (ie Level 3).
  • automated driving for which dynamic information can be used may be any of level 1 to level 5 automated driving, or any of level 1 to level 5 automated driving.
  • sensor data and dynamic information may be communicated to and from in-vehicle system 100 and in-vehicle system 110 as described above.
  • the in-vehicle system 100 and the in-vehicle system 110 also mutually communicate information of the vehicle in which they are installed (eg, position information, speed information, traveling direction information, etc.).
  • position information, speed information, traveling direction information, and the like are also simply referred to as position, speed, and traveling direction, respectively.
  • Vehicle information may be used to identify the location and orientation at which sensor data transmitted from the vehicle was obtained.
  • Dynamic information is information about dynamic objects detected by sensors (that is, infrastructure sensors and in-vehicle sensors). Dynamic objects are not limited to moving objects (eg, people, vehicles, etc.), but also include stationary objects that have the ability to move.
  • the dynamic information may include information about the dynamic object itself (hereinafter referred to as attributes) and information about the displacement of the dynamic object (eg, position, moving speed, moving direction, time, etc.).
  • the dynamic information is used for generating driving assistance information, which will be described later.
  • the driving support information for use in automatic driving of the own vehicle may be related to a predetermined area including the travel route of the own vehicle (that is, the road on which the vehicle is scheduled to travel).
  • Attributes are classified into, for example, simple attributes (hereinafter referred to as simple attributes) and detailed attributes (hereinafter referred to as detailed attributes).
  • Simple attributes are for coarse classification of dynamic objects and include, for example, people, bicycles, motorcycles and automobiles.
  • the detailed attribute is for classifying the dynamic object in detail and includes the state of the dynamic object. For example, if the simple attribute is "person", the detailed attribute may include child, adult, elderly, etc., and may further include so-called walking smartphone (i.e., looking at smartphone while walking), ignoring traffic lights, etc. .
  • the simple attribute is "automobile”
  • its detailed attributes may include, for example, general vehicles, large vehicles, etc., and may further include buses, taxis, emergency vehicles (eg, ambulances and fire trucks), distracted driving, and the like. Note that simple attributes and detailed attributes are not limited to these, and may include arbitrary attributes.
  • the time information is, for example, the generation time of position information, movement speed information, movement direction information, and the like.
  • Dynamic information may also include predictive information. For example, if the in-vehicle system 100 and the in-vehicle system 110 have a prediction function, a future (for example, current within a predetermined time) can be predicted. They may be included in the dynamic information.
  • FIG. 1 exemplarily shows one base station 108, one infrastructure sensor 104, one traffic light 106, and two vehicles 102 and 112 equipped with in-vehicle systems. But this is only an example. Usually, a plurality of base stations are provided, and an in-vehicle system is installed in three or more vehicles. There may be vehicles that are not equipped with an in-vehicle system. Vehicles without on-board systems are detected as dynamic objects.
  • FIG. 2 an example of a hardware configuration of in-vehicle system 100 installed in vehicle 102 is shown.
  • An in-vehicle system 110 installed in a vehicle 112 is similarly configured.
  • the in-vehicle system 100 includes a communication unit 120 , an in-vehicle gateway 122 , a sensor 124 , an automatic driving ECU 126 , an ECU 128 and a bus 130 .
  • the in-vehicle system 100 includes a plurality of ECUs in addition to the automatic driving ECU 126, and FIG. 2 shows the ECU 128 as a representative of them.
  • the communication unit 120 performs wireless communication with an external device of the vehicle 102 (for example, communication with the in-vehicle system 110 via the base station 108).
  • the communication unit 120 includes an IC for modulation and multiplexing employed in wireless communication, an antenna for transmitting and receiving radio waves of a predetermined frequency, an RF circuit, and the like.
  • the communication unit 120 also has a function of communicating with GNSS (Global Navigation Satellite System) such as GPS (Global Positioning System).
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the communication unit 120 may also have a communication function such as Wi-Fi.
  • the in-vehicle gateway 122 which is an in-vehicle device, plays a role (that is, communication protocol conversion, etc.) that connects the communication function (that is, communication specification) with the outside of the vehicle and the communication function (that is, communication specification) inside the vehicle.
  • the automatic driving ECU 126 can communicate with external devices via the in-vehicle gateway 122 and the communication unit 120 .
  • the in-vehicle gateway 122 acquires dynamic information and sensor data used for generating the dynamic information among information received from the outside via the communication unit 120, and generates and updates driving support information as described later.
  • the driving assistance information is transmitted to the automatic driving ECU 126 .
  • the bus 130 has a communication function in the vehicle, and communication (data exchange) between the in-vehicle gateway 122 , the sensor 124 , the automatic driving ECU 126 and the ECU 128 is performed via the bus 130 .
  • CAN Controller Area Network
  • CAN Controller Area Network
  • the sensor 124 is mounted on the vehicle 102 and is a sensor for acquiring information outside the vehicle 102 (for example, a video imaging device (for example, a digital camera (for example, a CCD camera, a CMOS camera)), a laser sensor (for example, a LiDAR), or the like. ), and sensors for obtaining information on the vehicle itself (for example, an acceleration sensor, a load sensor, etc.).
  • the sensor 124 acquires information within a detection range (for example, an imaging range in the case of a camera) and outputs it as sensor data.
  • a digital camera outputs digital image data.
  • a detection signal (that is, an analog or digital signal) of the sensor 124 is output as digital data to the bus 130 via an I/F unit (not shown), and transmitted to the in-vehicle gateway 122, the automatic driving ECU 126, and the like.
  • the automatic driving ECU 126 controls the running of the vehicle 102.
  • the automatic driving ECU 126 acquires sensor data, analyzes it to grasp the situation around the vehicle, and controls mechanisms related to automatic driving (for example, mechanisms such as the engine, transmission, steering, brakes, etc.).
  • the automatic driving ECU 126 uses the driving support information acquired from the in-vehicle gateway 122 for automatic driving.
  • in-vehicle gateway 122 includes control unit 140 and memory 142 .
  • the control unit 140 includes a CPU (Central Processing Unit) and controls the memory 142 .
  • the memory 142 is, for example, a rewritable non-volatile semiconductor memory, and stores computer programs (hereinafter simply referred to as programs) executed by the control unit 140 .
  • Memory 142 provides a work area for programs executed by control unit 140 .
  • the control unit 140 acquires data to be processed directly from the communication unit 120 and acquires data other than the communication unit 120 via the bus 130 .
  • Control unit 140 stores the processing result in memory 142 and outputs it to bus 130 .
  • the vehicle 102 shown in FIG. 1 is the host vehicle, and the vehicle 112 traveling in front of the vehicle 102 is the other vehicle.
  • the in-vehicle system 100 acquires the position and simple attribute of a dynamic object as dynamic information from an external device (for example, the infrastructure sensor 104, the in-vehicle system 110, etc.). Locations and simple attributes can be sent with attached sensor data that was analyzed when they were generated. That is, the vehicle 102 may receive dynamic information only (ie, location and simple attributes), sensor data only, or dynamic information and corresponding sensor data.
  • the in-vehicle gateway 122 includes a storage unit 200 , an allowable delay estimation unit 202 , a determination unit 204 , a transfer delay estimation unit 206 , an additional analysis processing unit 208 and an output unit 210 .
  • Storage unit 200 stores data received by communication unit 120 and sensor data of sensor 124 input via bus 130 . Data input from the communication unit 120 includes dynamic information (ie, position and simple attributes), sensor data, signal information, position information of the host vehicle, and the like.
  • Storage unit 200 is realized by memory 142 in FIG. Other functions, which will be described later, are implemented by the control unit 140 .
  • the additional analysis processing unit 208 and the output unit 210 constitute a driving support information generation unit.
  • the allowable delay Tp is the predicted time until the host vehicle reaches the dynamic object. For the time of the dynamic object, the reception time of the dynamic information (ie location and simple attributes) (eg the time the packet data was received and configured as dynamic information) can be used.
  • the speed of the own vehicle is obtained from a driving unit (that is, a control target of the automatic driving ECU 126) for running the own vehicle.
  • a driving unit that is, a control target of the automatic driving ECU 1266 for running the own vehicle.
  • the speed V of the own vehicle for example, the current speed, the average speed in the most recent predetermined time period, or the like can be used.
  • the distance L may be a straight-line distance, but is preferably a distance along a road on which the vehicle is to travel. Allowable delay estimation section 202 outputs the estimated allowable delay Tp to determination section 204 .
  • the transfer delay estimating unit 206 observes the load state of information processing and information transmission in the own vehicle, and calculates the delay time (hereinafter referred to as transfer delay ) is estimated.
  • the transfer delay is, for example, the time from when the in-vehicle gateway 122 starts transferring the data received by the communication unit 120 to the autonomous driving ECU 126 until the autonomous driving ECU 126 completes receiving the data.
  • the transfer delay Tt depends on the empty state of the bus 130 (that is, the state in which no data transfer is being performed via the bus 130 and corresponds to the load state of information transmission), the information processing load state of the control unit 140 itself, and the like. depends on For example, when the bus 130 is CAN, a multi-master method and an event-driven method are adopted.
  • the transfer delay estimating unit 206 (that is, the control unit 140) observes the load state of the bus 130 (that is, presence or absence of an empty state) in addition to the load state of the control unit 140 itself, and determines the load state of information processing and information transmission. can be estimated. For example, if the transmission right has been acquired, the load state of information transmission can be estimated by observing the priority of the node. Transfer delay estimation section 206 outputs the estimated transfer delay Tt to determination section 204 .
  • the determining unit 204 uses the allowable delay Tp input from the allowable delay estimating unit 202 and the transfer delay Tt input from the transfer delay estimating unit 206 to obtain the dynamic information (that is, position and simple attribute) and further analysis of the sensor data (hereinafter referred to as additional analysis) is possible. Specifically, the determination unit 204 determines whether or not the allowable delay Tp is greater than the transfer delay Tt (that is, Tp>Tt). If the allowable delay Tp is less than or equal to the transfer delay Tt (ie, Tp ⁇ Tt), there is no time for additional analysis. However, if the allowable delay Tp is greater than the transfer delay Tt (that is, Tp>Tt), there is time for additional analysis.
  • the determination unit 204 selects a process to be executed from a plurality of predetermined additional analysis processes based on the difference (that is, Tp-Tt).
  • the determination unit 204 outputs information for specifying the selected additional analysis processing (hereinafter referred to as analysis processing specification information) to the additional analysis processing unit 208 .
  • the determination unit 204 selects the additional analysis process to be executed by determining whether each additional analysis process will be completed within Tp-Tt.
  • the additional analysis processing includes analysis processing for sensor data and analysis processing for data other than sensor data (for example, dynamic information, hereinafter also referred to as non-sensor data). included. Even with the same analysis process, the larger the amount of data to be processed, the longer the processing time. Therefore, for example, a processing time table 212 in which the amount of data to be processed and the processing time are associated with each additional analysis processing is stored in the storage unit 200 in advance. Accordingly, as will be described later, appropriate additional analysis processing can be selected, and analysis results can be effectively used for vehicle travel control.
  • driving support information including a layer (that is, the first layer) including detailed attributes of the dynamic object and a layer (that is, the second layer) that includes movement prediction etc. of the dynamic object as different layers.
  • the driving support information can be provided to the automatic driving ECU and used efficiently.
  • the determination unit 204 reads the processing time ⁇ i corresponding to the combination of the additional analysis process i and the data amount from the processing time table 212 and determines whether ⁇ i ⁇ Tp ⁇ Tt. If ⁇ i ⁇ Tp ⁇ Tt, the additional analysis process i is selected because it can be completed within Tp ⁇ Tt.
  • the order of additional analysis processing for determining whether ⁇ i ⁇ Tp ⁇ Tt is satisfied is arbitrary. For example, a process for sensor data may be determined preferentially, or a process for non-sensor data may be determined preferentially. Alternatively, the process with the shorter processing time may be preferentially determined, or the process with the longer processing time may be preferentially determined.
  • ⁇ i ⁇ Tp ⁇ Tt ⁇ j may be determined for an additional analysis process i different from the additional analysis process j.
  • ⁇ j is replaced with ⁇ j and determination is made in the same way.
  • means an operator that calculates the sum of the processing times ⁇ j of the already selected additional analysis processing.
  • the processing time also changes depending on the computational resource. Therefore, the processing time table 212 may associate a combination of the amount of data to be processed and the calculation resource with the processing time for each additional analysis process. In that case, the processing time ⁇ i corresponding to the combination of the additional analysis process i, the data amount, and the computational resource may be read from the processing time table 212, and the magnitude of Tp-Tt may be determined in the same manner as described above.
  • the additional analysis processing unit 208 includes multiple functions for analyzing dynamic information and sensor data (that is, additional analysis processing).
  • a plurality of analysis functions are realized by the first to Nth processing units.
  • the analysis processes executed by the first to Nth processing units are hierarchized according to their types, and the analysis results are also hierarchized. For example, the first to Nth processing units are classified (for example, hierarchized) into processing for analyzing sensor data and processing for analyzing non-sensor data.
  • the first processing unit and the second processing unit analyze sensor data.
  • the first processing unit and the second processing unit read and analyze the original sensor data in which the dynamic object included in the dynamic information (that is, position and simple attribute) is detected from the storage unit 200, Generate detailed information about dynamic objects. For example, if the simple attribute of the dynamic object is a person, the first processing unit detects (that is, specifies) whether it is a child, an adult, an old person, etc. to detect whether For example, if the simple attribute of the dynamic object is an automobile, the first processing unit detects whether it is a general vehicle, a large vehicle, etc., and the second processing unit detects whether it is a bus, taxi, emergency vehicle, distracted driving, etc. to detect whether When reading the signal information from the storage unit 200, the second processing unit may detect signal ignoring by people or vehicles.
  • processing units other than the first processing unit and the second processing unit analyze non-sensor data.
  • the third to fifth processing units read dynamic information (i.e., position and simple attributes) and signal information from the storage unit 200, , vehicles, etc.). This analysis result is called "movement prediction".
  • the third processing unit analyzes changes in the position of the same dynamic object stored in the storage unit 200 over time, and predicts the movement area of the dynamic object after t seconds.
  • the fourth processing unit uses the signal information to detect the current behavior of the dynamic object (for example, ignoring the signal).
  • the fifth processing unit uses the signal information to predict the behavior of the dynamic object after t seconds (for example, the possibility of collision).
  • the analysis results of the fourth processing unit and the fifth processing unit are called "traffic situation prediction".
  • the traffic condition prediction may include the result of detecting the current traffic condition (for example, traffic jam, accident, etc.) and predicting the traffic condition after t seconds.
  • the additional analysis processing unit 208 executes additional analysis processing specified by the analysis processing specifying information input from the determination unit 204 as described above. That is, the additional analysis processing unit 208 executes the processing unit specified by the analysis processing specifying information among the first to Nth processing units. The additional analysis processing unit 208 outputs the processing result obtained by the executed processing unit to the output unit 210 .
  • the output unit 210 reads the dynamic information (that is, the position and simple attributes) from the storage unit 200, generates hierarchical driving support information together with the analysis results input from the additional analysis processing unit 208, and automatically drives the vehicle. Output to the ECU 126 . That is, the additional analysis processing unit 208 and the output unit 210 constitute a driving support information generation unit. As a result, hierarchical driving assistance information corresponding to the predicted time (that is, allowable delay) until the host vehicle reaches the dynamic object is generated and transferred to the automatic driving ECU 126 . Therefore, the automatic driving ECU 126 can appropriately control the running of the own vehicle using the driving support information.
  • the data received from the outside includes dynamic information and sensor data
  • the information about the dynamic object includes the position and simple attributes of the dynamic object
  • the driving support information generation unit performs additional analysis processing. and a position and a simple attribute as each layer.
  • the position and simple attributes of the dynamic object provided from outside the vehicle can be effectively used as driving support information.
  • driving support information including detailed attributes of dynamic objects.
  • driving support information including movement prediction of the dynamic object.
  • an in-vehicle system 100 mounted in a vehicle 102 receives dynamic information (i.e. position information) of a dynamic object (i.e. a pedestrian 900) from an infrastructure sensor 104 and a vehicle 112 (specifically, an in-vehicle system 110). , simple attributes) and sensor data.
  • the dynamic information is generated by analyzing sensor data (for example, imaging data), and the sensor data includes dynamic objects.
  • Dynamic information and sensor data are stored in memory 142 of in-vehicle gateway 122 in in-vehicle system 100 .
  • in-vehicle system 100 also receives signal information from traffic lights.
  • the allowable delay estimating unit 202 calculates the allowable delay Tp according to the distance L from the own vehicle (that is, the vehicle 102) to the dynamic object (that is, the pedestrian 900) and the speed V of the own vehicle.
  • the transfer delay Tt is calculated by the delay estimator 206 in consideration of the load state of the own vehicle.
  • the determination unit 204 selects an executable additional analysis process, and the additional analysis processing unit 208 reads the selected additional analysis process from the storage unit 200 (that is, the memory 142). data.
  • data Thereby, for example, detailed attributes are generated as a result of analyzing the sensor data.
  • movement prediction and traffic situation prediction for example, are generated as a result of analysis processing of non-sensor data (eg, position information, simple attributes, and signal information).
  • Driving support information is generated by layering the processing results (for example, detailed attributes, movement prediction, and traffic situation prediction), and the position and simple attributes (see inside the dashed line) read from the storage unit 200 (that is, the memory 142), It is transferred to the automatic driving ECU 126 .
  • the driving support information transferred to the automatic driving ECU 126 is hierarchical information generated in consideration of delay times (for example, allowable delay, transfer delay, and analysis processing time) as described above. Therefore, the automatic driving ECU 126 can effectively use the driving support information to control the running of the own vehicle.
  • in-vehicle gateway operation Referring to FIG. 6, the operation of in-vehicle gateway 122 will be described with reference to the functions shown in FIG. The processing shown in FIG. 6 is implemented by control unit 140 shown in FIG. 3 reading out a predetermined program from memory 142 and executing it.
  • step 300 the control unit 140 determines whether or not the communication unit 120 has received data. If so, control passes to step 302 . Otherwise, step 300 is repeated.
  • the control unit 140 stores the received data in the memory 142 .
  • the received data includes sensor data transmitted from infrastructure sensors 104 and other vehicles 112 , dynamic information, and signal information transmitted from traffic lights 106 .
  • control unit 140 determines whether dynamic information has been received. If so, control passes to step 306 . Otherwise control passes to step 320 .
  • the control unit 140 estimates the allowable delay Tp. Specifically, from the distance L from the host vehicle to the dynamic object and the speed V of the host vehicle, the predicted time (that is, L/V) until the vehicle reaches the dynamic object is calculated, and the calculated time is calculated as the allowable delay Tp. and This corresponds to the function of the allowable delay estimator 202 (see FIG. 4) described above. Control then passes to step 308 .
  • control unit 140 estimates the transfer delay Tt. Specifically, the load state in the own vehicle is observed, the time required to transfer the driving support information to the automatic driving ECU 126 is calculated, and the transfer delay Tt is calculated. This corresponds to the function of the transfer delay estimator 206 (see FIG. 4) described above. Control then passes to step 310 .
  • control unit 140 determines whether the allowable delay Tp estimated at step 306 is greater than the transfer delay Tt estimated at step 308 (that is, Tp>Tt). This corresponds to the function of the determination unit 204 (see FIG. 4) described above. If so, control passes to step 312 . Otherwise (ie, Tp ⁇ Tt), control passes to step 320 .
  • control unit 140 refers to the processing time table 212 (see FIG. 4) and acquires the processing time ⁇ i corresponding to the amount of data to be processed for each additional analysis process. This corresponds to the function of the determination unit 204 (see FIG. 4) described above.
  • step 314 the control unit 140 identifies one additional analysis process or multiple additional analysis processes that can be completed within the time represented by the allowable delay Tp minus the transfer delay Tt (ie, Tp-Tt). . Specifically, the control unit 140 determines whether or not the sum of the processing times of one or more additional analysis processes is equal to or less than Tp-Tt. This corresponds to the function of the determination unit 204 (see FIG. 4) described above.
  • the control unit 140 executes the additional analysis process selected at step 314 . This corresponds to the function of the additional analysis processing unit 208 (see FIG. 4) described above.
  • the control unit 140 may execute these additional analysis processes by multitasking.
  • the analysis results are stored in the memory 142 as appropriate. If it cannot be executed due to multitasking, it may be executed, for example, according to the flowchart shown in FIG. 7, which will be described later.
  • step 318 the control unit 140 transfers the analysis result obtained in step 316 to the automatic driving ECU 126 as driving support information.
  • the control unit 140 reads the dynamic information (i.e., position and simple attributes) stored in the memory 142, generates hierarchical driving support information together with the processing result of step 316, Transfer to the automatic driving ECU 126 .
  • This corresponds to the function of the output section 210 (FIG. 4) described above.
  • the automatic driving ECU 126 uses the transferred analysis results for running control of the host vehicle.
  • control unit 140 determines whether or not an end instruction has been received. If it is determined that an end instruction has been received, this program ends. Otherwise, control returns to step 300 and the above process is repeated.
  • the end instruction is made, for example, by turning off a power supply installed in the vehicle 102 .
  • the in-vehicle gateway 122 when it receives dynamic information (that is, position and simple attributes), it can perform additional analysis processing selected based on the allowable delay Tp and provide the analysis results to the autonomous driving ECU 126.
  • the additional analytical processing performed varies depending on the distance of the dynamic object from the ego vehicle. That is, if the distance from the host vehicle to the dynamic object is relatively large, the automatic driving ECU 126 can acquire detailed attributes, prediction information, and the like, and travel control that predicts the state ahead of the host vehicle becomes possible. In addition, information such as warning can be provided to the driver in advance. When the host vehicle approaches a dynamic object, the automatic driving ECU 126 cannot acquire detailed attributes, prediction information, etc., but can perform travel control using the position and simple attributes.
  • step 310 determines NO
  • the process proceeds to step 320, but the present invention is not limited to this.
  • received dynamic information ie, location and simple attributes
  • the additional analysis processing does not include prediction processing such as movement prediction.
  • the received dynamic information may be transferred to the automatic driving ECU 126 together with the information indicating that the transfer delay Tt is equal to or greater than the allowable delay Tp.
  • the automatic driving ECU 126 can determine whether or not the dynamic information should be used, and the dynamic information can be used.
  • step 310 it is determined whether or not the allowable delay Tp is greater than the transfer delay Tt, but the present invention is not limited to this. Even if Tp>Tt, if the difference is small, there is no room to perform additional analysis processing. Therefore, it is preferable to determine whether the difference between Tp and Tt is equal to or greater than a predetermined value equal to or greater than 0.
  • the predetermined value for example, the minimum value of the processing time of a plurality of planned additional analysis processes can be used. As a result, an appropriate additional analysis process can be selected, and unnecessary execution of steps 312 and 314 can be suppressed.
  • the case of analyzing the sensor data stored in the memory 142 has been described as the additional analysis processing of the sensor data, but it is not limited to this.
  • the dynamic information (ie, location and simple attributes) received by the in-vehicle system 100 may not be accompanied by sensor data.
  • the in-vehicle gateway 122 preferably acquires new sensor data and analyzes it to detect detailed attributes. Such processing will be described with reference to FIG.
  • the processing time table 212 also stores the data reception time. For example, with regard to additional analysis processing that targets sensor data, whether or not it can be executed by determining whether the total value of the processing time and the data reception time is less than or equal to the difference between the allowable delay and the transfer delay can determine whether or not Accordingly, even when sensor data is newly received, appropriate additional analysis processing can be selected.
  • control unit 140 designates one of the additional analysis processes identified at step 314 . Control then passes to step 402 .
  • control unit 140 determines whether or not the additional analysis process specified at step 400 is a process that targets sensor data (that is, sensor data process). If so, control passes to step 404 . Otherwise (ie, non-sensor data processing), control passes to step 408 .
  • the control unit 140 determines whether sensor data including dynamic objects included in the dynamic information is stored in the memory 142 or not.
  • infrastructure sensors 104, in-vehicle systems 110, etc. may transmit dynamic information and corresponding sensor data.
  • the sensor data is stored in memory 142 . If so, control passes to step 408 . Otherwise control passes to step 406 .
  • the control unit 140 transmits a transmission request for sensor data including dynamic objects to the external device, and receives sensor data transmitted as a response.
  • the control unit 140 requests transmission of sensor data from infrastructure sensors located near the position of the dynamic object (eg, stored as dynamic information in the memory 142).
  • the control unit 140 may specify the time at which the sensor data was stored and make a transmission request.
  • the control unit 140 requests the sensor data of the time period including the acquisition time of the dynamic information stored in the memory 142 . This increases the possibility of obtaining sensor data that includes the target dynamic object.
  • the control unit 140 may request the in-vehicle system of a vehicle running near the position of the dynamic object to transmit sensor data.
  • the control unit 140 executes the additional analysis processing specified at step 400 .
  • the additional analysis processing is processing for analyzing sensor data, and if sensor data has been acquired in step 406, the sensor data is analyzed. Note that if the sensor data cannot be received within the predetermined time in step 406, the additional analysis processing is not executed.
  • step 410 the control unit 140 determines whether or not additional analysis processing remains to be executed. If so, control returns to step 400 . Otherwise, control returns to the flow chart of FIG. 6 and transfers to step 318 .
  • step 400 additional analysis processing is newly specified so as not to duplicate the already executed additional analysis processing, and the above processing is repeated.
  • the sensor data can be received from the external device, and the received data can be analyzed to detect detailed attributes. Even when sensor data is newly acquired and analyzed, appropriate specific analysis processing can be selected, and analysis results can be effectively used for vehicle travel control.
  • each specified additional analysis process is executed in step 316, but the present invention is not limited to this.
  • Each identified additional analysis process may be performed each time an executable additional analysis process is identified. For example, instead of steps 314 and 316, for any one additional analysis process, determine whether the process can be completed during Tp-Tt, and if so, perform the process. It is determined whether another additional analysis process can be completed within the value obtained by subtracting the processing time required for the executed additional analysis process from Tp ⁇ Tt (that is, time), and if possible, the process is performed. to run. By repeating this, multiple additional analysis processes can be performed.
  • step 318 of FIG. 6 the case where the received dynamic information is transferred to the automatic driving ECU 126 together with the result of the additional analysis processing has been described, but the present invention is not limited to this.
  • the process of transferring the received dynamic information to the automatic driving ECU 126 and the selected additional analysis process may be executed in parallel.
  • new data for example, dynamic information
  • the automatic driving ECU 126 can quickly reflect the transferred data in the running control of the host vehicle.
  • the results of additional analysis processing of sensor data may be the target of additional analysis processing of non-sensor data. That is, the non-sensor data additional analysis process can be executed with at least one of the result of the sensor data additional analysis process and the dynamic information as the processing target. For example, detailed attributes are obtained as a result of additional analytical processing of the sensor data. Detailed attributes may be added to dynamic information (ie, location and simple attributes) to generate data to be processed, and additional analysis processing may be performed to obtain movement prediction and traffic situation prediction. This can improve the accuracy of additional analysis processing of non-sensor data.
  • FIG. 8 shows allowable delays T1 to T4 calculated according to the distance between the moving vehicle and the moving object. As the vehicle 102 approaches the pedestrian 900, the allowable delay decreases in order from T1 to T4. In FIG. 8, the position and the simple attribute are collectively described as position/simple attribute.
  • the additional analysis processing that can be selected is the analysis processing that obtains each of the detailed attributes, movement prediction, and traffic condition prediction, and their processing time is the analysis processing that generates the detailed attributes, movement prediction, and traffic condition prediction.
  • Tp the allowable delay
  • In-vehicle gateway 122 of vehicle 102A performs additional analytical processing to generate detailed attributes, travel predictions, and traffic condition predictions.
  • Hierarchical driving support information is generated using these analysis results and the position/simple attributes received from an external device such as the infrastructure sensor 104 .
  • the generated driving support information is transferred to the automatic driving ECU 126 and stored in the memory 142 .
  • the in-vehicle gateway 122 performs additional analysis processing to generate detailed attributes and movement predictions. Execute. In-vehicle gateway 122 of vehicle 102B does not perform additional analytical processing to generate traffic condition predictions.
  • Hierarchical driving support information is generated using the analysis results (that is, detailed attributes and movement prediction) and position/simple attributes. The generated driving support information is transferred to the automatic driving ECU 126 .
  • the solid right arrow indicates that the corresponding information is generated and updated during that time, and the broken right arrow indicates that the corresponding information is not generated and updated during that time. Information indicated by dashed lines represents information that is not updated.
  • the in-vehicle gateway 122 performs additional analysis processing to generate detailed attributes. . In-vehicle gateway 122 of vehicle 102C does not perform additional analytical processing to generate movement and traffic predictions.
  • Hierarchical driving support information is generated using the analysis results (that is, detailed attributes) and the position/simple attributes. The generated driving support information is transferred to the automatic driving ECU 126 .
  • the in-vehicle gateway 122 does not perform any additional analysis processing.
  • the position/simple attributes received from the outside are transferred to the automatic driving ECU 126 as driving support information.
  • the driving support information used for driving control of the vehicle changes.
  • the automatic driving ECU 126 By providing the automatic driving ECU 126 with driving support information that changes according to the driving conditions of the vehicle, the driving of the vehicle is appropriately controlled.
  • the in-vehicle system 100 can appropriately present information to the driver using the driving support information.
  • FIGS. 9 to 13 An example in which the information presented by the in-vehicle system 100 changes will be described with reference to FIGS. 9 to 13.
  • FIG. 9 shows the vehicles 102A to 102D and the pedestrians 900A to 900D shown in FIG. 8 two-dimensionally, that is, on a road map.
  • a traffic light and infrastructure sensor 104 are placed at the intersection 910 .
  • FIG. 9 shows a state where the traffic light 106a for vehicles is green and the traffic light 106b for pedestrians is red.
  • Pedestrians 900 that is, pedestrians 900A to 900D
  • cross the pedestrian crossing that is, pedestrians 900A to 900D
  • the in-vehicle system 100 of the vehicle 102 presents information to the driver as time elapses, as shown in FIGS. 10 to 13, for example.
  • the driving assistance information generated by the in-vehicle gateway 122 of the vehicle 102A traveling at a position where the distance to the dynamic object (that is, the pedestrian 900A) is large contains detailed attributes, movement predictions and traffic situation predictions that are the result of the analysis, and received dynamic information (ie location and simple attributes).
  • the in-vehicle system 100 displays the current walking distance on a map near the intersection 910 as shown in FIG. A figure 920A showing a person (that is, a pedestrian 900A) is displayed.
  • In-vehicle system 100 detects a dangerous situation (walking at intersection 910 in the direction in which the vehicle is traveling) because figure 920A is on a pedestrian crossing even though traffic light 106b is red. person) can be identified. Therefore, in-vehicle system 100 displays warning message 230 . Furthermore, the in-vehicle system 100 displays a graphic 922 showing the dynamic object after t1 seconds included in the movement prediction. In FIG. 10, graphics representing current dynamic objects are displayed with solid lines, and graphics representing future dynamic objects identified from movement prediction are displayed with dashed lines (the same applies to FIGS. 11 to 13).
  • the driving assistance information generated by the in-vehicle gateway 122 of the vehicle 102B becomes the analysis result. Includes attributes and movement predictions and received dynamic information (ie location and simple attributes). Based on the dynamic information (ie location and simple attributes), the in-vehicle system 100 displays a graphic 920B showing the current pedestrian (ie pedestrian 900B) on the map as shown in FIG. In-vehicle system 100 can identify that the dangerous condition continues because graphic 920B is on a crosswalk, and maintains message 230 being displayed. Further, in-vehicle system 100 uses movement prediction to display graphic 924 showing future pedestrians (eg, dynamic objects after t2 seconds).
  • the driving assistance information generated by the in-vehicle gateway 122 of the vehicle 102C is the analysis result.
  • the in-vehicle system 100 displays a graphic 920C showing the current pedestrian (ie pedestrian 900C) on the map as shown in FIG.
  • In-vehicle system 100 can identify that the dangerous condition continues because graphic 920C is on a pedestrian crossing, and maintains message 230 being displayed. Since no motion prediction is generated, in FIG. 12 the same graphic 924 as in FIG. 11 is maintained.
  • the driver of the vehicle can know that pedestrians are still ignoring the traffic lights and crossing the crosswalk at the intersection 910 ahead, and it is necessary to drive carefully. It turns out that there is
  • the in-vehicle gateway 122 of the vehicle 102D does not perform additional analysis processing. Therefore, the only real-time information included in the driving assistance information is the received dynamic information (ie location and simple attributes). Based on the dynamic information (ie location and simple attributes), the in-vehicle system 100 displays a graphic 920D showing the current pedestrian (ie pedestrian 900D) on the map as shown in FIG. Since graphic 920D is on the sidewalk, in-vehicle system 100 can determine that the situation is no longer in danger, and erases message 230 that was displayed. Thus, the driver of the vehicle knows that at the intersection 910 ahead, the danger has passed and the pedestrian has finished crossing the pedestrian crossing.
  • the in-vehicle gateway 122 generates hierarchical driving assistance information according to the predicted time (that is, allowable delay) for the vehicle 102 to reach the dynamic object.
  • the in-vehicle system 100 can present and warn the driver of the vehicle that a dangerous situation has occurred.
  • the type (that is, hierarchy) of information to be included in the driving assistance information changes according to the allowable delay. Therefore, the in-vehicle system 100 can appropriately perform driving assistance without generating useless information for the own vehicle.
  • the pedestrian is a dynamic object
  • Any moving object that may be damaged by a vehicle collision can be detected, including a person riding a bicycle, an animal, or the like.
  • the in-vehicle gateway 122 which is an in-vehicle device standardly installed in the in-vehicle system 100, generates the driving assistance information
  • the present invention is not limited to this.
  • the driving assistance information is generated by a device that is not standard equipment in the in-vehicle system and can be installed later (i.e., in-vehicle).
  • an in-vehicle system 150 installed in a vehicle includes a communication unit 120, an in-vehicle gateway 154, a sensor 124, an automatic driving ECU 126, an ECU 128, and a bus 130 and a bus 132.
  • the in-vehicle system 150 is equipped with an extension device 152 that is not standard equipment but is attached later.
  • the components assigned the same reference numerals as in FIG. 3 have the same functions as in FIG. In the following, the description mainly relates to the different components.
  • In-vehicle system 150 includes bus 132 similar to bus 130 .
  • the communication unit 120 exchanges data with the in-vehicle gateway 154 via the bus 132 . That is, the communication unit 120 transfers data received from the outside to the in-vehicle gateway 154 via the bus 132, and transmits the data transferred from the in-vehicle gateway 154 via the bus 132 to the outside.
  • expansion device 152 includes control unit 160 and memory 162 .
  • the control unit 160 includes a CPU and controls the memory 162 .
  • the memory 162 is, for example, a rewritable non-volatile semiconductor memory, and stores programs executed by the control unit 160 .
  • Memory 162 provides a work area for programs executed by control unit 160 .
  • the control unit 160 acquires data to be processed via the bus 132 , stores the processing results in the memory 162 , and outputs them to the bus 132 as appropriate.
  • the expansion device 152 has the same functions as the onboard gateway 122 shown in FIG. 3, ie, the functions shown in FIG.
  • the expansion device 152 can acquire data (eg, signal information, vehicle information (eg, position, speed, direction of travel), dynamic information, sensor data, etc.) received by the communication unit 120 via the bus 132 .
  • In-vehicle gateway 154 unlike in-vehicle gateway 122, does not have the functions shown in FIG. In-vehicle gateway 154 transmits sensor data output from sensor 124 to bus 130 to expansion device 152 via bus 132 .
  • the in-vehicle gateway 154 acquires the speed of the vehicle from the driving unit for driving the vehicle, and transmits it to the expansion device 152 via the bus 132 .
  • In-vehicle gateway 154 also transmits data output from expansion device 152 to bus 132 to automatic driving ECU 126 via bus 130 .
  • the extension device 152 can perform additional analysis processing according to the time it takes for the host vehicle to reach the dynamic object (that is, the allowable delay), and generate layered driving assistance information.
  • the driving support information is transferred to the automatic driving ECU 126 and used for driving control of the own vehicle.
  • the driving assistance information generated in the vehicle 102 may be transmitted to the in-vehicle systems of other vehicles, such as the in-vehicle system 110 of the vehicle 112 .
  • the in-vehicle gateway 122 generates packet data including driving assistance information, and transmits the packet data from the communication unit 120 to the in-vehicle system 110 of the vehicle 112 via the base station 108 . Transmission of the driving assistance information from the communication unit 120 is performed by broadcasting, for example.
  • the driving support information can be used for automatic driving of other vehicles. For example, if the vehicle 112 is traveling near the vehicle 102 at the same speed as the vehicle 102, the time to reach the same dynamic object is considered to be approximately the same. Therefore, the in-vehicle system 110 may be able to use the received driving assistance information for automatic driving of the vehicle 112 .
  • Each process (each function) of the above-described embodiment may be realized by a processing circuit (circuitry) including one or more processors.
  • the processing circuit may be configured by an integrated circuit or the like in which one or more memories, various analog circuits, and various digital circuits are combined in addition to the one or more processors.
  • the one or more memories store programs (instructions) that cause the one or more processors to execute the processes.
  • the one or more processors may execute the processes according to the program read from the one or more memories, or execute the processes according to a logic circuit designed in advance to execute the processes. may be executed.
  • the processor may be a CPU, GPU (Graphics Processing Unit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array), ASIC (Application Specific Integrated Circuit), or any other suitable processor for computer control. .
  • a recording medium recording a program for causing a computer to execute the processing of the in-vehicle device 100 (specifically, the processing executed by the in-vehicle gateway 122 (for example, the processing shown in FIGS. 6 and 7)) can be provided.
  • the computer program can be transmitted via a communication line, but the recording medium is a non-temporary
  • the computer can predict the time until the vehicle reaches the dynamic object, as described above. , it is possible to generate properly hierarchized driving support information in the own vehicle, and to use the driving support information for running control of the own vehicle.
  • the computer-readable non-transitory recording medium is computer on board the vehicle, an allowable delay estimating function for estimating the time until the vehicle reaches a dynamic object as an allowable delay; Based on the load state of information processing and information transmission in the vehicle, the transfer delay is the time from when the computer receives data from the outside of the vehicle until the computer transfers the data to the execution unit of the automatic driving function.
  • a transfer delay estimation function that estimates as a determination function that selects a specific analysis process from among a plurality of analysis processes for analyzing the data received from the outside based on the difference between the allowable delay and the transfer delay;
  • a computer program for executing the specific analysis process selected by the determination function and realizing a driving support information generating function for generating driving support information, the data received from the outside includes information about the dynamic object;
  • the driving assistance information stores a computer program to be transferred to the execution unit of the automatic driving function.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

車載装置は、自動運転機能を有する車両に搭載される車載装置であって、車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定部と、車両における情報処理及び情報伝送の負荷状態に基づいて、車載装置が車両の外部からデータを受信してから車載装置が当該データを自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定部と、許容遅延及び転送遅延の差分に基づいて、外部から受信したデータを解析するための複数の解析処理の中から、特定の解析処理を選択する判定部と、判定部により選択された特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成部とを含み、外部から受信したデータは、動的物体に関する情報を含み、運転支援情報は、自動運転機能の実行部に転送される。

Description

車載装置、車載システム、制御方法及びコンピュータプログラム
 本開示は、車載装置、車載システム、制御方法及びコンピュータプログラムに関する。本出願は、2021年10月6日出願の日本出願第2021-164872号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用するものである。
 自動車及び自動二輪車等(以下、車両という)に関して運転者を支援する種々のシステムが提案されている。例えば、道路及びその周辺に設定された種々のセンサ機器(例えばカメラ、レーダ等)を備えた路側装置からセンサの情報を収集し、それを解析して交通に関する情報(例えば事故、渋滞等)を、動的な運転支援情報として車両に提供することも提案されている。また、移動通信回線の高速化に伴い、路側装置に装備されたセンサ機器に限らず、車両に搭載されているセンサ機器からの情報を収集し、サーバコンピュータを介して通信し、又は、車車間において直接通信して、運転支援に有効利用することも提案されている。
 プラグインハイブリッド車(PHEV:Plug-in Hybrid Electric Vehicle)及び電気自動車(EV:Electric Vehicle)等の導入が進んでおり、これらを含め近年の車両には、種々の電子機器が装備され、それらを制御するECU(Electric Control Unit)が搭載されている。例えば、自動運転可能な車両には、自動運転用ECUが搭載されている。自動運転用ECUは、適宜外部と通信し、必要な情報(例えば道路交通情報、動的な運転支援情報)の取得を行う。その他、エンジン制御ECU、ストップスタート制御ECU、トランスミッション制御ECU、エアバッグ制御ECU、パワーステアリング制御ECU、ハイブリッド制御ECU等がある。
 下記特許文献1には、運転支援情報に関するものではないが、2つのユーザ端末間の位置関係(例えば距離)及び移動状態(例えば加速度)に応じた判定結果に基づいて、階層化された情報のユーザ端末への送信を制御する技術が開示されている。
国際公開第2014/038323号
 本開示のある局面に係る車載装置は、自動運転機能を有する車両に搭載される車載装置であって、車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定部と、車両における情報処理及び情報伝送の負荷状態に基づいて、車載装置が車両の外部からデータを受信してから車載装置が当該データを自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定部と、許容遅延及び転送遅延の差分に基づいて、外部から受信したデータを解析するための複数の解析処理の中から、特定の解析処理を選択する判定部と、判定部により選択された特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成部とを含み、外部から受信したデータは、動的物体に関する情報を含み、運転支援情報は、自動運転機能の実行部に転送される。
 本開示の別の局面に係る車載システムは、自動運転機能を有する車両に搭載される車載システムであって、自動運転機能の実行部と、動的物体に関する情報を含むデータを取得する通信部と、上記の車載装置とを含む。
 本開示のさらに別の局面に係る制御方法は、車両の自動運転機能を支援する制御方法であって、車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定ステップと、車両における情報処理及び情報伝送の負荷状態に基づいて、車両に搭載される車載装置が車両の外部からデータを受信してから車載装置が当該データを自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定ステップと、許容遅延及び転送遅延の差分に基づいて、外部から受信したデータを解析するための複数の解析処理の中から、特定の解析処理を選択する判定ステップと、判定ステップにより選択された特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成ステップとを含み、外部から受信したデータは、動的物体に関する情報を含み、運転支援情報は、自動運転機能の実行部に転送される。
 本開示のさらに別の局面に係るコンピュータプログラムは、車両に搭載されたコンピュータに、車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定機能と、車両における情報処理及び情報伝送の負荷状態に基づいて、コンピュータが車両の外部からデータを受信してからコンピュータが当該データを自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定機能と、許容遅延及び転送遅延の差分に基づいて、外部から受信したデータを解析するための複数の解析処理の中から、特定の解析処理を選択する判定機能と、判定機能により選択された特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成機能とを実現させるためのコンピュータプログラムであって、外部から受信したデータは、動的物体に関する情報を含み、運転支援情報は、自動運転機能の実行部に転送される。
図1は、本開示の実施形態に係る車載システムの利用形態を示す模式図である。 図2は、図1に示した車載システムのハードウェア構成を示すブロック図である。 図3は、図2に示した車載ゲートウェイのハードウェア構成を示すブロック図である。 図4は、図2に示した車載ゲートウェイの機能構成を示すブロック図である。 図5は、図4に示した機能による処理状況を示す模式図である。 図6は、車載ゲートウェイにより実行される階層化情報の生成及び転送に関する処理を示すフローチャートである。 図7は、各追加処理が順に実行される場合の処理を示すフローチャートである。 図8は、1台の同じ車両の車載システムにおいて、自車両から動的物体までの距離に応じて自動運転ECUに提供されるデータが変化する状況を示す模式図である。 図9は、交差点に接近する車両と、交差点における交通状況を時間経過に伴って示す平面図である。 図10は、車両内に提示される情報の一例を示す図である。 図11は、図10に続いて車両内に提示される情報の一例を示す図である。 図12は、図11に続いて車両内に提示される情報の一例を示す図である。 図13は、図12に続いて車両内に提示される情報の一例を示す図である。 図14は、変形例に係る車載システムの構成を示すブロック図である。 図15は、図14に示した拡張装置のハードウェア構成を示すブロック図である。
 [本開示が解決しようとする課題]
 センサデータを取得し、それを解析して検出物体(即ち、人、車両等の動的物体)に関する動的情報を生成し統合することにより運転支援情報の詳細度及び確度等の品質を向上できる。一方、センサデータ等の送受信及び解析処理等に時間を要し、それらの時間が遅延時間となる。運転支援情報の品質と遅延時間とはトレードオフの関係にあり、運転支援情報が車両走行の制御に適用可能な時間範囲は、交通状況によって変わる。例えば、サーバコンピュータ等から車両に運転支援情報を提供する場合、車両と動的物体との距離が比較的大きい場合、解析処理に時間をかけて詳細な情報を生成して、車両に提供できる。しかし、車両と動的物体との距離が比較的小さい場合、解析処理に時間をかけて詳細な情報を生成して車両に提供しても、車両において有効利用する時間がなく、無駄になる。また、車両の状態によっては、運転支援情報を受信してから実際に利用するまでに時間がかかる場合もある(例えば、車両内における遅延時間の存在)。したがって、車両に動的情報を運転支援情報として提供する場合、車両内における遅延時間をも考慮して、有効に利用できるタイミングにおいて、適切な運転支援情報を提供することが要望される。
 特許文献1によっては、この要望に対応することはできない。特許文献1においては、階層化情報の出力を遅延に応じて制御できないため、車両の運転支援及び自動運転等のリアルタイム性の高いサービスへの適用が困難である。
 したがって、本開示は、自車両が動的物体に到達するまでの予測時間に応じて、自車両内において適切に階層化された運転支援情報を生成でき、運転支援情報を自車両の走行制御に利用できる車載装置、車載システム、制御方法及びコンピュータプログラムを提供することを目的とする。
 [本開示の効果]
 本開示によれば、自車両が動的物体に到達するまでの予測時間に応じて、自車両内において適切に階層化された運転支援情報を生成でき、運転支援情報を自車両の走行制御に利用できる車載装置、車載システム、制御方法及びコンピュータプログラムを提供できる。
 [本開示の実施形態の説明]
 本開示の実施形態の内容を列記して説明する。以下に記載する実施形態の少なくとも一部を任意に組合せてもよい。
 (1)本開示の第1の局面に係る車載装置は、自動運転機能を有する車両に搭載される車載装置であって、車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定部と、車両における情報処理及び情報伝送の負荷状態に基づいて、車載装置が車両の外部からデータを受信してから車載装置が当該データを自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定部と、許容遅延及び転送遅延の差分に基づいて、外部から受信したデータを解析するための複数の解析処理の中から、特定の解析処理を選択する判定部と、判定部により選択された特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成部とを含み、外部から受信したデータは、動的物体に関する情報を含み、運転支援情報は、自動運転機能の実行部に転送される。これにより、自車両が動的物体に到達するまでの時間、即ち自車両と動的物体との距離に応じて、自車両内において適切な階層に階層化された運転支援情報を生成でき、運転支援情報を自車両の走行制御に利用可能になる。なお、車載装置には、自動運転機能を有する車両に標準装置として搭載されるものに限らず、拡張装置として後から搭載され得るものも含まれる。自動運転は、好ましくは、後述するレベル1(即ち運転支援)以上の全レベルを含む。
 (2)上記の(1)において、外部から受信したデータは、センサデータをさらに含んでいてもよく、動的物体に関する情報は、動的物体の位置情報及び簡易属性情報を含んでいてもよく、運転支援情報生成部は、特定の解析処理を実行した結果と、位置情報及び簡易属性情報とを各階層として含む階層化された運転支援情報を生成してもよい。これにより、車外から提供される動的物体の位置情報及び簡易属性情報を運転支援情報として有効に利用できる。また、センサデータを解析すれば、動的物体の詳細属性等を含む運転支援情報を生成できる。動的物体の位置情報及び簡易属性情報を解析すれば、動的物体の移動予測等を含む運転支援情報を生成できる。
 (3)上記の(2)において、運転支援情報は、センサデータを処理対象とする特定の解析処理による解析結果を含む第1層と、センサデータを処理対象としない特定の解析処理による解析結果を含む第2層とを含んでいてもよい。これにより、動的物体の詳細属性等と動的物体の移動予測等とを別階層として含む運転支援情報を生成でき、運転支援情報が自動運転の実行部(即ち自動運転ECU)に提供される場合、効率的に利用され得る。
 (4)上記の(2)又は(3)において、センサデータを処理対象としない特定の解析処理は、センサデータを処理対象とする特定の解析処理による解析結果及び動的物体に関する情報の少なくとも一方を処理対象としてもよい。これにより、センサデータを処理対象としない特定の解析処理の確度を向上できる。
 (5)上記の(1)から(4)のいずれか1つにおいて、判定部は、許容遅延から転送遅延を減算して差分を算出し、差分が0以上の所定値より大きいか否かを判定してもよく、差分が所定値より大きければ、特定の解析処理を選択し、差分が所定値以下であれば、特定の解析処理を選択しなくてもよい。これにより、適切な特定の解析処理を選択でき、無駄な処理を抑制できる。
 (6)上記の(5)において、差分が所定値以下であれば、動的物体に関する情報は、転送遅延が許容遅延以上であることを表す情報と共に実行部に転送されてもよい。これにより、自動運転の実行部が、動的物体に関する情報の利用の適否を判定でき、動的物体に関する情報が利用される可能性がある。
 (7)上記の(5)又は(6)において、車載装置は、複数の解析処理の各々に関して、処理対象のデータ量に応じた処理時間を記録した処理時間テーブルを記憶する記憶部をさらに含んでいてもよく、差分が所定値より大きければ、判定部は、データのデータ量を用いて処理時間テーブルを参照してデータの処理時間を特定した後、当該処理時間が、差分以下であるか否かを判定することにより、特定の解析処理を選択してもよい。これにより、適切な特定の解析処理を選択でき、解析結果を車両の走行制御に有効に利用できる。
 (8)上記の(7)において、処理時間テーブルは、複数の解析処理のうち、センサデータを処理対象とする解析処理に関して、処理対象のセンサデータを新たに取得する取得時間をさらに含んでいてもよく、差分が所定値より大きければ、判定部は、処理時間テーブルを参照して特定した処理時間及び取得時間の合計値が、差分以下であるか否かを判定することにより、特定の解析処理を選択してもよい。これにより、センサデータを新たに取得して解析する場合にも、適切な特定の解析処理を選択でき、解析結果を車両の走行制御に有効に利用できる。
 (9)本開示の第2の局面に係る車載システムは、自動運転機能を有する車両に搭載される車載システムであって、自動運転機能の実行部と、動的物体に関する情報を含むデータを取得する通信部と、上記の(1)から(8)のいずれか1つの車載装置とを含む。これにより、自車両が動的物体に到達するまでの時間、即ち自車両と動的物体との距離に応じて、自車両内において適切な階層に階層化された運転支援情報を生成し、運転支援情報を自車両の走行制御に利用可能になる。
 (10)上記の(9)において、通信部はさらに、車載装置により生成された運転支援情報を、車両の位置及び走行方向の情報を付して他車両に送信してもよい。これにより、他車両において、解析処理を実行することなく、運転支援情報を用いて車両の走行制御が可能になる。
 (11)上記の(10)において、車載装置の判定部は、通信部から送信される運転支援情報の通信時間を推定してもよく、許容遅延と転送遅延及び通信時間の合計値との差分に基づいて、複数の解析処理の中から特定の解析処理を選択してもよい。これにより、適切な特定の解析処理を選択でき、無駄な解析を抑制できる。
 (12)本開示の第3の局面に係る制御方法は、車両の自動運転機能を支援する制御方法であって、車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定ステップと、車両における情報処理及び情報伝送の負荷状態に基づいて、車両に搭載される車載装置が車両の外部からデータを受信してから車載装置が当該データを自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定ステップと、許容遅延及び転送遅延の差分に基づいて、外部から受信したデータを解析するための複数の解析処理の中から、特定の解析処理を選択する判定ステップと、判定ステップにより選択された特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成ステップとを含み、外部から受信したデータは、動的物体に関する情報を含み、運転支援情報は、自動運転機能の実行部に転送される。これにより、自車両が動的物体に到達するまでの時間、即ち自車両と動的物体との距離に応じて、自車両内において適切な階層に階層化された運転支援情報を生成でき、運転支援情報を自車両の走行制御に利用可能になる。
 (13)本開示の第4の局面に係るコンピュータプログラムは、車両に搭載されたコンピュータに、車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定機能と、車両における情報処理及び情報伝送の負荷状態に基づいて、コンピュータが車両の外部からデータを受信してからコンピュータが当該データを自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定機能と、許容遅延及び転送遅延の差分に基づいて、外部から受信したデータを解析するための複数の解析処理の中から、特定の解析処理を選択する判定機能と、判定機能により選択された特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成機能とを実現させるためのコンピュータプログラムであって、外部から受信したデータは、動的物体に関する情報を含み、運転支援情報は、自動運転機能の実行部に転送される。これにより、自車両が動的物体に到達するまでの時間、即ち自車両と動的物体との距離に応じて、自車両内において適切な階層に階層化された運転支援情報を生成でき、運転支援情報を自車両の走行制御に利用可能になる。
 [本開示の実施形態の詳細]
 以下の実施形態では、同一の部品には同一の参照番号を付してある。それらの名称及び機能も同一である。したがって、それらについての詳細な説明は繰返さない。
 [全体構成]
 図1を参照して、本開示の実施形態に係る車載システム100は、車両102に搭載される。車載システム100は、道路(交差点を含む)及びその周辺等(以下、路側ともいう)に固定して設置されたインフラセンサ104と通信し、センサデータとその解析結果である動的情報とを受信する。車載システム100は、他の車両112に搭載された車載システム110と通信し、車載されたセンサのセンサデータ及び動的情報を受信する。車載システム100は、信号機106とも通信し、信号機の状態に関する情報(以下、信号情報という)を取得する。これらの通信は、基地局108を介した通信であっても、基地局108を介さない直接通信であってもよい。
 基地局108は、例えば、4G(即ち第4世代移動通信システム)回線及び5G(即ち第5世代移動通信システム)回線等による移動通信サービスを提供している。基地局108はネットワーク114に接続されている。インフラセンサ104及び信号機106もネットワーク114に接続されていてもよい。
 車両102及び車両112にそれぞれ搭載されている車載システム100及び車載システム110は、基地局108がサービスしている通信仕様(例えば4G回線、5G回線等)による通信機能を有している。上記したように、車載システム100及び車載システム110は、基地局108を介さずに相互に直接通信する機能(即ちV2V(Vehicle to Vehicle))をも有する。基地局108を介さない相互通信には、例えばWi-Fi通信が使用される。
 図1に示した歩行者900、車両102及び車両112は、インフラセンサ104の検出対象である。歩行者900は、車両102及び車両112に搭載されたセンサの検出対象でもある。
 インフラセンサ104は路側に設置され、路側における情報を取得する機能を備えた装置であり、基地局108との通信機能を有している。インフラセンサ104は、例えば、イメージセンサ(例えばデジタルの監視カメラ等)、レーダ(例えばミリ波レーダ等)、又はレーザセンサ(例えばLiDAR(Light Detection And Ranging)等)等である。なお、インフラセンサ104は、演算機能を有する路側機に装備又は接続されていてもよい。
 車両102及び車両112の各々が搭載しているセンサにより取得されたセンサデータは、車載システム100及び車載システム110において解析され、解析結果は動的情報として記憶される。動的情報は、自車両の自動運転機能において使用される。自動運転は、運転主体(即ち、人又はシステム)及び走行領域(即ち、限定的又は限定なし)に応じて、レベル1からレベル5に区分される。動的情報が使用され得る自動運転は、レベル4以上の完全自動運転(即ち、人が運転せずシステムが運転主体となる)に限らず、運転支援等の人が運転主体となるレベル1及びレベル2、並びに、条件付自動運転(即ちレベル3)をも含むと好ましい。即ち、動的情報が使用され得る自動運転は、レベル1からレベル5のいずれの自動運転であってもよいし、レベル1からレベル5のいずれかの自動運転であってもよい。また、センサデータ及び動的情報は、上記したように車載システム100及び車載システム110間において相互に通信され得る。車載システム100及び車載システム110は、各々が搭載された車両の情報(例えば位置情報、速度情報及び走行方向情報等)をも相互に通信する。以下、位置情報、速度情報及び走行方向情報等をそれぞれ、単に位置、速度及び走行方向ともいう。車両の情報は、車両から送信されるセンサデータが取得された位置及び方向を特定するために利用され得る。
 動的情報は、センサ(即ち、インフラセンサ及び車載センサ)により検出された動的物体に関する情報である。動的物体は、移動している物体(例えば、人及び車両等)に限らず、移動機能を有しているが停止している物体をも含む。動的情報は、動的物体自体の情報(以下、属性という)と、動的物体の変位に関する情報(例えば位置、移動速度、移動方向及び時間等)とを含み得る。動的情報は、後述する運転支援情報の生成に使用される。なお、自車両の自動運転に用いるための運転支援情報は、自車両の走行経路(即ち、走行する予定の道路)を含む所定領域に関するものであればよい。
 属性は、例えば簡易な属性(以下、簡易属性という)と詳細な属性(以下、詳細属性という)とに区分される。簡易属性は、動的物体を粗く分類するためのものであり、例えば、人、自転車、自動二輪車及び自動車等を含む。詳細属性は、動的物体を詳細に分類するためのものであり、動的物体の状態を含む。例えば、簡易属性が「人」であれば、その詳細属性は、子供、大人、老人等を含み、さらにいわゆる歩きスマホ(即ち、歩きながらスマートフォン等を見ている状態)、信号無視等を含み得る。例えば、簡易属性が「自動車」であれば、その詳細属性は、例えば一般車、大型車等を含み、さらにバス、タクシー、緊急車両(例えば、救急車及び消防車)、脇見運転等を含み得る。なお、簡易属性及び詳細属性は、これらに限定されず、任意の属性を含み得る。
 動的物体の変位に関する情報のうち、時間情報は、例えば位置情報、移動速度情報及び移動方向情報等の生成時刻である。また、動的情報は予測情報を含み得る。例えば、車載システム100及び車載システム110が、予測機能を有していれば、動的物体の位置の変化から得られる現在までの移動軌跡、移動速度及び移動方向を用いて、将来(例えば、現在から所定時間以内)の移動軌跡、移動速度及び移動方向を予測できる。それらが、動的情報に含まれていてもよい。
 図1には、例示的に1つの基地局108、1つのインフラセンサ104、1台の信号機106、並びに、車載システムが搭載された2台の車両102及び車両112を示している。しかしこれは例示に過ぎない。通常、複数の基地局が設けられ、3台以上の車両に車載システムが搭載されている。車載システムを搭載していない車両が存在してもよい。車載システムを搭載していない車両は、動的物体として検出される。
 [車載システムのハードウェア構成]
 図2を参照して、車両102に搭載されている車載システム100のハードウェア構成の一例を示す。車両112に搭載された車載システム110も同様に構成されている。車載システム100は、通信部120、車載ゲートウェイ122、センサ124、自動運転ECU126、ECU128及びバス130を含む。なお、車載システム100は、自動運転ECU126以外に複数のECUを含み、図2にはそれらの代表としてECU128を示している。
 通信部120は、車両102の外部装置と無線通信(例えば、基地局108を介した車載システム110との通信)を行う。通信部120は、無線通信において採用されている変調及び多重化を行うためのIC、所定周波数の電波を送信及び受信するためのアンテナ、並びにRF回路等を含む。通信部120は、GPS(Global Positioning System)等のGNSS(Global Navigation Satellite System、全地球衛星測位システム)との通信機能をも有する。通信部120は、Wi-Fi等の通信機能も有していてもよい。
 車載装置である車載ゲートウェイ122は、車外との通信機能(即ち通信仕様)と車内における通信機能(即ち通信仕様)とを接合する役割(即ち通信プロトコル変換等)を担う。自動運転ECU126は、車載ゲートウェイ122及び通信部120を介して、外部装置と通信できる。車載ゲートウェイ122は、通信部120を介して外部から受信する情報のうち、動的情報及びその生成に利用するセンサデータを取得し、後述するように、運転支援情報を生成し、更新する。運転支援情報は、自動運転ECU126に伝送される。バス130は、車内における通信機能を担い、車載ゲートウェイ122、センサ124、自動運転ECU126及びECU128に関して、相互間の通信(データ交換)は、バス130を介して行われる。バス130には、例えば、CAN(Controller Area Network)が使用される。
 センサ124は、車両102に搭載され、車両102外部の情報を取得するためのセンサ(例えばビデオ映像の撮像装置(例えば、デジタルカメラ(例えばCCDカメラ、CMOSカメラ))、レーザセンサ(例えばLiDAR)等)、及び、車両自体の情報を取得するためのセンサ(例えば加速度センサ、荷重センサ等)を含む。センサ124は、検知範囲(例えば、カメラであれば撮像範囲)内の情報を取得してセンサデータとして出力する。デジタルカメラであれば、デジタルの画像データを出力する。センサ124の検出信号(即ち、アナログ又はデジタル信号)は、I/F部(図示せず)を介して、デジタルデータとしてバス130に出力され、車載ゲートウェイ122及び自動運転ECU126等に送信される。
 自動運転ECU126は、車両102の走行を制御する。例えば、自動運転ECU126は、センサデータを取得し、それを解析して車両周囲の状況を把握し、自動運転に関連する機構(例えばエンジン、変速機、ステアリング、ブレーキ等の機構)を制御する。自動運転ECU126は、車載ゲートウェイ122から取得した運転支援情報を自動運転に利用する。
 [車載ゲートウェイのハードウェア構成]
 図3を参照して、車載ゲートウェイ122は、制御部140及びメモリ142を含む。制御部140は、CPU(Central Processing Unit)を含んで構成されており、メモリ142を制御する。メモリ142は、例えば、書換可能な不揮発性の半導体メモリであり、制御部140が実行するコンピュータプログラム(以下、単にプログラムという)を記憶している。メモリ142は、制御部140が実行するプログラムのワーク領域を提供する。制御部140は処理対象のデータを、通信部120からは直接取得し、通信部120以外からはバス130を介して取得する。制御部140は、処理結果をメモリ142に記憶し、バス130に出力する。
 [機能的構成]
 図4を参照して、車載ゲートウェイ122の機能に関して説明する。以下の説明において、図1に示した車両102を自車両とし、車両102の前方を走行している車両112を他車両とする。車載システム100は、外部装置(例えば、インフラセンサ104及び車載システム110等)から動的情報として、動的物体の位置及び簡易属性を取得する。位置及び簡易属性は、それらが生成されるときの解析対象であったセンサデータが付加されて送信され得る。即ち、車両102は、動的情報(即ち、位置及び簡易属性)のみを受信する、センサデータのみを受信する、又は、動的情報とそれに対応するセンサデータとを受信する。
 車載ゲートウェイ122は、記憶部200、許容遅延推定部202、判定部204、転送遅延推定部206、追加解析処理部208及び出力部210を含む。記憶部200は、通信部120により受信されたデータと、バス130を介して入力されるセンサ124のセンサデータとを記憶する。通信部120から入力されるデータには、動的情報(即ち、位置及び簡易属性)、センサデータ、信号情報、自車両の位置情報等が含まれる。記憶部200は、図3のメモリ142により実現される。それ以外の後述する機能は、制御部140により実現される。後述するように、追加解析処理部208及び出力部210は運転支援情報生成部を構成する。
 許容遅延推定部202は、通信部120から取得した動的情報に含まれる動的物体と自車両との距離から、許容遅延を推定する。具体的には、許容遅延推定部202は、同時刻(所定の誤差を含む)における動的物体及び自車両の位置から、両者間の距離Lを算出し、距離Lを自車両の速度Vにより除して、許容遅延Tp(=L/V)を算出する。許容遅延Tpは、自車両が動的物体に到達するまでの予測時間である。動的物体の時刻には、動的情報(即ち、位置及び簡易属性)の受信時刻(例えば、パケットデータが受信されて動的情報として構成された時刻)を使用できる。通信部120から取得した自車両の位置(例えばGPSデータ)とその受信時刻とを対応させて記憶しておけば、動的物体の位置が得られたときと同時刻における自車両の位置を特定できる。自車両の速度は、自車両を走行させるための駆動部(即ち自動運転ECU126の制御対象)から取得する。自車両の速度Vには、例えば、現在速度、直近の所定時間内の平均速度等を使用できる。距離Lは、直線距離であってもよいが、自車両が走行する予定の道路に沿った距離であることが好ましい。許容遅延推定部202は、推定した許容遅延Tpを判定部204に出力する。
 転送遅延推定部206は、自車両内における情報処理及び情報伝送の負荷状態を観測し、自動運転ECU126にデータ(即ち、後述する運転支援情報)を転送するまでに要する遅延時間(以下、転送遅延という)を推定する。転送遅延は、例えば、車載ゲートウェイ122が、通信部120により受信されたデータの自動運転ECU126への転送を開始してから、自動運転ECU126がデータの受信を完了するまでの時間である。転送遅延Ttは、バス130の空状態(即ち、バス130を介したデータ転送が実行されていない状態であり、情報伝送の負荷状態に対応する)、制御部140自体の情報処理の負荷状態等に依存する。例えば、バス130がCANである場合、マルチマスタ方式及びイベントドリブン方式が採用される。即ち、バス130が空いているときに最初に送信を開始したノード(例えばECU等)が送信権を取得し、バス130を介したデータ送信時の衝突を回避するために、より優先順位の高いノードが送信権を取得する。したがって、転送遅延推定部206(即ち制御部140)は、制御部140自体の負荷状態に加えて、バス130の負荷状態(即ち空状態の有無)を観測し、情報処理及び情報伝送の負荷状態を推定できる。例えば、送信権が取得されていれば、そのノードの優先度を観測することにより、情報伝送の負荷状態を推定できる。転送遅延推定部206は、推定した転送遅延Ttを判定部204に出力する。
 判定部204は、許容遅延推定部202から入力される許容遅延Tp及び転送遅延推定部206から入力される転送遅延Ttを用いて、記憶部200に記憶されている動的情報(即ち、位置及び簡易属性)及びセンサデータのさらなる解析(以下、追加解析という)が可能であるか否かを判定する。具体的には、判定部204は、許容遅延Tpが転送遅延Ttより大きい(即ちTp>Tt)か否かを判定する。許容遅延Tpが転送遅延Tt以下(即ちTp≦Tt)であれば、追加解析する時間はない。しかし、許容遅延Tpが転送遅延Ttより大きければ(即ちTp>Tt)、追加解析できる時間的余裕が存在する。判定部204は、許容遅延Tpが転送遅延Ttより大きければ、その差分(即ちTp-Tt)に基づき、予め定められている複数の追加解析処理の中から実行する処理を選択する。判定部204は、選択した追加解析処理を特定するための情報(以下、解析処理特定情報という)を追加解析処理部208に出力する。
 判定部204は、許容遅延Tpが転送遅延Ttより大きければ、各追加解析処理が、Tp-Ttの間に完了するか否かを判定することにより、実行する追加解析処理を選択する。追加解析処理には、上記したように、センサデータを対象とする解析処理と、センサデータ以外のデータ(例えば動的情報であり、以下、非センサデータともいう)を対象とする解析処理とが含まれる。同じ解析処理であっても、処理対象のデータ量が多いほど処理時間がかかる。したがって、例えば、予め各追加解析処理に関して、処理対象データ量と処理時間とを対応させた処理時間テーブル212を記憶部200に記憶しておく。これにより、後述するように、適切な追加解析処理を選択でき、解析結果を車両の走行制御に有効に利用できる。また、動的物体の詳細属性等を含む階層(即ち第1層)と動的物体の移動予測等と含む階層(即ち第2層)を異なる層として含む運転支援情報を生成でき、そのような運転支援情報は、自動運転ECUに提供されて効率的に利用され得る。
 判定部204は、追加解析処理i及びデータ量の組に対応する処理時間τiを処理時間テーブル212から読出し、τi<Tp-Ttであるか否かを判定する。τi<Tp-Ttであれば、Tp-Tt内に完了できるので、その追加解析処理iを選択する。τi<Tp-Ttを満たすか否かを判定する追加解析処理の順序は任意である。例えば、センサデータを対象とする処理を優先的に判定しても、非センサデータを対象とする処理を優先的に判定してもよい。また、処理時間がより短い処理から優先的に判定しても、処理時間がより長い処理から優先的に判定してもよい。1つの追加解析処理jが選択された場合、追加解析処理jとは異なる追加解析処理iに関して、τi<Tp-Tt-τjを判定すればよい。新たに追加解析処理が選択されるたびに、τjの値をΣτjに置き替えて、同様にして判定すればよい。なお、Σは、既に選択された追加解析処理の処理時間τjに関して和を計算する演算子を意味する。
 なお、計算リソースによっても処理時間が変わる。したがって、処理時間テーブル212は、各追加解析処理に関して、処理対象のデータ量及び計算リソースの組合せと処理時間とを対応させたものであってもよい。その場合、追加解析処理i、データ量及び計算リソースの組に対応する処理時間τiを処理時間テーブル212から読出し、上記と同様にTp-Ttとの大小を判定すればよい。
 追加解析処理部208は、動的情報及びセンサデータを解析する機能(即ち追加解析処理)を複数含む。複数の解析機能は、第1処理部から第N処理部により実現される。第1処理部から第N処理部により実行される解析処理はその種類に応じて、階層化されており、解析結果も階層化される。例えば、第1処理部から第N処理部は、センサデータを解析する処理と、非センサデータを解析する処理とに分類(例えば階層化)される。
 例えば、第1処理部及び第2処理部はセンサデータを解析する。例えば、第1処理部及び第2処理部は、記憶部200から、動的情報(即ち、位置及び簡易属性)に含まれる動的物体が検出された元のセンサデータを読出して解析し、各動的物体に関する詳細情報を生成する。例えば動的物体の簡易属性が人であれば、第1処理部は、子供、大人、老人等のいずれであるかを検出(即ち特定)し、第2処理部は、歩きスマホ、信号無視等のいずれであるかを検出する。例えば動的物体の簡易属性が自動車であれば、第1処理部は、一般車、大型車等のいずれであるかを検出し、第2処理部は、バス、タクシー、緊急車両、脇見運転等のいずれであるかを検出する。記憶部200から信号情報を読出す場合、第2処理部は人又は自動車による信号無視を検出してもよい。
 例えば、第1処理部及び第2処理部以外の処理部は非センサデータを解析する。例えば、第3処理部から第5処理部(図示せず)は、記憶部200から、動的情報(即ち、位置及び簡易属性)と信号情報とを読出し、それに含まれる動的物体(例えば人、自動車等)の将来の位置を予測する。この解析結果を「移動予測」という。例えば、第3処理部は、時間経過に伴って記憶部200に記憶されている同じ動的物体の位置の変化を解析し、その動的物体のt秒後の移動領域を予測する。例えば、第4処理部は、信号情報を用いて、動的物体の現在の行動状況(例えば信号無視等)を検出する。例えば、第5処理部は、信号情報を用いて、動的物体のt秒後の行動状況(例えば衝突の可能性等)を予測する。第4処理部及び第5処理部の解析結果を「交通状況予測」という。交通状況予測には、現在の交通状況(例えば渋滞、事故等)を検出し、t秒後の交通状況を予測した結果を含んでいてもよい。
 追加解析処理部208は、上記したように判定部204から入力される解析処理特定情報により特定される追加解析処理を実行する。即ち、追加解析処理部208は、第1処理部から第N処理部のうち、解析処理特定情報により特定される処理部を実行する。追加解析処理部208は、実行した処理部により得られた処理結果を出力部210に出力する。
 出力部210は、記憶部200から動的情報(即ち、位置及び簡易属性)を読出し、追加解析処理部208から入力される解析結果と合わせて階層化された運転支援情報を生成し、自動運転ECU126に出力する。即ち、追加解析処理部208及び出力部210は運転支援情報生成部を構成する。これにより、自車両が動的物体に到達するまでの予測時間(即ち許容遅延)に応じた階層化された運転支援情報が生成され、自動運転ECU126に転送される。したがって、自動運転ECU126は、運転支援情報を用いて適切に自車両の走行を制御できる。
 上記したように、外部から受信したデータは、動的情報とセンサデータとを含み、動的物体に関する情報は、動的物体の位置及び簡易属性を含み、運転支援情報生成部は、追加解析処理を実行した結果と、位置及び簡易属性とを各階層として含む階層化された運転支援情報を生成する。これにより、車外から提供される動的物体の位置及び簡易属性を運転支援情報として有効に利用できる。また、センサデータを解析すれば、動的物体の詳細属性等を含む運転支援情報を生成できる。動的物体の位置及び簡易属性を解析すれば、動的物体の移動予測等を含む運転支援情報を生成できる。
 図5を参照して、車両102に搭載された車載システム100は、インフラセンサ104及び車両112(具体的には車載システム110)から動的物体(即ち歩行者900)の動的情報(即ち位置、簡易属性)及びセンサデータを取得する。動的情報は、センサデータ(例えば、撮像データ)が解析されて生成されたものであり、センサデータには動的物体が含まれている。動的情報及びセンサデータは、車載システム100内の車載ゲートウェイ122のメモリ142に記憶される。図5には示していないが、車載システム100は、信号機から信号情報をも受信する。上記したように、自車両(即ち車両102)から動的物体(即ち歩行者900)までの距離L及び自車両の速度Vに応じて、許容遅延推定部202により許容遅延Tpが算出され、転送遅延推定部206により自車両の負荷状態が考慮されて転送遅延Ttが算出される。許容遅延Tp及び転送遅延Ttの差分に基づき、判定部204により実行可能な追加解析処理が選択され、追加解析処理部208により、選択された追加解析処理が記憶部200(即ちメモリ142)から読出したデータに対して実行される。これにより、センサデータを解析処理した結果として、例えば詳細属性が生成される。また、非センサデータ(例えば位置情報、簡易属性及び信号情報)を解析処理した結果として、例えば移動予測及び交通状況予測が生成される。
 処理結果(例えば詳細属性、移動予測及び交通状況予測)と、記憶部200(即ちメモリ142)から読出した位置及び簡易属性(一点鎖線内参照)とが階層化されて運転支援情報が生成され、自動運転ECU126に転送される。自動運転ECU126に転送される運転支援情報は、上記したように遅延時間(例えば許容遅延、転送遅延及び解析処理時間)を考慮して生成された階層化された情報である。したがって、自動運転ECU126は、運転支援情報を自車両の走行の制御に有効に使用できる。
 [車載ゲートウェイの動作]
 図6を参照して、車載ゲートウェイ122の動作に関して、図4に示した機能を参照しつつ説明する。図6に示した処理は、図3に示した制御部140が、所定のプログラムをメモリ142から読出して実行することにより実現される。
 図6を参照して、ステップ300において、制御部140は、通信部120によりデータを受信したか否かを判定する。受信したと判定された場合、制御はステップ302に移行する。そうでなければ、ステップ300が繰返される。
 ステップ302において、制御部140は、受信したデータをメモリ142に記憶する。受信データには、インフラセンサ104及び他の車両112から送信されるセンサデータ、動的情報、及び、信号機106から送信される信号情報が含まれる。
 ステップ304において、制御部140は、動的情報を受信したか否かを判定する。受信したと判定された場合、制御はステップ306に移行する。そうでなければ、制御はステップ320に移行する。
 ステップ306において、制御部140は許容遅延Tpを推定する。具体的には、自車両から動的物体までの距離Lと自車両の速度Vとから、動的物体に到達するまでの予測時間(即ちL/V)を算出し、その時間を許容遅延Tpとする。これは、上記した許容遅延推定部202(図4参照)の機能に対応する。その後、制御はステップ308に移行する。
 ステップ308において、制御部140は、転送遅延Ttを推定する。具体的には、自車両内の負荷状態を観測し、自動運転ECU126に運転支援情報を転送するまでに要する時間を算出し、転送遅延Ttとする。これは、上記した転送遅延推定部206(図4参照)の機能に対応する。その後、制御はステップ310に移行する。
 ステップ310において、制御部140は、ステップ306により推定された許容遅延Tpがステップ308により推定された転送遅延Ttよりも大きい(即ちTp>Tt)か否かを判定する。これは、上記した判定部204(図4参照)の機能に対応する。大きいと判定された場合、制御はステップ312に移行する。そうでなければ(即ちTp≦Tt)、制御はステップ320に移行する。
 ステップ312において、制御部140は、処理時間テーブル212(図4参照)を参照して、各追加解析処理に関して、処理対象のデータ量に対応する処理時間τiを取得する。これは、上記した判定部204(図4参照)の機能に対応する。
 ステップ314において、制御部140は、許容遅延Tpから転送遅延Ttを減算した値(即ちTp-Tt)により表される時間内に完了できる、1つの追加解析処理又は複数の追加解析処理を特定する。具体的には、制御部140は、1又は複数の追加解析処理の処理時間の和がTp-Tt以下であるか否かを判定する。これは、上記した判定部204(図4参照)の機能に対応する。
 ステップ316において、制御部140は、ステップ314により選択された追加解析処理を実行する。これは、上記した追加解析処理部208(図4参照)の機能に対応する。ステップ314により複数の追加解析処理が選択された場合、制御部140は、それらの追加解析処理をマルチタスクにより実行すればよい。解析結果は適宜メモリ142に記憶される。マルチタスクにより実行できない場合には、例えば、後述する図7に示すフローチャートに従って実行すればよい。
 ステップ318において、制御部140は、ステップ316により得られた解析結果を、運転支援情報として自動運転ECU126に転送する。具体的には、制御部140は、メモリ142に記憶されている動的情報(即ち、位置及び簡易属性)を読出し、ステップ316による処理結果と合わせて階層化された運転支援情報を生成し、自動運転ECU126に転送する。これは、上記した出力部210(図4)の機能に対応する。これにより、自動運転ECU126は、転送された解析結果を自車両の走行制御に利用する。
 ステップ320において、制御部140は、終了の指示を受けたか否かを判定する。終了の指示を受けたと判定された場合、本プログラムは終了する。そうでなければ、制御はステップ300に戻り、上記の処理が繰返される。終了の指示は、例えば、車両102に搭載されている電源がオフされることにより成される。
 これにより、車載ゲートウェイ122は、動的情報(即ち、位置及び簡易属性)を受信した場合、許容遅延Tpに基づいて選択した追加解析処理を実行し、解析結果を自動運転ECU126に提供できる。実行される追加解析処理は、自車両から動的物体までの距離に応じて変化する。即ち、自車両から動的物体までの距離が比較的大きければ、自動運転ECU126は、詳細属性及び予測情報等を取得でき、自車両の前方の状態を予測した走行制御が可能になる。また、運転者に対して、事前に警告等の情報提供が可能になる。自車両が動的物体に近づけば、自動運転ECU126は、詳細属性及び予測情報等を取得できないが、位置及び簡易属性を用いた走行制御は可能である。
 図6に示したフローチャートは、種々変更されて実行され得る。図6においては、ステップ310によりNOと判定された場合、ステップ320に移行するが、これに限定されない。例えば、追加解析処理が移動予測等の予測処理を含まない場合には、受信した動的情報(即ち、位置及び簡易属性)を破棄してもよい。これにより、使用されないデータがメモリ142に残り、空容量が減少することを抑制できる。また、転送遅延Ttが許容遅延Tp以上であることを表す情報と共に、受信した動的情報(即ち、位置及び簡易属性)を自動運転ECU126に転送してもよい。これにより、自動運転ECU126が、動的情報の利用の適否を判定でき、動的情報が利用され得る。
 また、ステップ310において、許容遅延Tpが転送遅延Ttより大きいか否かを判定したが、これに限定されない。Tp>Ttであってもその差分が小さければ、追加解析処理を実行する余裕はない。したがって、Tp及びTtの差分が、0以上の所定値以上であるか否かを判定することが好ましい。所定値には、例えば、予定している複数の追加解析処理の処理時間の最小値を用いることができる。これにより、適切な追加解析処理を選択でき、無駄にステップ312及びステップ314が実行されることを抑制できる。
 上記においては、センサデータの追加解析処理として、メモリ142に記憶されているセンサデータを解析する場合を説明したが、これに限定されない。車載システム100が受信する動的情報(即ち、位置及び簡易属性)は、センサデータが付加されていない場合もある。そのような場合、動的情報に含まれる動的物体に関して、センサデータを解析できず詳細属性を検出できない。したがって、車載ゲートウェイ122は、新たにセンサデータを取得し、それを解析して詳細属性を検出することが好ましい。そのような処理に関して、図7を参照して説明する。
 なお、新たにセンサデータを取得する場合、センサデータの送信をインフラセンサ104、車載システム110等に要求し、センサデータを受信するための時間が必要であり、その時間が遅延時間になる。したがって、データの受信時間をも考慮して、実行できる追加解析処理が選択されることが好ましい。例えば、センサデータを処理対象とする追加解析処理に関しては、処理時間テーブル212に、データの受信時間をも記憶しておく。例えば、センサデータを処理対象とする追加解析処理に関しては、処理時間とデータの受信時間との合計値が、許容遅延及び転送遅延の差分以下であるか否かを判定することにより、実行可能か否かを判定できる。これにより、センサデータを新たに受信する場合にも、適切な追加解析処理が選択され得る。
 図7に示した処理は、図6に示したステップ316の具体的な一例である。ステップ400において、制御部140は、ステップ314により特定された追加解析処理のうちの1つを指定する。その後、制御はステップ402に移行する。
 ステップ402において、制御部140は、ステップ400により指定された追加解析処理が、センサデータを処理対象とする処理(即ちセンサデータ処理)であるか否かを判定する。センサデータ処理である場合、制御はステップ404に移行する。そうでなければ(即ち非センサデータ処理)、制御はステップ408に移行する。
 ステップ404において、制御部140は、動的情報に含まれる動的物体を含むセンサデータがメモリ142に記憶されているか否かを判定する。上記したように、インフラセンサ104及び車載システム110等は、動的情報とそれに対応するセンサデータとを送信することがある。そのようなデータを車載システム110が受信した場合、センサデータはメモリ142に記憶される。記憶されていると判定された場合、制御はステップ408に移行する。そうでなければ、制御はステップ406に移行する。
 ステップ406において、制御部140は、動的物体を含むセンサデータの送信要求を外部装置に送信し、その応答として送信されるセンサデータを受信する。例えば、制御部140は、動的物体の位置(例えば、メモリ142に動的情報として記憶されている)の近くに配置されているインフラセンサに、センサデータの送信を要求する。このとき、インフラセンサが過去の一定時間内のセンサデータを記憶していれば、制御部140は、センサデータが記憶された時間を指定して送信要求をしてもよい。例えば、制御部140は、メモリ142に記憶されている動的情報の取得時間を含む時間帯のセンサデータを要求する。これにより、対象の動的物体が含まれるセンサデータを取得できる可能性が高くなる。また、制御部140は、動的物体の位置の近くを走行している車両の車載システムに、センサデータの送信を要求してもよい。
 ステップ408において、制御部140は、ステップ400により指定された追加解析処理を実行する。このとき、追加解析処理がセンサデータを解析する処理であり、ステップ406によりセンサデータが取得されていれば、そのセンサデータが解析される。なお、ステップ406において所定時間内にセンサデータを受信できなければ、追加解析処理は実行されない。
 ステップ410において、制御部140は、さらに実行すべき追加解析処理が残っているか否かを判定する。残っていると判定された場合、制御はステップ400に戻る。そうでなければ、制御は、図6のフローチャートに戻りステップ318に移行する。制御がステップ400に戻った場合、ステップ400においては、既に実行された追加解析処理と重複しないように新たに追加解析処理が指定され、上記の処理が繰返される。
 これにより、センサデータを処理対象とする追加解析処理に関して、センサデータがメモリ142に記憶されていなければ、外部装置からセンサデータを受信し、受信したデータを解析して詳細属性を検出できる。センサデータを新たに取得して解析する場合にも、適切な特定の解析処理を選択でき、解析結果を車両の走行制御に有効に利用できる。
 上記においては、図6のフローチャートにおいて、ステップ314により実行可能な追加解析処理を全て特定した後に、特定された各追加解析処理をステップ316により実行する場合を説明したが、これに限定されない。実行可能な追加解析処理を特定する度に、特定された各追加解析処理を実行してもよい。例えば、ステップ314及び316の代わりに、任意の1つの追加解析処理に関して、Tp-Ttの間に処理が完了可能か否かを判定し、可能であればその処理を実行する。実行された追加解析処理に要した処理時間をTp-Ttから減算して得られた値(即ち時間)内に、別の追加解析処理が完了可能か否かを判定し、可能であれば処理を実行する。これを繰返すことにより、複数の追加解析処理を実行し得る。
 また、上記においては、図6のステップ318において、追加解析処理の結果と共に、受信した動的情報を自動運転ECU126に転送する場合を説明したが、これに限定されない。受信した動的情報を自動運転ECU126に転送する処理と、選択された追加解析処理とを並行して実行してもよい。これにより、新たなデータ(例えば動的情報)を自動運転ECU126に速やかに転送でき、自動運転ECU126は、転送されたデータを自車両の走行制御に速やかに反映させ得る。
 また、センサデータを追加解析処理した結果を、非センサデータの追加解析処理の対象としてもよい。即ち、非センサデータの追加解析処理は、センサデータの追加解析処理の結果及び動的情報の少なくとも一方を処理対象として実行され得る。例えば、センサデータの追加解析処理の結果として詳細属性が得られる。詳細属性を動的情報(即ち、位置及び簡易属性)に追加して処理対象データを生成し、移動予測、交通状況予測を得るための追加解析処理を実行してもよい。これにより、非センサデータの追加解析処理の確度を向上できる。
 [運転支援情報の変化]
 図8を参照して、1台の車両102が動的物体に近づくにつれて、その車両の車載システム100が生成する運転支援情報がどのように変化するかについて説明する。図8において、車両102Aから車両102Dは、時間経過に伴って位置が変化した同じ車両102を示す。同様に、歩行者900Aから歩行者900Dは、時間経過に伴って位置が変化した同じ歩行者900を示す。歩行者900Aから歩行者900Dは、例えば歩きスマホの状態を示している。符号の末尾に同じアルファベットが付された車両及び人は同時刻の状態を示す。上記したように、運転支援情報は、車両が動的物体に至るまでの予測時間である許容遅延Tpを考慮して生成される。したがって、図8においては、走行している車両と動的物体との距離に応じて算出された許容遅延T1から許容遅延T4を示している。車両102が歩行者900に近づくにつれて、許容遅延はT1からT4の順に小さくなる。なお、図8において、位置と簡易属性とをまとめて位置・簡易属性と記載している。
 ここでは、選択され得る追加解析処理を、詳細属性、移動予測及び交通状況予測の各々が得られる解析処理とし、それらの処理時間は、詳細属性、移動予測及び交通状況予測を生成する解析処理の順に長くなるとする。車両及び歩行者間の距離が比較的大きく、許容遅延TpがT1≧Tp>T2である道路を車両102Aが走行しているとする。車両102Aの車載ゲートウェイ122は、追加解析処理を実行し、詳細属性、移動予測及び交通状況予測を生成する。これらの解析結果と、インフラセンサ104等の外部装置から受信された位置・簡易属性とを用いて、階層化された運転支援情報が生成される。生成された運転支援情報は、自動運転ECU126に転送されると共に、メモリ142に記憶される。
 車両及び歩行者間の距離が小さくなり、許容遅延TpがT2≧Tp>T3である道路を車両102Bが走行するようになると、車載ゲートウェイ122は、詳細属性及び移動予測を生成する追加解析処理を実行する。車両102Bの車載ゲートウェイ122は、交通状況予測を生成するための追加解析処理を実行しない。解析結果(即ち、詳細属性及び移動予測)と、位置・簡易属性とを用いて、階層化された運転支援情報が生成される。生成された運転支援情報は、自動運転ECU126に転送される。図8において、実線の右向きの矢印は、その間、該当する情報が生成されて更新されることを表し、破線の右向きの矢印は、その間、該当する情報が生成されず、更新されないことを表す。破線により示す情報は、更新されない情報を表す。
 車両及び歩行者間の距離がより小さくなり、許容遅延TpがT2≧Tp>T1である道路を車両102Cが走行するようになると、車載ゲートウェイ122は、詳細属性を生成する追加解析処理を実行する。車両102Cの車載ゲートウェイ122は、移動予測及び交通状況予測を生成するための追加解析処理を実行しない。解析結果(即ち詳細属性)と、位置・簡易属性とを用いて、階層化された運転支援情報が生成される。生成された運転支援情報は、自動運転ECU126に転送される。
 車両及び歩行者間の距離がさらに小さくなり、許容遅延TpがT1≧Tp>0である道路を車両102Dが走行するようになると、車載ゲートウェイ122は、いずれの追加解析処理も実行しない。外部から受信した位置・簡易属性を運転支援情報として、自動運転ECU126に転送する。
 このように1台の車両において、車両の走行制御に用いる運転支援情報が変化する。車両の走行状況に応じて変化する運転支援情報が自動運転ECU126に提供されることにより、適切に車両の走行が制御される。
 [運転者への提示]
 車載システム100は、運転支援情報を用いて、運転者に適宜情報を提示できる。車載システム100により提示される情報が変化する例を図9から図13を参照して説明する。図9は、図8に示した車両102Aから車両102D及び歩行者900Aから歩行者900Dを、2次元的に、即ち道路地図上に示している。交差点910には、信号機及びインフラセンサ104が配置されている。図9は、車両用の信号機106aが青信号であり、歩行者用の信号機106bが赤信号である状態を示す。歩行者900(即ち、歩行者900Aから歩行者900D)は、歩行者用の信号機106bが赤信号にもかかわらず、歩きスマホの状態のまま横断歩道を横断(即ち信号無視)する。このような状況において、時間経過に伴い、車両102の車載システム100は運転者に、例えば、図10から図13に示すように情報を提示する。
 上記したように、動的物体(即ち歩行者900A)までの距離が大きい位置(即ち、許容遅延TpがT1≧Tp>T2)を走行している車両102Aの車載ゲートウェイ122が生成する運転支援情報は、解析結果である詳細属性、移動予測及び交通状況予測と、受信した動的情報(即ち、位置及び簡易属性)とを含む。車載システム100は、動的情報(即ち、位置及び簡易属性)に基づいて、例えば、カーナビゲーションシステムの表示画面の一部に、図10に示すように、交差点910付近の地図上に現在の歩行者(即ち歩行者900A)を示す図形920Aを表示する。車載システム100は、信号機106bが赤信号であるにもかかわらず、図形920Aが横断歩道上にあるので、危険な状態の発生(自車両の進行方向にある交差点910において信号を無視し始めた歩行者がいること)を特定できる。したがって、車載システム100は、警告のメッセージ230を表示する。さらに、車載システム100は、移動予測に含まれるt1秒後の動的物体を示す図形922を表示する。図10において、現在の動的物体を表す図形は実線により表示され、移動予測から特定される将来の動的物体を表す図形は破線により表示されている(図11から図13においても同様)。
 これにより、車両102の運転者は、前方の交差点910に、信号を無視して横断歩道を渡り始めた歩行者がいることを知ることができる。また、運転者は、将来(例えばt1秒後)においても歩行者が横断歩道上にいる可能性が高いことを知ることができ、車両の運転者は、慎重に運転する必要があると判断する。
 その後、動的物体(即ち歩行者900B)までの距離が小さくなると(即ち、許容遅延TpがT2≧Tp>T3)、車両102Bの車載ゲートウェイ122が生成する運転支援情報は、解析結果である詳細属性及び移動予測と、受信した動的情報(即ち、位置及び簡易属性)とを含む。車載システム100は、動的情報(即ち、位置及び簡易属性)に基づいて、図11に示すように、地図上に現在の歩行者(即ち歩行者900B)を示す図形920Bを表示する。車載システム100は、図形920Bが横断歩道上にあるので、危険な状態が継続していることを特定でき、表示されているメッセージ230を維持する。さらに、車載システム100は、移動予測を用いて、将来の歩行者(例えばt2秒後の動的物体)を示す図形924を表示する。
 その後、動的物体(即ち歩行者900C)までの距離がさらに小さくなると(即ち、許容遅延TpがT3≧Tp>T4)、車両102Cの車載ゲートウェイ122が生成する運転支援情報は、解析結果である詳細属性と、受信した動的情報(即ち、位置及び簡易属性)とを含む。車載システム100は、動的情報(即ち、位置及び簡易属性)に基づいて、図12に示すように、地図上に現在の歩行者(即ち歩行者900C)を示す図形920Cを表示する。車載システム100は、図形920Cが横断歩道上にあるので、危険な状態が継続していることを特定でき、表示されているメッセージ230を維持する。移動予測は生成されないので、図12においては、図11と同じ図形924が維持されている。
 図11及び図12のような提示により、車両の運転者は、前方の交差点910において、依然として歩行者が信号を無視して横断歩道を渡っていることを知ることができ、慎重に運転する必要があることが分かる。
 その後、動的物体(即ち歩行者900D)までの距離がさらに小さくなると(即ち、許容遅延TpがT4≧Tp>0)、車両102Dの車載ゲートウェイ122は追加解析処理を実行しない。したがって、運転支援情報が含むリアルタイムの情報は、受信した動的情報(即ち、位置及び簡易属性)だけである。車載システム100は、動的情報(即ち、位置及び簡易属性)に基づいて、図13に示すように、地図上に現在の歩行者(即ち歩行者900D)を示す図形920Dを表示する。車載システム100は、図形920Dが歩道上にあるので、危険な状態ではなくなったことを特定でき、表示されていたメッセージ230を消去する。これにより、車両の運転者は、前方の交差点910において、危険が去り、歩行者が横断歩道を渡り終えたことを知る。
 このように、車両102が動的物体に到達する予測時間(即ち許容遅延)に応じて、車載ゲートウェイ122が階層化された運転支援情報を生成する。この結果、車載システム100は、車両の運転者に危険な状態が発生したことを提示し、警告できる。運転支援情報に含まれるべき情報の種類(即ち階層)が、許容遅延に応じて変化する。したがって、車載システム100は、自車両にとって無駄な情報を生成することなく、適切に運転支援を行うことができる。
 上記においては歩行者が動的物体である場合を説明したが、これに限定されない。車両が衝突して損傷を与える可能性がある移動物体を検出対象とすることができ、自転車に乗った人、動物等であってもよい。
 [変形例]
 上記では、図3に示したように、車載システム100に標準装備された車載装置である車載ゲートウェイ122が、運転支援情報を生成する場合を説明したが、これに限定されない。変形例においては、車載システムに標準装備されず、後から装着(即ち車載)され得る装置により運転支援情報が生成される。
 図14を参照して、車両に搭載された車載システム150は、通信部120、車載ゲートウェイ154、センサ124、自動運転ECU126、ECU128、並びに、バス130及びバス132を含む。車載システム150には、標準装備ではなく、後から装着された拡張装置152が装着されている。図14において、図3と同じ符号を付した構成要素は、図3と同じ機能を有する。以下においては、主として異なる構成要素に関して説明する。
 車載システム150は、バス130と同様のバス132を含む。通信部120はバス132を介して車載ゲートウェイ154とデータ交換を行う。即ち、通信部120は、外部から受信したデータを、バス132を介して車載ゲートウェイ154に転送し、バス132を介して車載ゲートウェイ154から転送されたデータを外部に送信する。
 図15を参照して、拡張装置152は制御部160及びメモリ162を含む。制御部160は、CPUを含んで構成されており、メモリ162を制御する。メモリ162は、例えば、書換可能な不揮発性の半導体メモリであり、制御部160が実行するプログラムを記憶している。メモリ162は、制御部160が実行するプログラムのワーク領域を提供する。制御部160は、処理対象のデータを、バス132を介して取得し、処理結果をメモリ162に記憶し、適宜バス132にも出力する。拡張装置152は、図3に示した車載ゲートウェイ122と同じ機能、即ち図4に示した機能を有する。
 拡張装置152は、通信部120が受信したデータ(例えば、信号情報、車両の情報(例えば、位置、速度、走行方向)、動的情報及びセンサデータ等)を、バス132を介して取得できる。車載ゲートウェイ154は、車載ゲートウェイ122と異なり、図4に示した機能を有していない。車載ゲートウェイ154は、センサ124からバス130に出力されるセンサデータを、バス132を介して拡張装置152に伝送する。車載ゲートウェイ154は、自車両を走行させるための駆動部から自車両の速度を取得して、バス132を介して拡張装置152に伝送する。また、車載ゲートウェイ154は、拡張装置152からバス132に出力されるデータを、バス130を介して自動運転ECU126に伝送する。これにより、拡張装置152は、自車両が動的物体に到達するまでの時間(即ち許容遅延)に応じて、追加解析処理を実行し、階層化された運転支援情報を生成できる。運転支援情報は、自動運転ECU126に転送され、自車両の走行制御に利用される。
 車両102において生成された運転支援情報は、車両112の車載システム110等、他車両の車載システムに送信されてもよい。例えば、車載ゲートウェイ122は、運転支援情報を含むパケットデータを生成し、通信部120から基地局108を介して車両112の車載システム110に送信する。通信部120からの運転支援情報の送信は、例えばブロードキャストにより行われる。これにより、運転支援情報は、他車両の自動運転に利用され得る。例えば、車両112が、車両102の近くを車両102と同程度の速度で走行していれば、同じ動的物体に到達するまでの時間はほぼ同じと考えられる。したがって、車載システム110は、受信した運転支援情報を車両112の自動運転に利用できる可能性がある。
 車両102の車載ゲートウェイ122が、他車両により利用可能な運転支援情報を生成するために、どの追加解析処理を実行するかを判定する上で、上記の許容遅延、転送遅延及び処理時間等に加えて、車両間の通信時間(即ち、他車両へのデータ送信時間)を遅延時間として考慮することが好ましい。これにより、車両102において生成された運転支援情報が、他車両の走行制御に有効に使用される可能性が高くなる。
 なお、上述の実施形態の各処理(各機能)は、1又は複数のプロセッサを含む処理回路(Circuitry)により実現されてもよい。上記処理回路は、上記1又は複数のプロセッサに加え、1又は複数のメモリ、各種アナログ回路及び各種デジタル回路のいずれかが組み合わされた集積回路等により構成されてもよい。上記1又は複数のメモリは、上記各処理を上記1又は複数のプロセッサに実行させるプログラム(命令)を格納する。上記1又は複数のプロセッサは、上記1又は複数のメモリから読出した上記プログラムに従い上記各処理を実行してもよいし、予め上記各処理を実行するように設計された論理回路に従って上記各処理を実行してもよい。上記プロセッサは、CPU、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等、コンピュータの制御に適合する種々のプロセッサであってよい。
 また、車載装置100の処理(具体的には、車載ゲートウェイ122が実行する処理(例えば、図6及び図7に示した処理)をコンピュータに実行させるプログラムを記録した記録媒体を提供できる。記録媒体は、例えば光ディスク(DVD(Digital Versatile Disc)等)、着脱可能な半導体メモリ(USB(Universal Serial Bus)メモリ等)である。コンピュータプログラムは通信回線により伝送され得るが、記録媒体は非一時的な記録媒体を意味する。記録媒体に記憶されたプログラムを車両に搭載されたコンピュータに読込ませることにより、コンピュータは、上記したように、自車両が動的物体に到達するまでの予測時間に応じて、自車両内において適切に階層化された運転支援情報を生成し、運転支援情報を自車両の走行制御に利用することを可能とする。
(付記)
 即ち、コンピュータ読取り可能な非一時的な記録媒体は、
 車両に搭載されたコンピュータに、
 前記車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定機能と、
 前記車両における情報処理及び情報伝送の負荷状態に基づいて、前記コンピュータが前記車両の外部からデータを受信してから前記コンピュータが当該データを自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定機能と、
 前記許容遅延及び前記転送遅延の差分に基づいて、外部から受信した前記データを解析するための複数の解析処理の中から、特定の解析処理を選択する判定機能と、
 前記判定機能により選択された前記特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成機能とを実現させるためのコンピュータプログラムであって、
 外部から受信した前記データは、前記動的物体に関する情報を含み、
 前記運転支援情報は、前記自動運転機能の実行部に転送される、コンピュータプログラムを記憶している。
 以上、実施の形態を説明することにより本開示を説明したが、上記した実施の形態は例示であって、本開示は上記した実施の形態のみに制限されるわけではない。本開示の範囲は、発明の詳細な説明の記載を参酌した上で、請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
100、110、150  車載システム
102、112、102A、102B、102C、102D  車両
104  インフラセンサ
106、106a、106b  信号機
108  基地局
114  ネットワーク
120  通信部
122、154  車載ゲートウェイ
124  センサ
126  自動運転ECU
128  ECU
130、132  バス
140、160  制御部
142、162  メモリ
152  拡張装置
200  記憶部
202  許容遅延推定部
204  判定部
206  転送遅延推定部
208  追加解析処理部
210  出力部
212  処理時間テーブル
230  メッセージ
300、302、304、306、308、310、312、314、316、318、320、400、402、404、406、408、410  ステップ
900、900A、900B、900C、900D  歩行者
910  交差点
920A、920B、920C、920D、922、924  図形
T1、T2、T3、T4、Tp  許容遅延

Claims (13)

  1.  自動運転機能を有する車両に搭載される車載装置であって、
     前記車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定部と、
     前記車両における情報処理及び情報伝送の負荷状態に基づいて、前記車載装置が前記車両の外部からデータを受信してから前記車載装置が当該データを前記自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定部と、
     前記許容遅延及び前記転送遅延の差分に基づいて、前記外部から受信した前記データを解析するための複数の解析処理の中から、特定の解析処理を選択する判定部と、
     前記判定部により選択された前記特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成部とを含み、
     外部から受信した前記データは、前記動的物体に関する情報を含み、
     前記運転支援情報は、前記自動運転機能の実行部に転送される、車載装置。
  2.  外部から受信した前記データは、センサデータをさらに含み、
     前記動的物体に関する前記情報は、前記動的物体の位置情報及び簡易属性情報を含み、
     前記運転支援情報生成部は、前記特定の解析処理を実行した結果と、前記位置情報及び前記簡易属性情報とを各階層として含む階層化された前記運転支援情報を生成する、請求項1に記載の車載装置。
  3.  前記運転支援情報は、
      前記センサデータを処理対象とする前記特定の解析処理による解析結果を含む第1層と、
      前記センサデータを処理対象としない前記特定の解析処理による解析結果を含む第2層とを含む、請求項2に記載の車載装置。
  4.  前記センサデータを処理対象としない前記特定の解析処理は、前記センサデータを処理対象とする前記特定の解析処理による解析結果及び前記動的物体に関する前記情報の少なくとも一方を処理対象とする、請求項2又は請求項3に記載の車載装置。
  5.  前記判定部は、
      前記許容遅延から前記転送遅延を減算して前記差分を算出し、
      前記差分が0以上の所定値より大きいか否かを判定し、
      前記差分が前記所定値より大きければ、前記特定の解析処理を選択し、
      前記差分が前記所定値以下であれば、前記特定の解析処理を選択しない、請求項1から請求項4のいずれか1項に記載の車載装置。
  6.  前記差分が前記所定値以下であれば、前記動的物体に関する前記情報は、前記転送遅延が前記許容遅延以上であることを表す情報と共に前記実行部に転送される、請求項5に記載の車載装置。
  7.  複数の前記解析処理の各々に関して、処理対象のデータ量に応じた処理時間を記録した処理時間テーブルを記憶する記憶部をさらに含み、
     前記差分が前記所定値より大きければ、前記判定部は、前記データのデータ量を用いて前記処理時間テーブルを参照して前記データの処理時間を特定した後、当該処理時間が、前記差分以下であるか否かを判定することにより、前記特定の解析処理を選択する、請求項5又は請求項6に記載の車載装置。
  8.  前記処理時間テーブルは、前記複数の解析処理のうち、センサデータを処理対象とする解析処理に関して、処理対象のセンサデータを新たに取得する取得時間をさらに含み、
     前記差分が前記所定値より大きければ、前記判定部は、前記処理時間テーブルを参照して特定した前記処理時間及び前記取得時間の合計値が、前記差分以下であるか否かを判定することにより、前記特定の解析処理を選択する、請求項7に記載の車載装置。
  9.  自動運転機能を有する車両に搭載される車載システムであって、
     前記自動運転機能の実行部と、
     動的物体に関する情報を含むデータを取得する通信部と、
     請求項1から請求項8のいずれか1項に記載の車載装置とを含む、車載システム。
  10.  前記通信部はさらに、前記車載装置により生成された前記運転支援情報を、前記車両の位置及び走行方向の情報を付して他車両に送信する、請求項9に記載の車載システム。
  11.  前記車載装置の前記判定部は、
      前記通信部から送信される前記運転支援情報の通信時間を推定し、
      前記許容遅延と前記転送遅延及び前記通信時間の合計値との差分に基づいて、複数の前記解析処理の中から前記特定の解析処理を選択する、請求項10に記載の車載システム。
  12.  車両の自動運転機能を支援する制御方法であって、
     前記車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定ステップと、
     前記車両における情報処理及び情報伝送の負荷状態に基づいて、前記車両に搭載される車載装置が前記車両の外部からデータを受信してから前記車載装置が当該データを前記自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定ステップと、
     前記許容遅延及び前記転送遅延の差分に基づいて、外部から受信した前記データを解析するための複数の解析処理の中から、特定の解析処理を選択する判定ステップと、
     前記判定ステップにより選択された前記特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成ステップとを含み、
     外部から受信した前記データは、前記動的物体に関する情報を含み、
     前記運転支援情報は、前記自動運転機能の実行部に転送される、制御方法。
  13.  車両に搭載されたコンピュータに、
     前記車両が動的物体に到達するまでの時間を許容遅延として推定する許容遅延推定機能と、
     前記車両における情報処理及び情報伝送の負荷状態に基づいて、前記コンピュータが前記車両の外部からデータを受信してから前記コンピュータが当該データを自動運転機能の実行部に転送するまでの時間を転送遅延として推定する転送遅延推定機能と、
     前記許容遅延及び前記転送遅延の差分に基づいて、外部から受信した前記データを解析するための複数の解析処理の中から、特定の解析処理を選択する判定機能と、
     前記判定機能により選択された前記特定の解析処理を実行し、運転支援情報を生成する運転支援情報生成機能とを実現させるためのコンピュータプログラムであって、
     外部から受信した前記データは、前記動的物体に関する情報を含み、
     前記運転支援情報は、前記自動運転機能の実行部に転送される、コンピュータプログラム。
PCT/JP2022/029575 2021-10-06 2022-08-02 車載装置、車載システム、制御方法及びコンピュータプログラム WO2023058306A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280060497.9A CN117916786A (zh) 2021-10-06 2022-08-02 车载装置、车载系统、控制方法及计算机程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-164872 2021-10-06
JP2021164872 2021-10-06

Publications (1)

Publication Number Publication Date
WO2023058306A1 true WO2023058306A1 (ja) 2023-04-13

Family

ID=85804153

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/029575 WO2023058306A1 (ja) 2021-10-06 2022-08-02 車載装置、車載システム、制御方法及びコンピュータプログラム

Country Status (2)

Country Link
CN (1) CN117916786A (ja)
WO (1) WO2023058306A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204152A (ja) * 2016-05-11 2017-11-16 株式会社デンソー 車両制御システムおよび車両制御装置
CN111722626A (zh) * 2020-05-11 2020-09-29 北京经纬恒润科技有限公司 远程驾驶系统及其安全保护方法和安全保护模块
JP2020181277A (ja) * 2019-04-24 2020-11-05 住友電気工業株式会社 サーバ装置およびその制御方法、端末およびその制御方法、移動体支援システムおよび方法、並びにコンピュータプログラム
JP2020184194A (ja) * 2019-05-08 2020-11-12 住友電気工業株式会社 情報転送装置、車載装置、システム、情報転送方法及びコンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204152A (ja) * 2016-05-11 2017-11-16 株式会社デンソー 車両制御システムおよび車両制御装置
JP2020181277A (ja) * 2019-04-24 2020-11-05 住友電気工業株式会社 サーバ装置およびその制御方法、端末およびその制御方法、移動体支援システムおよび方法、並びにコンピュータプログラム
JP2020184194A (ja) * 2019-05-08 2020-11-12 住友電気工業株式会社 情報転送装置、車載装置、システム、情報転送方法及びコンピュータプログラム
CN111722626A (zh) * 2020-05-11 2020-09-29 北京经纬恒润科技有限公司 远程驾驶系统及其安全保护方法和安全保护模块

Also Published As

Publication number Publication date
CN117916786A (zh) 2024-04-19

Similar Documents

Publication Publication Date Title
US11205342B2 (en) Traffic information processing device
JP2017151798A (ja) 道路異常警告システム及び車載機
JP6398877B2 (ja) 自動運転制御装置
KR20180042344A (ko) 예상 주행 의도에 관한 정보를 제공하기 위한 장치, 방법 및 컴퓨터 프로그램
CN111559383A (zh) 用于基于车辆和边缘传感器数据确定自主车辆(av)动作的方法和系统
JP2016051467A (ja) 適合化予測のために広域的シーンコンテクストを使用する方法およびシステム並びに対応するプログラム、該システムを備えた乗り物
WO2019225268A1 (ja) 走行計画生成装置、走行計画生成方法、及び制御プログラム
US11146918B2 (en) Systems and methods for network node communication using dynamically configurable interaction modes
WO2018116795A1 (ja) 運転支援システム及び運転支援装置
WO2022049924A1 (ja) 車載装置、情報配信装置、運転支援システム、制御方法及びコンピュータプログラム
WO2017104209A1 (ja) 運転支援装置
US20210070220A1 (en) Ingress and egress for autonomous vehicle
JP7293849B2 (ja) 情報転送装置、車載装置、システム、情報転送方法及びコンピュータプログラム
WO2023058306A1 (ja) 車載装置、車載システム、制御方法及びコンピュータプログラム
JP7238443B2 (ja) 基地局及び車載装置
CN115240444B (zh) 用于执行交通控制抢占的车辆和方法
CN116255973A (zh) 车辆定位
WO2017159238A1 (ja) 車両用通信制御装置
WO2021166425A1 (ja) 走行支援装置、走行支援方法、および走行支援プログラム
WO2023058305A1 (ja) 車載装置、集約装置、車載システム、サーバコンピュータ、制御方法及びコンピュータプログラム
JP7283215B2 (ja) 車載装置、システム、制御方法、半導体集積回路及びコンピュータプログラム
WO2023243324A1 (ja) 車載装置、車載システム、サーバコンピュータ、制御方法およびコンピュータプログラム
WO2023238796A1 (ja) 車載装置、車載システム、サーバコンピュータ、推奨経路判定方法およびコンピュータプログラム
JP2020161087A (ja) 車両制御装置および車両制御方法
WO2023058362A1 (ja) 車載装置、車両システム、サーバコンピュータ、制御方法及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22878177

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280060497.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2023552707

Country of ref document: JP