WO2023085062A1 - 制御装置、制御システム、制御方法、制御プログラム - Google Patents

制御装置、制御システム、制御方法、制御プログラム Download PDF

Info

Publication number
WO2023085062A1
WO2023085062A1 PCT/JP2022/039486 JP2022039486W WO2023085062A1 WO 2023085062 A1 WO2023085062 A1 WO 2023085062A1 JP 2022039486 W JP2022039486 W JP 2022039486W WO 2023085062 A1 WO2023085062 A1 WO 2023085062A1
Authority
WO
WIPO (PCT)
Prior art keywords
scene
sensing data
collection
host vehicle
logger unit
Prior art date
Application number
PCT/JP2022/039486
Other languages
English (en)
French (fr)
Inventor
文城 林
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2023085062A1 publication Critical patent/WO2023085062A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map

Definitions

  • the present disclosure relates to control technology for controlling collection processing of sensing data in vehicles.
  • Patent Document 1 discloses a technique for downsampling image capture data as sensing data acquired in a vehicle in order to store it in a low-capacity memory device.
  • An object of the present disclosure is to provide a control device that efficiently collects high-quality sensing data. Another object of the present disclosure is to provide a control system that efficiently collects high quality sensing data. Another object of the present disclosure is to provide a control method for efficiently collecting high-quality sensing data. Yet another object of the present disclosure is to provide a control program that efficiently collects high-quality sensing data.
  • a first aspect of the present disclosure is A control device for controlling collection processing of sensing data acquired by a sensor system in a host vehicle to a logger unit, a storage medium for storing a scene model in which a running scene of the host vehicle is modeled; By monitoring the degree of matching between the driving scene recognized based on the sensing data and the stored scene model, driving scenes whose matching degree has fallen outside the necessary range necessary for collection to the logger unit are excluded. a monitoring processor for commanding the logger unit to exclude sensing data acquired in the scene from being collected.
  • the degree of matching between the driving scene of the host vehicle recognized based on the sensing data from the sensor system and the scene model in which the driving scene is modeled and stored in the storage medium is determined by the monitoring processor. be monitored. Therefore, according to the first aspect, sensing data acquired in an excluded scene, which is a driving scene in which the degree of matching has fallen outside the necessary range required for collection to the logger unit, is excluded from the collection target by the logger from the monitoring processor. commanded to the unit. According to this, the collection target is limited to high-quality sensing data in driving scenes where the degree of matching with the scene model is within the necessary range for collection to the logger unit, and selective collection of sensing data is efficiently performed. can be done systematically.
  • a second aspect of the present disclosure is A control system for controlling collection processing of sensing data acquired by a sensor system in a host vehicle, a controller of the first aspect;
  • a logger unit that stores sensing data and excludes sensing data acquired in an excluded scene from collection targets in response to a command from the monitoring processor.
  • the logger unit monitors the matching degree of the sensing data acquired in the excluded scene, which is the driving scene in which the matching degree between the driving scene and the scene model falls outside the required range. will be removed from collection in response to a directive based on According to this, the collection target is limited to high-quality sensing data in driving scenes where the degree of matching with the scene model is within the necessary range for collection to the logger unit, and selective collection of sensing data is efficiently performed. can be done systematically.
  • a third aspect of the present disclosure is A control device that includes at least one processor and controls collection processing of sensing data acquired by a sensor system in a host vehicle to a logger unit,
  • the processor monitoring the degree of matching between the driving scene of the host vehicle recognized based on the sensing data and the scene model in which the driving scene is modeled; commanding the logger unit to exclude the sensing data acquired in the excluded scene, which is a driving scene in which the degree of matching has fallen outside the necessary range necessary for collection to the logger unit, from the collection target. Configured.
  • a fourth aspect of the present disclosure is A control method executed by at least one processor for controlling collection processing of sensing data acquired by a sensor system in a host vehicle to a logger unit, comprising: monitoring the degree of matching between the driving scene of the host vehicle recognized based on the sensing data and the scene model in which the driving scene is modeled; This includes commanding the logger unit to exclude sensing data acquired in an excluded scene, which is a driving scene in which the degree of matching has fallen outside the necessary range required for collection by the logger unit, from collection targets.
  • a fifth aspect of the present disclosure includes: A control program stored in at least one storage medium and containing instructions to be executed by at least one processor for controlling collection processing of sensing data acquired by a sensor system in a host vehicle to a logger unit, the instruction is monitoring the degree of matching between the driving scene of the host vehicle recognized based on the sensing data and the scene model in which the driving scene is modeled; This includes instructing the logger unit to exclude the sensing data acquired in the excluded scene, which is a driving scene in which the degree of matching has fallen outside the necessary range required for collection by the logger unit, from the collection target.
  • the degree of matching between the driving scene of the host vehicle recognized based on the sensing data from the sensor system and the scene model in which the driving scene is modeled is monitored. Therefore, according to the third to fifth aspects, sensing data acquired in an excluded scene, which is a driving scene in which the degree of matching has fallen outside the necessary range required for collection by the logger unit, is excluded from collection targets by the logger. commanded to the unit. According to this, the collection target is limited to high-quality sensing data in driving scenes where the degree of matching with the scene model is within the necessary range for collection to the logger unit, and selective collection of sensing data is efficiently performed. can be done systematically.
  • a sixth aspect of the present disclosure is A control system that includes at least one processor and controls collection processing of sensing data acquired by a sensor system in a host vehicle to a logger unit,
  • the processor monitoring the degree of matching between the driving scene of the host vehicle recognized based on the sensing data and the scene model in which the driving scene is modeled; Exclude sensing data acquired in an excluded scene, which is a driving scene in which the degree of matching has fallen outside the necessary range required for collection to the logger unit, from collection targets in the logger unit.
  • a seventh aspect of the present disclosure comprises: A control method executed by at least one processor for controlling collection processing of sensing data acquired by a sensor system in a host vehicle to a logger unit, comprising: monitoring the degree of matching between the driving scene of the host vehicle recognized based on the sensing data and the scene model in which the driving scene is modeled; Exclude sensing data acquired in an excluded scene, which is a driving scene in which the degree of matching has fallen outside the necessary range necessary for collection to the logger unit, from collection targets in the logger unit.
  • An eighth aspect of the present disclosure comprises: A control program stored in at least one storage medium and containing instructions to be executed by at least one processor for controlling collection processing of sensing data acquired by a sensor system in a host vehicle to a logger unit, the instruction is monitoring the degree of matching between the driving scene of the host vehicle recognized based on the sensing data and the scene model in which the driving scene is modeled; Excluding sensing data acquired in an excluded scene, which is a driving scene in which the degree of matching has fallen outside the required range required for collection by the logger unit, from being collected by the logger unit.
  • the degree of matching between the driving scene of the host vehicle recognized based on the sensing data from the sensor system and the scene model in which the driving scene is modeled is monitored. Therefore, according to the sixth to eighth aspects, sensing data acquired in an excluded scene, which is a driving scene in which the degree of matching has fallen outside the required range required for collection to the logger unit, is excluded from collection targets in the logger unit. be. According to this, the collection target is limited to high-quality sensing data in driving scenes where the degree of matching with the scene model is within the necessary range for collection to the logger unit, and selective collection of sensing data is efficiently performed. can be done systematically.
  • FIG. 1 is a block diagram showing the overall configuration of a control system according to one embodiment
  • FIG. 1 is a block diagram showing the detailed configuration of a control system according to one embodiment
  • FIG. 4 is a schematic diagram for explaining a scene model according to one embodiment
  • FIG. 4 is a schematic diagram for explaining monitoring processing according to an embodiment
  • 4 is a flow chart illustrating control flow according to one embodiment.
  • the control system 9 of one embodiment shown in FIGS. 1 and 2 controls the process of collecting the data Dso acquired in the host vehicle Vh to the logger unit 5.
  • the host vehicle Vh can also be said to be an ego-vehicle.
  • the host vehicle Vh is a moving body such as an automobile that can travel on a road while a passenger is on board.
  • Autonomous driving control may be achieved through autonomous driving control, such as conditional driving automation, advanced driving automation, or full driving automation, in which the system performs all driving tasks when activated.
  • Autonomous driving control may be achieved through advanced driving assistance control, such as driving assistance or partial driving automation, in which the occupant performs some or all driving tasks.
  • Automatic driving control may be realized by either one, combination, or switching between autonomous driving control and advanced driving support control.
  • the control system 9 includes an external control device 1 , an internal control system 4 and a relay cable system 8 .
  • the external control device 1 is arranged inside the body of the host vehicle Vh.
  • the in-vehicle control system 4 is arranged in the body of the host vehicle Vh.
  • the relay cable system 8 is routed inside the body of the host vehicle Vh to connect the external control device 1 and the internal control system 4 so as to be mutually communicable.
  • the relay cable system 8 includes, for example, multiple types of LVDS (Low Voltage Differential Signaling) cables, CAN (Controller Area Network) cables, and LAN (Local Area Network) cables for Ethernet.
  • time synchronization based on, for example, PTP (Precision Time Protocol) or gPTP is realized between the external control device 1 and the internal control system 4 communicating via the relay cable system 8 .
  • the external control device 1 is constructed as a control module specialized for automatic driving in order to control the collection processing of the acquired data Dso in the host vehicle Vh to the logger unit 5.
  • the external control device 1 comprises a housing 2 , an external sensor system 3 , a monitoring unit 10 and a recognition unit 20 .
  • the housing 2 is formed, for example, in the shape of a hollow flat rectangular box.
  • the housing 2 is installed on the roof that forms the body of the host vehicle Vh.
  • the housing 2 accommodates other components 3, 10, 20 of the external control device 1 inside.
  • the vehicle exterior sensor system 3 has a plurality of external sensors 30 .
  • Each external sensor 30 is a separate type, for example, from cameras, LiDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging), radar, sonar, and the like.
  • Each external sensor 30 senses an area in the external world of the host vehicle Vh according to the arrangement position within the housing 2 and the individual viewing angle.
  • Each external sensor 30 generates, as a result of sensing, external sensing data Dso representing external information that can be utilized for automatic driving control of the host vehicle Vh in each control cycle.
  • the vehicle exterior sensing data Dso is acquired so as to include time stamp information representing the acquired time.
  • the monitoring unit 10 is provided with communication interfaces 12 , 14 , 16 , a monitoring SoC (System on a Chip) 101 and a model storage medium 104 .
  • a communication interface 12 such as a deserializer in the monitoring unit 10 is connected to each external sensor 30 of the vehicle exterior sensor system 3 .
  • the communication interface 12 forms an internal transmission path 17 by being connected to the recognition unit 20 via the inter-unit bus.
  • a communication interface 14 such as a serializer in the monitoring unit 10 is connected to the communication interface 12 of the unit 10 via an internal bus and to the in-vehicle control system 4 via a relay cable system 8, thereby forming a data transmission path 80.
  • the monitoring unit 10 can transmit the external sensing data Dso from each external sensor 30 of the external sensor system 3 to the logger unit 5 through the data transmission path 80 .
  • a communication interface 16 such as CAN or LAN such as Ethernet is connected to the monitoring SoC 101 via an internal bus and to the in-vehicle control system 4 via a relay cable system 8, thereby establishing a data transmission path 82.
  • a monitoring SoC 101 is a dedicated computer that includes a monitoring processor 102 and a monitoring memory 103 .
  • the monitoring processor 102 includes, as a core, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a RISC (Reduced Instruction Set Computer)-CPU.
  • the monitoring memory 103 is a non-transitory tangible storage medium such as a semiconductor memory that stores computer-readable programs and data non-temporarily.
  • the monitoring SoC 101 forms an internal transmission path 18 by being connected to the recognition unit 20 via an inter-unit bus.
  • the monitoring SoC 101 is connected to the communication interface 14 via an internal bus to form a relay path 19 that relays between the monitoring processor 102 and the data transmission path 80 .
  • the model storage medium 104 in the monitoring unit 10 is connected to the monitoring SoC 101 via an internal bus.
  • the model storage medium 104 is a non-transitory tangible storage medium such as a semiconductor memory such as an SSD (Solid State Drive) that stores data readable by a computer non-temporarily.
  • the model storage medium 104 of the present embodiment is a scene modeled by modeling a plurality of collection necessary scenes sn necessary for collection to the logger unit 5 as shown in FIG. It stores the model Ms.
  • the scene model Ms at least defines, as shown in FIG. 3, a plurality of collection-required scenes sn regarding the host vehicle Vh among the driving scenes classified for each type of combination such as driving style and external driving environment.
  • the scene model Ms may be a model that defines, for each collection-required scene sn, objects for which interaction is assumed for collection by the logger unit 5 among moving bodies and structures other than the host vehicle Vh. good.
  • the scene model Ms distributes the distribution of at least one of the distance to an object whose interaction needs to be assumed for collection to the logger unit 5 and the recognition rate according to the relative position of the object for each collection required scene sn. It may be a model that defines.
  • the scene model Ms may be a model that defines, for each collection-required scene sn, the locations necessary for collection to the logger unit 5 among the map information on which the host vehicle Vh is assumed to travel.
  • the monitoring processor 102 cooperates with the monitoring memory 103 and the model storage medium 104 to execute monitoring processing and command processing. Specifically, in the monitoring process, the monitoring processor 102 shown in FIG. 2 acquires recognition data Dr from the recognition unit 20 through the internal transmission path 18 .
  • the recognition data Dr represents a driving scene of the host vehicle Vh (hereinafter also referred to as a recognition driving scene) recognized by the recognition unit 20 based on the vehicle exterior sensing data Dso from the vehicle exterior sensor system 3, as will be described later. ing.
  • the recognition data Dr includes time stamp information representing the acquisition time of the vehicle exterior sensing data Dso used for recognition of the driving scene.
  • the monitoring processor 102 monitors the degree of matching between the acquired running scene of the host vehicle Vh and the scene model Ms stored in the model storage medium 104 .
  • the degree of matching is the maximum matching scene snm with the maximum matching rate determined by the setting rule or the machine learning model among the plurality of scenes sn included in the scene model Ms. Defined as maximum match rate.
  • the recognition processor 202 acquires the actual driving data Dad representing the driving state of the host vehicle Vh from the in-vehicle control system 4 through the data transmission path 82, as will be described later. It can be reflected in calculation.
  • the recognition processor 202 receives information related to the remote instruction or remote operation. may be reflected in the computation of the degree of matching.
  • the information related to the remote instruction or the remote operation is at least one of the information presented at the remote center, which is the basis for determining the remote instruction or the remote operation, and the voice of the operator at the remote center.
  • the monitoring processor 102 determines whether the degree of matching between the maximum matching scene snm of the scene model Ms and the recognized driving scene has fallen outside the necessary range for data collection to the logger unit 5 as shown in FIG. Determine whether or not.
  • the monitoring processor 102 determines the recognized driving scene with the decreased matching degree as the excluded scene se.
  • the necessary range which is the criteria for determining the degree of matching, is set in advance to a range that can cover driving scenes required in vehicle development, such as a vehicle control model.
  • the monitoring processor 102 shown in FIG. 2 generates collection command data Dcl that commands the logger unit 5 to exclude the vehicle exterior sensing data Dso acquired in the exclusion scene se from collection targets.
  • the collection command data Dcl is acquired so as to include time stamp information representing the acquisition time of the vehicle exterior sensing data Dso acquired in the excluded scene se.
  • the monitoring processor 102 In command processing, the monitoring processor 102 outputs the generated collection command data Dcl to the communication interface 14 via the relay path 19 .
  • the communication interface 14 interrupts the collection command data Dcl between transmission frames of the vehicle exterior sensing data Dso from the vehicle exterior sensor system 3 by, for example, buffering processing before data transmission. This enables the monitoring processor 102 to transmit the collection command data Dcl from the relay path 19 to the logger unit 5 through the data transmission path 80 .
  • the recognition unit 20 is mounted together with the monitoring unit 10 on a board housed in the housing 2 of the external control device 1 .
  • the recognition unit 20 is provided with a recognition SoC 201 and a recognition storage medium 204 .
  • Recognition SoC 201 is a dedicated computer that includes recognition processor 202 and recognition memory 203 .
  • the recognition processor 202 includes, as a core, at least one of CPU, GPU, RISC-CPU, and the like.
  • the recognition memory 203 is a non-transitory tangible storage medium such as a semiconductor memory that stores computer-readable programs and data non-temporarily.
  • the recognition SoC 201 in the recognition unit 20 forms an internal transmission path 17 by being connected to the communication interface 12 via the inter-unit bus.
  • the recognition SoC 201 forms an internal transmission path 18 by being connected to the monitoring SoC 101 via an inter-unit bus.
  • the recognition SoC 201 forms an internal transmission path 22 by being connected to the communication interface 16 via an inter-unit bus.
  • the recognition processor 202 cooperates with the recognition memory 203 to execute recognition processing and operation planning processing. Specifically, in the recognition process, the recognition processor 202 acquires the vehicle exterior sensing data Dso from each external sensor 30 of the vehicle exterior sensor system 3 through the internal transmission path 17 . At the same time, in the recognition process, the recognition processor 202 acquires actual driving data Dad representing the driving state of the host vehicle Vh from the in-vehicle control system 4 through the data transmission path 82 and the internal transmission path 22 as will be described later.
  • the recognition processor 202 recognizes the current driving scene of the host vehicle Vh based on the outside sensing data Dso and the actual driving data Dad, thereby generating recognition data Dr representing the recognized driving scene.
  • the recognition data Dr generated including the time stamp information of the recognized driving scene is transmitted to the monitoring unit 10 through the internal transmission path 18, and is given from the recognition processor 202 to the monitoring processor 102. .
  • the operation plan processing based on such recognition processing is executed in parallel with at least the monitoring processing out of the monitoring processing and command processing by the monitoring processor 102 given the recognition data Dr.
  • the recognition processor 202 plans a future driving path and a future driving trajectory that define the future driving of the host vehicle Vh according to the recognized driving scene.
  • the recognition processor 202 of the present embodiment further generates driving command data Dcd for commanding the in-vehicle control system 4 to control driving for providing the planned future driving path and future driving trajectory to the host vehicle Vh.
  • the drive command data Dcd generated at this time is transmitted to the in-vehicle control system 4 through the internal transmission path 22 and the data transmission path 82 .
  • the in-vehicle control system 4 includes a logger unit 5, an in-vehicle sensor system 6, and an operation control unit 7.
  • the logger unit 5 is provided with a communication interface 50 , a logging SoC 501 and a logging storage medium 504 .
  • a communication interface 50 such as a deserializer in the logger unit 5 is connected to the communication interface 14 of the monitoring unit 10 via the relay cable system 8 to form a data transmission path 80 .
  • the logging SoC 501 in the logger unit 5 is connected to the communication interface 50 via an internal bus.
  • Logging SoC 501 is a dedicated computer that includes collection processor 502 and collection memory 503 .
  • the collection processor 502 includes, as a core, at least one of CPU, GPU, RISC-CPU, and the like.
  • the acquisition memory 503 is a non-transitory tangible storage medium such as a semiconductor memory that stores computer-readable programs and data non-temporarily.
  • a logging storage medium 504 in the logger unit 5 is connected to the logging SoC 501 via an internal bus.
  • the logging storage medium 504 is a non-transitory storage medium such as a semiconductor memory such as an SSD, or a magnetic medium such as a HDD (Hard Disk Drive) that stores computer-readable data etc. non-temporarily. tangible storage medium).
  • the collection processor 502 cooperates with the collection memory 503 and the logging storage medium 504 to perform collection processing and selection processing. Specifically, in the collection process, the collection processor 502 acquires the outside sensing data Dso from each external sensor 30 of the outside sensor system 3 through the data transmission path 80 . Therefore, the collection processor 502 in the collection process stores the sequentially acquired outside sensing data Dso in the logging storage medium 504 in chronological order based on the respective time stamp information.
  • the collection processor 502 selects data Dcl in response to obtaining collection command data Dcl from the monitoring processor 102 of the monitoring unit 10 through the data transmission path 80, that is, in response to a command from the same processor 102. Execute the process. In the sorting process, the collection processor 502 deletes the data corresponding to the time stamp information of the excluded scene se included in the collection command data Dcl from the outside sensing data Dso stored in the logging storage medium 504 by the collection process. Thin out. This means that the outside sensing data Dso acquired in the excluded scene se is excluded from collection targets in the logger unit 5 .
  • the in-vehicle sensor system 6 has multiple external sensors 60 and multiple internal sensors 62 .
  • the external sensor 60 is, for example, a camera, a LiDAR, a laser radar, a millimeter wave radar, an ultrasonic sonar, or the like, and is of a plurality of types capable of sensing the external world from within the host vehicle Vh.
  • the external sensor 60 may include, for example, a GNSS (Global Navigation Satellite System) receiver capable of receiving positioning information of the host vehicle Vh from the external world.
  • the external sensor 60 may include, for example, a DSRC (Dedicated Short Range Communications) communication device or a cellular V2X (C-V2X) communication device capable of receiving position information of the host vehicle Vh from the external world.
  • the internal world sensor 62 is, for example, a vehicle speed sensor, an acceleration sensor, a gyro sensor, or the like, and is one of a plurality of types capable of detecting physical quantities related to driving in the internal world of the host vehicle Vh.
  • the external sensor 60 and the internal sensor 62 generate in-vehicle sensing data Dsi representing sensing results and detection results, respectively.
  • the operation control unit 7 is provided with a communication interface 70 and an operation control ECU (Electronic Control Unit) 701 .
  • a communication interface 70 such as LAN such as CAN or Ethernet in the operation control unit 7 is connected to the communication interface 16 of the monitoring unit 10 via the relay cable system 8 to form a data transmission path 82 .
  • the communication interface 70 is connected to the operation control ECU 701 via the inside.
  • the communication interface 70 is connected to the external sensor 60 and the internal sensor 62 of the vehicle interior sensor system 6 via an in-vehicle network such as LAN such as CAN or Ethernet in the host vehicle Vh.
  • the operation control ECU 701 is a dedicated computer including an operation control processor 702 and an operation control memory 703.
  • the operation control processor 702 includes at least one of CPU, GPU, RISC-CPU, etc. as a core.
  • the operation control memory 703 is a non-transitory tangible storage medium such as a semiconductor memory that non-temporarily stores computer-readable programs and data.
  • the operation control processor 702 cooperates with the operation control memory 703 to execute operation control processing. Specifically, in the operation control process, the operation control processor 702 acquires the operation command data Dcd from the recognition processor 202 of the recognition unit 20 through the internal transmission path 22 and the data transmission path 82 . At the same time, the driving control processor 702 acquires in-vehicle sensing data Dsi from the external sensor 60 and the internal sensor 62 of the in-vehicle sensor system 6 through the in-vehicle network.
  • the driving control processor 702 controls driving tasks of the host vehicle Vh including automatic driving control based on the driving command data Dcd and the vehicle interior sensing data Dsi. Furthermore, in the driving control process, the driving control processor 702 outputs the position, motion state (such as acceleration/deceleration, steering amount, etc.), and driving environment (such as map information, etc.) as a result of the driving control executed according to the driving task. Generate actual driving data Dad that is expressed with respect to The actual driving data Dad generated at this time are transmitted to the processors 102 and 202 of the monitoring unit 10 and the recognition unit 20 through the transmission paths 82 and 22, respectively.
  • control flow is defined as a set of individual control programs stored in memories 103, 203, 503, and 703 in each unit 10, 20, 5, and 7, respectively. By executing the command, it is repeated every control cycle while the host vehicle Vh is starting up.
  • Each "S" in the control flow means a step executed by an instruction included in each individual control program.
  • the vehicle exterior sensor system 3 acquires vehicle exterior sensing data Dso in the current control cycle by sensing the external environment of the host vehicle Vh.
  • S102 and S103 are processed in parallel in response to acquisition of data Dso in S101.
  • the logger unit 5 stores the outside sensing data Dso from the outside sensor system 3 in the logging storage medium 504.
  • the recognition unit 20 generates recognition data Dr that recognizes the current driving scene of the host vehicle Vh based on the outside sensing data Dso from the outside sensor system 3 and the actual driving data Dad from the driving control unit 7 .
  • S104-S106 and S107-S109 are processed in parallel in response to generation of recognition data Dr in S103.
  • the recognition unit 20 generates driving command data Dcd that plans the future driving of the host vehicle Vh according to the recognized driving scene.
  • the driving control unit 7 controls the driving of the host vehicle Vh based on the driving command data Dcd from the recognition unit 20 and the in-vehicle sensing data Dsi from the in-vehicle sensor system 6 .
  • the driving control unit 7 generates actual driving data Dad of the host vehicle Vh based on the executed driving control.
  • the monitoring unit 10 monitors the degree of matching between the current driving scene and the scene model Ms based on the recognition data Dr from the recognition unit 20 and the actual driving data Dad from the driving control unit 7. do. If the degree of matching monitored in S107 falls outside the required range, control flow proceeds to S108. In S108, the monitoring unit 10 designates the driving scene in which the degree of matching falls outside the required range as an excluded scene se, and instructs the logger unit 5 to exclude the outside sensing data Dso acquired in the excluded scene se from collection targets. Collect command data Dcl is generated.
  • the logger unit 5 in response to the collection command data Dcl from the monitoring unit 10, of the outside sensing data Dso stored in the logging storage medium 504 in S102 corresponds to the excluded scene se included in the collection command data Dcl. delete the data.
  • the vehicle exterior sensing data Dso acquired in the excluded scene se is excluded from collection targets in the logger unit 5 . If the degree of matching monitored in S107 is within the required range, the control flow skips S108 and S109.
  • the driving scene of the host vehicle Vh recognized based on the vehicle exterior sensing data Dso from the vehicle exterior sensor system 3 and the scene model Ms, which is a model of the driving scene and stored in the model storage medium 104, are matched. degree is monitored by monitoring processor 102 . Therefore, according to the present embodiment, the exterior sensing data Dso acquired in the exclusion scene se, which is a driving scene in which the degree of matching has fallen outside the necessary range required for collection by the logger unit 5, is excluded from collection targets. Commands are sent from the monitoring processor 102 to the logger unit 5 .
  • the objects to be collected are limited to high-quality outside sensing data Dso in a driving scene in which the degree of matching with the scene model Ms is within the required range for collection to the logger unit 5, and outside sensing data Dso is collected. Dso can be sorted and collected efficiently.
  • the data transmission path 80 that transmits the outside sensing data Dso from the outside sensor system 3 to the logger unit 5 and the monitoring processor 102 are relayed by the relay path 19 .
  • the collection command data Dcl generated by the monitoring processor 102 is transmitted from the relay path 19 through the data transmission path 80 of the vehicle exterior sensing data Dso, and the vehicle exterior sensing data Dso acquired in the excluded scene se is collected. will be commanded to the logger unit 5.
  • the objects to be collected are limited to high-quality outside sensing data Dso in a driving scene in which the degree of matching with the scene model Ms is within the required range for collection to the logger unit 5, and outside sensing data Dso is collected. It is possible to simplify the configuration for efficiently performing selective collection of Dso.
  • the driving scene recognized by the recognition processor 202 based on the vehicle exterior sensing data Dso is provided from the recognition processor 202 to the monitoring processor 102 .
  • the matching degree monitoring and exclusion commands can be processed at high speed by the processor 102 that is separate from the driving scene recognition processing, which requires a relatively high processing load. Therefore, even selective collection of the vehicle exterior sensing data Dso that are acquired one after another can be efficiently performed.
  • the recognition processor 202 of the present embodiment plans driving of the host vehicle Vh according to the recognized driving scene. According to this, the matching degree monitoring and exclusion commands based on the recognized driving scene can be quickly processed by the processor 102 separate from the driving plan processing of the host vehicle Vh according to the driving scene. Therefore, it is possible to efficiently perform selective collection of the vehicle exterior sensing data Dso that are successively acquired simultaneously with other processing using the same sensing data Dso.
  • the outside sensing data Dso acquired in the exclusion scene se in which the degree of matching between the driving scene and the scene model Ms is outside the required range and the degree of matching has decreased is sent to the logger unit 5 according to a command based on the monitoring of the degree of matching. In response, it will be excluded from collection.
  • the objects to be collected are limited to high-quality outside sensing data Dso in a driving scene in which the degree of matching with the scene model Ms is within the required range for collection to the logger unit 5, and outside sensing data Dso is collected. Dso can be sorted and collected efficiently.
  • the degree of matching between the driving scene of the host vehicle Vh recognized based on the vehicle exterior sensing data Dso from the vehicle exterior sensor system 3 and the scene model Ms in which the driving scene is modeled is be monitored. Therefore, according to the present embodiment, the exterior sensing data Dso acquired in the exclusion scene se, which is a driving scene in which the degree of matching has fallen outside the necessary range required for collection by the logger unit 5, is excluded from collection targets. A command is sent to the logger unit 5 . Furthermore, according to the present embodiment, the vehicle exterior sensing data Dso acquired in the excluded scene se is excluded from collection targets in the logger unit 5 .
  • the objects to be collected are limited to high-quality outside sensing data Dso in a driving scene in which the degree of matching with the scene model Ms is within the required range for collection to the logger unit 5, and outside sensing data Dso can be sorted and collected efficiently.
  • At least one of the dedicated computers constituting the monitoring SoC 101, recognition SoC 201, logging SoC 501, and operation control ECU 701 may have at least one of a digital circuit and an analog circuit as a processor.
  • Digital circuits here include, for example, ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), SOC (System on a Chip), PGA (Programmable Gate Array), and CPLD (Complex Programmable Logic Device).
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • SOC System on a Chip
  • PGA Programmable Gate Array
  • CPLD Complex Programmable Logic Device
  • part of the processing of the monitoring unit 10 may be implemented by a computer (processor) at an external center that can communicate with the host vehicle Vh.
  • part of the processing of the recognition unit 20 may be realized by a computer (processor) in an external center that can communicate with the host vehicle Vh.
  • part of the processing of the logger unit 5 may be realized by a computer (processor) in an external center that can communicate with the host vehicle Vh.
  • part of the processing of the operation control unit 7 (operation control processor 702) may be realized by a computer (processor) in an external center that can communicate with the host vehicle Vh.
  • the vehicle exterior sensor system 3 may constitute a separate device from the vehicle exterior control device 1.
  • the recognition unit 20 may constitute a separate device from the external control device 1 .
  • the recognition unit 20 may be omitted by executing the recognition processing and the operation planning processing by the recognition unit 20 by the monitoring unit 10 .
  • the operation control unit 7 and the in-vehicle sensor system 6 may be out of the scope of the control system 9 and the application targets of the control method and control program because the operation planning process is not executed by the recognition unit 20. .
  • the external sensors 30 in the vehicle exterior sensor system 3 may be replaced by any of the external sensors 60 in the vehicle interior sensor system 6 .
  • the external sensors 30 when some of the external sensors 30 are replaced by any of the external sensors 60, or when they are not replaced, at least the latter of the monitoring unit 10 and the recognition unit 20 is the body of the host vehicle Vh.
  • In-vehicle control system 4 may be configured by being placed inside.
  • the external sensors 30 may be omitted.
  • the monitoring unit 10 and the recognition unit 20 may constitute the in-vehicle control system 4 by arranging them inside the body of the host vehicle Vh.
  • the recognition unit 20 when configuring the in-vehicle control system 4 may be provided as a dedicated unit separate from the operation control unit 7 or separate from the operation control ECU 701. may be substituted by
  • the logger unit 5 may be accommodated in the housing 2 to configure the external control device 1 .
  • the operation control unit 7 may be accommodated in the housing 2 to constitute the external control device 1 .
  • the monitoring memory 103 and the model storage medium 104 may be realized by the same storage medium.
  • the collection memory 503 and logging storage medium 504 may be implemented by the same storage medium.
  • the result of calculation by a cost function or evaluation function between the scene model Ms and the driving scene may be defined as the matching degree.
  • the monitoring processor 102 connected to the communication interface 12 may feed back the collection command data Dcl to the communication interface 12 or each external sensor 30 of the vehicle exterior sensor system 3.
  • the transmission rate of the vehicle exterior sensing data Dso is adjusted in the communication interface 12 or each external sensor 30 of the vehicle exterior sensor system 3, so that the collection command data Dcl to the logger unit 5 is not transmitted between the transmission frames of the vehicle exterior sensing data Dso. may be interrupted.
  • the host vehicle Vh to which the control system 9 is applied may be, for example, a traveling robot whose traveling can be remotely controlled.
  • the control device 1 according to the above-described embodiments and modifications may be implemented as a semiconductor device (for example, a semiconductor chip or the like) that implements the monitoring unit 10 .

Abstract

ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御装置(1)は、走行シーンがモデル化されたシーンモデル(Ms)を記憶する記憶媒体(104)と、センシングデータ(Dso)に基づき認識されたホスト車両(Vh)の走行シーンと、記憶されたシーンモデル(Ms)との、マッチング度を監視することにより、ロガーユニット(5)への収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーン(se)に取得されたセンシングデータ(Dso)の収集対象からの除外をロガーユニット(5)へ指令する監視プロセッサ(102)とを、備える。

Description

制御装置、制御システム、制御方法、制御プログラム 関連出願の相互参照
 この出願は、2021年11月12日に日本に出願された特許出願第2021-185010号を基礎としており、基礎の出願の内容を、全体的に、参照により援用している。
 本開示は、車両におけるセンシングデータの収集処理を制御する、制御技術に関する。
 特許文献1には、車両において取得されたセンシングデータとしての画像キャプチャデータを、低容量でメモリデバイスに記憶するためにダウンサンプリングする技術が、開示されている。
米国特許第10452926号明細書
 特許文献1の開示技術では、記憶される画像キャプチャデータにおいて、関心領域外の解像度が関心領域内の解像度よりも低くなるように、ダウンサンプリングが行なわれている。このとき関心領域は、記憶された画像キャプチャデータに基づく物体の認識処理といった、車両アプリケーションに対して適合される。そのため、例えば車両制御モデル等の車両開発に向けて画像キャプチャデータがメモリデバイスへの蓄積によって収集される場合、車両の走行シーンのうち一部に取得された解像度が低下した低品質の画像キャプチャデータでは、当該開発に支障をきたすおそれがあった。
 本開示の課題は、高品質のセンシングデータを効率的に収集する制御装置を、提供することにある。本開示の別の課題は、高品質のセンシングデータを効率的に収集する制御システムを、提供することにある。本開示のまた別の課題は、高品質のセンシングデータを効率的に収集する制御方法を、提供することにある。本開示のさらに別の課題は、高品質のセンシングデータを効率的に収集する制御プログラムを、提供することにある。
 以下、課題を解決するための本開示の技術的手段について、説明する。
 本開示の第一態様は、
 ホスト車両においてセンサ系により取得されたセンシングデータの、ロガーユニットへの収集処理を制御する制御装置であって、
 ホスト車両の走行シーンがモデル化されたシーンモデルを記憶する記憶媒体と、
 センシングデータに基づき認識された走行シーンと、記憶されたシーンモデルとの、マッチング度を監視することにより、ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータの収集対象からの除外をロガーユニットへ指令する監視プロセッサとを、備える。
 このように第一態様では、センサ系からのセンシングデータに基づき認識されたホスト車両の走行シーンと、走行シーンがモデル化されて記憶媒体に記憶されたシーンモデルとの、マッチング度が監視プロセッサにより監視される。そこで第一態様によると、ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータについては、収集対象からの除外が監視プロセッサからロガーユニットへ指令される。これによれば、シーンモデルとのマッチング度がロガーユニットへの収集に必要な必要範囲内となる走行シーンでの、高品質のセンシングデータに収集対象を限定して、センシングデータの選別収集を効率的に行うことが可能となる。
 本開示の第二態様は、
 ホスト車両においてセンサ系により取得されたセンシングデータの、収集処理を制御する制御システムであって、
 第一態様の制御装置と、
 センシングデータを記憶するロガーユニットであって、除外シーンに取得されたセンシングデータを、監視プロセッサからの指令に応答して収集対象から除外するロガーユニットとを、含んで構成される。
 このような第二態様によると、走行シーンとシーンモデルとのマッチング度が必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータは、ロガーユニットではマッチング度の監視に基づく指令に応答して収集対象から除外されることになる。これによれば、シーンモデルとのマッチング度がロガーユニットへの収集に必要な必要範囲内となる走行シーンでの、高品質のセンシングデータに収集対象を限定して、センシングデータの選別収集を効率的に行うことが可能となる。
 本開示の第三態様は、
 少なくとも一つのプロセッサを含んで構成され、ホスト車両においてセンサ系により取得されたセンシングデータの、ロガーユニットへの収集処理を制御する制御装置であって、
 プロセッサは、
 センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデルとの、マッチング度を監視することと、
 ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータの収集対象からの除外をロガーユニットへ指令することとを、実行するように構成される。
 本開示の第四態様は、
 ホスト車両においてセンサ系により取得されたセンシングデータの、ロガーユニットへの収集処理を制御するために、少なくとも一つのプロセッサにより実行される制御方法であって、
 センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデルとの、マッチング度を監視することと、
 ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータの収集対象からの除外をロガーユニットへ指令することを、含む。
 本開示の第五態様は、
 ホスト車両においてセンサ系により取得されたセンシングデータの、ロガーユニットへの収集処理を制御するために少なくとも一つの記憶媒体に記憶され、少なくとも一つのプロセッサに実行させる命令を含む制御プログラムであって、
 命令は、
 センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデルとの、マッチング度を監視させることと、
 ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータの収集対象からの除外をロガーユニットへ指令させることを、含む。
 これら第三~第五態様では、センサ系からのセンシングデータに基づき認識されたホスト車両の走行シーンと、走行シーンがモデル化されたシーンモデルとの、マッチング度が監視される。そこで第三~第五態様によると、ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータについては、収集対象からの除外がロガーユニットへ指令される。これによれば、シーンモデルとのマッチング度がロガーユニットへの収集に必要な必要範囲内となる走行シーンでの、高品質のセンシングデータに収集対象を限定して、センシングデータの選別収集を効率的に行うことが可能となる。
 本開示の第六態様は、
 少なくとも一つのプロセッサを含んで構成され、ホスト車両においてセンサ系により取得されたセンシングデータの、ロガーユニットへの収集処理を制御する制御システムであって、
 プロセッサは、
 センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデルとの、マッチング度を監視することと、
 ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータをロガーユニットにおいて収集対象から除外することとを、実行するように構成される。
 本開示の第七態様は、
 ホスト車両においてセンサ系により取得されたセンシングデータの、ロガーユニットへの収集処理を制御するために、少なくとも一つのプロセッサにより実行される制御方法であって、
 センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデルとの、マッチング度を監視することと、
 ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータをロガーユニットにおいて収集対象から除外することとを、含む。
 本開示の第八態様は、
 ホスト車両においてセンサ系により取得されたセンシングデータの、ロガーユニットへの収集処理を制御するために少なくとも一つの記憶媒体に記憶され、少なくとも一つのプロセッサに実行させる命令を含む制御プログラムであって、
 命令は、
 センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデルとの、マッチング度を監視させることと、
 ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータをロガーユニットにおいて収集対象から除外させることとを、含む。
 これら第六~第八態様では、センサ系からのセンシングデータに基づき認識されたホスト車両の走行シーンと、走行シーンがモデル化されたシーンモデルとの、マッチング度が監視される。そこで第六~第八態様によると、ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータは、ロガーユニットにおいて収集対象から除外される。これによれば、シーンモデルとのマッチング度がロガーユニットへの収集に必要な必要範囲内となる走行シーンでの、高品質のセンシングデータに収集対象を限定して、センシングデータの選別収集を効率的に行うことが可能となる。
一実施形態による制御システムの全体構成を示すブロック図である。 一実施形態による制御システムの詳細構成を示すブロック図である。 一実施形態によるシーンモデルを説明するための模式図である。 一実施形態による監視処理を説明するための模式図である。 一実施形態による制御フローを示すフローチャートである。
 以下、本開示の一実施形態を図面に基づき説明する。
 図1,2に示す一実施形態の制御システム9は、ホスト車両Vhにおいて取得されたデータDsoのロガーユニット5への収集処理を、制御する。ここでホスト車両Vhを中心とする視点において、ホスト車両Vhは自車両(ego-vehicle)であるともいえる。ホスト車両Vhは、乗員の搭乗状態において走行路を走行可能な、例えば自動車等の移動体である。
 本実施形態のホスト車両Vhでは、運転タスクにおける乗員の手動介入度に応じてレベル分けされる、自動運転制御が実行可能となっている。自動運転制御は、条件付運転自動化、高度運転自動化、又は完全運転自動化といった、作動時のシステムが全ての運転タスクを実行する自律走行制御により、実現されてもよい。自動運転制御は、運転支援、又は部分運転自動化といった、乗員が一部若しくは全ての運転タスクを実行する高度運転支援制御により、実現されてもよい。自動運転制御は、それら自律走行制御と高度運転支援制御とのいずれか一方、組み合わせ、又は切り替えにより実現されてもよい。
 制御システム9は、車外制御装置1、車内制御系4及び中継ケーブル系8を含んで構成されている。車外制御装置1は、ホスト車両Vhのボディ内に配置されている。車内制御系4は、ホスト車両Vhのボディ内に配置されている。中継ケーブル系8は、ホスト車両Vhのボディ内に這い回しされることで、車外制御装置1と車内制御系4との間を相互通信可能に接続している。ここで、中継ケーブル系8には、例えばLVDS(Low Voltage Differential Signaling)ケーブル、CAN(Controller Area Network)ケーブル、及びイーサネット(Ethernet)用のLAN(Local Area Network)ケーブル等のうち、複数種類が含まれる。以上より、中継ケーブル系8を介して通信する車外制御装置1と車内制御系4とでは、例えばPTP(Precision Time Protocol)又はgPTP等に準拠する時刻同期が、実現されている。
 車外制御装置1は、ホスト車両Vhにおける取得データDsoのロガーユニット5への収集処理を制御するために、自動運転に特化した制御モジュールとして構築されている。車外制御装置1は、ハウジング2、車外センサ系3、監視ユニット10及び認識ユニット20を備えている。ハウジング2は、例えば中空扁平状の矩形箱形等に形成されている。ハウジング2は、ホスト車両Vhのボディを構成するルーフ上に、設置されている。ハウジング2は、車外制御装置1における他の構成要素3,10,20を内部に収容している。
 図2に示すように車外センサ系3は、複数の外界センサ30を有している。各外界センサ30は、例えばカメラ、LiDAR(Light Detection and Ranging / Laser Imaging Detection and Ranging)、レーダ及びソナー等のうち、それぞれ個別の一種類である。各外界センサ30は、ホスト車両Vhの外界においてハウジング2内での配置位置及び個々の視野角に応じたエリアを、センシングする。各外界センサ30は、センシングの結果としてホスト車両Vhの自動運転制御に活用可能な外界情報を表す車外センシングデータDsoを、制御周期毎に生成する。このとき車外センシングデータDsoは、取得された時刻を表すタイムスタンプ情報を含むように、取得される。
 監視ユニット10には、通信インタフェース12,14,16、監視SoC(System on a Chip)101及びモデル記憶媒体104が設けられている。監視ユニット10において例えばデシリアライザ等の通信インタフェース12は、車外センサ系3の各外界センサ30に接続されている。それと共に通信インタフェース12は、ユニット間バスを介して認識ユニット20に接続されることで、内部伝送経路17を形成している。
 監視ユニット10において例えばシリアライザ等の通信インタフェース14は、同ユニット10の通信インタフェース12に内部バスを介して且つ車内制御系4に中継ケーブル系8を介してそれぞれ接続されることで、データ伝送経路80を形成している。これにより監視ユニット10は、車外センサ系3の各外界センサ30からロガーユニット5へ車外センシングデータDsoを、データ伝送経路80を通じて伝送可能となっている。監視ユニット10において例えばCAN、又はイーサネットといったLAN等の通信インタフェース16は、監視SoC101に内部バスを介して且つ車内制御系4に中継ケーブル系8を介してそれぞれ接続されることで、データ伝送経路82を形成している。
 監視SoC101は、監視プロセッサ102及び監視メモリ103を含む専用コンピュータである。監視プロセッサ102は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも一種類をコアとして含む。監視メモリ103は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に記憶する、例えば半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。
 監視ユニット10において監視SoC101は、ユニット間バスを介して認識ユニット20に接続されることで、内部伝送経路18を形成している。それと共に監視SoC101は、内部バスを介して通信インタフェース14に接続されることで、監視プロセッサ102とデータ伝送経路80との間を中継する中継経路19を形成している。
 監視ユニット10においてモデル記憶媒体104は、内部バスを介して監視SoC101に接続されている。モデル記憶媒体104は、コンピュータにより読み取り可能なデータ等を非一時的に記憶する、例えばSSD(Solid State Drive)といった半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。特に本実施形態のモデル記憶媒体104は、ホスト車両Vhに想定可能な各種走行シーンのうち、図3に示すようにロガーユニット5への収集に複数必要な収集必要シーンsnをモデル化した、シーンモデルMsを記憶している。
 ここでシーンモデルMsは、例えば走行様式及び外部走行環境等の組み合わせ種別毎に区別した走行シーンのうち、ホスト車両Vhに関する複数の収集必要シーンsnを、図3の如く少なくとも規定する。シーンモデルMsは、ホスト車両Vh以外の移動体と構造物とのうち、ロガーユニット5への収集に向けてインタラクションの想定が必要なオブジェクトを、収集必要シーンsn毎に規定するモデルであってもよい。シーンモデルMsは、ロガーユニット5への収集に向けてインタラクションの想定が必要なオブジェクトまでの距離、及び当該オブジェクトの相対位置に応じた認識率のうち、少なくとも一方の分布を収集必要シーンsn毎に規定するモデルであってもよい。シーンモデルMsは、ホスト車両Vhの走行が想定されるマップ情報のうち、ロガーユニット5への収集に必要なロケーションを、収集必要シーンsn毎に規定するモデルであってもよい。
 このような構成の監視ユニット10において監視プロセッサ102は、監視メモリ103及びモデル記憶媒体104と協働することで、監視処理及び指令処理を実行する。具体的に、監視処理において図2に示す監視プロセッサ102は、認識ユニット20から内部伝送経路18を通じて認識データDrを取得する。ここで認識データDrは、後述するように車外センサ系3からの車外センシングデータDsoに基づくことで認識ユニット20によって認識される、ホスト車両Vhの走行シーン(以下、認識走行シーンともいう)を表している。このとき認識データDrには、走行シーンの認識に用いられた車外センシングデータDsoの取得時刻を表すタイムスタンプ情報が、含まれている。
 そこで、監視処理において監視プロセッサ102は、取得したホスト車両Vhの走行シーンと、モデル記憶媒体104に記憶されたシーンモデルMsとの、マッチング度を監視する。このときマッチング度は、図4に示すようにシーンモデルMsに含まれる複数の収集必要シーンsnのうち、設定ルール又は機械学習モデルによって判定される一致率が最大となる最大マッチングシーンsnmの、当該最大一致率に規定される。またこのとき認識プロセッサ202は、後述するようにホスト車両Vhの運転状態を表す実運転データDadを、車内制御系4からデータ伝送経路82を通じて取得することで、当該実運転データDadをマッチング度の演算に反映可能となっている。
 さらにこのとき、例えばサービスカー等のようにリモートセンタから遠隔指示又は遠隔操作を受けるホスト車両Vhに搭載された制御システム9の場合には、それら遠隔指示又は遠隔操作に関連する情報を認識プロセッサ202がマッチング度の演算に反映させてもよい。ここで遠隔指示又は遠隔操作に関連する情報とは、例えば遠隔指示又は遠隔操作の判断材料となったリモートセンタでの提示情報、及びリモートセンタにおけるオペレータの音声等のうち、少なくとも一種類である。
 こうした監視処理により監視プロセッサ102は、シーンモデルMsのうち最大マッチングシーンsnmと認識走行シーンとのマッチング度が、ロガーユニット5への収集に必要な必要範囲外にまで図4の如く低下しているか否かを、判定する。その結果、最大マッチングシーンsnmと認識走行シーンとのマッチング度が必要範囲外まで低下している場合の指令処理として監視プロセッサ102は、当該マッチング度低下の認識走行シーンを除外シーンseと判断する。ここでマッチング度の判定基準となる必要範囲は、例えば車両制御モデル等の車両開発において要求される走行シーンをカバー可能な範囲に、予め設定される。
 そこで、指令処理において図2に示す監視プロセッサ102は、除外シーンseに取得された車外センシングデータDsoを収集対象から除外するようにロガーユニット5へと指令する、収集指令データDclを生成する。このとき収集指令データDclは、除外シーンseに取得された車外センシングデータDsoの取得時刻を表すタイムスタンプ情報を含むように、取得される。
 指令処理において監視プロセッサ102は、生成した収集指令データDclを、中継経路19から通信インタフェース14へと出力する。このとき通信インタフェース14は、例えばデータ伝送前におけるバッファリング処理等により、車外センサ系3からの車外センシングデータDsoの伝送フレーム間に収集指令データDclを割り込ませる。これにより監視プロセッサ102は、中継経路19からロガーユニット5への収集指令データDclを、データ伝送経路80を通じて伝送可能となっている。
 認識ユニット20は、車外制御装置1のハウジング2内に収容される基板上に、監視ユニット10と共に実装されている。認識ユニット20には、認識SoC201及び認識記憶媒体204が設けられている。認識SoC201は、認識プロセッサ202及び認識メモリ203を含む専用コンピュータである。認識プロセッサ202は、例えばCPU、GPU及びRISC-CPU等のうち、少なくとも一種類をコアとして含む。認識メモリ203は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に記憶する、例えば半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。
 認識ユニット20において認識SoC201は、ユニット間バスを介して通信インタフェース12に接続されることで、内部伝送経路17を形成している。それと共に認識SoC201は、ユニット間バスを介して監視SoC101に接続されることで、内部伝送経路18を形成している。さらに認識SoC201は、ユニット間バスを介して通信インタフェース16に接続されることで、内部伝送経路22を形成している。
 このような構成の認識ユニット20において認識プロセッサ202は、認識メモリ203と協働することで、認識処理及び運転計画処理を実行する。具体的に、認識処理において認識プロセッサ202は、車外センサ系3の各外界センサ30から内部伝送経路17を通じて車外センシングデータDsoを取得する。それと共に、認識処理において認識プロセッサ202は、後述するようにホスト車両Vhの運転状態を表す実運転データDadを、車内制御系4からデータ伝送経路82及び内部伝送経路22を通じて取得する。
 そこで、認識処理において認識プロセッサ202は、車外センシングデータDso及び実運転データDadに基づきホスト車両Vhの現在走行シーンを認識することで、当該認識走行シーンを表す認識データDrを生成する。このとき、認識走行シーンのタイムスタンプ情報を含んで生成される認識データDrは、内部伝送経路18を通じて監視ユニット10に伝送されることで、認識プロセッサ202から監視プロセッサ102へと与えられることとなる。
 こうした認識処理に基づく運転計画処理は、認識データDrを与えられた監視プロセッサ102による監視処理及び指令処理のうち、少なくとも監視処理と並行して実行される。このとき運転計画処理として認識プロセッサ202は、ホスト車両Vhの将来運転を規定する将来走行パス及び将来走行軌道を、認識走行シーンに応じて計画する。本実施形態の認識プロセッサ202はさらに、計画した将来走行パス及び将来走行軌道をホスト車両Vhに与えるための運転制御を車内制御系4へ指令する、運転指令データDcdを生成する。このとき生成された運転指令データDcdは、内部伝送経路22及びデータ伝送経路82を通じて車内制御系4に伝送される。
 車内制御系4は、ロガーユニット5、車内センサ系6及び運転制御ユニット7を備えている。ロガーユニット5には、通信インタフェース50、ロギングSoC501及びロギング記憶媒体504が設けられている。ロガーユニット5において例えばデシリアライザ等の通信インタフェース50は、監視ユニット10の通信インタフェース14に中継ケーブル系8を介して接続されることで、データ伝送経路80を構成している。
 ロガーユニット5においてロギングSoC501は、内部バスを介して通信インタフェース50に接続されている。ロギングSoC501は、収集プロセッサ502及び収集メモリ503を含む専用コンピュータである。収集プロセッサ502は、例えばCPU、GPU及びRISC-CPU等のうち、少なくとも一種類をコアとして含む。収集メモリ503は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に記憶する、例えば半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。
 ロガーユニット5においてロギング記憶媒体504は、内部バスを介してロギングSoC501に接続されている。ロギング記憶媒体504は、コンピュータにより読み取り可能なデータ等を非一時的に記憶する、例えばSSDといった半導体メモリ、又はHDD(Hard Disk Drive)といった磁気媒体等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。
 このような構成のロガーユニット5において収集プロセッサ502は、収集メモリ503及びロギング記憶媒体504と協働することで、収集処理及び選別処理を実行する。具体的に、収集処理において収集プロセッサ502は、車外センサ系3の各外界センサ30からデータ伝送経路80を通じて車外センシングデータDsoを取得する。そこで収集処理における収集プロセッサ502は、順次取得した車外センシングデータDsoを、それぞれのタイムスタンプ情報に基づき時系列にロギング記憶媒体504へと記憶する。
 こうした収集処理に対して収集プロセッサ502は、監視ユニット10の監視プロセッサ102からデータ伝送経路80を通じて収集指令データDclを取得するのに応答して、即ち同プロセッサ102からの指令に応答して、選別処理を実行する。選別処理において収集プロセッサ502は、収集処理によりロギング記憶媒体504に記憶された車外センシングデータDsoのうち、収集指令データDclに含まれる除外シーンseのタイムスタンプ情報と対応したデータを、削除することで間引く。これは、除外シーンseに取得された車外センシングデータDsoを、ロガーユニット5における収集対象から除外することを意味する。
 車内センサ系6は、外界センサ60及び内界センサ62を複数ずつ有している。外界センサ60は、例えばカメラ、LiDAR、レーザレーダ、ミリ波レーダ及び超音波ソナー等のうち、ホスト車両Vh内から外界をセンシング可能な複数種類である。外界センサ60は、ホスト車両Vhの測位情報を外界から受信可能な、例えばGNSS(Global Navigation Satellite System)受信機等を含んでいてよい。外界センサ60は、ホスト車両Vhの位置情報を外界から受信可能な、例えばDSRC(Dedicated Short Range Communications)通信機、又はセルラV2X(C-V2X)通信機等を含んでいてもよい。内界センサ62は、例えば車速センサ、加速度センサ及びジャイロセンサ等のうち、ホスト車両Vhの内界において運転に関する物理量を検出可能な複数一種類である。外界センサ60及び内界センサ62は、それぞれセンシング結果及び検出結果を表す車内センシングデータDsiを、生成する。
 運転制御ユニット7には、通信インタフェース70及び運転制御ECU(Electronic Control Unit)701が設けられている。運転制御ユニット7において例えばCAN、又はイーサネットといったLAN等の通信インタフェース70は、監視ユニット10の通信インタフェース16に中継ケーブル系8を介して接続されることで、データ伝送経路82を構成している。それと共に通信インタフェース70は、内部を介して運転制御ECU701に接続されている。さらに通信インタフェース70は、ホスト車両Vh内における、例えばCAN、又はイーサネットといったLAN等の車内ネットワークを介して、車内センサ系6の外界センサ60及び内界センサ62に接続されている。
 運転制御ECU701は、運転制御プロセッサ702及び運転制御メモリ703を含む専用コンピュータである。運転制御プロセッサ702は、例えばCPU、GPU及びRISC-CPU等のうち、少なくとも一種類をコアとして含む。運転制御メモリ703は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に記憶する、例えば半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。
 このような構成の運転制御ユニット7において運転制御プロセッサ702は、運転制御メモリ703と協働することで、運転制御処理を実行する。具体的に運転制御処理において運転制御プロセッサ702は、認識ユニット20の認識プロセッサ202から内部伝送経路22及びデータ伝送経路82を通じて運転指令データDcdを取得する。それと共に運転制御プロセッサ702は、車内ネットワークを通じて車内センサ系6の外界センサ60及び内界センサ62から車内センシングデータDsiを取得する。
 そこで、運転制御処理において運転制御プロセッサ702は、運転指令データDcdと車内センシングデータDsiとに基づくことで、自動運転制御を含むホスト車両Vhの運転タスクを制御する。さらに、運転制御処理において運転制御プロセッサ702は、運転タスクに従って実行した運転制御の結果として、位置、運動状態(例えば加減速度及び操舵量等)、及び走行環境(例えば地図情報等)をホスト車両Vhに関して表す実運転データDadを、生成する。このとき生成された実運転データDadは、監視ユニット10及び認識ユニット20の各プロセッサ102,202へ、伝送経路82,22を通じて伝送されることになる。
 以上説明した制御システム9が、ホスト車両Vhにおいて車外センサ系3により取得された車外センシングデータDsoの、ロガーユニット5への収集処理を制御する制御方法は、図5に示す制御フローに従って実行される。ここで制御フローは、各ユニット10,20,5,7においてメモリ103,203,503,703に記憶された個別制御プログラムの集合によって構成される制御プログラムがプロセッサ102,202,502,702にそれぞれ命令を実行させることで、ホスト車両Vhの起動中に制御周期毎に繰り返される。尚、制御フローにおける各「S」は、個別制御プログラム毎に含まれた命令により実行されるステップを、それぞれ意味している。
 S101において車外センサ系3は、ホスト車両Vhの外界をセンシングすることで、現在制御周期での車外センシングデータDsoを取得する。制御フローでは、S101でのデータDsoの取得に応答して、S102とS103とが並列的に処理される。
 S102においてロガーユニット5は、車外センサ系3からの車外センシングデータDsoをロギング記憶媒体504へ記憶する。一方、S103において認識ユニット20は、車外センサ系3からの車外センシングデータDso及び運転制御ユニット7からの実運転データDadに基づきホスト車両Vhの現在走行シーンを認識した、認識データDrを生成する。制御フローでは、S103での認識データDrの生成に応答して、S104~S106とS107~S109とが並列的に処理される。
 S104において認識ユニット20は、認識した走行シーンに応じてホスト車両Vhの将来運転を計画した、運転指令データDcdを生成する。S105において運転制御ユニット7は、認識ユニット20からの運転指令データDcd及び車内センサ系6からの車内センシングデータDsiとに基づき、ホスト車両Vhの運転を制御する。S106において運転制御ユニット7は、実行した運転制御によるホスト車両Vhの実運転データDadを、生成する。
 これらのS104~S106に対し、S107において監視ユニット10は、認識ユニット20からの認識データDr及び運転制御ユニット7からの実運転データDadに基づき、現在走行シーンとシーンモデルMsとのマッチング度を監視する。S107において監視されたマッチング度が必要範囲外まで低下している場合には、制御フローがS108へ移行する。S108において監視ユニット10は、マッチング度が必要範囲外に低下した走行シーンを除外シーンseとして、当該除外シーンseに取得された車外センシングデータDsoの収集対象からの除外をロガーユニット5へと指令する収集指令データDclを、生成する。
 S109においてロガーユニット5は、監視ユニット10からの収集指令データDclに応答して、S102によりロギング記憶媒体504に記憶された車外センシングデータDsoのうち、収集指令データDclに含まれる除外シーンseと対応したデータを、削除する。これにより、除外シーンseに取得された車外センシングデータDsoは、ロガーユニット5における収集対象から除外されることになる。尚、S107において監視されたマッチング度が必要範囲内に収まっている場合に制御フローでは、S108,S109がスキップされる。
 (作用効果)
 以上説明した本実施形態の作用効果を、以下に説明する。
 本実施形態では、車外センサ系3からの車外センシングデータDsoに基づき認識されたホスト車両Vhの走行シーンと、走行シーンがモデル化されてモデル記憶媒体104に記憶されたシーンモデルMsとの、マッチング度が監視プロセッサ102により監視される。そこで本実施形態によると、ロガーユニット5への収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンseに取得された車外センシングデータDsoについては、収集対象からの除外が監視プロセッサ102からロガーユニット5へ指令される。これによれば、シーンモデルMsとのマッチング度がロガーユニット5への収集に必要な必要範囲内となる走行シーンでの、高品質の車外センシングデータDsoに収集対象を限定して、車外センシングデータDsoの選別収集を効率的に行うことが可能となる。
 本実施形態によると、車外センシングデータDsoを車外センサ系3からロガーユニット5へ伝送するデータ伝送経路80と、監視プロセッサ102との間は、中継経路19により中継される。これによれば、監視プロセッサ102の生成した収集指令データDclが中継経路19から車外センシングデータDsoのデータ伝送経路80を通じて伝送されることで、除外シーンseに取得された車外センシングデータDsoの収集対象からの除外がロガーユニット5へと指令されることになる。これによれば、シーンモデルMsとのマッチング度がロガーユニット5への収集に必要な必要範囲内となる走行シーンでの、高品質の車外センシングデータDsoに収集対象を限定して、車外センシングデータDsoの選別収集を効率的に行うための構成を、簡素化することが可能となる。
 本実施形態によると、車外センシングデータDsoに基づき認識プロセッサ202が認識した走行シーンは、当該認識プロセッサ202から監視プロセッサ102へ与えられる。これによれば、マッチング度の監視及び除外の指令は、処理負荷の比較的高くなる走行シーンの認識処理とは別のプロセッサ102によることで、高速に処理され得る。故に、次々に取得される車外センシングデータDsoの選別収集であっても、効率的に行うことが可能となる。
 本実施形態の認識プロセッサ202は、認識した走行シーンに応じてホスト車両Vhの運転を計画する。これによれば、認識された走行シーンに基づくマッチング度の監視及び除外の指令は、当該走行シーンに応じたホスト車両Vhの運転計画処理とは別のプロセッサ102により迅速に処理され得る。故に、次々に取得される車外センシングデータDsoの選別収集を、同じセンシングデータDsoを用いる他の処理と同時的に、効率的に行うことが可能となる。
 本実施形態によると、走行シーンとシーンモデルMsとのマッチング度が必要範囲外にマッチング度が低下した除外シーンseに取得の車外センシングデータDsoは、ロガーユニット5ではマッチング度の監視に基づく指令に応答して収集対象から除外されることになる。これによれば、シーンモデルMsとのマッチング度がロガーユニット5への収集に必要な必要範囲内となる走行シーンでの、高品質の車外センシングデータDsoに収集対象を限定して、車外センシングデータDsoの選別収集を効率的に行うことが可能となる。
 さて、別の視点で本実施形態では、車外センサ系3からの車外センシングデータDsoに基づき認識されたホスト車両Vhの走行シーンと、走行シーンがモデル化されたシーンモデルMsとの、マッチング度が監視される。そこで本実施形態によると、ロガーユニット5への収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンseに取得された車外センシングデータDsoについては、収集対象からの除外がロガーユニット5へ指令される。さらに本実施形態によると、除外シーンseに取得された車外センシングデータDsoは、ロガーユニット5において収集対象から除外される。これらによれば、シーンモデルMsとのマッチング度がロガーユニット5への収集に必要な必要範囲内となる走行シーンでの、高品質の車外センシングデータDsoに収集対象を限定して、車外センシングデータDsoの選別収集を効率的に行うことが可能となる。
 (他の実施形態)
 以上、一実施形態について説明したが、本開示は、当該説明の実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
 変形例において監視SoC101、認識SoC201、ロギングSoC501及び運転制御ECU701を構成する専用コンピュータのうち少なくとも一種類は、デジタル回路及びアナログ回路の少なくとも一方をプロセッサとして有していてもよい。ここでデジタル回路とは、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを記憶したメモリを、有していてもよい。
 変形例では、監視ユニット10(監視プロセッサ102)の一部処理が、ホスト車両Vhと通信可能な外部センタにおけるコンピュータ(プロセッサ)により実現されていてもよい。変形例では、認識ユニット20(認識プロセッサ202)の一部処理が、ホスト車両Vhと通信可能な外部センタにおけるコンピュータ(プロセッサ)により実現されていてもよい。変形例では、ロガーユニット5(収集プロセッサ502)の一部処理が、ホスト車両Vhと通信可能な外部センタにおけるコンピュータ(プロセッサ)により実現されていてもよい。変形例では、運転制御ユニット7(運転制御プロセッサ702)の一部処理が、ホスト車両Vhと通信可能な外部センタにおけるコンピュータ(プロセッサ)により実現されていてもよい。
 変形例では、車外センサ系3が車外制御装置1とは別の装置を構成していてもよい。変形例では、認識ユニット20が車外制御装置1とは別の装置を構成していてもよい。変形例では、認識ユニット20による認識処理及び運転計画処理が監視ユニット10により実行されることで、認識ユニット20が省かれていてもよい。変形例では、認識ユニット20により運転計画処理が実行されないことで、運転制御ユニット7及び車内センサ系6が制御システム9の範疇と、制御方法及び制御プログラムの適用対象とからは外れていてもよい。
 変形例では、車外センサ系3における少なくとも一部の外界センサ30が、車内センサ系6における外界センサ60のいずれかにより代替されていてもよい。ここで特に、一部の外界センサ30が外界センサ60のいずれかにより代替されている場合、又は代替されていない場合には、監視ユニット10及び認識ユニット20のうち少なくとも後者がホスト車両Vhのボディ内に配置されることで、車内制御系4を構成していてもよい。あるいは、全ての外界センサ30が外界センサ60のいずれかにより代替されている場合には、それら外界センサ30が省かれていてもよい。さらに、全ての外界センサ30が省かれている場合、監視ユニット10及び認識ユニット20がホスト車両Vhのボディ内に配置されることで、いずれも車内制御系4を構成していてもよい。尚、車内制御系4を構成する場合の認識ユニット20は、運転制御ユニット7とは別又は運転制御ECU701とは別の専用ユニットとして設けられていてもよいし、運転制御ユニット7又は運転制御ECU701により代替されていてもよい。
 変形例では、ロガーユニット5がハウジング2内に収容されることで、車外制御装置1を構成していてもよい。変形例では、運転制御ユニット7がハウジング2内に収容されることで、車外制御装置1を構成していてもよい。変形例では、監視メモリ103及びモデル記憶媒体104が同一の記憶媒体により実現されていてもよい。変形例では、収集メモリ503及びロギング記憶媒体504が同一の記憶媒体により実現されていてもよい。変形例では、最大マッチングシーンsnmの一致率に変えて、シーンモデルMsと走行シーンとの間のコスト関数乃至は評価関数による演算結果が、マッチング度として規定されてもよい。
 変形例の指令処理において監視ユニット10では、通信インタフェース12に接続された監視プロセッサ102により、通信インタフェース12又は車外センサ系3の各外界センサ30へと収集指令データDclがフィードバックされてもよい。これにより、通信インタフェース12又は車外センサ系3の各外界センサ30において車外センシングデータDsoの伝送レートが調整されることで、車外センシングデータDsoの伝送フレーム間にロガーユニット5への収集指令データDclが割り込まれてもよい。
 変形例において制御システム9の適用されるホスト車両Vhは、例えば走行をリモート制御可能な走行ロボット等であってもよい。ここまでの説明形態の他、上述の実施形態及び変形例による制御装置1は、監視ユニット10を実現する半導体装置(例えば半導体チップ等)として、実施されてもよい。

Claims (12)

  1.  ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御装置であって、
     前記ホスト車両の走行シーンがモデル化されたシーンモデル(Ms)を記憶する記憶媒体(104)と、
     前記センシングデータに基づき認識された前記走行シーンと、記憶された前記シーンモデルとの、マッチング度を監視することにより、前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータの収集対象からの除外を前記ロガーユニットへ指令する監視プロセッサ(102)とを、備える制御装置。
  2.  前記センシングデータを前記センサ系から前記ロガーユニットへ伝送するデータ伝送経路(80)と、
     前記監視プロセッサ及び前記データ伝送経路間を中継する中継経路(19)とを、さらに備え、
     前記監視プロセッサは、前記除外シーンに取得された前記センシングデータの収集対象からの除外を指令するように生成した収集指令データ(Dcl)を、前記中継経路から前記データ伝送経路を通じて前記ロガーユニットへ伝送する、請求項1に記載の制御装置。
  3.  前記センシングデータに基づき認識した前記走行シーンを、前記監視プロセッサへ与える認識プロセッサ(202)を、さらに備える請求項1又は2に記載の制御装置。
  4.  前記認識プロセッサは、認識した前記走行シーンに応じて、前記ホスト車両の運転を計画する請求項3に記載の制御装置。
  5.  ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、収集処理を制御する制御システムであって、
     請求項1~4のいずれか一項に記載の制御装置(1)と、
     前記センシングデータを記憶するロガーユニット(5)であって、前記除外シーンに取得された前記センシングデータを、前記監視プロセッサからの指令に応答して収集対象から除外するロガーユニットとを、含んで構成される制御システム。
  6.  少なくとも一つのプロセッサ(102,202)を含んで構成され、ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御装置であって、
     前記プロセッサは、
     前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)との、マッチング度を監視することと、
     前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータの収集対象からの除外を前記ロガーユニットへ指令することとを、実行するように構成される制御装置。
  7.  前記プロセッサは、
     前記ホスト車両の走行シーンを前記センシングデータに基づき認識することを、さらに実行するように構成される請求項6に記載の制御装置。
  8.  ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために、少なくとも一つのプロセッサ(102,202)により実行される制御方法であって、
     前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)との、マッチング度を監視することと、
     前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータの収集対象からの除外を前記ロガーユニットへ指令することを、含む制御方法。
  9.  ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために少なくとも一つの記憶媒体(103,203)に記憶され、少なくとも一つのプロセッサ(102,202)に実行させる命令を含む制御プログラムであって、
     前記命令は、
     前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)との、マッチング度を監視させることと、
     前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータの収集対象からの除外を前記ロガーユニットへ指令させることを、含む制御プログラム。
  10.  少なくとも一つのプロセッサ(102,202,502,702)を含んで構成され、ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御システムであって、
     前記プロセッサは、
     前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)との、マッチング度を監視することと、
     前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータを前記ロガーユニットにおいて収集対象から除外することとを、実行するように構成される制御システム。
  11.  ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために、少なくとも一つのプロセッサ(102,202,502,702)により実行される制御方法であって、
     前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)との、マッチング度を監視することと、
     前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータを前記ロガーユニットにおいて収集対象から除外することとを、含む制御方法。
  12.  ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために少なくとも一つの記憶媒体(103,203,503,703)に記憶され、少なくとも一つのプロセッサ(102,202,502,702)に実行させる命令を含む制御プログラムであって、
     前記命令は、
     前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)との、マッチング度を監視させることと、
     前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータを前記ロガーユニットにおいて収集対象から除外させることとを、含む制御プログラム。
PCT/JP2022/039486 2021-11-12 2022-10-24 制御装置、制御システム、制御方法、制御プログラム WO2023085062A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-185010 2021-11-12
JP2021185010A JP2023072448A (ja) 2021-11-12 2021-11-12 制御装置、制御システム、制御方法、制御プログラム

Publications (1)

Publication Number Publication Date
WO2023085062A1 true WO2023085062A1 (ja) 2023-05-19

Family

ID=86335718

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039486 WO2023085062A1 (ja) 2021-11-12 2022-10-24 制御装置、制御システム、制御方法、制御プログラム

Country Status (2)

Country Link
JP (1) JP2023072448A (ja)
WO (1) WO2023085062A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019077685A1 (ja) * 2017-10-17 2019-04-25 本田技研工業株式会社 走行モデル生成システム、走行モデル生成システムにおける車両、処理方法およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019077685A1 (ja) * 2017-10-17 2019-04-25 本田技研工業株式会社 走行モデル生成システム、走行モデル生成システムにおける車両、処理方法およびプログラム

Also Published As

Publication number Publication date
JP2023072448A (ja) 2023-05-24

Similar Documents

Publication Publication Date Title
US20210208597A1 (en) Sensor aggregation framework for autonomous driving vehicles
WO2018153375A1 (en) Planning system and method for controlling operation of autonomous vehicle to navigate planned path
CN112543876B (zh) 用于自动驾驶车辆中的传感器同步性数据分析的系统
CN111812698A (zh) 一种定位方法、装置、介质和设备
EP3556625B1 (en) Vehicle control system, external electronic control unit, vehicle control method, and application
US11897505B2 (en) In-vehicle operation of simulation scenarios during autonomous vehicle runs
DE112018005910T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiler körper
CN110936959B (zh) 车辆感知系统在线诊断和预测
EP4343370A1 (en) Calibration method and device for automatic driving vehicle
CN115951666A (zh) 自动驾驶车队中的车辆控制方法、车载装置及车辆
US20220254204A1 (en) Checkpoint-Based Tracing for Monitoring a Robotic System
CN112712608B (zh) 用于通过车辆收集性能数据的系统和方法
WO2023085062A1 (ja) 制御装置、制御システム、制御方法、制御プログラム
US20220094435A1 (en) Visible light communication apparatus, visible light communication method, and visible light communication program
CN111885542A (zh) 同步感测系统
US20240123986A1 (en) Control device, control method, and storage medium
US11531331B2 (en) Vehicle control arbitration
US20230237793A1 (en) False track mitigation in object detection systems
EP4148600A1 (en) Attentional sampling for long range detection in autonomous vehicles
JP7312856B2 (ja) センサデータを処理するための方法および装置
WO2022059489A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20240059284A1 (en) Lane-based vehicle control
CN117360535A (zh) 用于选择性地使用车辆轨迹的系统和方法
CN115704689A (zh) 用于创建车辆周围环境的数字地图的方法、控制器和计算机程序
CN117693459A (zh) 用于自主交通工具操作的轨迹一致性测量

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22892562

Country of ref document: EP

Kind code of ref document: A1