WO2022113261A1 - 情報収集システム、サーバ、車両、方法、及びコンピュータ可読媒体 - Google Patents

情報収集システム、サーバ、車両、方法、及びコンピュータ可読媒体 Download PDF

Info

Publication number
WO2022113261A1
WO2022113261A1 PCT/JP2020/044197 JP2020044197W WO2022113261A1 WO 2022113261 A1 WO2022113261 A1 WO 2022113261A1 JP 2020044197 W JP2020044197 W JP 2020044197W WO 2022113261 A1 WO2022113261 A1 WO 2022113261A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
recognition model
information
server
specific scene
Prior art date
Application number
PCT/JP2020/044197
Other languages
English (en)
French (fr)
Inventor
祥平 島村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2020/044197 priority Critical patent/WO2022113261A1/ja
Priority to JP2022564926A priority patent/JPWO2022113261A5/ja
Priority to US18/037,290 priority patent/US20240005672A1/en
Publication of WO2022113261A1 publication Critical patent/WO2022113261A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/40Transportation

Definitions

  • This disclosure relates to information collection systems, servers, vehicles, information collection methods, information transmission methods, and computer-readable media.
  • Patent Document 1 discloses a data collection system that collects road information from an in-vehicle device mounted on each vehicle.
  • the in-vehicle device described in Patent Document 1 is connected to various sensors of a vehicle, and detects an abnormality based on signals input from various sensors.
  • Collection conditions include target vehicle conditions, recording triggers, and collection content.
  • the in-vehicle device sends the generated collection conditions and the data collection request that meets the collection conditions to the data collection device.
  • the data collection device collects the data based on the received collection conditions.
  • the data collection device transmits a collection condition file including collection conditions generated by the vehicle-mounted device that sent the data collection request to the vehicle-mounted device of each vehicle.
  • the in-vehicle device of each vehicle transmits data satisfying the collection conditions to the data collection device.
  • the data collection device collects data satisfying the collection conditions. Therefore, the data can be collected more efficiently than the case where all the data is collected from the in-vehicle device.
  • the in-vehicle device transmits a data collection request triggered by a condition such as the sensor value exceeding the threshold value. Therefore, the data collection device cannot collect data when the vehicle is in a situation corresponding to a specific scene.
  • the present disclosure discloses an information collection system, a server, a vehicle, an information collection method, an information transmission method, and a computer that can cause a server to collect data when the vehicle is in a situation corresponding to a specific scene.
  • the purpose is to provide a readable medium.
  • the present disclosure provides an information gathering system as a first aspect.
  • the information gathering system has a server and a vehicle connected to the server via a network.
  • the server transmits the recognition model selection means for selecting a recognition model for identifying that the vehicle is in a situation corresponding to a specific scene based on sensor information, and the recognition model to the vehicle.
  • It has a transmission means for collecting information and a data collection means for collecting information transmitted from the vehicle.
  • the vehicle corresponds to a scene determination means for determining whether or not the vehicle is in a situation corresponding to a specific scene based on the recognition model received from the server and sensor information, and the vehicle corresponds to the specific scene.
  • It has a data transmission means for transmitting information to the server when it is determined that the situation is present.
  • the present disclosure provides a server as a second aspect.
  • the server transmits a recognition model selection means for selecting a recognition model for identifying a vehicle in a situation corresponding to a specific scene based on sensor information, and the recognition model to the vehicle via a network. It has a transmitting means and a data collecting means for collecting information from the vehicle when it is determined that the vehicle is in a situation corresponding to a specific scene based on the recognition model and sensor information in the vehicle.
  • the present disclosure provides a vehicle as a third aspect.
  • the vehicle is a specific vehicle based on the sensor information and a recognition model for identifying that the vehicle is in a situation corresponding to a specific scene based on the sensor information received from the server via the network.
  • a scene determination means for determining whether or not the vehicle is in a situation corresponding to a scene, and data transmission for transmitting information to the server via a network when it is determined that the vehicle is in a situation corresponding to a specific scene.
  • Has means.
  • the present disclosure provides an information collection method as a fourth aspect.
  • the information gathering method selects a recognition model for identifying a vehicle in a situation corresponding to a specific scene based on sensor information, transmits the recognition model to the vehicle via a network, and transmits the recognition model to the vehicle.
  • the present invention includes collecting information from the vehicle when it is determined that the vehicle is in a situation corresponding to a specific scene based on the recognition model and the sensor information.
  • the present disclosure provides an information transmission method as a fifth aspect.
  • the information transmission method is based on the recognition model for identifying that the vehicle is in a situation corresponding to a specific scene based on the sensor information received from the server via the network, and the sensor information. It includes determining whether or not the vehicle is in a situation corresponding to a specific scene, and if it is determined that the vehicle is in a situation corresponding to a specific scene, transmitting information to the server via a network.
  • the present disclosure provides a computer-readable medium as a sixth aspect.
  • the computer-readable medium selects a recognition model for identifying that the vehicle is in a situation corresponding to a specific scene based on sensor information, transmits the recognition model to the vehicle via a network, and transmits the recognition model to the vehicle.
  • a program for causing a computer to execute a process of collecting information from the vehicle is stored.
  • the present disclosure provides a computer-readable medium as a seventh aspect.
  • the computer-readable medium is a recognition model for identifying that the vehicle is in a situation corresponding to a specific scene based on the sensor information received from the server via the network, and the vehicle is based on the sensor information. It is determined whether or not the vehicle is in a situation corresponding to a specific scene, and if it is determined that the vehicle is in a situation corresponding to a specific scene, a process of transmitting information to the server via a network is performed by the processor. Stores the program to be executed.
  • the information collection system, server, vehicle, information collection method, information transmission method, and computer-readable medium according to this disclosure can cause the server to collect data when the vehicle is in a situation corresponding to a specific scene.
  • a block diagram schematically showing an information collection system according to the present disclosure The block diagram which shows the data collection system which concerns on 1st Embodiment of this disclosure.
  • a block diagram showing a server configuration example A block diagram showing a configuration example of a vehicle.
  • a flowchart showing the operation procedure in the server A flowchart showing an operation procedure in a vehicle.
  • FIG. 1 schematically shows an information collection system according to the present disclosure.
  • the information collection system 10 has a server 20 and a vehicle 30.
  • the server 20 and the vehicle 30 are connected to each other via a network.
  • the server 20 has a recognition model selection means 21, a transmission means 22, and a data collection means 23.
  • the vehicle 30 has a scene determination means 31 and a data transmission means 32.
  • the recognition model selection means 21 of the server 20 selects a recognition model for identifying that the vehicle is in a situation corresponding to a specific scene based on the sensor information.
  • the transmission means 22 transmits the recognition model selected by the recognition model selection means 21 to the vehicle 30.
  • the scene determination means 31 of the vehicle 30 determines whether or not the vehicle 30 is in a situation corresponding to a specific scene based on the recognition model received from the server 20 and the sensor information. When it is determined that the vehicle 30 is in a situation corresponding to a specific scene, the data transmission means 32 transmits information to the server 20. The data collecting means 23 of the server 20 collects the information transmitted from the vehicle 30.
  • the server 20 transmits the recognition model to the vehicle 30.
  • the vehicle 30 determines whether or not the vehicle is in a situation corresponding to a specific scene based on the received recognition model and the sensor information.
  • the vehicle 30 transmits information to the server 20.
  • the server 20 can specify a scene in which information is transmitted to the vehicle 30 through a recognition model transmitted to the vehicle 30. Therefore, the server 20 can collect data when the vehicle 30 is in a situation corresponding to a specific scene.
  • FIG. 2 shows a data collection system according to the first embodiment of the present disclosure.
  • the data collection system 100 includes a server 110 and one or more vehicles 200.
  • the server 110 is connected to the vehicle 200 via the network 150.
  • the network 150 includes, for example, a wireless communication network using a communication line standard such as LTE (Long Term Evolution).
  • the network 150 may include a wireless communication network such as WiFi® or a 5th generation mobile communication system.
  • the data collection system 100 corresponds to the information collection system 10 shown in FIG.
  • the server 110 corresponds to the server 20 shown in FIG.
  • the vehicle 200 corresponds to the vehicle 30 shown in FIG.
  • FIG. 3 shows a configuration example of the server 110.
  • the server 110 includes a recognition model selection unit 111, a parameter determination unit 112, a transmission unit 113, a data acquisition unit 114, and an analysis device 115.
  • the server 110 is located, for example, on a connected service infrastructure.
  • the recognition model selection unit 111 selects a recognition model for identifying that the vehicle is in a situation corresponding to a specific scene based on the sensor information.
  • the recognition model includes, for example, at least one of a recognition model for discriminating a scene of road rage, a recognition model for discriminating a scene of ignoring a signal, and a recognition model for discriminating a scene of dozing.
  • the recognition model is configured as, for example, an artificial intelligence (AI) model.
  • the recognition model includes, for example, a convolutional neural network (CNN).
  • the recognition model selection unit 111 selects a recognition model to be transmitted to the vehicle 200, for example, based on the position information of the vehicle 200.
  • the recognition model selection unit 111 selects a recognition model by using, for example, regional characteristic information in which a geographical position is associated with a specific scene.
  • the regional characteristic information stores information indicating a specific scene to be recognized, for example, for each section divided into meshes at predetermined distances.
  • the recognition model selection unit 111 acquires information indicating a specific scene associated with the position of the vehicle 200 from the regional characteristic information.
  • the recognition model selection unit 111 selects a recognition model for identifying a specific scene indicated by the acquired information as a recognition model to be transmitted to the vehicle 200.
  • the recognition model selection unit 111 may select a recognition model according to the type of road on which the vehicle 200 is traveling.
  • Road types include, for example, motorways such as highways, arterial roads, urban roads, and suburban roads.
  • the recognition model selection unit 111 may select a rear-end collision scene determination model, for example, when the vehicle 200 is traveling on a road on which a single road without an intersection continues, such as an expressway.
  • the recognition model selection unit 111 may select a recognition model according to the route (route name) on which the vehicle is traveling, such as national highway No. 1 or prefectural highway No. 55. Further, the recognition model selection unit 111 may select the recognition model according to the combination of the area such as the prefecture where the vehicle 200 is traveling and the road type or the route name. The recognition model selection unit 111 may select the recognition model specified by the operator as the recognition model to be transmitted to the vehicle 200.
  • route route name
  • prefectural highway No. 55 such as national highway No. 1 or prefectural highway No. 55.
  • the recognition model selection unit 111 may select the recognition model according to the combination of the area such as the prefecture where the vehicle 200 is traveling and the road type or the route name.
  • the recognition model selection unit 111 may select the recognition model specified by the operator as the recognition model to be transmitted to the vehicle 200.
  • the recognition model selection unit 111 may select a recognition model for each vehicle. For example, the recognition model selection unit 111 can select different recognition models for one vehicle 200 and another vehicle 200. The recognition model selection unit 111 may select a plurality of recognition models for one vehicle 200 as recognition models to be transmitted to the vehicle 200. For example, the recognition model selection unit 111 may select a recognition model for discriminating a scene of road rage and a recognition model for discriminating a scene of dozing as a recognition model for transmitting to one vehicle 200. good. The recognition model selection unit 111 corresponds to the recognition model selection means 21 shown in FIG.
  • the parameter determination unit (parameter determination means) 112 determines a parameter that specifies information to be acquired from the vehicle 200 based on the recognition model selected by the recognition model selection unit 111.
  • the parameter determination unit 112 holds, for example, a discriminative model or a table in which a situation identified using the discriminative model and a type of information to be acquired are associated with each other.
  • the parameter determination unit 112 refers to the table and determines the parameters according to the selected recognition model.
  • the transmission unit 113 transmits the recognition model selected by the recognition model selection unit 111 to the vehicle 200. Further, the transmission unit 113 transmits a parameter sheet describing the parameters (type of information) determined by the parameter determination unit 112 to the vehicle 200. The transmission unit 113 arranges the recognition model and the parameter sheet in the vehicle 200 by using, for example, OTA (Over The Air) technology. The transmission unit 113 corresponds to the transmission means 22 shown in FIG.
  • the data collection unit 114 collects the information transmitted from each vehicle 200 from each vehicle 200.
  • the data collection unit 114 corresponds to the data collection means 23 shown in FIG.
  • the analyzer 115 performs analysis using the information collected by the data collection unit 114.
  • the analyzer 115 analyzes, for example, using the information collected from the vehicle 200 for each situation identified using the recognition model.
  • the analyzer 115 does not necessarily have to be configured inside the server 110, and may be configured as a device physically different from the server 110.
  • FIG. 4 shows a configuration example of the vehicle 200.
  • the vehicle 200 includes a peripheral monitoring sensor 201, a vehicle sensor 202, a vehicle control ECU (Electric Control Unit) 203, a scene recognition unit 204, and a communication device 205.
  • these components are configured to be able to communicate with each other via an in-vehicle LAN (Local Area Network), CAN (Controller Area Network), and the like.
  • LAN Local Area Network
  • CAN Controller Area Network
  • the peripheral monitoring sensor 201 is a sensor that monitors the peripheral condition of the vehicle 200.
  • Peripheral monitoring sensor 201 includes, for example, a camera, radar, LiDAR (Light Detection and Ranging), and the like.
  • Peripheral monitoring sensor 201 may include, for example, a plurality of cameras that capture the front, rear, right side, and left side of the vehicle.
  • the peripheral monitoring sensor 201 may include a camera that photographs the inside of the vehicle 200.
  • the vehicle sensor 202 is a sensor for detecting various states of the vehicle 200.
  • the vehicle sensor 202 is, for example, a sensor such as a vehicle speed sensor that detects a vehicle speed, a steering sensor that detects a steering angle, an accelerator opening sensor that detects the opening degree of an accelerator pedal, and a brake pedal force sensor that detects the amount of depression of a brake pedal. including.
  • the vehicle control ECU 203 is an electronic control device that controls the running of the vehicle 200.
  • an electronic control device has a processor, a memory, an I / O (Input / Output), and a bus connecting them.
  • the vehicle control ECU 203 Based on the sensor information output by the vehicle sensor 202, the vehicle control ECU 203 performs various controls such as control of the fuel injection amount, control of the engine ignition timing, and control of the assist amount of the power steering.
  • the communication device 205 is configured as a device that performs wireless communication between the vehicle 200 and the network 150 (see FIG. 2).
  • the communication device 205 includes a wireless communication antenna, a transmitter, and a receiver.
  • the scene recognition unit 204 is a functional unit that transmits information specified in the parameter sheet to the server 110 when the vehicle 200 is in a situation corresponding to a specific scene identified by using the recognition model.
  • the scene recognition unit 204 receives the recognition model and the parameter sheet from the server 20 through the communication device 205. Further, the scene recognition unit 204 transmits the information (data) specified in the parameter sheet to the server 20 through the communication device 205.
  • the scene recognition unit 204 has a recognition model storage unit 241, a scene determination unit 242, a data transmission unit 243, and a recognition model update unit 244.
  • the recognition model storage unit 241 stores one or more recognition models received from the server 110.
  • the scene determination unit 242 acquires a recognition model from the recognition model storage unit 241. Further, the scene determination unit 242 acquires sensor information from the peripheral monitoring sensor 201 and the vehicle sensor 202. The scene determination unit 242 determines whether or not the vehicle 200 is in a situation corresponding to a specific scene based on the recognition model and the sensor information.
  • the scene determination unit 242 acquires, for example, information acquired by using at least one of the camera included in the peripheral monitoring sensor 201 and the speed sensor and the acceleration sensor included in the vehicle sensor 202 as sensor information.
  • the scene determination unit 242 inputs sensor information to, for example, a CNN constituting a recognition model.
  • the recognition model outputs a determination result indicating whether or not the vehicle is in a situation corresponding to a specific scene.
  • the scene determination unit 242 notifies the data transmission unit 243 to that effect.
  • the scene determination unit 242 corresponds to the scene determination means 31 shown in FIG.
  • the data transmission unit 243 transmits the data specified in the parameter sheet to the server 110.
  • the data transmission unit 243 transmits, for example, the data specified in the parameter sheet among the data that can be acquired from the peripheral monitoring sensor 201, the vehicle sensor 202, and the vehicle control ECU 203 to the server 110.
  • the data transmission unit 243 transmits the image of the camera included in the peripheral monitoring sensor 201 to the server 110.
  • the data transmission unit 243 does not transmit the data specified in the parameter sheet.
  • the data transmission unit 243 may always transmit specific information such as vehicle position information to the server 110.
  • the data transmission unit 243 acquires the data specified in the parameter sheet from the peripheral monitoring sensor 201, the vehicle sensor 202, and the vehicle control ECU 203, regardless of the determination result of the scene determination unit 242, for example.
  • the data transmission unit 243 transmits the acquired data to the server 110. If the scene determination unit 242 does not determine that the vehicle is in a situation corresponding to a specific scene, the data transmission unit 243 discards the acquired data.
  • the data transmission unit 243 corresponds to the data transmission means 32 shown in FIG.
  • the transmission of the parameter sheet from the server 110 to the vehicle 200 may be omitted.
  • the data transmission unit 243 may transmit, for example, predetermined information to the server 110.
  • the recognition model and the information to be transmitted when the recognition model is used are associated with each other.
  • the data transmission unit 243 may transmit information corresponding to the recognition model used in the scene determination unit 242 to the server 110.
  • the recognition model update unit (recognition model update means) 244 receives the recognition model from the server 110.
  • the recognition model update unit 244 stores the received recognition model in the recognition model storage unit 241.
  • the recognition model update unit 244 may update the recognition model stored in the recognition model storage unit 241 with the recognition model received from the server 110.
  • the scene determination unit 242 determines whether or not the vehicle is in a situation corresponding to a specific scene by using the updated recognition model.
  • FIG. 5 shows an operation procedure (information collecting method) in the server 110.
  • the recognition model selection unit 111 (see FIG. 3) of the server 110 selects a recognition model to be transmitted to the vehicle 200 (step A1).
  • the recognition model selection unit 111 selects, for example, a scene to be recognized in the vehicle 200 based on the position information of the vehicle 200, and selects a recognition model corresponding to the selected scene.
  • the parameter determination unit 112 determines the parameter corresponding to the recognition model determined in step A1 as a parameter to be transmitted to the vehicle 200 (step A2).
  • the transmission unit 113 transmits the recognition model selected in step A1 and the parameter sheet in which the parameters determined in step A2 are described to the vehicle 200 via the network 150 (see FIG. 2) (step A3). ..
  • FIG. 6 shows an operation procedure (information transmission method) in the vehicle 200.
  • the scene recognition unit 204 (see FIG. 4) of the vehicle 200 receives the recognition model and the parameter sheet from the server 110 via the network 150 (step B1).
  • the scene recognition unit 204 may receive the recognition model and parameters while the vehicle is running.
  • the recognition model update unit 244 stores the recognition model received in step B1 in the recognition model storage unit 241 (step B2). If the recognition model is already stored in the recognition model storage unit 241, the recognition model update unit 244 updates the recognition model stored in the recognition model storage unit 241 with the recognition model received in step B1.
  • the scene determination unit 242 acquires sensor information from the peripheral monitoring sensor 201 of the vehicle 200 and the vehicle sensor 202.
  • the scene determination unit 242 applies the acquired sensor information to the recognition model, and determines whether or not the vehicle is in a situation corresponding to a specific scene (step B3).
  • the data transmission unit 243 determines in step B3 that the vehicle is in a situation corresponding to a specific scene, the data transmission unit 243 transmits the data specified in the parameter sheet to the server 110 via the network 150 (step B4).
  • the data collection unit 114 of the server 110 receives the data transmitted from the vehicle 200 (step A4).
  • the data collection unit 114 collects data from a plurality of vehicles 200 when it is determined that the situation corresponds to a specific scene. For example, the data collection unit 114 outputs the collected data to the analyzer 115 in association with the recognition model transmitted to the vehicle 200.
  • the analyzer 115 accumulates data received from the vehicle 200, for example, for each scene recognized using the recognition model. The analyzer 115 analyzes the accumulated data.
  • the server 110 transmits the recognition model and parameters to the vehicle 200.
  • the vehicle 200 determines whether or not the vehicle is in a situation corresponding to a specific scene based on the received recognition model and the sensor information.
  • the vehicle 200 transmits the information specified in the parameter to the server 110.
  • the server 110 can specify a scene in which information is transmitted to the vehicle 200 and information to be transmitted through a recognition model and parameters to be transmitted to the vehicle 200. Therefore, the server 110 can collect the data to be collected when the vehicle 200 is in a situation corresponding to a specific scene.
  • the server 110 can select a recognition model and parameters according to the data to be acquired. Assuming that the server 110 acquires all the data from the vehicle 200, the server 110 needs to receive a large amount of data from a large number of vehicles 200 and process a large amount of data. In the present embodiment, the server 110 can specify a situation in which data is transmitted and data to be acquired by using a recognition model and parameters. Therefore, in the present embodiment, the data collected from the vehicle 200 can be narrowed down, and the storage cost in the server 110 can be suppressed. Further, in the present embodiment, the amount of data transfer between the server 110 and the vehicle 200 can be reduced, and the communication cost can be suppressed.
  • FIG. 7 shows a data collection system according to the second embodiment of the present disclosure.
  • the data collection system 100a according to the present embodiment is different from the data collection system 100 according to the first embodiment shown in FIG. 2 in that it further includes a traffic information system 300.
  • the configuration of the server 110 may be the same as the configuration of the server 110 in the first embodiment shown in FIG.
  • the configuration of the vehicle 200 may be the same as the configuration of the vehicle 200 in the first embodiment shown in FIG.
  • the traffic information system 300 is a system that provides regional characteristic information regarding traffic.
  • the traffic information system 300 holds information in which a specific event related to traffic and a point where the event occurs frequently are associated with each other.
  • the traffic information system 300 holds, for example, rear-end collision frequent occurrence point information 310 including information indicating a rear-end collision frequent occurrence point.
  • the traffic information system 300 may further hold information indicating a point where road rage frequently occurs.
  • the traffic information system 300 provides the server 110 with the rear-end collision frequent occurrence point information 310 to be held.
  • the recognition model selection unit 111 of the server 110 refers to the information held by the traffic information system 300 and selects the recognition model.
  • the recognition model selection unit 111 refers to, for example, the rear-end collision frequent occurrence point information 310, and determines whether or not the vehicle 200 exists at the rear-end collision frequent occurrence point.
  • the server 110 determines that rear-end collisions occur frequently near the current location of the vehicle 200, the server 110 selects a recognition model for identifying the scene of the rear-end collision as a recognition model to be transmitted to the vehicle 200.
  • the server 110 cooperates with the traffic information system 300 and selects a recognition model using the information held by the traffic information system 300.
  • the server 110 transmits, for example, a recognition model for identifying a rear-end collision scene to the vehicle 200 when a rear-end collision occurs frequently near the current location of the vehicle 200 by selecting a recognition model using the rear-end collision frequent occurrence point information 310. can do.
  • the recognition model for discriminating events such as accidents that frequently occur in the vicinity of the current location of the vehicle 200 can be arranged in the vehicle 200. Other effects are similar to those described in the first embodiment.
  • the parameter sheet may include information indicating the priority of the data.
  • Priority includes, for example, "high”, “medium”, and “low”.
  • the data transmission unit 243 may monitor the communication band in the network 150 (see FIG. 2) and preferentially transmit data having a higher priority according to the communication band to the server 110.
  • the data transmission unit 243 transmits data of all priorities to the server 110, for example, when the communication band is larger than the first threshold value.
  • the data transmission unit 243 transmits the data whose priority is set to "high” or "medium” to the server 110, and the priority is set to "low”. You may discard the data.
  • the data transmission unit 243 transmits the data whose priority is set to "high” to the server 110, and the data transmission unit 243 has a priority of "medium”. Or “Low” may be discarded.
  • the parameter sheet may include information that specifies data that is always transmitted to the server 110, regardless of the determination result of the scene determination unit 242.
  • the data transmission unit 243 determines important data in the analysis based on the purpose and scene of the analysis performed in the analyzer 115 (see FIG. 3), and even if the non-important data is discarded. good. For example, when the scene determination unit 242 determines a follow-up scene, the information obtained from the moving image data is small. If sensor data is sufficient in the analysis, the data transmission unit 243 may discard the moving image data on the vehicle side without transmitting it to the server 110.
  • the server 110 may be configured as a computer device.
  • FIG. 8 shows a configuration example of a computer device that can be used as the server 110.
  • the computer device 500 includes a control unit (CPU: Central Processing Unit) 510, a storage unit 520, a ROM (ReadOnlyMemory) 530, a RAM (RandomAccessMemory) 540, a communication interface (IF: Interface) 550, and a user interface 560.
  • CPU Central Processing Unit
  • ROM ReadOnlyMemory
  • RAM RandomAccessMemory
  • IF Interface
  • user interface 560 a user interface 560.
  • the communication interface 550 is an interface for connecting the computer device 500 and the communication network via a wired communication means, a wireless communication means, or the like.
  • the user interface 560 includes a display unit such as a display. Further, the user interface 560 includes an input unit such as a keyboard, a mouse, and a touch panel.
  • the storage unit 520 is an auxiliary storage device that can hold various types of data.
  • the storage unit 520 does not necessarily have to be a part of the computer device 500, and may be an external storage device or a cloud storage connected to the computer device 500 via a network.
  • ROM 530 is a non-volatile storage device.
  • a semiconductor storage device such as a flash memory having a relatively small capacity is used.
  • the program executed by the CPU 510 may be stored in the storage unit 520 or the ROM 530.
  • the storage unit 520 or ROM 530 stores, for example, various programs for realizing the functions of each unit in the server 110.
  • RAM 540 is a volatile storage device.
  • various semiconductor memory devices such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory) are used.
  • the RAM 540 can be used as an internal buffer for temporarily storing data and the like.
  • the CPU 510 expands the program stored in the storage unit 520 or the ROM 530 into the RAM 540 and executes the program. By executing the program by the CPU 510, the functions of each part in the server 110 can be realized.
  • the CPU 510 may have an internal buffer that can temporarily store data and the like.
  • the scene recognition unit 204 can be configured as an electronic control unit (electronic control device).
  • FIG. 9 shows a hardware configuration example of an electronic control device that can be used for the scene recognition unit 204.
  • the electronic control device 600 includes a processor 601, a ROM 602, and a RAM 603.
  • the processors 601, ROM 602, and RAM 603 are connected to each other via the bus 604.
  • the electronic control device 600 may include other circuits such as peripheral circuits, communication circuits, and interface circuits.
  • ROM 602 is a non-volatile storage device.
  • a semiconductor storage device such as a flash memory having a relatively small capacity is used.
  • the ROM 602 stores a program executed by the processor 501.
  • the RAM 603 is a volatile storage device.
  • Various semiconductor memory devices such as DRAM or SRAM are used for the RAM 603.
  • the RAM 640 can be used as an internal buffer for temporarily storing data and the like.
  • the processor 601 expands the program stored in the ROM 602 into the RAM 603 and executes it. By executing the program by the CPU 601, the functions of each part of the scene recognition unit 204 can be realized.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media are, for example, flexible disks, magnetic tapes, or magnetic recording media such as hard disks, such as optical magnetic recording media such as optical magnetic disks, CDs (compact discs), or DVDs (digital versatile disks).
  • Includes optical disk media such as, and semiconductor memory such as mask ROM, PROM (programmableROM), EPROM (erasablePROM), flash ROM, or RAM.
  • the program may also be supplied to the computer using various types of temporary computer-readable media. Examples of temporary computer readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the server has the server and a vehicle connected via a network.
  • the server A recognition model selection means for selecting a recognition model for identifying that the vehicle is in a situation corresponding to a specific scene based on sensor information.
  • a transmission means for transmitting the recognition model to the vehicle, and It has a data collection means for collecting information transmitted from the vehicle, and has The vehicle A scene determination means for determining whether or not the vehicle is in a situation corresponding to a specific scene based on the recognition model received from the server and the sensor information.
  • An information collection system comprising a data transmission means for transmitting information to the server when it is determined that the vehicle is in a situation corresponding to a specific scene.
  • the server further has parameter determining means for determining parameters that specify information acquired from the vehicle, based on the selected recognition model.
  • the transmitting means further transmits the determined parameter to the vehicle.
  • the information collection system according to Appendix 1, wherein the data transmission means transmits information specified in the parameters received from the server to the server when it is determined that the vehicle is in a situation corresponding to a specific scene.
  • Appendix 3 The information collection system according to Appendix 1 or 2, wherein the recognition model selection means selects a recognition model to be transmitted to the vehicle based on the position information of the vehicle.
  • the recognition model selection means acquires information indicating a specific scene associated with the position of the vehicle from the regional characteristic information associated with the geographical position and the specific scene, and the acquired information is obtained.
  • the sensor information includes at least one of information acquired by using a camera mounted on the vehicle, information acquired by using a speed sensor, and information acquired by using an acceleration sensor.
  • a recognition model selection means that selects a recognition model for identifying a vehicle in a situation corresponding to a specific scene based on sensor information.
  • a transmission means for transmitting the recognition model to the vehicle via a network,
  • a server including a data collecting means for collecting information from the vehicle when it is determined in the vehicle that the vehicle is in a situation corresponding to a specific scene based on the recognition model and sensor information.
  • Appendix 11 Further having a parameter determining means for determining a parameter that specifies information to be transmitted to the vehicle when it is determined in the vehicle that the vehicle is in a situation corresponding to a particular scene based on the selected recognition model.
  • Appendix 12 The server according to Appendix 10 or 11, wherein the recognition model selection means selects a recognition model to be transmitted to the vehicle based on the position information of the vehicle.
  • the recognition model selection means acquires information indicating a specific scene associated with the position of the vehicle from the regional characteristic information associated with the geographical position and the specific scene, and the acquired information is obtained.
  • the data transmission means transmits the information specified in the parameter for specifying the information to be transmitted to the server received from the server to the server.
  • the sensor information includes at least one of information acquired by using a camera mounted on the vehicle, information acquired by using a speed sensor, and information acquired by using an acceleration sensor. Vehicles listed in.
  • [Appendix 20] Select a recognition model to identify that the vehicle is in a situation corresponding to a particular scene based on sensor information, The recognition model is transmitted to the vehicle via the network.
  • [Appendix 22] Select a recognition model to identify that the vehicle is in a situation corresponding to a particular scene based on sensor information, The recognition model is transmitted to the vehicle via the network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両が特定のシーンに対応した状況にある場合に、収集したいデータをサーバが収集することを可能とする。認識モデル選択手段(21)は、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択する。送信手段(22)は、選択された認識モデルを車両(30)に送信する。シーン判定手段(31)は、サーバ(20)から受信した認識モデルと、センサ情報とに基づいて、車両(30)が特定のシーンに対応した状況にあるか否かを判定する。データ送信手段(32)は、車両(30)が特定のシーンに対応した状況にあると判定された場合、情報をサーバ(20)に送信する。データ収集手段(23)は、車両(30)から送信される情報を収集する。

Description

情報収集システム、サーバ、車両、方法、及びコンピュータ可読媒体
 本開示は、情報収集システム、サーバ、車両、情報収集方法、情報送信方法、及びコンピュータ可読媒体に関する。
 通信装置を搭載し、外部のサーバなどとの間で通信が可能なコネクテッドカーの普及が進んでいる。関連技術として、特許文献1は、各車両に搭載された車載装置から道路情報を収集するデータ収集システムを開示する。特許文献1に記載の車載装置は、車両の各種センサと接続されており、各種センサから入力される信号に基づいて異常を検出する。車載装置は、異常を検出した場合、検出した異常に関するデータの収集条件を生成する。収集条件は、対象車両条件、記録トリガ、及び収集内容を含む。
 車載装置は、生成した収集条件と、収集条件を満たすデータ収集依頼を、データ収集装置に送信する。データ収集装置は、データ収集依頼を受け付けた場合、受信した収集条件に基づいてデータ収集を行う。データ収集装置は、データ収集では、データ収集依頼を送信した車載装置が生成した収集条件を含む収集条件ファイルを、各車両の車載装置に送信する。各車両の車載装置は、収集条件を満たすデータを、データ収集装置に送信する。
特開2020-38409号公報
 特許文献1では、データ収集装置は、収集条件を満たすデータを収集する。このため、全てのデータを車載装置から収集する場合に比べて、効率的にデータを収集することができる。しかしながら、特許文献1では、車載装置は、センサ値がしきい値を超えたことをなどの条件をトリガに、データ収集依頼を送信する。このため、データ収集装置は、車両が特定のシーンに対応した状況にある場合に、データを収集することはできない。
 本開示は、上記事情に鑑み、車両が特定のシーンに対応した状況にある場合に、サーバにデータを収集させることができる情報収集システム、サーバ、車両、情報収集方法、情報送信方法、及びコンピュータ可読媒体を提供することを目的とする。
 上記目的を達成するために、本開示は、第1の態様として、情報収集システムを提供する。情報収集システムは、サーバと、サーバとネットワークを介して接続される車両とを有する。情報収集システムにおいて、サーバは、センサ情報に基づいて前記車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択する認識モデル選択手段と、前記認識モデルを前記車両に送信する送信手段と、前記車両から送信される情報を収集するデータ収集手段とを有する。車両は、前記サーバから受信した認識モデルと、センサ情報とに基づいて、車両が特定のシーンに対応した状況にあるか否かを判定するシーン判定手段と、前記車両が特定のシーンに対応した状況にあると判定された場合、情報を前記サーバに送信するデータ送信手段とを有する。
 本開示は、第2の態様として、サーバを提供する。サーバは、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択する認識モデル選択手段と、前記認識モデルを、ネットワークを介して前記車両に送信する送信手段と、前記車両において前記認識モデルとセンサ情報とに基づいて前記車両が特定のシーンに対応した状況にあると判定された場合に、前記車両から情報を収集するデータ収集手段とを有する。
 本開示は、第3の態様として、車両を提供する。車両は、サーバからネットワークを介して受信した、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルと、センサ情報とに基づいて、前記車両が特定のシーンに対応した状況にあるか否かを判定するシーン判定手段と、前記車両が特定のシーンに対応した状況にあると判定された場合、情報を、ネットワークを介して前記サーバに送信するデータ送信手段とを有する。
 本開示は、第4の態様として、情報収集方法を提供する。情報収集方法は、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択し、前記認識モデルを、ネットワークを介して前記車両に送信し、前記車両において前記認識モデルとセンサ情報とに基づいて前記車両が特定のシーンに対応した状況にあると判定された場合に、前記車両から情報を収集することを含む。
 本開示は、第5の態様として、情報送信方法を提供する。情報送信方法は、サーバからネットワークを介して受信した、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルと、センサ情報とに基づいて、前記車両が特定のシーンに対応した状況にあるか否かを判定し、前記車両が特定のシーンに対応した状況にあると判定された場合、情報を、ネットワークを介して前記サーバに送信することを含む。
 本開示は、第6の態様として、コンピュータ可読媒体を提供する。コンピュータ可読媒体は、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択し、前記認識モデルを、ネットワークを介して前記車両に送信し、前記車両において前記認識モデルとセンサ情報とに基づいて前記車両が特定のシーンに対応した状況にあると判定された場合に、前記車両から情報を収集する処理をコンピュータに実行させるためのプログラムを格納する。
 本開示は、第7の態様として、コンピュータ可読媒体を提供する。コンピュータ可読媒体は、サーバからネットワークを介して受信した、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルと、センサ情報とに基づいて、前記車両が特定のシーンに対応した状況にあるか否かを判定し、前記車両が特定のシーンに対応した状況にあると判定された場合、情報を、ネットワークを介して前記サーバに送信する処理をプロセッサに実行させるためのプログラムを格納する。
 本開示に係る情報収集システム、サーバ、車両、情報収集方法、情報送信方法、及びコンピュータ可読媒体は、車両が特定のシーンに対応した状況にある場合に、サーバにデータを収集させることができる。
本開示に係る情報収集システムを概略的に示すブロック図。 本開示の第1実施形態に係るデータ収集システムを示すブロック図。 サーバの構成例を示すブロック図。 車両の構成例を示すブロック図。 サーバにおける動作手順を示すフローチャート。 車両における動作手順を示すフローチャート。 本開示の第2実施形態に係るデータ収集システムを示すブロック図。 コンピュータ装置の構成例を示すブロック図。 電子制御装置のハードウェア構成を示すブロック図。
 本開示の実施の形態の説明に先立って、本開示の概要を説明する。図1は、本開示に係る情報収集システムを概略的に示す。情報収集システム10は、サーバ20と、車両30とを有する。情報収集システム10において、サーバ20と車両30とは、ネットワークを介して相互に接続される。サーバ20は、認識モデル選択手段21、送信手段22、及びデータ収集手段23を有する。車両30は、シーン判定手段31、及びデータ送信手段32を有する。
 サーバ20の認識モデル選択手段21は、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択する。送信手段22は、認識モデル選択手段21で選択された認識モデルを車両30に送信する。
 車両30のシーン判定手段31は、サーバ20から受信した認識モデルと、センサ情報とに基づいて、車両30が特定のシーンに対応した状況にあるか否かを判定する。データ送信手段32は、車両30が特定のシーンに対応した状況にあると判定された場合、情報をサーバ20に送信する。サーバ20のデータ収集手段23は、車両30から送信される情報を収集する。
 本開示では、サーバ20は、認識モデルを車両30に送信する。車両30は、受信した認識モデルと、センサ情報とに基づいて、車両が特定のシーンに対応した状況にあるか否かを判定する。車両30は、特定のシーンに対応した状況にあると判定した場合、情報をサーバ20に送信する。本開示では、サーバ20は、車両30に送信する認識モデルを通じて、車両30に情報を送信させるシーンを指定できる。従って、サーバ20は、車両30が特定のシーンに対応した状況にある場合に、データを収集することができる。
 以下、本開示の実施の形態を詳細に説明する。図2は、本開示の第1実施形態に係るデータ収集システムを示す。データ収集システム100は、サーバ110と、1以上の車両200を有する。データ収集システム100において、サーバ110は、ネットワーク150を介して車両200と接続される。ネットワーク150は、例えば、LTE(Long Term Evolution)などの通信回線規格を用いた無線通信網を含む。ネットワーク150は、WiFi(登録商標)又は第5世代移動通信システムなどの無線通信網を含んでいてもよい。データ収集システム100は、図1に示される情報収集システム10に対応する。サーバ110は、図1に示されるサーバ20に対応する。車両200は、図1に示される車両30に対応する。
 図3は、サーバ110の構成例を示す。サーバ110は、認識モデル選択部111、パラメータ決定部112、送信部113、データ収集部114、及び分析装置115を有する。サーバ110は、例えば、コネクテッドサービス基盤に配置される。
 認識モデル選択部111は、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択する。認識モデルは、例えばあおり運転のシーンを判別するための認識モデル、信号無視のシーンを判別する認識モデル、及び居眠りのシーンを判別するための認識モデルの少なくとも1つを含む。認識モデルは、例えば人工知能(AI:artificial intelligence)モデルとして構成される。認識モデルは、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を含む。
 認識モデル選択部111は、例えば、車両200の位置情報に基づいて、車両200に送信する認識モデルを選択する。認識モデル選択部111は、例えば、地理的な位置と、特定のシーンとを対応付けた地域特性情報を用いて、認識モデルを選択する。地域特性情報は、例えば所定の距離ごとにメッシュ状に区切られた区画ごとに、認識したい特定のシーンを示す情報を記憶する。認識モデル選択部111は、地域特性情報から、車両200の位置に対応付けられる特定のシーンを示す情報を取得する。認識モデル選択部111は、取得した情報が示す特定のシーンを識別するための認識モデルを、車両200に送信する認識モデルとして選択する。
 認識モデル選択部111は、車両200が走行している道路の種別に応じて、認識モデルを選択してもよい。道路の種別は、例えば高速道路などの自動車専用道路、幹線道路、市街地の道路、及び郊外の道路などを含む。認識モデル選択部111は、例えば、車両200が、高速道路などの交差点のない単路が続く道を走行中の場合、追突事故シーン判別モデルを選択してもよい。
 あるいは、認識モデル選択部111は、例えば国道1号や県道55号などの、車両が走行している路線(路線名)に応じて、認識モデルを選択してもよい。さらに、認識モデル選択部111は、車両200が走行している都道府県などの地域と、道路種別、又は路線名との組み合わせに応じて、認識モデルを選択してもよい。認識モデル選択部111は、オペレータが指定した認識モデルを、車両200に送信する認識モデルとして選択してもよい。
 認識モデル選択部111は、車両ごとに認識モデルを選択してもよい。例えば、認識モデル選択部111は、ある車両200と、別の車両200とで、相互に異なる認識モデルを選択することができる。認識モデル選択部111は、1台の車両200に対して、複数の認識モデルを、車両200に送信する認識モデルとして選択してもよい。例えば、認識モデル選択部111は、あおり運転のシーンを判別するための認識モデルと、居眠りのシーンを判別するための認識モデルとを、1台の車両200に送信する認識モデルとして選択してもよい。認識モデル選択部111は、図1に示される認識モデル選択手段21に対応する。
 パラメータ決定部(パラメータ決定手段)112は、認識モデル選択部111で選択された認識モデルに基づいて、車両200から取得する情報を指定するパラメータを決定する。パラメータ決定部112は、例えば、識別モデル、又は識別モデルを用いて識別される状況と、取得する情報の種類とが対応付けられたテーブルを保持する。パラメータ決定部112は、そのテーブルを参照して、選択された認識モデルに応じてパラメータを決定する。
 送信部113は、認識モデル選択部111が選択した認識モデルを車両200に送信する。また、送信部113は、パラメータ決定部112が決定したパラメータ(情報の種別)を記述したパラメータシートを、車両200に送信する。送信部113は、例えばOTA(Over The Air)技術を用いて、認識モデル及びパラメータシートを車両200に配置する。送信部113は、図1に示される送信手段22に対応する。
 データ収集部114は、各車両200から送信された情報を各車両200から収集する。データ収集部114は、図1に示されるデータ収集手段23に対応する。分析装置115は、データ収集部114が収集した情報を用いて分析を行う。分析装置115は、例えば、認識モデルを用いて識別される状況ごとに、車両200から収集された情報を用いて分析を行う。分析装置115は、必ずしもサーバ110の内部に構成されている必要はなく、サーバ110とは物理的異なる装置として構成されていてもよい。
 図4は、車両200の構成例を示す。車両200は、周辺監視センサ201、車両センサ202、車両制御ECU(Electric Control Unit)203、シーン認識ユニット204、及び通信装置205を有する。車両200において、これら構成要素は車内LAN(Local Area Network)やCAN(Controller Area Network)などを介して相互に通信可能に構成される。
 周辺監視センサ201は、車両200の周辺状況を監視するセンサである。周辺監視センサ201は、例えばカメラ、レーダ、及びLiDAR(Light Detection and Ranging)などを含む。周辺監視センサ201は、例えば車両の前方、後方、右側方、及び左側方を撮影する複数のカメラを含んでいてもよい。周辺監視センサ201は、車両200の内部を撮影するカメラを含んでいてもよい。
 車両センサ202は、車両200の各種状態を検出するためのセンサである。車両センサ202は、例えば、車速を検出する車速センサ、操舵角を検出する操舵センサ、アクセルペダルの開度を検出するアクセル開度センサ、及びブレーキペダルの踏み込み量を検出するブレーキ踏力センサなどのセンサを含む。
 車両制御ECU203は、車両200の走行制御などを行う電子制御装置である。一般に、電子制御装置は、プロセッサ、メモリ、I/O(Input / Output)、及びこれらを接続するバスを有する。車両制御ECU203は、車両センサ202が出力するセンサ情報に基づいて、例えば、燃料噴射量の制御、エンジン点火時期の制御、及びパワーステアリングのアシスト量の制御などの各種制御を実施する。
 通信装置205は、車両200とネットワーク150(図2を参照)との間で無線通信を行う装置として構成される。通信装置205は、無線通信用アンテナ、送信機、及び受信機を含む。
 シーン認識ユニット204は、車両200が認識モデルを用いて識別される特定のシーンに対応した状況にある場合、パラメータシートで指定される情報をサーバ110に送信する機能部である。シーン認識ユニット204は、通信装置205を通じて、サーバ20から認識モデル及びパラメータシートを受信する。また、シーン認識ユニット204は、通信装置205を通じて、サーバ20にパラメータシートで指定された情報(データ)を送信する。
 シーン認識ユニット204は、認識モデル記憶部241、シーン判定部242、データ送信部243、及び認識モデル更新部244を有する。認識モデル記憶部241は、サーバ110から受信した1以上の認識モデルを記憶する。シーン判定部242は、認識モデル記憶部241から認識モデルを取得する。また、シーン判定部242は、周辺監視センサ201及び車両センサ202からセンサ情報を取得する。シーン判定部242は、認識モデルとセンサ情報とに基づいて、車両200が特定のシーンに対応した状況にあるか否かを判定する。
 シーン判定部242は、例えば、周辺監視センサ201に含まれるカメラ、並びに車両センサ202に含まれる速度センサ及び加速度センサの少なくとも1つを用いて取得される情報をセンサ情報として取得する。シーン判定部242は、例えば認識モデルを構成するCNNにセンサ情報を入力する。認識モデルは、車両が特定のシーンに対応した状況にあるか否かを示す判定結果を出力する。シーン判定部242は、判定結果が、車両が特定のシーンに対応した状況にあることを示す場合、その旨をデータ送信部243に通知する。シーン判定部242は、図1に示されるシーン判定手段31に対応する。
 データ送信部243は、シーン判定部242で車両が特定のシーンに対応した状況にあると判定された場合、パラメータシートで指定されているデータをサーバ110に送信する。データ送信部243は、例えば周辺監視センサ201、車両センサ202、及び車両制御ECU203から取得可能なデータのうち、パラメータシートで指定されているデータをサーバ110に送信する。データ送信部243は、例えばパラメータシートにおいて車外映像データが指定されている場合、周辺監視センサ201に含まれるカメラの映像をサーバ110に送信する。データ送信部243は、シーン判定部242で車両が特定のシーンに対応した状況にないと判定された場合、パラメータシートで指定されているデータの送信は行わない。データ送信部243は、例えば車両の位置情報などの特定の情報は、常にサーバ110に送信してもよい。
 データ送信部243は、例えばシーン判定部242の判定結果とは無関係に、周辺監視センサ201、車両センサ202、及び車両制御ECU203から、パラメータシートで指定されたデータを取得する。データ送信部243は、シーン判定部242で車両が特定のシーンに対応した状況にあると判定された場合、取得したデータをサーバ110に送信する。データ送信部243は、シーン判定部242で車両が特定のシーンに対応した状況にあると判定されていない場合、取得したデータを破棄する。データ送信部243は、図1に示されるデータ送信手段32に対応する。
 なお、本実施形態において、サーバ110から車両200へのパラメータシートの送信は省略されてもよい。その場合、データ送信部243は、例えば所定の情報をサーバ110に送信してもよい。例えば、データ送信部243において、認識モデルと、その認識モデルが使用される場合に送信する情報とが対応付けられている。データ送信部243は、シーン判定部242において用いられている認識モデルに対応する情報を、サーバ110に送信してもよい。
 認識モデル更新部(認識モデル更新手段)244は、サーバ110から認識モデルを受信する。認識モデル更新部244は、サーバ110から認識モデルを受信した場合、受信した認識モデルを認識モデル記憶部241に記憶する。認識モデル更新部244は、認識モデル記憶部241が既に認識モデルを記憶している場合、認識モデル記憶部241に記憶される認識モデルを、サーバ110から受信した認識モデルで更新してもよい。認識モデル記憶部241が記憶する認識モデルが更新された場合、シーン判定部242は、更新後の認識モデルを用いて、車両が特定のシーンに対応した状況にあるか否かを判定する。
 続いて、データ収集システムにおける動作手順を説明する。図5は、サーバ110における動作手順(情報収集方法)を示す。サーバ110の認識モデル選択部111(図3を参照)は、車両200に送信する認識モデルを選択する(ステップA1)。認識モデル選択部111は、ステップA1では、例えば、車両200の位置情報に基づいて車両200において認識したいシーンを選択し、選択したシーンに対応する認識モデルを選択する。
 パラメータ決定部112は、ステップA1で決定された認識モデルに対応したパラメータを、車両200に送信するパラメータとして決定する(ステップA2)。送信部113は、ステップA1で選択された認識モデル、及びステップA2で決定されたパラメータが記述されたパラメータシートを、ネットワーク150(図2を参照)を介して車両200に送信する(ステップA3)。
 図6は、車両200における動作手順(情報送信方法)を示す。車両200のシーン認識ユニット204(図4を参照)は、ネットワーク150を介して、サーバ110から認識モデル及びパラメータシートを受信する(ステップB1)。シーン認識ユニット204は、車両が走行している間に認識モデル及びパラメータを受信してもよい。
 認識モデル更新部244は、ステップB1で受信された認識モデルを、認識モデル記憶部241に記憶する(ステップB2)。認識モデル更新部244は、認識モデル記憶部241に認識モデルが既に記憶されている場合は、ステップB1で受信された認識モデルで、認識モデル記憶部241に記憶される認識モデルを更新する。
 シーン判定部242は、車両200の周辺監視センサ201、及び車両センサ202からセンサ情報を取得する。シーン判定部242は、取得したセンサ情報を認識モデルに適用し、車両が特定のシーンに対応した状況にあるか否かを判定する(ステップB3)。データ送信部243は、ステップB3で車両が特定のシーンに対応した状況にあると判定された場合、パラメータシートで指定されたデータを、ネットワーク150を介してサーバ110に送信する(ステップB4)。
 図5に戻り、サーバ110のデータ収集部114は、車両200から送信されたデータを受信する(ステップA4)。データ収集部114は、複数の車両200から、特定のシーンに対応した状況にあると判定された場合のデータを収集する。データ収集部114は、例えば、収集したデータを、車両200に送信された認識モデルと対応付けて、分析装置115に出力する。分析装置115は、例えば、認識モデルを用いて認識されるシーンごとに、車両200から受信したデータを蓄積する。分析装置115は、蓄積したデータに対して分析を行う。
 本実施形態では、サーバ110は、認識モデル及びパラメータを車両200に送信する。車両200は、受信した認識モデルと、センサ情報とに基づいて、車両が特定のシーンに対応した状況にあるか否かを判定する。車両200は、特定のシーンに対応した状況にあると判定した場合、パラメータにおいて指定された情報をサーバ110に送信する。本開示では、サーバ110は、車両200に送信する認識モデル及びパラメータを通じて、車両200に情報を送信させるシーンと、送信される情報とを指定できる。従って、サーバ110は、車両200が特定のシーンに対応した状況にある場合に、収集したいデータを収集することができる。
 本実施形態において、サーバ110は、取得したいデータに応じて、認識モデル及びパラメータを選択することができる。仮に、サーバ110が車両200から全てのデータを取得したとすると、サーバ110は、多数の車両200から多数のデータを受信し、大量のデータを処理する必要がある。本実施形態では、サーバ110は、認識モデル及びパラメータを用いて、データを送信する状況、及び取得するデータを指定できる。このため、本実施形態は、車両200から収集するデータを絞り込むことができ、サーバ110におけるストレージコストを抑えることができる。また、本実施形態は、サーバ110と車両200との間のデータ転送量を削減することができ、通信コストを抑えることができる。
 続いて、本開示の第2実施形態を説明する。図7は、本開示の第2実施形態に係るデータ収集システムを示す。本実施形態に係るデータ収集システム100aは、交通情報システム300を更に有する点で、図2に示される第1実施形態に係るデータ収集システム100と相違する。本実施形態において、サーバ110の構成は、図3に示される第1実施形態におけるサーバ110の構成と同様でよい。また、車両200の構成は、図4に示される第1実施形態における車両200の構成と同様でよい。
 交通情報システム300は、交通に関する地域特性情報を提供するシステムである。交通情報システム300は、交通に関連した特定の事象と、その事象が多発する地点とを対応付けた情報を保持する。交通情報システム300は、例えば、追突事故が多発する地点を示す情報を含む追突事故多発地点情報310を保持する。交通情報システム300は、例えばあおり運転が多発している地点を示す情報を更に保持していてもよい。交通情報システム300は、保持する追突事故多発地点情報310をサーバ110に提供する。
 サーバ110の認識モデル選択部111は、交通情報システム300が保持する情報を参照し、認識モデルを選択する。認識モデル選択部111は、例えば、追突事故多発地点情報310を参照し、車両200が追突事故が多発する地点に存在するか否かを判断する。サーバ110は、車両200の現在地付近で追突事故が多発していると判断した場合、追突事故のシーンを識別するための認識モデルを、車両200に送信する認識モデルとして選択する。
 本実施形態では、サーバ110は、交通情報システム300と連携し、交通情報システム300が保持する情報を用いて認識モデルを選択する。サーバ110は、例えば追突事故多発地点情報310を用いて認識モデルを選択することで、車両200の現在地付近で追突事故が多発する場合に、追突事故のシーンを識別する認識モデルを車両200に送信することができる。このように、本実施形態では、車両200の現在地付近で多発する事故などの事象を判別する認識モデルを車両200に配置することができる。他の効果は、第1実施形態において説明した効果と同様である。
 なお、上記各実施形態において、パラメータシートは、データの優先度を示す情報を含んでいてもよい。優先度は、例えば「高」、「中」、及び「低」を含む。データ送信部243(図4を参照)は、ネットワーク150(図2を参照)における通信帯域を監視し、通信帯域に応じて優先度が高いデータを優先的にサーバ110に送信してもよい。例えば、データ送信部243は、例えば通信帯域が第1のしきい値より大きい場合、全ての優先度のデータをサーバ110に送信する。データ送信部243は、通信帯域が第1のしきい値以下の場合、優先度が「高」又は「中」に設定されたデータをサーバ110に送信し、優先度が「低」に設定されたデータを破棄してもよい。データ送信部243は、通信帯域が第1のしきい値より小さい第2のしきい値以下の場合、優先度が「高」に設定されたデータをサーバ110に送信し、優先度が「中」又は「低」に設定されたデータを破棄してもよい。パラメータシートは、シーン判定部242の判定結果とは関係なく、常にサーバ110に送信されるデータを指定する情報を含んでいてもよい。
 上記各実施形態において、データ送信部243は、分析装置115(図3を参照)において行われる分析の目的やシーンに基づいて分析において重要なデータを判断し、重要ではないデータは破棄してもよい。例えば、シーン判定部242が追従シーンを判定する場合、動画像データから得られる情報は少ない。分析において、センサデータがあれば十分である場合、データ送信部243は、動画像データをサーバ110に送信せずに、車両側で破棄してもよい。
 続いて、物理的構成を説明する。本開示において、サーバ110は、コンピュータ装置として構成され得る。図8は、サーバ110として用いられ得るコンピュータ装置の構成例を示す。コンピュータ装置500は、制御部(CPU:Central Processing Unit)510、記憶部520、ROM(Read Only Memory)530、RAM(Random Access Memory)540、通信インタフェース(IF:Interface)550、及びユーザインタフェース560を有する。
 通信インタフェース550は、有線通信手段又は無線通信手段などを介して、コンピュータ装置500と通信ネットワークとを接続するためのインタフェースである。ユーザインタフェース560は、例えばディスプレイなどの表示部を含む。また、ユーザインタフェース560は、キーボード、マウス、及びタッチパネルなどの入力部を含む。
 記憶部520は、各種のデータを保持できる補助記憶装置である。記憶部520は、必ずしもコンピュータ装置500の一部である必要はなく、外部記憶装置であってもよいし、ネットワークを介してコンピュータ装置500に接続されたクラウドストレージであってもよい。
 ROM530は、不揮発性の記憶装置である。ROM530には、例えば比較的容量が少ないフラッシュメモリなどの半導体記憶装置が用いられる。CPU510が実行するプログラムは、記憶部520又はROM530に格納され得る。記憶部520又はROM530は、例えばサーバ110内の各部の機能を実現するための各種プログラムを記憶する。
 RAM540は、揮発性の記憶装置である。RAM540には、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)などの各種半導体メモリデバイスが用いられる。RAM540は、データなどを一時的に格納する内部バッファとして用いられ得る。CPU510は、記憶部520又はROM530に格納されたプログラムをRAM540に展開し、実行する。CPU510がプログラムを実行することで、サーバ110内の各部の機能が実現され得る。CPU510は、データなどを一時的に格納できる内部バッファを有してもよい。
 また、本開示において、シーン認識ユニット204(図4を参照)は電子制御ユニット(電子制御装置)として構成され得る。図9は、シーン認識ユニット204に使用され得る電子制御装置のハードウェア構成例を示す。電子制御装置600は、プロセッサ601、ROM602、及びRAM603を有する。電子制御装置600において、プロセッサ601、ROM602、及びRAM603は、バス604を介して相互に接続される。電子制御装置600は、図示は省略するが、周辺回路、通信回路、及びインタフェース回路などの他の回路を含み得る。
 ROM602は、不揮発性の記憶装置である。ROM602には、例えば比較的容量が少ないフラッシュメモリなどの半導体記憶装置が用いられる。ROM602は、プロセッサ501が実行するプログラムを格納する。RAM603は、揮発性の記憶装置である。RAM603には、DRAM又はSRAMなどの各種半導体メモリデバイスが用いられる。RAM640は、データなどを一時的に格納する内部バッファとして用いられ得る。
 プロセッサ601は、ROM602に格納されたプログラムをRAM603に展開し、実行する。CPU601がプログラムを実行することで、シーン認識ユニット204の各部の機能が実現され得る。
 上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータ装置500又は電子制御装置600に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体を含む。非一時的なコンピュータ可読媒体の例は、例えばフレキシブルディスク、磁気テープ、又はハードディスクなどの磁気記録媒体、例えば光磁気ディスクなどの光磁気記録媒体、CD(compact disc)、又はDVD(digital versatile disk)などの光ディスク媒体、及び、マスクROM、PROM(programmable ROM)、EPROM(erasable PROM)、フラッシュROM、又はRAMなどの半導体メモリを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体を用いてコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバなどの有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、本開示の実施形態を詳細に説明したが、本開示は、上記した実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で上記実施形態に対して変更や修正を加えたものも、本開示に含まれる。
 例えば、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 サーバと、
 前記サーバとネットワークを介して接続される車両とを有し、
 前記サーバは、
 センサ情報に基づいて前記車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択する認識モデル選択手段と、
 前記認識モデルを前記車両に送信する送信手段と、
 前記車両から送信される情報を収集するデータ収集手段とを有し、
 前記車両は、
 前記サーバから受信した認識モデルと、センサ情報とに基づいて、車両が特定のシーンに対応した状況にあるか否かを判定するシーン判定手段と、
 前記車両が特定のシーンに対応した状況にあると判定された場合、情報を前記サーバに送信するデータ送信手段とを有する、情報収集システム。
[付記2]
 前記サーバは、前記選択された認識モデルに基づいて、前記車両から取得する情報を指定するパラメータを決定するパラメータ決定手段を更に有し、
 前記送信手段は、前記決定されたパラメータを前記車両に更に送信し、
 データ送信手段は、前記車両が特定のシーンに対応した状況にあると判定された場合、前記サーバから受信したパラメータにおいて指定された情報を前記サーバに送信する付記1に記載の情報収集システム。
[付記3]
 前記認識モデル選択手段は、前記車両の位置情報に基づいて、前記車両に送信する認識モデルを選択する付記1又は2に記載の情報収集システム。
[付記4]
 前記認識モデル選択手段は、地理的な位置と、前記特定のシーンとを対応付けた地域特性情報から、前記車両の位置に対応付けられる特定のシーンを示す情報を取得し、該取得した情報が示す特定のシーンを識別するための認識モデルを前記車両に送信する認識モデルとして選択する付記3に記載の情報収集システム。
[付記5]
 前記認識モデル選択手段は、前記車両が走行している道路の種別に応じて、前記認識モデルを選択する付記1から4何れか1つに記載の情報収集システム。
[付記6]
 前記センサ情報は、前記車両に搭載されるカメラを用いて取得される情報、速度センサを用いて取得される情報、及び加速度センサを用いて取得される情報の少なくとも1つを含む付記1から5何れか1つに記載の情報収集システム。
[付記7]
 前記認識モデルはCNN(Convolutional Neural Network)を含む付記1から6何れか1つに記載の情報収集システム。
[付記8]
 前記車両は、前記サーバから前記認識モデルを受信し、前記シーン判定手段が使用する認識モデルを、前記受信した認識モデルで更新する認識モデル更新手段を更に有する付記1から7何れか1つに記載の情報収集システム。
[付記9]
 前記サーバは、前記データ収集手段が収集した情報を用いて分析を行う分析装置を更に有する付記1から8何れか1つに記載の情報収集システム。
[付記10]
 センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択する認識モデル選択手段と、
  前記認識モデルを、ネットワークを介して前記車両に送信する送信手段と、
 前記車両において前記認識モデルとセンサ情報とに基づいて前記車両が特定のシーンに対応した状況にあると判定された場合に、前記車両から情報を収集するデータ収集手段とを備えるサーバ。
[付記11]
 前記選択された認識モデルに基づいて、前記車両において前記車両が特定のシーンに対応した状況にあると判定された場合に前記車両に送信させる情報を指定するパラメータを決定するパラメータ決定手段を更に有する付記10に記載のサーバ。
[付記12]
 前記認識モデル選択手段は、前記車両の位置情報に基づいて、前記車両に送信する認識モデルを選択する付記10又は11に記載のサーバ。
[付記13]
 前記認識モデル選択手段は、地理的な位置と、前記特定のシーンとを対応付けた地域特性情報から、前記車両の位置に対応付けられる特定のシーンを示す情報を取得し、該取得した情報が示す特定のシーンを識別するための認識モデルを前記車両に送信する認識モデルとして選択する付記12に記載のサーバ。
[付記14]
 前記認識モデル選択手段は、前記車両が走行している道路の種別に応じて、前記認識モデルを選択する付記10から13何れか1つに記載のサーバ。
[付記15]
 前記データ収集手段が収集した情報を用いて分析を行う分析装置を更に有する付記10から14何れか1つに記載のサーバ。
[付記16]
 車両であって、
 サーバからネットワークを介して受信した、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルと、センサ情報とに基づいて、前記車両が特定のシーンに対応した状況にあるか否かを判定するシーン判定手段と、
 前記車両が特定のシーンに対応した状況にあると判定された場合、情報を、ネットワークを介して前記サーバに送信するデータ送信手段とを備える車両。
[付記17]
 前記データ送信手段は、前記車両が特定のシーンに対応した状況にあると判定された場合、前記サーバから受信した、前記サーバに送信する情報を指定するパラメータにおいて指定された情報を前記サーバに送信する付記16に記載の車両。
[付記18]
 前記センサ情報は、前記車両に搭載されるカメラを用いて取得される情報、速度センサを用いて取得される情報、及び加速度センサを用いて取得される情報の少なくとも1つを含む付記16又は17に記載の車両。
[付記19]
 前記車両は、前記サーバから前記認識モデルを受信し、前記シーン判定手段が使用する認識モデルを、前記受信した認識モデルで更新する認識モデル更新手段を更に有する付記16から18何れか1つに記載の車両。
[付記20]
 センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択し、
 前記認識モデルを、ネットワークを介して前記車両に送信し、
 前記車両において前記認識モデルとセンサ情報とに基づいて前記車両が特定のシーンに対応した状況にあると判定された場合に、前記車両から情報を収集する情報収集方法。
[付記21]
 サーバからネットワークを介して受信した、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルと、センサ情報とに基づいて、前記車両が特定のシーンに対応した状況にあるか否かを判定し、
 前記車両が特定のシーンに対応した状況にあると判定された場合、情報を、ネットワークを介して前記サーバに送信する情報送信方法。
[付記22]
 センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択し、
 前記認識モデルを、ネットワークを介して前記車両に送信し、
 前記車両において前記認識モデルとセンサ情報とに基づいて前記車両が特定のシーンに対応した状況にあると判定された場合に、前記車両から情報を収集する処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
[付記23]
 サーバからネットワークを介して受信した、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルと、センサ情報とに基づいて、前記車両が特定のシーンに対応した状況にあるか否かを判定し、
 前記車両が特定のシーンに対応した状況にあると判定された場合、情報を、ネットワークを介して前記サーバに送信する処理をプロセッサに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
10:情報収集システム
20:サーバ
21:認識モデル選択手段
22:送信手段
23:データ収集手段
30:車両
31:シーン判定手段
32:データ送信手段
100:データ収集システム
110:サーバ
111:認識モデル選択部
112:パラメータ決定部
113:送信部
114:データ収集部
115:分析装置
150:ネットワーク
200:車両
201:周辺監視センサ
202:車両センサ
203:車両制御ECU
204:シーン認識ユニット
205:通信装置
241:認識モデル記憶部
242:シーン判定部
243:データ送信部
244:認識モデル更新部
300:交通情報システム
310:追突事故多発地点情報

Claims (23)

  1.  サーバと、
     前記サーバとネットワークを介して接続される車両とを有し、
     前記サーバは、
     センサ情報に基づいて前記車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択する認識モデル選択手段と、
     前記認識モデルを前記車両に送信する送信手段と、
     前記車両から送信される情報を収集するデータ収集手段とを有し、
     前記車両は、
     前記サーバから受信した認識モデルと、センサ情報とに基づいて、車両が特定のシーンに対応した状況にあるか否かを判定するシーン判定手段と、
     前記車両が特定のシーンに対応した状況にあると判定された場合、情報を前記サーバに送信するデータ送信手段とを有する、情報収集システム。
  2.  前記サーバは、前記選択された認識モデルに基づいて、前記車両から取得する情報を指定するパラメータを決定するパラメータ決定手段を更に有し、
     前記送信手段は、前記決定されたパラメータを前記車両に更に送信し、
     データ送信手段は、前記車両が特定のシーンに対応した状況にあると判定された場合、前記サーバから受信したパラメータにおいて指定された情報を前記サーバに送信する請求項1に記載の情報収集システム。
  3.  前記認識モデル選択手段は、前記車両の位置情報に基づいて、前記車両に送信する認識モデルを選択する請求項1又は2に記載の情報収集システム。
  4.  前記認識モデル選択手段は、地理的な位置と、前記特定のシーンとを対応付けた地域特性情報から、前記車両の位置に対応付けられる特定のシーンを示す情報を取得し、該取得した情報が示す特定のシーンを識別するための認識モデルを前記車両に送信する認識モデルとして選択する請求項3に記載の情報収集システム。
  5.  前記認識モデル選択手段は、前記車両が走行している道路の種別に応じて、前記認識モデルを選択する請求項1から4何れか1項に記載の情報収集システム。
  6.  前記センサ情報は、前記車両に搭載されるカメラを用いて取得される情報、速度センサを用いて取得される情報、及び加速度センサを用いて取得される情報の少なくとも1つを含む請求項1から5何れか1項に記載の情報収集システム。
  7.  前記認識モデルはCNN(Convolutional Neural Network)を含む請求項1から6何れか1項に記載の情報収集システム。
  8.  前記車両は、前記サーバから前記認識モデルを受信し、前記シーン判定手段が使用する認識モデルを、前記受信した認識モデルで更新する認識モデル更新手段を更に有する請求項1から7何れか1項に記載の情報収集システム。
  9.  前記サーバは、前記データ収集手段が収集した情報を用いて分析を行う分析装置を更に有する請求項1から8何れか1項に記載の情報収集システム。
  10.  センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択する認識モデル選択手段と、
      前記認識モデルを、ネットワークを介して前記車両に送信する送信手段と、
     前記車両において前記認識モデルとセンサ情報とに基づいて前記車両が特定のシーンに対応した状況にあると判定された場合に、前記車両から情報を収集するデータ収集手段とを備えるサーバ。
  11.  前記選択された認識モデルに基づいて、前記車両において前記車両が特定のシーンに対応した状況にあると判定された場合に前記車両に送信させる情報を指定するパラメータを決定するパラメータ決定手段を更に有する請求項10に記載のサーバ。
  12.  前記認識モデル選択手段は、前記車両の位置情報に基づいて、前記車両に送信する認識モデルを選択する請求項10又は11に記載のサーバ。
  13.  前記認識モデル選択手段は、地理的な位置と、前記特定のシーンとを対応付けた地域特性情報から、前記車両の位置に対応付けられる特定のシーンを示す情報を取得し、該取得した情報が示す特定のシーンを識別するための認識モデルを前記車両に送信する認識モデルとして選択する請求項12に記載のサーバ。
  14.  前記認識モデル選択手段は、前記車両が走行している道路の種別に応じて、前記認識モデルを選択する請求項10から13何れか1項に記載のサーバ。
  15.  前記データ収集手段が収集した情報を用いて分析を行う分析装置を更に有する請求項10から14何れか1項に記載のサーバ。
  16.  車両であって、
     サーバからネットワークを介して受信した、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルと、センサ情報とに基づいて、前記車両が特定のシーンに対応した状況にあるか否かを判定するシーン判定手段と、
     前記車両が特定のシーンに対応した状況にあると判定された場合、情報を、ネットワークを介して前記サーバに送信するデータ送信手段とを備える車両。
  17.  前記データ送信手段は、前記車両が特定のシーンに対応した状況にあると判定された場合、前記サーバから受信した、前記サーバに送信する情報を指定するパラメータにおいて指定された情報を前記サーバに送信する請求項16に記載の車両。
  18.  前記センサ情報は、前記車両に搭載されるカメラを用いて取得される情報、速度センサを用いて取得される情報、及び加速度センサを用いて取得される情報の少なくとも1つを含む請求項16又は17に記載の車両。
  19.  前記車両は、前記サーバから前記認識モデルを受信し、前記シーン判定手段が使用する認識モデルを、前記受信した認識モデルで更新する認識モデル更新手段を更に有する請求項16から18何れか1項に記載の車両。
  20.  センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択し、
     前記認識モデルを、ネットワークを介して前記車両に送信し、
     前記車両において前記認識モデルとセンサ情報とに基づいて前記車両が特定のシーンに対応した状況にあると判定された場合に、前記車両から情報を収集する情報収集方法。
  21.  サーバからネットワークを介して受信した、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルと、センサ情報とに基づいて、前記車両が特定のシーンに対応した状況にあるか否かを判定し、
     前記車両が特定のシーンに対応した状況にあると判定された場合、情報を、ネットワークを介して前記サーバに送信する情報送信方法。
  22.  センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルを選択し、
     前記認識モデルを、ネットワークを介して前記車両に送信し、
     前記車両において前記認識モデルとセンサ情報とに基づいて前記車両が特定のシーンに対応した状況にあると判定された場合に、前記車両から情報を収集する処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
  23.  サーバからネットワークを介して受信した、センサ情報に基づいて車両が特定のシーンに対応した状況にあることを識別するための認識モデルと、センサ情報とに基づいて、前記車両が特定のシーンに対応した状況にあるか否かを判定し、
     前記車両が特定のシーンに対応した状況にあると判定された場合、情報を、ネットワークを介して前記サーバに送信する処理をプロセッサに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
PCT/JP2020/044197 2020-11-27 2020-11-27 情報収集システム、サーバ、車両、方法、及びコンピュータ可読媒体 WO2022113261A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/044197 WO2022113261A1 (ja) 2020-11-27 2020-11-27 情報収集システム、サーバ、車両、方法、及びコンピュータ可読媒体
JP2022564926A JPWO2022113261A5 (ja) 2020-11-27 情報収集システム、サーバ、車両、方法、及びプログラム
US18/037,290 US20240005672A1 (en) 2020-11-27 2020-11-27 Information collection system, server, and information collection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/044197 WO2022113261A1 (ja) 2020-11-27 2020-11-27 情報収集システム、サーバ、車両、方法、及びコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2022113261A1 true WO2022113261A1 (ja) 2022-06-02

Family

ID=81755418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/044197 WO2022113261A1 (ja) 2020-11-27 2020-11-27 情報収集システム、サーバ、車両、方法、及びコンピュータ可読媒体

Country Status (2)

Country Link
US (1) US20240005672A1 (ja)
WO (1) WO2022113261A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018136754A (ja) * 2017-02-22 2018-08-30 株式会社日立製作所 情報処理装置、モビリティデータ収集システム
US20190265712A1 (en) * 2018-02-27 2019-08-29 Nauto, Inc. Method for determining driving policy

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018136754A (ja) * 2017-02-22 2018-08-30 株式会社日立製作所 情報処理装置、モビリティデータ収集システム
US20190265712A1 (en) * 2018-02-27 2019-08-29 Nauto, Inc. Method for determining driving policy

Also Published As

Publication number Publication date
JPWO2022113261A1 (ja) 2022-06-02
US20240005672A1 (en) 2024-01-04

Similar Documents

Publication Publication Date Title
US11520331B2 (en) Methods and apparatus to update autonomous vehicle perspectives
US9849865B2 (en) Emergency braking system and method of controlling the same
JP2016095831A (ja) 運転支援システム及びセンタ
US11631326B2 (en) Information providing system, server, onboard device, vehicle, storage medium, and information providing method
US10755565B2 (en) Prioritized vehicle messaging
US11202030B2 (en) System and method for providing complete event data from cross-referenced data memories
US20210004612A1 (en) Road environment monitoring device, road environment monitoring system, and road environment monitoring program
US20220343637A1 (en) Traffic flow machine-learning modeling system and method applied to vehicles
JP2019175089A (ja) センサ提供システム、車載装置、センサ共有サーバ、及びコンピュータプログラム
JP7153759B2 (ja) 音声ノイズ除去方法及びシステム
JP2014137682A (ja) 移動体端末の位置情報を用いた交通情報提供システム
WO2022113261A1 (ja) 情報収集システム、サーバ、車両、方法、及びコンピュータ可読媒体
JP6989347B2 (ja) 車両状態判定装置、車両状態判定システム、車両状態判定方法、及び、車両状態判定プログラム
US20230256994A1 (en) Assessing relative autonomous vehicle performance via evaluation of other road users
CN112687105B (zh) 一种车辆鸣笛检测系统和方法
US20210157333A1 (en) Automatic driving control system, server device, and recording medium
CN114495505A (zh) 拥堵路段通过时长的预测方法、装置、介质及服务器
JP2022002118A (ja) 情報処理装置、サーバ装置、情報処理方法、及びプログラム
WO2019116537A1 (ja) 情報取得方法、情報取得装置、車載装置、路上センサ装置、及び情報取得システム
US20230392940A1 (en) Systems and methods for generating fuel efficiency score based on cell phone sensor data
JP7276195B2 (ja) サーバ、プログラム、及び情報処理方法
US11467097B2 (en) Road management device
US20230339517A1 (en) Autonomous driving evaluation system
US12017649B2 (en) Blockchain system to aid vehicle actions
JP7261892B2 (ja) 占有格子地図管理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20963525

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18037290

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2022564926

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20963525

Country of ref document: EP

Kind code of ref document: A1