WO2020017320A1 - センサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラム - Google Patents

センサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラム Download PDF

Info

Publication number
WO2020017320A1
WO2020017320A1 PCT/JP2019/026308 JP2019026308W WO2020017320A1 WO 2020017320 A1 WO2020017320 A1 WO 2020017320A1 JP 2019026308 W JP2019026308 W JP 2019026308W WO 2020017320 A1 WO2020017320 A1 WO 2020017320A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor data
sensor
format
unit
vehicle
Prior art date
Application number
PCT/JP2019/026308
Other languages
English (en)
French (fr)
Inventor
俊平 高木
Original Assignee
住友電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社 filed Critical 住友電気工業株式会社
Publication of WO2020017320A1 publication Critical patent/WO2020017320A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C15/00Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path
    • G08C15/06Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path successively, i.e. using time division
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C19/00Electric signal transmission systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a sensor sharing system, a sensor sharing device, a sensor sharing method, and a computer program.
  • This application claims the priority based on Japanese Patent Application No. 2018-134677 filed on Jul. 18, 2018, and incorporates all contents described in the Japanese application.
  • Various systems for driving assistance by drivers operating vehicles have been proposed and put into practical use.
  • Conventional typical systems include a sensor group including a color monocular camera, a color stereo camera, a LiDAR (Light Detection and Ranging), and a millimeter wave radar, a high-precision map including three-dimensional road and terrain information, and a GPS ( Equipped with devices such as Global Positioning System, the information from the sensors is analyzed by the in-vehicle device, the position of the vehicle is determined using a high-precision map, and the driver is driven using various road traffic information related to the position. It was to provide support information.
  • a sensor group including a color monocular camera, a color stereo camera, a LiDAR (Light Detection and Ranging), and a millimeter wave radar, a high-precision map including three-dimensional road and terrain information, and a GPS ( Equipped with devices such as Global Positioning System, the information from the sensors is analyzed by the in-vehicle device, the position
  • the development of automatic driving systems is progressing.
  • the environment is sensed using the same information as described above, and the vehicle travels on the road while making a traveling plan in real time.
  • Either system has a problem that sensing required for making a travel plan with sufficient reliability cannot be performed depending on road traffic conditions such as traffic congestion and terrain.
  • road traffic conditions such as traffic congestion and terrain.
  • FIG. 1 consider a case where there is traffic congestion near an intersection 50 and a vehicle 52 equipped with a driving support system stops behind a truck 54.
  • the truck 54 cannot obtain useful information. Therefore, for example, there is a problem that the oncoming vehicle 56 cannot be detected.
  • FIG. 2 there is a case where vehicle 62 existing at a position climbing the hill cannot be detected from vehicle 60 climbing the hill.
  • Patent Document 1 An image processing apparatus for solving such a problem is proposed in Patent Document 1 described later.
  • the image processing device disclosed in Patent Literature 1 has a function of supporting a driver in a vehicle equipped with a camera using not only the camera of the own vehicle but also an image of an external camera installed on a street.
  • Patent Document 1 in order to solve such a problem, an image of the camera of the own vehicle and an image of the external camera are synthesized from an arbitrary viewpoint, and an intermediate image in which a change in the image is easy for the driver to understand even when the camera is switched is provided. Generate and switch images sequentially. According to this configuration, the driver can easily recognize the content of the image even when the camera is switched.
  • a sensor sharing system is connected to a sensor, and receives a sensor data transmitting device that transmits sensor data received from the sensor, and the sensor data transmitted by the sensor data transmitting device.
  • An in-vehicle device that performs driving assistance of a vehicle using sensor data, wherein the sensor data transmitting device is connected to the sensor, and the position information of a plurality of points detected by the sensor.
  • An input unit for receiving sensor data including: a sensor data storage unit for storing the sensor data from the sensor according to a first format specific to the sensor data transmission device; and the sensor received by the input unit.
  • the sensor sharing system A transmission data generation unit for shaping the transmission data in a common second format, and a transmission unit for transmitting the transmission data in the second format.
  • a first sensor data receiving unit for receiving sensor data, and a sensor for converting the sensor data received by the first sensor data receiving unit from the second format to a third format specific to the on-vehicle device.
  • a driving support processing unit that generates driving support information of the vehicle by analyzing the sensor data converted into the third format.
  • a sensor sharing device is a sensor sharing device connected to a sensor, the input unit receiving sensor data including position information of a plurality of points detected by the sensor, and the input unit A sensor data storage unit for storing the sensor data received by the sensor sharing device according to a first format specific to the sensor sharing device, the sensor data received by the input unit, and a sensing time of the sensor data.
  • a transmission data generation unit for shaping the data into transmission data in a second format, a transmission unit for transmitting the transmission data in the second format, a sensor data reception unit for receiving sensor data from another device, and the sensor Converting the sensor data received by the data receiving unit from the second format to the first
  • a format conversion unit that converts the data into a format and stores it in the sensor data storage unit, and a driving support processing unit that generates driving support information of the vehicle by analyzing the sensor data converted into the first format.
  • a plurality of the sensor sharing devices form a sensor sharing system
  • the second format is a common format in the sensor sharing system.
  • a sensor sharing device is a sensor sharing device capable of communicating with an external device connected to a sensor, and receives sensor data in a predetermined first format from the external device.
  • a sensor data receiving unit a format converting unit for converting the sensor data received by the sensor data receiving unit from the first format to a unique second format, and the second And a driving support processing unit that generates driving support information of a vehicle equipped with the sensor sharing device by analyzing the sensor data converted into the format described above.
  • a sensor sharing method is a sensor sharing method executed by a sensor sharing system including an in-vehicle device, wherein the sensor data transmission step of transmitting sensor data output from a sensor, and the sensor data transmission Receiving the sensor data transmitted in the step, and supporting the driving of the vehicle using the sensor data, including a sensor data receiving step, wherein the sensor data transmitting step, the plurality of points detected by the sensor
  • the sensor data receiving step is a receiving step of receiving the sensor data transmitted in the sensor data transmitting step by an in-vehicle device, and the sensor data received in the receiving step,
  • a format conversion step of converting from the second format to a unique third format, and analyzing the sensor data converted to the third format to generate driving support information of a vehicle equipped with the on-vehicle device Driving assistance step.
  • a computer program is a computer program for causing a computer connected to a sensor and a communication device to function as an in-vehicle device, and includes position information of a plurality of points detected by the sensor.
  • An input unit that receives sensor data
  • a sensor data storage unit that stores the sensor data received by the input unit according to a first format, the sensor data received by the input unit, and a sensing time of the sensor data.
  • the format is specific to the second format.
  • Tsu DOO is a common format in the sensor sharing system including the vehicle device and other devices.
  • a computer program is a computer program for causing a computer connected to a communication device to function as an in-vehicle device, and has a predetermined first format from another device via the communication device.
  • a sensor data receiving unit for receiving sensor data
  • a format converting unit for converting the sensor data received by the sensor data receiving unit from the first format to a second format
  • a format converting unit for converting the sensor data to the second format.
  • the sensor data is analyzed to function as a driving support processing unit that generates driving support information of the vehicle
  • the first format is a common format in a sensor sharing system including the on-vehicle device and the other device.
  • the second format is specific to the in-vehicle device It is a format.
  • a sensor sharing device is a sensor sharing device connected to a sensor, the input unit receiving sensor data including position information of a plurality of points detected by the sensor, and the input unit
  • a sensor data storage unit for storing the sensor data received by the input unit in accordance with a first format; and a sensor time received by the input unit and a sensing time of the sensor data in a second format.
  • a transmission data generation unit for shaping transmission data, and a transmission unit for transmitting the transmission data in the second format, wherein the first format is a format unique to the sensor sharing apparatus, and The format is a common format in the sensor sharing system including the sensor sharing device.
  • FIG. 1 is a schematic diagram showing a problem of a conventional driving support system.
  • FIG. 2 is a schematic diagram showing a problem of the conventional driving support system.
  • FIG. 3 is a schematic diagram illustrating a schematic configuration of the sensor sharing system according to the embodiment of the present invention.
  • FIG. 4 is a schematic diagram for explaining the positioning of the sensor sharing system according to the embodiment of the present invention in the dynamic map.
  • FIG. 5 is a schematic diagram showing components of the sensor sharing system according to the embodiment of the present invention.
  • FIG. 6 is a block diagram showing a functional configuration of the infrastructure sensor shown in FIG.
  • FIG. 7 is a block diagram showing a functional configuration of the vehicle-mounted device 146 shown in FIG.
  • FIG. 8 is a block diagram showing a hardware configuration of the vehicle-mounted device 146 shown in FIG.
  • FIG. 9 is a schematic diagram illustrating a configuration of an example of a common format used in the embodiment of the present invention.
  • FIG. 10 is a flowchart showing a schematic control structure of a program for realizing a process of transmitting a request for receiving sensor data from another vehicle or the like in the vehicle-mounted device 146 shown in FIG.
  • FIG. 11 is a flowchart illustrating a control structure of a program for realizing a process of integrating sensor data received from another vehicle into sensor data of the own vehicle after transmitting a request.
  • FIG. 12 is a flowchart illustrating a control structure of a program that is started when a request for transmitting sensor data from another vehicle is received and that implements processing for transmitting sensor data of the own vehicle to another vehicle.
  • FIG. 10 is a flowchart showing a schematic control structure of a program for realizing a process of transmitting a request for receiving sensor data from another vehicle or the like in the vehicle-mounted device 146 shown in FIG.
  • FIG. 11 is a
  • FIG. 13 is a flowchart showing a control structure of a program for implementing a process of changing the sensor data in the vehicle format to a common format in a part of the program shown in FIG.
  • FIG. 14 is a flowchart showing a schematic control structure of a program for realizing the server 134 shown in FIG. 5 in cooperation with computer hardware.
  • Patent Document 1 ⁇ Problems to be solved by the present disclosure>
  • the driver can grasp the surrounding environment using images not only from the camera of the own vehicle but also from an external camera.
  • the effect of the technology disclosed in Patent Literature 1 is that the driver can easily recognize the environment, and there is a problem that information obtained from a sensor such as an external camera cannot be effectively used for automatic driving or the like.
  • Patent Document 1 It is almost impossible with the technology used.
  • ⁇ Effects of the present disclosure> it is possible to provide a sensor sharing system, a sensor sharing device, a sensor sharing method, and a computer program that can flexibly cope with a constantly changing road condition and environmental changes.
  • the sensor sharing system is connected to a sensor, receives a sensor data transmitting device that transmits sensor data received from the sensor, and receives the sensor data transmitted by the sensor data transmitting device, An in-vehicle device that performs driving assistance of the vehicle using the sensor data, wherein the sensor data transmitting device is connected to the sensor and positions of a plurality of points detected by the sensor.
  • the sensor data and the sensing time of the sensor data are stored in the sensor sharing system.
  • a transmission data generation unit for shaping transmission data in a common second format in the system, and a transmission unit for transmitting the transmission data in the second format.
  • a first sensor data receiving unit for receiving sensor data, and a sensor for converting the sensor data received by the first sensor data receiving unit from the second format to a third format specific to the on-vehicle device.
  • a driving support processing unit that generates driving support information of the vehicle by analyzing the sensor data converted into the third format.
  • in-vehicle devices that use different data formats can use information from sensors in other in-vehicle devices effectively by using a common format.
  • An obstacle or a moving vehicle that cannot be detected by a certain in-vehicle device can be detected by using sensor data from another in-vehicle device.
  • sensor data of each sensor can be transmitted and received by high-speed and low-delay end-to-end communication. It can be used as if it were information from the Internet and is effective.
  • a sensor sharing system that can flexibly cope with the ever-changing road conditions and environmental changes and that can provide effective driving support.
  • the position information of the plurality of points received by the input unit is relative position information having an origin at a position of the sensor data transmission device.
  • the sensor data transmitting device includes a first reference position information maintaining unit that maintains reference position information at predetermined reference coordinates of the sensor data transmitting device, and the transmission data generating unit includes position information of the plurality of points. Is converted to position information at the reference coordinates using the reference position information maintained by the first reference position information maintaining unit, and the position information of the plurality of points at the converted reference coordinates;
  • the sensing time of the sensor data may be shaped into transmission data in the second format and output to the transmission unit.
  • Sensor data relating to points such as obstacles is shared by a plurality of devices as coordinates with respect to the reference coordinates. Coupled with the use of the common format, sensor data can be shared between systems using sensor data transmission devices and vehicle-mounted devices of different manufacturers. As a result, it is possible to provide a sensor sharing system that can flexibly cope with road conditions and environmental changes that change every moment using a large amount of sensor data and that can provide effective driving support.
  • the in-vehicle device further includes a second reference position information maintaining unit that maintains reference position information of the in-vehicle device at the reference coordinates, and the sensor data transmission device.
  • a request transmission unit for transmitting a request including the reference position information maintained by the second reference position information maintenance unit, the request being a request for requesting transmission of the sensor data to the sensor.
  • the transmission data generation unit shapes the sensor data and the sensing time into transmission data in the second format in response to the determination of the determination unit being affirmative, and transmits the data through the transmission unit. May be.
  • the determination unit calculates the accuracy of the reference position information maintained by the first reference position information maintaining unit, and the request receiving unit In response to receiving the request, it is determined whether the calculated accuracy is equal to or greater than a threshold. In response to the accuracy being equal to or greater than the threshold, the first reference position information maintaining unit It may be determined whether or not the maintained reference position information and the reference position information included in the request satisfy the predetermined condition.
  • the sharing of the sensor data may cause confusion among the devices participating in the sensor sharing. Therefore, among the sensor data transmitting devices, only those having high accuracy regarding the maintained reference position information (typically, the position of the sensor data transmitting device) can be shared with others. It is possible to prevent confusion in the sensor sharing system due to sensor data based on incorrect position information.
  • the in-vehicle device further includes a second sensor data receiving unit that receives sensor data from a sensor connected to the in-vehicle device, and the second sensor data.
  • a sensor data storage unit that stores the sensor data received by the receiving unit and formatted in the third format, wherein the driving support processing unit is configured to store the sensor data in the third format.
  • the driving support information is generated based on the sensor data shaped into the form, and the format conversion unit converts the sensor data received by the first sensor data receiving unit from the second format to the third format.
  • the sensor data formatted in the third format is stored in the sensor data storage unit. It may be.
  • the in-vehicle device uses the unique third format, it is necessary to convert the sensor data (second format) shared with others into the third format. If the data is converted into the third format, similarly to the information from the sensor, the data is added and stored in the sensor data storage unit in the third format, so that the in-vehicle device can use the data received from another vehicle or the like as it is. Driving support processing can be performed. As a result, driving assistance can be performed using more self-sensor data, and the accuracy can be increased.
  • the on-vehicle device further includes a time when the first sensor data receiving unit receives the sensor data and a time when the sensing time is included in the sensor data. If the difference is equal to or greater than a predetermined threshold, the sensor data may be discarded.
  • the sensor connected to the sensor data transmitting device may include LiDAR, and the plurality of points may include a group of points detected by the LiDAR.
  • LiDAR uses a laser beam, it is hardly affected by the weather, can measure a distance to an obstacle at a certain distance with high accuracy, and can acquire the coordinates of point cloud data representing the shape of the obstacle. Therefore, LiDAR is suitable for a sensor sharing system, and can perform driving support with high accuracy.
  • the sensor sharing device is a sensor sharing device connected to a sensor, the input unit receiving sensor data including position information of a plurality of points detected by the sensor; A sensor data storage unit for storing the sensor data received by the unit according to a first format specific to the sensor sharing device; the sensor data received by the input unit; and a sensing time of the sensor data.
  • a transmission data generation unit that shapes transmission data in a second format, a transmission unit that transmits the transmission data in the second format, a sensor data reception unit that receives sensor data from another device, Converting the sensor data received by the sensor data receiving unit from the second format to the second A format conversion unit that converts the sensor data into the first format and stores the data in the sensor data storage unit; and a driving support processing unit that generates driving support information of the vehicle by analyzing the sensor data converted into the first format.
  • the plurality of sensor sharing devices form a sensor sharing system
  • the second format is a common format in the sensor sharing system.
  • This sensor sharing device converts sensor data into a unique first format and stores it in the sensor data storage unit.
  • the sensor data and the sensing time are shaped into a common second format by the sensor sharing system and transmitted. Since the sensor data received from another device is in the second format, the sensor data is converted into a unique first format and stored in the sensor data storage unit.
  • the sensor data storage unit also stores sensor data received from another sensor sharing device or the like in a unique first format.
  • Each of the transmitting device, the sensor sharing device, the in-vehicle device, and the other devices is not limited to one, and may be a plurality of devices connected to each other via a network. For example, an in-vehicle device may be connected to another in-vehicle device via a network.
  • each in-vehicle device can generate driving support information using the sensor data received from the other in-vehicle devices without any trouble.
  • An obstacle or a moving vehicle that cannot be detected by a certain in-vehicle device can be detected by using sensor data from another in-vehicle device.
  • sensor data of each sensor can be transmitted and received by high-speed and low-delay end-to-end communication, and each in-vehicle device determines whether sensor data from another vehicle or an infrastructure sensor is information from the sensor of its own vehicle.
  • available as As a result it is possible to provide a sensor sharing device that can flexibly cope with the ever-changing road conditions and environmental changes and that can provide effective driving support.
  • the sensor sharing device is a sensor sharing device capable of communicating with an external device connected to the sensor, and receives sensor data in a predetermined first format from the external device.
  • a sensor data receiving unit, a format converting unit for converting the sensor data received by the sensor data receiving unit from the first format to a unique second format, and the format converting unit A driving support processing unit that generates driving support information of the vehicle equipped with the sensor sharing device by analyzing the sensor data converted into the second format.
  • the sensor data in the first format received from another device is converted into the second format by using the format conversion unit. Then, the driving support can be performed using the sensor data from the sensor connected to itself. Sensor data received from another device can be used without any trouble, and an obstacle or a moving vehicle that cannot be detected by a certain device can be detected using sensor data from another device.
  • sensor data of each sensor can be transmitted and received by high-speed and low-delay end-to-end communication, and the sensor sharing device determines whether sensor data from another vehicle or an infrastructure sensor is information from the sensor of the own vehicle. Available as As a result, it is possible to provide a sensor sharing device that can flexibly cope with the ever-changing road conditions and environmental changes and that can provide effective driving support.
  • the sensor sharing method is a sensor sharing method executed by a sensor sharing system including an in-vehicle device, wherein a sensor data transmitting step of transmitting sensor data output from a sensor; Receiving the sensor data transmitted in the transmitting step, a sensor data receiving step of performing driving assistance of the vehicle using the sensor data, including, the sensor data transmitting step, the plurality of sensor data detected by the sensor An input step of receiving sensor data including point position information from the sensor, and a sensor data storing step of storing the sensor data received from the sensor in the input step in a storage device according to a first format unique to the sensor, In the input step, the sensor A transmission data generating step of shaping the received sensor data and the sensing time of the sensor data into transmission data of a common second format in the sensor sharing system; and transmitting the transmission data of the second format.
  • a transmitting step of transmitting, and the sensor data receiving step is a receiving step of receiving the sensor data transmitted in the sensor data transmitting step by an in-vehicle device, and the sensor data received in the receiving step, A format conversion step of converting the second format into a unique third format; and analyzing the sensor data converted into the third format, thereby obtaining driving assistance information of a vehicle equipped with the on-vehicle device.
  • in-vehicle devices that use different data formats can use information from sensors in other in-vehicle devices effectively by using a common format.
  • An obstacle or a moving vehicle that cannot be detected by a certain in-vehicle device can be detected by using sensor data from another in-vehicle device.
  • sensor data of each sensor can be transmitted and received by high-speed and low-delay end-to-end communication, and each in-vehicle device determines whether sensor data from another vehicle or an infrastructure sensor is information from the sensor of its own vehicle.
  • available as As a result it is possible to provide a sensor sharing method that can flexibly cope with ever-changing road conditions and environmental changes and that can provide effective driving support.
  • the computer program according to the present embodiment is a computer program for causing a computer connected to a sensor and a communication device to function as an in-vehicle device, and stores position information of a plurality of points detected by the sensor.
  • An input unit that receives the sensor data
  • a sensor data storage unit that stores the sensor data received by the input unit according to a first format, the sensor data received by the input unit, and a sensing time of the sensor data.
  • a format specific to the device, Formats is a common format in the sensor sharing system including the vehicle device and other devices.
  • the in-vehicle device adopts a different data format, if information from the sensor is transmitted to the other in-vehicle device using the second format which is a common format, the sensor data is transmitted to the other in-vehicle device. Can be used effectively. An obstacle or a moving vehicle that cannot be detected by a certain in-vehicle device can be detected by using sensor data from another in-vehicle device.
  • sensor data of each sensor can be transmitted and received by high-speed and low-delay end-to-end communication, and each in-vehicle device determines whether sensor data from another vehicle or an infrastructure sensor is information from the sensor of its own vehicle. Available as As a result, it is possible to provide a sensor sharing system that can flexibly cope with the ever-changing road conditions and environmental changes and that can provide effective driving support.
  • the computer program according to the present embodiment is a computer program for causing a computer connected to a communication device to function as an in-vehicle device.
  • the computer program is transmitted from another device via the communication device to a predetermined first format.
  • a sensor data receiving unit that receives the sensor data
  • a format converting unit that converts the sensor data received by the sensor data receiving unit from the first format to a second format, and converts the sensor data to the second format
  • the first format is a common format in a sensor sharing system including the on-vehicle device and the other device.
  • the second format is the in-vehicle device. It is a unique format.
  • a computer that generates driving assistance information using the unique second format can cause the computer to function as a format conversion unit to convert the sensor data in the first format received from another into the second format.
  • the driving assistance can be performed in the same manner as the sensor data from the sensor connected thereto.
  • Sensor data received from another device can be used without any trouble, and an obstacle or a moving vehicle that cannot be detected by a certain device can be detected using sensor data from another device.
  • sensor data of each sensor can be transmitted and received by high-speed and low-delay end-to-end communication, and each in-vehicle device determines whether sensor data from another vehicle or an infrastructure sensor is information from the sensor of its own vehicle.
  • available as As a result it is possible to provide a computer program for an in-vehicle device that can flexibly cope with a constantly changing road condition and an environmental change, and that can provide effective driving support.
  • the sensor sharing device is a sensor sharing device connected to a sensor, wherein the input unit receives sensor data including positional information of a plurality of points detected by the sensor; A sensor data storage unit for storing the sensor data received by the input unit in accordance with a first format, and a sensor data received by the input unit and a sensing time of the sensor data in a second format. A transmission data generation unit for shaping the transmission data into the transmission data of the second format, and a transmission unit for transmitting the transmission data of the second format, wherein the first format is a format unique to the sensor sharing device, Is a common format in the sensor sharing system including the sensor sharing device. That.
  • a sensor sharing device that uses sensor data in the first format can convert the first format into a common second format in the sensor sharing system and transmit it to another device.
  • sensor data can be transmitted to another device end to end with high speed and low delay.
  • the other device has a format conversion device unique to the device from the second format, the sensor data in the other device can be converted to a unique format and used. Therefore, other devices can collect and process a wide range of sensor data as if the number of sensors had increased.
  • the vehicle 60 can detect the presence of the vehicle 62 by providing the roadside sensor 64 at the position where the vehicle has climbed the slope and transmitting the detected information to the vehicle 60.
  • sensor data can be shared between vehicles, not limited to roadside sensors, it will appear as if the number of sensors of the own vehicle has increased here and there, and there is an effect that sensing at a longer distance becomes possible. If sensing at a longer distance becomes possible, the possibility of optimizing a travel plan increases, and there is an effect that traffic flow optimization becomes easier.
  • FIG. 3 schematically shows a schematic configuration of a sensor sharing system 80 according to the present embodiment.
  • sensor sharing system 80 includes a plurality of roadside sensors 90 including a sensor such as LiDAR provided on the roadside, another vehicle 94, and a sensor in a common data format from roadside sensor 90 and other vehicle 94.
  • vehicle 92 that includes an in-vehicle device that receives data and uses the data as well as the output from its own sensor to provide driving assistance. All communication between the roadside sensor 90, the vehicle 92, and the other vehicle 94 is performed in a predetermined common data format.
  • the vehicle-mounted device of the vehicle 92 manages the sensor data in a unique format different from the common data format, and generates driving support information.
  • raw data information 118 transmitted and received by this system includes static information ( ⁇ 1 month) 110, quasi-static information ( ⁇ 1hour) 112, and quasi-dynamic information ( Of the ⁇ 1 min) 114 and the dynamic information ( ⁇ 1 sec) 116, they belong to the dynamic information 116 and are assumed to handle information of 100 msec or less.
  • this raw data information is referred to as sensor data.
  • the vehicle 92 has the in-vehicle device 146 mounted thereon as described above.
  • the in-vehicle device 146 is an example of a sensor sharing device.
  • the vehicle 92 has a millimeter wave sensor 140, a camera 142 (color stereo camera, color monocular camera), LiDAR 144, a vehicle speed sensor (not shown), a GPS, a gyro sensor, and the like.
  • the in-vehicle device 146 analyzes these in a format unique to the in-vehicle device 146 and performs driving support.
  • the on-vehicle device 146 also receives sensor data from the infrastructure sensor 130, the server 134, the other vehicle sensor 132, and the like through wireless communication.
  • Each of the infrastructure sensor 130, the server 134, and the in-vehicle device 146 of another vehicle is an example of a sensor data transmission device, and is an example of a sensor sharing device.
  • sensor data is also received from the roadside sensor 90, the infrastructure sensor 130, the other vehicle sensor 132, and the server 134, and used for driving support in the on-vehicle device 146. All communications are performed in a predetermined common format.
  • the shared format is different from the format of the sensor data used in the vehicle-mounted device 146.
  • the in-vehicle device 146 when the in-vehicle device 146 receives the sensor data in the common format from the infrastructure sensor 130 or the like, it converts them into the format of the sensor data in the in-vehicle device 146 and uses it. Since the vehicle 92 can receive and use not only the data from the sensors mounted on the own vehicle but also the raw data of other sensors from the infrastructure sensor 130, the other vehicle sensor 132, etc., as if the number of own sensors increased, It will be possible to sense even distant environments. Since more information can be used for driving support, more effective driving support can be performed.
  • the vehicle 92 When the vehicle 92 receives, for example, a request to transmit sensor data from another vehicle, the vehicle 92 also converts the raw sensor data received from its own sensor into a common format and transmits it to the other vehicle. As described above, since the sensor data can be shared between vehicles using the sensor data in the common format, environmental information recognized by the vehicle can be effectively shared, and efficient and efficient driving assistance can be achieved as a whole traffic support system. It can be performed.
  • ⁇ Circle around (1) A vehicle that intends to use sensor data of another company broadcasts a request for sensor data together with its own positional information (for example, GNSS (Global Navigation Satellite System) coordinates).
  • GNSS Global Navigation Satellite System
  • a threshold value may be transmitted as to how far the vehicle receives data from the vehicle.
  • the vehicle receiving this request refers to the received position information and the position information of the own vehicle maintained by itself, and if its distance is equal to or less than the received threshold value, the vehicle receives its own sensor data. Send to vehicle. If no threshold value is received, the threshold value is set to a default value (for example, 100 meters).
  • a threshold value for the "permissible delay time" is provided, and data delayed beyond that value is discarded as non-real-time data.
  • the threshold value for example, a value of about 100 msec is used.
  • an infrastructure sensor 130 is connected to a sensor 160 made of LiDAR or the like and a wireless communication unit 162, converts sensor data from sensor 160 into a common format, and transmits the data to a vehicle and a nearby server 134.
  • the wireless communication unit 162 is an example of a transmission unit.
  • the infrastructure sensor 130 includes a basic information storage unit 174 for storing basic information such as position information and time information where the infrastructure sensor 130 is installed, and a basic information storage unit 174 when receiving a sensor data transmission request from the wireless communication unit 162.
  • the reception processing unit 182 outputs a transmission control signal when the conditions for transmission are satisfied by comparing the basic information stored in the information storage unit 174 with the basic information stored in the information storage unit 174, and an input / output unit that receives sensor data from the sensor 160.
  • It includes an output I / F 170 and a storage device 172 that stores sensor data digitized by the input / output I / F 170 in a unique format.
  • the input / output I / F 170 is an example of an input unit.
  • the storage device 172 is an example of a sensor data storage unit.
  • the infrastructure sensor 130 In response to receiving the transmission control signal from the reception processing unit 182, the infrastructure sensor 130 reads out the latest sensor data stored in the storage device 172, shapes the data into a common format, and outputs the formatted data. And a buffer 178 for temporarily storing the sensor data of the common format output from the format conversion unit 176, and the sensor data stored in the buffer 178 are sequentially read out and sent to the transmission source of the transmission request via the wireless communication unit 162. And a transmission processing unit 180 for transmission.
  • the format conversion unit 176 is an example of a transmission data generation unit.
  • the infrastructure sensor 130 has a function of periodically transmitting its sensor data to the server 134 in a standard format.
  • on-vehicle device 146 includes an input / output I / F 220 for receiving sensor data from various sensors 200 (such as millimeter wave sensor 140, camera 142, and LiDAR 144 shown in FIG. 5), and an input / output I / F 220.
  • a sensor data processing unit 222 for shaping the sensor data digitized by the / F 220 into a data format used by the in-vehicle device 146, and a sensor data storage unit 224 for storing the sensor data output from the sensor data processing unit 222.
  • a sensor data analysis unit 240 for analyzing the sensor data stored in the sensor data storage unit 224 to maintain the position information of the own vehicle, and to detect dynamic information such as obstacles existing in the vicinity.
  • a high-precision map storing a high-precision map used by the sensor data analysis unit 240 which is geographical information for driving assistance.
  • the map storage unit 242 uses the analysis result by the sensor data analysis unit 240, and the high-accuracy map stored in the high-accuracy map storage unit 242, drive assistance information such as a travel plan and obstacle information is generated and output.
  • drive assistance information such as a travel plan and obstacle information is generated and output.
  • an input / output I / F 246 for outputting the driving support information and control information output from the driving support processing unit 244 to a monitor, a speaker, and various actuators for driving control (not shown).
  • the input / output I / F 220 is an example of an input unit, and is an example of a second sensor data receiving unit.
  • the sensor data analysis unit 240 is an example of a first reference position information maintaining unit, and is an example of a second reference position information maintaining unit.
  • the in-vehicle device 146 further includes a wireless communication unit 232 for performing wireless communication with another vehicle or the like, and a request for generating a request for receiving sensor data from another vehicle or the like via the wireless communication unit 232.
  • the position information of the own vehicle maintained by the sensor data analysis unit 240 and the accuracy (accuracy) thereof are predetermined.
  • the vehicle position accuracy determination unit 226 determines whether or not the condition is satisfied and outputs a determination signal. The determination signal indicates that the accuracy of the vehicle position satisfies the condition.
  • the sensor data stored in the sensor data storage unit 224 is read, and the data format is converted from the unique format of the in-vehicle device 146 to a common format. And a process for transmitting the request from the request generation unit 248 and the sensor data formatted into the common format from the format conversion unit 228 to each destination via the wireless communication unit 232. And a transmission processing unit 230.
  • the format converter 228 is an example of a transmission data generator.
  • the wireless communication unit 232 is an example of a transmission unit, and is an example of a first sensor data reception unit. Further, the wireless communication unit 232 is an example of a request transmitting unit and is an example of a request receiving unit.
  • the vehicle position accuracy determination unit 226 is an example of a determination unit.
  • the in-vehicle device 146 further outputs a sensor data transmission processing start signal 250 if the data received from the other vehicle by the wireless communication unit 232 is a request to transmit sensor data from another vehicle.
  • a reception processing unit 234 for outputting the sensor data signal 252 and a sensor data signal 252 received from the reception processing unit 234, and the sensor data included in the sensor data signal 252 satisfy the conditions to be analyzed.
  • the analysis possibility determination unit 236 for performing a process of discarding, and the sensor data represented by the signal with respect to the sensor data signal determined to satisfy the condition to be analyzed by the analysis availability determination unit 236.
  • a process of converting the common format into the unique format of the vehicle-mounted device 146 and storing the converted format in the sensor data storage unit 224 is executed.
  • a format conversion unit 238 for.
  • in-vehicle device 146 is substantially realized by a computer. That is, the in-vehicle device 146 includes a computer 340, a touch panel 344, a monitor 342, various actuators 372 for driving assistance, various sensors 200 for collecting sensor data for driving assistance, and a user connected to the computer 340. And an audio device 348 including a speaker, a microphone, and the like for performing an interface with the device by voice.
  • the computer 340 has a relatively large capacity including a CPU 356, a bus 366 connected to the CPU 356, a ROM (Read-Only Memory) 358, a RAM (Random Access Memory) 360, and a flash memory, all of which are connected to the bus 366.
  • a large auxiliary storage device 362, a wireless communication unit 364 for performing wireless communication with the outside, various actuators 372 and various sensors 200 are connected, and input data for digitizing input data and distributing it to each functional unit via a bus 366.
  • An output I / F 368 and an audio processing I / F 370 for performing audio signal processing between the audio device 348 and the CPU 356 are included.
  • the configuration and operation of the computer 340 are the same as those of a normal computer. That is, a program for causing the computer 340 to function as a so-called car navigation system and the in-vehicle device 146 according to the present embodiment is stored in the ROM 358 or the auxiliary storage device 362, and is loaded into the RAM 360 when the CPU 356 executes. Data including sensor data, which is the object of operation by the computer 340, such as sensor data, is appropriately read into a register in the CPU 356 and processed, and the result is stored in a predetermined address of the RAM 360 or the auxiliary storage device 362. By driving each device based on the information obtained by the information processing, for example, the information is displayed on the monitor 342 or the speech is made via the audio device 348.
  • common format 390 in the present embodiment includes at least a header including sensing time information, and position information of each point (for example, GNSS coordinates including latitude, longitude, and altitude). Other information may be included.
  • a program for transmitting a request for receiving sensor data from another vehicle is started periodically at regular intervals.
  • the program includes a step 420 of transmitting a request including a position of the vehicle and a threshold value in a predetermined format including a predetermined header, and a reception processing for processing sensor data transmitted from another vehicle after the step 420. Starting the process and terminating the execution of the program 422.
  • the program of the reception process started in step 422 of FIG. 10 includes step 440 of setting a timer to a predetermined threshold value and step 442 of starting the timer. The timer then starts the subtraction.
  • the program determines whether the timer has expired, and terminates the receiving process when the timer expires. Step 444, and when the determination in step 444 is negative, that is, when the timer has not expired, It is determined whether or not data has been received from the reception processing unit 234 shown in FIG. 7; if the determination is negative, control is returned to step 444; and if the determination in step 446 is affirmative, the received data is Step 448 of determining whether or not the data is in a common format including sensor data composed of raw sensor data, and returning the control to step 444 if the determination is negative. If the received data is not the sensor data, the process returns to step 444 without performing anything in step 448. Therefore, in this case, the received data is discarded.
  • the program further calculates the difference (reception time lag) between the time information when the sensor data was actually received and the sensing time extracted from the header of the received data in the common format when the determination in step 448 is affirmative.
  • FIG. 12 and FIG. 13 show the configuration of a program for realizing the processing after receiving the request.
  • this program is started in step 450 of FIG.
  • This program reads the vehicle position information maintained by the sensor data analysis unit 240 shown in FIG. 7 from the sensor data analysis unit 240, and reads the accuracy from the vehicle position accuracy determination unit 226 in steps 480 and 480. It is determined whether the read distance between the own vehicle and the transmission source vehicle is within the threshold value and whether the accuracy of the own vehicle position is larger than the threshold value. If any determination is negative, the execution of this program is performed. Terminating step 482. As a result of the processing in step 482, if the accuracy of the vehicle position is not larger than the threshold value, the in-vehicle device 146 does not participate in sharing the sensor data.
  • This program further includes, when the determination at step 482 is affirmative, the step 484 of reading the latest sensor data from the sensor data storage unit 224 shown in FIG. 7 and the following for all sensor data read at step 484. Step 486 of executing the process 488 of
  • the process 488 is a step 490 of converting the sensor data from the vehicle format to the common format, and first transmitting the request using the transmission processing unit 230 and the wireless communication unit 232 shown in FIG. Transmitting to the vehicle (in-vehicle device) that has performed the transmission.
  • the format conversion process executed in step 490 of FIG. 12 includes step 520 of reading the position information of the vehicle from sensor data analysis unit 240 shown in FIG. Step 522 of transforming the coordinates of the point from the relative coordinates with respect to the vehicle into coordinates in a predetermined reference coordinate system (for example, GNSS coordinates composed of longitude, latitude and altitude), and the coordinates obtained in step 522 Into a common format to generate common format data, output the same to the transmission processing unit 230 shown in FIG. 7, and end the execution of this program.
  • a predetermined reference coordinate system for example, GNSS coordinates composed of longitude, latitude and altitude
  • the above is the control structure of the program for realizing each function of the in-vehicle device 146 shown in FIG. 7 by the computer.
  • server The description so far assumes that a request for sensor data is transmitted to each infrastructure sensor and each vehicle. However, the present invention is not limited to such an embodiment. Since the sensor data from each vehicle is also transmitted to the server 134 shown in FIG. 5, a transmission request for the sensor data may be transmitted to the server 134, and the sensor data in the common format may be received from the server 134. This switching can be performed by changing the transmission destination of the transmission request from each vehicle or the header information.
  • the functions of the server 134 include the wireless communication unit 232, the reception processing unit 234, the analysis availability determination unit 236, the sensor data storage unit 224, the request generation unit 248, the transmission Only the functions of the processing unit 230 and the format conversion unit 238 need to be realized.
  • various other functions can be realized as the server 134, but only the functions related to the present embodiment are focused on here.
  • the server 134 assumes that the sensor data transmitted from each vehicle is in a common format, and the sensor data transmitted to each vehicle is also in a common format. However, there is a possibility that some vehicles may transmit in a unique format other than the common format, and therefore, when the sensor data in the unique format is received, a function of converting the sensor data to the common format is provided.
  • the latest information among the sensor data stored in the sensor data storage unit 224 and the position between the sensor position of the stored sensor data and the position of the request transmission source are stored. Of transmitting sensor data whose distance is within the threshold value.
  • FIG. 14 is a flowchart illustrating a control structure of a program for realizing the function of the server 134 in cooperation with computer hardware.
  • this program is activated when some communication is received from a nearby infrastructure sensor or an in-vehicle device.
  • This program determines whether or not the received communication is a transmission request for sensor data and branches the flow of control to determine whether or not the received communication is sensor data when step 560 is negative. If the determination is negative, a step 562 of terminating the execution of the program, and if the determination of step 562 is affirmative, a step of determining whether the received sensor data is data in a common format and branching the control flow 564, when the determination in step 564 is negative, step 566 for converting the received sensor data into the common format, and when the determination in step 564 is negative, the sensor data converted into the common format in step 566 is converted into the common format in step 566.
  • the received sensor data in the common format comprises respectively stored in the storage device of the computer and step 568 ends the execution of the program.
  • the sensor data is last-in-first-out, that is, the latest sensor data is read first, and the sensor data can be read back in the following time.
  • the program further includes, when the determination in step 560 is affirmative, the sensor position among the plurality of sensor data stored in the storage device based on the request source position information included in the data transmission request and the threshold value. 570 is sequentially read from the request source within a threshold distance.
  • the program further includes, after step 570, a step 572 for reading the first one of the sensor data read in step 570, and a time interval between the sensing time of the data read in step 572 and the current time is determined. Is determined within the threshold value (100 msec in this case). If the determination is negative, step 574 ends the execution of the program. If the determination in step 574 is affirmative, the sensor data read out in step 572 is determined. A step 576 of transmitting the request to the device that transmitted the request and a step 578 following the step 576 of reading the next sensor data from the storage device and returning the control to the step 574 are included. Although not shown in FIG. 14, if the transmission request does not include a threshold, a default value is adopted as the threshold.
  • the sensor sharing system 80 having the above configuration operates as follows.
  • the operation of the sensor sharing system 80 can be considered separately for the infrastructure sensor 130, the in-vehicle device 146, and the server 134.
  • infrastructure sensor 130 operates as follows.
  • the basic information storage unit 174 stores basic information such as position information and time information where the infrastructure sensor 130 is installed.
  • the sensor 160 composed of LiDAR or the like of the infrastructure sensor 130 scans the surroundings, acquires point cloud information of obstacles, and inputs the information to the input / output I / F 220.
  • point group information is coordinates in a relative coordinate system based on the position where the infrastructure sensor 130 is installed.
  • the input / output I / F 220 digitizes the sensor data and stores it in the storage device 172 according to the format used by the infrastructure sensor 130.
  • wireless communication section 162 receives a transmission request for sensor data from any of the vehicles
  • reception processing section 182 compares the transmission request with the basic information stored in basic information storage section 174, and sets a condition for transmission. Output a transmission control signal when is satisfied.
  • the format conversion unit 176 In response to receiving the transmission control signal from the reception processing unit 182, the format conversion unit 176 reads the latest sensor data stored in the storage device 172, shapes the sensor data into a common format, and outputs it.
  • the buffer 178 temporarily stores the sensor data of the common format output from the format conversion unit 176.
  • the transmission processing unit 180 sequentially reads the sensor data stored in the buffer 178 and transmits the sensor data to the transmission request source via the wireless communication unit 162.
  • the infrastructure sensor 130 periodically converts the sensor data into a standard format and sends it to the server 134.
  • ⁇ In-vehicle device 146 The operation of the vehicle-mounted device 146 illustrated in FIG. 7 can be roughly divided into three: acquisition of sensor data, transmission processing of sensor data, and reception processing of sensor data. Hereinafter, these will be described in order.
  • the sensor data analysis unit 240 of the vehicle-mounted device 146 determines and maintains the position of the vehicle with high accuracy based on the sensor data and the high-accuracy map.
  • high-accuracy map storage section 242 of in-vehicle device 146 stores a high-accuracy map prepared in advance and updated as needed.
  • the various sensors 200 scan the surroundings and input point group information including coordinates of the point group of the obstacle to the input / output I / F 220.
  • the point group information at this time is three-dimensional coordinates in a coordinate system fixed to the vehicle-mounted device 146.
  • the input / output I / F 220 receives these sensor data, digitizes the data, and inputs the digitized data to the sensor data processing unit 222.
  • the sensor data processing unit 222 shapes the sensor data into a data format used by the in-vehicle device 146, and provides the data format to the sensor data storage unit 224.
  • the sensor data storage unit 224 stores this sensor data.
  • the sensor data analysis unit 240 analyzes the sensor data stored in the sensor data storage unit 224, maintains the position information of the own vehicle, and detects dynamic information such as nearby obstacles.
  • the driving support processing unit 244 uses the analysis result of the sensor data analysis unit 240 and the high-accuracy map stored in the high-accuracy map storage unit 242 to control various actuators according to the traveling plan, obstacle information, and the like. Is generated and output to a monitor, a speaker, various actuators for driving control, etc. (not shown) via the input / output I / F 246.
  • the wireless communication unit 232 of the in-vehicle device 146 performs wireless communication with another vehicle or the like.
  • wireless communication section 232 receives a request for sensor data from another vehicle
  • wireless communication section 232 provides transmission processing start signal 250 to host vehicle position accuracy determination section 226.
  • the host vehicle position accuracy determination unit 226 outputs a determination signal if the host vehicle position information and the accuracy maintained by the sensor data analysis unit 240 satisfy predetermined conditions.
  • the format converter 228 reads the sensor data stored in the sensor data storage 224, converts the data format from a unique format to a common format, and outputs it.
  • the transmission processing unit 230 performs a process of transmitting the sensor data shaped into the common format to each transmission destination via the wireless communication unit 232.
  • request generation unit 248 of in-vehicle device 146 periodically generates a request for receiving sensor data from another vehicle or the like via wireless communication unit 232. This request is transmitted to another vehicle or the like via the transmission processing unit 230 and the wireless communication unit 232. As described above, sensor data is transmitted from a vehicle or the like that satisfies the conditions in response to this request.
  • the reception processing unit 234 of the in-vehicle device 146 outputs a sensor data signal 252 if the data received by the wireless communication unit 232 is sensor data from another vehicle.
  • the analysis availability determination unit 236 receives the sensor data signal 252 from the reception processing unit 234, discards the sensor data included in the sensor data signal 252 if the condition to be analyzed is not satisfied, and discards other sensor data.
  • the data is provided to the format converter 238.
  • the format conversion unit 238 converts the sensor data represented by the sensor data signal determined to satisfy the condition to be analyzed by the analysis availability determination unit 236 from the common format to the unique format of the vehicle-mounted device 146.
  • the data is converted and stored in the sensor data storage unit 224.
  • the sensor data stored in the sensor data storage unit 224 is a mixture of sensor data detected by the various sensors 200 and sensor data received from another vehicle or the like. However, each of them is stored in a format unique to the vehicle-mounted device 146, and is collected within a predetermined distance from the vehicle-mounted device 146 and with a time lag shorter than a predetermined time lag. Therefore, the sensor data analysis unit 240 can analyze the sensor data received from another vehicle and the sensor data received from the various sensors 200 without distinguishing them. The information for analysis is increased, and the possibility of stable detection of environmental changes that could not be detected only by the sensor of the vehicle-mounted device 146 increases.
  • the driving support can be performed using a wider range of sensor data than the range that can be detected only by the sensor data of the vehicle-mounted device 146. That is, it is possible to obtain an effect as if the in-vehicle device 146 has considerably more sensors than in reality. As a result, the in-vehicle device 146 can flexibly cope with the ever-changing road conditions and environmental changes.
  • server 134 does not play a very important role. However, depending on the setting, sensor data from the nearby infrastructure sensor 130, other vehicle sensor 132, and the like can be concentrated on the server 134.
  • the server 134 stores all of the sensor data in a common format, and can transmit the sensor data to the vehicle in a common format in response to a request from the vehicle. In the vehicle that has received the sensor data, the sensor data can be used for driving support or the like in the own vehicle by the same processing as in the case of receiving sensor data from an infrastructure sensor or another vehicle in the above embodiment.
  • vehicles located near the server 134 can receive information about the nearby vehicles and the like from the server 134 and flexibly cope with ever-changing road conditions and environmental changes.
  • the operation of the server 134 includes two types of operations: reception of sensor data from a nearby vehicle or the like, reception of a request from a nearby vehicle or the like, and subsequent transmission of sensor data.
  • reception of sensor data from a nearby vehicle or the like reception of sensor data from a nearby vehicle or the like
  • reception of a request from a nearby vehicle or the like reception of a request from a nearby vehicle or the like
  • subsequent transmission of sensor data subsequent transmission of sensor data.
  • ⁇ Reception of sensor data Referring to FIG. 14, when sensor data is received from a nearby vehicle or the like, the determination in step 560 is negative, and the determination in step 562 is positive. If it is determined that the received sensor data is in the common format, the sensor data is stored in the storage device along the path from step 564 to step 568, and the execution of the program ends. If it is determined that the received sensor data is in another format, the sensor data is converted into a common format in the path of step 564 ⁇ step 566 ⁇ step 568, stored in the storage device, and the execution of the program is terminated. As described above, in the server 134, the sensor data stored in the storage device is stored in a last-in first-out format.
  • the server 134 When a sensor data transmission request is received from a nearby vehicle, the server 134 operates as follows. The determination in step 560 is affirmative. At step 570, among the sensor data stored in the storage device of the server 134, the sensor data in which the distance between the sensor position and the position of the partner vehicle included in the received transmission request is within a threshold included in the transmission request. Are read in order from the newest one.
  • step 572 the first sensor data among the sensor data read from the storage device at step 570 is read, and at step 574, it is determined whether or not the sensing time is within a threshold value. If it is larger than the threshold value, the execution of this program ends. Usually, for the latest data, the determination in step 574 will often be affirmative. In that case, control proceeds to step 576 where sensor data is transmitted, and in subsequent step 578 the next sensor data is read from the storage device. This sensor data is received one before the last transmitted sensor data and stored in the storage device. The determination in step 574 is performed on the sensor data. Hereinafter, the processing of steps 574, 576 and 578 is repeated until the determination in step 574 becomes negative.
  • the sensor data stored in the server 134 is read out in a new order, and all the data whose sensing time is within the threshold are transmitted to the other party. As soon as the sensing time exceeds the threshold, the transmission of the sensor data is terminated.
  • a plurality of infrastructure sensors and in-vehicle devices share sensor data with each other by mutual communication or communication relayed by server 134. Since the sensor data is transmitted in a common format, if each vehicle-mounted device prepares a mechanism to convert between this common format and the format used by itself, not only its own sensor, Sensor data from other vehicles or infrastructure sensors can also be used for driving assistance. As a result, it is possible to flexibly cope with ever-changing road conditions and environmental changes by using information that cannot be obtained only by its own sensor. Since only meaningful information is used as sensor data in consideration of the delay time related to communication, the reliability of driving support does not decrease.
  • the point cloud information obtained by LiDAR is shared as sensor data by the infrastructure sensor, each vehicle, and the server.
  • the invention is not limited to such an embodiment.
  • the position of an obstacle or the like constituting each image can be specified from an image obtained by a stereo camera, such information can also be used as point cloud data in the same manner as the sensor data in the above embodiment.
  • the LiDAR is not limited to one that performs a mechanical scan, and may be one that uses an array sensor.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)

Abstract

センサ共有システムは、センサに接続され、前記センサから受信したセンサデータを送信するセンサデータ送信装置と、前記センサデータ送信装置により送信された前記センサデータを受信し、当該センサデータを用いて車両の運転支援を行う車載装置と、を含むセンサ共有システムであって、前記センサデータ送信装置は、前記センサに接続され、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、前記センサからの前記センサデータを前記センサデータ送信装置に固有の第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、前記入力部によって受け付けられる前記センサデータと、前記センサデータのセンシング時刻とを、前記センサ共有システムにおいて共通の第2のフォーマットの送信データに整形する送信データ生成部と、前記第2のフォーマットの送信データを送信する送信部と、を含み、前記車載装置は、前記センサデータ送信装置から前記センサデータを受信する第1のセンサデータ受信部と、前記第1のセンサデータ受信部が受信した前記センサデータを、前記第2のフォーマットから前記車載装置に固有の第3のフォーマットに変換するためのフォーマット変換部と、前記第3のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部と、を含む。

Description

センサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラム
 本発明は、センサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラムに関する。本出願は、2018年7月18日出願の日本出願第2018-134674号に基づく優先権を主張し、前記日本出願に記載された全ての内容を援用するものである。
 車両を運行するドライバによる運転支援を行うシステムが種々提案され、実用化されている。従来の典型的なシステムは、カラー単眼カメラ、カラーステレオカメラ、LiDAR(Light Detection and Ranging)、及びミリ波レーダ等を含むセンサ群と、3次元の道路及び地形情報を含む高精度マップ及びGPS(Global Positioning System)等の装置を備え、センサからの情報を車載装置で解析し、高精度マップを用いて自車両の位置を判定し、その位置付近に関する種々の道路交通情報を用いてドライバに運転支援情報を提供する、というものであった。
 一方、自動運転システムの開発が進んでいる。自動運転システムでは、上記したものと同様の情報を用いて環境をセンシングし、走行計画をリアルタイムで立てながら道路を走行する。
 いずれのシステムでも、渋滞等の道路交通状況、及び地形等によっては、十分な信頼性を持って走行計画を立てるために必要なセンシングが行えないという問題がある。例えば図1を参照して、交差点50付近で渋滞があり、運転支援システムを搭載した車両52がトラック54の背後で停車した場合を考える。この場合、車両52がカメラ、LiDAR、ミリ波レーダ等を装備していても、トラック54のためにそれらは有益な情報を得ることができない。そのため、例えば対向車56については検知できないという問題がある。また、図2を参照して、坂道を登る車両60からは、坂道を登った位置に存在する車両62を検知できない場合がある。またこのような環境による問題だけではなく、車両の持つセンサの性能によるセンシング範囲の限界という問題もある。センシングが十分でないと接触事故の発生率も高まるし、車両の速度を上げることができず交通流最適化の妨げとなる。
 こうした問題を解決するための画像処理装置が後掲の特許文献1により提案されている。特許文献1に開示された画像処理装置は、カメラを搭載した車両において、自車両のカメラだけではなく、街頭に設置された外部カメラの画像も利用して運転者を支援する機能を持つ。こうした装置において、自車両のカメラによる画像と外部カメラの画像とでは、その視点の違いが大きく、画像を切替えると、運転者が画像の内容を直ちに把握することが難しい。そのため、画面に表示された障害物等と自車両との関係が容易に把握できないという問題がある。特許文献1では、こうした問題を解決するために、自車両のカメラの映像及び外部カメラの画像を任意の視点で合成し、カメラの切替時にも画像の変化が運転者に理解しやすい中間画像を生成して順次画像を切替える。この構成により、カメラの切替時にも画像の内容を運転者が容易に認識できるとされている。
国際公開第2010/119496号
 本開示の一態様に係るセンサ共有システムは、センサに接続され、前記センサから受信したセンサデータを送信するセンサデータ送信装置と、前記センサデータ送信装置により送信された前記センサデータを受信し、当該センサデータを用いて車両の運転支援を行う車載装置と、を含むセンサ共有システムであって、前記センサデータ送信装置は、前記センサに接続され、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、前記センサからの前記センサデータを前記センサデータ送信装置に固有の第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、前記入力部によって受け付けられる前記センサデータと、前記センサデータのセンシング時刻とを、前記センサ共有システムにおいて共通の第2のフォーマットの送信データに整形する送信データ生成部と、前記第2のフォーマットの送信データを送信する送信部と、を含み、前記車載装置は、前記センサデータ送信装置から前記センサデータを受信する第1のセンサデータ受信部と、前記第1のセンサデータ受信部が受信した前記センサデータを、前記第2のフォーマットから前記車載装置に固有の第3のフォーマットに変換するためのフォーマット変換部と、前記第3のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部と、を含む。
 本開示の一態様に係るセンサ共有装置は、センサに接続されるセンサ共有装置であって、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、前記入力部によって受け付けられた前記センサデータを前記センサ共有装置に固有の第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、前記入力部によって受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、第2のフォーマットの送信データに整形する送信データ生成部と、前記第2のフォーマットの送信データを送信する送信部と、他の装置からセンサデータを受信するセンサデータ受信部と、前記センサデータ受信部によって受信された前記センサデータを、前記第2のフォーマットから前記第1のフォーマットに変換し前記センサデータ記憶部に記憶させるフォーマット変換部と、前記第1のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部と、を含み、複数の前記センサ共有装置はセンサ共有システムを形成し、前記第2のフォーマットは前記センサ共有システムにおける共通フォーマットである。
 本開示の一態様に係るセンサ共有装置は、センサに接続される外部装置と通信することが可能なセンサ共有装置であって、前記外部装置から、所定の第1のフォーマットのセンサデータを受信するセンサデータ受信部と、前記センサデータ受信部によって受信された前記センサデータを、前記第1のフォーマットから固有の第2のフォーマットに変換するためのフォーマット変換部と、前記フォーマット変換部によって前記第2のフォーマットに変換された前記センサデータを解析することにより、前記センサ共有装置を搭載した車両の運転支援情報を生成する運転支援処理部と、を含む。
 本開示の一態様に係るセンサ共有方法は、車載装置を含むセンサ共有システムによって実行されるセンサ共有方法であって、センサから出力されるセンサデータを送信するセンサデータ送信ステップと、前記センサデータ送信ステップにおいて送信された前記センサデータを受信し、前記センサデータを用いて車両の運転支援を行うセンサデータ受信ステップと、を含み、前記センサデータ送信ステップは、前記センサにより検知された複数個の点の位置情報を含むセンサデータを前記センサから受け付ける入力ステップと、前記入力ステップにおいて前記センサから受け付けられた前記センサデータを固有の第1のフォーマットにしたがって記憶装置に記憶するセンサデータ記憶ステップと、前記入力ステップにおいて前記センサから受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、前記センサ共有システムにおいて共通の第2のフォーマットの送信データに整形する送信データ生成ステップと、前記第2のフォーマットの送信データを送信する送信ステップ、とを含み、前記センサデータ受信ステップは、前記センサデータ送信ステップにおいて送信された前記センサデータを車載装置により受信する受信ステップと、前記受信ステップにおいて受信された前記センサデータを、前記第2のフォーマットから固有の第3のフォーマットに変換するフォーマット変換ステップと、前記第3のフォーマットに変換された前記センサデータを解析することにより、前記車載装置を搭載した車両の運転支援情報を生成する運転支援ステップと、を含む。
 本開示の一態様に係るコンピュータプログラムは、センサ及び通信装置に接続されるコンピュータを、車載装置として機能させるためのコンピュータプログラムであって、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部、前記入力部によって受け付けられた前記センサデータを第1のフォーマットにしたがって記憶するセンサデータ記憶部、前記入力部によって受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、第2のフォーマットの送信データに整形する送信データ生成部、及び前記第2のフォーマットの送信データを前記通信装置を介して送信する送信部として機能させ、前記第1のフォーマットは前記車載装置に固有のフォーマットであり、前記第2のフォーマットは前記車載装置及び他の装置を含むセンサ共有システムにおいて共通のフォーマットである。
 本開示の一態様に係るコンピュータプログラムは、通信装置に接続されるコンピュータを、車載装置として機能させるためのコンピュータプログラムであって、前記通信装置を介して他の装置から所定の第1のフォーマットのセンサデータを受信するセンサデータ受信部、前記センサデータ受信部によって受信された前記センサデータを、前記第1のフォーマットから第2のフォーマットに変換するフォーマット変換部、及び前記第2のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部として機能させ、前記第1のフォーマットは前記車載装置及び前記他の装置を含むセンサ共有システムにおいて共通のフォーマットであり、前記第2のフォーマットは前記車載装置に固有のフォーマットである。
 本開示の一態様に係るセンサ共有装置は、センサに接続されるセンサ共有装置であって、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、前記入力部によって受け付けられた前記センサデータを第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、前記入力部によって受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、第2のフォーマットの送信データに整形する送信データ生成部と、前記第2のフォーマットの送信データを送信する送信部と、を含み、前記第1のフォーマットは前記センサ共有装置に固有のフォーマットであり、前記第2のフォーマットは前記センサ共有装置を含むセンサ共有システムにおいて共通のフォーマットである。
図1は、従来の運転支援システムの問題点を示す模式図である。 図2は、従来の運転支援システムの問題点を示す模式図である。 図3は、本発明の実施形態に係るセンサ共有システムの概略構成を示す模式図である。 図4は、本発明の実施形態に係るセンサ共有システムの、ダイナミックマップにおける位置付けを説明するための模式図である。 図5は、本発明の実施形態にセンサ共有システムの構成要素を示す模式図である。 図6は、図5に示すインフラセンサの機能的構成を示すブロック図である。 図7は、図5に示す車載装置146の機能的構成を示すブロック図である。 図8は、図5に示す車載装置146のハードウェア構成を示すブロック図である。 図9は、本発明の実施形態で使用される共通フォーマットの一例の構成を示す模式図である。 図10は、図5に示す車載装置146で他車等からセンサデータを受信するためのリクエストを送信する処理を実現するプログラムの概略の制御構造を示すフローチャートである。 図11は、リクエストを送信後、他車両から受信するセンサデータを自車のセンサデータに統合する処理を実現するプログラムの制御構造を示すフローチャートである。 図12は、他車からセンサデータの送信リクエストを受信した際に起動される、自車のセンサデータを他車に送信する処理を実現するプログラムの制御構造を示すフローチャートである。 図13は、図12に示すプログラムの一部において、自車フォーマットのセンサデータを共通フォーマットに変更する処理を実現するプログラムの制御構造を示すフローチャートである。 図14は、図5に示すサーバ134をコンピュータハードウェアとの協働により実現するためのプログラムの概略の制御構造を示すフローチャートである。
 <本開示が解決しようとする課題>
 上記した特許文献1に開示の技術によれば、運転者は、自車両のカメラだけではなく外部カメラからの画像も用いて周囲の環境の把握を行える。しかし、特許文献1に開示された技術の効果は運転者による環境の視認が容易になるというにとどまり、例えば自動運転等に外部カメラ等のセンサから得た情報を有効に利用できないという問題がある。最近では、自動運転に限らず車両位置等についても車載装置が把握していることが通常となっており、特許文献1に開示された技術のように、運転者のみに有益な情報を提供するだけでは不十分である。特に、常に変化する環境にある車両に対し、その車両の運転支援又は自動運転を補助するために有益な情報を適時に提供することが必要とされているにもかかわらず、特許文献1に開示された技術ではそれはほとんど不可能である。
 <本開示の効果>
 本開示によれば、時々刻々と変化する道路状況及び環境の変化にも柔軟に対応できるセンサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラムを提供できる。
 <本開示の実施形態の概要>
 以下、本開示の実施形態の概要を列記して説明する。
 (1) 本実施形態に係るセンサ共有システムは、センサに接続され、前記センサから受信したセンサデータを送信するセンサデータ送信装置と、前記センサデータ送信装置により送信された前記センサデータを受信し、当該センサデータを用いて車両の運転支援を行う車載装置と、を含むセンサ共有システムであって、前記センサデータ送信装置は、前記センサに接続され、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、前記センサからの前記センサデータを前記センサデータ送信装置に固有の第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、前記入力部によって受け付けられる前記センサデータと、前記センサデータのセンシング時刻とを、前記センサ共有システムにおいて共通の第2のフォーマットの送信データに整形する送信データ生成部と、前記第2のフォーマットの送信データを送信する送信部と、を含み、前記車載装置は、前記センサデータ送信装置から前記センサデータを受信する第1のセンサデータ受信部と、前記第1のセンサデータ受信部が受信した前記センサデータを、前記第2のフォーマットから前記車載装置に固有の第3のフォーマットに変換するためのフォーマット変換部と、前記第3のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部と、を含む。
 異なるデータフォーマットを採用した車載装置であっても、共通フォーマットを用いることで他の車載装置のセンサからの情報を有効に利用できる。ある車載装置からは検知できない障害物又は移動車両等についても、他の車載装置からのセンサデータを用いれば検知できる。特に第5世代移動通信システム(5G)では各センサのセンサデータを高速かつ低遅延のエンドツーエンド通信で送受信でき、各車載装置は他の車両又はインフラセンサからのセンサデータがあたかも自車のセンサからの情報であるかのように利用でき、効果的である。その結果、時々刻々と変化する道路状況及び環境の変化にも柔軟に対応でき、有効な運転支援が可能なセンサ共有システムを提供できる。
 (2) また、本実施形態に係るセンサ共有システムにおいて、前記入力部によって受け付けられる前記複数個の点の位置情報は、前記センサデータ送信装置の位置を原点とする相対的位置情報であり、前記センサデータ送信装置は、前記センサデータ送信装置の、所定の基準座標における基準位置情報を維持する第1の基準位置情報維持部を含み、前記送信データ生成部は、前記複数個の点の位置情報を、前記第1の基準位置情報維持部が維持する前記基準位置情報を用いて、前記基準座標における位置情報に変換し、変換された前記基準座標における前記複数個の点の位置情報と、前記センサデータのセンシング時刻とを、前記第2のフォーマットの送信データに整形して前記送信部に出力してもよい。
 障害物等の点に関するセンサデータが、基準座標に対する座標として複数の装置等で共有される。共通フォーマットを使用することと相まって、異なるメーカのセンサデータ送信装置及び車載装置を用いたシステムの間でもセンサデータを共有できる。その結果、数多くのセンサデータを用いて時々刻々と変化する道路状況及び環境の変化にも柔軟に対応でき、有効な運転支援が可能なセンサ共有システムを提供できる。
 (3) また、本実施形態に係るセンサ共有システムにおいて、前記車載装置はさらに、前記車載装置の前記基準座標における基準位置情報を維持する第2の基準位置情報維持部と、前記センサデータ送信装置に対して前記センサデータの送信を要求するリクエストであって、前記第2の基準位置情報維持部が維持している前記基準位置情報を含むリクエストを送信するリクエスト送信部と、を含み、前記センサデータ送信装置は、前記リクエストを受信するためのリクエスト受信部と、前記リクエスト受信部が前記リクエストを受信したことに応答して、前記第1の基準位置情報維持部が維持している前記基準位置情報と、前記リクエストに含まれる前記基準位置情報とが所定の条件を充足しているか否かを判定する判定部と、を含み、前記送信データ生成部は、前記判定部の判定が肯定であることに応答して、前記センサデータと前記センシング時刻とを前記第2のフォーマットの送信データに整形し、前記送信部を介して送信してもよい。
 いくらセンサデータを共有するといっても、全く異なる位置に存在するセンサによるセンサデータを受け取っても車載装置においては有効に利用できない。このように、車載装置とセンサとの間の距離に関する制約を設けることにより、無駄なセンサデータの交換をすることなく、無線帯域を有効に利用してセンサデータを共有できる。
 (4) また、本実施形態に係るセンサ共有システムにおいて、前記判定部は、前記第1の基準位置情報維持部により維持されている前記基準位置情報の確度を算出し、前記リクエスト受信部が前記リクエストを受信したことに応答して、算出された前記確度がしきい値以上か否かを判定し、前記確度が閾値以上であることに応答して、前記第1の基準位置情報維持部が維持している前記基準位置情報と、前記リクエストに含まれる前記基準位置情報とが前記所定の条件を充足しているか否かを判定してもよい。
 センサデータ送信装置の維持している基準位置情報が正確でないと、センサデータを共有することにより、センサ共有に参加している装置の間でかえって混乱が生じる。そこで、センサデータ送信装置のうちで、その維持している基準位置情報(典型的にはそのセンサデータ送信装置の位置)に関する確度が高いもののみ、センサデータを他と共有できるようにする。不正確な位置情報に基づくセンサデータによりセンサ共有システム内に混乱が生じることを防止できる。
 (5) また、本実施形態に係るセンサ共有システムにおいて、前記車載装置はさらに、前記車載装置に接続されたセンサからセンサデータを受信する第2のセンサデータ受信部と、前記第2のセンサデータ受信部によって受信され、前記第3のフォーマットに整形された前記センサデータを記憶するセンサデータ記憶部と、を含み、前記運転支援処理部は前記センサデータ記憶部に記憶された前記第3のフォーマットに整形された前記センサデータに基づいて前記運転支援情報を生成し、前記フォーマット変換部は、前記第1のセンサデータ受信部が受信した前記センサデータを、前記第2のフォーマットから前記第3のフォーマットに整形し、前記第3のフォーマットに整形された前記センサデータを前記センサデータ記憶部に記憶させてもよい。
 車載装置が固有の第3のフォーマットを使用している場合、他と共有するセンサデータ(第2のフォーマット)も第3のフォーマットに変換する必要がある。第3のフォーマットに変換すれば、センサからの情報と同様、第3のフォーマットでセンサデータ記憶部に追加して格納することで、車載装置は、他の車両等から受信したデータをそのまま用いて運転支援の処理を行うことができる。その結果、より多くの自センサデータを用いて運転支援を行えるので、その精度を高くできる。
 (6) また、本実施形態に係るセンサ共有システムにおいて、前記車載装置はさらに、前記第1のセンサデータ受信部が前記センサデータを受信した時刻と、前記センサデータに含まれる前記センシング時刻との差分が所定のしきい値以上の場合、前記センサデータを破棄してもよい。
 センサデータのセンシング時刻と、車載装置がそのセンサデータを受信した時刻との差(タイムラグ)が大きい場合、リアルタイムの運転支援処理を行うためにはそうしたセンサデータは役に立たない。そこでそれらを破棄することで、運転支援の精度を維持できる。
 (7) また、本実施形態に係るセンサ共有システムにおいて、前記センサデータ送信装置に接続されたセンサは、LiDARを含み、前記複数個の点は前記LiDARにより検知された点群を含んでもよい。
 LiDARは、レーザビームを用いるため、天候の影響を受けにくく、ある程度の距離の障害物までの距離を高精度で測定し、障害物の形状を表す点群データの座標として取得できる。したがって、LiDARはセンサ共有システムに好適であり、運転支援を高精度で行える。
 (8) 本実施形態に係るセンサ共有装置は、センサに接続されるセンサ共有装置であって、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、前記入力部によって受け付けられた前記センサデータを前記センサ共有装置に固有の第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、前記入力部によって受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、第2のフォーマットの送信データに整形する送信データ生成部と、前記第2のフォーマットの送信データを送信する送信部と、他の装置からセンサデータを受信するセンサデータ受信部と、前記センサデータ受信部によって受信された前記センサデータを、前記第2のフォーマットから前記第1のフォーマットに変換し前記センサデータ記憶部に記憶させるフォーマット変換部と、前記第1のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部と、を含み、複数の前記センサ共有装置はセンサ共有システムを形成し、前記第2のフォーマットは前記センサ共有システムにおける共通フォーマットである。
 このセンサ共有装置は、センサデータを固有の第1のフォーマットに変換してセンサデータ記憶部に記憶する。一方、このセンサデータとそのセンシング時刻とを、センサ共有システムで共通の第2のフォーマットに整形して送信する。また他の装置から受信したセンサデータは第2のフォーマットであるため、これを固有の第1のフォーマットに変換してセンサデータ記憶部に記憶する。センサデータ記憶部には、他のセンサ共有装置等から受信したセンサデータも固有の第1のフォーマットで格納される。送信装置、センサ共有装置、車載装置、及びその他の各装置はいずれも一つには限定されず、ネットワークを介して互いに接続された複数個の装置であってもよい。例えば車載装置はネットワークを介して他の車載装置に接続されてもよい。この場合、各車載装置は、他の車載装置から受信したセンサデータも支障なく利用して運転支援情報を生成できる。ある車載装置からは検知できない障害物又は移動車両等についても、他の車載装置からのセンサデータを用いれば検知できる。特に5G通信では各センサのセンサデータを高速かつ低遅延のエンドツーエンド通信で送受信でき、各車載装置は他の車両又はインフラセンサからのセンサデータがあたかも自車のセンサからの情報であるかのように利用できる。その結果、時々刻々と変化する道路状況及び環境の変化にも柔軟に対応でき、有効な運転支援が可能なセンサ共有装置を提供できる。
 (9) 本実施形態に係るセンサ共有装置は、センサに接続される外部装置と通信することが可能なセンサ共有装置であって、前記外部装置から、所定の第1のフォーマットのセンサデータを受信するセンサデータ受信部と、前記センサデータ受信部によって受信された前記センサデータを、前記第1のフォーマットから固有の第2のフォーマットに変換するためのフォーマット変換部と、前記フォーマット変換部によって前記第2のフォーマットに変換された前記センサデータを解析することにより、前記センサ共有装置を搭載した車両の運転支援情報を生成する運転支援処理部と、を含む。
 固有の第2のフォーマットを使用して運転支援情報を生成するセンサ共有装置であっても、フォーマット変換部を用いることで、他から受信した第1のフォーマットのセンサデータを第2のフォーマットに変換し、自己に接続されたセンサからのセンサデータと同様に用いて運転支援を行うことができる。他の装置から受信したセンサデータも支障なく利用でき、ある装置からは検知できない障害物又は移動車両等についても、他の装置からのセンサデータを用いて検知できる。特に5G通信では各センサのセンサデータを高速かつ低遅延のエンドツーエンド通信で送受信でき、センサ共有装置は他の車両又はインフラセンサからのセンサデータがあたかも自車のセンサからの情報であるかのように利用できる。その結果、時々刻々と変化する道路状況及び環境の変化にも柔軟に対応でき、有効な運転支援が可能なセンサ共有装置を提供できる。
 (10) 本実施形態に係るセンサ共有方法は、車載装置を含むセンサ共有システムによって実行されるセンサ共有方法であって、センサから出力されるセンサデータを送信するセンサデータ送信ステップと、前記センサデータ送信ステップにおいて送信された前記センサデータを受信し、前記センサデータを用いて車両の運転支援を行うセンサデータ受信ステップと、を含み、前記センサデータ送信ステップは、前記センサにより検知された複数個の点の位置情報を含むセンサデータを前記センサから受け付ける入力ステップと、前記入力ステップにおいて前記センサから受け付けられた前記センサデータを固有の第1のフォーマットにしたがって記憶装置に記憶するセンサデータ記憶ステップと、前記入力ステップにおいて前記センサから受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、前記センサ共有システムにおいて共通の第2のフォーマットの送信データに整形する送信データ生成ステップと、前記第2のフォーマットの送信データを送信する送信ステップ、とを含み、前記センサデータ受信ステップは、前記センサデータ送信ステップにおいて送信された前記センサデータを車載装置により受信する受信ステップと、前記受信ステップにおいて受信された前記センサデータを、前記第2のフォーマットから固有の第3のフォーマットに変換するフォーマット変換ステップと、前記第3のフォーマットに変換された前記センサデータを解析することにより、前記車載装置を搭載した車両の運転支援情報を生成する運転支援ステップと、を含む。
 異なるデータフォーマットを採用した車載装置であっても、共通フォーマットを用いることで他の車載装置のセンサからの情報を有効に利用できる。ある車載装置からは検知できない障害物又は移動車両等についても、他の車載装置からのセンサデータを用いれば検知できる。特に5G通信では各センサのセンサデータを高速かつ低遅延のエンドツーエンド通信で送受信でき、各車載装置は他の車両又はインフラセンサからのセンサデータがあたかも自車のセンサからの情報であるかのように利用できる。その結果、時々刻々と変化する道路状況及び環境の変化にも柔軟に対応でき、有効な運転支援が可能なセンサ共有方法を提供できる。
 (11) 本実施形態に係るコンピュータプログラムは、センサ及び通信装置に接続されるコンピュータを、車載装置として機能させるためのコンピュータプログラムであって、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部、前記入力部によって受け付けられた前記センサデータを第1のフォーマットにしたがって記憶するセンサデータ記憶部、前記入力部によって受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、第2のフォーマットの送信データに整形する送信データ生成部、及び前記第2のフォーマットの送信データを前記通信装置を介して送信する送信部として機能させ、前記第1のフォーマットは前記車載装置に固有のフォーマットであり、前記第2のフォーマットは前記車載装置及び他の装置を含むセンサ共有システムにおいて共通のフォーマットである。
 異なるデータフォーマットを採用した車載装置であっても、共通フォーマットである第2のフォーマットを用いて他の車載装置に対してセンサからの情報を送信すれば、当該他の車載装置ではそのセンサデータを有効に利用できる。ある車載装置からは検知できない障害物又は移動車両等についても、他の車載装置からのセンサデータを用いれば検知できる。特に5G通信では各センサのセンサデータを高速かつ低遅延のエンドツーエンド通信で送受信でき、各車載装置は他の車両又はインフラセンサからのセンサデータがあたかも自車のセンサからの情報であるかのように利用できる。その結果、時々刻々と変化する道路状況及び環境の変化にも柔軟に対応でき、有効な運転支援が可能なセンサ共有システムを提供できる。
 (12) 本実施形態に係るコンピュータプログラムは、通信装置に接続されるコンピュータを、車載装置として機能させるためのコンピュータプログラムであって、前記通信装置を介して他の装置から所定の第1のフォーマットのセンサデータを受信するセンサデータ受信部、前記センサデータ受信部によって受信された前記センサデータを、前記第1のフォーマットから第2のフォーマットに変換するフォーマット変換部、及び前記第2のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部として機能させ、前記第1のフォーマットは前記車載装置及び前記他の装置を含むセンサ共有システムにおいて共通のフォーマットであり、前記第2のフォーマットは前記車載装置に固有のフォーマットである。
 固有の第2のフォーマットを使用して運転支援情報を生成するコンピュータであっても、コンピュータをフォーマット変換部として機能させることで、他から受信した第1のフォーマットのセンサデータを第2のフォーマットに変換し、自己に接続されたセンサからのセンサデータと同様に用いて運転支援を行うことができる。他の装置から受信したセンサデータも支障なく利用でき、ある装置からは検知できない障害物又は移動車両等についても、他の装置からのセンサデータを用いて検知できる。特に5G通信では各センサのセンサデータを高速かつ低遅延のエンドツーエンド通信で送受信でき、各車載装置は他の車両又はインフラセンサからのセンサデータがあたかも自車のセンサからの情報であるかのように利用できる。その結果、時々刻々と変化する道路状況及び環境の変化にも柔軟に対応でき、有効な運転支援が可能な車載装置のためのコンピュータプログラムを提供できる。
 (13) 本実施形態に係るセンサ共有装置は、センサに接続されるセンサ共有装置であって、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、前記入力部によって受け付けられた前記センサデータを第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、前記入力部によって受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、第2のフォーマットの送信データに整形する送信データ生成部と、前記第2のフォーマットの送信データを送信する送信部と、を含み、前記第1のフォーマットは前記センサ共有装置に固有のフォーマットであり、前記第2のフォーマットは前記センサ共有装置を含むセンサ共有システムにおいて共通のフォーマットである。
 第1のフォーマットのセンサデータを使用するセンサ共有装置であっても、その第1のフォーマットをセンサ共有システムにおいて共通の第2のフォーマットに変換して他の装置に送信できる。特に5G通信では高速で低遅延でエンドツーエンドに他の装置にセンサデータを送信できる。他の装置が第2のフォーマットからその装置に固有のフォーマット変換装置を備えていれば、他の装置でのこのセンサデータを固有のフォーマットに変換して使用できる。そのため、他の装置ではあたかもセンサの数が多くなったかのようにして、広い範囲のセンサデータを集め、処理できる。
 <本開示の実施形態の詳細>
 以下、図面を参照しつつ、本開示の実施形態の詳細を説明する。
 <構成>
 従来技術の問題点は、各車両のセンサデータ(センサの出力したままのいわゆる「生データ」)を効率的に共有することで多くが解決できると考えられる。例えば図1に示されるような場合には、交差点50に設置された信号柱にLiDARと送信機からなる路側センサ58を設けておき、路側センサ58が検知した情報を車両52に送信することで車両52は対向車56の存在を知ることができる。また図2に示されるような場合には、坂道を登りきった位置に路側センサ64を設けておき、検知した情報を車両60に送信すれば、車両60は車両62の存在を検知できる。また路側センサに限らず、車両同士でセンサデータを共有できるようにすれば、自車のセンサがあちこちに増えたかのように見え、より遠距離のセンシングが可能になるという効果がある。より遠距離のセンシングが可能になれば走行計画を最適化できる可能性も高まり、交通流最適化も容易になるという効果がある。
 <概略>
 図3に本実施の形態に係るセンサ共有システム80の概略構成を模式的に示す。図3を参照して、センサ共有システム80は、路側に設けられた、LiDAR等のセンサを含む複数の路側センサ90と、他車両94と、路側センサ90及び他車両94から共通データフォーマットのセンサデータを受信し、自己のセンサからの出力と同様にこれらデータを使用して運転支援を行う車載装置を含む車両92とを含む。路側センサ90、車両92及び他車両94の間の通信はすべて所定の共通データフォーマットで行われる。一方、車両92の車載装置は共通データフォーマットとは異なる独自のフォーマットでセンサデータを管理し、運転支援情報を生成する。
 図4を参照して、このシステムで送受信される生データ情報118は、内閣府発表のダイナミックマップにおける静的情報(<1month)110、准静的情報(<1hour)112、准動的情報(<1min)114、及び動的情報(<1sec)116のうち、動的情報116に属するものであり、100msec以下の情報を取扱うことを想定している。以下、この生データ情報をセンサデータと呼ぶ。
 《車両を巡る構成》
 図5を参照して、このシステムにおいて、車両92を中心とするデータ交換は以下のような構成により実現される。車両92には前述のとおり車載装置146が搭載されている。車載装置146は、センサ共有装置の一例である。車両92は、ミリ波センサ140、カメラ142(カラーステレオカメラ、カラー単眼カメラ)、LiDAR144、並びに図示しない車速センサ、GPS、ジャイロセンサ等を持ち、これらの出力は車載装置146に与えられる。車載装置146はこれらを車載装置146の独自フォーマットで解析し、運転支援を行う。
 一方、車載装置146は、無線通信を通じてインフラセンサ130、サーバ134及び他車センサ132等からもセンサデータを受信する。インフラセンサ130、サーバ134,及び他車の車載装置146のそれぞれは、センサデータ送信装置の一例であり、センサ共有装置の一例である。本実施の形態では、路側センサ90、インフラセンサ130、他車センサ132及びサーバ134からもセンサデータを受信して車載装置146における運転支援に利用する。通信は全て所定の共通フォーマットで行う。共有フォーマットは車載装置146で使用するセンサデータのフォーマットとは異なる。そこで車載装置146は、インフラセンサ130等から共通フォーマットのセンサデータを受信するとそれらを車載装置146でのセンサデータのフォーマットに変換して利用する。車両92は自車両に装備したセンサからのデータだけではなく他センサの生データをインフラセンサ130、他車センサ132等から受信して利用できるので、あたかも自己のセンサ数が増加したのと同様、さらに遠くの環境までセンシングできることになる。運転支援に利用できる情報が増加するので、より効果的な運転支援を行うことができる。
 なお、車両92は、例えば他車からセンサデータの送信要求を受けた場合には、自己のセンサから受信した生のセンサデータをやはり共通フォーマットに変換して他車に送信する。このようにこの共通フォーマットのセンサデータを利用する車両相互でセンサデータを共有できるので、車両が認識する環境情報が効果的に共有され、交通支援システム全体として整合性のとれた効率的な運転支援を行うことができる。
 なお、このようにセンサデータを共有する場合には、当然、地理的制限及びセンサデータの取得時期等が問題となる。遠い位置の車両データは少なくともここで想定している動的情報の管理には役立たない。またたとえ近くにいる車両からのセンサデータであっても、そのセンシング時間が遅かったり、送受信に時間がかかったりしたために動的情報の管理に役立たない場合もありえる。センサデータを共有するためには、データ間で時刻同期がとれていて、かつ最新時刻のセンサデータである必要がある。これを実現するために、本実施形態ではセンサデータの共有に以下のような制約を設ける。なお、以下のような制約を充足するために、各車両は自己の正確な位置を特定するために、高精度GPSを利用したり、高精度マップとセンサデータとのマッチングにより自己の位置情報を維持したり、これらが利用できない場所ではデッドレコニング等により自己の位置情報を維持したりすることが想定されている。
 1)他社のセンサデータを利用しようとする車両は、自己の位置情報(一例としてGNSS(Global Navigation Satellite System)座標)とともにセンサデータのリクエストをブロードキャストする。この場合、自己からどの程度の距離までの車両からのデータを受信するかに関するしきい値を送信してもよい。
 2)このリクエストを受信した車両は、受信した位置情報と自己が維持している自車両の位置情報とを参照し、その間の距離が受信したしきい値以下であれば自己のセンサデータを相手車両に送信する。しきい値を受信しなかった場合にはしきい値をデフォルトの値(例えば100メートル)とする。
 3)ただし、自己の位置情報が正確でないと、かえってセンサデータの共有に支障が生じる。そこで、例えば高精度マップと自己のセンサデータとを照合することにより、自己の位置情報が正確であるという確度が一定値以上の車両のみがセンサデータの送信を行うようにする。この確度としてはGNSSによる電波受信状況を用いても良い。高精度マップとの照合位置、GNSS座標、及びデッドレコニングによる推定位置等、複数の位置推定手段の相互誤差を計算し、誤差の少なさを確度としてもよい。
 4)「許される遅延時間」のしきい値を設け、その値を超えて遅延しているデータは非リアルタイムデータとして破棄する。しきい値としては例えば100msec程度の値を使用する。
 《インフラセンサ》
 図6を参照して、インフラセンサ130は、LiDAR等からなるセンサ160と無線通信部162とに接続され、センサ160からのセンサデータを共通フォーマットに変換して車両及び近隣のサーバ134に送信する機能を持つ。無線通信部162は、送信部の一例である。
 インフラセンサ130は、インフラセンサ130の設置されている位置情報、時刻情報等の基本情報を記憶するための基本情報記憶部174と、無線通信部162からセンサデータの送信リクエストを受けたときに基本情報記憶部174に記憶された基本情報と照合して、送信のための条件が充足されているときに送信制御信号を出力するための受信処理部182と、センサ160からのセンサデータを受ける入出力I/F170と、入出力I/F170によりデジタル化されたセンサデータを固有のフォーマットで記憶する記憶装置172とを含む。入出力I/F170は、入力部の一例である。記憶装置172は、センサデータ記憶部の一例である。
 インフラセンサ130はさらに、受信処理部182から送信制御信号を受信したことに応答して、記憶装置172に記憶されている最新のセンサデータを読出し、共通フォーマットに整形して出力するフォーマット変換部176と、フォーマット変換部176から出力された共通フォーマットのセンサデータを一時記憶するためのバッファ178と、バッファ178に記憶されたセンサデータを順次読出し、無線通信部162を介して送信リクエストの送信元に送信するための送信処理部180とを含む。フォーマット変換部176は、送信データ生成部の一例である。
 なお、図示してはいないが、インフラセンサ130は定期的にそのセンサデータを標準フォーマットでサーバ134に送信する機能を持っている。
 《車載装置》
 図7を参照して、車載装置146は、各種センサ200(図5に示すミリ波センサ140、カメラ142、及びLiDAR144等)からのセンサデータを受けるための入出力I/F220と、入出力I/F220によりデジタル化されたセンサデータを車載装置146で用いるデータフォーマットに整形するためのセンサデータ処理部222と、センサデータ処理部222の出力するセンサデータを記憶するためのセンサデータ記憶部224と、センサデータ記憶部224に記憶されたセンサデータを解析し、自車両の位置情報を維持したり、近隣に存在する障害物等の動的情報を検知したりするためのセンサデータ解析部240と、運転支援のための地理的情報である、センサデータ解析部240が利用する高精度マップを記憶する高精度マップ記憶部242と、センサデータ解析部240による解析結果、及び高精度マップ記憶部242に記憶された高精度マップを利用して、走行プラン及び障害物情報等の運転支援情報を生成し出力するための運転支援処理部244と、運転支援処理部244の出力する運転支援情報及び制御情報を、図示しないモニタ、スピーカ、運転制御のための各種アクチュエータに出力するための入出力I/F246とを含む。入出力I/F220は、入力部の一例であり、第2のセンサデータ受信部の一例である。センサデータ解析部240は、第1の基準位置情報維持部の一例であり、第2の基準位置情報維持部の一例である。
 車載装置146はさらに、他車等との間で無線通信を行うための無線通信部232と、無線通信部232を介して他車両等からセンサデータを受信するためのリクエストを生成するためのリクエスト生成部248と、無線通信部232が他車からセンサデータの送信リクエストを受信したことに応答して、センサデータ解析部240が維持している自車両の位置情報及びその確度(精度)が所定の条件を充足しているか否かを判定し判定信号を出力する自車位置確度判定部226と、この判定信号により自車位置の確度が条件を充足していることが示されていることに応答して、センサデータ記憶部224に記憶されているセンサデータを読出し、データフォーマットを車載装置146の独自フォーマットから共通フォーマットに変換し出力するフォーマット変換部228と、リクエスト生成部248からのリクエスト、及びフォーマット変換部228からの共通フォーマットに整形されたセンサデータを各送信先に無線通信部232を介して送信する処理を実行するための送信処理部230とを含む。フォーマット変換部228は、送信データ生成部の一例である。無線通信部232は、送信部の一例であり、第1のセンサデータ受信部の一例である。さらに無線通信部232は、リクエスト送信部の一例であり、リクエスト受信部の一例である。自車位置確度判定部226は、判定部の一例である。
 車載装置146はさらに、無線通信部232が他車から受信したデータが他車からのセンサデータの送信リクエストであればセンサデータの送信処理開始信号250を出力し、他車からのセンサデータであればセンサデータ信号252を出力するための受信処理部234と、受信処理部234からセンサデータ信号252を受信し、センサデータ信号252に含まれるセンサデータが、解析対象とすべき条件を充足していなければ破棄する処理を行うための解析可否判定部236と、解析可否判定部236により解析対象とすべき条件を充足していると判定されたセンサデータ信号に対し、その信号が表すセンサデータを共通フォーマットから車載装置146の独自フォーマットに変換しセンサデータ記憶部224に格納する処理を実行するためのフォーマット変換部238とを含む。
 図8を参照して、車載装置146は、実質的にはコンピュータにより実現される。すなわち車載装置146は、コンピュータ340と、いずれもこのコンピュータ340に接続されたタッチパネル344、モニタ342、運転支援のための各種アクチュエータ372、運転支援のためのセンサデータを収集する各種センサ200、及びユーザとのインターフェイスを音声により行うためのスピーカ、マイク等からなる音響機器348とを含む。
 コンピュータ340は、CPU356、CPU356に接続されたバス366、並びに、いずれもバス366に接続されたROM(Read-Only Memory)358、RAM(Random Access Memory)360、フラッシュメモリ等からなる比較的容量の大きな補助記憶装置362、外部と無線により通信を行う無線通信部364、各種アクチュエータ372と各種センサ200とが接続され、入力データをデジタル化してバス366を介して各機能部に分配するための入出力I/F368、及び音響機器348とCPU356との間の音声信号処理を行うための音声処理I/F370を含む。
 このコンピュータ340の構成及び動作は通常のコンピュータと同様である。すなわち、コンピュータ340をいわゆるカーナビゲーションシステム及び本実施の形態に係る車載装置146として機能させるためのプログラムはROM358又は補助記憶装置362に記憶されており、CPU356の実行時にRAM360にロードされる。センサデータ等、コンピュータ340が操作対象とする、センサデータを含むデータはCPU356内のレジスタに適宜読込まれて処理され、結果はRAM360又は補助記憶装置362の所定のアドレスに保存される。情報処理により得られた情報に基づいて各デバイスを駆動することにより、例えばモニタ342に情報を表示したり、音響機器348を介して発話を行ったりする。
 《共通データフォーマット》
 図9を参照して、本実施の形態における共通フォーマット390は少なくともセンシング時刻情報を含むヘッダと、各点の位置情報(一例として緯度、経度及び高度からなるGNSS座標)とを含む。これ以外の情報を含んでもよい。
 《データ受信処理》
 図10を参照して、車載装置146が実行するデータ受信処理のためのプログラムのうち、他車からセンサデータを受信するためのリクエストを送信するプログラムは、一定時間おきに定期的に起動される。このプログラムは、自車位置及びしきい値を含むリクエストを所定のヘッダを含む所定のフォーマットで送信するステップ420と、ステップ420の後、他車から送信されて来るセンサデータを処理するための受信プロセスを開始してこのプログラムの実行を終了するステップ422とを含む。
 図11を参照して、図10のステップ422で起動される受信プロセスのプログラムは、タイマを所定のしきい値に設定するステップ440と、このタイマを起動するステップ442とを含む。タイマはこの後、減算を開始する。
 さらにこのプログラムは、タイマが満了したか否かを判定し、タイマが満了したら受信プロセスを終了させるステップ444と、ステップ444の判定が否定のとき、すなわちタイマがまだ満了していないときに、図7に示す受信処理部234からデータを受信したか否かを判定し、判定が否定であるときには制御をステップ444に戻すステップ446と、ステップ446の判定が肯定であるときに、受信したデータがセンサの生データからなるセンサデータを含む共通フォーマットのデータか否かを判定し、判定が否定のときに制御をステップ444に戻すステップ448とを含む。受信したデータがセンサデータでないときにはステップ448では何もせず制御をステップ444に戻す。したがってこの場合には受信したデータは破棄される。
 このプログラムはさらに、ステップ448の判定が肯定のときに、実際にこのセンサデータを受信したときの時刻情報と、受信した共通フォーマットのデータのヘッダから抽出したセンシング時刻との差分(受信タイムラグ)を計算するステップ450と、ステップ450で計算した差分が所定のしきい値(例えば100msec)より大きいか否かを判定し、判定が肯定であれば制御をステップ444に戻すステップ452と、ステップ452の判定が否定のときに、受信したセンサデータを共通フォーマットから自車の独自フォーマットに変換するステップ454と、ステップ454において独自フォーマットに変換されたセンサデータをセンサデータ記憶部224に格納して制御をステップ444に戻すステップ456とを含む。すなわち、タイムラグがしきい値を超えているセンサデータは、ステップ452において破棄される。
 《データ送信処理》
 一方、リクエストを受信した後の処理を実現するプログラムの構成を図12及び図13に示す。図12を参照して、このプログラムは、図11のステップ450において起動される。このプログラムは、図7に示すセンサデータ解析部240により維持されている自車位置情報をセンサデータ解析部240から、その確度を自車位置確度判定部226から読出すステップ480と、ステップ480で読出した自車と送信元車両の間の距離がしきい値以内か、及び自車位置の確度がしきい値より大きいかを判定し、いずれかの判定が否定であればこのプログラムの実行を終了するステップ482とを含む。ステップ482の処理の結果、自車位置の確度がしきい値より大きくなければこの車載装置146はセンサデータの共有には参加しないことになる。
 このプログラムはさらに、ステップ482の判定が肯定のときに、最新のセンサデータを図7に示すセンサデータ記憶部224から読出すステップ484と、ステップ484で読出された全てのセンサデータに対し、以下の処理488を実行するステップ486とを含む。
 処理488は、センサデータを自車フォーマットから共通フォーマットに変換するステップ490と、共通フォーマットに変換されたセンサデータを図7に示す送信処理部230及び無線通信部232を用いて最初にリクエストを送信して来た車両(車載装置)に送信するステップ492とを含む。
 《共通データフォーマットへの変換処理》
 図13を参照して、図12のステップ490で実行されるフォーマットの変換処理は、自車の位置情報を図7に示すセンサデータ解析部240から読出すステップ520と、センサデータに含まれる個々の点の座標を、車両を基準とした相対座標から、所定の基準座標系での座標(一例として経度、緯度及び高度からなるGNSS座標)に変換するステップ522と、ステップ522において得られた座標を共通フォーマットに整形して共通フォーマットデータを生成し、図7に示す送信処理部230に出力してこのプログラムの実行を終了するステップ524とを含む。
 以上が図7に示す車載装置146の各機能をコンピュータにより実現するプログラムの制御構造である。
 《サーバ》
 今までの記載では、センサデータのリクエストを各インフラセンサ及び各車両に送信することを前提としている。しかし本発明はそのような実施の形態には限定されない。図5に示すサーバ134にも各車両からのセンサデータが送信されるので、センサデータの送信リクエストをサーバ134に送信し、サーバ134から共通フォーマットのセンサデータを受信するようにしてもよい。この切替は各車両からの送信リクエストの送信先またはヘッダ情報の変更により行うことができる。
 この場合、サーバ134の機能としては、図7に示す車載装置146の機能のうち、無線通信部232、受信処理部234、解析可否判定部236、センサデータ記憶部224、リクエスト生成部248、送信処理部230、及びフォーマット変換部238の機能のみ実現すればよい。もちろんサーバ134としては他にも種々の機能を実現可能であるが、ここでは本実施に関係する機能のみに着目している。
 サーバ134では、各車両から送信されてくるセンサデータは共通フォーマットであることが前提であり、また各車両に送信するセンサデータも共通フォーマットである。ただし、共通フォーマットでない固有フォーマットで送信して来る車両がある可能性もあるため、固有フォーマットのセンサデータを受信した場合に共通フォーマットへ変換する機能も有する。また送信リクエストを受信した場合には、センサデータ記憶部224に記憶されているセンサデータのうち、最新の情報で、かつ、記憶されているセンサデータのセンサ位置とリクエスト送信元の位置との間の距離がしきい値以内であるセンサデータを送信する処理を実行する。
 図14に、サーバ134の機能をコンピュータハードウェアとの協働により実現するためのプログラムの制御構造をフローチャート形式で示す。図14を参照して、このプログラムは、何らかの通信を近隣のインフラセンサ、または車載装置から受信したことにより起動される。
 このプログラムは、受信した通信がセンサデータの送信リクエストか否かを判定し制御の流れを分岐させるステップ560と、ステップ560の否定のときに、受信した通信がセンサデータか否かを判定し、判定が否定であればこのプログラムの実行を終了させるステップ562と、ステップ562の判定が肯定のときに、受信したセンサデータが共通フォーマットのデータか否かを判定し、制御の流れを分岐させるステップ564と、ステップ564の判定が否定のときに、受信したセンサデータを共通フォーマットに変換するステップ566と、ステップ564の判定が否定のときにはステップ566で共通フォーマットに変換されたセンサデータを、ステップ566の判定が肯定のときには受信した共通フォーマットのセンサデータをそのまま、それぞれコンピュータの記憶装置に記憶しこのプログラムの実行を終了するステップ568とを含む。なお、この例ではセンサデータは後入れ先出し、すなわち最新のセンサデータが最初に読出され、以下時間をさかのぼってセンサデータが読出すことが可能な構成となっているものとする。
 このプログラムはさらに、ステップ560の判定が肯定のときに、データ送信リクエストに含まれるリクエストの送信元の位置情報としきい値とに基づき、記憶装置に保存された複数のセンサデータのうち、センサ位置がリクエストの送信元からしきい値以内の距離にあるものを最新のものから順番に読出すステップ570とを含む。
 このプログラムはさらに、ステップ570に続き、ステップ570で読出されたセンサデータのうちの先頭のものを読出すステップ572と、ステップ572で読出したデータのセンシング時刻と現在の時刻との時間間隔が所定のしきい値以内(ここでは100msec)か否かを判定し、判定が否定ならこのプログラムの実行を終了するステップ574と、ステップ574の判定が肯定のときに、ステップ572で読出したセンサデータをリクエストの送信元の装置に送信するステップ576と、ステップ576に続いて、記憶装置から次のセンサデータを読出して制御をステップ574に戻すステップ578とを含む。なお、図14には図示していないが、送信リクエストにしきい値が含まれていない場合には、デフォルトの値がしきい値として採用される。
 <動作>
 上記した構成を有するセンサ共有システム80は以下のように動作する。センサ共有システム80の動作は、インフラセンサ130、車載装置146及びサーバ134に分けて考えることができる。
 《インフラセンサ130》
 図6を参照して、インフラセンサ130は以下のように動作する。基本情報記憶部174には、インフラセンサ130の設置されている位置情報、時刻情報等の基本情報が記憶されている。インフラセンサ130のLiDAR等からなるセンサ160は、周囲をスキャンして障害物の点群情報を取得し、入出力I/F220に入力する。これらの点群情報は本実施の形態ではインフラセンサ130が設置されている位置を基準とする相対座標系での座標である。入出力I/F220はこれらセンサデータをデジタル化し、インフラセンサ130で使用するフォーマットにしたがって記憶装置172に格納する。無線通信部162は、いずれかの車両からセンサデータの送信リクエストを受信すると、受信処理部182は、基本情報記憶部174に記憶された基本情報と送信リクエストを照合して、送信のための条件が充足されているときに送信制御信号を出力する。
 フォーマット変換部176は、受信処理部182から送信制御信号を受信したことに応答して、記憶装置172に記憶されている最新のセンサデータを読出し、共通フォーマットに整形して出力する。バッファ178は、フォーマット変換部176から出力された共通フォーマットのセンサデータを一時記憶する。送信処理部180は、バッファ178に記憶されたセンサデータを順次読出し、無線通信部162を介して送信リクエストの送信元に送信する。
 なおインフラセンサ130はこの処理以外にも定期的にセンサデータを標準フォーマットに変換してサーバ134に送信する。
 《車載装置146》
 図7に示す車載装置146の動作は、センサデータの取得と、センサデータの送信処理と、センサデータの受信処理との大きく3つに分けることができる。以下、それらについて順に説明する。なおいずれの時点でも、車載装置146のセンサデータ解析部240は、センサデータと高精度マップとに基づき、自車両の位置を高精度で判定し維持している。
 《センサデータの取得》
 図7を参照して、車載装置146の高精度マップ記憶部242は、予め準備され随時更新される高精度マップを記憶する。各種センサ200は周囲をスキャンし、障害物の点群の座標からなる点群情報を入出力I/F220に入力する。このときの点群情報は、車載装置146に固定された座標系での3次元座標である。入出力I/F220はこれらのセンサデータを受けてデジタル化し、センサデータ処理部222に入力する。センサデータ処理部222は、このセンサデータを車載装置146で用いるデータフォーマットに整形しセンサデータ記憶部224に与える。センサデータ記憶部224は、このセンサデータを記憶する。センサデータ解析部240は、センサデータ記憶部224に記憶されたセンサデータを解析し、自車両の位置情報を維持したり、近隣に存在する障害物等の動的情報を検知したりする。運転支援処理部244は、センサデータ解析部240による解析結果、及び高精度マップ記憶部242に記憶された高精度マップを利用して、走行プランにしたがった各種アクチュエータの制御情報及び障害物情報等の運転支援情報を生成し、入出力I/F246を介して図示しないモニタ、スピーカ、運転制御のための各種アクチュエータ等に出力する。
 《センサデータの送信処理》
 車載装置146の無線通信部232は、他車等との間で無線通信を行う。無線通信部232が他車からセンサデータのリクエストを受信すると、無線通信部232は送信処理開始信号250を自車位置確度判定部226に与える。自車位置確度判定部226は、センサデータ解析部240が維持している自車両の位置情報及びその確度が所定の条件を充足していれば判定信号を出力する。この判定信号に応答して、フォーマット変換部228がセンサデータ記憶部224に記憶されているセンサデータを読出し、データフォーマットを独自フォーマットから共通フォーマットに変換し出力する。送信処理部230は、共通フォーマットに整形されたセンサデータを各送信先に無線通信部232を介して送信する処理を実行する。
 《センサデータの受信処理》
 図7を参照して、車載装置146のリクエスト生成部248は、無線通信部232を介して他車両等からセンサデータを受信するためのリクエストを定期的に生成する。このリクエストは送信処理部230及び無線通信部232を介して他車両等に送信される。このリクエストに応じて、条件を充足した車両等からセンサデータが送信されてくることは前述したとおりである。
 車載装置146の受信処理部234は、無線通信部232が受信したデータが他車からのセンサデータであればセンサデータ信号252を出力する。解析可否判定部236は、受信処理部234からセンサデータ信号252を受信し、センサデータ信号252に含まれるセンサデータが、解析対象とすべき条件を充足していなければ破棄し、それ以外のセンサデータはフォーマット変換部238に与える。フォーマット変換部238は、解析可否判定部236により解析対象とすべき条件を充足していると判定されたセンサデータ信号に対し、その信号が表すセンサデータを共通フォーマットから車載装置146の独自フォーマットに変換しセンサデータ記憶部224に格納する。
 センサデータ記憶部224に格納されるセンサデータは、各種センサ200により検知されたセンサデータと他車両等から受信したセンサデータとが混在したものとなる。しかし、いずれも車載装置146の独自フォーマットで保存されており、かつ車載装置146から所定距離以内でしかも一定のタイムラグより短いタイムラグで収集されたものである。したがってセンサデータ解析部240は他車から受信したセンサデータも各種センサ200から受信したセンサデータも区別せずに解析できる。解析のための情報が多くなり、車載装置146のセンサのみでは検知できなかった環境の変化も安定して検知できる可能性が高くなる。また車載装置146のセンサデータのみで検知できる範囲を超え、より広い範囲のセンサデータを用いて運転支援を行うことができるようになる。すなわち、あたかも車載装置146が現実よりかなり多いセンサを持っているかのような効果を得ることもできる。この結果、車載装置146は、時々刻々と変化する道路状況及び環境の変化にも柔軟に対応できる。
 《サーバ134》
 上記の説明ではサーバ134はそれほど重要な役目を演じていない。しかし、設定によっては近隣のインフラセンサ130及び他車センサ132等からのセンサデータをサーバ134に集中させることができる。サーバ134はそれらセンサデータを全て共通フォーマットで記憶し、ある車両からのリクエストに応答してその車両に共通フォーマットで送信できる。そのセンサデータを受信した車両では、上記実施の形態においてインフラセンサまたは他車両からセンサデータを受信した場合と同様の処理でそれらセンサデータを自車での運転支援等に利用できる。その結果、サーバ134の近隣に位置する車両は、サーバ134から近隣の車両等に関する情報を受信し、時々刻々と変化する道路状況及び環境の変化に柔軟に対応できる。
 サーバ134の動作としては、近隣の車両等からのセンサデータの受信、近隣の車両等からのリクエストの受信及びそれに続くセンサデータの送信という2種類の動作がある。以下、それらについて順番に図14を参照しながら説明する。
 《センサデータの受信》
 図14を参照して、近隣の車両等からセンサデータを受信したときには、ステップ560の判定は否定、ステップ562の判定は肯定となる。受信したセンサデータが共通フォーマットであると判定されれば、ステップ564→ステップ568の経路でセンサデータを記憶装置に保存しプログラムの実行を終了する。受信したセンサデータがそれ以外のフォーマットであると判定されれば、ステップ564→ステップ566→ステップ568の経路でそのセンサデータを共通フォーマットに変換して記憶装置に保存しプログラムの実行を終了する。なお、前述したとおり、このサーバ134では、記憶装置に記憶されたセンサデータは後入れ先出し可能な形式で保存される。
 《リクエストの受信及びセンサデータの送信》
 近隣の車両からセンサデータの送信リクエストを受信したときには、サーバ134は以下のように動作する。ステップ560の判定は肯定となる。ステップ570で、サーバ134の記憶装置に保存されたセンサデータのうち、そのセンサ位置と受信した送信リクエストに含まれる相手車両の位置との距離が送信リクエストに含まれるしきい値以内となるセンサデータを新しいものから順に読出す。
 続いて、ステップ572において、ステップ570で記憶装置から読出したセンサデータのうち先頭のセンサデータを読出し、ステップ574でそのセンシング時刻がしきい値以内か否かを判定する。しきい値より大きければこのプログラムの実行を終了する。通常は最新のデータについてはステップ574の判定は肯定となることが多いであろう。その場合、制御はステップ576に進んでセンサデータが送信され、続くステップ578で次のセンサデータが記憶装置から読出される。このセンサデータは、最後に送信したセンサデータより1つ前に受信し記憶装置に記憶されたものである。このセンサデータについてステップ574の判定を行う。以下、ステップ574、576及び578の処理を、ステップ574での判定が否定になるまで繰返す。この結果、データ送信リクエストを受信して以後、サーバ134に記憶されたセンサデータが新しい順に読出され、センシング時刻がしきい値以内であるものが全て相手に送信される。センシング時刻がしきい値を超えると直ちにセンサデータの送信は打ち切られる。
 以上のように本実施の形態によれば、複数のインフラセンサ及び車載装置が、相互の通信またはサーバ134により中継された通信により、互いのセンサデータを共有する。センサデータは共通フォーマットにより送信されるので、各車載装置はこの共通フォーマットと自己の使用するフォーマットとの間で相互に変換するための機構を準備しておけば、自己の持つセンサだけではなく、他の車両またはインフラセンサによるセンサデータも運転支援に利用できる。その結果、自己のセンサだけでは入手できない情報を用い、時々刻々と変化する道路状況及び環境の変化に柔軟に対応できる。通信に関する遅延時間を考慮し、センサデータとして意味のある情報しか利用されないので、運転支援の信頼度が低下することはない。
 なお、上記実施の形態ではLiDARにより得られた点群情報をセンサデータとしてインフラセンサ、各車両及びサーバで共有することを想定している。しかしこの発明はそのような実施形態には限定されない。例えばステレオカメラで得た画像から各画像を構成する障害物等の位置を特定できるなら、それら情報も点群データとして上記実施形態におけるセンサデータと同様に利用できる。
 また、LiDARとしては、機械的スキャンを行うものに限らずアレイセンサを用いるものでもよい。
 <補記>
 なお、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は請求の範囲によって示され、請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
50 交差点
52、60、62、92 車両
54 トラック
56 対向車
58、64、90 路側センサ
80 センサ共有システム
94 他車両
110 静的情報
112 准静的情報
114 准動的情報
116 動的情報
118 生データ情報
130 インフラセンサ
132 他車センサ
134 サーバ
140 ミリ波センサ
142 カメラ
144 LiDAR
146 車載装置
160 センサ
162、232、364 無線通信部
170 入出力I/F220
172 記憶装置
174 基本情報記憶部
176、228、238 フォーマット変換部
178 バッファ
180、230 送信処理部
182、234 受信処理部
200 各種センサ
220、246、368 入出力I/F
222 センサデータ処理部
224 センサデータ記憶部
226 自車位置確度判定部
236 解析可否判定部
240 センサデータ解析部
242 高精度マップ記憶部
244 運転支援処理部
248 リクエスト生成部
250 送信処理開始信号
252 センサデータ信号
340 コンピュータ
342 モニタ
344 タッチパネル
348 音響機器
356 CPU
358 ROM
360 RAM
362 補助記憶装置
366 バス
370 音声処理I/F
372 各種アクチュエータ
390 共通フォーマット
420、422、440、442、444、446、448、450、452、454、456、480、482、484、486、490、492、520、522、524、560、562、564、566、568、570、572、574、576、578 ステップ
488 処理
 

Claims (13)

  1.  センサに接続され、前記センサから受信したセンサデータを送信するセンサデータ送信装置と、
     前記センサデータ送信装置により送信された前記センサデータを受信し、当該センサデータを用いて車両の運転支援を行う車載装置と、を含むセンサ共有システムであって、
     前記センサデータ送信装置は、
      前記センサに接続され、前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、
      前記センサからの前記センサデータを前記センサデータ送信装置に固有の第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、
      前記入力部によって受け付けられる前記センサデータと、前記センサデータのセンシング時刻とを、前記センサ共有システムにおいて共通の第2のフォーマットの送信データに整形する送信データ生成部と、
      前記第2のフォーマットの送信データを送信する送信部と、を含み、
     前記車載装置は、
      前記センサデータ送信装置から前記センサデータを受信する第1のセンサデータ受信部と、
      前記第1のセンサデータ受信部が受信した前記センサデータを、前記第2のフォーマットから前記車載装置に固有の第3のフォーマットに変換するためのフォーマット変換部と、
      前記第3のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部と、を含む、
     センサ共有システム。
  2.  前記入力部によって受け付けられる前記複数個の点の位置情報は、前記センサデータ送信装置の位置を原点とする相対的位置情報であり、
     前記センサデータ送信装置は、前記センサデータ送信装置の、所定の基準座標における基準位置情報を維持する第1の基準位置情報維持部を含み、
     前記送信データ生成部は、
      前記複数個の点の位置情報を、前記第1の基準位置情報維持部が維持する前記基準位置情報を用いて、前記基準座標における位置情報に変換し、
      変換された前記基準座標における前記複数個の点の位置情報と、当該センサデータのセンシング時刻とを、前記第2のフォーマットの送信データに整形して前記送信部に出力する、
     請求項1に記載のセンサ共有システム。
  3.  前記車載装置はさらに、
     前記車載装置の前記基準座標における基準位置情報を維持する第2の基準位置情報維持部と、
     前記センサデータ送信装置に対して前記センサデータの送信を要求するリクエストであって、前記第2の基準位置情報維持部が維持している前記基準位置情報を含むリクエストを送信するリクエスト送信部と、を含み、
     前記センサデータ送信装置は、
     前記リクエストを受信するためのリクエスト受信部と、
     前記リクエスト受信部が前記リクエストを受信したことに応答して、前記第1の基準位置情報維持部が維持している前記基準位置情報と、前記リクエストに含まれる前記基準位置情報とが所定の条件を充足しているか否かを判定する判定部と、を含み、
     前記送信データ生成部は、前記判定部の判定が肯定であることに応答して、前記センサデータと前記センシング時刻とを前記第2のフォーマットの送信データに整形し、前記送信部を介して送信する、
     請求項2に記載のセンサ共有システム。
  4.  前記判定部は、
     前記第1の基準位置情報維持部により維持されている前記基準位置情報の確度を算出し、
     前記リクエスト受信部が前記リクエストを受信したことに応答して、算出された前記確度がしきい値以上か否かを判定し、
     前記確度が閾値以上であることに応答して、前記第1の基準位置情報維持部が維持している前記基準位置情報と、前記リクエストに含まれる前記基準位置情報とが前記所定の条件を充足しているか否かを判定する、
     請求項3に記載のセンサ共有システム。
  5.  前記車載装置はさらに、
     前記車載装置に接続されたセンサからセンサデータを受信する第2のセンサデータ受信部と、
     前記第2のセンサデータ受信部によって受信され、前記第3のフォーマットに整形された前記センサデータを記憶するセンサデータ記憶部と、を含み、
     前記運転支援処理部は前記センサデータ記憶部に記憶された前記第3のフォーマットに整形された前記センサデータに基づいて前記運転支援情報を生成し、
     前記フォーマット変換部は、
      前記第1のセンサデータ受信部が受信した前記センサデータを、前記第2のフォーマットから前記第3のフォーマットに整形し、
      前記第3のフォーマットに整形された前記センサデータを前記センサデータ記憶部に記憶させる、
     請求項1~請求項4のいずれか1項に記載のセンサ共有システム。
  6.  前記車載装置はさらに、前記第1のセンサデータ受信部が前記センサデータを受信した時刻と、前記センサデータに含まれる前記センシング時刻との差分が所定のしきい値以上の場合、前記センサデータを破棄する、
     請求項1~請求項5のいずれか1項に記載のセンサ共有システム。
  7.  前記センサデータ送信装置に接続されたセンサは、LiDARを含み、
     前記複数個の点は前記LiDARにより検知された点群を含む、
     請求項1~請求項6のいずれか1項に記載のセンサ共有システム。
  8.  センサに接続されるセンサ共有装置であって、
     前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、
     前記入力部によって受け付けられた前記センサデータを前記センサ共有装置に固有の第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、
     前記入力部によって受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、第2のフォーマットの送信データに整形する送信データ生成部と、
     前記第2のフォーマットの送信データを送信する送信部と、
     他の装置からセンサデータを受信するセンサデータ受信部と、
     前記センサデータ受信部によって受信された前記センサデータを、前記第2のフォーマットから前記第1のフォーマットに変換し前記センサデータ記憶部に記憶させるフォーマット変換部と、
     前記第1のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部と、を含み、
     複数の前記センサ共有装置はセンサ共有システムを形成し、前記第2のフォーマットは前記センサ共有システムにおける共通フォーマットである、
     センサ共有装置。
  9.  センサに接続される外部装置と通信することが可能なセンサ共有装置であって、
     前記外部装置から、所定の第1のフォーマットのセンサデータを受信するセンサデータ受信部と、
     前記センサデータ受信部によって受信された前記センサデータを、前記第1のフォーマットから固有の第2のフォーマットに変換するためのフォーマット変換部と、
     前記フォーマット変換部によって前記第2のフォーマットに変換された前記センサデータを解析することにより、前記センサ共有装置を搭載した車両の運転支援情報を生成する運転支援処理部と、を含む、
     センサ共有装置。
  10.  車載装置を含むセンサ共有システムによって実行されるセンサ共有方法であって、
     センサから出力されるセンサデータを送信するセンサデータ送信ステップと、
     前記センサデータ送信ステップにおいて送信された前記センサデータを受信し、前記センサデータを用いて車両の運転支援を行うセンサデータ受信ステップと、を含み、
     前記センサデータ送信ステップは、
      前記センサにより検知された複数個の点の位置情報を含むセンサデータを前記センサから受け付ける入力ステップと、
      前記入力ステップにおいて前記センサから受け付けられた前記センサデータを固有の第1のフォーマットにしたがって記憶装置に記憶するセンサデータ記憶ステップと、
      前記入力ステップにおいて前記センサから受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、前記センサ共有システムにおいて共通の第2のフォーマットの送信データに整形する送信データ生成ステップと、
      前記第2のフォーマットの送信データを送信する送信ステップ、とを含み、
     前記センサデータ受信ステップは、
     前記センサデータ送信ステップにおいて送信された前記センサデータを車載装置により受信する受信ステップと、
     前記受信ステップにおいて受信された前記センサデータを、前記第2のフォーマットから固有の第3のフォーマットに変換するフォーマット変換ステップと、
     前記第3のフォーマットに変換された前記センサデータを解析することにより、前記車載装置を搭載した車両の運転支援情報を生成する運転支援ステップと、を含む、
     センサ共有方法。
  11.  センサ及び通信装置に接続されるコンピュータを、車載装置として機能させるためのコンピュータプログラムであって、
     前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部、
     前記入力部によって受け付けられた前記センサデータを第1のフォーマットにしたがって記憶するセンサデータ記憶部、
     前記入力部によって受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、第2のフォーマットの送信データに整形する送信データ生成部、及び
     前記第2のフォーマットの送信データを前記通信装置を介して送信する送信部として機能させ、
     前記第1のフォーマットは前記車載装置に固有のフォーマットであり、
     前記第2のフォーマットは前記車載装置及び他の装置を含むセンサ共有システムにおいて共通のフォーマットである、
     コンピュータプログラム。
  12.  通信装置に接続されるコンピュータを、車載装置として機能させるためのコンピュータプログラムであって、
     前記通信装置を介して他の装置から所定の第1のフォーマットのセンサデータを受信するセンサデータ受信部、
     前記センサデータ受信部によって受信された前記センサデータを、前記第1のフォーマットから第2のフォーマットに変換するフォーマット変換部、及び
     前記第2のフォーマットに変換された前記センサデータを解析することにより、車両の運転支援情報を生成する運転支援処理部として機能させ、
     前記第1のフォーマットは前記車載装置及び前記他の装置を含むセンサ共有システムにおいて共通のフォーマットであり、
     前記第2のフォーマットは前記車載装置に固有のフォーマットである、
     コンピュータプログラム。
  13.  センサに接続されるセンサ共有装置であって、
     前記センサにより検知された複数個の点の位置情報を含むセンサデータを受け付ける入力部と、
     前記入力部によって受け付けられた前記センサデータを第1のフォーマットにしたがって記憶するためのセンサデータ記憶部と、
     前記入力部によって受け付けられた前記センサデータと、前記センサデータのセンシング時刻とを、第2のフォーマットの送信データに整形する送信データ生成部と、
     前記第2のフォーマットの送信データを送信する送信部と、を含み、
     前記第1のフォーマットは前記センサ共有装置に固有のフォーマットであり、
     前記第2のフォーマットは前記センサ共有装置を含むセンサ共有システムにおいて共通のフォーマットである、
     センサ共有装置。
     
PCT/JP2019/026308 2018-07-18 2019-07-02 センサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラム WO2020017320A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-134674 2018-07-18
JP2018134674A JP2021167986A (ja) 2018-07-18 2018-07-18 センサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2020017320A1 true WO2020017320A1 (ja) 2020-01-23

Family

ID=69164361

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/026308 WO2020017320A1 (ja) 2018-07-18 2019-07-02 センサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP2021167986A (ja)
WO (1) WO2020017320A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837385A (zh) * 2021-09-06 2021-12-24 东软睿驰汽车技术(沈阳)有限公司 一种数据处理方法、装置、设备、介质及产品
CN115918175A (zh) * 2020-06-12 2023-04-04 高通股份有限公司 具有置信度要求的动态传感器共享

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118056148A (zh) 2021-10-13 2024-05-17 住友电气工业株式会社 光连接器
WO2023243324A1 (ja) * 2022-06-17 2023-12-21 住友電気工業株式会社 車載装置、車載システム、サーバコンピュータ、制御方法およびコンピュータプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014131236A (ja) * 2012-12-28 2014-07-10 Mitsubishi Heavy Ind Ltd 車両通信システム、車載器、プログラム、及び、通信方法
JP2015058890A (ja) * 2013-09-20 2015-03-30 株式会社デンソー 走行軌道生成装置、および走行軌道生成プログラム
JP2016143092A (ja) * 2015-01-29 2016-08-08 住友電気工業株式会社 運転支援システム及び車載情報処理装置
JP2016184877A (ja) * 2015-03-26 2016-10-20 三菱電機株式会社 無線通信装置および無線通信システム
JP2016215790A (ja) * 2015-05-19 2016-12-22 株式会社デンソー 車線変更計画生成装置、車線変更計画生成方法
WO2017222437A1 (en) * 2016-06-23 2017-12-28 Telefonaktiebolaget Lm Ericsson (Publ) Methods identifying vehicles and related systems, controllers, and vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014131236A (ja) * 2012-12-28 2014-07-10 Mitsubishi Heavy Ind Ltd 車両通信システム、車載器、プログラム、及び、通信方法
JP2015058890A (ja) * 2013-09-20 2015-03-30 株式会社デンソー 走行軌道生成装置、および走行軌道生成プログラム
JP2016143092A (ja) * 2015-01-29 2016-08-08 住友電気工業株式会社 運転支援システム及び車載情報処理装置
JP2016184877A (ja) * 2015-03-26 2016-10-20 三菱電機株式会社 無線通信装置および無線通信システム
JP2016215790A (ja) * 2015-05-19 2016-12-22 株式会社デンソー 車線変更計画生成装置、車線変更計画生成方法
WO2017222437A1 (en) * 2016-06-23 2017-12-28 Telefonaktiebolaget Lm Ericsson (Publ) Methods identifying vehicles and related systems, controllers, and vehicles

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115918175A (zh) * 2020-06-12 2023-04-04 高通股份有限公司 具有置信度要求的动态传感器共享
CN113837385A (zh) * 2021-09-06 2021-12-24 东软睿驰汽车技术(沈阳)有限公司 一种数据处理方法、装置、设备、介质及产品
CN113837385B (zh) * 2021-09-06 2024-02-09 东软睿驰汽车技术(沈阳)有限公司 一种数据处理方法、装置、设备、介质及产品

Also Published As

Publication number Publication date
JP2021167986A (ja) 2021-10-21

Similar Documents

Publication Publication Date Title
WO2020017320A1 (ja) センサ共有システム、センサ共有装置、センサ共有方法、及びコンピュータプログラム
CN110249609B (zh) 用于自主车辆的带宽约束图像处理
WO2017071224A1 (zh) 一种行车信息共享的方法、车载平台及智能交通系统
KR102554621B1 (ko) 차량-도로 협업 정보 처리 방법, 장치, 기기, 자율 주행 차량 및 컴퓨터 프로그램
US10810807B2 (en) Data collection system and data center
US20190050718A1 (en) Proximity-based distributed sensor processing
US9291471B2 (en) In-vehicle information processing device and driving assist device
US20150241226A1 (en) Autonomous driving sensing system and method
JPWO2017212639A1 (ja) 情報処理装置、計測装置及び制御方法
JP2007241726A (ja) 運転支援システム、送信装置及び受信装置
US9465099B2 (en) Method for measuring position of vehicle using cloud computing
CN111693055B (zh) 道路网络变化检测和所检测的变化的本地传播
US20220178718A1 (en) Sensor fusion for dynamic mapping
US11456890B2 (en) Open and safe monitoring system for autonomous driving platform
JP2015076078A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
WO2022116000A1 (zh) 一种通信方法及装置
WO2019131075A1 (ja) 送信装置、点群データ収集システムおよびコンピュータプログラム
US11338823B2 (en) Multiple sensor data storage with compressed video stream in autonomous driving vehicles
US11662745B2 (en) Time determination of an inertial navigation system in autonomous driving systems
JP2020009215A (ja) 画像処理装置及びプログラム
JP7471364B2 (ja) 情報処理装置、データ通信方法、プログラム及び記憶媒体
WO2019181839A1 (ja) データ構造、端末装置、データ通信方法、プログラム及び記憶媒体
US11609342B2 (en) Latency compensation in inertial navigation system
JP6933069B2 (ja) 経路探索装置
JP7331399B2 (ja) センサ設備装置及びその制御方法、車載装置及びその制御方法、並びに交通支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19837668

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19837668

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP