WO2021070750A1 - 情報処理システム、情報処理装置及び情報処理方法 - Google Patents

情報処理システム、情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2021070750A1
WO2021070750A1 PCT/JP2020/037586 JP2020037586W WO2021070750A1 WO 2021070750 A1 WO2021070750 A1 WO 2021070750A1 JP 2020037586 W JP2020037586 W JP 2020037586W WO 2021070750 A1 WO2021070750 A1 WO 2021070750A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
vehicle
unit
information
correction
Prior art date
Application number
PCT/JP2020/037586
Other languages
English (en)
French (fr)
Inventor
太一 幸
石川 達也
亮太 木村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US17/765,829 priority Critical patent/US20220324488A1/en
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2021070750A1 publication Critical patent/WO2021070750A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Definitions

  • the present disclosure relates to an information processing system, an information processing device, and an information processing method, and in particular, it is possible to continue control even when the accuracy of a sensor mounted on a vehicle and related to vehicle travel control deteriorates.
  • Information processing system, information processing device and information processing method are examples of information processing devices, and information processing method.
  • Patent Document 1 a method of controlling a group of moving vehicles by using vehicle-to-vehicle communication or road-to-vehicle communication has been proposed (for example, Patent Document 1).
  • the proposed control method is to compare the recognition results of each sensor using inter-vehicle communication on the premise that the various sensors mounted on the vehicle for driving control are all operating normally. Checks the accuracy of the sensor. Therefore, when the accuracy of the vehicle sensor deteriorates, accurate running control cannot be performed.
  • the present disclosure proposes an information processing system, an information processing device, and an information processing method capable of continuing vehicle control even when the accuracy of the sensor mounted on the vehicle deteriorates.
  • the information processing system of one form according to the present disclosure is the vehicle and the vehicle, which is obtained by a first sensor unit mounted on the vehicle and obtaining information related to the travel control of the vehicle.
  • the first acquisition unit that acquires the first data related to the positional relationship with the objects existing around the vehicle together with the time when the first data was acquired, and the first acquisition unit related to the positional relationship of the objects existing on the road.
  • a comparison in which a second acquisition unit that acquires the second data together with the time when the second data is acquired and the first data and the second data are compared based on the respective obtained times.
  • First Embodiment 1-1 Outline of ADAS 1-2. Outline of vehicle control system 1-3. Explanation of the first data and the second data 1-4. Explanation of comparison between the first data and the second data 1-5. Explanation of correction data 1-6. Response to transient sensor accuracy deterioration 1-7. RSU hardware configuration 1-8. Vehicle hardware configuration 1-9. Functional configuration of vehicle control system 1-10. Process flow performed by the vehicle control system 1-11. Effect of the first embodiment 2. Modification example of the first embodiment 2-1. Functional configuration of vehicle control system 2-2. Effect of the modified example of the first embodiment 3. Second Embodiment 3-1. Functional configuration of vehicle control system 3-2. Process flow performed by the vehicle control system 3-3. Effect of the second embodiment
  • ADAS Advanced Driver Assistance Systems
  • ADAS Advanced Driver Assistance Systems
  • ADAS Advanced Driver Assistance System
  • LKA Li Keeping Assist System
  • FCW Forward Collision Warning
  • TSR Traffic Sign Recognition
  • ACC is a function that follows the vehicle while keeping the distance from the preceding vehicle constant.
  • the vehicle controls the accelerator and brake of the vehicle so that the inter-vehicle distance detected by the sensor is kept constant.
  • LKA is a function that detects a lane on the road and warns the driver when the vehicle predicts a deviation from the lane.
  • FCW is a function that prompts the driver for warnings and avoidance operations when the risk of collision increases, such as when the distance between vehicles is short or when the preceding vehicle suddenly brakes.
  • TSR is a function that recognizes traffic signs such as pause, no entry, speed limit, etc. from image data taken by the camera and provides appropriate traffic regulation information to the driver.
  • the vehicle In order to realize these functions, the vehicle needs to measure the inter-vehicle distance between the own vehicle and surrounding vehicles, the positional relationship, the relative speed, and the like. Therefore, the vehicle is equipped with sensors such as millimeter-wave radar, LiDAR (Light Detection and Ringing), and a camera.
  • sensors such as millimeter-wave radar, LiDAR (Light Detection and Ringing), and a camera.
  • FIG. 1 is a diagram showing an outline of a vehicle control system according to the first embodiment.
  • the vehicle control system 5a is composed of an RSU (Road Side Unit) 10a and a vehicle V (Va, Vb, Vc, ...) On a road R in a region near the RSU 10a.
  • the RSU10a is installed in the roadside zone of the road R and performs two-way wireless communication with a vehicle within a limited range in the vicinity.
  • the vehicle control system 5a is an example of the information processing system in the present disclosure. Further, RSU10a is an example of the information processing device in the present disclosure.
  • a vehicle equipped with ADAS controls the vehicle while grasping the positional relationship with surrounding vehicles and objects by its own sensor.
  • the accuracy of the sensor deteriorates, there is a problem that it becomes difficult to continue accurate vehicle control.
  • RSU10a is installed at a position that does not interfere with traffic, such as the shoulder of road R. Further, the RSU10a is installed in a predetermined area of the road R, which is determined in advance.
  • the RSU10a performs two-way wireless communication with a vehicle V (Va, Vb, Vc, ...) In the vicinity of the RSU10a, for example, by DSRC (Dedicated Short Range Communications).
  • the RSU10a obtains first data D1 related to the positional relationship between the vehicle V and an object existing around the vehicle V, which is obtained from the vehicle V by a sensor mounted on the vehicle V (hereinafter referred to as an in-vehicle sensor). get.
  • the object is, for example, other vehicles Vb, Vc, ... Existing around the vehicle Va, a falling object O on the road R, and a distance marker M (M1, M2, when the vehicle Va is used as a reference. M3, ...) and so on.
  • the in-vehicle sensor is an example of the first sensor unit in the present disclosure.
  • a plurality of distance markers M are installed along the shoulder of the road R.
  • the distance marker M is a plate-shaped mark installed at predetermined intervals such as 50 m and 100 m, and indicates a guideline for the inter-vehicle distance.
  • a two-dimensional feature code called an ALVAR code which is shown in FIG. 2, for example, is drawn on the distance marker M.
  • the ALVAR code is a kind of two-dimensional bar code, and for example, the position information of the position where the ALVAR code is placed is recorded.
  • a camera which is an example of an in-vehicle sensor included in the vehicle V, detects the position information in which the ALVAR code is installed by reading the ALVAR code.
  • the form of the distance marker M is not limited to the form shown in FIG. 2, as long as it can be detected by the in-vehicle sensor mounted on the vehicle V, and may be, for example, a character sign. Further, the distance marker M may be a self-luminous type so that it can be easily recognized from the vehicle.
  • the RSU10a includes information obtained by the vehicle V indicating the positional relationship between the vehicle V and another vehicle (relative positional relationship with the vehicle V, inter-vehicle distance, etc.), a falling object O on the road, and a distance marker M. Information representing the positional relationship with such objects (relative positional relationship with the vehicle V, distance to each object, etc.) and the acquisition time of the information are acquired as the first data D1.
  • the RSU10a is installed above the road R and includes cameras C (Ca, Cb, Cc) that observe the range in which the RSU10a can wirelessly communicate without omission.
  • the number of cameras C installed does not matter.
  • the RSU10a acquires the image observed by the camera C and analyzes the image to acquire the second data D2 relating to the positional relationship of the objects existing on the road R.
  • the second data D2 is data representing the same contents that can be compared with the first data D1 described above. Further, the second data D2 always shows a stable measurement result regardless of the day and night weather and the like.
  • the camera C is an example of the second sensor unit in the present disclosure.
  • the RSU10a may be provided with another sensor instead of the camera C as long as it can acquire the second data D2 relating to the positional relationship of the objects existing on the road R, for example, a millimeter wave radar, LiDAR or them. It may be two or more of them.
  • the millimeter-wave radar and LiDAR are not limited to those for in-vehicle use, and may be used for larger-scale measurement, for example.
  • the second data D2 can be obtained even in such an environment. It can be obtained.
  • the data to be compared is the data acquired from the same type of sensor.
  • RSU10a compares the first data D1 and the second data D2 obtained at the same time. If the sensor mounted on the vehicle V is operating normally, the first data D1 and the second data D2 match. However, if the accuracy of the sensor mounted on the vehicle V is lowered for some reason, the first data D1 and the second data D2 do not match.
  • the RSU10a generates correction data Dc (see FIG. 5) that corrects the output of the sensor mounted on the corresponding vehicle when the deviation between the first data D1 and the second data D2 is larger than a predetermined value. ..
  • the RSU10a transmits the generated correction data Dc to the vehicle V.
  • the vehicle V corrects the measurement result of the sensor using the received correction data Dc and uses it for controlling the ADAS system.
  • the RSU10a is connected to the remote server device 20a by wired communication or wireless communication, and acquires a program or the like necessary for controlling the RSU10a from the server device 20a. Further, the RSU 10a transmits the processing contents executed by the RSU 10a to the server device 20a and saves the processing contents.
  • FIG. 3 is a diagram showing an example of the first data.
  • FIG. 3 shows an example of the first data D1 acquired by the RSU10a from the vehicle Va.
  • FIG. 4 is a diagram showing an example of the second data.
  • the first data D1 includes the vehicle ID 11, the acquisition time 12, the own vehicle position 13, the object information 14, and the distance marker information 15.
  • the vehicle ID 11 is an identification number assigned in advance to each vehicle V that uniquely identifies the vehicle V that has transmitted the first data D1.
  • the acquisition time 12 is the time when the vehicle V has acquired various information.
  • the acquisition time is a time obtained from the GPS receiver 44 (see FIG. 7) provided in the vehicle V.
  • the own vehicle position 13 is the position coordinates of the vehicle V at the time indicated by the acquisition time 12.
  • the position coordinates represent, for example, the position of the vehicle V positioned by the GPS receiver 44.
  • the own vehicle position 13 may be expressed in the form of three-dimensional coordinates (X, Y, Z) as shown in FIG. 3, or may be expressed in the form of latitude and longitude.
  • the object information 14 is information related to peripheral objects detected by the vehicle V.
  • the object information 14 includes a relative position 14a and a distance 14b between the vehicle V.
  • the relative position 14a indicates the relative coordinates of the peripheral objects as seen from the vehicle V.
  • the relative coordinates are represented by, for example, an XYZ coordinate system having the own vehicle position of each vehicle V as the origin.
  • the distance 14b to the vehicle indicates the distance from the vehicle V to the surrounding objects.
  • the relative position 14a and the distance 14b to the vehicle can be obtained together depends on the type of sensor mounted on the vehicle V. For example, when the vehicle V is provided with only a camera as a sensor for detecting a peripheral object, only the relative position 14a can be obtained. Further, when the vehicle V is equipped with only the millimeter wave radar, only the distance 14b from the vehicle can be obtained. Further, when the vehicle V is equipped with both the camera and the millimeter wave radar, or when the vehicle V is equipped with LiDAR, both the relative position 14a and the distance 14b to the vehicle can be obtained.
  • the distance marker information 15 is information related to the distance marker M detected by the vehicle V.
  • the distance marker information 15 includes the relative position 15a and the distance 15b to the vehicle.
  • the relative position 15a indicates the relative coordinates of the distance marker M as seen from the vehicle V.
  • the relative coordinates are represented by, for example, an XYZ coordinate system having the own vehicle position of each vehicle V as the origin.
  • the distance 15b from the vehicle indicates the distance from the vehicle V to the distance marker M. Whether the relative position 15a and the distance 15b to the vehicle can be obtained together depends on the type of the sensor mounted on the vehicle V, as described above.
  • the second data D2 includes the acquisition time 16, the object information 17, and the distance marker information 18.
  • the second data D2 may include at least the distance marker information 18.
  • the acquisition time 16 is the time when the camera C captured the image.
  • the acquisition time 16 is a time obtained from the GPS receiver 27 (see FIG. 6) included in the RSU 10a. It is assumed that the cameras C (Ca, Cb, Cc) simultaneously perform imaging.
  • the object information 17 is information related to an object on the road R (vehicle V, falling object O on the road, etc.) detected by the RSU10a based on the image captured by the camera C.
  • the object information 17 is represented by position coordinates (x, y, z).
  • the coordinate system xyz is a coordinate system set by RSU10a.
  • the distance marker information 18 is information indicating the position of the distance marker M detected by the RSU10a based on the image captured by the camera C.
  • the distance marker M does not need to be detected repeatedly because its position does not move once it is installed. However, when the installation position moves due to a disturbance such as bad weather or a traffic accident, or the distance. If the marker M is damaged, it is necessary to take measures such as not using these distance markers M. Therefore, in the present embodiment, the distance marker information 18 is detected in order to confirm that the position of the distance marker M has not changed.
  • the distance marker information 18 is represented by position coordinates (x, y, z).
  • the coordinate system xyz is a coordinate system set by RSU10a.
  • the RSU10a sequentially acquires the second data D2 at predetermined time intervals (for example, video rate). Then, the RSU10a selects the second data D2 acquired at a time equal to the acquisition time 12 of the first data D1 from the acquired second data D2.
  • the RSU10a sets the own vehicle position 13 of the vehicle V indicated by the first data D1, the relative position 14a of the peripheral objects, and the relative position 15a of the distance marker M in the coordinate system xyz indicated by the second data D2. By the conversion, it is determined which object of the second data D2 corresponds to each object indicated by the first data D1. Further, the RSU 10a obtains a correspondence relationship between the relative position 15a of the distance marker M in the first data D1 and the distance marker information 18 in the second data D2.
  • the RSU10a compares the positional relationship between the specific vehicle V indicated by the first data D1 and the peripheral object and the distance marker M with the information indicated by the second data D2. Then, the information indicated by the first data D1, that is, the positional relationship between the vehicle V and the peripheral object detected by the vehicle V, and the information indicated by the second data D2, that is, the vehicle V and the periphery detected by the RSU10a. Determine if there is a discrepancy with the positional relationship with the object.
  • the information to be compared may be arbitrarily determined, but at least the information regarding the distance marker M, which is the fixed position information, is always compared. That is, the distances of different distance markers M calculated based on the distance 15b between each distance marker M and the vehicle V in the first data D1 (for example, the distance between the distance marker M1 and the distance marker M2, and the distance marker M2). The distance of the distance marker M3) is compared with the distance of the different distance markers M in the second data D2.
  • the correction data Dc is data representing the amount of correction for the distance to the target object.
  • FIG. 5 is a diagram showing an example of correction data.
  • the correction data Dc shown in FIG. 5 is data obtained by RSU10a comparing the data (distance measurement value) for the same vehicle V shown by the first data D1 and the second data D2.
  • FIG. 5 shows that when the distance d to the target object measured by the millimeter wave radar is d4 or more, a distance closer than the actual distance is detected, and when the distance d is d4 or more, It is shown that the correction on the plus side is applied to the measured distance d.
  • the correction data Dc is data representing the correction amount of the threshold value when recognizing the target object from the captured image.
  • the threshold value referred to here is, for example, a threshold value for brightness when detecting a vehicle or an object from an image, a threshold value for detecting an edge representing the outline of an object, or the like.
  • the accuracy of the in-vehicle sensor may temporarily deteriorate in the road environment, bad weather, nighttime, etc.
  • the preceding vehicle may be lost in a place where the curvature of the road is large. This is a phenomenon that occurs when the preceding vehicle deviates from the range measurement range. In such a case, since the in-vehicle sensor itself is operating normally, it is not necessary to correct the sensor.
  • the RSU10a of the present embodiment generates correction data Dc based on the first data D1 acquired from a plurality of vehicles V existing close to the surroundings. That is, when the above-mentioned phenomenon occurs, there is a high possibility that the same phenomenon will occur in another vehicle V in the vicinity. Therefore, the RSU10a determines the necessity of creating the correction data Dc for each vehicle V after confirming whether the first data D1 acquired from the plurality of vehicle Vs shows the same tendency. At this time, it is desirable to compare the first data D1 between the vehicles V traveling in the same direction.
  • the RSU10a does not create the correction data Dc when the same phenomenon occurs in a plurality of vehicles V.
  • correction data Dc is created for the vehicle V.
  • the RSU10a determines whether or not to create the correction data Dc based on the first data D1 acquired from the plurality of vehicle Vs.
  • FIG. 6 is a hardware block diagram showing an example of the hardware configuration of the RSU according to the first embodiment.
  • the RSU 10a has a configuration in which a control unit 22, a storage unit 23, a peripheral device controller 24, and a communication controller 25 are connected to each other by an internal bus 26.
  • the control unit 22 is an arithmetic processing unit having a computer configuration that realizes various functions included in the RSU 10a.
  • the control unit 22 includes a CPU (Central Processing Unit) 22a, a ROM (Read Only Memory) 22b, and a RAM (Random Access Memory) 22c.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 22a controls the operation of the entire RSU 10a by expanding and executing the control program P1 stored in the storage unit 23 or the ROM 22b on the RAM 22c.
  • the control program P1 may be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. Further, the RSU10a may execute all or a part of a series of processes by hardware.
  • the storage unit 23 is composed of an HDD (Hard Disk Drive), a flash memory, or the like, and stores information such as a control program P1 executed by the CPU 22a.
  • HDD Hard Disk Drive
  • flash memory or the like
  • the peripheral device controller 24 controls the operation of the connected camera C (second sensor unit 51) and the GPS receiver 27.
  • the camera C (Ca, Cb, Cc), which is an example of the second sensor unit 51, acquires an image observed on the road R as described above.
  • the GPS receiver 27 positions the position (latitude / longitude) of the GPS receiver 27 by receiving radio waves transmitted from a GPS (Global Positioning System) satellite. In addition, the GPS receiver 27 clocks the time.
  • GPS Global Positioning System
  • the communication controller 25 connects the RSU 10a and the vehicle V (Va, Vb, Vc, ). Further, the communication controller 25 connects the RSU 10a and the server device 20a.
  • FIG. 7 is a hardware block diagram showing an example of the hardware configuration of the vehicle.
  • the vehicle V (Va, Vb, Vc, 7) Has a configuration in which a control unit 32, a storage unit 33, a peripheral device controller 34, and a communication controller 35 are connected to each other by an internal bus 36.
  • the control unit 32 is an arithmetic processing unit having a computer configuration that realizes various functions by exchanging information with the RSU10a.
  • the control unit 32 includes a CPU (Central Processing Unit) 32a, a ROM (Read Only Memory) 32b, and a RAM (Random Access Memory) 32c.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the vehicle V controls the operation of the entire vehicle V by expanding and executing the control program P2 stored in the storage unit 33 and the ROM 32b on the RAM 32c.
  • the control program P2 may be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. Further, the vehicle V may execute all or a part of a series of processes by hardware.
  • the storage unit 33 is composed of an HDD (Hard Disk Drive), a flash memory, or the like, and is a location of an area where the control program P2 executed by the CPU 32a, the correction data Dc received from the RSU10a, and the in-vehicle sensor can be confirmed and corrected.
  • the correction judgment area data Dd and the like indicating the above are stored.
  • the peripheral device controller 34 determines the communication content between the millimeter-wave radar 40, the LiDAR 41, the camera 42, the vehicle V, and the RSU10a, which is an example of the in-vehicle sensor (first sensor unit 59), the application state of the correction data Dc, and the like.
  • a display device 43 such as a liquid crystal display that displays as needed is connected to the GPS receiver 44.
  • the peripheral device controller 34 controls the operation of these peripheral devices.
  • the communication controller 35 connects the vehicle V (Va, Vb, Vc, ...) And the RSU10a.
  • FIG. 8 is a functional block diagram showing an example of the functional configuration of the vehicle control system according to the first embodiment.
  • the RSU10a includes a vehicle information receiving unit 50, a second sensor unit 51, an object detection unit 52, an information comparison unit 53, a correction information generation unit 54, an information transmission unit 56, a communication control unit 57, and a GPS. It includes a signal analysis unit 58.
  • the vehicle information receiving unit 50 includes the first sensor unit 59 mounted on the vehicle V, that is, the vehicle V and the objects existing around the vehicle V obtained by the vehicle-mounted sensors (millimeter wave radar 40, LiDAR 41, camera 42).
  • the first data D1 relating to the positional relationship of the above is acquired together with the time when the first data D1 is obtained.
  • the vehicle information receiving unit 50 is an example of the first acquisition unit in the present disclosure.
  • the second sensor unit 51 obtains the second data D2 relating to the positional relationship of the objects existing on the road R.
  • the second sensor unit 51 is, for example, a camera C (Ca, Cb, Cc).
  • the object detection unit 52 acquires the second data D2 relating to the positional relationship of the objects existing on the road together with the time when the second data D2 is obtained.
  • the object detection unit 52 is an example of the second acquisition unit in the present disclosure.
  • the information comparison unit 53 calculates the magnitude of the discrepancy between the first data D1 and the second data D2 by comparing the first data D1 and the second data D2 obtained at the same time.
  • the information comparison unit 53 is an example of the comparison unit in the present disclosure.
  • the correction information generation unit 54 generates correction data Dc that corrects the output of the vehicle-mounted sensor of the vehicle V based on the comparison result by the information comparison unit 53.
  • the correction information generation unit 54 when the magnitude of the deviation between the first data D1 and the second data D2 calculated by the information comparison unit 53 from the plurality of vehicle Vs is larger than a predetermined value.
  • the correction data Dc is not generated for a plurality of vehicles V.
  • the information transmission unit 56 transmits the correction data Dc to the vehicle V.
  • the communication control unit 57 controls communication between the RSU 10a and the vehicle V. Further, the communication control unit 57 controls communication between the RSU 10a and the server device 20a (see FIG. 6).
  • the GPS signal analysis unit 58 analyzes the content of the GPS signal received by the GPS receiver 27 and acquires the time when the first data D1 is acquired.
  • the time acquired by the GPS signal analysis unit 58 is referred to when the vehicle V synchronizes with the time when the second data D2 is acquired.
  • the vehicle V includes a first sensor unit 59, an information transmission unit 60, an object detection unit 61, a vehicle control unit 62, a current position detection unit 63, a function limitation processing unit 64, and a sensor information correction unit. It includes 65, an information receiving unit 66, a communication control unit 67, and a GPS signal analysis unit 68.
  • the first sensor unit 59 detects the first data D1 relating to the positional relationship between the vehicle V and an object existing around the vehicle V.
  • the first sensor unit 59 is, for example, a millimeter wave radar 40, a LiDAR 41, a camera 42, or the like.
  • the information transmission unit 60 obtains first data D1 related to the positional relationship between the vehicle V and an object existing around the vehicle V, which is obtained by the first sensor unit 59 (vehicle-mounted sensor) mounted on the vehicle V. It is transmitted to RSU10a together with the time when the first data D1 is obtained.
  • the object detection unit 61 detects an object existing on the road surface and the distance marker M based on the measurement result of the vehicle-mounted sensor.
  • the vehicle control unit 62 performs various driving controls for the vehicle V based on the measurement results of the vehicle-mounted sensor.
  • the current position detection unit 63 detects the current position of the vehicle V based on the content of the GPS signal received by the GPS receiver 44.
  • the function restriction processing unit 64 prohibits the use of the vehicle-mounted sensor related to the acquisition of the first data D1 of the vehicle V when the deviation between the first data D1 and the second data D2 is larger than a predetermined value. Imposing restrictions such as letting.
  • the RSU10a may transmit the route guidance information to the nearest evacuation area to the vehicle V.
  • the sensor information correction unit 65 corrects the input / output characteristics of the in-vehicle sensor based on the correction data Dc (see FIG. 5).
  • the information receiving unit 66 receives the correction data Dc transmitted by the RSU10a.
  • the communication control unit 67 controls the communication between the vehicle V and the RSU10a.
  • the GPS signal analysis unit 68 analyzes the content of the GPS signal received by the GPS receiver 44 and acquires the current position and time of the vehicle V.
  • the time acquired by the GPS signal analysis unit 68 is referred to when the RSU10a synchronizes with the time when the first data D1 is acquired.
  • FIG. 9 is a flowchart showing an example of the flow of processing performed by the vehicle control system according to the first embodiment.
  • the vehicle information receiving unit 50 determines whether or not the vehicle-mounted sensor information, that is, the first data D1 is received from the vehicle V (step S10). When it is determined that the first data D1 has been received (step S10: Yes), the process proceeds to step S11. On the other hand, if it is not determined that the first data D1 has been received (step S10: No), step S10 is repeated.
  • the vehicle information receiving unit 50 identifies the vehicle V, which is the source of the first data D1.
  • step S10 the RSU10a acquires the object information detected by the object detection unit 52 based on the output of the sensor unit 51, that is, the second data D2 (step S11).
  • the information comparison unit 53 compares the first data D1 and the second data D2 (step S12).
  • the correction information generation unit 54 determines whether or not correction of the vehicle-mounted sensor mounted on the vehicle V is necessary based on the comparison result by the information comparison unit 53 (step S13). When it is determined that the in-vehicle sensor needs to be corrected (step S13: Yes), the process proceeds to step S14. On the other hand, if it is not determined that the in-vehicle sensor needs to be corrected (step S13: No), RSU10a ends the process of FIG.
  • step S13 the correction information generation unit 54 generates correction data Dc (step S14). If it is necessary to limit the function / authority of the vehicle V at the time of correction, the correction information generation unit 54 also generates information indicating that fact at the same time.
  • the information transmission unit 56 transmits the correction data Dc to the vehicle V, which is the source of the first data D1 (step S15). After that, RSU10a ends the process of FIG. In step S15, the RSU10a may also transmit information indicating that the function / authority is restricted to the vehicle V.
  • the current position detection unit 63 analyzes the GPS signal received by the GPS receiver 44 to determine whether the vehicle V is in the vicinity of the RSU 10a, that is, in the correction determination region (step S20). When it is determined that the user is in the correction determination area (step S20: Yes), the process proceeds to step S21. On the other hand, if it is not determined that the user is in the correction determination area (step S20: No), the determination in step S20 is repeated.
  • the information transmission unit 60 transmits the sensor information (first data D1) related to the object existing on the road surface and the distance marker M detected by the object detection unit 61 to the RSU10a (1st data D1). Step S21).
  • the information receiving unit 66 determines whether or not the correction data Dc has been received from the RSU 10a (step S22). When it is determined that the correction data Dc has been received from the RSU10a (step S22: Yes), the process proceeds to step S23. On the other hand, if it is not determined that the correction data Dc has been received from the RSU10a (step S22: No), the determination in step S22 is repeated.
  • step S22 the sensor information correction unit 65 corrects the input / output characteristics of the vehicle-mounted sensor based on the correction data Dc (step S23).
  • the correction data Dc is applied in step S23, it is desirable to display that fact on the monitor or the like of the vehicle V.
  • the function restriction processing unit 64 performs a function / authority restriction process such as prohibiting the execution of a part of the control function of the vehicle V as necessary (step S24).
  • step S25 determines whether the vehicle V can be automatically driven. When it is determined that the vehicle V can be automatically driven (step S25: Yes), the process proceeds to step S26. On the other hand, if it is not determined that the vehicle V can be automatically driven (step S25: No), the process proceeds to step S27.
  • step S25 the vehicle control unit 62 causes the vehicle V to execute automatic driving. After that, the vehicle V ends the process shown in FIG.
  • step S27 determines whether the vehicle V should be switched to manual driving.
  • step S27: Yes determines whether the operation should be switched to the manual operation.
  • step S28 determines whether the operation should be switched to the manual operation.
  • step S29 determines whether the operation should be switched to the manual driving.
  • step S27 If it is determined to be Yes in step S27, the vehicle control unit 62 switches the vehicle V to manual driving (step S28). After that, the vehicle V ends the process shown in FIG.
  • step S27 the vehicle control unit 62 causes the vehicle V to execute driving support by the vehicle-mounted sensor (step S29). After that, the vehicle V ends the process shown in FIG.
  • the RSU 10a is provided with the camera C (sensor unit 51) and detects the position of an object on the road R. However, assuming that the position of the distance marker M is unchanged, the distance marker M is used.
  • the installation position may be registered in a database, and the distance between different distance markers M may be calculated by referring to the database.
  • the information comparison unit 53 (comparison unit) and the vehicle information reception unit 50 (first acquisition unit) are mounted on the vehicle V. It exists around the vehicle V and the vehicle V obtained from the first sensor unit 59 (vehicle-mounted sensor (millimeter wave radar 40, LiDAR 41, camera 42)) for obtaining information related to the traveling control of the vehicle V.
  • the first data D1 related to the positional relationship with the object is compared with the second data D2 related to the positional relationship of the object existing on the road R obtained by the object detection unit 52 (second acquisition unit). ..
  • the correction information generation unit 54 generates the correction data Dc that corrects the output of the sensor based on the comparison result by the information comparison unit 53.
  • the information transmission unit 56 (transmission unit) transmits the correction data Dc to the vehicle V.
  • the traveling control of the vehicle V can be continued.
  • vehicle control system 5a information processing system of the first embodiment further includes a camera C (second sensor unit 51) for obtaining the second data D2.
  • the RSU10a can be equipped with a sensor that is more accurate and stable than the in-vehicle sensor included in the vehicle V, so that the positional relationship between the vehicle V and the objects existing around the vehicle V is accurate. Information can be obtained.
  • the information comparison unit 53 (comparison unit) is provided in the roadside machine (RSU10a) installed near the road R, and is provided with a second. The magnitude of the divergence between the data D2 and the first data D1 is calculated.
  • the second data D2 and the first data D1 can be easily and surely compared.
  • the information comparison unit 53 compares the first data D1 and the second data D2 obtained at the same time.
  • the first data D1 can be corrected by using the second data D2 obtained at the same time.
  • the correction information generation unit 54 is provided in the roadside machine (RSU10a) installed near the road R, and the information comparison unit 53 (comparison) is provided.
  • the plurality of vehicle Vs are corrected. Does not generate data Dc.
  • the vehicle V restricts the use of the first sensor unit 59 based on the information that restricts the use of the first sensor unit 59.
  • a function limiting processing unit 64 is further provided.
  • the acquisition time of the first data D1 and the acquisition time of the second data D2 are obtained from the GPS receivers 27 and 44. Synchronize with.
  • the vehicle control system 5a (information processing system) of the first embodiment acquires the first data D1 and the second data D2 in a predetermined area (correction determination area) of the road R.
  • the object is a distance marker M (marker) installed on the road R, and the first data D1 and the second data D2 are This is the distance between the vehicle V and the distance marker M.
  • the accuracy of the vehicle-mounted sensor of the vehicle V can be evaluated based on the positional relationship between the vehicle V and the distance marker M.
  • the information comparison unit 53 (comparison unit) and the vehicle information receiving unit 50 (first acquisition unit) are mounted on the vehicle V.
  • First data D1 related to the positional relationship between the vehicle V and an object existing around the vehicle V obtained from an in-vehicle sensor (millimeter wave radar 40, LiDAR 41, camera 42) for obtaining information related to driving control, and an object.
  • the second data D2 related to the positional relationship of the objects existing on the road R obtained by the detection unit 52 (second acquisition unit) is compared with each other based on the obtained time.
  • the correction information generation unit 54 generates correction data Dc for correcting the output of the sensor based on the comparison result by the information comparison unit 53, and the information transmission unit 56 (transmission unit) uses the correction data Dc for the vehicle V. Send to.
  • the traveling control of the vehicle V can be continued.
  • a modification of the first embodiment is an example in which the vehicle control system 5b is configured by having the server device 20b take charge of a part of the functions performed by the RSU10a in the first embodiment. That is, the vehicle control system 5b includes a server device 20b, an RSU10b, and a vehicle V.
  • the vehicle control system 5b is an example of an information processing system.
  • the server device 20b is an example of the information processing device in the present disclosure.
  • FIG. 10 is a functional block diagram showing an example of the functional configuration of the vehicle control system according to the modified example of the first embodiment.
  • the server device 20b includes a vehicle information receiving unit 50, an object detection unit 52, an information comparison unit 53, a correction information generation unit 54, an information transmission unit 56, and a communication control unit 57. Since the functions of the respective parts are as described in the first embodiment, the description thereof will be omitted.
  • the RSU10b includes a sensor unit 51, a GPS signal analysis unit 58, and an information relay unit 69. Since the sensor unit 51 and the GPS signal analysis unit 58 have the functions as described in the first embodiment, the description thereof will be omitted.
  • the information relay unit 69 relays information communication between the server device 20b and the vehicle V. That is, the information relay unit 69 receives the first data D1 acquired by the vehicle V and transmits it to the server device 20b. Further, the information relay unit 69 transmits the second data D2 acquired by the RSU 10b to the server device 20b. Further, the information relay unit 69 receives the correction data Dc generated by the server device 20b and transmits the correction data Dc to the vehicle V.
  • the processing flow performed by the vehicle control system 5b is a modification of the processing flow (see FIG. 9) performed by the vehicle control system 5a described in the first embodiment, and the basic processing content does not change. The description is omitted. That is, the flow of processing performed by the vehicle control system 5b is a reallocation of the processing performed by the RSU 10a in the vehicle control system 5a to the processing performed by the server device 20b and the RSU 10b.
  • the vehicle control system 5a (information processing system) of the modified example of the first embodiment includes a server device 20b communicatively connected to the RSU 10b (roadside unit), and the server device 20b is a server device 20b.
  • Vehicle information receiving unit 50 first acquisition unit
  • object detection unit 52 second acquisition unit
  • information comparison unit 53 compare unit
  • correction information generation unit 54 correction information generation unit 54
  • information transmission unit 56 Transmitter
  • the server device 10b can have the processing function provided by each RSU10a described in the first embodiment, the processing load of the RSU10b can be reduced. That is, since the RSU10b can be installed at low cost, more RSU10b can be installed at the same cost.
  • the second embodiment includes a determination function for determining whether or not the correction data Dc can be applied to the vehicle V.
  • FIG. 11 is a functional block diagram showing an example of the functional configuration of the vehicle control system according to the second embodiment.
  • the vehicle control system 5c described in the second embodiment is configured based on the vehicle control system 5a (see FIG. 8).
  • the vehicle control system 5c may be configured based on the vehicle control system 5b (see FIG. 10).
  • the RSU10c according to the second embodiment has a configuration in which the correction information application determination unit 55 is added to the configuration of the RSU10a according to the first embodiment.
  • the correction information application determination unit 55 determines whether or not the correction data Dc can be applied to the vehicle V based on the comparison result by the information comparison unit 53.
  • the correction information application determination unit 55 is an example of the application determination unit in the present disclosure.
  • the correction information application determination unit 55 After the correction information application determination unit 55 generates the correction data Dc and transmits it to the vehicle V, the correction information application determination unit 55 determines the application of the correction data Dc in the subsequent existing positions of the RSU10c (that is, the correction determination area). It is assumed that a plurality of RSU10c are installed at predetermined intervals. Specifically, the vehicle V transmits the first data D1 obtained when the correction data Dc is applied to the RSU10c. Then, the correction information application determination unit 55 determines the application of the correction data Dc based on the comparison result between the first data D1 and the second data D2 obtained by the RSU10c.
  • the correction information application determination unit 55 determines that the correction data Dc is to be applied, the correction information application determination unit 55 transmits to that effect to the vehicle V.
  • the vehicle V receives the information that the correction data Dc is applied, the vehicle V enables the correction and subsequently applies the correction data Dc.
  • the correction information application determination unit 55 determines that the correction data Dc is not applied, it transmits to that effect to the vehicle V.
  • the vehicle V receives the information that the correction data Dc is not applied, the vehicle V invalidates the correction of the vehicle-mounted sensor. It should be noted that the fact that the correction data Dc is applied or that the correction data Dc is not applied is notified to the driver of the vehicle V by displaying it on the display device 43 provided in the vehicle V.
  • the correction information application determination unit 55 may transmit information to the information transmission unit 56 to prohibit the use of the in-vehicle sensor from the vehicle V. Good.
  • FIG. 12 is a flowchart showing an example of the flow of processing performed by the vehicle control system according to the second embodiment.
  • the vehicle information receiving unit 50 determines whether the information of the vehicle-mounted sensor, that is, the first data D1 is received from the vehicle V (step S36). When it is determined that the first data D1 has been received (step S36: Yes), the process proceeds to step S37. On the other hand, if it is not determined that the first data D1 has been received (step S36: No), step S36 is repeated. The vehicle information receiving unit 50 identifies the vehicle V, which is the source of the first data D1.
  • step S36 the RSU10c acquires the object information detected by the object detection unit 52 based on the output of the sensor unit 51, that is, the second data D2 (step S37).
  • the information comparison unit 53 compares the first data D1 with the second data D2 (step S38).
  • the correction information generation unit 54 determines whether or not correction of the vehicle-mounted sensor mounted on the vehicle V is necessary based on the comparison result by the information comparison unit 53 (step S39). When it is determined that the in-vehicle sensor needs to be corrected (step S39: Yes), the process proceeds to step S40. On the other hand, if it is not determined that the in-vehicle sensor needs to be corrected (step S39: No), the process proceeds to step S41.
  • step S40 the correction information application determination unit 55 instructs the vehicle V to withdraw the correction data Dc (step S40). Specifically, the information transmission unit 56 transmits to the vehicle V that the correction data Dc is withdrawn. After that, the RSU10c ends the process of FIG. When the correction data Dc is withdrawn, new correction data Dc may be generated based on the magnitude of the discrepancy between the first data D1 and the second data D2 calculated in step S38.
  • step S39 the correction information application determination unit 55 instructs the vehicle V to apply the correction data Dc (step S41). Specifically, the information transmission unit 56 transmits to the vehicle V that the correction data Dc is applied. After that, the RSU10c ends the process of FIG.
  • the current position detection unit 63 analyzes the GPS signal received by the GPS receiver 44 to determine whether the vehicle V is in the vicinity of the RSU 10c, that is, in the correction determination region (step S50). When it is determined that the user is in the correction determination area (step S50: Yes), the process proceeds to step S51. On the other hand, if it is not determined that the user is in the correction determination area (step S50: No), the determination in step S50 is repeated.
  • the information transmission unit 60 transmits the sensor information (first data D1) related to the object existing on the road surface and the distance marker M detected by the object detection unit 61 to the RSU10c (1st data D1). Step S51).
  • the information receiving unit 66 determines whether or not the correction data Dc has been received from the RSU 10c (step S52). When it is determined that the correction data Dc has been received from the RSU10c (step S52: Yes), the process proceeds to step S53. On the other hand, if it is not determined that the correction data Dc has been received from the RSU10a (step S52: No), the determination in step S52 is repeated.
  • step S52 If Yes is determined in step S52, the sensor information correction unit 65 stores the correction data Dc (step S53).
  • the current position detection unit 63 analyzes the GPS signal received by the GPS receiver 44 to determine whether the vehicle V is in a correction determination area different from the correction determination area determined in step S50 (Ste S54). When it is determined that the user is in another correction determination area (step S54: Yes), the process proceeds to step S55. On the other hand, if it is not determined that the user is in another correction determination area (step S54: No), the determination in step S54 is repeated.
  • step S54 the sensor information correction unit 65 applies the correction data Dc to the in-vehicle sensor of the vehicle V (step S55).
  • the information transmission unit 60 transmits the sensor information (first data D1) related to the object existing on the road surface and the distance marker M detected by the object detection unit 61 to the RSU10c (step S56).
  • the sensor information correction unit 65 determines whether the correction data Dc can be applied based on the information related to the applicability of the correction data Dc received from the RSU 10c by the information receiving unit 66 (step S57). When it is determined that the correction data Dc can be applied (step S57: Yes), the process proceeds to step S58. On the other hand, if it is not determined that the correction data Dc can be applied (step S57: No), the process proceeds to step S59.
  • step S57 If it is determined to be Yes in step S57, the sensor information correction unit 65 applies the correction data Dc. After that, the vehicle V ends the process shown in FIG.
  • step S57 the sensor information correction unit 65 does not apply the correction data Dc. After that, the vehicle V ends the process shown in FIG. When new correction data Dc is generated, the process of FIG. 12 may be executed again in the next correction determination area to determine whether or not the new correction data Dc can be applied.
  • the vehicle information receiving unit 50 (first acquisition unit) is the correction data transmitted by the information transmitting unit 56 (transmitting unit).
  • the vehicle-mounted sensor millimeter wave radar 40, LiDAR 41, camera 42
  • the first data D1 obtained by the vehicle-mounted sensor is acquired.
  • the correction information application determination unit 55 (application determination unit) determines whether or not the correction data Dc can be applied to the vehicle V based on the comparison result by the information comparison unit 53 (comparison unit).
  • the information transmission unit 56 (transmission unit) transmits the determination result of the correction information application determination unit 55 to the vehicle V.
  • the correction data Dc since it is determined whether or not the correction data Dc can be applied based on the first data D1 obtained when the correction data Dc is applied, the correction is surely performed only when the correction of the in-vehicle sensor is really necessary. It can be performed.
  • the vehicle control system 5c (information processing system) of the second embodiment includes a sensor information correction unit 65 for applying the correction data Dc to the first sensor unit 59 (vehicle-mounted sensor) in the vehicle V.
  • the vehicle V can correct the output of the vehicle-mounted sensor by applying the correction data Dc to the first sensor unit 59 (vehicle-mounted sensor).
  • the correction information application determination unit 55 application determination unit
  • the information transmission unit 56 transmits information for prohibiting the use of the vehicle-mounted sensor (millimeter wave radar 40, LiDAR 41, camera 42) to the vehicle V.
  • first data D1 and the second data D2 to be compared data that has been locally preprocessed in each of the individual sensors, which is called processed data, may be used, or raw data (unprocessed data, raw data, raw data) may be used.
  • Data which has not been locally preprocessed in each of the individual sensors, may be used.
  • the processed data it is processed locally in advance and unnecessary information such as noise is omitted, so that the burden on the subsequent processing is small and the processing can be performed at a relatively high speed.
  • raw data when raw data is used, the amount of information is abundant because the raw data is not processed locally in advance, and the data is compared with abundant amount of information as compared with the case where the processed data is used. can do.
  • the processed data may be used for either of the two data, and the raw data may be used for the other one.
  • the present disclosure may have the following structure.
  • (1) The first data relating to the positional relationship between the vehicle and an object existing around the vehicle obtained by the first sensor unit mounted on the vehicle and obtaining information related to the traveling control of the vehicle is obtained by the first data.
  • the first acquisition unit that acquires the data with the time when the data of 1 is acquired
  • a second acquisition unit that acquires the second data related to the positional relationship of objects existing on the road together with the time when the second data was acquired
  • a comparison unit that compares the first data and the second data based on the obtained times, and a comparison unit.
  • a correction information generation unit that generates correction data for correcting the output of the first sensor unit based on the comparison result by the comparison unit.
  • a second sensor unit for obtaining the second data is further provided.
  • the second sensor unit is provided in a roadside unit (RSU) installed near the road.
  • the comparison unit is provided in a roadside aircraft (RSU) installed near the road. The magnitude of the discrepancy between the first data and the second data is calculated.
  • the comparison unit The first data obtained at the same time and the second data are compared.
  • the correction information generation unit is provided in a roadside machine (RSU) installed near the road.
  • the first acquisition unit acquires the first data obtained by the first sensor unit after applying the correction data transmitted by the transmission unit to the first sensor unit, and also acquires the first data.
  • An application determination unit for determining whether or not the correction data can be applied to the vehicle based on the comparison result by the comparison unit is further provided.
  • the transmission unit is provided in a roadside unit (RSU) installed near the road, and transmits the determination result of the application determination unit to the vehicle.
  • RSU roadside unit
  • the transmitting unit transmits information that restricts the use of the first sensor unit to the vehicle.
  • a sensor information correction unit that applies the correction data to the first sensor unit is further provided.
  • the sensor information correction unit is provided in the vehicle.
  • a function limiting processing unit that restricts the use of the first sensor unit is further provided based on the information that restricts the use of the first sensor unit.
  • the function restriction processing unit is provided in the vehicle.
  • the acquisition time of the first data and the acquisition time of the second data are synchronized with the time obtained from the GPS receiver.
  • the information processing system according to any one of (1) to (9) above.
  • the information processing system Acquire the first data and the second data in a predetermined area of the road.
  • the object is a marker installed on the road.
  • the first data and the second data are distances between the vehicle and the marker.
  • the information processing system further includes a server device communicably connected to the roadside unit (RSU).
  • the server device includes the first acquisition unit, the second acquisition unit, the comparison unit, the correction information generation unit, and the transmission unit.
  • the first data relating to the positional relationship between the vehicle and an object existing around the vehicle obtained by the first sensor unit mounted on the vehicle and obtaining information related to the traveling control of the vehicle is obtained by the first data.
  • the first data relating to the positional relationship between the vehicle and an object existing around the vehicle obtained by the first sensor unit mounted on the vehicle and obtaining information related to the traveling control of the vehicle is obtained by the first data.
  • the first acquisition unit that acquires the data with the time when the data of 1 is acquired, and A second acquisition unit that acquires the second data related to the positional relationship of objects existing on the road together with the time when the second data was acquired, and A comparison unit that compares the first data and the second data based on the obtained times, and a comparison unit.
  • a correction information generation unit that generates correction data for correcting the output of the first sensor unit based on the comparison result by the comparison unit.
  • a transmission unit that transmits the correction data to the vehicle, and Information processing device equipped with.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

RSU(10a)(情報処理装置)の情報比較部(53)(比較部)は、車両情報受信部(50)(第1の取得部)が車両(V)に搭載された、当該車両(V)の走行制御に係る情報を得る第1のセンサ部(59)から得た、車両と当該車両の周囲に存在する物体との位置関係に係る第1のデータ(D1)と、物体検出部(52)(第2の取得部)が得た、道路(R)上に存在する物体の位置関係に係る第2のデータ(D2)とを比較する。そして、補正情報生成部(54)は、情報比較部(53)による比較結果に基づいて、第1のセンサ部(59)の出力を補正する補正データ(Dc)を生成して、情報送信部(56)(送信部)は、補正データ(Dc)を車両(V)に送信する。

Description

情報処理システム、情報処理装置及び情報処理方法
 本開示は、情報処理システム、情報処理装置及び情報処理方法に関し、特に、車両に搭載された、車両の走行制御に係るセンサの精度が悪化した場合であっても、制御を継続することが可能な情報処理システム、情報処理装置及び情報処理方法に関する。
 従来、車々間通信や路車間通信を用いて、走行中の車両の群制御を行う方法が提案されている(例えば、特許文献1)。
特許第3520691号公報
 しかしながら、提案された制御方法は、走行制御を行うために車両に搭載された各種センサが、いずれも正常に動作している前提で、車々間通信を用いてお互いのセンサの認識結果を比較することによって、センサの精度を確認している。したがって、車両のセンサの精度が悪化した場合には、的確な走行制御を行うことができなかった。
 そこで、本開示では、車両に搭載されたセンサの精度が悪化した場合であっても、車両制御を継続することが可能な情報処理システム、情報処理装置及び情報処理方法を提案する。
 上記の課題を解決するために、本開示に係る一形態の情報処理システムは、車両に搭載された、当該車両の走行制御に係る情報を得る第1のセンサ部が得た、前記車両と当該車両の周囲に存在する物体との位置関係に係る第1のデータを、当該第1のデータを得た時刻とともに取得する第1の取得部と、道路上に存在する物体の位置関係に係る第2のデータを、当該第2のデータを得た時刻とともに取得する第2の取得部と、前記第1のデータと前記第2のデータとを、それぞれの得られた時刻に基づいて比較する比較部と、前記比較部による比較結果に基づいて、前記第1のセンサ部の出力を補正する補正データを生成する補正情報生成部と、前記補正データを前記車両に送信する送信部と、を備える情報処理システムである。
第1の実施形態に係る車両制御システムの概要を示す図である。 距離マーカの一例を示す図である。 第1のデータの一例を示す図である。 第2のデータの一例を示す図である。 補正データの一例を示す図である。 第1の実施形態に係るRSUのハードウエア構成の一例を示すハードウエアブロック図である。 車両のハードウエア構成の一例を示すハードウエアブロック図である。 第1の実施形態に係る車両制御システムの機能構成の一例を示す機能ブロック図である。 第1の実施形態に係る車両制御システムが行う処理の流れの一例を示すフローチャートである。 第1の実施形態の変形例に係る車両制御システムの機能構成の一例を示す機能ブロック図である。 第2の実施形態に係る車両制御システムの機能構成の一例を示す機能ブロック図である。 第2の実施形態に係る車両制御システムが行う処理の流れの一例を示すフローチャートである。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.第1の実施形態
   1-1.ADASの概要
   1-2.車両制御システムの概要
   1-3.第1のデータ及び第2のデータの説明
   1-4.第1のデータ及び第2のデータの比較の説明
   1-5.補正データの説明
   1-6.一過性のセンサの精度低下への対応
   1-7.RSUのハードウエア構成
   1-8.車両のハードウエア構成
   1-9.車両制御システムの機能構成
   1-10.車両制御システムが行う処理の流れ
   1-11.第1の実施形態の効果
  2.第1の実施形態の変形例
   2-1.車両制御システムの機能構成
   2-2.第1の実施形態の変形例の効果
  3.第2の実施形態
   3-1.車両制御システムの機能構成
   3-2.車両制御システムが行う処理の流れ
   3-3.第2の実施形態の効果
(1.第1の実施形態)
 本開示の実施形態を説明する前に、実施形態を実現するために必要な前提事項を説明する。
[1-1.ADASの概要]
 人の運転を補助するADAS(Advanced Driver Assistance Systems:先進運転支援システム)や、人の介入なしに車両の自動運転を行うシステムの開発が進んでいる。これらのシステムを実現するために、車両には様々なセンサが搭載される。
 ADASの例として、ACC(Adaptive Cruise Control System)、LKA(Lane Keeping Assist System)、FCW(Forward Collision Warning)、TSR(Traffic Sign Recognition)等のシステムが知られている。
 ACCは、先行車両との車間距離を一定に保ちながら、追従走行を行う機能である。車両は、センサが検出した車間距離を一定に保つように、車両のアクセルとブレーキを制御する。
 LKAは、道路上の車線を検知し、車両が車線の逸脱を予測するとドライバーに警告をする機能である。
 FCWは、車間距離が近い場合や、先行車両が急ブレーキを踏んだ場合のように、衝突の危険性が高まった場合に、ドライバーに警報や回避操作を促す機能である。
 TSRは、一時停止、進入禁止、制限速度等の交通標識をカメラが撮影した画像データから認識し、ドライバーに対して適切な交通規制情報を提供する機能である。
 これらの機能を実現するために、車両は、自車両と周囲の車両との車間距離や、位置関係や、相対速度等を計測する必要がある。そのため、車両は、ミリ波レーダやLiDAR(Light Detection and Ranging)、カメラ等のセンサを備える。
[1-2.車両制御システムの概要]
 次に、図1を用いて、第1の実施形態である車両制御システム5aの概要を説明する。図1は、第1の実施形態に係る車両制御システムの概要を示す図である。車両制御システム5aは、RSU(Road Side Unit:路側機)10aと、当該RSU10aの近傍領域にある道路R上の車両V(Va,Vb,Vc,…)とで構成される。RSU10aは、道路Rの路側帯に設置されて、近傍の限定された範囲内にある車両との間で、双方向の無線通信を行う。なお、車両制御システム5aは本開示における情報処理システムの一例である。また、RSU10aは本開示における情報処理装置の一例である。
 ADASが搭載された車両は、自身が有するセンサによって、周囲の車両や物体との位置関係を把握しながら、車両の制御を行う。しかし、センサの精度が悪化すると、的確な車両制御を継続するのが困難になるという問題があった。
 RSU10aは、道路Rの路肩等、交通の妨げにならない位置に設置される。また、RSU10aは、予め決められた、道路Rの所定の領域に設置される。RSU10aは、当該RSU10aの近傍領域にある車両V(Va,Vb,Vc,…)との間で、例えばDSRC(Dedicated Short Range Communications)による双方向無線通信を行う。
 RSU10aは、車両Vから、車両Vに搭載されたセンサ(以下、車載センサと呼ぶ)が得た、車両Vと当該車両Vの周囲に存在する物体との位置関係に係る第1のデータD1を取得する。ここで、物体とは、例えば、車両Vaを基準とした場合、車両Vaの周囲に存在する他の車両Vb,Vc,…や、道路R上の落下物O及び距離マーカM(M1,M2,M3,…)等である。なお、車載センサは、本開示における第1のセンサ部の一例である。
 RSU10aの近傍には、道路Rの路肩に沿って複数の距離マーカMが設置される。距離マーカMは、50m,100m等の予め決められた間隔で設置された板状の目印で、車間距離の目安を示す。距離マーカMには、例えば図2に示す、ALVARコードと呼ばれる二次元の特徴コードが描かれている。ALVARコードは、二次元バーコードの一種であり、例えば、当該ALVARコードが置かれた位置の位置情報が記録されている。車両Vが備える車載センサの一例である例えばカメラは、このALVARコードを読み取ることによって、当該ALVARコードが設置された位置情報を検出する。なお、車両Vに搭載された車載センサによって検出可能であれば、距離マーカMの形態は、図2の形態に限定されるものではなく、例えば文字標識であってもよい。また、車両から認識しやすいように、距離マーカMは自発光式であってもよい。
 RSU10aは、車両Vが得た、車両Vと他の車両との位置関係を表す情報(車両Vとの相対位置関係や車間距離等)や、車両Vと道路上の落下物Oや距離マーカM等の物体との位置関係を表す情報(車両Vとの相対位置関係や各物体までの距離等)、及びそれらの情報の取得時刻を、第1のデータD1として取得する。
 また、RSU10aは、道路Rの上方に設置されて、RSU10aが無線通信可能な範囲を漏れなく観測するカメラC(Ca,Cb,Cc)を備える。なお、カメラCの設置台数は問わない。RSU10aは、カメラCが観測した画像を取得して、当該画像を解析することによって、道路R上に存在する物体の位置関係に係る第2のデータD2を取得する。なお、第2のデータD2は、前記した第1のデータD1と比較可能な、同じ内容を表すデータである。また、第2のデータD2は、昼夜天候等を問わず、常に安定した測定結果を示すものとする。なお、カメラCは、本開示における第2のセンサ部の一例である。また、RSU10aは、道路R上に存在する物体の位置関係に係る第2のデータD2を取得可能であれば、カメラCに代わる別のセンサを備えてもよく、例えばミリ波レーダ、LiDAR又はそれらのうちの2以上であってもよい。その場合、ミリ波レーダ、LiDARは車載用途のものに限定されず、例えば、より大規模な計測用のものであってもよい。カメラの場合、夜間のように視認性が低い環境においては第2のデータD2の取得が困難であるが、LiDARやミリ波レーダにおいては、そのような環境であっても第2のデータD2が取得可能である。また、赤外線カメラのようなその他のセンサをさらに補完的に用いてもよい。また、RSU10aと、車両Vとが同一種類のセンサを備える場合、比較されるデータは同一種類のセンサから取得されたデータであることが好ましい。
 RSU10aは、同じ時刻に得た第1のデータD1と第2のデータD2とを比較する。車両Vに搭載されたセンサが正常に動作していれば、第1のデータD1と第2のデータD2とは一致する。しかし、車両Vに搭載されたセンサの精度が、何らかの原因で低下した場合、第1のデータD1と第2のデータD2とは一致しない。
 RSU10aは、第1のデータD1と第2のデータD2との乖離が所定値よりも大きい場合に、該当する車両に搭載されたセンサの出力を補正する補正データDc(図5参照)を生成する。
 そして、RSU10aは、生成した補正データDcを、車両Vに送信する。車両Vは、受信した補正データDcを用いて、センサの計測結果を補正して、ADASシステムの制御に利用する。
 なお、RSU10aは、遠隔にあるサーバ装置20aと有線通信又は無線通信によって接続されて、サーバ装置20aからRSU10aの制御に必要なプログラム等を取得する。また、RSU10aは、自身が実行した処理内容をサーバ装置20aに送信して保存する。
[1-3.第1のデータ及び第2のデータの説明]
 第1のデータD1及び第2のデータD2の具体的な内容を説明する。図3は、第1のデータの一例を示す図である。特に、図3は、RSU10aが、車両Vaから取得した第1のデータD1の一例を示す。また、図4は、第2のデータの一例を示す図である。
 図3に示すように、第1のデータD1は、車両ID11と、取得時刻12と、自車位置13と、物体情報14と、距離マーカ情報15とを含む。
 車両ID11は、第1のデータD1を送信した車両Vを一意に特定する、各車両Vに予め割り当てられた識別番号である。
 取得時刻12は、車両Vが、各種情報を得た時刻である。なお、取得時刻は、車両Vが備えるGPS受信機44(図7参照)から得た時刻である。
 自車位置13は、取得時刻12が示す時刻における車両Vの位置座標である。なお、位置座標は、例えば、GPS受信機44によって測位された車両Vの位置を表す。自車位置13は、図3に示すように3次元座標(X,Y,Z)の形式で表してもよいし、緯度経度の形式で表してもよい。
 物体情報14は、車両Vが検出した周辺物体に係る情報である。物体情報14は、相対位置14aと車両Vとの距離14bとを含む。
 相対位置14aは、車両Vから見た周辺物体の相対座標を示す。相対座標は、例えば、各車両Vの自車位置を原点とするXYZ座標系で表される。
 車両との距離14bは、車両Vから周辺物体までの距離を示す。
 なお、相対位置14a及び車両との距離14bがともに得られるかは、車両Vが搭載するセンサの種類に依存する。例えば、車両Vが周辺物体を検出するセンサとしてカメラのみを備える場合は、相対位置14aのみを得ることができる。また、車両Vがミリ波レーダのみを備える場合は、車両との距離14bのみを得ることができる。また、車両Vがカメラとミリ波レーダをともに備える場合、又はLiDARを備える場合は、相対位置14a及び車両との距離14bをともに得ることができる。
 距離マーカ情報15は、車両Vが検出した距離マーカMに係る情報である。距離マーカ情報15は、相対位置15aと車両との距離15bとを含む。
 相対位置15aは、車両Vから見た距離マーカMの相対座標を示す。相対座標は、例えば、各車両Vの自車位置を原点とするXYZ座標系で表される。
 車両との距離15bは、車両Vから距離マーカMまでの距離を示す。なお、相対位置15aと車両との距離15bとがともに得られるかは、前記したように、車両Vが搭載するセンサの種類に依存する。
 また、図4に示すように、第2のデータD2は、取得時刻16と、物体情報17と、距離マーカ情報18とを含む。なお、第2のデータD2は、少なくとも距離マーカ情報18を含めばよい。
 取得時刻16は、カメラCが画像を撮像した時刻である。なお、取得時刻16は、RSU10aが備えるGPS受信機27(図6参照)から得た時刻である。なお、カメラC(Ca,Cb,Cc)は、同時に撮像を行うものとする。
 物体情報17は、カメラCが撮像した画像に基づいて、RSU10aが検出した、道路R上の物体(車両V,道路上の落下物O等)に係る情報である。物体情報17は、位置座標(x,y,z)で表される。なお、座標系xyzは、RSU10aが設定した座標系である。
 距離マーカ情報18は、カメラCが撮像した画像に基づいて、RSU10aが検出した、距離マーカMの位置を示す情報である。距離マーカMは、一度設置すればその位置は移動しないため、繰り返して検出する必要はないが、悪天候等の外乱が発生した場合や交通事故の発生等によって、その設置位置が移動した場合や距離マーカMが破損した場合には、これらの距離マーカMは使用しない等の施策をとる必要がある。したがって、本実施形態では、距離マーカMの位置が変動していないことを確認するために、距離マーカ情報18を検出する。距離マーカ情報18は、位置座標(x,y,z)で表される。なお、座標系xyzは、RSU10aが設定した座標系である。
[1-4.第1のデータ及び第2のデータの比較の説明]
 RSU10aは、第2のデータD2を、所定時間間隔(例えばビデオレート)で逐次取得する。そして、RSU10aは、取得された第2のデータD2の中から、第1のデータD1の取得時刻12と等しい時刻に取得された第2のデータD2を選択する。
 そして、RSU10aは、第1のデータD1が示す車両Vの自車位置13と、周辺物体の相対位置14aと、距離マーカMの相対位置15aと、を第2のデータD2が示す座標系xyzに変換することによって、第1のデータD1が示す各物体が、第2のデータD2のどの物体に対応するかを求める。また、RSU10aは、第1のデータD1における距離マーカMの相対位置15aと第2のデータD2における距離マーカ情報18との対応関係を求める。
 このようにして、RSU10aは、第1のデータD1が示す特定の車両Vと周辺物体及び距離マーカMとの位置関係を、第2のデータD2が示す情報と比較する。そして、第1のデータD1が示す情報、すなわち、車両Vが検出した、車両Vと周辺物体との位置関係と、第2のデータD2が示す情報、すなわち、RSU10aが検出した、車両Vと周辺物体との位置関係との間に乖離があるかを判断する。
 その際、比較する情報は任意に決めてよいが、少なくとも、固定した位置情報である距離マーカMに関する情報については、必ず比較を行う。すなわち、第1のデータD1における、各距離マーカMと車両Vとの距離15bに基づいて算出される、異なる距離マーカMの距離(例えば、距離マーカM1と距離マーカM2の距離、距離マーカM2と距離マーカM3の距離)を、第2のデータD2における異なる距離マーカMの距離と比較する。
 比較によって、第1のデータD1と第2のデータD2との間に乖離がない場合は、車両Vに搭載された車載センサは正常に動作していると判断される。一方、第1のデータD1と第2のデータD2との間に乖離がある場合は、車両Vの車載センサの精度が悪化していると判断される。
[1-5.補正データの説明]
 第1のデータD1と第2のデータD2との間に乖離がある場合、RSU10aは、車両Vに搭載されたセンサの計測結果を、第2のデータD2と一致する計測結果が得られるように補正する、補正データDcを生成する。
 センサがミリ波レーダやLiDARの場合、補正データDcは、対象物体までの距離に対する補正量を表すデータである。
 図5は、補正データの一例を示す図である。図5に示す補正データDcは、RSU10aが、第1のデータD1と第2のデータD2が示す同じ車両Vに対するデータ(測距値)を比較することによって得たデータである。図5は、ミリ波レーダで計測した対象物体までの距離dがd4以上になると、実際の距離よりも近い距離が検出されることがわかった場合に、距離dがd4以上である場合は、計測された距離dに対してプラス側の補正をかけることを示している。
 また、センサがカメラの場合、補正データDcは、撮像された画像の中から対象物体を認識する際の閾値の補正量を表すデータである。ここでいう閾値とは、例えば、画像の中から車両や物体を検出する際の明るさの閾値や、物体の輪郭を表すエッジ検出を行う際の閾値等である。
[1-6.一過性のセンサの精度低下への対応]
 道路環境や悪天候時、夜間等において、車載センサの精度が一時的に悪化する場合がある。例えば、ミリ波レーダを搭載した車両において、道路の曲率が大きい箇所で先行車を見失う場合がある。これは、先行車が測距範囲から逸脱することによって起こる現象である。このような場合、車載センサ自身は正常に動作しているため、センサの補正を行う必要はない。
 本実施形態のRSU10aは、周囲に近接して存在する複数の車両Vから取得した第1のデータD1に基づいて、補正データDcを生成する。すなわち、前記した現象が発生する場合は、近接する別の車両Vでも同じ現象が発生する可能性が高い。したがって、RSU10aは、複数の車両Vから取得した第1のデータD1が同様の傾向を示すかを確認した上で、各車両Vの補正データDcの作成の必要性を判断する。なお、このとき、同じ方向に向かって走行している車両V同士の第1のデータD1を比較するのが望ましい。
 そして、RSU10aは、複数の車両Vにおいて同様の現象が発生している場合は、補正データDcを作成しない。一方、特定の車両Vのみでセンサの精度の低下が認められる場合には、当該車両Vに対して補正データDcを作成する。
 なお、センサの精度が一時的に悪化する場面は、前記した以外に、逆光時に、車両Vのカメラが周辺物体を認識できなくなる場合や、豪雨時に、車両Vのカメラが周辺物体を認識できなくなる場合等で発生する。いずれも場合も、車両Vに近接する別の車両Vでも同じ現象が生じる可能性が高い。したがって、RSU10aは、複数の車両Vから取得した第1のデータD1に基づいて、補正データDcの作成を行うか否かを判断する。
[1-7.RSUのハードウエア構成]
 図6を用いて、本実施形態に係るRSU10aのハードウエア構成を説明する。図6は、第1の実施形態に係るRSUのハードウエア構成の一例を示すハードウエアブロック図である。RSU10aは、制御部22と、記憶部23と、周辺機器コントローラ24と、通信コントローラ25とを内部バス26で互いに接続した構成を有する。
 制御部22は、RSU10aが備える各種機能を実現する、コンピュータの構成を備える演算処理部である。制御部22は、CPU(Central Processing Unit)22aと、ROM(Read Only Memory)22bと、RAM(Random Access Memory)22cとを備える。
 CPU22aは、記憶部23やROM22bに格納されている制御プログラムP1をRAM22c上に展開して実行することによって、RSU10a全体の動作を制御する。なお、制御プログラムP1は、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供してもよい。また、RSU10aは、一連の処理の全て、又は一部をハードウエアによって実行してもよい。
 記憶部23は、HDD(Hard Disk Drive)やフラッシュメモリ等により構成されて、CPU22aが実行する制御プログラムP1等の情報を記憶する。
 周辺機器コントローラ24は、接続されたカメラC(第2のセンサ部51)とGPS受信機27の動作を制御する。
 第2のセンサ部51の一例であるカメラC(Ca,Cb,Cc)は、前記したように、道路R上を観測した画像を取得する。
 GPS受信機27は、GPS(Global Positioning System)衛星から送信された電波を受信することによって、当該GPS受信機27の位置(緯度経度)を測位する。また、GPS受信機27は、時刻の計時を行う。
 通信コントローラ25は、RSU10aと車両V(Va,Vb,Vc,…)とを接続する。また、通信コントローラ25は、RSU10aとサーバ装置20aとを接続する。
[1-8.車両のハードウエア構成]
 図7を用いて、車両Vのうち、本実施形態のRSU10aと関わりのある部分のハードウエア構成を説明する。図7は、車両のハードウエア構成の一例を示すハードウエアブロック図である。車両V(Va,Vb,Vc,…)は、制御部32と、記憶部33と、周辺機器コントローラ34と、通信コントローラ35とを内部バス36で互いに接続した構成を有する。
 制御部32は、RSU10aと情報のやり取りを行うことによって各種機能を実現する、コンピュータの構成を備える演算処理部である。制御部32は、CPU(Central Processing Unit)32aと、ROM(Read Only Memory)32bと、RAM(Random Access Memory)32cとを備える。
 車両Vは、記憶部33やROM32bに格納されている制御プログラムP2をRAM32c上に展開して実行することによって、車両V全体の動作を制御する。なお、制御プログラムP2は、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供してもよい。また、車両Vは、一連の処理の全て、又は一部をハードウエアによって実行してもよい。
 記憶部33は、HDD(Hard Disk Drive)やフラッシュメモリ等により構成されて、CPU32aが実行する制御プログラムP2と、RSU10aから受信した補正データDcと、車載センサの確認及び補正が可能な領域の場所を示す補正判断領域データDd等を記憶する。
 周辺機器コントローラ34は、車載センサ(第1のセンサ部59)の一例であるミリ波レーダ40と、LiDAR41と、カメラ42と、車両VとRSU10aとの通信内容や補正データDcの適用状態等を必要に応じて表示する液晶ディスプレイ等の表示デバイス43と、GPS受信機44と接続される。周辺機器コントローラ34は、これらの周辺機器の動作を制御する。
 通信コントローラ35は、車両V(Va,Vb,Vc,…)とRSU10aとを接続する。
[1-9.車両制御システムの機能構成]
 次に、図8を用いて、RSU10aと車両Vとで構成される車両制御システム5aの機能構成を説明する。図8は、第1の実施形態に係る車両制御システムの機能構成の一例を示す機能ブロック図である。
 RSU10aは、車両情報受信部50と、第2のセンサ部51と、物体検出部52と、情報比較部53と、補正情報生成部54と、情報送信部56と、通信制御部57と、GPS信号分析部58とを備える。
 車両情報受信部50は、車両Vに搭載された第1のセンサ部59、すなわち車載センサ(ミリ波レーダ40、LiDAR41、カメラ42)が得た、車両Vと車両Vの周囲に存在する物体との位置関係に係る第1のデータD1を、当該第1のデータD1を得た時刻とともに取得する。なお、車両情報受信部50は、本開示における第1の取得部の一例である。
 第2のセンサ部51は、道路R上に存在する物体の位置関係に係る第2のデータD2を得る。第2のセンサ部51は、例えばカメラC(Ca,Cb,Cc)である。
 物体検出部52は、道路上に存在する物体の位置関係に係る第2のデータD2を、当該第2のデータD2を得た時刻とともに取得する。なお、物体検出部52は、本開示における第2の取得部の一例である。
 情報比較部53は、同じ時刻に得た第1のデータD1と第2のデータD2とを比較することによって、第1のデータD1と第2のデータD2との乖離の大きさを算出する。なお、情報比較部53は、本開示における比較部の一例である。
 補正情報生成部54は、情報比較部53による比較結果に基づいて、車両Vの車載センサの出力を補正する補正データDcを生成する。なお、補正情報生成部54は、情報比較部53が算出した、複数の車両Vから取得した第1のデータD1と第2のデータD2との乖離の大きさが、全て所定値よりも大きい場合に、複数の車両Vに対して、補正データDcを生成しない。
 情報送信部56は、補正データDcを車両Vに送信する。
 通信制御部57は、RSU10aと車両Vとの間の通信を制御する。また、通信制御部57は、RSU10aとサーバ装置20a(図6参照)との間の通信を制御する。
 GPS信号分析部58は、GPS受信機27が受信したGPS信号の内容を分析して、第1のデータD1を取得した時刻を取得する。なお、GPS信号分析部58が取得した時刻は、車両Vが第2のデータD2を取得した時刻と同期をとる際に参照される。
 また、車両Vは、第1のセンサ部59と、情報送信部60と、物体検出部61と、車両制御部62と、現在位置検出部63と、機能制限処理部64と、センサ情報補正部65と、情報受信部66と、通信制御部67と、GPS信号分析部68とを備える。
 第1のセンサ部59(車載センサ)は、車両Vと車両Vの周囲に存在する物体との位置関係に係る第1のデータD1を検出する。なお、第1のセンサ部59は、例えば、ミリ波レーダ40、LiDAR41、カメラ42等である。
 情報送信部60は、車両Vに搭載された第1のセンサ部59(車載センサ)が得た、車両Vと車両Vの周囲に存在する物体との位置関係に係る第1のデータD1を、当該第1のデータD1を得た時刻とともにRSU10aに送信する。
 物体検出部61は、車載センサの計測結果に基づいて、路面に存在する物体及び距離マーカMを検出する。
 車両制御部62は、車載センサの計測結果に基づいて、車両Vの各種走行制御を行う。
 現在位置検出部63は、GPS受信機44が受信したGPS信号の内容に基づいて、車両Vの現在位置を検出する。
 機能制限処理部64は、第1のデータD1と第2のデータD2との乖離が所定値よりも大きい場合に、車両Vの、第1のデータD1の取得に関連する車載センサの使用を禁止させる等の制限を課す。なお、車両Vの制御機能の実行を禁止した場合に、RSU10aは、車両Vに対して、直近の退避エリアまでの経路案内情報を送信してもよい。
 センサ情報補正部65は、補正データDcに基づいて、車載センサの入出力特性を補正する(図5参照)。
 情報受信部66は、RSU10aが送信した補正データDcを受信する。
 通信制御部67は、車両VとRSU10aとの通信を制御する。
 GPS信号分析部68は、GPS受信機44が受信したGPS信号の内容を分析して、車両Vの現在位置及び時刻を取得する。なお、GPS信号分析部68が取得した時刻は、RSU10aが第1のデータD1を取得した時刻と同期をとる際に参照される。
[1-10.車両制御システムが行う処理の流れ]
 次に、図9を用いて、車両制御システム5a、すなわちRSU10a及び車両Vが行う処理の流れを説明する。図9は、第1の実施形態に係る車両制御システムが行う処理の流れの一例を示すフローチャートである。
 まず、RSU10aが行う処理の流れを説明する。車両情報受信部50は、車両Vから車載センサの情報、すなわち第1のデータD1を受信したかを判定する(ステップS10)。第1のデータD1を受信したと判定される(ステップS10:Yes)とステップS11に進む。一方、第1のデータD1を受信したと判定されない(ステップS10:No)とステップS10を繰り返す。なお、車両情報受信部50は、第1のデータD1の送信元である車両Vを特定する。
 ステップS10においてYesと判定されると、RSU10aは、センサ部51の出力に基づいて物体検出部52が検出した物体情報、すなわち第2のデータD2を取得する(ステップS11)。
 情報比較部53は、第1のデータD1と第2のデータD2とを比較する(ステップS12)。
 補正情報生成部54は、情報比較部53による比較結果に基づいて、車両Vに搭載された車載センサの補正が必要か否かを判定する(ステップS13)。車載センサの補正が必要であると判定される(ステップS13:Yes)とステップS14に進む。一方、車載センサの補正が必要であると判定されない(ステップS13:No)とRSU10aは、図9の処理を終了する。
 ステップS13においてYesと判定されると、補正情報生成部54は補正データDcを生成する(ステップS14)。なお、補正に際して、車両Vの機能・権限を制限する必要がある場合は、補正情報生成部54は、その旨を示す情報も同時に生成する。
 次に、情報送信部56は、補正データDcを、第1のデータD1の送信元である車両Vに送信する(ステップS15)。その後、RSU10aは、図9の処理を終了する。なお、ステップS15において、RSU10aは車両Vに対して、機能・権限を制限することを示す情報を併せて送信してもよい。
 次に、車両Vが行う処理の流れを説明する。まず、現在位置検出部63は、GPS受信機44が受信したGPS信号を分析することによって、車両Vが、RSU10aの近傍、すなわち補正判断領域にいるかを判定する(ステップS20)。補正判断領域にいると判定される(ステップS20:Yes)とステップS21に進む。一方、補正判断領域にいると判定されない(ステップS20:No)とステップS20の判定を繰り返す。
 ステップS20においてYesと判定されると、情報送信部60は、物体検出部61が検出した、路面に存在する物体及び距離マーカMに係るセンサ情報(第1のデータD1)をRSU10aに送信する(ステップS21)。
 情報受信部66は、RSU10aから補正データDcを受信したかを判定する(ステップS22)。RSU10aから補正データDcを受信したと判定される(ステップS22:Yes)とステップS23に進む。一方、RSU10aから補正データDcを受信したと判定されない(ステップS22:No)とステップS22の判定を繰り返す。
 ステップS22においてYesと判定されると、センサ情報補正部65は、補正データDcに基づいて、車載センサの入出力特性を補正する(ステップS23)。なお、ステップS23において、補正データDcを適用した場合には、その旨を車両Vのモニタ等に表示するのが望ましい。
 機能制限処理部64は、必要に応じて、車両Vの制御機能の一部の実行を禁止する等の機能・権限制限処理を行う(ステップS24)。
 さらに、機能制限処理部64は、車両Vが自動運転可能であるかを判定する(ステップS25)。車両Vが自動運転可能であると判定される(ステップS25:Yes)とステップS26に進む。一方、車両Vが自動運転可能であると判定されない(ステップS25:No)とステップS27に進む。
 ステップS25においてYesと判定されると、車両制御部62は、車両Vに自動運転を実行させる。その後、車両Vは、図9の処理を終了する。
 一方、ステップS25においてNoと判定されると、機能制限処理部64は、車両Vを手動運転に切り替えるべきかを判定する(ステップS27)。手動運転に切り替えるべきと判定される(ステップS27:Yes)とステップS28に進む。一方、手動運転に切り替えるべきと判定されない(ステップS27:No)とステップS29に進む。なお、機能制限処理部64は、第1のデータD1と第2のデータD2との乖離度合に基づいて、車両Vが自動運転を継続可能か、手動運転に切り替えるべきか、車載センサによる運転支援を継続可能か、を判定する。
 ステップS27においてYesと判定されると、車両制御部62は、車両Vを手動運転に切り替える(ステップS28)。その後、車両Vは、図9の処理を終了する。
 また、ステップS27においてNoと判定されると、車両制御部62は、車両Vに車載センサによる運転支援を実行させる(ステップS29)。その後、車両Vは、図9の処理を終了する。
 なお、第1の実施形態において、RSU10aはカメラC(センサ部51)を備えて、道路R上の物体の位置を検出したが、距離マーカMの位置は不変であるとして、当該距離マーカMの設置位置をデータベースに登録し、当該データベースを参照することによって、異なる距離マーカM間の距離を算出する構成としてもよい。
[1-11.第1の実施形態の効果]
 以上説明したように、第1の実施形態の車両制御システム5a(情報処理システム)は、情報比較部53(比較部)が、車両情報受信部50(第1の取得部)が車両Vに搭載された、当該車両Vの走行制御に係る情報を得る第1のセンサ部59(車載センサ(ミリ波レーダ40、LiDAR41、カメラ42))から得た、車両Vと当該車両Vの周囲に存在する物体との位置関係に係る第1のデータD1と、物体検出部52(第2の取得部)が得た、道路R上に存在する物体の位置関係に係る第2のデータD2とを比較する。そして、補正情報生成部54が、情報比較部53による比較結果に基づいて、センサの出力を補正する補正データDcを生成する。情報送信部56(送信部)は、補正データDcを車両Vに送信する。
 これにより、車両Vの車載センサの精度が悪化した場合には、補正データDcに基づいて車載センサの出力が補正されるため、車載センサの精度の悪化を防止することができる。これによって、車両Vの走行制御を継続することができる。
 また、第1の実施形態の車両制御システム5a(情報処理システム)は、第2のデータD2を得るカメラC(第2のセンサ部51)を更に備える。
 これにより、RSU10aには、車両Vが備える車載センサよりも高精度・高安定なセンサを設置することができるため、車両Vと当該車両Vの周囲に存在する物体との位置関係に係る正確な情報を取得することができる。
 また、第1の実施形態の車両制御システム5a(情報処理システム)において、情報比較部53(比較部)は、道路Rの近傍に設置された路側機(RSU10a)に備えられて、第2のデータD2と第1のデータD1との乖離の大きさを算出する。
 これにより、第2のデータD2と第1のデータD1とを、容易且つ確実に比較することができる。
 また、第1の実施形態の車両制御システム5a(情報処理システム)において、情報比較部53(比較部)は、同じ時刻に得た第1のデータD1と第2のデータD2とを比較する。
 これにより、互いに同じ時刻に得た第2のデータD2を用いて、第1のデータD1を補正することができる。
 また、第1の実施形態の車両制御システム5a(情報処理システム)において、補正情報生成部54は、道路Rの近傍に設置された路側機(RSU10a)に備えられて、情報比較部53(比較部)が算出した、複数の車両Vから取得した第1のデータD1と第2のデータD2との乖離の大きさが、全て所定値よりも大きい場合に、複数の車両Vに対して、補正データDcを生成しない。
 これにより、天候等の要因によって、一時的に車載センサの精度が悪化した場合に、誤ってセンサを補正してしまうことを防止できる。
 また、第1の実施形態の車両制御システム5a(情報処理システム)において、車両Vは、第1のセンサ部59の使用を制限させる情報に基づいて、第1のセンサ部59の使用を制限させる機能制限処理部64を更に備える。
 これにより、第1のデータD1と第2のデータD2との乖離が大きい場合に、例えば、車両Vに対して、自動運転を実行させない等の機能制限を行うことができる。
 また、第1の実施形態の車両制御システム5a(情報処理システム)は、第1のデータD1の取得時刻と、第2のデータD2の取得時刻と、をGPS受信機27,44から得た時刻によって同期させる。
 これにより、同じ時刻に取得された第1のデータD1と第2のデータD2とを比較することができる。
 また、第1の実施形態の車両制御システム5a(情報処理システム)は、道路Rの所定の領域(補正判断領域)において、第1のデータD1と第2のデータD2とを取得する。
 これにより、RSU10aの設置性が高い場所を、補正判断領域とすることができる。
 また、第1の実施形態の車両制御システム5a(情報処理システム)において、物体は道路Rに設置された距離マーカM(マーカ)であって、第1のデータD1及び第2のデータD2は、車両Vと距離マーカMとの距離である。
 これにより、車両Vの周囲に別の車両が存在しない場合であっても、車両Vと距離マーカMとの位置関係に基づいて、車両Vの車載センサの精度を評価することができる。
 また、第1の実施形態のRSU10a(情報処理装置)は、情報比較部53(比較部)が、車両情報受信部50(第1の取得部)が車両Vに搭載された、当該車両Vの走行制御に係る情報を得る車載センサ(ミリ波レーダ40、LiDAR41、カメラ42)から得た、車両Vと当該車両Vの周囲に存在する物体との位置関係に係る第1のデータD1と、物体検出部52(第2の取得部)が得た、道路R上に存在する物体の位置関係に係る第2のデータD2とを、それぞれの得られた時刻に基づいて比較する。そして、補正情報生成部54が、情報比較部53による比較結果に基づいて、センサの出力を補正する補正データDcを生成して、情報送信部56(送信部)が、補正データDcを車両Vに送信する。
 これにより、車両Vの第1のセンサ部59(車載センサ)の精度が悪化した場合には、補正データDcに基づいて第1のセンサ部59の出力が補正されるため、第1のセンサ部59の精度の悪化を防止することができる。これによって、車両Vの走行制御を継続することができる。
(2.第1の実施形態の変形例)
 次に、第1の実施形態の変形例を説明する。第1の実施形態の変形例は、第1の実施形態においてRSU10aが行っていた機能の一部を、サーバ装置20bに担当させることによって、車両制御システム5bを構成した例である。すなわち、車両制御システム5bは、サーバ装置20bと、RSU10bと、車両Vとで構成される。なお、車両制御システム5bは、情報処理システムの一例である。また、サーバ装置20bは、本開示における情報処理装置の一例である。
[2-1.車両制御システムの機能構成]
 図10を用いて、サーバ装置20b、RSU10b及び車両Vの機能構成を説明する。図10は、第1の実施形態の変形例に係る車両制御システムの機能構成の一例を示す機能ブロック図である。
 サーバ装置20bは、車両情報受信部50と、物体検出部52と、情報比較部53と、補正情報生成部54と、情報送信部56と、通信制御部57とを備える。各部位の機能は、第1の実施形態で説明した通りであるため、説明は省略する。
 RSU10bは、センサ部51と、GPS信号分析部58と、情報中継部69とを備える。センサ部51とGPS信号分析部58は、第1の実施形態で説明した通りの機能を備えるため、説明は省略する。
 情報中継部69は、サーバ装置20bと車両Vとの間の情報の通信を中継する。すなわち、情報中継部69は、車両Vが取得した第1のデータD1を受信してサーバ装置20bに送信する。また、情報中継部69は、RSU10bが取得した第2のデータD2をサーバ装置20bに送信する。さらに、情報中継部69は、サーバ装置20bが生成した補正データDcを受信して車両Vに送信する。
 車両Vの機能構成は、第1の実施形態で説明した通り(図8参照)であるため、説明は省略する。
 車両制御システム5bが行う処理の流れは、第1の実施形態で説明した車両制御システム5aが行う処理の流れ(図9参照)を変形したものであり、基本的な処理内容は変わらないため、説明は省略する。すなわち、車両制御システム5bが行う処理の流れは、車両制御システム5aにおいてRSU10aが行う処理を、サーバ装置20bとRSU10bとが行う処理に再配分したものである。
[2-2.第1の実施形態の変形例の効果]
 以上説明したように、第1の実施形態の変形例の車両制御システム5a(情報処理システム)は、RSU10b(路側機)と通信可能に接続されたサーバ装置20bを備えて、当該サーバ装置20bは、車両情報受信部50(第1の取得部)と、物体検出部52(第2の取得部)と、情報比較部53(比較部)と、補正情報生成部54と、情報送信部56(送信部)と、を備える。
 これにより、第1の実施形態で説明した個々のRSU10aが備える処理機能を、サーバ装置10bに持たせることができるため、RSU10bの処理の負荷を軽減することができる。すなわち、RSU10bを安価に設置することができるため、同じ費用でより多くのRSU10bを設置することができる。
(3.第2の実施形態)
 次に、本開示の第2の実施形態について説明する。第1の実施形態においてRSU10aが生成した補正データDcを車両Vに適用する場合には、本当に適用してよいかの確認を行うのが望ましい。第2の実施形態は、補正データDcを車両Vに適用する際に、適用の可否を判断する判断機能を備えるものである。
[3-1.車両制御システムの機能構成]
 図11を用いて、RSU10c及び車両Vの機能構成を説明する。図11は、第2の実施形態である車両制御システムの機能構成の一例を示す機能ブロック図である。なお、第2の実施形態で説明する車両制御システム5cは、車両制御システム5a(図8参照)をベースに構成したものである。もちろん、車両制御システム5b(図10参照)をベースにして、車両制御システム5cを構成してもよい。
 第2の実施形態であるRSU10cは、第1の実施形態であるRSU10aの構成に、補正情報適用判断部55を追加した構成を有する。
 補正情報適用判断部55は、情報比較部53による比較結果に基づいて、補正データDcの車両Vへの適用の可否を判断する。なお、補正情報適用判断部55は、本開示における適用判断部の一例である。
 補正情報適用判断部55は、補正データDcを生成して車両Vに送信した後、次以降のRSU10cの存在位置(すなわち補正判断領域)において、補正データDcの適用判断を行う。なお、RSU10cは、所定の間隔を隔てて、複数設置されているものとする。具体的には、車両Vは、補正データDcを適用した際に得られる第1のデータD1をRSU10cに送信する。そして、補正情報適用判断部55は、第1のデータD1とRSU10cが得た第2のデータD2との比較結果に基づいて、補正データDcの適用判断を行う。
 補正情報適用判断部55は、補正データDcを適用すると判断した場合に、その旨を車両Vに伝達する。車両Vは、補正データDcを適用する旨の情報を受信した場合に、補正を有効にして、以後補正データDcを適用する。
 また、補正情報適用判断部55は、補正データDcを適用しないと判断した場合に、その旨を車両Vに伝達する。車両Vは、補正データDcを適用しない旨の情報を受信した場合に、車載センサの補正を無効にする。なお、補正データDcが適用されていること、又は補正データDcが適用されていないことは、車両Vが備える表示デバイス43に表示することによって、車両Vの運転者に報知する。
 なお、補正情報適用判断部55は、補正データDcを車両Vに適用できないと判断した場合に、情報送信部56に、車両Vに対して、車載センサの使用を禁止させる情報を送信してもよい。
[3-2.車両制御システムが行う処理の流れ]
 次に、図12を用いて、車両制御システム5c、すなわちRSU10c及び車両Vが行う処理の流れを説明する。図12は、第2の実施形態に係る車両制御システムが行う処理の流れの一例を示すフローチャートである。
 まず、RSU10cが行う処理の流れを説明する。図12のステップS30からステップS35で行う処理は、図9で説明したRSU10aが、ステップS10からステップS15で行う処理と同じ内容であるため、説明は省略する。
 その後、別の補正判断領域において、車両情報受信部50は、車両Vから車載センサの情報、すなわち第1のデータD1を受信したかを判定する(ステップS36)。第1のデータD1を受信したと判定される(ステップS36:Yes)とステップS37に進む。一方、第1のデータD1を受信したと判定されない(ステップS36:No)とステップS36を繰り返す。なお、車両情報受信部50は、第1のデータD1の送信元である車両Vを特定する。
 ステップS36においてYesと判定されると、RSU10cは、センサ部51の出力に基づいて物体検出部52が検出した物体情報、すなわち第2のデータD2を取得する(ステップS37)。
 情報比較部53は、第1のデータD1と第2のデータD2とを比較する(ステップS38)。
 補正情報生成部54は、情報比較部53による比較結果に基づいて、車両Vに搭載された車載センサの補正が必要か否かを判定する(ステップS39)。車載センサの補正が必要であると判定される(ステップS39:Yes)とステップS40に進む。一方、車載センサの補正が必要であると判定されない(ステップS39:No)とステップS41に進む。
 ステップS39においてYesと判定されると、補正情報適用判断部55は、車両Vに対して、補正データDcの取り下げを指示する(ステップS40)。具体的には、情報送信部56が、補正データDcを取り下げる旨を車両Vに送信する。その後、RSU10cは、図12の処理を終了する。なお、補正データDcを取り下げる場合には、ステップS38において算出した第1のデータD1と第2のデータD2との乖離の大きさに基づいて、新たな補正データDcを生成してもよい。
 一方、ステップS39においてNoと判定されると、補正情報適用判断部55は、車両Vに対して、補正データDcの適用を指示する(ステップS41)。具体的には、情報送信部56が、補正データDcを適用する旨を車両Vに送信する。その後、RSU10cは、図12の処理を終了する。
 まず、車両Vが行う処理の流れを説明する。まず、現在位置検出部63は、GPS受信機44が受信したGPS信号を分析することによって、車両Vが、RSU10cの近傍、すなわち補正判断領域にいるかを判定する(ステップS50)。補正判断領域にいると判定される(ステップS50:Yes)とステップS51に進む。一方、補正判断領域にいると判定されない(ステップS50:No)とステップS50の判定を繰り返す。
 ステップS50においてYesと判定されると、情報送信部60は、物体検出部61が検出した、路面に存在する物体及び距離マーカMに係るセンサ情報(第1のデータD1)をRSU10cに送信する(ステップS51)。
 情報受信部66は、RSU10cから補正データDcを受信したかを判定する(ステップS52)。RSU10cから補正データDcを受信したと判定される(ステップS52:Yes)とステップS53に進む。一方、RSU10aから補正データDcを受信したと判定されない(ステップS52:No)とステップS52の判定を繰り返す。
 ステップS52においてYesと判定されると、センサ情報補正部65は補正データDcを記憶する(ステップS53)。
 次に、現在位置検出部63は、GPS受信機44が受信したGPS信号を分析することによって、車両Vが、ステップS50で判定した補正判断領域とは別の補正判断領域にいるかを判定する(ステップS54)。別の補正判断領域にいると判定される(ステップS54:Yes)とステップS55に進む。一方、別の補正判断領域にいると判定されない(ステップS54:No)とステップS54の判定を繰り返す。
 ステップS54においてYesと判定されると、センサ情報補正部65は、車両Vの車載センサに、補正データDcを適用する(ステップS55)。
 次に、情報送信部60は、物体検出部61が検出した、路面に存在する物体及び距離マーカMに係るセンサ情報(第1のデータD1)をRSU10cに送信する(ステップS56)。
 センサ情報補正部65は、情報受信部66がRSU10cから受信した補正データDcの適用可否に係る情報に基づいて、補正データDcを適用可能かを判定する(ステップS57)。補正データDcを適用可能と判定される(ステップS57:Yes)とステップS58に進む。一方、補正データDcを適用可能と判定されない(ステップS57:No)とステップS59に進む。
 ステップS57においてYesと判定されると、センサ情報補正部65は、補正データDcを適用する。その後、車両Vは、図12の処理を終了する。
 ステップS57においてNoと判定されると、センサ情報補正部65は、補正データDcを適用しない。その後、車両Vは、図12の処理を終了する。なお、新たな補正データDcを生成した場合は、次の補正判断領域において、図12の処理を再度実行して、新たな補正データDcの適用可否を判断してもよい。
[3-3.第2の実施形態の効果]
 以上説明したように、第2の実施形態の車両制御システム5c(情報処理システム)において、車両情報受信部50(第1の取得部)は、情報送信部56(送信部)が送信した補正データDcを車載センサ(ミリ波レーダ40、LiDAR41、カメラ42)に適用した後で、当該車載センサが得た第1のデータD1を取得する。そして、補正情報適用判断部55(適用判断部)は、情報比較部53(比較部)による比較結果に基づいて、補正データDcの車両Vへの適用の可否を判断する。そして、情報送信部56(送信部)は、補正情報適用判断部55の判断結果を車両Vに送信する。
 これにより、補正データDcを適用した際に得られる第1のデータD1に基づいて、補正データDcの適用の可否を判断するため、車載センサの補正が本当に必要な場合に限って、確実に補正を行うことができる。
 また、第2の実施形態の車両制御システム5c(情報処理システム)は、車両Vに、補正データDcを第1のセンサ部59(車載センサ)に適用するセンサ情報補正部65を備える。
 これにより、車両Vは、補正データDcを第1のセンサ部59(車載センサ)に適用することによって、車載センサの出力を補正することができる。
 また、第2の実施形態の車両制御システム5c(情報処理システム)は、補正情報適用判断部55(適用判断部)が、補正データDcを車両Vに適用できないと判断した場合に、情報送信部56(送信部)は、車両Vに対して、車載センサ(ミリ波レーダ40、LiDAR41、カメラ42)の使用を禁止させる情報を送信する。
 これにより、車載センサの精度が不安定な状態にある場合には、当該車載センサの使用を禁止させることができる。
 なお、本明細書に記載された効果は、あくまで例示であって限定されるものではなく、他の効果があってもよい。また、本開示の実施形態は、上述した実施形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 また、比較される第1のデータD1と第2のデータD2は、処理データと呼ばれる、個々のセンサそれぞれにおいてローカルで事前処理されたデータを用いてもよいし、ローデータ(未処理データ、生データ)と呼ばれる、個々のセンサそれぞれにおいてローカルでの事前処理がなされていないデータを用いてもよい。処理データを用いる場合には、ローカルにおいて事前に処理がなされノイズなどの余計な情報が省かれているため、後段の処理にかかる負担が少なく、比較的高速に処理を行うことができる。一方で、ローデータを用いる場合には、ローデータはローカルにおいて事前に何らの処理もなされていないため情報量が豊富であり、処理データを用いる場合と比較して豊富な情報量をもってデータを比較することができる。また、両データのうちのいずれかについては処理データを用いて、他の一方についてはローデータを用いるようにしてもよい。
 例えば、本開示は、以下のような構成もとることができる。
 (1)
 車両に搭載された、当該車両の走行制御に係る情報を得る第1のセンサ部が得た、当該車両と前記車両の周囲に存在する物体との位置関係に係る第1のデータを、当該第1のデータを得た時刻とともに取得する第1の取得部と、
 道路上に存在する物体の位置関係に係る第2のデータを、当該第2のデータを得た時刻とともに取得する第2の取得部と、
 前記第1のデータと前記第2のデータとを、それぞれの得られた時刻に基づいて比較する比較部と、
 前記比較部による比較結果に基づいて、前記第1のセンサ部の出力を補正する補正データを生成する補正情報生成部と、
 前記補正データを前記車両に送信する送信部と、
 を備える情報処理システム。
 (2)
 前記第2のデータを得る第2のセンサ部を更に備え、
 当該第2のセンサ部は、道路の近傍に設置された路側機(RSU)に備えられる、
 前記(1)に記載の情報処理システム。
 (3)
 前記比較部は、道路の近傍に設置された路側機(RSU)に備えられて、
 前記第1のデータと前記第2のデータとの乖離の大きさを算出する、
 前記(1)又は(2)に記載の情報処理システム。
 (4)
 前記比較部は、
 同じ時刻に得た前記第1のデータと前記第2のデータとを比較する、
 前記(1)乃至(3)のいずれか1項に記載の情報処理システム。
 (5)
 前記補正情報生成部は、道路の近傍に設置された路側機(RSU)に備えられて、
 前記比較部が算出した、複数の車両から取得した前記第1のデータと前記第2のデータとの乖離の大きさが、全て所定値よりも大きい場合に、前記複数の車両に対して、前記補正データを生成しない、
 前記(1)乃至(4)のいずれか1項に記載の情報処理システム。
 (6)
 前記第1の取得部は、前記送信部が送信した前記補正データを前記第1のセンサ部に適用した後で、当該第1のセンサ部が得た前記第1のデータを取得するとともに、
 前記比較部による比較結果に基づいて、前記補正データの前記車両への適用の可否を判断する適用判断部を更に備えて、
 前記送信部は、道路の近傍に設置された路側機(RSU)に備えられて、前記適用判断部の判断結果を前記車両に送信する、
 前記(1)乃至(5)のいずれか1項に記載の情報処理システム。
 (7)
 前記適用判断部が、前記補正データを前記車両に適用できないと判断した場合に、
 前記送信部は、前記車両に対して、前記第1のセンサ部の使用を制限させる情報を送信する、
 前記(6)に記載の情報処理システム。
 (8)
 前記補正データを前記第1のセンサ部に適用するセンサ情報補正部を更に備えて、
 当該センサ情報補正部は、前記車両に備えられる、
 前記(1)乃至(7)のいずれか1項に記載の情報処理システム。
 (9)
 前記第1のセンサ部の使用を制限させる情報に基づいて、前記第1のセンサ部の使用を制限させる機能制限処理部を更に備えて、
 当該機能制限処理部は、前記車両に備えられる、
 前記(1)乃至(8)のいずれか1項に記載の情報処理システム。
 (10)
 前記第1のデータの取得時刻と、前記第2のデータの取得時刻と、はGPS受信機から得た時刻によって同期される、
 前記(1)乃至(9)のいずれか1項に記載の情報処理システム。
 (11)
 前記情報処理システムは、
 道路の所定の領域において、前記第1のデータと前記第2のデータとを取得する、
 前記(1)乃至(10)のいずれか1項に記載の情報処理システム。
 (12)
 前記物体は道路に設置されたマーカであって、
 前記第1のデータ及び前記第2のデータは、前記車両と前記マーカとの距離である、
 前記(1)乃至(11)のいずれか1項に記載の情報処理システム。
 (13)
 前記情報処理システムは、更に、前記路側機(RSU)と通信可能に接続されたサーバ装置を備えて、
 当該サーバ装置は、前記第1の取得部と、前記第2の取得部と、前記比較部と、前記補正情報生成部と、前記送信部と、を備える、
 前記(2)乃至(12)のいずれか1項に記載の情報処理システム。
 (14)
 車両に搭載された、当該車両の走行制御に係る情報を得る第1のセンサ部が得た、前記車両と当該車両の周囲に存在する物体との位置関係に係る第1のデータを、当該第1のデータを得た時刻とともに取得する第1の取得ステップと、
 道路上に存在する物体の位置関係に係る第2のデータを、当該第2のデータを得た時刻とともに取得する第2の取得ステップと、
 前記第1のデータと前記第2のデータとを、それぞれの得られた時刻に基づいて比較する比較ステップと、
 前記比較ステップによる比較結果に基づいて、前記第1のセンサ部の出力を補正する補正データを生成する補正情報生成ステップと、
 前記補正データを前記車両に送信する送信ステップと、
 を備える情報処理方法。
 (15)
 車両に搭載された、当該車両の走行制御に係る情報を得る第1のセンサ部が得た、前記車両と当該車両の周囲に存在する物体との位置関係に係る第1のデータを、当該第1のデータを得た時刻とともに取得する第1の取得部と、
 道路上に存在する物体の位置関係に係る第2のデータを、当該第2のデータを得た時刻とともに取得する第2の取得部と、
 前記第1のデータと前記第2のデータとを、それぞれの得られた時刻に基づいて比較する比較部と、
 前記比較部による比較結果に基づいて、前記第1のセンサ部の出力を補正する補正データを生成する補正情報生成部と、
 前記補正データを前記車両に送信する送信部と、
 を備える情報処理装置。
 5a,5b,5c…車両制御システム(情報処理システム)、10a,10c…RSU(情報処理装置)、10b…RSU、20a…サーバ装置、20b…サーバ装置(情報処理装置)、50…車両情報受信部(第1の取得部)、51…第2のセンサ部、52…物体検出部(第2の取得部)、53…情報比較部(比較部)、54…補正情報生成部、55…補正情報適用判断部(適用判断部)、56…情報送信部(送信部)、59…第1のセンサ部(車載センサ)、64…機能制限処理部、C,Ca,Cb,Cc…カメラ、V,Va,Vb,Vc…車両、D1…第1のデータ、D2…第2のデータ、Dc…補正データ、M,M1,M2,M3…距離マーカ、R…道路

Claims (15)

  1.  車両に搭載された、当該車両の走行制御に係る情報を得る第1のセンサ部が得た、前記車両と当該車両の周囲に存在する物体との位置関係に係る第1のデータを、当該第1のデータを得た時刻とともに取得する第1の取得部と、
     道路上に存在する物体の位置関係に係る第2のデータを、当該第2のデータを得た時刻とともに取得する第2の取得部と、
     前記第1のデータと前記第2のデータとを、それぞれの得られた時刻に基づいて比較する比較部と、
     前記比較部による比較結果に基づいて、前記第1のセンサ部の出力を補正する補正データを生成する補正情報生成部と、
     前記補正データを前記車両に送信する送信部と、
     を備える情報処理システム。
  2.  前記第2のデータを得る第2のセンサ部を更に備え、
     当該第2のセンサ部は、道路の近傍に設置された路側機(RSU)に備えられる、
     請求項1に記載の情報処理システム。
  3.  前記比較部は、道路の近傍に設置された路側機(RSU)に備えられて、
     前記第1のデータと前記第2のデータとの乖離の大きさを算出する、
     請求項1に記載の情報処理システム。
  4.  前記比較部は、
     同じ時刻に得た前記第1のデータと前記第2のデータとを比較する、
     請求項1に記載の情報処理システム。
  5.  前記補正情報生成部は、道路の近傍に設置された路側機(RSU)に備えられて、
     前記比較部が算出した、複数の車両から取得した前記第1のデータと前記第2のデータとの乖離の大きさが、全て所定値よりも大きい場合に、前記複数の車両に対して、前記補正データを生成しない、
     請求項1に記載の情報処理システム。
  6.  前記第1の取得部は、前記送信部が送信した前記補正データを前記第1のセンサ部に適用した後で、当該第1のセンサ部が得た前記第1のデータを取得するとともに、
     前記比較部による比較結果に基づいて、前記補正データの前記車両への適用の可否を判断する適用判断部を更に備えて、
     前記送信部は、道路の近傍に設置された路側機(RSU)に備えられて、前記適用判断部の判断結果を前記車両に送信する、
     請求項1に記載の情報処理システム。
  7.  前記適用判断部が、前記補正データを前記車両に適用できないと判断した場合に、
     前記送信部は、前記車両に対して、前記第1のセンサ部の使用を制限させる情報を送信する、
     請求項6に記載の情報処理システム。
  8.  前記補正データを前記第1のセンサ部に適用するセンサ情報補正部を更に備えて、
     当該センサ情報補正部は、前記車両に備えられる、
     請求項1に記載の情報処理システム。
  9.  前記第1のセンサ部の使用を制限させる情報に基づいて、前記第1のセンサ部の使用を制限させる機能制限処理部を更に備えて、
     当該機能制限処理部は、前記車両に備えられる、
     請求項1に記載の情報処理システム。
  10.  前記第1のデータの取得時刻と、前記第2のデータの取得時刻と、はGPS受信機から得た時刻によって同期される、
     請求項1に記載の情報処理システム。
  11.  前記情報処理システムは、
     道路の所定の領域において、前記第1のデータと前記第2のデータとを取得する、
     請求項1に記載の情報処理システム。
  12.  前記物体は道路に設置されたマーカであって、
     前記第1のデータ及び前記第2のデータは、前記車両と前記マーカとの距離である、
     請求項1に記載の情報処理システム。
  13.  前記情報処理システムは、更に、前記路側機(RSU)と通信可能に接続されたサーバ装置を備えて、
     当該サーバ装置は、前記第1の取得部と、前記第2の取得部と、前記比較部と、前記補正情報生成部と、前記送信部と、を備える、
     請求項2に記載の情報処理システム。
  14.  車両に搭載された、当該車両の走行制御に係る情報を得る第1のセンサ部が得た、前記車両と当該車両の周囲に存在する物体との位置関係に係る第1のデータを、当該第1のデータを得た時刻とともに取得する第1の取得ステップと、
     道路上に存在する物体の位置関係に係る第2のデータを、当該第2のデータを得た時刻とともに取得する第2の取得ステップと、
     前記第1のデータと前記第2のデータとを、それぞれの得られた時刻に基づいて比較する比較ステップと、
     前記比較ステップによる比較結果に基づいて、前記第1のセンサ部の出力を補正する補正データを生成する補正情報生成ステップと、
     前記補正データを前記車両に送信する送信ステップと、
     を備える情報処理方法。
  15.  車両に搭載された、当該車両の走行制御に係る情報を得る第1のセンサ部が得た、前記車両と当該車両の周囲に存在する物体との位置関係に係る第1のデータを、当該第1のデータを得た時刻とともに取得する第1の取得部と、
     道路上に存在する物体の位置関係に係る第2のデータを、当該第2のデータを得た時刻とともに取得する第2の取得部と、
     前記第1のデータと前記第2のデータとを、それぞれの得られた時刻に基づいて比較する比較部と、
     前記比較部による比較結果に基づいて、前記第1のセンサ部の出力を補正する補正データを生成する補正情報生成部と、
     前記補正データを前記車両に送信する送信部と、
     を備える情報処理装置。
PCT/JP2020/037586 2019-10-11 2020-10-02 情報処理システム、情報処理装置及び情報処理方法 WO2021070750A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/765,829 US20220324488A1 (en) 2019-10-11 2020-09-01 Information processing system, information processing apparatus, and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019187757 2019-10-11
JP2019-187757 2019-10-11

Publications (1)

Publication Number Publication Date
WO2021070750A1 true WO2021070750A1 (ja) 2021-04-15

Family

ID=75436818

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/037586 WO2021070750A1 (ja) 2019-10-11 2020-10-02 情報処理システム、情報処理装置及び情報処理方法

Country Status (2)

Country Link
US (1) US20220324488A1 (ja)
WO (1) WO2021070750A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022212436A1 (de) 2021-12-03 2023-06-07 Mitsubishi Electric Corporation Autonomes-fahren-assistenzsystem

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220137626A1 (en) * 2020-11-04 2022-05-05 Canon Kabushiki Kaisha Apparatus, method, and non-transitory computer-readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246466A (ja) * 2012-05-23 2013-12-09 Denso Corp 車両用運転支援装置
WO2018146882A1 (ja) * 2017-02-08 2018-08-16 住友電気工業株式会社 情報提供システム、サーバ、移動端末、及びコンピュータプログラム
WO2018235154A1 (ja) * 2017-06-20 2018-12-27 株式会社日立製作所 走行制御システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101231534B1 (ko) * 2011-10-17 2013-02-07 현대자동차주식회사 차량간 통신을 이용한 위치보정신호 정확도 개선 방법 및 그 시스템
US8880273B1 (en) * 2013-01-16 2014-11-04 Google Inc. System and method for determining position and distance of objects using road fiducials
JP6303564B2 (ja) * 2014-02-11 2018-04-04 株式会社デンソー 位置情報校正装置、位置情報校正アプリケーションプログラム
US10154048B2 (en) * 2016-03-18 2018-12-11 Qualcomm Incorporated Methods and systems for location-based authentication using neighboring sensors
WO2017189361A1 (en) * 2016-04-29 2017-11-02 Pcms Holdings, Inc. System and method for calibration of vehicle sensors assisted by inter-vehicle communication
CN117740023A (zh) * 2017-03-01 2024-03-22 御眼视觉技术有限公司 用于利用感测不确定性导航的系统和方法
JP2018207154A (ja) * 2017-05-30 2018-12-27 住友電気工業株式会社 通信制御装置、通信制御方法、及びコンピュータプログラム
US20200282999A1 (en) * 2017-09-10 2020-09-10 Tactile Mobility Ltd Vehicle monitor
US11003193B2 (en) * 2017-12-29 2021-05-11 Intel Corporation Broadcasting map segments for individualized maps
KR20190088119A (ko) * 2018-01-04 2019-07-26 삼성전자주식회사 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법
JP6923458B2 (ja) * 2018-01-22 2021-08-18 日立Astemo株式会社 電子制御装置
EP3820753B1 (en) * 2018-07-14 2023-08-02 Moove.AI Vehicle-data analytics
US11783707B2 (en) * 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
US11153721B2 (en) * 2018-12-27 2021-10-19 Intel Corporation Sensor network enhancement mechanisms
US11676427B2 (en) * 2019-02-12 2023-06-13 Toyota Jidosha Kabushiki Kaisha Vehicle component modification based on vehicle-to-everything communications
US10909716B2 (en) * 2019-02-22 2021-02-02 Toyota Jidosha Kabushiki Kaish Vehicle localization using marker devices
US11796654B2 (en) * 2019-09-04 2023-10-24 Qualcomm Incorporated Distributed sensor calibration and sensor sharing using cellular vehicle-to-everything (CV2X) communication
US11673567B2 (en) * 2020-04-14 2023-06-13 Plusai, Inc. Integrated fiducial marker for simultaneously calibrating sensors of different types

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246466A (ja) * 2012-05-23 2013-12-09 Denso Corp 車両用運転支援装置
WO2018146882A1 (ja) * 2017-02-08 2018-08-16 住友電気工業株式会社 情報提供システム、サーバ、移動端末、及びコンピュータプログラム
WO2018235154A1 (ja) * 2017-06-20 2018-12-27 株式会社日立製作所 走行制御システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022212436A1 (de) 2021-12-03 2023-06-07 Mitsubishi Electric Corporation Autonomes-fahren-assistenzsystem

Also Published As

Publication number Publication date
US20220324488A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
US11630998B2 (en) Systems and methods for automatically training neural networks
JP6424761B2 (ja) 運転支援システム及びセンタ
US9919717B2 (en) Driving assistance device and driving assistance method
CN111524346B (zh) 服务器以及信息提供装置
KR102221321B1 (ko) 차량의 예상 주행 의도에 관한 정보를 제공하는 방법
US10093320B2 (en) Drive support device for controlling drive support functions and evaluating driver performance
US7904247B2 (en) Drive assist system for vehicle
US20200174470A1 (en) System and method for supporting autonomous vehicle
US10210405B2 (en) Sign information display system and method
US20150066412A1 (en) Method and device for calibrating a surroundings sensor
US10464560B2 (en) Travel control method and travel control apparatus
US20140297063A1 (en) Vehicle specifying apparatus
JP6841263B2 (ja) 走行計画生成装置、走行計画生成方法、及び制御プログラム
US11161516B2 (en) Vehicle control device
WO2021070750A1 (ja) 情報処理システム、情報処理装置及び情報処理方法
US10697780B2 (en) Position correction apparatus, navigation system and automatic driving system
US20200182629A1 (en) Method for verifying a digital map of a higher-level automated vehicle, corresponding device and computer program
US11738776B2 (en) Perception performance evaluation of a vehicle ADAS or ADS
US20200168102A1 (en) Platooning system
KR20210082448A (ko) 정보 처리 장치, 정보 처리 방법 및 정보 처리 프로그램
US9177040B2 (en) Information processing device for vehicle and database
JP7276653B2 (ja) 車両交通管理装置、車載装置、車両交通管理システム、車両交通管理方法および車両交通管理プログラム
US20230174060A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6523199B2 (ja) 車両通信装置
WO2016072082A1 (ja) 運転支援システム及びセンタ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20874751

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20874751

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP