WO2023176012A1 - 電子制御装置 - Google Patents

電子制御装置 Download PDF

Info

Publication number
WO2023176012A1
WO2023176012A1 PCT/JP2022/030639 JP2022030639W WO2023176012A1 WO 2023176012 A1 WO2023176012 A1 WO 2023176012A1 JP 2022030639 W JP2022030639 W JP 2022030639W WO 2023176012 A1 WO2023176012 A1 WO 2023176012A1
Authority
WO
WIPO (PCT)
Prior art keywords
deception
control device
recognition
positioning
electronic control
Prior art date
Application number
PCT/JP2022/030639
Other languages
English (en)
French (fr)
Inventor
將裕 清原
宏樹 太田
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Publication of WO2023176012A1 publication Critical patent/WO2023176012A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement

Definitions

  • the present disclosure relates to an electronic control device.
  • Patent Document 1 listed below discloses an own machine position measuring device that is mounted on a moving body and measures the own position of the moving body.
  • This conventional aircraft position measuring device is characterized by comprising an inertial navigation device, a database, a reference point generation means, an information acquisition means, an information generation means, a position extraction means, and a navigation selection means.
  • Patent Document 1 claim 1, paragraph 0007, etc.).
  • the inertial navigation device measures the position of the mobile object.
  • the database is at least one of geographic information and astronomical information.
  • the reference point generation means estimates the existence range of the moving object based on the inertial navigation position measured by the inertial navigation device, and divides the existence range to generate a plurality of reference points.
  • the information acquisition means acquires at least one of ground and heaven information corresponding to the database at the inertial navigation position measured by the inertial navigation device.
  • the information generating means generates, based on the database, estimated information that would be obtained if at least one of ground and heavenly information corresponding to the database is acquired at each of the plurality of reference points.
  • the position extraction means compares the information acquired by the information acquisition means with the estimated information at each of the plurality of reference points generated by the information generation means, and selects the one corresponding to the estimated information with the highest degree of matching. Extract the position of the reference point.
  • the navigation selection means includes navigation using the inertial navigation device and navigation for determining the position of the one reference point based on the position of the one reference point extracted by the position extraction means.
  • the navigation method with the smallest navigation error is selected as the navigation method for measuring the own aircraft position.
  • This conventional aircraft position measuring device further includes a GPS receiver that receives a GPS signal including position information from a GPS satellite (Patent Document 1, claim 2, paragraph 0008, etc.).
  • the inertial navigation device corrects the inertial navigation position based on position information included in the GPS signal.
  • the navigation selection means includes a GPS availability determining means, a GPS unavailable time measuring means, and a composite navigation means.
  • the GPS usability determining means determines the reliability of the GPS signal and determines its usability based on the position information included in the GPS signal, the inertial navigation position, and the position of the one reference point.
  • the GPS unusable time measuring means measures the GPS unusable time that has elapsed since the GPS signal was determined to be unusable.
  • the composite navigation means selects a navigation method for measuring the position of the aircraft based on the GPS unavailable time.
  • self-driving cars achieve highly accurate positioning by receiving signals and reinforcement information from Global Navigation Satellite System (GNSS) satellites using a receiver mounted on the vehicle. Therefore, for the safety of self-driving cars, it is important to detect a decline in positioning accuracy due to intentional interference, such as a deceptive signal that deceives reinforcement information.
  • GNSS Global Navigation Satellite System
  • the conventional aircraft position measuring device described in Patent Document 1 can determine whether or not the GPS signal can be used based on the reliability of the GPS signal, but the positioning accuracy due to the deceptive signal is It is not possible to detect a decrease in
  • the present disclosure provides an electronic control device that can detect a decrease in positioning accuracy due to deceptive signals.
  • One aspect of the present disclosure includes a feature matching unit that obtains the absolute position of the feature by comparing an external world recognition result based on a detection result of the feature by an external sensor with map information, and a signal and reinforcement from a positioning satellite.
  • a virtual recognition unit that generates a virtual recognition result corresponding to the external world recognition result based on the positioning result based on the output of a receiver that receives the information and the map information to obtain the relative position of the feature;
  • Deception determination that determines a decrease in positioning accuracy due to a deception signal when a deception determination value that increases as the magnitude of the error between the absolute position and the relative position of the feature and the error duration increases exceeds a threshold value.
  • An electronic control device comprising:
  • an electronic control device that can detect a decrease in positioning accuracy due to a deceptive signal.
  • FIG. 1 is a block diagram showing Embodiment 1 of an electronic control device according to the present disclosure.
  • 2 is a flow diagram showing an example of the flow of processing by the electronic control device of FIG. 1.
  • FIG. FIG. 2 is an image diagram showing an example of map information in FIG. 1.
  • FIG. 3 is an image diagram illustrating the process of acquiring the relative position of the feature in FIG. 2;
  • FIG. 3 is an image diagram illustrating the process of acquiring the relative position of the feature in FIG. 2;
  • FIG. 3 is an image diagram illustrating the process of acquiring the relative position of the feature in FIG. 2;
  • 3 is a table explaining the process of acquiring the relative position of the features in FIG. 2.
  • FIG. 2 is a flow diagram showing an example of the flow of processing by the electronic control device of FIG. 1.
  • FIG. FIG. 2 is an image diagram showing an example of map information in FIG. 1.
  • FIG. 3 is a conceptual diagram of a process for calculating a deception determination value and a deception determination process in FIG. 2;
  • FIG. 2 is a block diagram showing a second embodiment of an electronic control device according to the present disclosure.
  • FIG. 3 is a block diagram showing a third embodiment of an electronic control device according to the present disclosure.
  • 12 is a table showing an example of operational constraints by the constraint level output section of FIG. 11.
  • FIG. 3 is a block diagram showing a fourth embodiment of an electronic control device according to the present disclosure.
  • 14 is a flow diagram illustrating the operation of the recognition result verification unit of FIG. 13.
  • FIG. 14 is a flowchart illustrating the operation of the matching determination section of FIG. 13.
  • FIG. 14 is a flow diagram illustrating the operation of the sudden change determination section of FIG. 13.
  • FIG. 3 is a block diagram showing a fifth embodiment of an electronic control device according to the present disclosure.
  • FIG. 1 is a block diagram showing Embodiment 1 of an electronic control device according to the present disclosure.
  • the electronic control device 2 of this embodiment is mounted on a vehicle 1 such as a self-driving car, for example, and determines a decrease in positioning accuracy due to a deception signal that deceives reinforcement information of a global positioning satellite system (GNSS).
  • GNSS global positioning satellite system
  • a vehicle 1 equipped with an electronic control device 2 includes, for example, a receiver 3 that receives signals and reinforcement information from GNSS satellites, map information 4 such as high-precision three-dimensional map data (HD map), and a camera. It includes an external sensor 5 such as a laser radar, and a vehicle control device 6 that controls automatic driving of the vehicle 1.
  • GNSS global positioning satellite system
  • the electronic control device 2 can be configured by, for example, one or more microcontrollers including a central processing unit (CPU), a memory such as ROM or RAM, a timer, and an input/output section. As shown in FIG. 1, the electronic control device 2 includes, for example, a feature matching section 21, a virtual recognition section 22, and a deception determining section 23. Further, the electronic control device 2 may further include, for example, a positioning calculation section 24 and an external world recognition section 25.
  • Each part of the electronic control device 2 shown in FIG. 1 represents each function of the electronic control device 2, which is realized by, for example, executing a program stored in a memory by a CPU. Note that when the receiver 3 has the function of a positioning calculation unit 24 described later, the electronic control device 2 does not need to have the positioning calculation unit 24. Moreover, when the external world sensor 5 has the function of the external world recognition section 25 described later, the electronic control device 2 does not need to have the external world recognition section 25. The operation of the electronic control device 2 of this embodiment will be described below with reference to FIG.
  • FIG. 2 is a flow diagram showing an example of the flow of processing by the electronic control device 2 of FIG. 1.
  • the electronic control device 2 starts the processing flow shown in FIG. 2, it first executes a process S1 of acquiring the absolute position of a feature.
  • the external world recognition unit 25 generates an external world recognition result based on the detection result of the external world sensor 5 that detects features around the vehicle 1 including the area in front of the vehicle 1, for example.
  • the feature matching unit 21 matches the map information 4 with the external world recognition result generated by the external world recognizing unit 25 to obtain the absolute position of the feature detected by the external world sensor 5.
  • FIG. 3 is an image diagram showing an example of the map information 4 in FIG. 1.
  • FIG. 4 is a table showing an example of the map information 4 in FIG. 1.
  • the map information 4 includes, for example, information on features such as buildings B1, B2, . . . , telephone poles P1, P2, . . . , signs SS1, SS2, . Further, the information on each feature in the map information 4 includes information such as identification information (ID), type, plane coordinates, height, width, and individual attributes. Note that the map information 4 may have three-dimensional coordinates instead of plane coordinates.
  • the plane coordinates of the buildings B1 and B2 are, for example, the coordinates of the vertices of the buildings B1 and B2 on the ground plane.
  • the plane coordinates of the utility poles P1 and P2 are, for example, the coordinates of the center of the utility poles P1 and P2 on the ground plane.
  • the coordinate system of the plane coordinates may be, for example, an orthogonal coordinate system, a longitude and latitude coordinate system, or any other coordinate system.
  • the external world sensor 5 detects actual features around the vehicle 1 included in the map information 4 as shown in FIG. 3, for example, and outputs the detection results to the external world recognition unit 25.
  • the external world recognition unit 25 generates an external world recognition result including the recognition result of the actual feature around the vehicle 1 based on the detection result of the external world sensor 5, and outputs it to the feature matching unit 21.
  • the feature matching unit 21 matches the external world recognition results including the recognition results of actual features around the vehicle 1 inputted from the external world recognition unit 25 with the information on the features of the vehicle 1 included in the map information 4. do. As a result, the feature matching unit 21 associates the feature recognition results included in the external world recognition results with the feature information included in the map information 4, and associates the feature recognition results with the planar coordinates and three-dimensional Absolute positions such as coordinates can be obtained.
  • the position error of the features in the external world recognition unit 25 can be estimated. For example, while there are five features at 1m intervals on a map, the results of feature recognition using an external sensor indicate that the closest features are 1.0m, 1.1m, 0.9m, and 1.0m apart. If so, it can be estimated that the third feature has shifted 0.1m away. Alternatively, the residual of the least squares method may be treated as the position error of the feature.
  • the features included in the field of view of the external sensor at a certain time may be treated as one group, or the relative relationships of the features may be determined using vehicle speed or wheel speed pulses, etc. You can decide and group them.
  • the electronic control device 2 executes a process S2 of acquiring the relative position of the terrestrial feature.
  • the positioning calculation unit 24 of the electronic control device 2 calculates the positioning result of the vehicle 1 based on the output of the receiver 3 that receives signals and reinforcement information from GNSS satellites, for example. Further, the positioning calculation unit 24 may determine, for example, whether the reception state of signals from GNSS satellites has deteriorated or whether there is an abnormality in the positioning state based on the reception state of signals from the satellites.
  • the virtual recognition unit 22 generates a virtual recognition result corresponding to the external world recognition result of the external world recognition unit 25, based on the positioning result of the vehicle 1 input from the positioning calculation unit 24 and the map information 4. Then, the relative positions of features around the vehicle 1 with respect to the vehicle 1 are obtained. Furthermore, based on the map information 4, the virtual recognition unit 22 reads or calculates recognition stability and recognition ease from the map information.
  • FIG. 5 to 7 are image diagrams illustrating the process S2 of acquiring the relative positions of the terrestrial features in FIG. 2, and FIG. 8 is a table illustrating the process S2.
  • the electronic control device uses the positioning calculation unit 24 to generate a positioning result based on the output of the receiver 3 that receives the signal and reinforcement information from the positioning satellite.
  • the virtual recognition unit 22 generates a virtual recognition result VRR as shown in FIG. 6 or 7 and 8 based on the positioning result input from the positioning calculation unit 24 and the map information 4.
  • the virtual recognition results VRR shown in FIGS. 6 to 8 can be obtained, for example, as follows. First, as shown in FIG. 5, the vehicle 1 is placed on the map of the map information 4 based on the positioning result PR calculated by the positioning calculation unit 24. Next, based on the specifications including the imaging area IA of the external sensor 5 mounted on the vehicle 1, the detection results of the features in the map of the map information 4 are calculated, so that the image as shown in FIG. 6 or 7 is obtained. A virtual recognition result VRR is obtained.
  • the virtual recognition result VRR corresponding to the external world recognition result based on the detection result of the actual feature by the external sensor 5 is shown as It is represented as a three-dimensional image based on various information such as. 7 and 8 show the positions of terrestrial objects in the virtual recognition result VRR corresponding to the external world recognition result of the external world sensor 5.
  • the information on the feature of the map information 4 included in the image area corresponding to the imaging area IA of the external sensor 5 is expressed as a combination of the type of the feature and the coordinates.
  • the virtual recognition unit 22 responds to the external world recognition result based on the detection result of the external sensor 5 based on the positioning result of the vehicle 1 input from the positioning calculation unit 24 and the map information 4.
  • a virtual recognition result VRR is generated to obtain the relative positions of features around the vehicle 1 with respect to the vehicle 1.
  • the electronic control device 2 executes a process S3 for calculating a deception determination value and a deception determination process S4 shown in FIG. 2.
  • FIG. 9 is a conceptual diagram of the process S3 for calculating the deception determination value and the deception determination process S4 in FIG. 2.
  • the vehicle 1 equipped with the electronic control device 2 of this embodiment is, for example, a self-driving vehicle that autonomously travels from a departure point to a destination by controlling various actuators of the vehicle 1 with the vehicle control device 6. be.
  • the vehicle 1 can perform centimeter-level high-precision positioning and safely perform autonomous driving.
  • the electronic control device 2 of the present embodiment executes the process S3 of calculating the deception determination value and the deception determination process S4, and when the deception determination value exceeds the threshold value in the deception determination process S4, the electronic control device 2 of the vehicle 1 Decrease in positioning accuracy is determined (processing S5).
  • these processes S3, P4, and P5 will be explained in detail.
  • the deception determination unit 23 acquires the absolute position of the feature based on the external world recognition result of the external world recognition unit 25 from the feature matching unit 21, and performs virtual recognition.
  • the relative position of the feature with respect to the vehicle 1 is acquired from the unit 22 based on the GNSS positioning result. Further, the deception determination unit 23 calculates, for example, an error Err between the absolute position and the relative position of the feature.
  • the features for which the error Err between the absolute position and the relative position is calculated by the deception determining unit 23 are, for example, signs SS1, SS2, SS3 in front of the vehicle 1, crosswalks C1, C2,
  • a case is assumed in which the lane markings LM and lane markings LM are included.
  • the lane marking line LM may be frayed due to wear or temporarily lost due to road construction, and the stability of detection by the external sensor 5 is lower than that of other features, resulting in positional errors. Err is likely to occur.
  • the deception determination unit 23 may use, for example, the recognition stability and recognition ease as shown in Table 1 below.
  • the recognition stability is, for example, an index indicating the ease with which a feature can be detected by the external sensor 5.
  • the signs SS1, SS2, and SS3 are set to 1.0, which has the highest recognition stability, because the possibility of being blocked by an obstacle is extremely low.
  • the recognition stability is set to 0.9, which is relatively high.
  • the recognition stability of the crosswalks C1 and C2 is set to 0.4, which is relatively low, because the crosswalks C1 and C2 may be blocked by a preceding vehicle, for example.
  • the recognition ease is, for example, an index indicating the ease of recognition of the own vehicle's position by the terrestrial objects detected by the external sensor 5.
  • the signs SS1, SS2, and SS3 are small in number compared to other features, and if successful detection, it will be easy for the vehicle to distinguish them from other features in the vicinity. Since the position can be easily recognized, the recognition ease is set to 0.9, which is relatively high.
  • crosswalks C1 and C2 are relatively easy to distinguish from other features because they only exist in some places, but there are cases where they are installed both before entering and after passing an intersection.
  • the recognition ease level is set to 0.5, which is relatively low, because if they are mixed up, the vehicle's position may be misjudged.
  • the recognition ease is set to 0.1, which is the lowest.
  • the recognition ease is divided into a component along the direction of travel of the own vehicle (vertical component) and a component perpendicular to the direction of travel of the own vehicle (lateral component). It can also be set.
  • lane markings painted with solid lines can be detected in the vertical direction but do not provide a clue for recognizing the vehicle's position, so the recognition ease is set to a low value such as 0.0, while the horizontal Even if the direction can be detected, it may be mistaken for an adjacent lane, but if the driving lane can be identified, the lateral position within the lane can be recognized, so recognition is relatively easy. Set it to a low value of 0.5.
  • the ease of recognizing the vehicle's position based on detected features can be treated separately in the vertical and horizontal directions, making it possible to recognize the vehicle's position flexibly. Alternatively, it becomes possible to improve accuracy in one of the lateral directions.
  • the recognition stability increases closer to 1.0 as the feature is less likely to be occluded by obstacles, and the recognition ease increases to 1.0 as the feature is easier to recognize. .0 is increasing.
  • the recognition stability shown in Table 1 is an example, and the size of the feature (the larger the size, the higher the recognition ease), the number of lanes on the road (the smaller the number, the higher the recognition stability), and the The setting may be based on the height of the object (the higher the height, the higher the recognition stability).
  • the recognition ease is the probability of confusing the recognition target with another recognition target (the higher the possibility, the lower the recognition ease), so for example, the confusion matrix used in machine learning, It may be calculated or set based on distance or the like.
  • the deception determination unit 23 uses the error Err between the absolute position and the relative position of the feature and the error duration time to calculate a deception determination value for determining a decrease in GNSS positioning accuracy due to the deception signal.
  • an error Err between the absolute position and relative position of the lane marking LM detected by the external sensor 5 occurs, and this error Err varies from before time t1 to time t2. It continues to occur.
  • the deception determination unit 23 calculates the deception determination value DV in accordance with the magnitude of the error Err and the error duration time in process S3.
  • the deception determination unit 23 may calculate the deception determination value DV using the above-mentioned recognition stability and recognition ease.
  • the deception determination unit 23 calculates the deception determination value DV, for example, by multiplying the error Err between the absolute position and the relative position of the lane marking LM by the recognition stability and recognition ease of the lane marking LM. As described above, when the recognition ease of the lane marking LM is set low, even if the error Err is relatively large, the value of the deception determination value DV is relatively small.
  • the deception determination unit 23 executes a process S4 to determine whether the calculated deception determination value DV exceeds a predetermined threshold Th. As shown in FIG. 9, from time t1 to time t2, the deception determination value DV is significantly lower than the threshold Th. Therefore, the deception determination unit 23 determines in process S4 that the deception determination value DV does not exceed the predetermined threshold Th (NO). After that, the electronic control device 2 ends the processing flow shown in FIG. 2 and starts it again.
  • the sign SS1 is detected by the external sensor 5, and after going through processes S1 and S2, the error between the absolute position and relative position of the sign SS1 is determined by the deception determination unit 23 in process S3. Assume that Err is calculated to be approximately zero.
  • the sign SS1 has high recognition stability and recognition ease, and the reliability of the absolute position calculated in the process S1 is high. That is, at time t2, since it is unlikely that the GNSS reinforcement information is deceived, the deception determination unit 23 reduces the deception determination value DV or sets it to zero.
  • the deception determination unit 23 determines in process S4 that the deception determination value DV does not exceed the predetermined threshold Th (NO), and the electronic control device 2 performs the process shown in FIG. End the flow and start it again.
  • the electronic control device 2 performs the process shown in FIG. End the flow and start it again.
  • error Err between the absolute position and relative position of the crosswalk C1 occurs, and the deception judgment value DV increases, and from time t5 to time t9, error Err between the absolute position and relative position of the lane marking LM. is occurring continuously.
  • the deception determination unit 23 increases the deception determination value DV as the magnitude of the error Err and the error duration time during which the error Err continues to occur increase.
  • the recognition stability of the crosswalk C1 is set to be relatively low, so even if it is not detected by the external sensor 5, the influence on the deception determination value DV is small.
  • the error Err between the absolute position and the relative position of the lane marking LM is large, but the recognition ease of the lane marking LM is set relatively low.
  • the error Err between the absolute position and the relative position of the crosswalk C2 whose recognition ease is set relatively high, becomes almost zero.
  • the deception determination value DV calculated by the deception determination unit 23 is less influenced by the error Err of the lane marking LM, which has a low degree of recognition, and is largely influenced by the crosswalk C2, which has a high degree of recognition.
  • the deception determination unit 23 increases the deception determination value DV as the magnitude of the error Err between the absolute position and the relative position of the feature and the error duration increase.
  • the deception determination unit 23 determines that the deception determination value DV exceeds the threshold Th (YES), and in the subsequent process S5, determines whether the positioning accuracy has decreased due to the deception signal. do.
  • the deception determination unit 23 determines that, for example, there is no abnormality in the positioning state based on the output of the receiver 3 that receives signals from GNSS satellites, and the deception determination value DV exceeds the threshold Th. In this case, it may be determined whether the positioning accuracy has decreased due to the deceptive signal.
  • the electronic control device 2 ends the processing flow shown in FIG. 2, and outputs the positioning result by GNSS and the determination result of the decrease in positioning accuracy due to the deception signal from the deception determination unit 23 to the vehicle control device 6.
  • the deception determination unit 23 may output the determination result to the positioning calculation unit 24.
  • the positioning calculation unit 24 receives a determination result indicating a decrease in positioning accuracy due to the deception signal from the deception determination unit 23
  • the positioning calculation unit 24 changes the method of acquiring reinforcement information, for example. Specifically, for example, when the reinforcement information has been acquired via the Internet, the positioning calculation unit 24 switches the acquisition method of the reinforcement information to via a GNSS satellite.
  • the positioning calculation unit 24 may operate as follows. For example, when the deception determining unit 23 determines that the positioning accuracy has decreased due to the deceptive signal and the reception status of the signal from the positioning satellite has deteriorated, the positioning calculation unit 24 excludes the reinforcement information and calculates the positioning result. may be calculated.
  • the electronic control device 2 of this embodiment is configured to operate a vehicle 1 such as a self-driving car that performs high-precision positioning based on the output of the receiver 3 that receives signals and reinforcement information from GNSS satellites.
  • the vehicle control device 6 mounted on the vehicle 1 causes the vehicle 1 to travel autonomously by controlling the actuators of each part of the vehicle 1 using, for example, the map information 4 and the positioning results obtained by the positioning calculation unit 24. Therefore, in order to ensure the safety of the vehicle 1, it is important to detect a decrease in positioning accuracy due to a deceptive signal that deceives reinforcement information.
  • the conventional aircraft position measuring device can determine whether or not a GPS signal can be used based on the reliability of the GPS signal, it cannot detect a decrease in positioning accuracy due to a deceptive signal.
  • the electronic control device 2 of this embodiment compares the external world recognition result based on the detection result of the feature by the external sensor 5 with the map information 4 to obtain the absolute position of the feature.
  • a feature matching section 21 is provided. Further, the electronic control device 2 performs virtual recognition corresponding to the external world recognition result of the external world recognition unit 25 based on the positioning result based on the output of the receiver 3 that receives signals and reinforcement information from the positioning satellite and the map information 4. It includes a virtual recognition unit 22 that generates a result VRR and obtains the relative position of a feature.
  • the electronic control device 2 controls the electronic control unit 2 to determine whether the deception signal is used when the deception determination value DV, which increases as the error Err between the absolute position and the relative position of the feature and the error duration increases, exceeds the threshold Th. It includes a deception determining section 23 that determines a decrease in positioning accuracy.
  • the electronic control device 2 of the present embodiment uses the feature matching unit 21 to match the recognition result of the feature detected by the external sensor 5 with the map information 4, and determines the absolute position of the feature. can be obtained. Furthermore, the electronic control device 2 of the present embodiment uses the GNSS positioning results and the map information 4 to generate a virtual recognition result VRR corresponding to the external world recognition result based on the detection result of the external sensor 5, using the virtual recognition unit 22. By doing so, it is possible to obtain the relative position of the terrestrial object based on the GNSS positioning result.
  • the electronic control device 2 causes the deception determination unit 23 to determine that the deception determination value DV, which increases as the magnitude of the error Err between the absolute position and the relative position of the feature and the error duration increases, exceeds the threshold Th. In this case, it is possible to determine whether the positioning accuracy has deteriorated due to the deceptive signal.
  • the electronic control device 2 of this embodiment it is possible to detect the error in the GNSS positioning result that gradually increases due to the deception of the reinforcement information, and to determine the decrease in the GNSS positioning accuracy due to the deceptive signal. . Further, according to the electronic control device 2 of the present embodiment, by using the deception determination value DV, for example, a sudden failure in detecting a target occurs in the external sensor 5, or a signal from a GNSS satellite Even if a short-term abnormality occurs in the reception status of the reinforcement signal, it is possible to prevent erroneous determination of a decrease in positioning accuracy due to the deceptive signal.
  • the deception determination value DV for example, a sudden failure in detecting a target occurs in the external sensor 5, or a signal from a GNSS satellite Even if a short-term abnormality occurs in the reception status of the reinforcement signal, it is possible to prevent erroneous determination of a decrease in positioning accuracy due to the deceptive signal.
  • the deception determination unit 23 multiplies the error Err by the recognition stability indicating the ease of detecting the feature by the external sensor 5 and the recognition ease indicating the ease of identifying the feature. Then, the deception judgment value DV is calculated.
  • the electronic control device 2 of the present embodiment can reduce the influence of the error Err between the absolute position and the relative position of a feature with low recognition stability or a feature with low recognition ease on the deception determination value DV. can do. Furthermore, the electronic control device 2 of the present embodiment can increase the influence of the error Err between the absolute position and the relative position of a feature with high recognition stability or a feature with high recognition ease on the deception determination value DV. . Therefore, according to the electronic control device 2 of this embodiment, it becomes possible to more accurately detect a decrease in positioning accuracy due to a deceptive signal.
  • the electronic control device 2 of this embodiment further includes a positioning calculation unit 24 that calculates a positioning result based on the output of the receiver 3 and determines whether or not there is an abnormality in the positioning state. Then, the deception determination unit 23 determines that the positioning accuracy has decreased due to the deception signal when there is no abnormality in the positioning state and the deception determination value DV exceeds the threshold Th.
  • the electronic control device 2 of the present embodiment can interrupt determination of a decrease in positioning accuracy due to a deceptive signal when it is detected that an abnormality has occurred in the positioning state of the GNSS. Therefore, according to the electronic control device 2 of the present embodiment, when an abnormality occurs in the positioning state of GNSS, it is possible to prevent the erroneous determination that the positioning accuracy has decreased due to the deceptive signal, and it is possible to prevent the decrease in the positioning accuracy due to the deceptive signal. It becomes possible to make more accurate judgments.
  • the positioning calculation unit 24 changes the method of acquiring reinforcement information when the deception determination unit 23 determines that the positioning accuracy has decreased due to the deception signal. More specifically, for example, when the positioning calculation unit 24 has been acquiring reinforcement information via the Internet, by switching to acquiring reinforcement information via a satellite, it is possible to use reinforcement information that is not deceived. Thus, the safety of automatic driving of the vehicle 1 can be improved.
  • the positioning calculation unit 24 determines whether the reception state of signals from GNSS positioning satellites has deteriorated. In addition, when the deception determining unit 23 determines that the positioning accuracy has decreased due to the deceptive signal and the reception state of the signal from the positioning satellite has deteriorated, the positioning calculation unit 24 excludes the reinforcement information and generates the positioning result. Calculate.
  • the electronic control device 2 of the present embodiment is not affected by the deception signal even when the reception condition of the signal from the positioning satellite deteriorates and the reinforcement information is deceived by the deception signal. It becomes possible to perform the minimum positioning. Therefore, according to the electronic control device 2 of this embodiment, the safety of automatic driving of the vehicle 1 can be improved.
  • the electronic control device 2 that can detect a decrease in positioning accuracy due to a deceptive signal.
  • FIG. 10 is a block diagram showing Embodiment 2 of an electronic control device according to the present disclosure.
  • the electronic control device 2 of this embodiment differs from the electronic control device 2 of the above-described first embodiment in that it further includes an external environment determination section 26 and the content of the deception determination process S4 by the deception determination section 23.
  • Other points of the electronic control device 2 of this embodiment are the same as those of the electronic control device 2 of the above-described first embodiment, so similar parts are given the same reference numerals and description thereof will be omitted.
  • the electronic control device 2 of this embodiment further includes an external environment determination section 26.
  • the external environment determining unit 26 determines whether the detection accuracy of the external sensor 5 has decreased due to the external environment. More specifically, the external environment determination unit 26 determines, for example, the brightness, sunny weather, rain, and snow around the vehicle 1 based on the external world recognition result recognized by the external world recognition unit 25 based on the detection result of the external world sensor 5. , a decrease in the detection accuracy of the external sensor 5 due to weather conditions such as fog or the external environment including dirt on the external sensor 5 is determined.
  • the deception determination unit 23 increases the threshold Th of the deception determination value DV when the external environment determination unit 26 determines that the detection accuracy of the external sensor 5 has decreased.
  • the electronic control device 2 of this embodiment it is possible to not only achieve the same effects as the electronic control device 2 of the above-described first embodiment, but also to determine whether the detection accuracy of the external sensor 5 is reduced due to the external environment. Misjudgment in process S4 can be prevented. Therefore, according to the electronic control device 2 of the present embodiment, it is possible to more accurately determine a decrease in positioning accuracy due to a deceptive signal.
  • FIG. 11 is a block diagram showing a third embodiment of an electronic control device according to the present disclosure.
  • FIG. 12 is a table showing an example of operational constraints by the constraint level output unit 27 included in the electronic control device 2 of this embodiment shown in FIG. 11.
  • the electronic control device 2 of the present embodiment is different from the electronic control device 2 of the first embodiment described above in that it further includes a constraint level output section 27 and that the output of the constraint level output section 27 is input to the vehicle control device 6. It is different from Other points of the electronic control device 2 of this embodiment are the same as those of the electronic control device 2 of the above-described first embodiment, so similar parts are given the same reference numerals and description thereof will be omitted.
  • the electronic control device 2 of the present embodiment further includes a constraint level output unit 27 that outputs a constraint level of the operation related to automatic driving of the vehicle 1 based on the reinforcement information acquisition method and whether or not the reinforcement information is excluded.
  • the constraint level output unit 27 outputs, for example, the time series of the error Err between the absolute position and the relative position of the feature inputted from the deception determination unit 23 and the reinforcement information acquisition route or the exclusion of the reinforcement route by the positioning calculation unit 24. Based on the presence or absence, operation constraints to be output to the vehicle control device 6 are determined.
  • the constraint level output unit 27 for example, as shown in FIG. Based on the exclusion status, the level Lv of the operation restriction of the vehicle control device 6 is determined. More specifically, when it is input that the error Err has been less than or equal to the predetermined error threshold Err1 for the past 60 seconds and that the reinforcement information acquisition method is via the Internet, the constraint level output unit 27 outputs the constraint level Lv Set to 1. As a result, all operational restrictions on the vehicle control device 6 are released, and all operations of the vehicle control device 6 are permitted.
  • the constraint level output unit 27 sets the constraint level Lv to 2.
  • the operation of the vehicle control device 6 is subject to operational restrictions such as being inhibited from automatically approaching a loading platform in a limited area such as a logistics truck accumulation area.
  • operational restrictions are imposed, such as preventing right or left turns at intersections with a certain road width or less.
  • the constraint level output unit 27 outputs the constraint level Lv Set to 3.
  • the operation of the vehicle control device 6 is such that, for example, automatic parking within a parking space is inhibited in a limited area such as a logistics truck accumulation area, and a route that passes through a route that is less than a certain road width on a general road is set. Operational restrictions are imposed, such as changing the route to a wider road when
  • the constraint level output unit 27 sets the constraint level Lv to 4. do.
  • the operation of the vehicle control device 6 is, for example, restricted from automatic driving and switched to driving support.
  • the constraint level output unit 27 sets the constraint level Lv to 5.
  • the vehicle control device 6 cancels automatic driving and driving support, for example, and accepts manual driving by the driver.
  • the electronic control device 2 of the present embodiment further includes the constraint level output unit 27 that outputs the constraint level of the operation related to automatic driving of the vehicle based on the reinforcement information acquisition method and whether or not the reinforcement information is excluded.
  • the electronic control device 2 of this embodiment can improve the safety of automatic driving of the vehicle 1 by the vehicle control device 6.
  • Embodiment 4 of the electronic control device according to the present disclosure will be described below with reference to FIGS. 13 to 16.
  • a block diagram showing Embodiment 4 of the electronic control device according to the present disclosure is the same as any one of FIG. 1, FIG. 10, and FIG. 11 similarly to Embodiments 1 to 3.
  • the external world recognition unit 25 generates external world recognition results including recognition results of actual features around the vehicle 1 based on the detection results of the external world sensor 5;
  • This embodiment differs from Embodiments 1 to 3 described above in that the recognition confidence of actual features around 1 is generated and output to the feature matching unit 21.
  • Other points of the electronic control device 2 of this embodiment are the same as those of the electronic control device 2 of the above-described embodiments 1 to 3, so similar parts are given the same reference numerals and description thereof will be omitted.
  • FIG. 13 is a block diagram of the deception determination unit 23 shown in FIG. 1, FIG. 10, or FIG. 11.
  • the deception determining section 23 includes a feature position estimation result receiving section 30 that receives the output from the feature matching section 21 and a recognition confidence receiving section 31 .
  • the deception determination unit 23 also includes a virtual recognition result reception unit 32 that receives the output from the virtual recognition unit 22, a recognition result verification unit 33, a consistency determination unit 34, a sudden change determination unit 35, and a deception determination result transmission unit. It has a section 36.
  • FIG. 14 is a flow diagram illustrating the operation of the recognition result verification section 33 of FIG. 13.
  • the feature position estimation result receiving unit 30 acquires the absolute position of the feature based on the external world recognition result of the external world recognition unit 25 and the map information 4 from the feature matching unit 21 .
  • the recognition confidence receiving unit 31 receives the recognition certainty of the feature based on the certainty of the external world recognition in the external world recognition unit 25 and the certainty when comparing the absolute position of the external world recognition unit 25 with the map information 4. get.
  • step S12 the virtual recognition result receiving unit 32 determines the relative position of the feature with respect to the vehicle 1 based on the GNSS positioning result output from the virtual recognition unit 22, the recognition stability, and the recognition ease. get.
  • the recognition result verification unit 33 receives the position estimation results and positions of features in the external world from the feature position estimation result receiving unit 30, recognition confidence receiving unit 31, and virtual recognition result receiving unit 32. Based on the error estimation result, the recognition confidence, the relative position of the feature based on the map, and the recognition stability/ease of recognition, a virtual recognition result at either the feature recognition time of the external sensor 5 or the positioning time of the receiver 3. It is determined whether each feature included in the image was recognized or not.
  • step S13 the following steps S14 to S17 are executed for all the features in the virtual recognition results.
  • step S14 the terrestrial features of the external world recognition results that correspond to the terrestrial features that are the targets of the virtual recognition results are estimated. This estimation of the corresponding feature can be performed using, for example, the ICP (Iterative Closest Point) method.
  • ICP Intelligent Closest Point
  • step S15 for the associated feature, the difference between the feature position of the virtual recognition result and the feature position of the external world recognition result, that is, the position error is smaller than a predetermined threshold, and the feature position of the external world recognition result is If the recognition certainty is greater than a predetermined threshold, the recognition result verification is determined to be a success (Yes in S15), and if not, the recognition result verification is determined to be a failure (No in S15).
  • the confidence is an index that increases and approaches 1 when the certainty of matching is high, and decreases and approaches 0 when the certainty is low.
  • step S16 the recognition result in the current execution of the recognition result verification unit 33 is updated. Specifically, the number of recognition targets is added by 1, the number of successful recognition verifications is added by 1, and the position errors are accumulated to update the error amount. Note that the recognition target here refers to a feature, and in this paper, the two will be described without making any particular distinction.
  • step S17 the recognition result in the current execution of the recognition result verification unit 33 is updated. Specifically, the number of recognition targets is added by 1, position errors are accumulated, and the error amount is updated.
  • step S18 the number of recognition targets, the number of successful recognition verifications, the cumulative error amount, and the error amount of each feature are recorded in a recording device (not shown), and the matching is performed. It is output to the determination section 34.
  • FIG. 15 is a flow diagram illustrating the operation of the matching determination unit 34 of FIG. 13.
  • the matching determination unit 34 determines that there is a difference between the external world recognition result based on the external world sensor 5 and the positioning calculation result based on the GNSS receiver 3 in either the feature recognition time of the external world sensor 5 or the positioning time of the receiver 3. Determine whether or not.
  • step S21 the matching determination unit 34 receives the number of recognition targets, the number of successful recognition verifications, the cumulative error amount, and the error amount of each feature output from the recognition result verification unit 33.
  • step S22 the matching determination unit 34 obtains the recognition stability and recognition ease of each feature output from the virtual recognition result receiving unit 32.
  • step S23 the following steps S24 and S25 are executed for all the features of the virtual recognition result.
  • step S25 the mismatch certainty is added based on the recognition ease and recognition stability.
  • the recognition ease and recognition stability are expressed as values from 0 to 1 as shown in Table 1, and based on this and the amount of error for each recognition target, the amount of addition of the inconsistency certainty is calculated, for example, as follows: Calculated using formula (1).
  • step S26 if the calculated inconsistency certainty is equal to or higher than a predetermined threshold, there is a difference between the external world recognition result and the positioning calculation result at the relevant time. It is determined that (step S27). If the calculated mismatch certainty is not equal to or greater than the predetermined threshold, it is determined that the external world recognition result and the positioning calculation result match at the time (step S28).
  • the determination result is, for example, 1 if there is a difference, and 0 if there is no difference.
  • step S29 the determination result and the mismatch reliability are recorded in a recording device (not shown) and are output to the sudden change determining section 35.
  • FIG. 16 is a flow diagram illustrating the operation of the sudden change determination section 35 of FIG. 13.
  • the sudden change determination unit 35 determines whether the position error suddenly increases when a recognition error occurs in external world recognition, or when the position error gradually increases when the positioning radio waves or reinforcement information of satellite positioning is gradually deceived. Separate the events that occur.
  • step S31 the sudden change determination unit 35 obtains the accumulated results of the recognition result verification unit 33, such as the number of recognition targets, the number of successful recognition verifications, the cumulative error amount, and the error amount of each feature.
  • step S32 the sudden change determination unit 35 obtains the consistency determination result and the accumulation result of the mismatch certainty factor, which are the outputs of the consistency determination unit 34.
  • step S33 a moving average of a predetermined time interval is calculated for the matching determination result, and if the value is greater than or equal to a predetermined threshold value, it is determined that there is a mismatch between the external sensor result and the positioning result (Yes in S33. Step S34). Conversely, if it is not greater than the predetermined threshold, it is determined that there is no mismatch between the external sensor result and the positioning result (No in S33. Step S35).
  • step S36 the variance value of the error amount of the recognition result verification unit 33 included in the predetermined time interval is less than or equal to a predetermined threshold value, and the maximum value of the error amount of the recognition result verification unit 33 included in the predetermined time interval is a predetermined value. If the position error is greater than or equal to the threshold value, it is determined that the position error is a sudden change (Yes in S36. S37). If not, it is determined that the position error is a continuous change (No in S36, S38).
  • step S39 if there is a mismatch between the external sensor result and the positioning result (step S34), the position error is a continuous change (step S38), and the mismatch confidence is greater than or equal to a predetermined threshold, the GNSS positioning It determines that the signal or reinforcement information is deceptive, and outputs the determination result.
  • the deception determination result transmitting unit 36 smoothes the output of the sudden change determination unit 35 over time in order to suppress fluctuations in the output of the determination result, and then outputs the smoothed output to the vehicle control device 6.
  • the processing after this output is the same as in Embodiments 1 to 3, so the details will be omitted.
  • the electronic control device 2 of this embodiment not only can the same effects as the electronic control device 2 of the above-described embodiments 1 to 3 be achieved, but also mutually similar Even in situations where trade name processing tends to become unstable, such as when the recognition target is nearby, it is possible to prevent erroneous determination in the deception determination process S4. Therefore, according to the electronic control device 2 of the present embodiment, it is possible to more accurately determine a decrease in positioning accuracy due to a deceptive signal.
  • FIG. 17 is a block diagram showing Embodiment 5 of an electronic control device according to the present disclosure.
  • the block diagram of FIG. 17 is the same as that of FIG. 10 as in the second embodiment, except that this embodiment includes an external environment determination result receiving section 37 that receives the results of the external environment determining section 26.
  • Other points of the electronic control device 2 of this embodiment are the same as those of the electronic control device 2 of the above-described embodiments 1 to 3, so similar parts are given the same reference numerals and description thereof will be omitted.
  • the deception determining unit 23 includes a feature position estimation result receiving unit 30 that receives the output from the feature matching unit 21 and a recognition confidence receiving unit 31.
  • the deception determination unit 23 also includes a virtual recognition result reception unit 32 that receives the output from the virtual recognition unit 22, a recognition result verification unit 33, a consistency determination unit 34, a sudden change determination unit 35, and a deception determination result transmission unit 36. , and an external environment determination result receiving section 37.
  • the external environment determination result receiving unit 37 determines an external environment index value that increases and approaches 1 when the external environment provides good performance for the external sensor, and decreases and approaches 0 when the external environment degrades the performance. Received from the external environment determination unit 26. For example, in the case of an image sensor, this external environment index value becomes 1 during cloudy weather during the day, and approaches 0 during nighttime or rainy weather.
  • the recognition result verification unit 33 determines success or failure of recognition result verification in step S15 shown in FIG.
  • the external environment determination result receiving unit sets a threshold value for calculating the position error between the virtual recognition result feature position and the external world recognition result feature position for the associated feature. The difference is that it is varied depending on the result.
  • B(t+1) B(t) ⁇ B (t)-Bmin ⁇ .
  • the threshold value A increases so as to gradually approach the maximum value Amax at a speed ⁇ .
  • the threshold value B decreases so as to gradually approach the minimum value Bmin at a speed ⁇ .
  • the determination in step S15 is likely to be Yes.
  • the threshold value C increases so as to gradually approach the maximum value Cmax at a speed ⁇ .
  • the determination in step S25 is likely to be Yes. Since the subsequent processing is the same as in the fourth embodiment, the subsequent processing will be omitted.
  • the electronic control device 2 of this embodiment it is possible to not only achieve the same effects as the electronic control device 2 of the above-described embodiments 1 to 4, but also to use the diagnosis result of the external environment. Even in situations where recognition performance tends to become unstable, such as during stormy weather, it is possible to prevent erroneous determination in the deception determination process S4. Therefore, according to the electronic control device 2 of the present embodiment, it is possible to more accurately determine a decrease in positioning accuracy due to a deceptive signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

本開示は、欺瞞信号による測位精度の低下を検知することが可能な電子制御装置を提供する。電子制御装置2は、地物照合部21と、仮想認識部22と、欺瞞判定部23とを備える。地物照合部21は、外界センサ5による地物の検出結果に基づく外界認識結果と地図情報とを照合して地物の絶対位置を取得する。仮想認識部22は、測位衛星からの信号と補強情報とを受信する受信機3の出力に基づく測位結果と地図情報4とに基づいて外界認識結果に対応する仮想認識結果を生成して地物の相対位置を取得する。欺瞞判定部23は、地物の絶対位置と相対位置との誤差の大きさと誤差継続時間とが増加するほど増大する欺瞞判定値がしきい値を超えた場合に欺瞞信号による測位精度の低下を判定する。

Description

電子制御装置
 本開示は、電子制御装置に関する。
 従来から移動体の自機位置を計測する技術に関する発明が知られている。下記特許文献1は、移動体に搭載され、当該移動体の自機位置を計測する自機位置計測装置を開示している。この従来の自機位置計測装置は、慣性航法装置と、データベースと、参照点生成手段と、情報取得手段と、情報生成手段と、位置抽出手段と、航法選択手段とを備えることを特徴とする(特許文献1、請求項1および第0007段落等)。
 前記慣性航法装置は、前記移動体の位置を計測する。前記データベースは、地理情報および天体情報のうち少なくとも一方である。参照点生成手段は、前記慣性航法装置に計測された慣性航法位置に基づいて前記移動体の存在範囲を推算し、当該存在範囲内を区分して複数の参照点を生成する。前記情報取得手段は、前記慣性航法装置に計測された慣性航法位置において、前記データベースに対応する地上および天上の少なくとも一方の情報を取得する。
 前記情報生成手段は、前記複数の参照点の各々において、前記データベースに対応する地上および天上の少なくとも一方の情報を取得した場合に得られるであろう推定情報を、前記データベースに基づいて生成する。前記位置抽出手段は、前記情報取得手段により取得された情報を、前記情報生成手段により生成された前記複数の参照点の各々における推定情報と照合し、最も一致度の高い推定情報に対応する一の参照点の位置を抽出する。
 前記航法選択手段は、前記位置抽出手段により抽出された前記一の参照点の位置に基づいて、前記慣性航法装置による航法と、前記一の参照点の位置を求める航法とを含むもののうち、より航法誤差の小さいものを、前記自機位置を計測する航法として選択する。
 この従来の自機位置計測装置は、位置情報を含むGPS信号をGPS衛星から受信するGPS受信機をさらに備えている(特許文献1、請求項2および第0008段落等)。この場合、前記慣性航法装置は、前記GPS信号に含まれる位置情報に基づいて慣性航法位置を補正する。前記航法選択手段は、GPS使用可否判定手段と、GPS使用不可時間計測手段と、複合航法手段と、を含む。
 前記GPS使用可否判定手段は、前記GPS信号に含まれる位置情報、前記慣性航法位置および前記一の参照点の位置に基づいて、前記GPS信号の信頼性を判定してその使用可否を判定する。前記GPS使用不可時間計測手段は、前記GPS信号が使用不可と判定された場合に、当該GPS信号が使用不可と判定されてから経過したGPS使用不可時間を計測する。前記複合航法手段は、前記GPS使用不可時間に基づいて、前記自機位置を計測する航法を選択する。
特開2019-035670号公報
 自動運転車は、たとえば、全球測位衛星システム(GNSS)の衛星からの信号と補強情報を車両に搭載された受信機によって受信することで高精度の測位を実現する。そのため、自動運転車の安全上、補強情報を欺瞞する欺瞞信号などの意図的な妨害による測位精度の低下を検知することが重要になる。しかしながら、上記特許文献1に記載された従来の自機位置計測装置は、前述のように、GPS信号の信頼性に基づいてGPS信号の使用可否を判定することはできるが、欺瞞信号による測位精度の低下を検知することはできない。
 本開示は、欺瞞信号による測位精度の低下を検知することが可能な電子制御装置を提供する。
 本開示の一態様は、外界センサによる地物の検出結果に基づく外界認識結果と地図情報とを照合して前記地物の絶対位置を取得する地物照合部と、測位衛星からの信号と補強情報とを受信する受信機の出力に基づく測位結果と前記地図情報とに基づいて前記外界認識結果に対応する仮想認識結果を生成して前記地物の相対位置を取得する仮想認識部と、前記地物の前記絶対位置と前記相対位置との誤差の大きさと誤差継続時間とが増加するほど増大する欺瞞判定値がしきい値を超えた場合に欺瞞信号による測位精度の低下を判定する欺瞞判定部と、を備える電子制御装置である。
 本開示の上記一態様によれば、欺瞞信号による測位精度の低下を検知することが可能な電子制御装置を提供することができる。
本開示に係る電子制御装置の実施形態1を示すブロック図。 図1の電子制御装置による処理の流れの一例を示すフロー図。 図1の地図情報の一例を示す画像図。 図1の地図情報の一例を示す表。 図2の地物の相対位置を取得する処理を説明する画像図。 図2の地物の相対位置を取得する処理を説明する画像図。 図2の地物の相対位置を取得する処理を説明する画像図。 図2の地物の相対位置を取得する処理を説明する表。 図2の欺瞞判定値を算出する処理と欺瞞判定処理の概念図。 本開示に係る電子制御装置の実施形態2を示すブロック図。 本開示に係る電子制御装置の実施形態3を示すブロック図。 図11の制約レベル出力部による動作制約の一例を示す表。 本開示に係る電子制御装置の実施形態4を示すブロック図。 図13の認識結果検証部の動作を説明するフロー図。 図13の整合判定部の動作を説明するフロー図。 図13の突発変化判定部の動作を説明するフロー図。 本開示に係る電子制御装置の実施形態5を示すブロック図。
 以下、図面を参照して本開示に係る電子制御装置の実施形態を説明する。
[実施形態1]
 図1は、本開示に係る電子制御装置の実施形態1を示すブロック図である。本実施形態の電子制御装置2は、たとえば、自動運転車などの車両1に搭載され、全球測位衛星システム(GNSS)の補強情報を欺瞞する欺瞞信号による測位精度の低下を判定する。電子制御装置2が搭載される車両1は、たとえば、GNSSの衛星からの信号および補強情報を受信する受信機3と、高精度3次元地図データ(HDマップ)などの地図情報4と、カメラやレーザレーダなどの外界センサ5と、車両1の自動運転を制御する車両制御装置6とを備えている。
 電子制御装置2は、たとえば、中央処理装置(CPU)と、ROMやRAMなどのメモリと、タイマと、入出力部とを備えた一つ以上のマイクロコントローラによって構成することができる。図1に示すように、電子制御装置2は、たとえば、地物照合部21と、仮想認識部22と、欺瞞判定部23とを備えている。また、電子制御装置2は、たとえば、測位演算部24と、外界認識部25とをさらに備えてもよい。
 図1に示す電子制御装置2の各部は、たとえば、CPUによってメモリ記憶されたプログラムを実行することで実現される電子制御装置2の各機能を表している。なお、受信機3が後述する測位演算部24の機能を有する場合、電子制御装置2は、測位演算部24を有しなくてもよい。また、外界センサ5が後述する外界認識部25の機能を有する場合、電子制御装置2は、外界認識部25を有しなくてもよい。以下、図2を参照して本実施形態の電子制御装置2の動作を説明する。
 図2は、図1の電子制御装置2による処理の流れの一例を示すフロー図である。電子制御装置2は、図2に示す処理フローを開始すると、まず、地物の絶対位置を取得する処理S1を実行する。この処理S1において、外界認識部25は、たとえば、車両1の前方を含む車両1の周囲の地物を検出する外界センサ5の検出結果に基づいて外界認識結果を生成する。また、地物照合部21は、外界認識部25によって生成された外界認識結果と地図情報4とを照合して、外界センサ5によって検出された地物の絶対位置を取得する。
 図3は、図1の地図情報4の一例を示す画像図である。図4は、図1の地図情報4の一例を示す表である。地図情報4は、たとえば、建物B1,B2,…、電柱P1,P2,…、標識SS1,SS2,…、路面標示RS1、道路R1,R2…、などの地物の情報を含む。また、地図情報4の各々の地物の情報は、たとえば、識別情報(ID)、種別、平面座標、高さ、幅、個別属性などの情報を含む。なお、地図情報4は、平面座標に替えて3次元座標を有してもよい。
 建物B1,B2の平面座標は、たとえば、地表平面上の建物B1,B2の頂点の座標である。同様に、電柱P1,P2の平面座標は、たとえば、地表平面上の電柱P1,P2の中心の座標である。平面座標の座標系は、たとえば、直交座標系、経緯度座標系、またはその他の座標系のいずれであってもよい。
 外界センサ5は、たとえば、図3に示すような地図情報4に含まれる車両1の周囲の実際の地物を検出して、検出結果を外界認識部25へ出力する。外界認識部25は、外界センサ5の検出結果に基づいて、車両1の周囲の実際の地物の認識結果を含む外界認識結果を生成して、地物照合部21へ出力する。
 地物照合部21は、外界認識部25から入力された車両1の周囲の実際の地物の認識結果を含む外界認識結果と、地図情報4に含まれる車両1の地物の情報とを照合する。その結果、地物照合部21は、たとえば、外界認識結果に含まれる地物の認識結果と地図情報4に含まれる地物の情報とを関連付け、地物の認識結果について、平面座標や3次元座標などの絶対位置を取得することができる。
 また、必要に応じて過去の照合結果や絶対位置、外界認識部25の認識結果などを保持しておき、照合時に過去情報を用いてその近傍に地図の探索範囲を絞ったり、自車走行軌跡の周辺領域の地物と地図とを比較したりすることで、外界認識部25の認識結果と地図情報4とを照合する際の処理時間が短縮でき、地図中で類似した地物配置の箇所への誤マッチングを抑止することができる。
 さらに、複数の地物をまとめて地図と照合することで、外界認識部25における地物の位置誤差を推定できる。たとえば、地図中では1m間隔で5個の地物が存在する一方で、外界センサでの地物認識結果では近いほうから1.0m、1.1m、0.9m、1.0mの間隔となっている場合、3番目の地物が0.1m遠方にずれていることが推定できる。あるいは最小二乗法の残差を地物の位置誤差として取り扱ってもよい。
 なお、前述の複数の地物をまとめるためには、ある時刻の外界センサ視野内に含まれる地物を1グループとして扱ってもよいし、車速または車輪速パルスなどを用いて地物の相対関係を決めてグループ化してもよい。
 次に、電子制御装置2は、図2に示すように、地物の相対位置を取得する処理S2を実行する。この処理S2において、電子制御装置2の測位演算部24は、たとえば、GNSSの衛星からの信号と補強情報とを受信する受信機3の出力に基づいて車両1の測位結果を算出する。また、測位演算部24は、たとえば、GNSSの衛星からの信号の受信状態の悪化の有無や、衛星からの信号の受信状態に基づく測位状態の異常の有無を判定してもよい。
 さらに、この処理S2において、仮想認識部22は、測位演算部24から入力された車両1の測位結果と地図情報4とに基づいて、外界認識部25の外界認識結果に対応する仮想認識結果を生成して車両1の周囲の地物の車両1に対する相対位置を取得する。また、仮想認識部22は、地図情報4に基づき、認識安定度および認識容易度を地図情報から読み出し、あるいは算出する。
 図5から図7は、図2の地物の相対位置を取得する処理S2を説明する画像図であり、図8は、処理S2を説明する表である。この処理S2において、電子制御装置2は、たとえば、測位演算部24によって、測位衛星からの信号と補強情報とを受信する受信機3の出力に基づく測位結果を生成する。さらに、仮想認識部22は、測位演算部24から入力された測位結果と、地図情報4とに基づいて、図6または図7および図8に示すような仮想認識結果VRRを生成する。
 図6から図8に示す仮想認識結果VRRは、たとえば、次のように取得することができる。まず、図5に示すように、測位演算部24によって算出された測位結果PRに基づいて車両1を地図情報4の地図中に配置する。次に、車両1に搭載された外界センサ5の撮像領域IAを含む仕様に基づいて、地図情報4の地図中の地物の検出結果を演算することによって、図6または図7に示すような仮想認識結果VRRが得られる。
 図6では、外界センサ5による実際の地物の検出結果に基づく外界認識結果に対応する仮想認識結果VRRを、地図情報4に含まれる地物の種別、平面座標、高さ、幅、個別属性などの各種の情報に基づいて3次元的な画像で表している。図7および図8は、外界センサ5の外界認識結果に対応する仮想認識結果VRRにおける地物の位置を表している。図7および図8では、外界センサ5の撮像領域IAに対応する画像領域内に含まれる地図情報4の地物の情報が、地物の種別と座標の組合せとして表現されている。
 以上のように、処理S2において、仮想認識部22は、測位演算部24から入力された車両1の測位結果と地図情報4とに基づいて、外界センサ5の検出結果に基づく外界認識結果に対応する仮想認識結果VRRを生成し、車両1の周囲の地物の車両1に対する相対位置を取得する。次に、電子制御装置2は、図2に示す欺瞞判定値を算出する処理S3および欺瞞判定処理S4を実行する。
 図9は、図2の欺瞞判定値を算出する処理S3と欺瞞判定処理S4の概念図である。本実施形態の電子制御装置2が搭載される車両1は、たとえば、車両制御装置6によって車両1の各種のアクチュエータを制御することで、出発地から目的地まで自律的に走行する自動運転車である。車両1は、たとえば、受信機3によってGNSSの衛星からの信号と補強情報とを受信することで、センチメートル級の高精度の測位を行って自動運転を安全に遂行することができる。
 しかしながら、意図的な欺瞞信号によって補強情報が欺瞞されると、車両1の測位精度が低下するおそれがある。そのため、本実施形態の電子制御装置2は、欺瞞判定値を算出する処理S3と欺瞞判定処理S4を実行し、欺瞞判定処理S4において欺瞞判定値がしきい値を超えた場合に、車両1の測位精度の低下を判定する(処理S5)。以下、これらの処理S3,P4,P5を詳細に説明する。
 電子制御装置2が欺瞞判定値を算出する処理S3を開始すると、欺瞞判定部23は、地物照合部21から外界認識部25の外界認識結果に基づく地物の絶対位置を取得し、仮想認識部22からGNSSの測位結果に基づく車両1に対する地物の相対位置を取得する。さらに、欺瞞判定部23は、たとえば、地物の絶対位置と相対位置との誤差Errを算出する。
 図9に示すように、欺瞞判定部23によって絶対位置と相対位置との位置の誤差Errを算出する地物が、たとえば、車両1の前方の標識SS1,SS2,SS3、横断歩道C1,C2、および車線区画線LMを含む場合を想定する。この場合、車線区画線LMは、たとえば、摩耗によって掠れたり、道路工事によって一時的に欠損したりすることがあり、外界センサ5による検出の安定性が他の地物よりも低く、位置の誤差Errが発生しやすい。
 一方、標識SS1,SS2,SS3は、たとえば、他の地物と比較して、他の車両Vやその他の障害物によって遮蔽されにくく、外界センサ5による検出の安定性が他の地物よりも高く、位置の誤差Errが発生しにくい。そのため、欺瞞判定部23は、欺瞞判定値を算出する処理S3において、たとえば、以下の表1に示すような認識安定度と認識容易度を用いてもよい。
Figure JPOXMLDOC01-appb-T000001
 認識安定度は、たとえば、外界センサ5による地物の検出容易性を示す指標である。図9および表1に示す例において、標識SS1,SS2,SS3は、障害物によって遮蔽される可能性が極めて低いため、認識安定度が最も高い1.0に設定されている。同様に、車線区画線LMは、障害物によって遮蔽される可能性が比較的に低いため、認識安定度が比較的に高い0.9に設定されている。一方、横断歩道C1,C2は、たとえば、先行車によって遮蔽される可能性があるため、認識安定度が比較的に低い0.4に設定されている。
 認識容易度は、たとえば、外界センサ5によって検出された地物による自車位置の認識容易性を示す指標である。図9および表1に示す例において、標識SS1,SS2,SS3は、他の地物と比較して数が少なく、検出が成功すれば付近に存在する他の地物と区別がしやすく自車位置を容易に認識することができるため、認識容易度が比較的に高い0.9に設定されている。また、横断歩道C1,C2は、所々に存在する程度であるため、他の地物と比較的に区別がしやすいが、交差点の進入前と通過後の両方に設置されている場合もあり、進入前か通過後のいずれか一方のみしか検出に成功しないと、それらを取り違えることで自車位置を誤る場合がありうるため、認識容易度が比較的に低い0.5に設定されている。一方、車線区画線LMは、随所に存在し、特定の車線区画線LMを区別することが難しいため、認識容易度が最も低い0.1に設定されている。
 なお、表1には含めていないが、認識容易度は、自車の進行方向に沿った成分(縦方向成分)と、自車の進行方向に直交する成分(横方向成分)とに分けて設定することもできる。すなわち、たとえば、実線でペイントされた車線区分線は、縦方向に関しては検出できても自車位置を認識する手がかりにならないため、認識容易度は0.0などの低い数値に設定する一方、横方向に関しては検出できている場合であっても隣接車線と間違えることはあるが、走行車線が特定できている場合には車線内の横位置を認識することができるため、認識容易度は比較的に低い0.5に設定する。これにより、検出された地物による自車位置の認識容易性を縦方向と横方向について分けて扱うことができるようになり、自車位置の認識を柔軟におこなえるようになり、たとえば、縦方向あるいは横方向の一方についての精度を向上させることができるようになる。
 すなわち、表1に示す例において、認識安定度は、障害物によって遮蔽されにくい地物であるほど、1.0に近づくように増加し、認識容易度は、認識しやすい地物であるほど1.0に近づくように増加している。なお、表1に示す認識安定度は一例であり、地物の大きさ(大きいほど認識容易度は高くなる)、道路の車線数(少ないほど認識容易度および認識容易度は高くなる)、地物の高さ(高いほど認識安定度は高くなる)に基づいて設定してもよい。また、認識容易度は、他の認識対象と取り違えてしまう可能性の高さ(可能性が高いほど認識容易度が低くなる)であるため、たとえば、機械学習で使用される混同行列やクラス間距離などに基づいて算出、あるいは設定してもよい。
 さらに、欺瞞判定部23は、地物の絶対位置と相対位置との誤差Errと、誤差継続時間を用いて、欺瞞信号によるGNSSの測位精度の低下を判定するための欺瞞判定値を算出する。図9に示す例では、時刻t1において、外界センサ5によって検出された車線区画線LMの絶対位置と相対位置との誤差Errが発生しており、この誤差Errは時刻t1の以前から時刻t2まで継続して発生している。
 この場合、欺瞞判定部23は、処理S3において、誤差Errの大きさと誤差継続時間に応じた欺瞞判定値DVを算出する。ここで、欺瞞判定部23は、前述の認識安定度と認識容易度を用いて、欺瞞判定値DVを算出してもよい。欺瞞判定部23は、たとえば、車線区画線LMの認識安定度と認識容易度を、車線区画線LMの絶対位置と相対位置との誤差Errに乗じて欺瞞判定値DVを算出する。前述のように、車線区画線LMの認識容易度が低く設定されている場合には、誤差Errが比較的に大きくても、欺瞞判定値DVの値は比較的に小さくなる。
 その後、欺瞞判定部23は、図2に示すように、算出された欺瞞判定値DVが所定のしきい値Thを超えているか否かを判定する処理S4を実行する。図9に示すように、時刻t1から時刻t2までの間は、欺瞞判定値DVがしきい値Thを大きく下回っている。そのため、欺瞞判定部23は、処理S4において欺瞞判定値DVが所定のしきい値Thを超えていないこと(NO)を判定する。その後、電子制御装置2は、図2に示す処理フローを終了させ、再び開始する。
 その結果、図9に示すように、時刻t2において、外界センサ5によって標識SS1が検出され、処理S1および処理S2を経て、処理S3で欺瞞判定部23によって標識SS1の絶対位置と相対位置の誤差Errがほぼゼロであることが算出されたとする。標識SS1は、たとえば前述のように、認識安定度と認識容易度が高く、処理S1で算出される絶対位置の信頼性が高い。すなわち、時刻t2において、GNSSの補強情報が欺瞞されている可能性は低いため、欺瞞判定部23は、欺瞞判定値DVを低下させるかまたはゼロにする。
 その結果、時刻t2において、欺瞞判定部23は、処理S4において欺瞞判定値DVが所定のしきい値Thを超えていないこと(NO)を判定し、電子制御装置2は、図2に示す処理フローを終了させて再び開始する。その後、時刻t4で横断歩道C1の絶対位置と相対位置の誤差Errが発生して欺瞞判定値DVが上昇し、時刻t5から時刻t9まで、車線区画線LMの絶対位置と相対位置との誤差Errが継続的に発生している。このように、欺瞞判定部23は、誤差Errの大きさと、誤差Errが継続して発生する誤差継続時間とが増加するほど、欺瞞判定値DVを増大させる。
 なお、図9に示す例では、時刻t6において、横断歩道C1の後端縁が他の車両Vによって遮蔽され、外界センサ5によって検出されていない。しかし、前述のように、横断歩道C1の認識安定度が比較的に低く設定されているため、外界センサ5によって検出されなかったとしても、欺瞞判定値DVに対する影響は小さい。
 また、時刻t11では、車線区画線LMの絶対位置と相対位置の誤差Errが大きくなっているが、車線区画線LMの認識容易度が比較的に低く設定されている。一方、同時刻に、認識容易度が比較的に高く設定されている横断歩道C2の絶対位置と相対位置との誤差Errはほぼゼロになっている。この場合、欺瞞判定部23が算出する欺瞞判定値DVは、たとえば、認識容易度が低い車線区画線LMの誤差Errの影響が小さく、認識容易度が高い横断歩道C2の影響が大きくなる。
 その後、図9に示すように、時刻t13において、標識SS2の絶対位置と相対位置の誤差Errが増加し、時刻t15においても、標識SS3の絶対位置と相対位置の誤差Errが同様に算出されたとする。標識SS2,SS3の認識安定度と認識容易度は、たとえば前述のように他の地物と比較して比較的に高く設定されている。また、前述のように、欺瞞判定部23は、地物の絶対位置と相対位置との誤差Errの大きさと誤差継続時間とが増加するほど欺瞞判定値DVを増大させる。
 その結果、時刻t15において、欺瞞判定値DVがしきい値Thを超えたとする。すると、図2に示す処理S4において、欺瞞判定部23は、欺瞞判定値DVがしきい値Thを超えたこと(YES)を判定し、続く処理S5において、欺瞞信号による測位精度の低下を判定する。この処理S5において、欺瞞判定部23は、たとえば、GNSSの衛星からの信号を受信する受信機3の出力に基づく測位状態に異常がなく、かつ、欺瞞判定値DVがしきい値Thを超えた場合に、欺瞞信号による測位精度の低下を判定してもよい。
 その後、電子制御装置2は、図2による処理フローを終了させ、欺瞞判定部23から車両制御装置6へGNSSによる測位結果と欺瞞信号による測位精度低下の判定結果を出力する。なお、欺瞞判定部23は、欺瞞信号による測位精度の低下を判定した場合に、その判定結果を測位演算部24へ出力するようにしてもよい。測位演算部24は、欺瞞判定部23から欺瞞信号による測位精度の低下を示す判定結果が入力されると、たとえば、補強情報の取得方法を変更する。具体的には、測位演算部24は、たとえば、補強情報をインターネット経由で取得していた場合に、補強情報の取得方法をGNSSの衛星経由に切り替える。
 また、測位演算部24は、前述のようにGNSSの測位衛星からの信号の受信状況の悪化の有無を判定する場合、次のように動作してもよい。測位演算部24は、たとえば、欺瞞判定部23によって欺瞞信号による測位精度の低下が判定され、かつ測位衛星からの信号の受信状況の悪化が判定された場合に、補強情報を除外して測位結果を算出するようにしてもよい。
 以下、本実施形態の電子制御装置2の作用を説明する。
 本実施形態の電子制御装置2は、前述のように、たとえば、GNSSの衛星からの信号と補強情報とを受信する受信機3の出力に基づいて高精度の測位を行う自動運転車など車両1に搭載される。車両1に搭載された車両制御装置6は、たとえば、地図情報4と測位演算部24による測位結果を用いて、車両1の各部のアクチュエータを制御することで、車両1を自律的に走行させる。そのため、車両1の安全性を確保する上で、補強情報を欺瞞する欺瞞信号による測位精度の低下を検知することが重要になる。しかしながら、前記従来の自機位置計測装置は、GPS信号の信頼性に基づいてGPS信号の使用可否を判定することはできるが、欺瞞信号による測位精度の低下を検知することはできない。
 これに対し、本実施形態の電子制御装置2は、前述のように、外界センサ5による地物の検出結果に基づく外界認識結果と地図情報4とを照合して地物の絶対位置を取得する地物照合部21を備えている。また、電子制御装置2は、測位衛星からの信号と補強情報とを受信する受信機3の出力に基づく測位結果と地図情報4とに基づいて外界認識部25の外界認識結果に対応する仮想認識結果VRRを生成して地物の相対位置を取得する仮想認識部22を備えている。さらに、電子制御装置2は、地物の絶対位置と相対位置との誤差Errの大きさと誤差継続時間とが増加するほど増大する欺瞞判定値DVがしきい値Thを超えた場合に欺瞞信号による測位精度の低下を判定する欺瞞判定部23を備えている。
 このような構成により、本実施形態の電子制御装置2は、地物照合部21により、外界センサ5が検出した地物の認識結果と地図情報4とを照合し、その地物の絶対位置を取得することができる。また、本実施形態の電子制御装置2は、仮想認識部22により、GNSSの測位結果と地図情報4とを用い、外界センサ5の検出結果に基づく外界認識結果に対応する仮想認識結果VRRを生成して、GNSSの測位結果を基準とする地物の相対位置を取得することができる。そして、電子制御装置2は、欺瞞判定部23により、地物の絶対位置と相対位置との誤差Errの大きさと誤差継続時間とが増加するほど増大する欺瞞判定値DVがしきい値Thを超えた場合に、欺瞞信号による測位精度の低下を判定することができる。
 したがって、本実施形態の電子制御装置2によれば、補強情報の欺瞞によって徐々に増大するGNSSの測位結果の誤差を検出し、欺瞞信号によるGNSSの測位精度の低下を判定することが可能になる。また、本実施形態の電子制御装置2によれば、欺瞞判定値DVを使用することで、たとえば、外界センサ5において突発的に物標の検出不良が発生したり、GNSSの衛星からの信号や補強信号の受信状況に短期的な異常が生じたりしても、欺瞞信号による測位精度低下の誤判定を防止できる。
 また、本実施形態の電子制御装置2において、欺瞞判定部23は、外界センサ5による地物の検出容易性を示す認識安定度と地物の識別容易性を示す認識容易度を誤差Errに乗じて欺瞞判定値DVを算出する。
 このような構成により、本実施形態の電子制御装置2は、認識安定度が低い地物や認識容易度が低い地物の絶対位置と相対位置の誤差Errが欺瞞判定値DVに与える影響を小さくすることができる。また、本実施形態の電子制御装置2は、認識安定度が高い地物や認識容易度が高い地物の絶対位置と相対位置の誤差Errが欺瞞判定値DVに与える影響を大きくすることができる。したがって、本実施形態の電子制御装置2によれば、欺瞞信号による測位精度の低下をより正確に検知することが可能になる。
 また、本実施形態の電子制御装置2は、受信機3の出力に基づいて測位結果を算出するとともに測位状態の異常の有無を判定する測位演算部24をさらに備えている。そして、欺瞞判定部23は、測位状態の異常がなくかつ欺瞞判定値DVがしきい値Thを超えた場合に欺瞞信号による測位精度の低下を判定する。
 このような構成により、本実施形態の電子制御装置2は、GNSSの測位状態に異常が発生していることを検知した場合に、欺瞞信号による測位精度低下の判定を中断することができる。したがって、本実施形態の電子制御装置2によれば、GNSSの測位状態に異常が発生している場合に、欺瞞信号による測位精度低下を誤判定することが防止され、欺瞞信号による測位精度低下をより正確に判定することが可能になる。
 また、本実施形態の電子制御装置2において、測位演算部24は、欺瞞判定部23によって欺瞞信号による測位精度の低下が判定された場合に、補強情報の取得方法を変更する。より具体的には、測位演算部24は、たとえば、インターネット経由で補強情報を取得していた場合に、衛星経由での補強情報の取得に切り替えることで、欺瞞されていない補強情報の利用を可能にして、車両1の自動運転の安全性を向上させることができる。
 また、本実施形態の電子制御装置2において、測位演算部24は、GNSSの測位衛星からの信号の受信状態の悪化の有無を判定する。また、測位演算部24は、欺瞞判定部23によって欺瞞信号による測位精度の低下が判定され、かつ測位衛星からの信号の受信状態の悪化が判定された場合に、補強情報を除外して測位結果を算出する。
 このような構成により、本実施形態の電子制御装置2は、測位衛星からの信号の受信状態が悪化して補強情報が欺瞞信号によって欺瞞されている場合でも、欺瞞信号の影響を受けることなく、最低限の測位を行うことが可能になる。したがって、本実施形態の電子制御装置2によれば、車両1の自動運転の安全性を向上させることができる。
 以上説明したように、本実施形態によれば、欺瞞信号による測位精度の低下を検知することが可能な電子制御装置2を提供することができる。
[実施形態2]
 以下、図10を参照して、本開示に係る電子制御装置の実施形態2を説明する。図10は、本開示に係る電子制御装置の実施形態2を示すブロック図である。本実施形態の電子制御装置2は、外部環境判定部26をさらに備える点と、欺瞞判定部23による欺瞞判定処理S4の内容が、前述の実施形態1の電子制御装置2と異なっている。本実施形態の電子制御装置2のその他の点は、前述の実施形態1の電子制御装置2と同様であるので、同様の部分には同一の符号を付して説明を省略する。
 図10に示すように、本実施形態の電子制御装置2は、外部環境判定部26をさらに備えている。外部環境判定部26は、外部環境による外界センサ5の検出精度低下を判定する。より詳細には、外部環境判定部26は、たとえば、外界センサ5の検出結果に基づいて外界認識部25が認識した外界認識結果に基づいて、車両1の周囲の明るさ、晴れ、降雨、降雪、霧などの気象条件また外界センサ5の汚れを含む外部環境による外界センサ5の検出精度低下を判定する。欺瞞判定部23は、外部環境判定部26によって外界センサ5の検出精度低下が判定された場合に欺瞞判定値DVのしきい値Thを増加させる。
 本実施形態の電子制御装置2によれば、前述の実施形態1の電子制御装置2と同様の効果を奏することができるだけでなく、外部環境によって外界センサ5の検出精度が低下したことによる欺瞞判定処理S4の誤判定を防止することができる。したがって、本実施形態の電子制御装置2によれば、欺瞞信号による測位精度の低下をより精度よく判定することが可能になる。
[実施形態3]
 以下、図11および図12を参照して、本開示に係る電子制御装置の実施形態3を説明する。図11は、本開示に係る電子制御装置の実施形態3を示すブロック図である。図12は、図11の本実施形態の電子制御装置2が備える制約レベル出力部27による動作制約の一例を示す表である。
 本実施形態の電子制御装置2は、制約レベル出力部27をさらに備える点と、制約レベル出力部27の出力が車両制御装置6へ入力される点で、前述の実施形態1の電子制御装置2と異なっている。本実施形態の電子制御装置2のその他の点は、前述の実施形態1の電子制御装置2と同様であるので、同様の部分には同一の符号を付して説明を省略する。
 本実施形態の電子制御装置2は、補強情報の取得方法と補強情報の除外の有無とに基づいて車両1の自動運転に関する動作の制約レベルを出力する制約レベル出力部27をさらに備えている。制約レベル出力部27は、たとえば、欺瞞判定部23から入力された地物の絶対位置と相対位置との誤差Errの時系列と、測位演算部24による補強情報の入手経路または補強経路の除外の有無に基づいて、車両制御装置6へ出力する動作制約を決定する。
 より具体的には、制約レベル出力部27は、たとえば、図12に示すように、欺瞞判定部23から入力される誤差Errの大きさおよび誤差継続時間と、補強情報の取得方法または補強情報の除外の状況とに基づいて、車両制御装置6の動作制約のレベルLvを決定する。より詳細には、過去60秒間にわたって誤差Errが所定の誤差しきい値Err1以下であり、補強情報の取得方法がインターネット経由であることが入力されると、制約レベル出力部27は、制約レベルLvを1に設定する。これにより、車両制御装置6の動作制約がすべて解除され、車両制御装置6の全オペレーションが許可される。
 また、過去60秒間にわたって誤差Errが所定の誤差しきい値Err1以下であり、かつ、直近10秒間の誤差Errが誤差しきい値Err1より大かつ誤差しきい値Err2より小、補強情報の取得方法がインターネット経由であることが入力されると、制約レベル出力部27は、制約レベルLvを2に設定する。これにより、車両制御装置6の動作は、たとえば物流トラックの集積場などの限定領域において着荷台への自動接近が抑止されるなどの動作制約が課される。また、一般道では、一定の道路幅以下の交差点での右左折が抑止されるなどの動作制約が課される。
 また、直近10秒間以上にわたって誤差Errが所定の誤差しきい値Err2以上であり、かつ、補強情報の取得方法が衛星経由であることが入力されると、制約レベル出力部27は、制約レベルLvを3に設定する。これにより、車両制御装置6の動作は、たとえば物流トラックの集積場などの限定領域において駐車枠内への自動駐車が抑止され、一般道において一定の道路幅以下の経路を通過するルートが設定されている場合に広い道路を通行するルートに変更するなどの動作制約が課される。
 また、10秒間以上にわたって誤差Errが所定の誤差しきい値Err3以上であり、かつ、補強情報が除外されていることが入力されると、制約レベル出力部27は、制約レベルLvを4に設定する。これにより、車両制御装置6の動作は、たとえば自動運転が制限され、運転支援に切り替えられる。また、誤差Errが所定の誤差しきい値Err4以上であり、かつ、補強情報が除外されていることが入力されると、制約レベル出力部27は、制約レベルLvを5に設定する。これにより、車両制御装置6は、たとえば自動運転および運転支援が解除され、運転者による手動運転を受け付ける。
 以上のように、本実施形態の電子制御装置2は、補強情報の取得方法と補強情報の除外の有無とに基づいて車両の自動運転に関する動作の制約レベルを出力する制約レベル出力部27をさらに備えている。このような構成により、本実施形態の電子制御装置2は、車両制御装置6による車両1の自動運転の安全性を向上させることが可能になる。
[実施形態4]
 以下、図13から図16までを参照して、本開示に係る電子制御装置の実施形態4を説明する。本開示に係る電子制御装置の実施形態4を示すブロック図は、実施形態1から3と同様に図1、図10、図11のいずれかと同じである。しかし、本実施形態においては、外界認識部25が、外界センサ5の検出結果に基づいて、車両1の周囲の実際の地物の認識結果を含む外界認識結果を生成するのに加えて、車両1の周囲の実際の地物の認識確信度を生成し、地物照合部21へ出力する点が、前述の実施形態1から3と異なる。本実施形態の電子制御装置2のその他の点は、前述の実施形態1から3の電子制御装置2と同様であるので、同様の部分には同一の符号を付して説明を省略する。
 図13は、図1、図10または図11に示す欺瞞判定部23のブロック図である。欺瞞判定部23は、地物照合部21からの出力を受信する地物位置推定結果受信部30と認識確信度受信部31を有する。また、欺瞞判定部23は、仮想認識部22からの出力を受信する仮想認識結果受信部32、ならびに、認識結果検証部33、整合判定部34、突発変化判定部35、および、欺瞞判定結果送信部36を有する。
 図14は、図13の認識結果検証部33の動作を説明するフロー図である。ステップS11において、地物位置推定結果受信部30は、地物照合部21から外界認識部25の外界認識結果と地図情報4に基づく地物の絶対位置を取得する。また、認識確信度受信部31は、外界認識部25における外界認識の確からしさと、外界認識部25の絶対位置と地図情報4とを照合する際の確からしさに基づく地物の認識確信度を取得する。
 ステップS12において、仮想認識結果受信部32は、仮想認識結果受信部32から仮想認識部22で出力されたGNSSの測位結果に基づく車両1に対する地物の相対位置と、認識安定度および認識容易度を取得する。
 次いで、ステップS13~ステップS18において、認識結果検証部33では、地物位置推定結果受信部30、認識確信度受信部31、仮想認識結果受信部32より、外界の地物の位置推定結果と位置誤差推定結果、認識確信度、地図に基づく地物の相対位置と認識安定度・認識容易度に基づいて、外界センサ5の地物認識時刻または受信機3の測位時刻のいずれかにおける仮想認識結果に含まれる各地物に対して認識できたか、認識できなかったかを判定する。
 ステップS13は、以下のステップS14からステップS17の手順を仮想認識結果のすべての地物に対して実行する。ステップS14では仮想認識結果の各対象である地物に対応する外界認識結果の地物を推定する。この対応する地物の推定は、たとえば、ICP(Iterative Closest Point)法などでおこなうことができる。
 ステップS15では、対応づけられた地物に対して、仮想認識結果の地物位置と外界認識結果の地物位置との差違、すなわち位置誤差が所定の閾値より小さく、かつ外界認識結果の地物認識の確信度が所定の閾値より大きい場合に、認識結果検証を成功と判定(S15のYes)となり、そうでない場合に認識結果検証を失敗と判定(S15のNo)とする。なお、確信度は、たとえば、テンプレートマッチング法における類似度のように、一致の確実性が高い場合に増大して1に近づき、確実性が低い場合に減少して0に近づく指標である。
 ステップS16では、今回の認識結果検証部33の実行における認識結果を更新する。具体的には、認識対象数を1加算し、認識検証成功数を1加算、位置誤差を累積して誤差量を更新する。なお、ここでの認識対象とは地物を指しており、本稿においては両者を特に区別せずに記載する。
 ステップS17でも同様に、今回の認識結果検証部33の実行における認識結果を更新する。具体的には、認識対象数を1加算し、位置誤差を累積して誤差量を更新する。仮想認識結果のすべての地物に対して実行し終えたら、ステップS18に進み、認識対象数、認識検証成功数、累積誤差量、各地物の誤差量を図示しない記録装置に記録するとともに、整合判定部34に出力する。
 図15は、図13の整合判定部34の動作を説明するフロー図である。整合判定部34では、外界センサ5の地物認識時刻または受信機3の測位時刻のいずれかにおいて、外界センサ5に基づく外界認識結果と、GNSS受信機3に基づく測位演算結果とに相違があるか否かを判定する。
 ステップS21において、整合判定部34は認識結果検証部33から出力された認識対象数、認識検証成功数、累積誤差量、各地物の誤差量を受信する。ステップS22において、整合判定部34は仮想認識結果受信部32から出力された各地物の認識安定度および認識容易度を取得する。ステップS23は、以下のステップS24およびステップS25の手順を仮想認識結果のすべての地物に対して実行する。
 ステップS24では各認識対象の誤差量(=各地物の誤差量)が所定の閾値以上の場合(S24のYes)には、外界認識結果と測位演算結果とに相違がある可能性が高いことから、不整合確信度を加算するステップS25に進む。各認識対象の誤差量が所定の閾値以上ではない場合(S24のNo)には、不整合確信度を変化させない。
 ステップS25において、認識容易度と認識安定度に基づき不整合確信度を加算する。認識容易度と認識安定度は表1に示すように0~1の値で表現されており、これと各認識対象の誤差量に基づいて、不整合確信度の加算量を、たとえば、以下の式(1)により算出する。
(加算量)=(誤差量)×(認識容易度)×(認識安定度) ・・・(1)
 すべての仮想認識結果の地物について処理が完了したら、ステップS26にて、算出された不整合確信度が所定の閾値以上であれば、当該時刻において外界認識結果と測位演算結果とに相違があると判定する(ステップS27)。算出された不整合確信度が所定の閾値以上でない場合は、当該時刻において外界認識結果と測位演算結果とが整合していると判定する(ステップS28)。ここで判定結果は、たとえば、相違がある場合には1、相違がない場合には0を出力する。ステップS29では判定結果と不整合確信度を図示しない記録装置に記録するとともに、突発変化判定部35に出力する。
 図16は、図13の突発変化判定部35の動作を説明するフロー図である。突発変化判定部35では、外界認識の認識誤りが発生した際に位置誤差が突発的に大きくなる事象と、衛星測位の測位電波や補強情報が徐々に欺瞞された場合に位置誤差が徐々に大きくなる事象とを切り分ける。
 ステップS31において、突発変化判定部35は認識結果検証部33の出力である、認識対象数、認識検証成功数、累積誤差量、各地物の誤差量などの蓄積結果を取得する。ステップS32において、突発変化判定部35は整合判定部34の出力である、整合判定結果と不整合確信度の蓄積結果を取得する。
 ステップS33において、整合判定結果について所定の時間間隔の移動平均を算出し、その値が所定の閾値以上の場合には外界センサ結果と測位結果に不整合があると判定する(S33のYes。ステップS34)。逆に所定の閾値以上でない場合には外界センサ結果と測位結果に不整合がないと判定する(S33のNo。ステップS35)。
 ステップS36において、所定の時間間隔に含まれる認識結果検証部33の誤差量の分散値が所定の閾値以下、かつ、所定の時間間隔に含まれる認識結果検証部33の誤差量の最大値が所定の閾値以上の場合には、位置誤差が突発的変化であると判定する(S36のYes。S37)。そうでない場合には、位置誤差が連続的変化であると判定する(S36のNo。S38)。
 ステップS39において、外界センサ結果と測位結果に不整合があり(ステップS34)、かつ位置誤差が連続的変化であり(ステップS38)、かつ不整合確信度が所定の閾値以上の場合に、GNSS測位信号あるいは補強情報が欺瞞されていると判定し、判定結果を出力する。
 欺瞞判定結果送信部36は、判定結果の出力がばたつくことを抑制するために、突発変化判定部35の出力を時系列平滑化した上で、車両制御装置6に出力する。この出力以降の処理は、実施形態1から3と同様であるため、詳細を割愛する。
 本実施形態の電子制御装置2によれば、前述の実施形態1から3の電子制御装置2と同様の効果を奏することができるだけでなく、外界認識の確信度を利用することで、互いに類似した認識対象が近傍にある場合などで、商号処理が不安定になりやすい状況においても、欺瞞判定処理S4の誤判定を防止することができる。したがって、本実施形態の電子制御装置2によれば、欺瞞信号による測位精度の低下をより精度よく判定することが可能になる。
[実施形態5]
 以下、図17を参照して、本開示に係る電子制御装置の実施形態5を説明する。図17は、本開示に係る電子制御装置の実施形態5を示すブロック図である。図17のブロック図は、実施形態2と同様に図10と同じであるが、本実施形態においては、外部環境判定部26の結果を受信する外部環境判定結果受信部37を有する点が異なる。本実施形態の電子制御装置2のその他の点は、前述の実施形態1から3の電子制御装置2と同様であるので、同様の部分には同一の符号を付して説明を省略する。
 欺瞞判定部23は、地物照合部21からの出力を受信する地物位置推定結果受信部30と認識確信度受信部31を有する。また、欺瞞判定部23は、仮想認識部22からの出力を受信する仮想認識結果受信部32、ならびに、認識結果検証部33、整合判定部34、突発変化判定部35、欺瞞判定結果送信部36、および、外部環境判定結果受信部37を有する。
 外部環境判定結果受信部37では、外界センサにとって良好な性能となる外部環境の場合に増加して1に近づき、性能が劣化する外部環境の場合に減少して0に近づく、外部環境指標値を外部環境判定部26から受信する。この外部環境指標値は、たとえば、画像センサであれば、昼間の曇天などで1となり、夜間や雨天などで0に近づく。
 認識結果検証部33では、図14に示すステップS15において、認識結果検証の成功あるいは失敗を判定する。ステップS13のループ内において、対応づけられた地物に対して、仮想認識結果の地物位置と外界認識結果の地物位置との位置誤差を算出する際の閾値を、外部環境判定結果受信部の結果に応じて変動させる点が異なる。具体的には、ある時刻tにおける地物の位置誤差を判定する閾値A(t)を、外部環境指標値が所定の閾値以下の場合に、次の時刻t+1では、A(t+1)=A(t)+α×{Amax-A(t)}、のように更新する。ここで、0<α<1、である。また、地物の認識確信度を判定する閾値B(t)を外部環境指標値が所定の閾値以下の場合に、次の時刻t+1では、B(t+1)=B(t)-β×{B(t)-Bmin}、のように更新する。ここで、0<β<1、である。
 これにより、外部環境に起因する認識性能が悪化する状況で、閾値Aは最大値Amaxに速度αで徐々に近づくように増大する。また、閾値Bは最小値Bminに速度βで徐々に近づくように減少する。この結果、ステップS15においてYesと判定されやすくなる。
 整合判定部34では、図15に示すステップS24において、対応づけられた地物に対して、仮想認識結果の地物位置と外界認識結果の地物位置との位置誤差を算出する際の閾値を、外部環境判定結果受信部の結果に応じて変動させる。具体的には、ある時刻tにおける地物の位置誤差を判定する閾値C(t)を、外部環境指標値が所定の閾値以下の場合に、次の時刻t+1では、C(t+1)=C(t)+γ×{Cmax-C(t)}、のように更新する。ここで、0<γ<1、である。
 これにより、外部環境に起因する認識性能が悪化する状況で、閾値Cは最大値Cmaxに速度γで徐々に近づくように増大する。この結果、ステップS25においてYesと判定されやすくなる。これ以降の処理は実施例4と同様であるため、以降は割愛する。
 本実施形態の電子制御装置2によれば、前述の実施形態1から4の電子制御装置2と同様の効果を奏することができるだけでなく、外部環境の診断結果を利用することで、暗所や荒天時などの認識性能が不安定になりやすい状況においても、欺瞞判定処理S4の誤判定を防止することができる。したがって、本実施形態の電子制御装置2によれば、欺瞞信号による測位精度の低下をより精度よく判定することが可能になる。
 以上、図面を用いて本開示に係る電子制御装置の実施形態を詳述してきたが、具体的な構成はこの実施形態に限定されるものではなく、本開示の要旨を逸脱しない範囲における設計変更等があっても、それらは本開示に含まれるものである。
2:電子制御装置、21:地物照合部、22:仮想認識部、23:欺瞞判定部、24:測位演算部、26:外部環境判定部、27:制約レベル出力部、3:受信機、4:地図情報、5:外界センサ、B1-B4:建物(地物)、DV:欺瞞判定値、Err:誤差、LM:車線区画線(地物)、P1-P4:電柱(地物)、R1-R2:道路(地物)、RS1:路面標示(地物)、SS1-SS3:標識(地物)、Th:しきい値、VRR:仮想認識結果。

Claims (7)

  1.  外界センサによる地物の検出結果に基づく外界認識結果と地図情報とを照合して前記地物の絶対位置を取得する地物照合部と、
     測位衛星からの信号と補強情報とを受信する受信機の出力に基づく測位結果と前記地図情報とに基づいて前記外界認識結果に対応する仮想認識結果を生成して前記地物の相対位置を取得する仮想認識部と、
     前記地物の前記絶対位置と前記相対位置との誤差の大きさと誤差継続時間とが増加するほど増大する欺瞞判定値がしきい値を超えた場合に欺瞞信号による測位精度の低下を判定する欺瞞判定部と、
     を備える電子制御装置。
  2.  前記欺瞞判定部は、前記外界センサによる前記地物の検出容易性を示す認識安定度と前記地物の識別容易性を示す認識容易度を前記誤差に乗じて前記欺瞞判定値を算出する、請求項1に記載の電子制御装置。
  3.  前記受信機の出力に基づいて前記測位結果を算出するとともに測位状態の異常の有無を判定する測位演算部をさらに備え、
     前記欺瞞判定部は、前記測位状態の異常がなくかつ前記欺瞞判定値が前記しきい値を超えた場合に欺瞞信号による測位精度の低下を判定する、請求項1に記載の電子制御装置。
  4.  前記測位演算部は、前記欺瞞判定部によって欺瞞信号による測位精度の低下が判定された場合に前記補強情報の取得方法を変更する、請求項3に記載の電子制御装置。
  5.  前記測位演算部は、前記測位衛星からの信号の受信状態の悪化の有無を判定し、前記欺瞞判定部によって欺瞞信号による測位精度の低下が判定され、かつ前記測位衛星からの信号の受信状態の悪化が判定された場合に、前記補強情報を除外して前記測位結果を算出する、請求項3に記載の電子制御装置。
  6.  外部環境による前記外界センサの検出精度低下を判定する外部環境判定部をさらに備え、
     前記欺瞞判定部は、前記外部環境判定部によって前記外界センサの検出精度低下が判定された場合に前記欺瞞判定値の前記しきい値を増加させる、請求項1に記載の電子制御装置。
  7.  前記補強情報の取得方法と前記補強情報の除外の有無とに基づいて車両の自動運転に関する動作の制約レベルを出力する制約レベル出力部をさらに備える、請求項5に記載の電子制御装置。
PCT/JP2022/030639 2022-03-14 2022-08-10 電子制御装置 WO2023176012A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-039517 2022-03-14
JP2022039517A JP2023134153A (ja) 2022-03-14 2022-03-14 電子制御装置

Publications (1)

Publication Number Publication Date
WO2023176012A1 true WO2023176012A1 (ja) 2023-09-21

Family

ID=88023109

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/030639 WO2023176012A1 (ja) 2022-03-14 2022-08-10 電子制御装置

Country Status (2)

Country Link
JP (1) JP2023134153A (ja)
WO (1) WO2023176012A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9847033B1 (en) * 2015-09-25 2017-12-19 Amazon Technologies, Inc. Communication of navigation data spoofing between unmanned vehicles
CN107861135A (zh) * 2017-10-26 2018-03-30 国家电网公司 一种面向电力巡检的无人机卫星导航欺骗检测方法
US20190243002A1 (en) * 2017-03-31 2019-08-08 Faraday&Future Inc. Methods and systems for detecting signal spoofing
US20200094847A1 (en) * 2018-09-20 2020-03-26 Toyota Research Institute, Inc. Method and apparatus for spoofing prevention
JP2021063795A (ja) * 2019-10-15 2021-04-22 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転システムに対するスプーフィング攻撃を検出する方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9847033B1 (en) * 2015-09-25 2017-12-19 Amazon Technologies, Inc. Communication of navigation data spoofing between unmanned vehicles
US20190243002A1 (en) * 2017-03-31 2019-08-08 Faraday&Future Inc. Methods and systems for detecting signal spoofing
CN107861135A (zh) * 2017-10-26 2018-03-30 国家电网公司 一种面向电力巡检的无人机卫星导航欺骗检测方法
US20200094847A1 (en) * 2018-09-20 2020-03-26 Toyota Research Institute, Inc. Method and apparatus for spoofing prevention
JP2021063795A (ja) * 2019-10-15 2021-04-22 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転システムに対するスプーフィング攻撃を検出する方法

Also Published As

Publication number Publication date
JP2023134153A (ja) 2023-09-27

Similar Documents

Publication Publication Date Title
US8301374B2 (en) Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks
US8271174B2 (en) Support control device
JP5747787B2 (ja) 車線認識装置
US11525682B2 (en) Host vehicle position estimation device
US11260861B2 (en) Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes on a roadway
US20080243378A1 (en) System and method for vehicle navigation and piloting including absolute and relative coordinates
KR20220033477A (ko) 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법
US11092442B2 (en) Host vehicle position estimation device
US11703347B2 (en) Method for producing an autonomous navigation map for a vehicle
US20190316929A1 (en) System and method for vehicular localization relating to autonomous navigation
CN107031647B (zh) 通过道路形状识别的预测变速控制方法
CN107957258B (zh) 道路标记识别装置
US20210278217A1 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
KR102134841B1 (ko) 자율주행차의 위치추정시스템 및 그의 위치추정방법
US11959752B2 (en) Vehicular position specification apparatus and vehicular position specification method
US20230243657A1 (en) Vehicle control device and host vehicle position estimation method
CN110893845A (zh) 用于对角车道检测的方法与装置
CN113165661A (zh) 用于确定车辆的修正轨迹的方法和系统
WO2023176012A1 (ja) 電子制御装置
JP2009014555A (ja) ナビゲーション装置、ナビゲーション方法及びナビゲーションプログラム
JP2020204501A (ja) 車両の自己位置推定装置、及び車両
US20230086589A1 (en) Vehicle position estimation device
CN112406861B (zh) 利用地图数据进行卡尔曼滤波器参数选择的方法和装置
US11466991B2 (en) Sensor data system for a vehicle
US20220252405A1 (en) Localization device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22932276

Country of ref document: EP

Kind code of ref document: A1