WO2021024712A1 - エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法 - Google Patents

エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法 Download PDF

Info

Publication number
WO2021024712A1
WO2021024712A1 PCT/JP2020/027322 JP2020027322W WO2021024712A1 WO 2021024712 A1 WO2021024712 A1 WO 2021024712A1 JP 2020027322 W JP2020027322 W JP 2020027322W WO 2021024712 A1 WO2021024712 A1 WO 2021024712A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
unit
function
vehicle
target
Prior art date
Application number
PCT/JP2020/027322
Other languages
English (en)
French (fr)
Inventor
栗山 哲
晴輝 西村
俊輔 松尾
尚登 青木
門司 竜彦
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to DE112020003137.3T priority Critical patent/DE112020003137T5/de
Priority to JP2021537649A priority patent/JP7162142B2/ja
Priority to US17/629,870 priority patent/US20220289245A1/en
Publication of WO2021024712A1 publication Critical patent/WO2021024712A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • B60W60/00186Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions related to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • B60W2050/0292Fail-safe or redundant systems, e.g. limp-home or backup systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/25Data precision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to an in-vehicle control device, and more particularly to an aiming device that corrects sensor data.
  • Driving support to achieve various purposes such as reducing traffic accidents, reducing the load on drivers, improving fuel efficiency to reduce the burden on the global environment, and providing means of transportation for vulnerable people to realize a sustainable society.
  • Systems and autonomous driving systems are being developed.
  • a plurality of vehicle peripheral monitoring sensors are provided in order to monitor the vehicle peripherals instead of the driver. Further, in order to ensure the safety of these systems, a function of correcting even if the mounting angle of the vehicle peripheral monitoring sensor deviates is required.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2015-07825
  • a distance measuring sensor whose detection range includes an orientation in which a reference object whose relative position to itself is determined to be a fixed position is included in the detection range, and a distance measuring sensor partially overlap.
  • a peripheral monitoring device that determines the deviation of the detection axis of the distance measuring sensor from the deviation from the position of is described (see summary).
  • Patent Document 2 Japanese Unexamined Patent Publication No. 2019-9273 describes an obstacle recognition device that recognizes an obstacle by combining a plurality of sensor information, and is a front camera that acquires first parameter information regarding the obstacle.
  • It is provided with a correction unit that calculates the amount of misalignment and corrects the misalignment of the front camera or the millimeter-wave radar based on the calculated amount of misalignment, and a storage unit that stores the amount of misalignment.
  • the detection axis deviation of the sensor is determined based on the detection position of the object existing in the area where the detection areas of the plurality of sensors overlap, but when the detection areas of the plurality of sensors do not overlap. , There is a problem that the axis deviation cannot be determined. Further, in Patent Document 2, the detection axis deviation of the sensor is determined based on the second parameter information regarding the obstacle existing in the area where the detection areas of the plurality of sensors overlap, but the detection areas of the plurality of sensors overlap. If not, there is a problem that the axis deviation cannot be determined because it cannot be determined whether the first parameter and the second parameter are based on the same target.
  • a typical example of the invention disclosed in the present application is as follows. That is, it is an aiming device that calculates the correction amount of the detection result of the sensor by using the detection results of two or more sensors, and the sensor data detected by the sensor is predetermined from the coordinate system unique to the sensor.
  • Each sensor has a sensor coordinate conversion unit that converts to a unified coordinate system, a target selection unit that selects a predetermined feature from the sensor data detected by each sensor, and a function that approximates the arrangement state of the selected feature.
  • the coordinates of the feature detected by the sensor are converted from the function fitting unit determined for each, the fitting result comparison unit that compares the function that approximates the arrangement state of the feature detected by each sensor, and the comparison result of the function. It is characterized in that it includes a correction value calculation unit for calculating a correction amount for the purpose.
  • the axis deviation of the sensor can be corrected. Issues, configurations and effects other than those mentioned above will be clarified by the description of the following examples.
  • FIG. 1 It is a functional block diagram of the sensor fusion apparatus which has the sensor aiming function of Example 1.
  • FIG. It is a conceptual diagram which shows the processing method of the sensor fusion apparatus which has the sensor aiming function of Example 1.
  • FIG. 2 It is a conceptual diagram which shows the processing method of the sensor fusion apparatus which has the sensor aiming function of Example 1.
  • FIG. 2 It is a functional block diagram of the sensor fusion apparatus which has the sensor aiming function of Example 2.
  • FIG. It is a functional block diagram of the sensor fusion apparatus which has the sensor aiming function of Example 4.
  • Example 5 It is a functional block diagram of the sensor fusion apparatus which has the sensor aiming function of Example 5. It is a functional block diagram of the sensor fusion apparatus which has the sensor aiming function of Example 6. It is a functional block diagram which shows one Example of the sensor fusion apparatus which has the sensor aiming function of Example 7. FIG. It is a conceptual diagram which shows the processing method of the sensor fusion apparatus which has the sensor aiming function of Example 8.
  • FIG. 1 is a functional block diagram showing an embodiment of a sensor fusion device 1 having a sensor aiming function.
  • 2 to 4 are conceptual diagrams showing the processing of the sensor fusion device 1 having the sensor aiming function. The processing flow and operation of the sensor fusion device 1 having the sensor aiming function, which is the first embodiment of the present invention, will be described with reference to FIGS. 1 to 4.
  • the sensor fusion device 1 of this embodiment has a sensor coordinate conversion unit 100a, a sensor time synchronization unit 110a, a moving object stationary object sorting unit 120a, a sensor data integration unit 200a, and a first target selection unit 300a.
  • the sensor aiming function is configured by each part other than the sensor data integration unit 200a of the sensor fusion device 1, and the sensor aiming device is realized by each part other than the sensor data integration unit 200a.
  • output signals of the first vehicle peripheral monitoring sensor 10a, the second vehicle peripheral monitoring sensor 10b, the own vehicle behavior detection sensor 20a, and the lane marker detection sensor 30a are input to the sensor fusion device 1, and the distribution sensing information 40a is transmitted. Entered.
  • the first and second vehicle peripheral monitoring sensors 10a and 10b are sensors that detect targets around the own vehicle.
  • the own vehicle behavior detection sensor 20a is a group of sensors that detect the speed, yaw rate, and steering angle of the own vehicle.
  • the lane marker detection sensor 30a is a sensor that detects a lane marker (for example, a road center line, a lane boundary line, a road outside line formed by paint, road studs, or the like).
  • the distribution sensing information 40a is a traveling environment of the own vehicle (for example, travel map data including the curvature of the road).
  • the sensor fusion device 1 (electronic control device) and various sensors (first vehicle peripheral monitoring sensor 10a, second vehicle peripheral monitoring sensor 10b, etc.) of the present embodiment are computers including an arithmetic unit, a memory, and an input / output device ( Microcomputer) is included.
  • the arithmetic unit includes a processor and executes a program stored in memory. A part of the processing performed by the arithmetic unit by executing the program may be executed by another arithmetic unit (for example, hardware such as FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit)).
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • the memory includes ROM and RAM which are non-volatile storage elements.
  • the ROM stores an invariant program (for example, BIOS) and the like.
  • RAM is a high-speed and volatile storage element such as DRAM (Dynamic Random Access Memory) and a non-volatile storage element such as SRAM (Static Random Access Memory), and is a program executed by an arithmetic unit and execution of a program. Stores data that is sometimes used.
  • the input / output device is an interface that transmits the processing contents of the electronic control device or sensor to the outside or receives data from the outside according to a predetermined protocol.
  • the program executed by the arithmetic unit is stored in the non-volatile memory which is a non-temporary storage medium of the electronic control unit and the sensor.
  • the own vehicle 800 travels in the direction of the own vehicle traveling path 710a, and around the own vehicle 800, a first sensor detection area 700a by the first vehicle peripheral monitoring sensor 10a and a second sensor detection area 700a.
  • a second sensor detection area 700b by the vehicle peripheral monitoring sensor 10b is provided.
  • the first and second function fitting results 900a and 900b are shown in each figure.
  • FIGS. 2 (A) to 2 (D) the first vehicle peripheral monitoring sensor 10a and the second vehicle peripheral monitoring sensor 10b are normally attached (without axial deviation with respect to the vehicle front direction in the horizontal direction).
  • the concept of the processing method in the specified state is shown.
  • FIGS. 3A to 3C the attachment angle of the second vehicle peripheral monitoring sensor 10b to the vehicle is shifted by an angle ⁇ 1 with respect to the horizontal direction of the vehicle in front of the vehicle.
  • the concept of the processing method in the state is shown.
  • FIGS. 4 (A) to 4 (C) the first vehicle peripheral monitoring sensor 10a is mounted so as to be displaced by an angle ⁇ 2 with respect to the horizontal direction of the vehicle in front of the vehicle, and the second vehicle.
  • the concept of the processing method in the state where the peripheral monitoring sensor 10b is attached with the axis deviated by an angle ⁇ 1 with respect to the vehicle front direction in the horizontal direction is shown.
  • the first vehicle peripheral monitoring sensor 10a detects the first to third stationary object targets 810a to 810c, the non-target stationary object target 820a, and the moving body 830a existing in the first sensor detection area 700a, and the first to third stationary objects are detected. It outputs at least the relative coordinates of the stationary objects targets 810a to 810c and the non-target stationary object target 820a with respect to the own vehicle, and at least the relative coordinates and absolute speed of the moving body 830a with respect to the own vehicle.
  • the second vehicle peripheral monitoring sensor 10b detects the fourth to sixth stationary objects targets 810d to 810f and the non-target stationary object targets 820a existing in the second sensor detection area 700b, and detects the fourth to sixth stationary objects.
  • the sensor coordinate conversion unit 100a includes the relative coordinates of the first to sixth stationary objects 810a to 810f output from the first vehicle peripheral monitoring sensor 10a and the second vehicle peripheral monitoring sensor 10b with respect to the own vehicle, and the target.
  • the relative coordinates of the outer stationary object target 820a with the own vehicle and the relative coordinates of the moving body 830a with the own vehicle are converted into unified relative coordinates with the own vehicle and output to the sensor time synchronization unit 110a.
  • the unified relative coordinates are a coordinate system in which the coordinates to which the data output by the plurality of vehicle peripheral monitoring sensors 10a and 10b conform are collected.
  • the origin is the center of the front end of the own vehicle.
  • the front direction of the vehicle is defined as x
  • the left direction of the vehicle is defined as y.
  • the detection result of the speed, yaw rate and steering angle of the own vehicle by the own vehicle behavior detection sensor 20a is input to the sensor time synchronization unit 110a.
  • the sensor time synchronization unit 110a has unified relative coordinates of the first to third stationary object targets 810a to 810c, the non-target stationary object target 820a, and the moving body 830a detected by the input first vehicle peripheral monitoring sensor 10a.
  • the own vehicle detected by the own vehicle behavior detection sensor 20a the unified relative coordinates of the fourth to sixth stationary objects targets 810d to 810f and the non-target stationary object target 820a detected by the second vehicle peripheral monitoring sensor 10b.
  • the detection results of the speed, yaw rate, and steering angle of the sensor are used to correct to the unified relative coordinates at a predetermined timing, the time of the detection result of each sensor is synchronized, and the time-synchronized unified relative of the first to sixth targets. Output the coordinates.
  • the mobile stationary object sorting unit 120a is the first to sixth stationary object targets and non-target stationary objects among the peripheral objects detected by the first vehicle peripheral monitoring sensor 10a and the second vehicle peripheral monitoring sensor 10b.
  • the target 820a and the moving body 830a are separated, and the unified relative coordinates of the first to sixth stationary object targets 810a to 810f and the non-target stationary object target 820a are output to the first target selection unit 300a.
  • the moving body stationary object sorting unit 120a includes the first to sixth stationary object targets 810a to 810f and the non-target stationary object detected by the first vehicle peripheral monitoring sensor 10a and the second vehicle peripheral monitoring sensor 10b.
  • the unified relative coordinates and absolute velocity of the target 820a and the moving body 830a are output to the sensor data integration unit 200a.
  • the sensor data integration unit 200a integrates all the input information and outputs the integration result to the operation control device 2.
  • the driving control device 2 is an automatic driving system (AD-ECU) or a driving support system that controls the driving of a vehicle by using the output from the sensor fusion device 1.
  • the first target selection unit 300a selects the first to sixth rest object targets 810a to 810f from the input first to sixth rest object targets 810a to 810f and the non-target rest object target 820a. , The unified relative coordinates of the first to sixth stationary objects 810a to 810f are output.
  • the first target detection start determination unit 340a determines that the own vehicle is in a desired running state based on the information output from the own vehicle behavior detection sensor 20a, the lane marker detection sensor 30a, and the distribution sensing information 40a.
  • the target detection start flag is output to the first target selection unit 300a.
  • the function fitting unit 310a When the target detection start flag is input, the function fitting unit 310a performs the first function on the array of the first to third stationary objects 810a to 810c derived from the first vehicle peripheral monitoring sensor 10a. Fitting is performed, and the first function fitting result 900a is output. At the same time, when the target detection start flag is input, the function fitting unit 310a is second with respect to the arrangement of the fourth to sixth stationary objects 810d to 810f derived from the second vehicle peripheral monitoring sensor 10b. The function is fitted and the second function fitting result 900b is output.
  • the first fitting result comparison unit 320a compares the first function fitting result 900a and the second function fitting result 900b, and calculates a function correction value such that they match. Based on the function correction value, the coordinate conversion correction value calculation unit 330a has a sensor coordinate conversion correction value corresponding to the amount of attachment axis deviation of the first vehicle peripheral monitoring sensor 10a and the attachment axis deviation of the second vehicle peripheral monitoring sensor 10b. The sensor coordinate conversion correction value corresponding to the quantity is calculated and output to the sensor coordinate conversion unit 100a.
  • the differences between the processing flow in the state of FIG. 3 and the processing flow in the state of FIG. 2 are as follows.
  • the second vehicle peripheral monitoring sensor 10b detects the third to sixth stationary object targets 810c to 810f and the non-target stationary object target 820a existing in the second sensor detection area 700b, and the third to sixth stationary objects. At least the relative coordinates of the object targets 810c to 810f and the non-target stationary object target 820a with respect to the own vehicle are output.
  • the sensor time synchronization unit 110a has unified relative coordinates of the first to third stationary object targets 810a to 810c, the non-target stationary object target 820a, and the moving body 830a detected by the input first vehicle peripheral monitoring sensor 10a.
  • the own vehicle detected by the own vehicle behavior detection sensor 20a the unified relative coordinates of the third to sixth stationary objects targets 810c to 810f and the non-target stationary object target 820a detected by the second vehicle peripheral monitoring sensor 10b.
  • the detection results of the speed, yaw rate, and steering angle of the sensor are used to correct to the unified relative coordinates at a predetermined timing, the time of the detection result of each sensor is synchronized, and the time-synchronized unified relative of the first to sixth targets. Output the coordinates.
  • the function fitting unit 310a When the target detection start flag is input, the function fitting unit 310a performs a third function on the arrangement of the third to sixth stationary objects 810c to 810f derived from the second vehicle peripheral monitoring sensor 10b. It is fitted and output as a third function fitting result 900c.
  • the first fitting result comparison unit 320a compares the first function fitting result 900a with the third function fitting result 900c, and calculates a function correction value such that they match.
  • the first vehicle peripheral monitoring sensor 10a detects the first and second stationary object targets 810a to 810b and the moving body 830a existing in the first sensor detection region 700a, and detects the first and second stationary object targets 810a. It outputs at least the relative coordinates of 810b with respect to the own vehicle, and at least the relative coordinates and absolute speed of the moving body 830a with respect to the own vehicle.
  • the sensor time synchronization unit 110a monitors the unified relative coordinates of the first and second stationary objects 810a to 810b and the moving body 830a detected by the input first vehicle peripheral monitoring sensor 10a, and the second vehicle peripheral monitoring.
  • the unified relative coordinates of the third to sixth stationary objects targets 810c to 810f and the non-target stationary object targets 820a detected by the sensor 10b are the speed, yaw rate, and steering angle of the own vehicle detected by the own vehicle behavior detection sensor 20a.
  • the detection result of is corrected to the unified relative coordinates at a predetermined timing, the time of the detection result of each sensor is synchronized, and the unified relative coordinates of the first to sixth targets synchronized with the time are output.
  • the function fitting unit 310a When the target detection start flag is input, the function fitting unit 310a performs a fourth function on the array of the first and second stationary objects 810a to 810b derived from the first vehicle peripheral monitoring sensor 10a. Fitting is performed, and the fourth function fitting result 900d is output.
  • the first fitting result comparison unit 320a compares the fourth function fitting result 900d with the third function fitting result 900c, and calculates a function correction value such that they match.
  • the first to sixth stationary objects targets 810a to 810f are objects such as guardrail columns that are periodically arranged at known intervals substantially parallel to the road, and the non-target stationary object targets 820a are utility poles.
  • the environment in which the vehicle is traveling is a straight road.
  • the first target selection unit 300a has a function of filtering the input unified relative coordinates of the stationary objects according to the distances of their arrays. For example, it is known that the installation interval of the columns of the guardrail is standardized to about 2 to 4 m. Therefore, by performing a filter process that matches the installation interval of the columns at a cycle of 2 to 4 m, the first to the first to The sixth stationary object targets 810a to 810f can be selectively extracted. That is, the non-target stationary object target 820a existing at a period different from that of the first to sixth stationary objects targets 810a to 810f can be removed by the filtering process. Specifically, the first target selection unit 300a may hold a plurality of filters in advance and select an appropriate filter based on the filtering result.
  • the function fitting unit 310a fits the array of the first to third stationary objects targets 810a to 810c derived from the first vehicle peripheral monitoring sensor 10a in the unified relative coordinates by a linear function, and is defined by the equation (1).
  • the function fitting unit 310a fits the array of the fourth to sixth stationary objects targets 810d to 810f derived from the second vehicle peripheral monitoring sensor 10b in the unified relative coordinates by a linear function, and is defined by the equation (2).
  • the resulting second linear function is output as the second function fitting result 900b.
  • y a 2 x + b 2 ... (2)
  • the axes x and y in the equations (1) and (2) are as shown in FIG. 2 (D).
  • the function fitting unit 310a overlaps the first function fitting result 900a with the array of the first to third stationary objects targets 810a to 810c at the unified relative coordinates.
  • the second function fitting result 900b overlaps the array of unified relative coordinates of the fourth to sixth stationary objects targets 810d to 810f.
  • the first fitting result comparison unit 320a compares the input first function fitting result 900a and the second function fitting result 900b, and the first function fitting result 900a and the second function fitting result 900b are obtained. Calculate a matching function correction value.
  • the first function fitting result 900a And the second function fitting result 900b are represented by the same function, and the extrapolation lines of both fitting results are the same. Therefore, the first function correction value is calculated to be zero.
  • the function fitting unit 310a outputs the first function fitting result 900a and the third function fitting result 900c.
  • the function fitting unit 310a does not have the information of the axis misalignment.
  • the function fitting unit 310a outputs the fourth function fitting result 900d and the third function fitting result 900c as shown in FIG. 4C.
  • the fourth function fitting result 900d is the fitting result of the fourth linear function defined by the equation (4).
  • y a 4 x + b 4 ... (4)
  • the function fitting unit 310a does not have information on the axis misalignment.
  • the fourth function fitting result 900d is output in the form of being rotated by an angle ⁇ 2 in the horizontal direction behind the own vehicle.
  • the second vehicle peripheral monitoring sensor 10b is attached to the own vehicle with the axis deviated by an angle ⁇ 1 in the horizontal direction of the vehicle forward, the function fitting unit 310a does not have information on the axis misalignment.
  • the function fitting result 900c of 3 is output in the form of being rotated by an angle ⁇ 1 in the horizontal direction behind the own vehicle.
  • the function correction value has a dimension corresponding to the dimension of the function to be fitted.
  • the function to be fitted is one-dimensional, so the function correction value is two-dimensional, that is, it is composed of two parameters.
  • the operation of the coordinate conversion correction value calculation unit 330a is as follows.
  • the first function correction value output from the first fitting result comparison unit 320a is zero
  • the first sensor coordinate conversion correction value output from the coordinate conversion correction value calculation unit 330a is Calculated as zero.
  • the second sensor coordinate conversion correction value for correcting the sensor coordinate conversion value for the second vehicle peripheral monitoring sensor 10b is output based on the second function correction value. Specifically, a second sensor coordinate conversion correction value that rotates the sensor coordinate conversion value in the horizontal direction in the front direction of the vehicle by an angle ⁇ 1 is output.
  • FIG. 4 in addition to the state of FIG.
  • a third sensor coordinate conversion correction value that corrects the sensor coordinate conversion value for the first vehicle peripheral monitoring sensor 10a based on the third function correction value. Is output. Specifically, a third sensor coordinate conversion correction value that rotates the sensor coordinate conversion value in the horizontal direction toward the front of the vehicle by an angle ⁇ 2 is output.
  • the sensor coordinate conversion correction value is represented by the function correction value and the function representing the fitting result in the same dimension.
  • the sensor coordinate conversion correction value is two-dimensional, that is, it is composed of two parameters.
  • the sensor coordinate conversion correction value may be composed of a 2 ⁇ 2 matrix having zero diagonal elements.
  • the operation of the sensor coordinate conversion unit 100a is as follows.
  • the sensor coordinate conversion correction value is not generated by the coordinate conversion correction value calculation unit 330a, that is, when the target detection start flag is not output from the first target detection start determination unit 340a
  • the sensor coordinate conversion unit 100a is held inside.
  • the first to sixth stationary object targets 810a to 810f and the non-target stationary object targets 820a and the moving body 830a output from the first and second vehicle peripheral monitoring sensors 10a and 10b. Converts the relative coordinates with the own vehicle to the unified relative coordinates with the own vehicle.
  • the sensor coordinate conversion unit 100a is internal.
  • the sensor coordinate conversion parameters held in the above are changed based on the sensor coordinate conversion correction values, and the first to sixth stationary objects targets 810a to 810f output from the first and second vehicle peripheral monitoring sensors 10a and 10b are changed.
  • the relative coordinates of the non-target stationary object target 820a and the moving body 830a with the own vehicle are converted into the unified relative coordinates with the own vehicle.
  • the first target detection start determination unit 340a When the speed, steering angle and yaw rate of the own vehicle output from the own vehicle behavior detection sensor 20a are within the threshold values held in advance, the first target detection start determination unit 340a causes the own vehicle to go straight at a constant speed. It is determined that this is the case, and the first target detection start flag is output. Further, when the curvature of the lane marker output from the lane marker detection sensor 30a and the angle of the vehicle traveling direction with respect to the lane marker are within the threshold values held in advance, the first target detection start determination unit 340a advances the vehicle straight. Is determined, and the second target detection start flag is output.
  • the first target detection start determination unit 340a determines that the own vehicle is traveling straight when the road curvature of the driving environment of the own vehicle output from the distribution sensing information 40a is within the threshold value held in advance. Then, the third target detection start flag is output.
  • the first target detection start determination unit 340a selects one of the target detection start flags by arbitration based on the determination criteria in which the first to third target detection start flags are held in advance, and then the target. Output the detection start flag.
  • a configuration in which all of the vehicle behavior detection sensor 20a, the lane marker detection sensor 30a, and the distribution sensing information 40a are combined is desirable for improving the accuracy of the target detection flag, but two or more combinations or one of these sensors But it doesn't matter.
  • the sensor fusion device 1 having the sensor aiming function of the embodiment of the present invention is the first vehicle peripheral monitoring sensor 10a or the second vehicle peripheral monitoring sensor 10b.
  • the axis deviation of the mounting angle to the own vehicle occurs, the axis deviation can be corrected.
  • the drawing range of the first to fourth function fitting results 900a to 900d is within the regions of the first and second sensor detection regions 700a and 700b, but the first and second sensors are detected. It may be extrapolated outside the area of the sensor detection areas 700a and 700b. Due to extrapolation outside this region, even when the first sensor detection region 700a and the second sensor detection region 700b do not have an overlapping region, the first fitting result comparison unit 320a has the first to first steps.
  • the function correction value can be calculated by comparing the function fitting results 900a to 900d of No. 4.
  • the environment in which the own vehicle is traveling is a straight road for the sake of simplicity of explanation, but the effect can be obtained even in an arbitrary environment in which the behavior of the own vehicle does not change much with time. Is the same.
  • the environment in which the own vehicle is traveling may be a gentle curved road (for example, the curvature is constant within the detection range of the sensor).
  • the first to sixth stationary objects targets 810a to 810f are line-of-sight guide markers such as road distance posts and road edge reflectors, as long as they are objects that are periodically arranged at predetermined intervals.
  • a road structure such as a snow pole may be used.
  • a structure such as a railroad crossing breaker or a rail existing in a direction intersecting the traveling direction of the own vehicle may be used.
  • it may be a continuous object that can be detected by both the first and second vehicle peripheral monitoring sensors 10a and 10b.
  • one plurality of object groups may be used, or a plurality of object groups may be used.
  • the first target selection unit 300a uses the second vehicle peripheral monitoring sensor 10b based on the extraction result of the arrangement of the first to third stationary objects 810a to 810c derived from the first vehicle peripheral monitoring sensor 10a. You may choose a filter that extracts the sequences of the 4th to 6th stationary targets 810d to 810f from which they are derived.
  • the order of the function used for fitting the arrangement of the fourth to sixth stationary objects targets 810d to 810f derived from the second vehicle peripheral monitoring sensor 10b is determined by the first vehicle peripheral monitoring sensor 10a. It may be estimated from the order of the first function fitting result 900a for the sequences of the first to third to third rest objects 810a to 810c derived from.
  • the case where the processing flow of the functional block shown in FIG. 1 is operated once has been described, but it may be continuously operated a plurality of times.
  • the detection position accuracy of the first to sixth stationary objects targets 810a to 810f is improved, and at the same time, in the first target selection unit 300a, the non-target stationary objects from the first to sixth stationary object targets 810a to 810f.
  • the effect of improving the operation accuracy of removing the target 820a can be obtained.
  • FIG. 5 is a functional block diagram showing an embodiment of the sensor fusion device 1 having a sensor aiming function.
  • the processing flow and operation of the sensor fusion device 1 having the sensor aiming function which is the second embodiment of the present invention, will be described with reference to FIG.
  • the differences from the first embodiment will be mainly described, the same components will be designated by the same reference numerals, and the description thereof will be omitted.
  • the sensor fusion device 1 of this embodiment has a target detection data validity determination unit 350a and a target storage unit 360a in addition to the configuration of the first embodiment. Further, it has a second target selection unit 300b in place of the first target selection unit 300a, and has a target detection data validity determination unit 350a in place of the first target detection start determination unit 340a.
  • the target detection data validity determination unit 350a advances the own vehicle at a constant speed.
  • the first target detection data validity judgment information is output.
  • the target detection data validity determination unit 350a is within the threshold value in which the curvature of the lane marker and the angle of the vehicle traveling direction with respect to the lane marker are within the threshold values output from the lane marker detection sensor 30a, the vehicle is constant. It is determined that the vehicle is traveling straight at a speed, and the second target detection data validity determination information is output.
  • the target detection data validity determination unit 350a indicates that the vehicle is traveling straight at a constant speed when the road curvature of the driving environment of the vehicle included in the distribution sensing information 40a is within the threshold value held in advance. Is determined, and the third target detection data validity judgment information is output.
  • the target detection data validity determination unit 350a arbitrates the first to third target detection data validity determination information based on the determination criteria held in advance, and then outputs the detection data validity determination information. ..
  • a configuration that combines all of the vehicle behavior detection sensor 20a, the lane marker detection sensor 30a, and the distribution sensing information 40a is desirable for improving the accuracy of the target detection data validity determination information, but lane markers other than the vehicle behavior detection sensor 20a.
  • the detection sensor 30a and the distribution sensing information 40a may be configured to combine both or to combine either one.
  • the first to third target detection data validity determination information is time information time-synchronized with the output of the sensor time synchronization unit 110a.
  • the target storage unit 360a is stationary from the sensor time synchronization unit 110a and the unified relative coordinates of the stationary object target and the non-target stationary object target 820a output from the moving object stationary object sorting unit 120a at a desired time held in advance.
  • the time information in which the unified relative coordinates of the object target and the non-target stationary object target 820a are output is stored.
  • the second target selection unit 300b is a stationary target stored in the target storage unit 360a and a non-target rest based on the detection data validity determination information (time information) output from the target detection data validity determination unit 350a. Select the unified relative coordinates of the object target 820a. Further, a stationary object target is selected and output from the stationary object target and the non-target stationary object target 820a. The operation related to the selection of the stationary target is the same as that in the first embodiment.
  • the sensor fusion device 1 having the sensor aiming function of the present embodiment operates from the second target selection unit 300b to the coordinate conversion correction value calculation unit 330a at an arbitrary time. Therefore, the correction value can be calculated when the processing load of the entire system is low, and the hardware resources such as the arithmetic processing device of the entire system can be reduced. Similarly, when the processing load of the entire system is low, a series of operations can be executed, so that the temperature rise of the entire system can be reduced.
  • FIG. 6 is a functional block diagram showing an embodiment of the sensor fusion device 1 having a sensor aiming function.
  • the processing flow and operation of the sensor fusion device 1 having the sensor aiming function which is the third embodiment of the present invention, will be described with reference to FIG.
  • the differences from the first embodiment will be mainly described, the same components will be designated by the same reference numerals, and the description thereof will be omitted.
  • the sensor fusion device 1 of the present embodiment includes a target array shape estimation unit 370a and a source function generation unit 380a in place of the first target detection start determination unit 340a. Have.
  • the target array shape estimation unit 370a estimates the first array shape of the stationary target with respect to the vehicle based on the speed, steering angle, and yaw rate of the vehicle output from the vehicle behavior detection sensor 20a. For example, when the speed, steering angle, and yaw rate of the own vehicle are within the threshold value corresponding to the straight road traveling state held in advance, a straight line is output as the first arrangement shape. Further, the array shape estimation unit 370a of the target estimates the second array shape of the stationary target with respect to the own vehicle based on the curvature of the lane marker output from the lane marker detection sensor 30a.
  • the straight line is output as the second array shape.
  • the array shape estimation unit 370a of the target estimates the third array shape of the stationary target with respect to the own vehicle based on the road curvature of the traveling environment of the own vehicle output from the distribution sensing information 40a. For example, when the road curvature is within the threshold value corresponding to the straight road traveling state in which the road curvature is held in advance, the straight line is output as the third array shape.
  • the target array shape estimation unit 370a arbitrates the first to third array shapes based on the determination criteria held in advance, and then outputs the first to third array shapes as the array shape.
  • the lane marker detection sensor 30a other than the vehicle behavior detection sensor 20a is distributed.
  • the sensing information 40a may be configured to combine both or a configuration in which either one is combined.
  • the sensor fusion device 1 having the sensor aiming function of this embodiment Based on the above configuration, processing flow, and operation of the functional blocks, the sensor fusion device 1 having the sensor aiming function of this embodiment generates a function used by the function fitting unit 310a based on many information sources, so that the degree of matching is high. The probability of using a low function for fitting is reduced, and the speed of fitting processing can be improved.
  • FIG. 7 is a functional block diagram showing an embodiment of the sensor fusion device 1 having a sensor aiming function.
  • the processing flow and operation of the sensor fusion device 1 having the sensor aiming function which is the fourth embodiment of the present invention, will be described with reference to FIG. 7.
  • the differences from the first embodiment will be mainly described, the same components will be designated by the same reference numerals, and the description thereof will be omitted.
  • the sensor fusion device 1 of the present embodiment removes the first target detection start determination unit 340a from the configuration of the first embodiment, and performs the coordinate conversion correction value storage unit 390a and the first coordinate conversion correction.
  • a determination unit 400a is provided. Further, the output signals of the own vehicle behavior detection sensor 20a and the lane marker detection sensor 30a and the distribution sensing information 40a are not input.
  • the coordinate conversion correction value storage unit 390a stores the sensor coordinate conversion correction value output from the coordinate conversion correction value calculation unit 330a at a plurality of times.
  • the first coordinate conversion correction execution determination unit 400a refers to the coordinate conversion correction value stored in the coordinate conversion correction value storage unit 390a, and the number of times that the sensor coordinate conversion correction value becomes equal to or greater than a preset holding threshold value is a predetermined value. In the above case, it is determined that the sensor itself is misaligned instead of a temporary false detection, and the statistical values (for example, average values) of the plurality of sensor coordinate conversion correction values are output to the sensor coordinate conversion unit 100a. The command to be executed is sent to the coordinate conversion correction value storage unit 390a.
  • the operation of the sensor coordinate conversion unit 100a is the same as that of the first to third embodiments.
  • the sensor fusion device 1 having the sensor aiming function of the present embodiment calculates the sensor coordinate conversion correction value using the sensor coordinate conversion correction values for a plurality of times. By determining whether to correct the sensor value, unnecessary calculation of the sensor coordinate conversion correction value can be reduced, and the accuracy of the sensor coordinate conversion correction value can be improved.
  • FIG. 8 is a functional block diagram showing an embodiment of the sensor fusion device 1 having a sensor aiming function.
  • the processing flow and operation of the sensor fusion device 1 having the sensor aiming function which is the fifth embodiment of the present invention, will be described with reference to FIG.
  • the differences from the first embodiment will be mainly described, the same components will be designated by the same reference numerals, and the description thereof will be omitted.
  • the sensor fusion device 1 of this embodiment has a sensor state estimation unit 410a in addition to the configuration of the first embodiment. Further, it has a second fitting result comparison unit 320b in place of the first fitting result comparison unit 320a, and has a second target detection start determination unit 340b in place of the first target detection start determination unit 340a. Further, the output signals of the first to third state detection sensors 50a to 50c are input to the sensor fusion device 1.
  • the first to third state detection sensors 50a to 50c are composed of an impact sensor, a temperature sensor, and the like, and detect an impact and a temperature change at a portion to which each of the first to third state detection sensors 50a to 50c is attached. To do. Specifically, the first state detection sensor 50a detects an impact and a temperature change applied to the third vehicle peripheral monitoring sensor 10c. Further, the second state detection sensor 50b detects an impact and a temperature change applied to the fourth vehicle peripheral monitoring sensor 10d. The third state detection sensor 50c is attached to a place such as the chassis of the own vehicle where it is easy to detect an impact applied to the entire vehicle, and detects an impact applied to an arbitrary location and a temperature change.
  • the sensor state estimation unit 410a is the own vehicle of the third and fourth vehicle peripheral monitoring sensors 10c and 10d based on the data related to the impact and the temperature change output from the first to third state detection sensors 50a to 50c. Estimate the mounting condition to. For example, when the impact data output from the first state detection sensor 50a is equal to or higher than the threshold value held in advance, the first state indicating that an abnormality has occurred in the mounting state of the third vehicle peripheral monitoring sensor 10c. The abnormality flag is output to the second target detection start determination unit 340b. Similarly, when the impact data output from the second state detection sensor 50b is equal to or higher than the threshold value held in advance, the sensor state estimation unit 410a has an abnormality in the mounting state of the fourth vehicle peripheral monitoring sensor 10d.
  • a second abnormality flag indicating that the occurrence has occurred is output to the second target detection start determination unit 340b.
  • the sensor state estimation unit 410a attaches the third and fourth vehicle peripheral monitoring sensors 10c and 10d when the impact data output from the third state detection sensor 50c is equal to or higher than the threshold value held in advance.
  • a third abnormality flag indicating that an abnormality has occurred in the state is output to the second target detection start determination unit 340b.
  • the sensor state estimation unit 410a causes the fourth vehicle peripheral monitoring sensor 10d to become hot or cold. It is determined that the sensor has become abnormal, and a second abnormality flag indicating that an abnormality has occurred in the sensor is output to the second target detection start determination unit 340b.
  • the sensor state estimation unit 410a sets the third and fourth vehicle peripheral monitoring sensors 10c and 10d high temperature when the temperature data output from the third state detection sensor 50c exceeds the predetermined operating range. Alternatively, it is determined that the temperature has become low, and a third abnormality flag indicating that an abnormality has occurred in the sensor is output to the second target detection start determination unit 340b.
  • the sensor state estimation unit 410a weights the third and fourth vehicle peripheral monitoring sensors 10c and 10d based on the data related to the impact and the temperature change output from the first to third state detection sensors 50a to 50c.
  • the coefficient is output to the second fitting result comparison unit 320b.
  • the second target detection start determination unit 340b After receiving the first to third abnormality flags, the second target detection start determination unit 340b executes the same operation as the first target detection start determination unit 340a of the first embodiment. Therefore, if no abnormality has occurred, the sensor coordinate conversion correction value will not be calculated.
  • the second fitting result comparison unit 320b has a fifth function fitting result derived from the third vehicle peripheral monitoring sensor 10c output from the function fitting unit 310a and a sixth derived from the fourth vehicle peripheral monitoring sensor 10d.
  • the weighting coefficient is used to output the function correction value such that the fifth and sixth function fitting results match.
  • the sensor fusion device 1 having the sensor aiming function of this embodiment is a second target selection unit when it is determined that an abnormality has occurred due to impact or temperature. Since the sensor coordinate conversion correction value is calculated by operating the coordinate conversion correction value calculation unit 330a from 300b, the unnecessary number of operations in which the sensor coordinate conversion correction value becomes zero can be reduced as compared with the first embodiment. The overall power consumption can be reduced. Further, when the second fitting result comparison unit 320b calculates the function correction value for matching the fifth and sixth function fitting results, each function fitting result can be weighted, so that the accuracy of the function correction value can be determined. Can be improved.
  • the first to third state detection sensors 50a to 50c are composed of an impact sensor and a temperature sensor, but only the impact sensor or the temperature sensor may be used. Further, other sensors (for example, humidity sensor) may be used. Further, any combination of these configurations may be used.
  • FIG. 9 is a functional block diagram showing an embodiment of the sensor fusion device 1 having a sensor aiming function.
  • the processing flow and operation of the sensor fusion device 1 having the sensor aiming function which is the sixth embodiment of the present invention, will be described with reference to FIG.
  • the differences from the first, fourth, and fifth embodiments will be mainly described, the same components will be designated by the same reference numerals, and the description thereof will be omitted.
  • the sensor fusion device 1 of the present embodiment removes the first target detection start determination unit 340a from the configuration of the first embodiment, and executes the coordinate conversion correction value storage unit 390a and the second coordinate conversion correction.
  • a determination unit 400b is provided. Further, the output signals of the own vehicle behavior detection sensor 20a and the lane marker detection sensor 30a and the distribution sensing information 40a are not input.
  • the coordinate conversion correction value storage unit 390a stores the sensor coordinate conversion correction value output from the coordinate conversion correction value calculation unit 330a at a plurality of times, as in the fourth embodiment.
  • the second coordinate conversion correction execution determination unit 400b receives the first to third abnormality flags output from the sensor state estimation unit 410a, and the latest sensor coordinates stored in the coordinate conversion correction value storage unit 390a. When the conversion correction value is equal to or higher than the predetermined threshold value, a command to output the sensor coordinate conversion correction value to the sensor coordinate conversion unit 100a is sent to the coordinate conversion correction value storage unit 390a.
  • the sensor fusion device 1 having the sensor aiming function of this embodiment may have an abnormality in the third and fourth vehicle peripheral monitoring sensors 10c and 10d.
  • the sensor coordinate conversion parameter of the sensor coordinate conversion unit 100a can be quickly adjusted.
  • FIG. 10 is a functional block diagram showing an embodiment of the sensor fusion device 1 having a sensor aiming function.
  • the processing flow and operation of the sensor fusion device 1 having the sensor aiming function which is the seventh embodiment of the present invention, will be described with reference to FIG.
  • the differences from the first and fourth embodiments will be mainly described, the same components will be designated by the same reference numerals, and the description thereof will be omitted.
  • the sensor fusion device 1 of the present embodiment has a third coordinate conversion correction execution determination unit 400c instead of the first coordinate conversion correction execution determination unit 400a.
  • An alarm display unit 420a is provided.
  • the third coordinate conversion correction execution determination unit 400c refers to the sensor coordinate conversion correction value stored in the coordinate conversion correction value storage unit 390a in addition to the operation of the first coordinate conversion correction execution determination unit 400a of the fourth embodiment. Then, when the number of times the sensor coordinate transformation correction value is equal to or greater than the predetermined threshold is equal to or greater than the predetermined threshold, the alarm display flag is output to the alarm display unit 420a.
  • the alarm presenting unit 420a When the alarm presenting unit 420a receives the alarm display flag, it displays an alarm on the alarm device of the own vehicle or an external system of the vehicle (cloud server, etc.).
  • the alarm has at least one level, for example, level 1: inspection recommended, level 2: inspection required, level 3: system outage, and the like.
  • level 1 inspection recommended
  • level 2 inspection required
  • level 3 system outage, and the like.
  • the driver or occupant sees the warning display and takes necessary measures (automatic driving, suspension of driving assistance, vehicle repair, etc.).
  • the alarm presenting unit 420a may present an alarm by sound or vibration instead of or in addition to displaying the alarm.
  • the sensor fusion device 1 having the sensor aiming function of this embodiment can send an alarm regarding the state of the sensor axis misalignment to the driver, the occupant, or the vehicle external system.
  • the need for vehicle inspection can be quickly determined and the safety of the system can be improved.
  • FIG. 11 is a conceptual diagram showing a processing method of the sensor fusion device 1 having a sensor aiming function.
  • the operation of the sensor fusion device 1 having the sensor aiming function which is the eighth embodiment of the present invention, will be described with reference to FIGS. 1 and 11.
  • the differences from the first embodiment will be mainly described, the same components will be designated by the same reference numerals, and the description thereof will be omitted.
  • a seventh stationary object target 810 g, a non-target stationary object target 820a, and a moving body 830a exist around the own vehicle 800. Further, the figure shows the first to fourth sensor observation results 910a to 910d and the seventh and eighth function fitting results 900g and 900h.
  • the first and second vehicle peripheral monitoring sensors 10a and 10b detect the seventh stationary object target 810 g, and output the first and second sensor observation results 910a and 910b, respectively.
  • the first and second sensor observation results 910a and 910b are represented by line segments, plane polygons, or three-dimensional polygons.
  • the first and second vehicle peripheral monitoring sensors 10a and 10b detect the first non-target stationary object target 820a and output the third and fourth sensor observation results 910c and 910d, respectively.
  • the third and fourth sensor observation results 910c and 910d have point information.
  • the first target selection unit 300a selects the first and second sensor observation results 910a and 910b from the first to fourth sensor observation results 910a to 910d using a filter held in advance.
  • the filter has the same form as the form (line segment, plane polygon, or three-dimensional polygon) of the first to fourth sensor observation results 910a to 910d.
  • the function fitting unit 310a fits the first sensor observation result 910a derived from the first vehicle peripheral monitoring sensor 10a with a function, and outputs the seventh function fitting result 900e. Further, the function fitting unit 310a fits the first sensor observation result 910a derived from the second vehicle peripheral monitoring sensor 10a by a function, and outputs the eighth function fitting result 900f.
  • the first fitting result comparison unit 320a compares the seventh and eighth function fitting results 900e and 900f, and a function correction value such that the seventh function fitting result 900e and the eighth function fitting result 900f match. To calculate.
  • the sensor fusion device 1 having the sensor aiming function of this embodiment has the effect even when the target stationary object has a surface structure.
  • the seventh stationary object target 810 g may be any road structure having a surface structure such as a guardrail, a soundproof wall, a curb, and a median strip.
  • the sensor observation results output from each of the first and second vehicle peripheral monitoring sensors 10a and 10b are set to one, but each sensor may output a plurality of observation results. Absent.
  • the first to fourth vehicle peripheral monitoring sensors 10a to 10d may be the same type of sensor or different types of sensors.
  • the first to fourth vehicle peripheral monitoring sensors 10a to 10d include millimeter-wave radars, cameras (visible light, near-infrared, mid-infrared, far-infrared cameras), LiDAR (Light Detection and Ranking), sonar, and sonar. Any sensor such as a TOF (Time of Light) sensor or a sensor combining them may be used.
  • the in-vehicle device has calculated the sensor coordinate conversion correction value, but a computer connected to the vehicle so as to be able to communicate may calculate the sensor coordinate conversion correction value.
  • the sensor data detected by the vehicle peripheral monitoring sensors 10a to 10d is determined from the coordinate system unique to each of the vehicle peripheral monitoring sensors 10a to 10d.
  • the sensor coordinate conversion unit 100a that converts to a unified coordinate system (unified relative coordinates) and the target selection unit 300a that selects a predetermined feature (stationary object target 810a to 810f) from the sensor data of each of the vehicle peripheral monitoring sensors 10a to 10d.
  • 300b and the function fitting unit 310a that defines a function that approximates the arrangement state of the selected features for each vehicle peripheral monitoring sensor 10a to 10d, and the arrangement of the features detected by each of the vehicle peripheral monitoring sensors 10a to 10d.
  • Coordinate conversion correction that calculates the correction amount for converting the coordinates of the feature detected by the vehicle peripheral monitoring sensors 10a to 10d from the fitting result comparison units 320a and 320b that compare the functions that approximate the state and the function comparison results.
  • a value calculation unit 330a is provided, and the sensor coordinate conversion unit 100a converts the vehicle peripheral monitoring sensors 10a to 10d into unified relative coordinates using the calculated correction amount, so that the sensor coordinate conversion unit 100a occurs in the vehicle peripheral monitoring sensors 10a and 10b. , The axis deviation of the mounting angle to the own vehicle can be corrected.
  • the vehicle peripheral monitoring sensors 10a to 10d may be millimeter wave radars. Further, at least one of the vehicle peripheral monitoring sensors 10a to 10d may be a millimeter wave radar, and at least one may be a camera. As described above, in the sensor fusion device 1 of the present embodiment, the correction amounts of various types of vehicle peripheral monitoring sensors 10a to 10d can be calculated.
  • the target selection units 300a and 300b use structures arranged substantially parallel to the road at known intervals, the correction amount of the vehicle peripheral monitoring sensors 10a to 10d can be accurately calculated.
  • the target selection units 300a and 300b select a predetermined feature by using a filter corresponding to a known arrangement state of the feature, the stationary targets 810a to 810f used for calculating the correction amount can be easily detected. ..
  • fitting result comparison units 320a and 320b extrapolate the lines represented by the defined functions outside the detection area of the vehicle peripheral monitoring sensors 10a to 10d and compare the extrapolated lines with each other. Even when the detection areas (sensor detection areas 700a and 700b) of 10a and 10b do not overlap, the function fitting results 900a and 900b can be compared and the correction amount can be calculated.
  • the alarm presenting unit 420a for outputting an alarm is provided, so that the occupant or the maintenance staff can take necessary measures.
  • the sensor coordinate conversion correction value is output, so that if no abnormality has occurred, the sensor coordinate conversion correction value is output.
  • the sensor coordinate conversion correction value is not calculated, and the processing load can be reduced.
  • the present invention is not limited to the above-described embodiment, but includes various modifications and equivalent configurations within the scope of the attached claims.
  • the above-described examples have been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the described configurations.
  • a part of the configuration of one embodiment may be replaced with the configuration of another embodiment.
  • the configuration of another embodiment may be added to the configuration of one embodiment.
  • other configurations may be added / deleted / replaced with respect to a part of the configurations of each embodiment.
  • each of the above-described configurations, functions, processing units, processing means, etc. may be realized by hardware by designing a part or all of them by, for example, an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing the program to be executed.
  • Information such as programs, tables, and files that realize each function can be stored in a memory, hard disk, storage device such as SSD (Solid State Drive), or recording medium such as IC card, SD card, DVD, BD, etc. it can.
  • SSD Solid State Drive
  • recording medium such as IC card, SD card, DVD, BD, etc. it can.
  • control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines that are necessary for implementation. In practice, it can be considered that almost all configurations are interconnected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

センサの軸ズレを補正する。二つ以上のセンサの検知結果を用いて、前記センサの検知結果の補正量を計算するエイミング装置であって、前記センサが検知したセンサデータを、当該センサに固有の座標系から所定の統一座標系に変換するセンサ座標変換部と、前記各センサが検知したセンサデータから所定の地物を選択するターゲット選択部と、前記選択された前記地物の配列状態を近似する関数を各センサ毎に定める関数フィッティング部と、前記各センサが検知した地物の配列状態を近似する関数を比較するフィッティング結果比較部と、前記関数の比較結果より、前記センサが検知した地物の座標を変換するための補正量を計算する補正値計算部とを備える。

Description

エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
 本発明は、車載制御装置に関し、特に、センサデータを補正するエイミング装置に関する。
 交通事故の低減、ドライバーの負荷軽減、地球環境負荷の低減に向けた燃費の改善、サステナブルな社会の実現に向けた交通弱者への移動手段の提供などの様々な目的を実現すべく、運転支援システム及び自動運転システムが開発されている。これら運転支援システム及び自動運転システムでは、ドライバーの代わりに車両周辺を監視するため、複数の車両周辺監視センサが設けられる。さらに、これらのシステムの安全性を保障するためには、前記車両周辺監視センサの取り付け角度がずれた場合でも補正を行う機能が求められる。
 本技術分野の背景技術として、以下の先行技術がある。特許文献1(特開2015-078925号公報)には、自らに対する相対位置が一定の位置に定まる基準対象が存在する方位が検知範囲に含まれる測距センサと、測距センサと一部重複する検知範囲を有する測距センサとの検知範囲の重複領域に存在する物体についての、第1位置特定部で特定した車両直交座標系上の位置と第2位置特定部で特定した車両直交座標系上の位置とのずれから、測距センサの検知軸のずれを判断する周辺監視装置が記載されている(要約参照)。
 また、特許文献2(特開2019-91273号公報)には、複数のセンサ情報を組み合わせて障害物の認識を行う障害物認識装置であって、障害物に関する第一パラメータ情報を取得する前方カメラと、障害物に関する第二パラメータ情報を取得するミリ波レーダと、前方カメラで取得した第一パラメータ情報とミリ波レーダで取得した第二パラメータ情報とに基づき、前方カメラ又はミリ波レーダの方位角の軸ずれ量を算出し、算出された軸ずれ量に基づいて前方カメラ又はミリ波レーダの軸ずれを補正する補正部と、軸ずれ量を記憶する記憶部とを備える。
特開2015-078925号公報 特開2010-249613号公報
 しかしながら、特許文献1では、複数のセンサの検知領域が重複する領域に存在する物体の検知位置に基づき、センサの検知軸ずれを判定するが、複数のセンサの検知領域が重複していない場合において、軸ずれを判定できないという課題がある。また、特許文献2では、複数のセンサの検知領域が重複する領域に存在する障害物に関する第二パラメータ情報に基づいて、センサの検知軸ずれを判定するが、複数のセンサの検知領域が重複していない場合において、第一パラメータと第二パラメータとが同一物標に基づくかが判定できないため、軸ずれを判定できないという課題がある。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、二つ以上のセンサの検知結果を用いて、前記センサの検知結果の補正量を計算するエイミング装置であって、前記センサが検知したセンサデータを、当該センサに固有の座標系から所定の統一座標系に変換するセンサ座標変換部と、前記各センサが検知したセンサデータから所定の地物を選択するターゲット選択部と、前記選択された前記地物の配列状態を近似する関数を各センサ毎に定める関数フィッティング部と、前記各センサが検知した地物の配列状態を近似する関数を比較するフィッティング結果比較部と、前記関数の比較結果より、前記センサが検知した地物の座標を変換するための補正量を計算する補正値計算部とを備えることを特徴とする。
 本発明によれば、センサの軸ズレを補正できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
実施例1のセンサエイミング機能を有するセンサフュージョン装置の機能ブロック図である。 実施例1のセンサエイミング機能を有するセンサフュージョン装置の処理方法を示す概念図である。 実施例1のセンサエイミング機能を有するセンサフュージョン装置の処理方法を示す概念図である。 実施例1のセンサエイミング機能を有するセンサフュージョン装置の処理方法を示す概念図である。 実施例2のセンサエイミング機能を有するセンサフュージョン装置の機能ブロック図である。 実施例3のセンサエイミング機能を有するセンサフュージョン装置の機能ブロック図である。 実施例4のセンサエイミング機能を有するセンサフュージョン装置の機能ブロック図である。 実施例5のセンサエイミング機能を有するセンサフュージョン装置の機能ブロック図である。 実施例6のセンサエイミング機能を有するセンサフュージョン装置の機能ブロック図である。 実施例7のセンサエイミング機能を有するセンサフュージョン装置の一実施例を示す機能ブロック図である。 実施例8のセンサエイミング機能を有するセンサフュージョン装置の処理方法を示す概念図である。
 以下、本発明を実施するための最良の形態を図面に基づいて詳細に説明する。なお、発明を実施するための形態を説明するための全図において、同一の機能を有するブロック又はエレメントには同一の符号を付し、その繰り返しの説明は省略する。
 <実施例1>
 図1は、センサエイミング機能を有するセンサフュージョン装置1の一実施例を示す機能ブロック図である。図2乃至図4は、センサエイミング機能を有するセンサフュージョン装置1の処理を示す概念図である。図1乃至図4を用いて本発明の第1の実施例であるセンサエイミング機能を有するセンサフュージョン装置1の処理フロー及び動作を説明する。
 まず、本発明の一実施例のセンサエイミング機能を有するセンサフュージョン装置1の機能ブロック構成を説明する。図1に示すように、本実施例のセンサフュージョン装置1は、センサ座標変換部100a、センサ時刻同期部110a、移動体静止物分別部120a、センサデータ統合部200a、第1のターゲット選択部300a、関数フィッティング部310a、第1のフィッティング結果比較部320a、座標変換補正値計算部330a、及び第1のターゲット検知開始判定部340aを有する。センサエイミング機能は、センサフュージョン装置1のセンサデータ統合部200a以外の各部によって構成され、センサデータ統合部200a以外の各部によってセンサエイミング装置が実現される。また、センサフュージョン装置1には、第1の車両周辺監視センサ10a、第2の車両周辺監視センサ10b、自車挙動検知センサ20a及びレーンマーカ検知センサ30aの出力信号が入力され、配信センシング情報40aが入力される。
 第1及び第2の車両周辺監視センサ10a及び10bは、自車の周囲の物標を検知するセンサである。自車挙動検知センサ20aは、自車の速度、ヨーレート及び舵角を検知するセンサ群である。レーンマーカ検知センサ30aは、レーンマーカ(例えば、ペイントや、道路鋲などによって形成される車道中央線、車線境界線、車道外側線)を検知するセンサである。配信センシング情報40aは、自車の走行環境(例えば、道路の曲率などを含む走行用地図データ)である。
 本実施例のセンサフュージョン装置1(電子制御装置)や各種センサ(第1の車両周辺監視センサ10a、第2の車両周辺監視センサ10bなど)は、演算装置、メモリ及び入出力装置を含む計算機(マイコン)を含んでいる。
 演算装置は、プロセッサを含み、メモリに格納されたプログラムを実行する。演算装置がプログラムを実行して行う処理の一部を、他の演算装置(例えば、FPGA(Field Programable Gate Array)やASIC(Application Specific Integrated Circuit)などのハードウェア)で実行してもよい。
 メモリは、不揮発性の記憶素子であるROM及びRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子、及びSRAM(Static Random Access Memory)のような不揮発性の記憶素子であり、演算装置が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。
 入出力装置は、所定のプロトコルに従って、電子制御装置やセンサによる処理内容を外部に送信したり、外部からデータ受信するインターフェースである。
 演算装置が実行するプログラムは、電子制御装置やセンサの非一時的記憶媒体である不揮発性のメモリに格納される。
 図2乃至図4において、自車800は、自車進行経路710aの方向に走行しており、その周囲には、第1の車両周辺監視センサ10aによる第1のセンサ検知領域700aと、第2の車両周辺監視センサ10bによる第2のセンサ検知領域700bとが設けられている。自車800の周辺には、第1乃至第6の静止物ターゲット810a乃至810fと、対象外静止物ターゲット820aと、移動体830aが存在している。また、各図には、第1及び第2の関数フィッティング結果900a及び900bが図示される。
 なお、図2(A)から図2(D)は、第1の車両周辺監視センサ10a及び第2の車両周辺監視センサ10bは正常に(水平方向の自車前方方向に対する軸ズレなしに)取り付けられた状態における処理方法の概念を示す。一方、図3(A)から図3(C)は、第2の車両周辺監視センサ10bの自車への取り付け角度が水平方向の自車前方方向に対して角度θ1だけ軸ズレして取り付けられた状態における処理方法の概念を示す。また、図4(A)から図4(C)は、第1の車両周辺監視センサ10aが水平方向の自車前方方向に対して角度θ2だけ軸ズレして取り付けられており、第2の車両周辺監視センサ10bが水平方向の自車前方方向に対して角度θ1だけ軸ズレして取り付けられた状態における処理方法の概念を示す。
 次に、本発明の一実施例のセンサエイミング機能を有するセンサフュージョン装置1の処理フローを図1及び図2を用いて説明する。
 第1の車両周辺監視センサ10aは第1のセンサ検知領域700aに存在する第1乃至第3の静止物ターゲット810a~810c及び対象外静止物ターゲット820a及び移動体830aを検知し、第1乃至第3の静止物ターゲット810a~810c及び対象外静止物ターゲット820aの少なくとも自車との相対座標と、移動体830aの少なくとも自車との相対座標及び絶対速度とを出力する。第2の車両周辺監視センサ10bは第2のセンサ検知領域700bに存在する第4乃至第6の静止物ターゲット810d~810f及び対象外静止物ターゲット820aを検知し、第4乃至第6の静止物ターゲット810d~810f及び対象外静止物ターゲット820aの少なくとも自車との相対座標を出力する。センサ座標変換部100aは、第1の車両周辺監視センサ10a及び第2の車両周辺監視センサ10bから出力された第1乃至第6の静止物ターゲット810a~810fの自車との相対座標、並びに対象外静止物ターゲット820aの自車との相対座標、並びに移動体830aの自車との相対座標を、自車との統一相対座標に変換し、センサ時刻同期部110aに出力する。ここで、統一相対座標は、複数の車両周辺監視センサ10a、10bが出力するデータが準拠する座標が纏められる座標系であり、例えば、図2(D)に示す通り、自車前端中央を原点として、自車前方方向をx、自車左方向をyと定義する。
 また、センサ時刻同期部110aには、自車挙動検知センサ20aによる自車の速度、ヨーレート及び舵角の検知結果が入力される。センサ時刻同期部110aは、入力された第1の車両周辺監視センサ10aにより検知された第1乃至第3の静止物ターゲット810a~810c、対象外静止物ターゲット820a及び移動体830aの統一相対座標、並びに第2の車両周辺監視センサ10bにより検知された第4乃至第6の静止物ターゲット810d~810f及び対象外静止物ターゲット820aの統一相対座標を、自車挙動検知センサ20aにより検知された自車の速度、ヨーレート及び舵角の検知結果を用いて所定のタイミングにおける統一相対座標に補正して、各センサの検知結果の時刻を同期し、時刻同期された第1乃至第6のターゲットの統一相対座標を出力する。
 移動体静止物分別部120aは、第1の車両周辺監視センサ10a及び第2の車両周辺監視センサ10bにて検知された周辺物のうち、第1乃至第6の静止物ターゲット及び対象外静止物ターゲット820aと、移動体830aとを分別し、第1乃至第6の静止物ターゲット810a~810f及び対象外静止物ターゲット820aの統一相対座標を第1のターゲット選択部300aに出力する。さらに、移動体静止物分別部120aは、第1の車両周辺監視センサ10a及び第2の車両周辺監視センサ10bにて検知された第1乃至第6の静止物ターゲット810a~810f及び対象外静止物ターゲット820a及び移動体830aの統一相対座標及び絶対速度をセンサデータ統合部200aに出力する。
 センサデータ統合部200aは、入力された全ての入力情報を統合し、統合結果を運転制御装置2に出力する。運転制御装置2は、センサフュージョン装置1からの出力を用いて車両の運転を制御する自動運転システム(AD-ECU)や運転支援システムである。
 第1のターゲット選択部300aは、入力された第1乃至第6の静止物ターゲット810a~810fと対象外静止物ターゲット820aの中から、第1乃至第6の静止物ターゲット810a~810fを選択し、第1乃至第6の静止物ターゲット810a~810fの統一相対座標を出力する。
 第1のターゲット検知開始判定部340aは、自車挙動検知センサ20a、レーンマーカ検知センサ30a及び配信センシング情報40aから出力される情報に基づいて、自車が所望の走行状態にあることを判定し、ターゲット検知開始フラグを第1のターゲット選択部300aに出力する。
 関数フィッティング部310aは、ターゲット検知開始フラグが入力された場合に、第1の車両周辺監視センサ10aに由来する第1乃至第3の静止物ターゲット810a~810cの配列に対して第1の関数をフィッティングし、第1の関数フィッティング結果900aを出力する。同時に、関数フィッティング部310aは、ターゲット検知開始フラグが入力された場合に、第2の車両周辺監視センサ10bに由来する第4乃至第6の静止物ターゲット810d~810fの配列に対して第2の関数をフィッティングし、第2の関数フィッティング結果900bを出力する。
 第1のフィッティング結果比較部320aは、第1の関数フィッティング結果900aと第2の関数フィッティング結果900bとを比較し、それらが一致するような関数補正値を計算する。座標変換補正値計算部330aは、関数補正値に基づいて、第1の車両周辺監視センサ10aの取り付け軸ズレ量に対応するセンサ座標変換補正値と第2の車両周辺監視センサ10bの取り付け軸ズレ量に対応するセンサ座標変換補正値とを計算し、センサ座標変換部100aに出力する。
 なお、図3の状態における処理フローと図2の状態における処理フローとの相違点は以下の通りである。第2の車両周辺監視センサ10bは、第2のセンサ検知領域700bに存在する第3乃至第6の静止物ターゲット810c~810f及び対象外静止物ターゲット820aを検知し、第3乃至第6の静止物ターゲット810c~810f及び対象外静止物ターゲット820aの少なくとも自車との相対座標を出力する。
 センサ時刻同期部110aは、入力された第1の車両周辺監視センサ10aにより検知された第1乃至第3の静止物ターゲット810a~810c及び対象外静止物ターゲット820a及び移動体830aの統一相対座標、並びに第2の車両周辺監視センサ10bにより検知された第3乃至第6の静止物ターゲット810c~810f及び対象外静止物ターゲット820aの統一相対座標を、自車挙動検知センサ20aにより検知された自車の速度、ヨーレート及び舵角の検知結果を用いて所定のタイミングにおける統一相対座標に補正して、各センサの検知結果の時刻を同期し、時刻同期された第1乃至第6のターゲットの統一相対座標を出力する。
 関数フィッティング部310aは、ターゲット検知開始フラグが入力された場合に、第2の車両周辺監視センサ10bに由来する第3乃至第6の静止物ターゲット810c~810fの配列に対して第3の関数をフィッティングし、第3の関数フィッティング結果900cとして出力する。第1のフィッティング結果比較部320aは、第1の関数フィッティング結果900aと第3の関数フィッティング結果900cとを比較し、それらが一致するような関数補正値を計算する。
 また、図4の状態における処理フローの図3の状態における処理フローとの相違点は以下の通りである。第1の車両周辺監視センサ10aは、第1のセンサ検知領域700aに存在する第1乃至第2の静止物ターゲット810a~810b及び移動体830aを検知し、第1乃至第2の静止物ターゲット810a~810bの少なくとも自車との相対座標と、移動体830aの少なくとも自車との相対座標及び絶対速度とを出力する。
 センサ時刻同期部110aは、入力された第1の車両周辺監視センサ10aにより検知された第1乃至第2の静止物ターゲット810a~810b及び移動体830aの統一相対座標、並びに第2の車両周辺監視センサ10bにより検知された第3乃至第6の静止物ターゲット810c~810f及び対象外静止物ターゲット820aの統一相対座標を、自車挙動検知センサ20aにより検知された自車の速度、ヨーレート及び舵角の検知結果を用いて所定のタイミングにおける統一相対座標に補正して、各センサの検知結果の時刻を同期し、時刻同期された第1乃至第6のターゲットの統一相対座標を出力する。
 関数フィッティング部310aは、ターゲット検知開始フラグが入力された場合に、第1の車両周辺監視センサ10aに由来する第1乃至第2の静止物ターゲット810a~810bの配列に対して第4の関数をフィッティングし、第4の関数フィッティング結果900dを出力する。第1のフィッティング結果比較部320aは、第4の関数フィッティング結果900dと第3の関数フィッティング結果900cとを比較し、それらが一致するような関数補正値を計算する。
 さらに、本発明の一実施例のセンサエイミング機能を有するセンサフュージョン装置1の動作を図1乃至図4を用いて説明する。本発明の一実施例において、説明を簡便にするため、以下の通り定義する。第1乃至第6の静止物ターゲット810a~810fはガードレールの支柱など道路に対して略平行に既知の間隔で周期的に配置される物体であり、対象外静止物ターゲット820aは電柱である。また、自車が走行している環境は直線道路である。
 第1のターゲット選択部300aは、入力された静止物ターゲットの統一相対座標を、それらの配列の距離に応じてフィルタする機能を有する。例えば、ガードレールの支柱の設置間隔は凡そ2~4mに規格化されていることが知られているため、2~4m周期で該支柱の設置間隔に合致するフィルタ処理を行うことにより、第1乃至第6の静止物ターゲット810a~810fを選択的に抽出できる。すなわち、フィルタ処理により、第1乃至第6の静止物ターゲット810a~810fとは異なる周期で存在する対象外静止物ターゲット820aを除去できる。具体的には、第1のターゲット選択部300aは、複数のフィルタを予め保持し、フィルタリング結果に基づいて適切なフィルタを選択してもよい。
 関数フィッティング部310aは、第1の車両周辺監視センサ10aに由来する第1乃至第3の静止物ターゲット810a~810cの統一相対座標における配列を一次関数でフィッティングし、式(1)で定義された第1の一次関数を第1の関数フィッティング結果900aとして出力する。
 y=a1x+b1 …(1)
 さらに、関数フィッティング部310aは、第2の車両周辺監視センサ10bに由来する第4乃至第6の静止物ターゲット810d~810fの統一相対座標における配列を一次関数でフィッティングし、式(2)で定義された第2の一次関数を第2の関数フィッティング結果900bとして出力する。
 y=a2x+b2 …(2)
 ここで、式(1)(2)における軸x、yは、図2(D)に示した通りである。以上の動作によって、関数フィッティング部310aは図2(B)に示す通り、第1乃至第3の静止物ターゲット810a~810cの統一相対座標における配列に第1の関数フィッティング結果900aが重なる。また同様に、第4乃至第6の静止物ターゲット810d~810fの統一相対座標の配列に第2の関数フィッティング結果900bが重なる。
 第1のフィッティング結果比較部320aは、入力された第1の関数フィッティング結果900aと第2の関数フィッティング結果900bとを比較し、第1の関数フィッティング結果900aと第2の関数フィッティング結果900bとが一致するような関数補正値を計算する。なお、図2では第1及び第2の車両周辺監視センサ10a及び10bは軸ズレせず正常に自車に取り付けられているため、図2(C)に示す通り、第1の関数フィッティング結果900aと第2の関数フィッティング結果900bとは同じ関数で表され、両フィッティング結果の外挿線は一致している。従って、第1の関数補正値はゼロであると計算される。
 一方、図3では、関数フィッティング部310aからは図3(C)に示すように、第1の関数フィッティング結果900a及び第3の関数フィッティング結果900cが出力される。ここで、第3の関数フィッティング結果900cは式(3)で定義された第3の一次関数のフィッティング結果である。
 y=a3x+b3 …(3)
 この状態では、第2の車両周辺監視センサ10bが水平方向の車両前方方向に角度θ1だけ軸ズレして自車に取り付けられているものの、関数フィッティング部310aは軸ズレの情報を有さないため、第3の関数フィッティング結果900cは水平方向の自車後方方向に角度θ1だけ回転した形で出力される。そこで、第1のフィッティング結果比較部320aは第1の関数フィッティング結果900aと第3の関数フィッティング結果900cとが一致するような関数補正値を計算する。例えば、図3の状態では、式(1)及び式(2)より、a1=a3となるような第2の関数補正値が計算される。
 また、図4では関数フィッティング部310aからは図4(C)に示すような第4の関数フィッティング結果900d及び第3の関数フィッティング結果900cが出力される。ここで、第4の関数フィッティング結果900dは式(4)で定義された第4の一次関数のフィッティング結果である。
 y=a4x+b4 …(4)
 この状態では、第1の車両周辺監視センサ10aが水平方向の車両前方方向に角度θ2だけ軸ズレして自車に取り付けられているものの、関数フィッティング部310aは軸ズレの情報を有さないため、第4の関数フィッティング結果900dは水平方向の自車後方方向に角度θ2だけ回転した形で出力される。また、第2の車両周辺監視センサ10bが水平方向の車両前方方向に角度θ1だけ軸ズレして自車に取り付けられているものの、関数フィッティング部310aは軸ズレの情報を有さないため、第3の関数フィッティング結果900cは水平方向の自車後方方向に角度θ1だけ回転した形で出力される。そこで、第1のフィッティング結果比較部320aは第4の関数フィッティング結果900dと第3の関数フィッティング結果900cとが一致するような関数補正値を計算する。例えば、図4の状態では、式(4)及び式(3)より、a4=a3、b4=b3となるような第3の関数補正値が計算される。
 従って、第1のフィッティング結果比較部320aは以上のような動作をするため、関数補正値はフィッティングされる関数の次元に応じた次元を有する。たとえば、本実施例ではフィッティングされる関数は1次元であるため、関数補正値は2次元、つまり2つのパラメータから構成される。
 座標変換補正値計算部330aの動作は以下の通りである。図2の状態では、第1のフィッティング結果比較部320aから出力される第1の関数補正値はゼロであるので、座標変換補正値計算部330aから出力される第1のセンサ座標変換補正値はゼロと計算される。一方、図3の状態では、第2の関数補正値に基づいて、第2の車両周辺監視センサ10bに対するセンサ座標変換値を補正する第2のセンサ座標変換補正値を出力する。具体的には、センサ座標変換値を水平方向の自車前方方向に角度θ1だけ回転させる第2のセンサ座標変換補正値が出力される。さらに、図4の状態では、図3の状態に加えて、第3の関数補正値に基づいて、第1の車両周辺監視センサ10aに対するセンサ座標変換値を補正する第3のセンサ座標変換補正値を出力する。具体的には、センサ座標変換値を水平方向の自車前方方向に角度θ2だけ回転させる第3のセンサ座標変換補正値が出力される。
 従って、第1のフィッティング結果比較部320aは以上のような動作をするため、センサ座標変換補正値は関数補正値と、フィッティング結果を表す関数が同じ次元で表される。例えば、本実施例ではセンサ座標変換補正値は2次元、つまり二つのパラメータから構成される。なお、センサ座標変換補正値は対角要素がゼロの2×2行列から構成されてもよい。
 センサ座標変換部100aの動作は次の通りである。座標変換補正値計算部330aにてセンサ座標変換補正値が生成されない場合、つまり第1のターゲット検知開始判定部340aからターゲット検知開始フラグが出力されない場合、センサ座標変換部100aは内部に保持しているセンサ座標変換パラメータに基づいてき、第1及び第2の車両周辺監視センサ10a及び10bから出力された第1乃至第6の静止物ターゲット810a~810f及び対象外静止物ターゲット820a及び移動体830aの自車との相対座標を自車との統一相対座標に変換する。
 一方、座標変換補正値計算部330aにてセンサ座標変換補正値が生成された場合、つまり第1のターゲット検知開始判定部340aからターゲット検知開始フラグが出力された場合、センサ座標変換部100aは内部に保持しているセンサ座標変換パラメータをセンサ座標変換補正値に基づいて変更し、第1及び第2の車両周辺監視センサ10a及び10bから出力された第1乃至第6の静止物ターゲット810a~810f及び対象外静止物ターゲット820a及び移動体830aの自車との相対座標を自車との統一相対座標に変換する。
 第1のターゲット検知開始判定部340aは、自車挙動検知センサ20aから出力される自車の速度、舵角及びヨーレートが予め保持されている閾値以内である場合、自車が一定の速度で直進していると判定し、第1のターゲット検知開始フラグを出力する。また、第1のターゲット検知開始判定部340aは、レーンマーカ検知センサ30aから出力されるレーンマーカの曲率、レーンマーカに対する自車進行方向の角度が予め保持されている閾値以内である場合、自車が直進していると判定し、第2のターゲット検知開始フラグを出力する。また、第1のターゲット検知開始判定部340aは、配信センシング情報40aから出力される自車の走行環境の道路曲率が予め保持されている閾値以内である場合、自車が直進していると判定し、第3のターゲット検知開始フラグを出力する。
 そして、第1のターゲット検知開始判定部340aは、第1乃至第3のターゲット検知開始フラグを予め保持されている判定基準に基づく調停によって、いずれかのターゲット検知開始フラグを選択した上で、ターゲット検知開始フラグを出力する。なお、自車挙動検知センサ20a及びレーンマーカ検知センサ30a及び配信センシング情報40aの全てを組み合わせた構成が、ターゲット検知フラグの確度向上のために望ましいが、これらのセンサの二つ以上の組み合わせ又は一つでも構わない。
 以上に説明した機能ブロックの構成、処理フロー、動作によって、本発明の一実施例のセンサエイミング機能を有するセンサフュージョン装置1は第1の車両周辺監視センサ10a又は第2の車両周辺監視センサ10bの自車への取り付け角度の軸ズレが発生した場合に、軸ズレを補正できる。
 また、図2乃至図4において、第1乃至第4の関数フィッティング結果900a~900dの描画範囲は、第1及び第2のセンサ検知領域700a及び700bの領域内としているが、第1及び第2のセンサ検知領域700a及び700bの領域外に外挿されても構わない。この領域外への外挿によって、第1のセンサ検知領域700aと第2のセンサ検知領域700bとが重複領域を有さない場合においても、第1のフィッティング結果比較部320aにおいて、第1乃至第4の関数フィッティング結果900a~900dを比較し、関数補正値を計算できる。
 また、第1のターゲット選択部300aにおいて静止物ターゲットの配置に応じたフィルタ処理を実施することにより、前述した処理フローで必要となる第1乃至第6の静止物ターゲット810a~810fのみを選択できる効果がある。
 また、本発明の一実施例では、説明の簡便化のため自車が走行している環境は直線道路としたが、自車の挙動の時間的な変化が小さい任意の環境でも、得られる効果は同じである。例えば、自車が走行している環境は緩やかな(例えば、センサの検知範囲で曲率が一定である)一定のカーブ路でも構わない。
 また、第1乃至第6の静止物ターゲット810a~810fはガードレールの支柱以外にも、所定の間隔で周期的に配置される物体であれば、道路距離ポスト、道路端反射板などの視線誘導標、スノーポールなどの道路構造物でも構わない。また、自車進行方向と交差する方向に存在する、例えば踏切の遮断器やレールなどの構造物でも構わない。さらに、第1及び第2の車両周辺監視センサ10a及び10bの両方で検知できる連続した物体でも構わない。また、一つの複数の物体群を用いても、複数の物体群を用いても構わない。
 また、第1のターゲット選択部300aが、第1の車両周辺監視センサ10aに由来する第1乃至第3の静止物ターゲット810a~810cの配列の抽出結果より、第2の車両周辺監視センサ10bに由来する第4乃至第6の静止物ターゲット810d~810fの配列を抽出するフィルタを選択しても構わない。
 また、関数フィッティング部310aにおいて、第2の車両周辺監視センサ10bに由来する第4乃至第6の静止物ターゲット810d~810fの配列のフィッティングに用いる関数の次数を、第1の車両周辺監視センサ10aに由来する第1乃至第3乃至第の静止物ターゲット810a~810cの配列に対する第1の関数フィッティング結果900aの次数より推定しても構わない。
 さらに、本発明の一実施例では、図1に示した機能ブロックの処理フローを1回動作させた場合に関して説明したが、複数回連続動作させても構わない。この場合、第1乃至第6の静止物ターゲット810a~810fの検知位置精度が向上すると同時に、第1のターゲット選択部300aにおいて、第1乃至第6の静止物ターゲット810a~810fから対象外静止物ターゲット820aを除去する動作確度が向上する効果が得られる。
 <実施例2>
 図5は、センサエイミング機能を有するセンサフュージョン装置1の一実施例を示す機能ブロック図である。図5を用いて本発明の第2の実施例であるセンサエイミング機能を有するセンサフュージョン装置1の処理フロー及び動作を説明する。実施例2において、実施例1との相違点を主に説明し、同じ構成には同じ符号を付し、その説明を省略する。
 図5に示すように本実施例のセンサフュージョン装置1は、実施例1の構成の他、ターゲット検知データ有効性判定部350a及びターゲット記憶部360aを有する。また、第1のターゲット選択部300aに代えて第2のターゲット選択部300bを有し、第1のターゲット検知開始判定部340aに代えてターゲット検知データ有効性判定部350aを有する。
 ターゲット検知データ有効性判定部350aは、自車挙動検知センサ20aから出力される自車の速度、舵角及びヨーレートが予め保持されている閾値以内である場合、自車が一定の速度で直進していると判定し、第1のターゲット検知データ有効性判定情報を出力する。また、ターゲット検知データ有効性判定部350aは、レーンマーカ検知センサ30aから出力される、レーンマーカの曲率、レーンマーカに対する自車進行方向の角度が予め保持されている閾値以内である場合、自車が一定の速度で直進していると判定し、第2のターゲット検知データ有効性判定情報を出力する。また、ターゲット検知データ有効性判定部350aは、配信センシング情報40aに含まれる自車の走行環境の道路曲率が予め保持されている閾値以内である場合、自車が一定の速度で直進していると判定し、第3のターゲット検知データ有効性判定情報を出力する。
 そして、ターゲット検知データ有効性判定部350aは、第1乃至第3のターゲット検知データ有効性判定情報を予め保持されている判定基準に基づいて調停した上で、検知データ有効性判定情報として出力する。なお、自車挙動検知センサ20a及びレーンマーカ検知センサ30a及び配信センシング情報40aの全てを組み合わせた構成がターゲット検知データ有効性判定情報の確度向上のために望ましいが、自車挙動検知センサ20a以外のレーンマーカ検知センサ30a及び配信センシング情報40aは、両方組み合わせる構成でも、いずれか一方を組み合わせる構成でも構わない。ここで、第1乃至第3のターゲット検知データ有効性判定情報はセンサ時刻同期部110aの出力と時刻同期された時刻情報である。
 ターゲット記憶部360aは、予め保持されている所望の時刻において、移動体静止物分別部120aから出力される静止物ターゲット及び対象外静止物ターゲット820aの統一相対座標、並びにセンサ時刻同期部110aから静止物ターゲット及び対象外静止物ターゲット820aの統一相対座標が出力された時刻情報を記憶する。
 第2のターゲット選択部300bは、ターゲット検知データ有効性判定部350aから出力される検知データ有効性判定情報(時刻情報)に基づいて、ターゲット記憶部360aに記憶された静止物ターゲット及び対象外静止物ターゲット820aの統一相対座標を選択する。さらに、静止物ターゲット及び対象外静止物ターゲット820aから静止物ターゲットを選択して出力する。この静止物ターゲットの選択に関する動作は、実施例1と同様である。
 以上の機能ブロックの構成、処理フロー、動作によって、本実施例のセンサエイミング機能を有するセンサフュージョン装置1は、任意の時刻において、第2のターゲット選択部300bから座標変換補正値計算部330aの動作を実施できるため、システム全体の処理負荷が低いときに補正値を計算でき、システム全体の演算処理装置などのハードウェアリソースを低減できる。また、同様にシステム全体の処理負荷が低い場合に一連の動作を実行できるため、システム全体の温度上昇を低減できる。
 <実施例3>
 図6は、センサエイミング機能を有するセンサフュージョン装置1の一実施例を示す機能ブロック図である。図6を用いて本発明の第3の実施例であるセンサエイミング機能を有するセンサフュージョン装置1の処理フロー及び動作を説明する。実施例3において、実施例1との相違点を主に説明し、同じ構成には同じ符号を付し、その説明を省略する。
 図6に示すように本実施例のセンサフュージョン装置1は、実施例1の構成の他、第1のターゲット検知開始判定部340aに代えてターゲットの配列形状推定部370a及び元関数生成部380aを有する。
 ターゲットの配列形状推定部370aは、自車挙動検知センサ20aから出力される自車の速度、舵角、ヨーレートに基づいて、静止物ターゲットの自車に対する第1の配列形状を推定する。例えば、自車の速度、舵角及びヨーレートが予め保持されている直線路走行状態に対応した閾値以内の場合は、第1の配列形状として直線を出力する。また、ターゲットの配列形状推定部370aは、レーンマーカ検知センサ30aから出力されるレーンマーカの曲率に基づいて、静止物ターゲットの自車に対する第2の配列形状を推定する。例えば、レーンマーカの曲率が予め保持されている直線路走行状態に対応した閾値以内の場合は、第2の配列形状として直線を出力する。また、ターゲットの配列形状推定部370aは、配信センシング情報40aから出力される、自車の走行環境の道路曲率に基づいて、静止物ターゲットの自車に対する第3の配列形状を推定する。例えば、道路曲率が予め保持されている直線路走行状態に対応した閾値以内の場合は、第3の配列形状として直線を出力する。
 そして、ターゲットの配列形状推定部370aは、第1乃至第3の配列形状を予め保持されている判定基準に基づいて調停した上で、配列形状として出力する。なお、自車挙動検知センサ20a及びレーンマーカ検知センサ30a及び配信センシング情報40aの全てを組み合わせた構成が配列形状の確度向上のために望ましいが、自車挙動検知センサ20a以外のレーンマーカ検知センサ30a、配信センシング情報40aは、両方組み合わせる構成でも、いずれか一方を組み合わせる構成でも構わない。
 元関数生成部380aは、ターゲットの配列形状推定部370aから出力される配列形状に基づいて、関数フィッティング部310aがフィッティングに用いる関数を生成する。例えば、配列形状が直線である場合は式(1)乃至式(4)のような一次関数を生成し、関数フィッティング部310aに出力する。また、配列形状が円弧である場合は式(5)のような円の関数を生成し、関数フィッティング部310aに出力する。式(5)においてrは曲率半径である。
 x2+y2=r2 …(5)
 以上の機能ブロックの構成、処理フロー、動作により、本実施例のセンサエイミング機能を有するセンサフュージョン装置1は、多くの情報源に基づいて関数フィッティング部310aで用いる関数を生成するため、一致度が低い関数をフィッティングに用いる確率が減り、フィッティング処理の速度を向上できる。
 <実施例4>
 図7は、センサエイミング機能を有するセンサフュージョン装置1の一実施例を示す機能ブロック図である。図7を用いて本発明の第4の実施例であるセンサエイミング機能を有するセンサフュージョン装置1の処理フロー及び動作を説明する。実施例4において、実施例1との相違点を主に説明し、同じ構成には同じ符号を付し、その説明を省略する。
 図7に示すように本実施例のセンサフュージョン装置1は、実施例1の構成から第1のターゲット検知開始判定部340aを除去し、座標変換補正値記憶部390a及び第1の座標変換補正実施決定部400aが設けられている。また、自車挙動検知センサ20a及びレーンマーカ検知センサ30aの出力信号並びに配信センシング情報40aが入力されない。
 座標変換補正値記憶部390aは、複数の時刻において座標変換補正値計算部330aより出力されたセンサ座標変換補正値を記憶する。
 第1の座標変換補正実施決定部400aは、座標変換補正値記憶部390aに記憶された座標変換補正値を参照し、センサ座標変換補正値が予め保持された閾値以上となった回数が所定値以上となった場合、一時的な誤検知ではなく、センサ自体がズレていると判定して、該複数のセンサ座標変換補正値の統計値(例えば、平均値)をセンサ座標変換部100aに出力する指令を座標変換補正値記憶部390aに送出する。
 センサ座標変換部100aの動作は第1乃至第3の実施例と同様である。
 以上の機能ブロックの構成、処理フロー、動作によって、本実施例のセンサエイミング機能を有するセンサフュージョン装置1は、複数回分のセンサ座標変換補正値を用いて、センサ座標変換補正値を計算して、センサ値を補正するかを判定することによって、無駄なセンサ座標変換補正値の計算が減り、センサ座標変換補正値の確度を向上できる。
 <実施例5>
 図8はセンサエイミング機能を有するセンサフュージョン装置1の一実施例を示す機能ブロック図である。図8を用いて本発明の第5の実施例であるセンサエイミング機能を有するセンサフュージョン装置1の処理フロー及び動作を説明する。実施例5において、実施例1との相違点を主に説明し、同じ構成には同じ符号を付し、その説明を省略する。
 図8に示すように本実施例のセンサフュージョン装置1は、実施例1の構成の他、センサ状態推定部410aを有する。また、第1のフィッティング結果比較部320aに代えて第2のフィッティング結果比較部320bを有し、第1のターゲット検知開始判定部340aに代えて第2のターゲット検知開始判定部340bを有する。また、センサフュージョン装置1には、第1乃至第3の状態検知センサ50a乃至50cの出力信号が入力される。
 第1乃至第3の状態検知センサ50a~50cは、衝撃センサ及び温度センサ等から構成され、第1乃至第3の状態検知センサ50a~50cの各々が取り付けられた部位の衝撃及び温度変化を検知する。具体的には、第1の状態検知センサ50aは第3の車両周辺監視センサ10cに加わった衝撃及び温度変化を検知する。また、第2の状態検知センサ50bは第4の車両周辺監視センサ10dに加わった衝撃及び温度変化を検知する。第3の状態検知センサ50cは自車のシャシーなど車両全体に加わった衝撃を検知しやすい箇所に取り付けられ、任意の箇所に加わった衝撃及び温度変化を検知する。
 センサ状態推定部410aは、第1乃至第3の状態検知センサ50a~50cから出力された、衝撃及び温度変化に関するデータに基づいて、第3及び第4の車両周辺監視センサ10c及び10dの自車への取り付け状態を推定する。例えば、第1の状態検知センサ50aから出力された衝撃に関するデータが予め保持された閾値以上である場合に、第3の車両周辺監視センサ10cの取り付け状態に異常が発生したことを示す第1の異常フラグを第2のターゲット検知開始判定部340bに出力する。同様に、センサ状態推定部410aは、第2の状態検知センサ50bから出力された衝撃に関するデータが予め保持された閾値以上である場合に、第4の車両周辺監視センサ10dの取り付け状態に異常が発生したことを示す第2の異常フラグを第2のターゲット検知開始判定部340bに出力する。さらに、センサ状態推定部410aは、第3の状態検知センサ50cから出力された衝撃に関するデータが予め保持された閾値以上である場合に、第3及び第4の車両周辺監視センサ10c及び10dの取り付け状態に異常が発生したことを示す第3の異常フラグを第2のターゲット検知開始判定部340bに出力する。
 同様に、第1の状態検知センサ50aから出力された温度に関するデータが予め保持された動作範囲を超えた場合に、第3の車両周辺監視センサ10cが高温又は低温になったと判定し、該センサに異常が発生したことを示す第1の異常フラグを第2のターゲット検知開始判定部340bに出力する。同様に、センサ状態推定部410aは、第2の状態検知センサ50bから出力された温度に関するデータが予め保持された動作範囲を超えた場合に、第4の車両周辺監視センサ10dが高温又は低温になったと判定し、該センサに異常が発生したことを示す第2の異常フラグを第2のターゲット検知開始判定部340bに出力する。さらに、センサ状態推定部410aは、第3の状態検知センサ50cから出力された温度に関するデータが予め保持された動作範囲を超えた場合に、第3及び第4の車両周辺監視センサ10c及び10d高温又は低温になったと判定し、該センサに異常が発生したことを示す第3の異常フラグを第2のターゲット検知開始判定部340bに出力する。
 そして、センサ状態推定部410aは、第1乃至第3の状態検知センサ50a~50cから出力された衝撃及び温度変化に関するデータに基づいて、第3及び第4の車両周辺監視センサ10c及び10dに対する重み付け係数を第2のフィッティング結果比較部320bに出力する。
 第2のターゲット検知開始判定部340bは、第1乃至第3の異常フラグを受信した後、実施例1の第1のターゲット検知開始判定部340aと同様の動作を実行する。このため、異常が発生していない場合にはセンサ座標変換補正値が計算されないことになる。
 第2のフィッティング結果比較部320bは、関数フィッティング部310aから出力された第3の車両周辺監視センサ10cに由来する第5の関数フィッティング結果及び第4の車両周辺監視センサ10dに由来する第6の関数フィッティング結果の比較において、重み付け係数を用いて、第5及び第6の関数フィッティング結果が一致するような関数補正値を出力する。
 以上の機能ブロックの構成、処理フロー、動作によって、本実施例のセンサエイミング機能を有するセンサフュージョン装置1は、衝撃や温度によって異常が発生していると判定された場合に第2のターゲット選択部300bから座標変換補正値計算部330aまでを動作させて、センサ座標変換補正値を計算するので、センサ座標変換補正値がゼロとなる不要な動作回数を実施例1より減らすことができるため、システム全体の消費電力を低減できる。また、第2のフィッティング結果比較部320bが、第5及び第6の関数フィッティング結果を一致させる関数補正値の計算する際に、各々の関数フィッティング結果に対する重み付けができるため、関数補正値の確度を向上できる。
 なお、本実施例において、第1乃至第3の状態検知センサ50a~50cは衝撃センサ及び温度センサから構成されるが、衝撃センサ又は温度センサのみでも構わない。また、その他のセンサ(例えば湿度センサ)を用いても構わない。さらに、これらの任意の組み合わせた構成を用いても構わない。
 <実施例6>
 図9は、センサエイミング機能を有するセンサフュージョン装置1の一実施例を示す機能ブロック図である。図9を用いて本発明の第6の実施例であるセンサエイミング機能を有するセンサフュージョン装置1の処理フロー及び動作を説明する。実施例6において、実施例1、4及び5との相違点を主に説明し、同じ構成には同じ符号を付し、その説明を省略する。
 図9に示すように本実施例のセンサフュージョン装置1は、実施例1の構成から第1のターゲット検知開始判定部340aを除去し、座標変換補正値記憶部390a及び第2の座標変換補正実施決定部400bが設けられている。また、自車挙動検知センサ20a及びレーンマーカ検知センサ30aの出力信号並びに配信センシング情報40aが入力されない。
 座標変換補正値記憶部390aは、実施例4と同様に、複数の時刻において座標変換補正値計算部330aより出力されたセンサ座標変換補正値を記憶する。
 第2の座標変換補正実施決定部400bは、センサ状態推定部410aから出力された第1乃至第3の異常フラグを受信し、かつ、座標変換補正値記憶部390aに記憶された最新のセンサ座標変換補正値が予め保持された閾値以上である場合、センサ座標変換補正値をセンサ座標変換部100aに出力する指令を座標変換補正値記憶部390aに送出する。
 以上の機能ブロックの構成、処理フロー、動作によって、本実施例のセンサエイミング機能を有するセンサフュージョン装置1は、第3及び第4の車両周辺監視センサ10c及び10dに異常が発生した可能性がある場合に、速やかにセンサ座標変換部100aのセンサ座標変換パラメータを調整できる。
 <実施例7>
 図10は、センサエイミング機能を有するセンサフュージョン装置1の一実施例を示す機能ブロック図である。図10を用いて本発明の第7の実施例であるセンサエイミング機能を有するセンサフュージョン装置1の処理フロー及び動作を説明する。実施例7において、実施例1及び4との相違点を主に説明し、同じ構成には同じ符号を付し、その説明を省略する。
 図10に示すように本実施例のセンサフュージョン装置1は、実施例4の構成の他、第1の座標変換補正実施決定部400aに代えて第3の座標変換補正実施決定部400cを有し、警報表示部420aが設けられている。
 第3の座標変換補正実施決定部400cは、実施例4の第1の座標変換補正実施決定部400aの動作に加えて、座標変換補正値記憶部390aに記憶されたセンサ座標変換補正値を参照し、センサ座標変換補正値が予め保持された閾値以上の回数が所定の閾値以上となった場合、警報表示部420aに警報表示フラグを出力する。
 警報提示部420aは、警報表示フラグを受信した場合、自車の警報装置又は車両外部システム(クラウドサーバなど)に警報を表示する。警報は少なくとも1以上のレベルを有し、例えば、レベル1:点検推奨、レベル2:点検必須、レベル3:システム停止、などである。ドライバー又は乗員は警告表示を見て、必要な措置(自動運転、運転支援の停止や、車両の修理など)を行う。警報提示部420aは、警報の表示に代えて、又は警報の表示に加えて、音や振動で警報を提示してもよい。
 以上の機能ブロックの構成、処理フロー、動作によって、本実施例のセンサエイミング機能を有するセンサフュージョン装置1は、センサの軸ズレの状態に関する警報をドライバー又は乗員又は車両外部システムに送出できるため、自車点検の必要性を速やかに決定でき、システムの安全性を向上できる。
 <実施例8>
 図11は、センサエイミング機能を有するセンサフュージョン装置1の処理方法を示す概念図である。図1及び図11を用いて本発明の第8の実施例であるセンサエイミング機能を有するセンサフュージョン装置1の動作を説明する。実施例8において、実施例1との相違点を主に説明し、同じ構成には同じ符号を付し、その説明を省略する。
 図11に示す要に、実施例8において、自車800の周辺には、第7の静止物ターゲット810gと、対象外静止物ターゲット820aと、移動体830aが存在している。また、図には、第1乃至第4のセンサ観測結果910a~910d及び第7及び第8の関数フィッティング結果900g及び900hが図示される。
 第1及び第2の車両周辺監視センサ10a及び10bは、第7の静止物ターゲット810gを検知し、各々第1及び第2のセンサ観測結果910a及び910bを出力する。第1及び第2のセンサ観測結果910a及び910bは、線分又は平面多角形又は立体多角形で表される。一方、第1及び第2の車両周辺監視センサ10a及び10bは、第1の対象外静止物ターゲット820aを検知し、各々第3及び第4のセンサ観測結果910c及び910dを出力する。第3及び第4のセンサ観測結果910c及び910dは点の情報を有する。
 第1のターゲット選択部300aは、第1乃至第4のセンサ観測結果910a~910dより、予め保持されたフィルタを用いて第1及び第2のセンサ観測結果910a及び910bを選択する。ここで、フィルタは第1乃至第4のセンサ観測結果910a~910dが有する形態(線分又は平面多角形又は立体多角形)と同じ形態となる。
 関数フィッティング部310aは、第1の車両周辺監視センサ10aに由来する第1のセンサ観測結果910aを関数でフィッティングし、第7の関数フィッティング結果900eを出力する。また、関数フィッティング部310aは、第2の車両周辺監視センサ10aに由来する第1のセンサ観測結果910aを関数でフィッティングし、第8の関数フィッティング結果900fを出力する。
 第1のフィッティング結果比較部320aは、第7及び第8の関数フィッティング結果900e及び900fを比較し、第7の関数フィッティング結果900eと第8の関数フィッティング結果900fとが一致するような関数補正値を計算する。
 以上の機能ブロックの構成、処理フロー、動作によって、本実施例のセンサエイミング機能を有するセンサフュージョン装置1は、対象とする静止物ターゲットが面構造を有する場合にもその効果を有する。
 なお、本実施例において、第7の静止物ターゲット810gはガードレール、防音壁、縁石、分離帯など面構造を有するいかなる道路構造物でも構わない。
 また、なお、本実施例において、第1及び第2の車両周辺監視センサ10a及び10bの各々から出力されるセンサ観測結果は一つとしたが、各センサが複数の観測結果を出力しても構わない。
 以上に説明した実施例において、第1乃至第4の車両周辺監視センサ10a~10dは、同じ種類のセンサでも、異なる種類のセンサでも構わない。また、第1乃至第4の車両周辺監視センサ10a~10dは、ミリ波レーダ、カメラ(可視光、近赤外、中赤外、遠赤外カメラ)、LiDAR(Light Detection and Ranging)、ソナー、TOF(Time of Flight)センサ又はそれらを組み合わせたセンサ、などいずれのセンサであっても構わない。
 また、各実施例に記載の機能ブロックの構成、処理フロー、動作は任意に組み合わせても構わない。
 さらに、以上の説明では、車載装置(ECU)がセンサ座標変換補正値を計算したが、車両と通信可能に接続された計算機がセンサ座標変換補正値を計算してもよい。
 以上に説明したように、本発明の実施例のセンサフュージョン装置1は、車両周辺監視センサ10a~10dが検知したセンサデータを、車両周辺監視センサ10a~10dの各々に固有の座標系から所定の統一座標系(統一相対座標)に変換するセンサ座標変換部100aと、車両周辺監視センサ10a~10dの各々のセンサデータから所定の地物(静止物ターゲット810a~810f)を選択するターゲット選択部300a、300bと、選択された地物の配列状態を近似する関数を各車両周辺監視センサ10a~10d毎に定める関数フィッティング部310aと、車両周辺監視センサ10a~10dの各々が検知した地物の配列状態を近似する関数を比較するフィッティング結果比較部320a、320bと、関数の比較結果より、車両周辺監視センサ10a~10dが検知した地物の座標を変換するための補正量を計算する座標変換補正値計算部330aとを備え、センサ座標変換部100aは、計算された補正量を用いて、車両周辺監視センサ10a~10dを統一相対座標に変換するので、車両周辺監視センサ10a、10bに発生した、自車への取り付け角度の軸ズレを補正できる。
 また、車両周辺監視センサ10a~10dはミリ波レーダでもよい。また、車両周辺監視センサ10a~10dの少なくとも一つはミリ波レーダでもよく、少なくとも一つはカメラでもよい。このように本実施例のセンサフュージョン装置1では、様々な種類の車両周辺監視センサ10a~10dの補正量を計算できる。
 また、ターゲット選択部300a、300bは、道路に対して略平行に既知の間隔で配置された構造物を用いるので、車両周辺監視センサ10a~10dの補正量を正確に計算できる。
 また、ターゲット選択部300a、300bは、地物に関する既知の配列状態に対応するフィルタを用いて所定の地物を選択するので、補正量の計算に用いる静止物ターゲット810a~810fを容易に検出できる。
 また、フィッティング結果比較部320a、320bは、定められた関数が表す線を車両周辺監視センサ10a~10dの検知領域外に外挿して、外挿された線同士を比較するので、車両周辺監視センサ10a、10bの検知領域(センサ検知領域700a、700b)が重複しない場合でも、関数フィッティング結果900a、900bを比較でき、補正量を計算できる。
 また、計算された補正量が所定の閾値以上である場合、警報を出力する警報提示部420aを備えるので、乗員や整備員が必要な措置を行うことができる。
 また、状態検知センサ50a~50cが検知した自車両に加わった衝撃及び温度の少なくとも一つが所定の条件を満たす場合、前記センサ座標変換補正値を出力するので、異常が発生していない場合にはセンサ座標変換補正値が計算されず、処理負荷を軽減できる。
 なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
 また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD、BD等の記録媒体に格納することができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
10a~10d 車両周辺監視センサ
20a 自車挙動検知センサ
30a レーンマーカ検知センサ
40a 配信センシング情報
50a~50c 状態検知センサ
100a センサ座標変換部
110a センサ時刻同期部
120a 移動体静止物分別部
200a センサデータ統合部
300a、300b ターゲット選択部
310a 関数フィッティング部
320a、320b フィッティング結果比較部
330a 座標変換補正値計算部
340a、340b ターゲット検知開始判定部
350a ターゲット検知データ有効性判定部
360a ターゲット記憶部
370a 配列形状推定部
380a 元関数生成部
390a 座標変換補正値記憶部
400a~400c 座標変換補正実施決定部
410a センサ状態推定部
420a 警報提示部
700a、700b センサ検知領域
710a 自車進行経路
800 自車
810a~810g 静止物ターゲット
820a 対象外静止物ターゲット
830a 移動体
900a~900g 関数フィッティング結果
910a~910d センサ観測結果

Claims (10)

  1.  二つ以上のセンサの検知結果を用いて、前記センサの検知結果の補正量を計算するエイミング装置であって、
     前記センサが検知したセンサデータを、当該センサに固有の座標系から所定の統一座標系に変換するセンサ座標変換部と、
     前記各センサが検知したセンサデータから所定の地物を選択するターゲット選択部と、
     前記選択された前記地物の配列状態を近似する関数を各センサ毎に定める関数フィッティング部と、
     前記各センサが検知した地物の配列状態を近似する関数を比較するフィッティング結果比較部と、
     前記関数の比較結果より、前記センサが検知した地物の座標を変換するための補正量を計算する補正値計算部とを備えることを特徴とするエイミング装置。
  2.  請求項1に記載のエイミング装置であって、
     前記センサは、ミリ波レーダであることを特徴とするエイミング装置。
  3.  請求項1に記載のエイミング装置であって、
     前記センサの少なくとも一つはミリ波レーダであり、少なくとも一つはカメラであることを特徴とするエイミング装置。
  4.  請求項1に記載のエイミング装置であって、
     前記地物は、道路に対して略平行に既知の間隔で配置された構造物であることを特徴とするエイミング装置。
  5.  請求項4に記載のエイミング装置であって、
     前記ターゲット選択部は、前記地物に関する既知の配列状態に対応するフィルタを有することを特徴とするエイミング装置。
  6.  請求項1に記載のエイミング装置であって、
     前記フィッティング結果比較部は、前記定められた関数が表す線を前記センサの検知領域外に外挿して、前記外挿された線同士を比較することを特徴とするエイミング装置。
  7.  請求項1に記載のエイミング装置であって、
     前記計算された補正量が所定の閾値以上である場合、警報を出力する警報提示部を備えることを特徴とするエイミング装置。
  8.  請求項1に記載のエイミング装置であって、
     状態検知センサが検知した車両に加わった衝撃及び温度の少なくとも一つが入力され、
     前記衝撃及び前記温度の少なくとも一つが所定の条件を満たす場合、前記補正量を出力することを特徴とするエイミング装置。
  9.  車両の運転を制御する運転制御システムであって、
     二つ以上のセンサの検知結果を統合して出力するセンサフュージョン装置と、
     前記センサフュージョン装置からの出力を用いて車両の運転を制御する運転制御装置とを備え、
     前記センサフュージョン装置は、
     前記センサが検知したセンサデータを、当該センサに固有の座標系から所定の統一座標系に変換するセンサ座標変換部と、
     前記各センサが検知したセンサデータから所定の地物を選択するターゲット選択部と、
     前記選択された前記地物の配列状態を近似する関数を各センサ毎に定める関数フィッティング部と、
     前記各センサが検知した地物の配列状態を近似する関数を比較するフィッティング結果比較部と、
     前記関数の比較結果より、前記センサが検知した地物の座標を変換するための補正量を計算する補正値計算部と、
     前記センサデータを統合し、統合結果を出力するセンサデータ統合部とを有し、
     前記センサ座標変換部は、前記計算された補正量を用いて、前記センサデータを前記統一座標系に変換することを特徴とする運転制御システム。
  10.  二つ以上のセンサの検知結果を用いて、前記センサの検知結果の補正量を計算するエイミング装置が実行するセンサデータの補正量の計算方法であって、
     前記計算方法は、
     前記センサが検知したセンサデータを、当該センサに固有の座標系から所定の統一座標系に変換し、
     前記各センサが検知したセンサデータから所定の地物を選択し、
     前記選択された前記地物の配列状態を近似する関数を各センサ毎に定め、
     前記各センサが検知した地物の配列状態を近似する関数を比較し、
     前記関数の比較結果より、前記センサが検知した地物の座標を変換するための補正量を計算することを特徴とする計算方法。
PCT/JP2020/027322 2019-08-02 2020-07-14 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法 WO2021024712A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112020003137.3T DE112020003137T5 (de) 2019-08-02 2020-07-14 Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse von sensordaten
JP2021537649A JP7162142B2 (ja) 2019-08-02 2020-07-14 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
US17/629,870 US20220289245A1 (en) 2019-08-02 2020-07-14 Aiming device, drive control system, and method for calculating correction amount of sensor data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019142898 2019-08-02
JP2019-142898 2019-08-02

Publications (1)

Publication Number Publication Date
WO2021024712A1 true WO2021024712A1 (ja) 2021-02-11

Family

ID=74503057

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/027322 WO2021024712A1 (ja) 2019-08-02 2020-07-14 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法

Country Status (4)

Country Link
US (1) US20220289245A1 (ja)
JP (1) JP7162142B2 (ja)
DE (1) DE112020003137T5 (ja)
WO (1) WO2021024712A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244316A1 (ja) * 2021-05-17 2022-11-24 日立Astemo株式会社 レーダ装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05288847A (ja) * 1992-04-09 1993-11-05 Nissan Motor Co Ltd 接近検知装置
JPH07270536A (ja) * 1994-03-31 1995-10-20 Omron Corp 対象判別装置および方法,ならびに対象判別装置を搭載した車両
JPH08271247A (ja) * 1995-03-30 1996-10-18 Mitsubishi Electric Corp センサのアライメント誤差推定装置
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2016156725A (ja) * 2015-02-25 2016-09-01 株式会社デンソー 搭載角度誤差検出方法および装置、車載レーダ装置
JP2017207334A (ja) * 2016-05-17 2017-11-24 本田技研工業株式会社 移動体
DE102016009756A1 (de) * 2016-08-10 2018-02-15 Daimler Ag Verfahren zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs sowie Sensorsystem
US20180313942A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Calibration of laser sensors
WO2019097731A1 (ja) * 2017-11-20 2019-05-23 三菱電機株式会社 障害物認識装置および障害物認識方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010249613A (ja) 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP6291781B2 (ja) 2013-10-17 2018-03-14 株式会社デンソー 周辺監視装置及び周辺監視システム
JP6802137B2 (ja) 2017-11-15 2020-12-16 株式会社日立インダストリアルプロダクツ 搬送車システム、搬送車制御システム及び搬送車制御方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05288847A (ja) * 1992-04-09 1993-11-05 Nissan Motor Co Ltd 接近検知装置
JPH07270536A (ja) * 1994-03-31 1995-10-20 Omron Corp 対象判別装置および方法,ならびに対象判別装置を搭載した車両
JPH08271247A (ja) * 1995-03-30 1996-10-18 Mitsubishi Electric Corp センサのアライメント誤差推定装置
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2016156725A (ja) * 2015-02-25 2016-09-01 株式会社デンソー 搭載角度誤差検出方法および装置、車載レーダ装置
JP2017207334A (ja) * 2016-05-17 2017-11-24 本田技研工業株式会社 移動体
DE102016009756A1 (de) * 2016-08-10 2018-02-15 Daimler Ag Verfahren zum Kalibrieren eines Sensorsystems eines Kraftfahrzeugs sowie Sensorsystem
US20180313942A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Calibration of laser sensors
WO2019097731A1 (ja) * 2017-11-20 2019-05-23 三菱電機株式会社 障害物認識装置および障害物認識方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244316A1 (ja) * 2021-05-17 2022-11-24 日立Astemo株式会社 レーダ装置

Also Published As

Publication number Publication date
DE112020003137T5 (de) 2022-04-07
JP7162142B2 (ja) 2022-10-27
JPWO2021024712A1 (ja) 2021-02-11
US20220289245A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
US11307579B2 (en) Fault-tolerant control of an autonomous vehicle with multiple control lanes
WO2018076855A1 (zh) 车辆行驶窄道辅助系统
JP6714513B2 (ja) 車両のナビゲーションモジュールに対象物の存在を知らせる車載装置
EP3640622B1 (en) Method and apparatus for determining coping capability boundary information of an unmanned vehicle and computer program therefore
CN104321665B (zh) 基于多表面模型的跟踪
US20200168094A1 (en) Control device, control method, and program
JP6332383B2 (ja) 車両用物標検出システム
WO2021249926A1 (en) Representing objects in a surrounding environment of a vehicle using a frenet coordinate system
RU2757038C2 (ru) Способ и система для предсказания будущего события в беспилотном автомобиле (sdc)
CN113165645A (zh) 用于警告车辆驾驶员的设备和方法
US11719799B2 (en) Method for determining a collision free space
WO2021024712A1 (ja) エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
Wang et al. Analysis of unprotected intersection left-turn conflicts based on naturalistic driving data
US11142187B2 (en) Parking assistance device
EP2172920B1 (en) Threat assessment for unexpected events
CN110182207B (zh) 车辆的检测方法及装置
WO2021140811A1 (ja) センサエイミング装置、運転制御システム、及び補正量の推定方法
KR102628027B1 (ko) 객체 인식 장치 및 그 방법
Pilipovic et al. Toward intelligent driver-assist technologies and piloted driving: Overview, motivation and challenges
WO2022254861A1 (ja) 電子制御装置及び制御方法
US20230182732A1 (en) Electronic control device
EP4095009B1 (en) Method and device for operating a self-driving car
US11577753B2 (en) Safety architecture for control of autonomous vehicle
WO2022059314A1 (ja) 信号処理装置
WO2023145117A1 (ja) 車載電子制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20850546

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021537649

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20850546

Country of ref document: EP

Kind code of ref document: A1