JP2021516401A - データ融合方法及び関連装置 - Google Patents
データ融合方法及び関連装置 Download PDFInfo
- Publication number
- JP2021516401A JP2021516401A JP2020550669A JP2020550669A JP2021516401A JP 2021516401 A JP2021516401 A JP 2021516401A JP 2020550669 A JP2020550669 A JP 2020550669A JP 2020550669 A JP2020550669 A JP 2020550669A JP 2021516401 A JP2021516401 A JP 2021516401A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- roadside
- result
- sensing
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 19
- 230000004927 fusion Effects 0.000 claims abstract description 231
- 238000001514 detection method Methods 0.000 claims abstract description 95
- 238000000034 method Methods 0.000 claims abstract description 82
- 230000006870 function Effects 0.000 claims description 30
- 238000011156 evaluation Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000009434 installation Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 150000001875 compounds Chemical class 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000001069 Raman spectroscopy Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- DGAQECJNVWCQMB-PUAWFVPOSA-M Ilexoside XXIX Chemical compound C[C@@H]1CC[C@@]2(CC[C@@]3(C(=CC[C@H]4[C@]3(CC[C@@H]5[C@@]4(CC[C@@H](C5(C)C)OS(=O)(=O)[O-])C)C)[C@@H]2[C@]1(C)O)C)C(=O)O[C@H]6[C@@H]([C@H]([C@@H]([C@H](O6)CO)O)O)O.[Na+] DGAQECJNVWCQMB-PUAWFVPOSA-M 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- ZLMJMSJWJFRBEC-UHFFFAOYSA-N Potassium Chemical compound [K] ZLMJMSJWJFRBEC-UHFFFAOYSA-N 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 229910052700 potassium Inorganic materials 0.000 description 2
- 239000011591 potassium Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 229910052708 sodium Inorganic materials 0.000 description 2
- 239000011734 sodium Substances 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000002253 acid Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/003—Transmission of data between radar, sonar or lidar systems and remote stations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4026—Antenna boresight
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0225—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0259—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9316—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/932—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
Description
車両感知データを取得するステップであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
路側感知データを取得するステップであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと、を含む。
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultvは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは路側感知機器の信頼係数であり、wr=(wr1,wr2,... ,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
w=g(Sk,Ri,θj),w∈[0,1]
ここで、Skは感知機器パラメータであり、Riはターゲット対象物の感知距離であり、θjはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップをさらに含み、
車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップは、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップを含む。
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは路側感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、をさらに含む。
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を得た後に、この方法は、
第1の融合結果をターゲット車両装置に送信するステップをさらに以下を含み、ターゲット車両装置は、ターゲット車両装置の車両感知データと第1の融合結果とを融合して、第2の融合結果を取得するように構成され、ターゲット車両装置は少なくとも1つの車両装置に属する。
車両感知データを路側装置に送信するステップであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、送信するステップと、
路側装置により送信された第1の融合結果を受信するステップであって、第1の融合結果は、路側装置が融合式を使用して少なくとも1つの車両装置により送信された車両感知データと路側感知データとを融合することによって取得され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、受信するステップと、
車両感知データと第1の融合結果とを融合して、第2の融合結果を取得するステップと、を含む。
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultvは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは路側感知機器の信頼係数であり、wr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
w=g(Sk,Ri,θj),w∈[0,1]
ここで、Skは感知機器パラメータであり、Riはターゲット対象物の感知距離であり、θjはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップをさらに含み、
車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップは、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップを含む。
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、をさらに含む。
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、resultvは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
ここで、wrは路側感知機器の信頼係数であり、wrは多次元データであり得、つまり、wr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wvは車両感知機器の信頼係数であり、wvは多次元データであり得、つまりwv=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。路側感知機器の信頼係数をより細かく分割することができ、それによって、路側結果ユニット内の異なる要素が異なる信頼係数に対応することが理解され得る。同様に、車両感知機器の信頼係数もより細かく分割することができ、それによって、車両結果ユニット内の異なる要素が異なる信頼係数に対応する。具体的には、
w=g(Sk,Ri,θj),w∈[0,1]
ここで、Skは感知機器パラメータであり、Riは感知距離であり、θjは感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。較正パラメータテーブルは、大量の既知のターゲット対象物のデータをセンサ機器の較正プロセスにおいて使用することにより、逆推定によって得ることができる。感知機器パラメータの精度が高い場合に、信頼係数の値が大きくなり、又は感知機器パラメータの精度が低い場合に、信頼係数の値が小さくなることは容易に理解できる。感知距離が短い場合に、信頼係数の値は大きくなり、又は感知距離が長い場合に、信頼係数の値は小さくなることは容易に理解できる。感知角度が小さい場合に、信頼係数の値は大きくなり、又は感知角度が大きい場合に、信頼係数の値は小さくなることは容易に理解できる。
Sk=h(S0,A,P)
ここで、Skは感知機器パラメータであり、S0は感知機器パラメータの初期精度であり、Aは、感知機器の空間設置角度、つまり、感知機器が設置された後の道路の地面に対する空間角であり、Pは、感知機器の設置座標、つまり、感知機器が設置された後の道路の地面に対する3次元座標である。
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
ここで、Δpijは位置偏差であり、Δpij=fabs(pri−pvj)であり、priは路側感知機器が検出したターゲット対象物iの位置であり、pvjは車両感知機器が検出したターゲット対象物jの位置であり、fabsは絶対値を求めるための関数であり、
Δvijは速度偏差であり、Δvij=fabs(vri−vvj)であり、vriは路側感知機器が検出したターゲット対象物iの速度であり、vvjは車両感知機器が検出したターゲット対象物jの速度であり、
Δsijはサイズ偏差であり、Δsij=fabs(sri−svj)であり、sriは路側感知機器が検出したターゲット対象物iのサイズであり、svjは車両感知機器が検出したターゲット対象物jのサイズであり、
Δcijは色偏差であり、Δcij=fabs(cri−cvj)であり、criは路側感知機器が検出したターゲット対象物iの色であり、cvjは車両感知機器が検出したターゲット対象物jの色であり、
Ppは位置偏差係数であり、Pp=1/(1+exp(−wri pwvj p))であり、wri pは路側感知機器が検出したターゲット対象物iの位置に対応する信頼係数であり、wvj pは車両感知機器が検出したターゲット対象物jの位置に対応する信頼係数であり、
Pvは速度偏差係数であり、Pv=1/(1+exp(−wri vwvj v))であり、wri vは路側感知機器が検出したターゲット対象物iの速度に対応する信頼係数であり、wvj vは車両感知機器が検出したターゲット対象物jの速度に対応する信頼係数であり、
Psはサイズ偏差係数であり、Ps=1/(1+exp(−wri swvj s))であり、wri sは路側感知機器が検出したターゲット対象物iのサイズに対応する信頼係数であり、wvj sは車両感知機器が検出したターゲット対象物jのサイズに対応する信頼係数であり、
Pcは速度偏差係数であり、Pc=1/(1+exp(−wri cwvj c))であり、wri cは路側感知機器が検出したターゲット対象物iの色に対応する信頼係数であり、wvj cは車両感知機器が検出したターゲット対象物jの色に対応する信頼係数であり、
φ(.)は活性化関数であり、ここで、活性化関数は、漏れ(leaky)正規化線形ユニット(Leaky
Rectified Linear Unit : LReLU)、パラメータ正規化線形ユニット(Parametric
Rectified Linear Unit : PReLU)、ランダム化漏れ正規化線形ユニット(Randomized
Leaky Rectified Linear unit : RReLU)、ReLUSoftplus関数、Softsign関数、Sigmoid関数、又はtanh関数であり得る。
Tループバック=T1+T2+T3+T4
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
Tループバック=T1+T2+T3+T4
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
y=f(resultr,resultv)
として表すことができ、
ここで、resultrは路側結果セットであり、resultvは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
ここで、wrは路側感知機器の信頼係数であり、wrは多次元データであり得、つまりwr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wvは車両感知機器の信頼係数であり、wvは多次元データであり得、つまりwv=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
Tループバック=T1+T2+T3+T4
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
y=f(resultr,resultv)
として表すことができ、
ここで、resultrは路側結果セットであり、resultvは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
ここで、wrは路側感知機器の信頼係数であり、wrは多次元データであり得、つまりwr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wvは車両感知機器の信頼係数であり、wvは多次元データであり得、つまりwv=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
Tループバック=T1+T2+T3+T4
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとのマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
y=f(resultr,resultv)
として表すことができ、
ここで、resultrは路側結果セットであり、resultvは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
ここで、wrは路側感知機器の信頼係数であり、wrは多次元データであり得、つまりwr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wvは車両感知機器の信頼係数であり、wvは多次元データであり得、つまりwv=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。
車両感知データを取得することであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
路側感知データを取得することであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得することと、を実行する。
車両感知データを路側装置に送信することであって、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される、送信することと、
路側装置により送信された第1の融合結果を受信することであって、第1の融合結果は、路側装置が融合式を使用して少なくとも1つの車両装置の車両感知データと路側感知データとを融合することによって取得され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、受信することと、
車両感知データと第1の融合結果とを融合して、第2の融合結果を取得することと、を実行する。
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultvは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは路側感知機器の信頼係数であり、wr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
w=g(Sk,Ri,θj),ここで、w∈[0,1]
ここで、Skは感知機器パラメータであり、Riはターゲット対象物の感知距離であり、θjはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップと、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと、を含む。
次式を使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、を含む。
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックフレームであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
車両感知データを取得することであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
路側感知データを取得することであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得することと、を実行する。
実施形態2では、融合機器200のプロセッサ280は、以下の命令を実行する:
少なくとも1つの車両装置により送信された車両感知データを受信することであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、受信することと、
融合式を使用して少なくとも1つの車両装置の車両感知データと路側感知データとを融合して、第1の融合結果を取得することであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
第1の融合結果をターゲット車両装置に送信することであって、ターゲット車両装置は、車両感知データと第1の融合結果とを融合して第2の融合結果を取得するように構成され、ターゲット車両装置は少なくとも1つの車両装置に属する、送信することと、を実行する。
y=f(resultr,resultv)
ここで、resultrは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultvは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは路側感知機器の信頼係数であり、wr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは路側感知機器のセンサ範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
w=g(Sk,Ri,θj),ここで、w∈[0,1]
ここで、Skは感知機器パラメータであり、Riはターゲット対象物の感知距離であり、θjはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップと、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと、を含む。
次式を使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される:
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側iは路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両jは車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、を含む。
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックはフレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
Claims (38)
- データ融合方法であって、当該方法は、
車両感知データを取得するステップであって、該車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
路側感知データを取得するステップであって、該路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
融合式を使用して前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得するステップと、を含む、
方法。 - 前記融合式は、
y=f(resultr,resultv)
として表され、
ここで、resultrは路側結果セットであり、該路側結果セットは前記路側感知データを示すために使用され、resultvは車両結果セットであり、該車両結果セットは前記車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、前記路側結果セット及び前記車両結果セットに基づいてマッピングすることにより、前記第1の融合結果を取得するために使用される、請求項1に記載の方法。 - f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは前記路側感知機器の信頼係数であり、wr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の数量であり、wriは前記路側感知機器の前記感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは前記車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の数量であり、wvjは前記車両感知機器の前記感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである、請求項2に記載の方法。 - 前記信頼係数は、感知機器パラメータ、前記ターゲット対象物の感知距離、及び前記ターゲット対象物の感知角度をまとめたものに基づいて決定される、請求項3に記載の方法。
- 前記信頼係数wは、
w=g(Sk,Ri,θj),w∈[0,1]
の式に基づいて得ることができ、
ここで、Skは前記感知機器パラメータであり、Riは前記ターゲット対象物の前記感知距離であり、θjは前記ターゲット対象物の前記感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである、請求項4に記載の方法。 - 前記車両結果セットは少なくとも1つの車両結果ユニットを含み、該少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される、請求項2乃至5のいずれか一項に記載の方法。
- 前記少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両j(pvj,vvj,svj,cvj)として表され、ここで、pvjは前記車両感知機器が検出した前記ターゲット対象物jの位置を示し、vvjは前記車両感知機器が検出した前記ターゲット対象物jの速度を示し、svjは前記車両感知機器が検出した前記ターゲット対象物jのサイズを示し、cvjは前記車両感知機器が検出した前記ターゲット対象物jの色を示し、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の前記数量であり、jは、自然数であり、且つ0<j≦Nである、請求項6に記載の方法。
- 前記路側結果セットは少なくとも1つの路側結果ユニットを含み、該少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される、請求項2乃至7のいずれか一項に記載の方法。
- 前記少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側i(pvi,vvi,svi,cvi)として表され、ここで、pviは前記路側感知機器が検出した前記ターゲット対象物iの位置を示し、vviは前記路側感知機器が検出した前記ターゲット対象物iの速度を示し、sviは前記路側感知機器が検出した前記ターゲット対象物iのサイズを示し、cviは前記路側感知機器が検出した前記ターゲット対象物iの色を示し、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の前記数量であり、iは、自然数であり、且つ0<i≦Mである、請求項8に記載の方法。
- 融合式を使用して前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得する前に、当該方法は、
前記路側感知データを前記車両感知データとマッチングして、マッチング結果を取得するステップをさらに含み、
前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得するステップは、
前記マッチング結果に基づいて、前記車両感知データと前記路側感知データとを融合して、前記第1の融合結果を取得するステップを含む、請求項2乃至5のいずれか一項に記載の方法。 - 前記路側感知データを前記車両感知データとマッチングして、マッチング結果を取得するステップは、
偏差ネットワークを使用して、前記路側結果セット内の路側結果ユニットと前記車両結果セット内の車両結果ユニットとの間のマッチング関係が見出されるステップを含む、請求項10に記載の方法。 - 偏差ネットワークを使用して、前記路側結果セット内の路側結果ユニットと前記車両結果セット内の車両結果ユニットとの間のマッチング関係が見出されるステップは、
次式を使用して、前記路側結果セット内の前記路側結果ユニットと前記車両結果セット内の前記車両結果ユニットとの間のマッチング関係が見出されるステップを特に含み、
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviationは前記偏差ネットワークであり、路側iは前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する前記路側結果ユニットであり、車両jは前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する前記車両結果ユニットであり、i及びjは共に自然数である、請求項11に記載の方法。 - 前記偏差ネットワーク(Deviation)は、図5に示される逆伝播(BP)ニューラルネットワークであり、
Δpijは位置偏差であり、Δpij=fabs(pri−pvj)であり、priは前記路側感知機器が検出した前記ターゲット対象物iの前記位置であり、pvjは前記車両感知機器が検出した前記ターゲット対象物jの前記位置であり、fabsは絶対値を求めるための関数であり、
Δvijは速度偏差であり、Δvij=fabs(vri−vvj)であり、vriは前記路側感知機器が検出した前記ターゲット対象物iの前記速度であり、vvjは前記車両感知機器が検出した前記ターゲット対象物jの前記速度であり、
Δsijはサイズ偏差であり、Δsij=fabs(sri−svj)であり、sriは前記路側感知機器が検出した前記ターゲット対象物iの前記サイズであり、svjは前記車両感知機器が検出した前記ターゲット対象物jの前記サイズであり、
Δcijは色偏差であり、Δcij=fabs(cri−cvj)であり、criは前記路側感知機器が検出した前記ターゲット対象物iの前記色であり、cvjは前記車両感知機器が検出した前記ターゲット対象物jの前記色であり、
Ppは位置偏差係数であり、Pp=1/(1+exp(−wri pwvj p))であり、wri pは前記路側感知機器が検出した前記ターゲット対象物iの前記位置に対応する信頼係数であり、wvj pは前記車両感知機器が検出した前記ターゲット対象物jの前記位置に対応する信頼係数であり、
Pvは速度偏差係数であり、Pv=1/(1+exp(−wri vwvj v))であり、wri vは前記路側感知機器が検出した前記ターゲット対象物iの前記速度に対応する信頼係数であり、wvj vは前記車両感知機器が検出した前記ターゲット対象物jの前記速度に対応する信頼係数であり、
Psはサイズ偏差係数であり、Ps=1/(1+exp(−wri swvj s))であり、wri sは前記路側感知機器が検出した前記ターゲット対象物iの前記サイズに対応する信頼係数であり、wvj sは前記車両感知機器が検出した前記ターゲット対象物jの前記サイズに対応する信頼係数であり、
Pcは速度偏差係数であり、Pc=1/(1+exp(−wri cwvj c))であり、wri cは前記路側感知機器が検出した前記ターゲット対象物iの前記色に対応する信頼係数であり、wvj cは前記車両感知機器が検出した前記ターゲット対象物jの前記色に対応する信頼係数であり、
φ(.)は活性化関数である、請求項12に記載の方法。 - 前記路側感知データを前記車両感知データとマッチングして、マッチング結果を得た後に、当該方法は、
フレーム間ループバック及び/又はマルチフレーム相関の方法で前記マッチング結果の信頼度を評価して、評価結果を取得するステップと、
該評価結果に基づいて、前記偏差ネットワークを調整するステップと、をさらに含む、請求項11乃至13のいずれか一項に記載の方法。 - 前記フレーム間ループバックは、
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックは前記フレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、前記第1のマッチング結果は、前記路側感知機器がi番目のフレームで検出した前記ターゲット対象物jに対応する路側結果ユニットと、前記車両感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、前記第2のマッチング結果は、前記車両感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する前記車両結果ユニットと、前記車両感知機器が(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、前記第3のマッチング結果は、前記車両感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する前記車両結果ユニットと、前記路側感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、前記第4のマッチング結果は、前記路側感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する前記路側結果ユニットと、前記路側感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する前記路側結果ユニットとの間マッチング結果である、請求項14に記載の方法。 - 前記マルチフレーム相関は、
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームは前記マルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は前記第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は前記第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である、請求項15に記載の方法。 - 車両感知データを取得するステップは、
少なくとも1つの車両装置により送信された前記車両感知データを受信するステップを含み、
融合式を使用して前記車両感知データ及び前記路側感知データを融合して、第1の融合結果を得た後に、当該方法は、
前記第1の融合結果をターゲット車両装置に送信するステップをさらに含み、
該ターゲット車両装置は、前記ターゲット車両装置の車両感知データと前記第1の融合結果とを融合して、第2の融合結果を取得するように構成され、前記ターゲット車両装置は前記少なくとも1つの車両装置に属する、請求項1乃至16のいずれか一項に記載の方法。 - データ融合方法であって、当該方法は、
車両感知データを路側装置に送信するステップであって、前記車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、送信するステップと、
前記路側装置により送信された第1の融合結果を受信するステップであって、該第1の融合結果は、前記路側装置が融合式を使用して少なくとも1つの車両装置により送信された車両感知データと路側感知データとを融合することによって取得され、該路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、受信するステップと、
前記車両感知データと前記第1の融合結果とを融合して、第2の融合結果を取得するステップと、を含む、
方法。 - 第1の取得モジュール、第2の取得モジュール、及び融合モジュールを含む融合機器であって、
前記第1の取得モジュールは、車両感知データを取得するように構成され、該車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得され、
前記第2の取得モジュールは、路側感知データを取得するように構成され、該路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得され、
前記融合モジュールは、融合式を使用して前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得するように構成される、
融合機器。 - 前記融合式は、
y=f(resultr,resultv)
として表され、
ここで、resultrは路側結果セットであり、該路側結果セットは前記路側感知データを示すために使用され、resultvは車両結果セットであり、該車両結果セットは前記車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、前記路側結果セット及び前記車両結果セットに基づいてマッピングすることにより、前記第1の融合結果を取得するために使用される、請求項19に記載の機器。 - f(resultr,resultv)=(wr/(wr+wv))resultr+(wv/(wr+wv))resultv
であり、
ここで、wrは前記路側感知機器の信頼係数であり、wr=(wr1,wr2,...,wrM)であり、resultr(roadside1,roadside2,...,roadsideM)であり、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の数量であり、wriは前記路側感知機器の前記感知範囲内のターゲット対象物iに対応する信頼係数であり、路側iは前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wvは前記車両感知機器の信頼係数であり、wv=(wv1,wv2,...,wvN)であり、resultv(vehicle1,vehicle2,...,vehicleN)であり、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の数量であり、wvjは前記車両感知機器の前記感知範囲内のターゲット対象物jに対応する信頼係数であり、車両jは前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである、請求項20に記載の機器。 - 前記信頼係数は、感知機器パラメータ、前記ターゲット対象物の感知距離、及び前記ターゲット対象物の感知角度をまとめたものに基づいて決定される、請求項21に記載の機器。
- 前記信頼係数wは、
w=g(Sk,Ri,θj),w∈[0,1]
の式に基づいて得ることができ、
ここで、Skは前記感知機器パラメータであり、Riは前記ターゲット対象物の前記感知距離であり、θjは前記ターゲット対象物の前記感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである、請求項22に記載の機器。 - 前記車両結果セットは少なくとも1つの車両結果ユニットを含み、該少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される、請求項20乃至23のいずれか一項に記載の機器。
- 前記少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両j(pvj,vvj,svj,cvj)として表され、ここで、pvjは前記車両感知機器が検出した前記ターゲット対象物jの位置を示し、vvjは前記車両感知機器が検出した前記ターゲット対象物jの速度を示し、svjは前記車両感知機器が検出した前記ターゲット対象物jのサイズを示し、cvjは前記車両感知機器が検出した前記ターゲット対象物jの色を示し、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の前記数量であり、jは、自然数であり、且つ0<j≦Nである、請求項24に記載の機器。
- 前記路側結果セットは少なくとも1つの路側結果ユニットを含み、該少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される、請求項20乃至25のいずれか一項に記載の機器。
- 前記少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側i(pvi,vvi,svi,cvi)として表され、ここで、pviは前記路側感知機器が検出した前記ターゲット対象物iの位置を示し、vviは前記路側感知機器が検出した前記ターゲット対象物iの速度を示し、sviは前記路側感知機器が検出した前記ターゲット対象物iのサイズを示し、cviは前記路側感知機器が検出した前記ターゲット対象物iの色を示し、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の前記数量であり、iは、自然数であり、且つ0<i≦Mである、請求項26に記載の機器。
- 機器は、マッチングモジュールをさらに含み、該マッチングモジュールは、前記路側感知データを前記車両感知データとマッチングして、マッチング結果を取得するように構成され、前記融合モジュールは、前記マッチング結果に基づいて、前記車両感知データと前記路側感知データとを融合して、前記第1の融合結果を取得するようにさらに構成される、請求項20乃至27のいずれか一項に記載の機器。
- 前記マッチングモジュールは、偏差ネットワークを使用して、前記路側結果セット内の路側結果ユニットと前記車両結果セット内の車両結果ユニットとの間のマッチング関係を見出すようにさらに構成される、請求項28に記載の機器。
- 前記マッチングモジュールは、以下の式を使用して、前記路側結果セット内の前記路側結果ユニットと前記車両結果セット内の前記車両結果ユニットとの間の前記マッチング関係を見出すようにさらに構成され、
S=Deviation(路側i,車両j)
ここで、Sはマッチング結果であり、Deviationは前記偏差ネットワークであり、路側iは前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する前記路側結果ユニットであり、車両jは前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する前記車両結果ユニットであり、i及びjは共に自然数である、請求項29に記載の機器。 - 前記偏差ネットワーク(Deviation)は、図5に示される逆伝播(BP)ニューラルネットワークであり、
Δpijは位置偏差であり、Δpij=fabs(pri−pvj)であり、priは前記路側感知機器が検出した前記ターゲット対象物iの前記位置であり、pvjは前記車両感知機器が検出した前記ターゲット対象物jの前記位置であり、fabsは絶対値を求めるための関数であり、
Δvijは速度偏差であり、Δvij=fabs(vri−vvj)であり、vriは前記路側感知機器が検出した前記ターゲット対象物iの前記速度であり、vvjは前記車両感知機器が検出した前記ターゲット対象物jの前記速度であり、
Δsijはサイズ偏差であり、Δsij=fabs(sri−svj)であり、sriは前記路側感知機器が検出した前記ターゲット対象物iの前記サイズであり、svjは前記車両感知機器が検出した前記ターゲット対象物jの前記サイズであり、
Δcijは色偏差であり、Δcij=fabs(cri−cvj)であり、criは前記路側感知機器が検出した前記ターゲット対象物iの前記色であり、cvjは前記車両感知機器が検出した前記ターゲット対象物jの前記色であり、
Ppは位置偏差係数であり、Pp=1/(1+exp(−wri pwvj p))であり、wri pは前記路側感知機器が検出した前記ターゲット対象物iの前記位置に対応する信頼係数であり、wvj pは前記車両感知機器が検出した前記ターゲット対象物jの前記位置に対応する信頼係数であり、
Pvは速度偏差係数であり、Pv=1/(1+exp(−wri vwvj v))であり、wri vは前記路側感知機器が検出した前記ターゲット対象物iの前記速度に対応する信頼係数であり、wvj vは前記車両感知機器が検出した前記ターゲット対象物jの前記速度に対応する信頼係数であり、
Psはサイズ偏差係数であり、Ps=1/(1+exp(−wri swvj s))であり、wri sは前記路側感知機器が検出した前記ターゲット対象物iの前記サイズに対応する信頼係数であり、wvj sは前記車両感知機器が検出した前記ターゲット対象物jの前記サイズに対応する信頼係数であり、
Pcは速度偏差係数であり、Pc=1/(1+exp(−wri cwvj c))であり、wri cは前記路側感知機器が検出した前記ターゲット対象物iの前記色に対応する信頼係数であり、wvj cは前記車両感知機器が検出した前記ターゲット対象物jの前記色に対応する信頼係数であり、
φ(.)は活性化関数である、請求項30に記載の機器。 - 当該機器は、評価モジュール及び調整モジュールをさらに含み、
前記評価モジュールは、フレーム間ループバック及び/又はマルチフレーム相関の方法で前記マッチング結果の信頼度を評価して、評価結果を取得するように構成され、
前記調整モジュールは、前記評価結果に基づいて、前記偏差ネットワークを調整するように構成される、請求項29乃至31のいずれか一項に記載の機器。 - 前記フレーム間ループバックは、
Tループバック=T1+T2+T3+T4
であり、
ここで、Tループバックは前記フレーム間ループバックであり、T1は第1のマッチング結果であり、T2は第2のマッチング結果であり、T3は第3のマッチング結果であり、T4は第4のマッチング結果であり、前記第1のマッチング結果は、前記路側感知機器がi番目のフレームで検出した前記ターゲット対象物jに対応する路側結果ユニットと、前記車両感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、前記第2のマッチング結果は、前記車両感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する前記車両結果ユニットと、前記車両感知機器が(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、前記第3のマッチング結果は、前記車両感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する前記車両結果ユニットと、前記路側感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、前記第4のマッチング結果は、前記路側感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する前記路側結果ユニットと、前記路側感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する前記路側結果ユニットとの間のマッチング結果である、請求項32に記載の機器。 - 前記マルチフレーム相関は、
Tマルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームは前記マルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は前記第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は前記第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である、請求項32又は33に記載の機器。 - 当該機器は、送信モジュールをさらに含み、
前記第1の取得モジュールは、少なくとも1つの車両装置により送信された前記車両感知データを受信するように構成され、
前記送信モジュールは、前記第1の融合結果をターゲット車両装置に送信するように構成され、該ターゲット車両装置は、前記ターゲット車両装置の車両感知データと前記第1の融合結果とを融合して、第2の融合結果を取得するように構成され、前記ターゲット車両装置は前記少なくとも1つの車両装置に属する、請求項19乃至34のいずれか一項に記載の機器。 - 送信モジュール、受信モジュール、及び融合モジュールを含む融合機器であって、
前記送信モジュールは、車両感知データを路側装置に送信するように構成され、前記車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得され、
前記受信モジュールは、前記路側装置により送信された第1の融合結果を受信するように構成され、該第1の融合結果は、前記路側装置が融合式を使用して少なくとも1つの車両装置により送信された車両感知データと路側感知データとを融合することによって取得され、前記路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得され、
前記融合モジュールは、前記車両感知データと前記第1の融合結果とを融合して、第2の融合結果を取得するように構成される、
融合機器。 - メモリと、該メモリに結合されたプロセッサ及び通信モジュールとを含む融合機器であって、
前記通信モジュールは、データを外部に送信する又は該外部から受信するように構成され、前記メモリは、プログラムコードを格納するように構成され、前記プロセッサは、前記メモリに格納された前記プログラムコードを呼び出して、請求項1乃至18のいずれか一項に記載の方法を実行するように構成される、
融合機器。 - 命令を含むコンピュータ可読記憶媒体であって、前記命令が融合機器で実行されると、該融合機器は、請求項1乃至18のいずれか一項に記載の方法を実行することが可能になる、
コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810232615.5A CN108762245B (zh) | 2018-03-20 | 2018-03-20 | 数据融合方法以及相关设备 |
CN201810232615.5 | 2018-03-20 | ||
PCT/CN2019/078646 WO2019179417A1 (zh) | 2018-03-20 | 2019-03-19 | 数据融合方法以及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021516401A true JP2021516401A (ja) | 2021-07-01 |
JP7386173B2 JP7386173B2 (ja) | 2023-11-24 |
Family
ID=63980561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550669A Active JP7386173B2 (ja) | 2018-03-20 | 2019-03-19 | データ融合方法及び関連装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200409372A1 (ja) |
EP (1) | EP3754448A4 (ja) |
JP (1) | JP7386173B2 (ja) |
CN (1) | CN108762245B (ja) |
WO (1) | WO2019179417A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108762245B (zh) * | 2018-03-20 | 2022-03-25 | 华为技术有限公司 | 数据融合方法以及相关设备 |
CN109583505A (zh) * | 2018-12-05 | 2019-04-05 | 百度在线网络技术(北京)有限公司 | 一种多传感器的物体关联方法、装置、设备及介质 |
CN112183715A (zh) * | 2019-07-03 | 2021-01-05 | 本田技研工业株式会社 | 传感器融合 |
CN110164157A (zh) * | 2019-07-16 | 2019-08-23 | 华人运通(上海)新能源驱动技术有限公司 | 路侧设备、用于路侧设备的方法和车路协同系统 |
CN110276972A (zh) * | 2019-07-16 | 2019-09-24 | 启迪云控(北京)科技有限公司 | 一种基于车联网的目标物感知方法及系统 |
US11787407B2 (en) * | 2019-07-24 | 2023-10-17 | Pony Ai Inc. | System and method for sensing vehicles and street |
US11867798B2 (en) * | 2019-09-13 | 2024-01-09 | Samsung Electronics Co., Ltd. | Electronic device including sensor and method of determining path of electronic device |
CN111079079B (zh) * | 2019-11-29 | 2023-12-26 | 北京百度网讯科技有限公司 | 数据修正方法、装置、电子设备及计算机可读存储介质 |
CN111209327A (zh) * | 2020-01-14 | 2020-05-29 | 南京悠淼科技有限公司 | 一种多传感器分布式感知互联与边缘融合处理系统及方法 |
CN111583690B (zh) * | 2020-04-15 | 2021-08-20 | 北京踏歌智行科技有限公司 | 一种基于5g的矿区无人运输系统的弯道协同感知方法 |
US20220019225A1 (en) * | 2020-07-14 | 2022-01-20 | Argo AI, LLC | Smart node for autonomous vehicle perception augmentation |
US20220017115A1 (en) * | 2020-07-14 | 2022-01-20 | Argo AI, LLC | Smart node network for autonomous vehicle perception augmentation |
CN114200918A (zh) * | 2020-08-31 | 2022-03-18 | 罗伯特·博世有限公司 | 实现自动驾驶的方法、介质、车载计算机及控制系统 |
CN112085960A (zh) * | 2020-09-21 | 2020-12-15 | 北京百度网讯科技有限公司 | 车路协同信息处理方法、装置、设备及自动驾驶车辆 |
CN112349100B (zh) * | 2020-11-09 | 2021-06-04 | 紫清智行科技(北京)有限公司 | 一种基于网联环境的多视角行车风险评估方法及装置 |
CN114639262B (zh) * | 2020-12-15 | 2024-02-06 | 北京万集科技股份有限公司 | 感知设备的状态检测方法、装置、计算机设备和存储介质 |
CN113012429B (zh) * | 2021-02-23 | 2022-07-15 | 云控智行(上海)汽车科技有限公司 | 一种车路多传感器数据融合方法及系统 |
CN112884892B (zh) * | 2021-02-26 | 2023-05-02 | 武汉理工大学 | 基于路侧装置的无人矿车位置信息处理系统和方法 |
CN112671935A (zh) * | 2021-03-17 | 2021-04-16 | 中智行科技有限公司 | 远程控制车辆的方法、路侧设备及云平台 |
CN113378704B (zh) * | 2021-06-09 | 2022-11-11 | 武汉理工大学 | 一种多目标检测方法、设备及存储介质 |
CN113223297B (zh) * | 2021-07-09 | 2021-10-08 | 杭州目炬科技有限公司 | 一种多维度自动车辆识别方法 |
CN115690119A (zh) * | 2021-07-29 | 2023-02-03 | 华为技术有限公司 | 一种数据处理方法及装置 |
CN113655509B (zh) * | 2021-08-13 | 2023-07-21 | 中国科学院国家天文台长春人造卫星观测站 | 一种高重复率卫星激光测距实时控制系统 |
US11845429B2 (en) * | 2021-09-30 | 2023-12-19 | GM Global Technology Operations LLC | Localizing and updating a map using interpolated lane edge data |
CN114152942B (zh) * | 2021-12-08 | 2022-08-05 | 北京理工大学 | 一种毫米波雷达与视觉二阶融合多分类目标检测方法 |
CN114915940B (zh) * | 2022-05-13 | 2023-07-21 | 山东高速建设管理集团有限公司 | 一种车路通信链路匹配方法、系统、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010009436A (ja) * | 2008-06-30 | 2010-01-14 | Hitachi Ltd | 交通情報システムおよび交通情報処理方法 |
JP2013182490A (ja) * | 2012-03-02 | 2013-09-12 | Sumitomo Electric Ind Ltd | 交通情報変換装置、交通情報システム、中央サーバ、サービスサーバ、及び、交通情報提供方法 |
JP2013214225A (ja) * | 2012-04-03 | 2013-10-17 | Sumitomo Electric Ind Ltd | 交通情報システム、中央サーバ、サービスサーバ、及び、交通情報提供方法 |
JP2015081083A (ja) * | 2013-10-22 | 2015-04-27 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 予測的運転者支援システムのための、妥当性規則に基づく信頼度推定 |
JP2015082324A (ja) * | 2013-10-22 | 2015-04-27 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 予測的運転者支援システムのための複合信頼度推定 |
CN105741546A (zh) * | 2016-03-18 | 2016-07-06 | 重庆邮电大学 | 路侧设备与车传感器融合的智能车辆目标跟踪系统及方法 |
CN107229690A (zh) * | 2017-05-19 | 2017-10-03 | 广州中国科学院软件应用技术研究所 | 基于路侧传感器的高精度动态地图数据处理系统及方法 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6445983B1 (en) * | 2000-07-07 | 2002-09-03 | Case Corporation | Sensor-fusion navigator for automated guidance of off-road vehicles |
JP4229358B2 (ja) * | 2001-01-22 | 2009-02-25 | 株式会社小松製作所 | 無人車両の走行制御装置 |
US7065465B2 (en) * | 2002-03-26 | 2006-06-20 | Lockheed Martin Corporation | Method and system for multi-sensor data fusion |
KR20040091788A (ko) * | 2003-04-22 | 2004-11-02 | 현대자동차주식회사 | 고속도로 자율주행 시스템 및 그의 제어방법 |
US7548184B2 (en) * | 2005-06-13 | 2009-06-16 | Raytheon Company | Methods and apparatus for processing data from multiple sources |
US7460951B2 (en) * | 2005-09-26 | 2008-12-02 | Gm Global Technology Operations, Inc. | System and method of target tracking using sensor fusion |
CN101231340A (zh) * | 2007-12-29 | 2008-07-30 | 四川川大智胜软件股份有限公司 | 多雷达系统航迹融合处理时的误差配准方法 |
CN101393264B (zh) * | 2008-10-12 | 2011-07-20 | 北京大学 | 基于多激光扫描仪的移动目标跟踪方法及系统 |
CN101807245B (zh) * | 2010-03-02 | 2013-01-02 | 天津大学 | 基于人工神经网络的多源步态特征提取与身份识别方法 |
CN103105611B (zh) * | 2013-01-16 | 2016-01-20 | 广东工业大学 | 一种分布式多传感器智能信息融合方法 |
CN103226708B (zh) * | 2013-04-07 | 2016-06-29 | 华南理工大学 | 一种基于Kinect的多模型融合视频人手分割方法 |
EP3754381A1 (en) * | 2013-12-10 | 2020-12-23 | SZ DJI Technology Co., Ltd. | Sensor fusion |
SG11201607320TA (en) * | 2014-03-07 | 2016-10-28 | Capitalogix Llc | Systems and methods for allocating capital to trading strategies for big data trading in financial markets |
US9563808B2 (en) * | 2015-01-14 | 2017-02-07 | GM Global Technology Operations LLC | Target grouping techniques for object fusion |
CN106503723A (zh) * | 2015-09-06 | 2017-03-15 | 华为技术有限公司 | 一种视频分类方法及装置 |
CN105446338B (zh) * | 2015-12-21 | 2017-04-05 | 福州华鹰重工机械有限公司 | 云辅助自动驾驶方法及系统 |
CN105741545B (zh) * | 2016-03-16 | 2018-07-20 | 山东大学 | 一种基于公交车gnss时空轨迹数据判别交通状态的装置及方法 |
US10571913B2 (en) * | 2016-08-05 | 2020-02-25 | Aptiv Technologies Limited | Operation-security system for an automated vehicle |
CN106447707B (zh) * | 2016-09-08 | 2018-11-16 | 华中科技大学 | 一种图像实时配准方法及系统 |
US10317901B2 (en) * | 2016-09-08 | 2019-06-11 | Mentor Graphics Development (Deutschland) Gmbh | Low-level sensor fusion |
CN107063275B (zh) * | 2017-03-24 | 2020-05-12 | 重庆邮电大学 | 基于路侧设备的智能车辆地图融合系统及方法 |
US10692365B2 (en) * | 2017-06-20 | 2020-06-23 | Cavh Llc | Intelligent road infrastructure system (IRIS): systems and methods |
CN107230113A (zh) * | 2017-08-01 | 2017-10-03 | 江西理工大学 | 一种多模型融合的房产评估方法 |
CN107807633A (zh) * | 2017-09-27 | 2018-03-16 | 北京图森未来科技有限公司 | 一种路侧设备、车载设备以及自动驾驶感知方法及系统 |
US10852426B2 (en) * | 2018-01-12 | 2020-12-01 | Tiejun Shan | System and method of utilizing a LIDAR digital map to improve automatic driving |
EP3750145A4 (en) * | 2018-02-06 | 2022-02-16 | Cavh Llc | INTELLIGENT ROAD INFRASTRUCTURE SYSTEM (IRIS): SYSTEMS AND PROCEDURES |
CN108762245B (zh) * | 2018-03-20 | 2022-03-25 | 华为技术有限公司 | 数据融合方法以及相关设备 |
-
2018
- 2018-03-20 CN CN201810232615.5A patent/CN108762245B/zh active Active
-
2019
- 2019-03-19 EP EP19771774.7A patent/EP3754448A4/en active Pending
- 2019-03-19 JP JP2020550669A patent/JP7386173B2/ja active Active
- 2019-03-19 WO PCT/CN2019/078646 patent/WO2019179417A1/zh unknown
-
2020
- 2020-09-15 US US17/021,911 patent/US20200409372A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010009436A (ja) * | 2008-06-30 | 2010-01-14 | Hitachi Ltd | 交通情報システムおよび交通情報処理方法 |
JP2013182490A (ja) * | 2012-03-02 | 2013-09-12 | Sumitomo Electric Ind Ltd | 交通情報変換装置、交通情報システム、中央サーバ、サービスサーバ、及び、交通情報提供方法 |
JP2013214225A (ja) * | 2012-04-03 | 2013-10-17 | Sumitomo Electric Ind Ltd | 交通情報システム、中央サーバ、サービスサーバ、及び、交通情報提供方法 |
JP2015081083A (ja) * | 2013-10-22 | 2015-04-27 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 予測的運転者支援システムのための、妥当性規則に基づく信頼度推定 |
JP2015082324A (ja) * | 2013-10-22 | 2015-04-27 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 予測的運転者支援システムのための複合信頼度推定 |
CN105741546A (zh) * | 2016-03-18 | 2016-07-06 | 重庆邮电大学 | 路侧设备与车传感器融合的智能车辆目标跟踪系统及方法 |
CN107229690A (zh) * | 2017-05-19 | 2017-10-03 | 广州中国科学院软件应用技术研究所 | 基于路侧传感器的高精度动态地图数据处理系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3754448A1 (en) | 2020-12-23 |
CN108762245B (zh) | 2022-03-25 |
US20200409372A1 (en) | 2020-12-31 |
WO2019179417A1 (zh) | 2019-09-26 |
JP7386173B2 (ja) | 2023-11-24 |
CN108762245A (zh) | 2018-11-06 |
EP3754448A4 (en) | 2021-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7386173B2 (ja) | データ融合方法及び関連装置 | |
CN110967011B (zh) | 一种定位方法、装置、设备及存储介质 | |
US11754721B2 (en) | Visualization and semantic monitoring using lidar data | |
US20200348408A1 (en) | Vehicle Positioning Method and Vehicle Positioning Apparatus | |
CN108419446B (zh) | 用于激光深度图取样的系统及方法 | |
WO2020168742A1 (zh) | 一种车体定位方法及装置 | |
US11828604B2 (en) | Method and apparatus for positioning vehicle, electronic device, and storage medium | |
EP3077847B1 (en) | System and methods for data point detection and spatial modeling | |
US10254395B2 (en) | System and methods for scanning with integrated radar detection and image capture | |
JP7236565B2 (ja) | 位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN108352056A (zh) | 用于校正错误深度信息的系统和方法 | |
US11893317B2 (en) | Method and apparatus for associating digital content with wireless transmission nodes in a wireless communication area | |
CN207115193U (zh) | 一种用于处理任务区域的任务的移动电子设备 | |
CN108603933B (zh) | 用于融合具有不同分辨率的传感器输出的系统和方法 | |
TW202115366A (zh) | 機率性多機器人slam的系統及方法 | |
CN109696173A (zh) | 一种车体导航方法和装置 | |
JP7166446B2 (ja) | ロボットの姿勢を推定するシステムおよび方法、ロボット、並びに記憶媒体 | |
US20210271786A1 (en) | Method and apparatus for construction and operation of connected infrastructure | |
US11561553B1 (en) | System and method of providing a multi-modal localization for an object | |
CN111538009B (zh) | 雷达点的标记方法和装置 | |
WO2022083529A1 (zh) | 一种数据处理方法及装置 | |
CN113917875A (zh) | 一种自主无人系统开放通用智能控制器、方法及存储介质 | |
Byun et al. | Data transmission for infrared images via Earphone Jack on smartphone | |
CN117055016A (zh) | 传感器的探测精度测试方法、装置及存储介质 | |
TW202349927A (zh) | 移動物體檢測方法、裝置、電子設備及存儲介質 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201013 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7386173 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |