JP2021516401A - データ融合方法及び関連装置 - Google Patents

データ融合方法及び関連装置 Download PDF

Info

Publication number
JP2021516401A
JP2021516401A JP2020550669A JP2020550669A JP2021516401A JP 2021516401 A JP2021516401 A JP 2021516401A JP 2020550669 A JP2020550669 A JP 2020550669A JP 2020550669 A JP2020550669 A JP 2020550669A JP 2021516401 A JP2021516401 A JP 2021516401A
Authority
JP
Japan
Prior art keywords
vehicle
roadside
result
sensing
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020550669A
Other languages
English (en)
Other versions
JP7386173B2 (ja
Inventor
ユィ,ホアン
ヤン,シァオ
ソォン,ヨンガン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2021516401A publication Critical patent/JP2021516401A/ja
Application granted granted Critical
Publication of JP7386173B2 publication Critical patent/JP7386173B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0285Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本願は、データ融合方法及び関連装置を開示している。この方法は、車両感知データを取得するステップであって、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される、取得するステップと;路側感知データを取得するステップであって、路側感知データは、路側感知機器が路側センサを使用して感知範囲内の道路環境を感知することによって取得される、取得するステップと;融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと;を含む。前述した解決策によれば、路側感知機器の感知範囲と車両感知機器の感知範囲との間のオーバーラップを実現することができ、それによって、感知範囲が効果的に拡張される。

Description

本発明は、自動運転分野に関し、特に、データ融合方法及び関連装置に関する。
道路環境感知(sensing:センシング)は、自動運転を実施するための主要なタスクである。自動運転車両は、道路上の他の車両、歩行者等をかわし、且つ道路環境を感知して初めて安全運転を行うことができる。道路環境感知を実現するために、従来技術の自動運転車両は、車両に搭載された車両感知機器を使用して道路上の他の車両、歩行者等を検出し、それにより道路環境を感知している。しかしながら、従来技術における車両感知機器の感知範囲は比較的狭く、自動運転の要件を殆ど満たすことができない。
本願の実施形態は、路側感知機器の感知範囲と車両感知機器の感知範囲との間のオーバーラップを実現するようなデータ融合方法及び関連装置を提供し、それによって、感知範囲が効果的に拡張される。
第1の態様によれば、データ融合方法が提供され、この方法は車両装置側又は路側装置側に適用してもよく、この方法は、
車両感知データを取得するステップであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
路側感知データを取得するステップであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと、を含む。
第1の態様を参照すると、融合式は、次のように表される:
y=f(result,result
ここで、resultは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
特定の実施形態では、
f(result,result)=(w/(w+w))result+(w/(w+w))result
であり、
ここで、wは路側感知機器の信頼係数であり、w=(wr1,wr2,... ,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wは車両感知機器の信頼係数であり、w=(wv1,wv2,...,wvN)であり、result(vehicle,vehicle,...,vehicle)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
より具体的には、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたもの(together)に基づいて決定される。
例えば、信頼係数wは、以下の式に基づいて得ることができる:
w=g(S,R,θ),w∈[0,1]
ここで、Sは感知機器パラメータであり、Rはターゲット対象物の感知距離であり、θはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
なお、感知機器が複数のセンサを含む場合に、複数のセンサの信頼度を総合的に考慮することにより、信頼係数を求めてもよい。例えば、複数のセンサの信頼度は、重付け又は平均化の方法で総合的に考慮され得る。
特定の実施形態では、車両結果セットは少なくとも1つの車両結果ユニットを含み、少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
より具体的には、少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両(pvj,vvj,svj,cvj)として表され、ここで、pvjは車両感知機器が検出したターゲット対象物jの位置を示し、vvjは車両感知機器が検出したターゲット対象物jの速度を示し、svjは車両感知機器が検出したターゲット対象物jのサイズを示し、cvjは車両感知機器が検出したターゲット対象物jの色を示し、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nである。
特定の実施形態では、路側結果セットは少なくとも1つの路側結果ユニットを含み、少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
より具体的には、少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側(pvi,vvi,svi,cvi)として表され、ここで、pviは路側感知機器が検出したターゲット対象物iの位置を示し、vviは路側感知機器が検出したターゲット対象物iの速度を示し、sviは路側感知機器が検出したターゲット対象物iのサイズを示し、cviは路側感知機器が検出したターゲット対象物iの色を示し、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、iは、自然数であり、且つ0<i≦Mである。
特定の実施形態では、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する前に、方法は、
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップをさらに含み、
車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップは、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップを含む。
より具体的には、偏差ネットワークを使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される。
例えば、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出される:
S=Deviation(路側,車両
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両は路側感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
偏差ネットワーク(Deviation)は、逆伝播(BP)ニューラルネットワークによって示される。
特定の実施形態では、路側感知データを車両感知データとマッチングしてマッチング結果を得た後に、方法は、
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、をさらに含む。
より具体的には、フレーム間ループバックは、
ループバック=T+T+T+T
であり、
ここで、Tループバックはフレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
より具体的には、マルチフレーム相関は、
マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
特定の実施形態では、方法が路側装置側に適用される場合に、車両感知データを取得するステップは、少なくとも1つの車両装置により送信された車両感知データを受信するステップを含み、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を得た後に、この方法は、
第1の融合結果をターゲット車両装置に送信するステップをさらに以下を含み、ターゲット車両装置は、ターゲット車両装置の車両感知データと第1の融合結果とを融合して、第2の融合結果を取得するように構成され、ターゲット車両装置は少なくとも1つの車両装置に属する。
第2の態様によれば、データ融合方法が、提供され、且つ車両装置側に適用される。この方法は、
車両感知データを路側装置に送信するステップであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、送信するステップと、
路側装置により送信された第1の融合結果を受信するステップであって、第1の融合結果は、路側装置が融合式を使用して少なくとも1つの車両装置により送信された車両感知データと路側感知データとを融合することによって取得され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、受信するステップと、
車両感知データと第1の融合結果とを融合して、第2の融合結果を取得するステップと、を含む。
第2の態様を参照すると、融合式は、、次のように表される:
y=f(result,result
ここで、resultは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
特定の実施形態では、
f(result,result)=(w/(w+w))result+(w/(w+w))result
であり、
ここで、wは路側感知機器の信頼係数であり、w=(wr1,wr2,...,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wは車両感知機器の信頼係数であり、w=(wv1,wv2,...,wvN)であり、result(vehicle,vehicle,...,vehicle)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
より具体的には、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたものに基づいて決定される。
例えば、信頼係数wは、以下の式に基づいて得ることができる:
w=g(S,R,θ),w∈[0,1]
ここで、Sは感知機器パラメータであり、Rはターゲット対象物の感知距離であり、θはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
なお、感知機器が複数のセンサを含む場合に、複数のセンサの信頼度を総合的に考慮することにより、信頼係数を求めてもよい。例えば、複数のセンサの信頼度は、重付け又は平均化の方法で総合的に考慮され得る。
特定の実施形態では、車両結果セットは少なくとも1つの車両結果ユニットを含み、少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
より具体的には、少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両(pvj,vvj,svj,cvj)として表され、ここで、pvjは車両感知機器が検出したターゲット対象物jの位置を示し、vvjは車両感知機器が検出したターゲット対象物jの速度を示し、svjは車両感知機器が検出したターゲット対象物jのサイズを示し、cvjは車両感知機器が検出したターゲット対象物jの色を示し、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nであるである。
特定の実施形態では、路側結果セットは少なくとも1つの路側結果ユニットを含み、少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
より具体的には、少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側(pvi,vvi,svi,cvi)として表され、ここで、pviは路側感知機器が検出したターゲット対象物iの位置を示し、vviは路側感知機器が検出したターゲット対象物iの速度を示し、sviは路側感知機器が検出したターゲット対象物iのサイズを示し、cviは路側感知機器が検出したターゲット対象物iの色を示し、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、iは、自然数であり、且つ0<i≦Mである。
特定の実施形態では、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する前に、方法は、
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップをさらに含み、
車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップは、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップを含む。
より具体的には、偏差ネットワークを使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される。
例えば、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出される:
S=Deviation(路側,車両
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
偏差ネットワーク(Deviation)は、逆伝播(BP)ニューラルネットワークによって示される。
特定の実施形態では、路側感知データを車両感知データとマッチングして、マッチング結果を得た後に、方法は、
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、をさらに含む。
より具体的には、フレーム間ループバックは、
ループバック=T+T+T+T
であり、
ここで、Tループバックはフレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
より具体的には、マルチフレーム相関は、
マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
第3の態様によれば、第1の態様の方法を実行するように構成されたユニットを含む融合機器が提供される。
第4の態様によれば、第2の態様の方法を実行するように構成されたユニットを含む融合機器が提供される。
第5の態様によれば、メモリと、メモリに結合されたプロセッサ及び通信モジュールとを含む融合機器が提供され、通信モジュールは、データを外部に送信する又は外部から受信するように構成され、メモリは、プログラムコードを格納するように構成され、プロセッサは、メモリに格納されたプログラムコードを呼び出して、第1の態様又は第2の態様のいずれか1つによる方法を実行するように構成される。
第6の態様によれば、コンピュータ可読記憶媒体が、提供され、且つ命令を含み、命令が融合機器で実行されると、融合機器は、第1の態様又は第2の態様のいずれか1つによる方法を実行することが可能になる。
第7の態様によれば、命令を含むコンピュータプログラム製品が提供され、コンピュータプログラム製品がコンピュータ上で実行されると、コンピュータは、第1の態様又は第2の態様のいずれか1つによる方法を実行することが可能になる。
前述した解決策によれば、路側感知機器が感知によって取得した路側感知データと、車両感知機器が感知によって取得した車両感知データとを融合して、路側感知機器の感知範囲と車両感知機器の感知範囲との間のオーバーラップ(overlapping:重複)を実現し、それによって、感知範囲が効果的に拡張される。
本発明の実施形態における技術的解決策をより明確に説明するために、以下では、実施形態を説明するために必要な添付図面について簡単に紹介する。明らかに、以下の説明における添付図面は、本発明のいくつかの実施形態を示し、当業者は、創造的な努力なしに、これらの添付図面から他の図面を依然として導き出すことができる。
本願の一実施形態による適用シナリオの概略図である。 本願の一実施形態による感知機器の空間設置角度の概略図である。 本願の一実施形態による感知機器の設置座標の概略図である。 本願の一実施形態による感知座標系の概略図である。 本願の一実施形態による逆伝播ニューラルネットワークの概略構造図である。 本願の一実施形態によるフレーム間ループバックの概略図である。 本願の一実施形態によるマルチフレーム相関の概略図である。 本願の一実施形態による第1のデータ融合方法の概略フローチャートである。 本願の一実施形態による第2のデータ融合方法の概略フローチャートである。 本願の一実施形態による第3のデータ融合方法の概略フローチャートである。 本願の一実施形態による融合機器の概略構造図である。 本願の一実施形態による融合機器の概略構造図である。 本願の一実施形態による融合機器の概略構造図である。 本願の一実施形態による融合機器の概略構造図である。
図1は、本願の一実施形態による適用シナリオの概略図である。図1に示されるように、少なくとも1つの路側(roadside)装置が道路の側方に設置され、車両装置が道路を走行する車両の少なくとも1つに設置される。
路側装置は、路側角度から道路環境を感知して、路側感知データを取得するように構成される。路側感知機器を路側装置のために構成してもよい。路側感知機器は、少なくとも1つの路側センサ、例えばマイクロ波レーダー及びミリ波レーダーを含み得、感知範囲内のターゲット対象物(例えば、車両及び歩行者)の位置、速度、及びサイズ等の路側感知データを特定することができる。路側感知機器は、カメラ等の路側センサをさらに含んでもよい。カメラは、感知範囲内のターゲット対象物の位置、速度、及びサイズ等の路側感知データを特定できるだけでなく、感知範囲内のターゲット対象物の色(例えば、車両の色及び歩行者の服の色)等の路側感知データも特定できる。前述したいくつかの特定の例は、路側センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。路側感知機器は、路側センサのいずれか1つを単独で使用してもよく、又は任意の複数の路側センサを同時に使用してもよい。路側感知データは、路側結果セットの形式で記述してもよく、路側結果セットは複数の路側結果ユニットを含み得、各路側結果ユニットは1つのターゲット対象物に対応する。例えば、路側結果ユニットが路側(p,v,s,c)として表すことができると仮定すると、pは路側感知機器が検出したターゲット対象物の位置を示し、vは路側感知機器が検出したターゲット対象物の速度を示し、sは路側感知機器が検出したターゲット対象物のサイズを示し、cは路側感知機器が検出したターゲット対象物の色を示し、路側結果セットはresult(roadside,roadside,...,roadside)として表すことができ、Mは路側感知機器の感知範囲内のターゲット対象物の数量である。より具体的には、マトリックス形式を例にとると、路側結果セットは、次のように表すことができる。
Figure 2021516401
車両装置は、車両角度から道路環境を感知して、車両感知データを取得するように構成される。車両感知機器を車両装置のために構成してもよい。車両感知機器は、少なくとも1つの車両センサ、例えば複合慣性航法、マイクロ波レーダー、ミリ波レーダー、及びカメラを含み得る。異なる車両センサが異なる車両感知データを検出することができる。例えば、車両感知機器は、複合慣性航法を使用して、ターゲット対象物の位置及び速度等の路側感知データを特定することができる。車両感知機器は、マイクロ波レーダー及びミリ波レーダーを使用して、感知範囲内のターゲット対象物の位置、速度、及びサイズ等の路側感知データを特定することができる。車両感知機器は、カメラを使用して、感知範囲内のターゲット対象物の位置、速度、サイズ、及び色等の路側感知データを特定することができる。前述したいくつかの特定の例は、車両センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。車両感知機器は、車両センサのいずれか1つを単独で使用してもよく、又は任意の複数の車両センサを同時に使用してもよい。車両感知データは、車両結果セットの形式で記述してもよく、車両結果セットは複数の車両結果ユニットを含み得、各車両結果ユニットは1つのターゲット対象物に対応する。車両結果ユニットは、多次元の角度からのターゲット対象物の特徴、例えば位置、速度、サイズ、及び色を記述する。例えば、車両結果ユニットが車両(p,v,s,c)として表すことができると仮定すると、pは車両感知機器が検出したターゲット対象物の位置を示し、vは車両感知機器が検出したターゲット対象物の速度を示し、sは車両感知機器が検出したターゲット対象物のサイズを示し、cは車両感知機器が検出したターゲット対象物の色を示し、車両結果セットはresult(vehicle,vehicle,...,vehicle)として表すことができ、Nは車両感知機器の感知範囲内のターゲット対象物の数量である。より具体的には、マトリックス形式を例にとると、車両結果セットは、次のように表すことができる。
Figure 2021516401
本願のこの実施形態では、路側装置及び車両装置は、データ通信を実施するために無線で接続してもよい。
本願のこの実施形態では、路側装置及び/又は車両装置は、融合式を使用して、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が感知範囲内で検出した車両感知データとに対してデータ融合を実行して、第1の融合結果を取得することができる。路側結果セットが路側感知データを示し、且つ車両結果セットが車両感知データを示す例では、融合式は、次のように表すことができる:
y=f(result,result
ここで、resultは路側結果セットであり、resultは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
特定の実施態様では、関数fは、次のように表すことができる:
f(result,result)=(w/(w+w))result+(w/(w+w))result
ここで、wは路側感知機器の信頼係数であり、wは多次元データであり得、つまり、w=(wr1,wr2,...,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wは車両感知機器の信頼係数であり、wは多次元データであり得、つまりw=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。路側感知機器の信頼係数をより細かく分割することができ、それによって、路側結果ユニット内の異なる要素が異なる信頼係数に対応することが理解され得る。同様に、車両感知機器の信頼係数もより細かく分割することができ、それによって、車両結果ユニット内の異なる要素が異なる信頼係数に対応する。具体的には、
Figure 2021516401
の場合に
Figure 2021516401
であり、
Figure 2021516401
の場合に
Figure 2021516401
である。
路側感知機器の信頼係数と車両感知機器の信頼係数との比が大きい場合に、融合結果における路側感知データの割合と融合結果における車両感知データの割合との比が大きいことは容易に理解される。簡単に言えば、感知機器の信頼係数の値が大きいほど、融合結果での検出を通じて感知機器が取得した感知データの割合が大きくなる。
なお、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたもの(together)に基づいて決定してもよい。感知機器パラメータは、初期精度、空間設置角度、及び感知機器の設置座標に関連する。ターゲット対象物の感知距離は、感知座標系におけるターゲット対象物と感知機器との間の距離である。ターゲット対象物の感知角度は、感知座標系におけるターゲット対象物と感知機器とのなす角度である。なお、感知機器が複数のセンサを含む場合に、複数のセンサの信頼度を総合的に考慮することにより、重付け又は平均化の方法で信頼係数を求めてもよいことに留意されたい。特定の実施形態では、信頼係数は、以下の式に基づいて得ることができる:
w=g(S,R,θ),w∈[0,1]
ここで、Sは感知機器パラメータであり、Rは感知距離であり、θは感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。較正パラメータテーブルは、大量の既知のターゲット対象物のデータをセンサ機器の較正プロセスにおいて使用することにより、逆推定によって得ることができる。感知機器パラメータの精度が高い場合に、信頼係数の値が大きくなり、又は感知機器パラメータの精度が低い場合に、信頼係数の値が小さくなることは容易に理解できる。感知距離が短い場合に、信頼係数の値は大きくなり、又は感知距離が長い場合に、信頼係数の値は小さくなることは容易に理解できる。感知角度が小さい場合に、信頼係数の値は大きくなり、又は感知角度が大きい場合に、信頼係数の値は小さくなることは容易に理解できる。
特定の実施形態では、感知機器パラメータは、以下の式に基づいて得ることができる:
=h(S,A,P)
ここで、Sは感知機器パラメータであり、Sは感知機器パラメータの初期精度であり、Aは、感知機器の空間設置角度、つまり、感知機器が設置された後の道路の地面に対する空間角であり、Pは、感知機器の設置座標、つまり、感知機器が設置された後の道路の地面に対する3次元座標である。
オプションで、感知機器の空間設置角度は、A=(ヨー、ピッチ、ロール)として規定してもよく、ヨーは道路の地面に対する感知機器のヨー角であり、ピッチは道路の地面に対する感知機器のピッチ角であり、ロールは道路の地面に対する感知機器のロール角である。図2に示されるように、道路の地面に対して右手デカルト座標が作成される例では、ヨー角(yaw:ヨー)は、感知機器をy軸の周りに回転させることによって得られる角度として規定することができ、ピッチ角(pitch:ピッチ)は、感知機器をx軸の周りに回転させることによって得られる角度として規定することができ、ロール角(roll:ロール)は、感知機器をz軸の周りに回転させることによって得られる角度として規定することができる。
オプションで、感知機器の設置座標は、P=(x、y、h)として規定してもよい。図3に示されるように、x及びyは、道路の地面に投影された感知機器の座標を示し、hは、感知機器から道路の地面までの垂直距離を示す。
特定の実施形態では、ターゲット対象物の感知距離及びターゲット対象物の感知角度は、以下の方法で取得してもよい。図4に示されるように、感知機器を中心として、感知機器の感知範囲を異なる距離及び異なる角度のセクタ(sector)領域に分割し、それによって、感知座標系を作成する。感知機器は、ターゲット対象物が感知座標系に含まれるセクタ領域に基づいて、ターゲット対象物の感知距離R及びターゲット対象物の感知角度θを決定する。
路側感知データ及び車両感知データに対してデータ融合を実行して融合結果を取得する前に、路側装置及び/又は車両装置は、路側感知データを車両感知データとマッチングして、マッチングを取得する必要があり、それによって、路側装置及び/又は車両装置は、マッチング結果に基づいて、路側感知データ及び車両感知データに対してデータ融合を実行することができる。
以下では、路側感知データを車両感知データとマッチングさせることの意味を説明する例を使用する。路側結果セットの形式で表された路側感知データがresult(roadside,roadside,...,roadside)であり、車両結果セットの形式で表された車両感知データがresult(vehicle,vehicle,...,vehicle)であると仮定し、ここで、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、M>Nであり、roadside(路側)は路側感知機器がターゲット対象物1を検出することによって取得された路側結果ユニットであり、roadside(路側)は路側感知機器がターゲット対象物2を検出することによって取得された路側結果ユニットであり、・・・(以下同様に続き)、roadside(路側M)は路側感知機器がターゲット対象物Mを検出することによって取得された路側結果ユニットであり、そして、vehicle(車両)は車両感知機器がターゲット対象物1を検出することによって取得された車両結果ユニットであり、vehicle(車両)は車両感知機器がターゲット対象物2を検出することによって取得された車両結果ユニットであり、・・・(以下同様に続き)、vehicle(車両N)は車両感知機器がターゲット対象物Nを検出することによって取得された車両結果ユニットである。従って、roadside及びvehicleは両方とも、ターゲット対象物1を検出することによって取得された結果ユニットであり、且つマッチング関係を有しており、roadside及びvehicleは両方とも、ターゲット対象物2を検出することによって取得された結果ユニットであり、且つマッチング関係を有しており、・・・(以下同様に続き)、roadside及びvehicleは両方とも、どちらもターゲット対象物Nを検出することによって取得された結果ユニットであり、且つマッチング関係を有する。従って、路側感知データを車両感知データとマッチングさせることは、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間の全てのマッチング関係を見出すことである。
本願のこの実施形態では、路側装置及び/又は車両装置は、偏差ネットワークを使用して、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係を見出すことができる。具体的には、路側結果ユニット及び車両結果ユニットは偏差ネットワークの入力として使用される。この場合に、偏差ネットワークは、路側結果ユニットと車両結果ユニットとの間のマッチング結果を出力する。偏差ネットワークによって出力されたマッチング結果が、路側結果ユニットが車両結果ユニットと一致することを示す場合に、それは、路側結果ユニットと車両結果ユニットとの間にマッチング関係が存在すると考えられ得る。或いは、偏差ネットワークによって出力されたマッチング結果が、路側結果ユニットが車両結果ユニットと一致しないことを示す場合に、それは、路側結果ユニットと車両結果ユニットとの間にマッチング関係が存在しないと考えられ得る。さらに前述した例を例にとると、roadside及びvehicleが偏差ネットワークの入力として使用され、偏差ネットワークによって出力されたマッチング結果が、roadsideがvehicleと一致することを示す場合に、それは、roadsideとvehicleとの間にマッチング関係が存在すると判定することができる。或いは、roadside及びvehicleが偏差ネットワークの入力として使用され、偏差ネットワークによって出力されたマッチング結果が、roadsideがvehicleと一致しないことを示す場合に、それは、roadsideとvehicleとの間にマッチング関係が存在しないと判定することができる。
本願のこの実施形態では、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出すことができる:
S=Deviation(路側,車両
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
路側=(pri、vri、sri、cri)及び車両=(pvj,vvj,svj,cvj)を例にとると、特定の実施態様では、偏差ネットワーク(Deviation)は、図5に示される逆伝播(back propagation : BP)ニューラルネットワークであり得、
ここで、Δpijは位置偏差であり、Δpij=fabs(pri−pvj)であり、priは路側感知機器が検出したターゲット対象物iの位置であり、pvjは車両感知機器が検出したターゲット対象物jの位置であり、fabsは絶対値を求めるための関数であり、
Δvijは速度偏差であり、Δvij=fabs(vri−vvj)であり、vriは路側感知機器が検出したターゲット対象物iの速度であり、vvjは車両感知機器が検出したターゲット対象物jの速度であり、
Δsijはサイズ偏差であり、Δsij=fabs(sri−svj)であり、sriは路側感知機器が検出したターゲット対象物iのサイズであり、svjは車両感知機器が検出したターゲット対象物jのサイズであり、
Δcijは色偏差であり、Δcij=fabs(cri−cvj)であり、criは路側感知機器が検出したターゲット対象物iの色であり、cvjは車両感知機器が検出したターゲット対象物jの色であり、
は位置偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は路側感知機器が検出したターゲット対象物iの位置に対応する信頼係数であり、wvj は車両感知機器が検出したターゲット対象物jの位置に対応する信頼係数であり、
は速度偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は路側感知機器が検出したターゲット対象物iの速度に対応する信頼係数であり、wvj は車両感知機器が検出したターゲット対象物jの速度に対応する信頼係数であり、
はサイズ偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は路側感知機器が検出したターゲット対象物iのサイズに対応する信頼係数であり、wvj は車両感知機器が検出したターゲット対象物jのサイズに対応する信頼係数であり、
は速度偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は路側感知機器が検出したターゲット対象物iの色に対応する信頼係数であり、wvj は車両感知機器が検出したターゲット対象物jの色に対応する信頼係数であり、
φ(.)は活性化関数であり、ここで、活性化関数は、漏れ(leaky)正規化線形ユニット(Leaky
Rectified Linear Unit : LReLU)、パラメータ正規化線形ユニット(Parametric
Rectified Linear Unit : PReLU)、ランダム化漏れ正規化線形ユニット(Randomized
Leaky Rectified Linear unit : RReLU)、ReLUSoftplus関数、Softsign関数、Sigmoid関数、又はtanh関数であり得る。
なお、wri ,wvj ,wri ,wvj ,wri ,wvj ,wri ,及びwvj を取得するための方法については、信頼係数に関連する前述した段落を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
前述した例では、偏差ネットワークは、BPニューラルネットワークを例として使用することにより説明した。あるいはまた、別の実施態様では、偏差ネットワークは、長・短期記憶(Long Short-Term Memory : LSTM)ネットワーク、残差ネットワーク(Residential Networking : ResNet)、再帰型ニューラルネットワーク(Recurrent Neural Networks : RNN)等であり得る。これは、本明細書では特に限定されない。
以上の内容では、路側感知データと車両感知データとの間のマッチングを単一のフレームのみで実施しており、マッチング結果の信頼度は高くはない。上記の問題を解決するために、2つのフレーム又はさらに多くのフレームにおける路側感知データと車両感知データとの間のマッチングが考慮され得、それによって、マッチング結果の信頼度が向上する。さらに、路側装置及び/又は車両装置は、フレーム間(interframe)ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度をさらに評価して、評価結果を取得し、評価結果に基づいて、偏差ネットワークを調整することができる。
本願のこの実施形態では、フレーム間ループバックは、主に、隣接するフレームにおける路側感知データと車両感知データとの間のクロスマッチングによって取得されたマッチング結果に基づく計算によって得られる。結果ユニットを例にとると、フレーム間ループバックは、主に、フレーム内(intraframe)マッチング結果及び隣接フレームのフレーム間マッチング結果に基づいて取得される。フレーム内マッチング結果とは、異なる感知機器が同じフレーム内の同じターゲット対象物を検出することによって取得された結果ユニットのマッチングにより得られるマッチング結果である。フレーム間マッチング結果とは、同じ感知機器が隣接するフレームで同一のターゲット対象物を検出することによって取得された結果ユニットのマッチングにより得られるマッチング結果である。
図6に示されるように、路側感知機器及び車両感知機器を例にとると、フレーム間ループバックは、次のように規定することができる:
ループバック=T+T+T+T
ここで、Tループバックはフレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
本願のこの実施形態では、マルチフレーム相関は、主に、複数の連続するフレームの間のフレーム間ループバックに基づいて得られる。特定の実施態様では、図7に示されるように、マルチフレーム相関は、
マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
路側装置及び/又は車両装置によって実行されるデータ融合が、少なくとも以下の2つの利点をもたらすことは容易に理解される。
1. 路側感知機器の感知範囲と車両感知機器の感知範囲との間にオーバーラップを実現することができ、それによって、路側感知機器及び/又は車両感知機器の感知範囲が効果的に拡張される。例えば、路側感知機器が感知範囲内で検出したターゲット対象物の数量が3つ(ターゲット対象物1、ターゲット対象物2、及びターゲット対象物3)であり、車両感知機器が感知範囲内で検出したターゲット対象物の数量が2つ(ターゲット対象物3、及びターゲット対象物4)であると仮定すると、車両感知機器が路側感知データと車両感知データとを融合した後に、融合結果の感知範囲には、4つのターゲット対象物(ターゲット対象物1、ターゲット対象物2、ターゲット対象物3、及びターゲット対象物4)が含まれる。
2. 信頼度の高いデータを使用して信頼度の低いデータを補正することができ、それによって、路側感知機器及び/又は車両感知機器のデータの信頼度を効果的に向上させる。例えば、路側感知機器が計測によって取得したターゲット対象物の速度の信頼度が、車両感知機器が計測によって取得したターゲット対象物の速度の信頼度よりも低いと仮定すると、路側感知機器は、車両感知機器が計測によって取得したターゲット対象物の速度を使用して、路側感知機器が計測によって取得したターゲット対象物の速度を補正し、信頼度の高いデータを取得することができる。
仕様の前述の内容は、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が感知範囲内で検出した車両感知データとに対してデータ融合をどの様に実施するかに関する解決策に焦点を当てている。以下は、データ融合方法及び関連装置の観点から、路側感知機器及び/又は車両感知機器が、前述したデータ融合解決策をどの様に使用して感知範囲を拡張するかを説明する。
図8は、本願の一実施形態による第1のデータ融合方法の概略フローチャートである。図8に示されるように、本願のこの実施形態におけるデータ融合方法は、具体的には、以下のステップを含む。
S101. 車両装置は車両感知データを取得し、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される。
本願のこの実施形態では、車両感知機器を車両感知装置のために構成してもよい。車両感知機器は、少なくとも1つの車両センサ、例えば複合慣性航法、マイクロ波レーダー、ミリ波レーダー、及びカメラを含み、且つ感知範囲内のターゲット対象物の車両感知データを特定することができる。車両感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
前述したいくつかの特定の例は、車両センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。車両感知機器は、車両センサのいずれか1つを単独で使用してもよく、又は任意の複数の車両センサを同時に使用してもよい。
S102. 路側装置は路側感知データを取得し、路側感知データは、路側感知機器が路側センサを使用して感知範囲内の道路環境を感知することによって取得される。
本願のこの実施形態では、路側感知機器を路側装置のために構成してもよい。路側感知機器は、少なくとも1つの路側センサ、例えばマイクロ波レーダー及びミリ波レーダーを含み、且つ感知範囲内のターゲット対象物の路側感知データを特定することができる。路側感知データには、ターゲット対象物の位置、速度、サイズ、及び色等が含まれ得る。
前述したいくつかの特定の例は、路側センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。路側感知機器は、路側センサのいずれか1つを単独で使用してもよく、又は任意の複数の路側センサを同時に使用してもよい。
S103. 路側装置は、路側感知データを車両装置に送信する。対応して、車両装置は、路側装置により送信された路側感知データを受信する。
S104. 車両装置は、路側感知データを車両感知データとマッチングして、マッチング結果を取得する。
本願のこの実施形態では、車両装置は、偏差ネットワークを使用して、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係を見出すことができる。具体的には、路側結果ユニット及び車両結果ユニットは、偏差ネットワークの入力として使用される。この場合に、偏差ネットワークは、路側結果ユニットと車両結果ユニットとの間のマッチング結果を出力する。
本願のこの実施形態では、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出すことができる:
S=Deviation(路側,車両
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
S105. 車両装置は、フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価し、評価結果に基づいて、偏差ネットワークを調整する。
本願のこの実施形態では、フレーム間ループバックは、次のように規定することができる:
ループバック=T+T+T+T
ここで、Tループバックはフレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
本願のこの実施形態では、マルチフレーム相関は、主に、複数の連続するフレームの間のフレーム間ループバックに基づいて得られる。特定の実施態様では、マルチフレーム相関は、
マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
S106. 車両装置は、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する。
本願のこの実施形態では、車両装置は、融合式を使用して、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が感知範囲で検出した車両感知データとに対してデータ融合を実行して、第1の融合結果を取得することができる。
本願のこの実施形態では、
y=f(result,result
として表すことができ、
ここで、resultは路側結果セットであり、resultは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
特定の実施態様では、関数fは、次のように表すことができる:
f(result,result)=(w/(w+w))result+(w/(w+w))result
ここで、wは路側感知機器の信頼係数であり、wは多次元データであり得、つまりw=(wr1,wr2,...,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wは車両感知機器の信頼係数であり、wは多次元データであり得、つまりw=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。
簡潔にするために、本願のこの実施形態では、路側感知データと車両感知データとの融合については、再び詳細に説明しない。詳細については、明細書の冒頭の路側感知データと車両感知データとの融合に関する説明を参照されたい。
図9は、本願の一実施形態による第2のデータ融合方法の概略フローチャートである。図9に示されるように、本願のこの実施形態におけるデータ融合方法は、具体的には、以下のステップを含む。
S201. 路側装置は路側感知データを取得し、路側感知データは、路側感知機器が路側センサを使用して感知範囲内の道路環境を感知することによって取得される。
本願のこの実施形態では、路側感知機器を路側装置のために構成してもよい。路側感知機器は、少なくとも1つの路側センサ、例えばマイクロ波レーダー及びミリ波レーダーを含み、且つ感知範囲内のターゲット対象物の路側感知データを特定することができる。路側感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
前述したいくつかの特定の例は、路側センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。路側感知機器は、路側センサのいずれか1つを単独で使用してもよく、又は任意の複数の路側センサを同時に使用してもよい。
S202. 車両装置は車両感知データを取得し、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される。
本願のこの実施形態では、車両感知機器を車両装置のために構成してもよい。車両感知機器は、少なくとも1つの車両センサ、例えば複合慣性航法、マイクロ波レーダー、ミリ波レーダー、及びカメラを含み、且つ感知範囲内のターゲット対象物の車両感知データを特定することができる。車両感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
前述したいくつかの特定の例は、車両センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。車両感知機器は、車両センサのいずれか1つを単独で使用してもよく、又は任意の複数の車両センサを同時に使用してもよい。
S203. 車両装置は、車両感知データを路側装置に送信する。対応して、路側装置は、車両装置により送信された車両感知データを受信する。
S204. 路側装置は、路側感知データを車両感知データとマッチングして、マッチング結果を取得する。
本願のこの実施形態では、路側感知機器は、偏差ネットワークを使用して、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係を見出すことができる。具体的には、路側結果ユニット及び車両結果ユニットは偏差ネットワークの入力として使用される。この場合に、偏差ネットワークは、路側結果ユニットと車両結果ユニットとの間のマッチング結果を出力する。
本願のこの実施形態では、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出すことができる:
S=Deviation(路側,車両
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
S205. 路側装置は、フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得し、評価結果に基づいて、偏差ネットワークを調整する。
本願のこの実施形態では、フレーム間ループバックは、次のように規定することができる:
ループバック=T+T+T+T
ここで、Tループバックはフレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
本願のこの実施形態では、マルチフレーム相関は、主に、複数の連続するフレームの間のフレーム間ループバックに基づいて得られる。特定の実施態様では、マルチフレーム相関は、
マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
S206. 路側装置は、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する。
本願のこの実施形態では、路側感知機器は、融合式を使用して、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が検出範囲内で検出した車両感知データとに対してデータ融合を実行して、第1の融合結果を取得することができる。
本願のこの実施形態では、融合式は、
y=f(result,result
として表すことができ、
ここで、resultは路側結果セットであり、resultは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
特定の実施態様では、関数fは、次のように表すことができる:
f(result,result)=(w/(w+w))result+(w/(w+w))result
ここで、wは路側感知機器の信頼係数であり、wは多次元データであり得、つまりw=(wr1,wr2,...,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wは車両感知機器の信頼係数であり、wは多次元データであり得、つまりw=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。
簡潔にするために、本願のこの実施形態では、路側感知データと車両感知データとの融合については、再び詳細に説明しない。詳細については、明細書の冒頭の路側感知データと車両感知データとの融合に関する説明を参照されたい。
図10は、本願の一実施形態による第3のデータ融合方法の概略フローチャートである。図10に示されるように、本願のこの実施形態におけるデータ融合方法は、具体的には、以下のステップを含む。
S301. 路側装置は路側感知データを取得し、路側感知データは、路側感知機器が路側センサを使用して感知範囲内の道路環境を感知することによって取得される。
本願のこの実施形態では、路側感知機器を路側装置のために構成してもよい。路側感知機器は、少なくとも1つの路側センサ、例えばマイクロ波レーダー及びミリ波レーダーを含み、且つ感知範囲内のターゲット対象物の路側感知データを特定することができる。路側感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
前述したいくつかの特定の例は、路側センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。路側感知機器は、路側センサのいずれか1つを単独で使用してもよく、又は任意の複数の路側センサを同時に使用してもよい。
S302. 少なくとも1つの車両装置は車両感知データを取得し、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される。
本願のこの実施形態では、車両感知機器を車両装置のために構成してもよい。車両感知機器は、少なくとも1つの車両センサ、例えば複合慣性航法、マイクロ波レーダー、ミリ波レーダー、及びカメラを含み、且つ感知範囲内のターゲット対象物の車両感知データを特定することができる。車両感知データには、ターゲット対象物の位置、速度、サイズ、色等が含まれ得る。
前述したいくつかの特定の例は、車両センサの単なる例であり、特定の制限を構成すべきではないことが理解され得る。車両感知機器は、車両センサのいずれか1つを単独で使用してもよく、又は任意の複数の車両センサを同時に使用してもよい。
S303. 少なくとも1つの車両装置は、車両感知データを路側装置に送信する。対応して、路側装置は、少なくとも1つの車両装置により送信された車両感知データを受信する。
S304. 路側装置は、路側感知データを少なくとも1つの車両装置により送信された車両感知データとマッチングして、マッチング結果を取得する。
本願のこの実施形態では、路側装置は、偏差ネットワークを使用して、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係を見出すことができる。具体的には、路側結果ユニット及び車両結果ユニットは偏差ネットワークの入力として使用される。この場合に、偏差ネットワークは、路側結果ユニットと車両結果ユニットとの間のマッチング結果を出力する。
本願のこの実施形態では、路側感知データ内の路側結果ユニットと車両感知データ内の車両結果ユニットとの間のマッチング関係は、以下の式を使用して見出すことができる:
S=Deviation(路側,車両
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
S305. 路側装置は、フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得し、評価結果に基づいて、偏差ネットワークを調整する。
本願のこの実施形態では、フレーム間ループバックは、次のように規定することができる:
ループバック=T+T+T+T
ここで、Tループバックはフレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果である。第1のマッチング結果は、i番目のフレームのフレーム内マッチング結果、すなわち、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとのマッチング結果である。第2のマッチング結果は、車両感知機器のフレーム間マッチング結果、すなわち、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果である。第3のマッチング結果は、(i+1)番目のフレームのフレーム内マッチング結果、すなわち、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。第4のマッチング結果は、路側感知機器のフレーム間マッチング結果、すなわち、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
本願のこの実施形態では、マルチフレーム相関は、主に、複数の連続するフレームの間のフレーム間ループバックに基づいて得られる。特定の実施態様では、マルチフレーム相関は、
マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定でき、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
S306. 路側装置は、融合式を使用して少なくとも1つの車両装置により送信された車両感知データと路側感知データとを融合して、第1の融合結果を取得する。
本願のこの実施形態では、路側装置は、融合式を使用して、路側感知機器が感知範囲内で検出した路側感知データと、車両感知機器が感知範囲内で検出した車両感知データとに対してデータ融合を実行して、第1の融合結果を取得することができる。
本願のこの実施形態では、融合式は
y=f(result,result
として表すことができ、
ここで、resultは路側結果セットであり、resultは車両結果セットであり、yは第1の融合結果であり、fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
特定の実施態様では、関数fは、次のように表すことができる:
f(result,result)=(w/(w+w))result+(w/(w+w))result
ここで、wは路側感知機器の信頼係数であり、wは多次元データであり得、つまりw=(wr1,wr2,...,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iはM未満の自然数であり、wは車両感知機器の信頼係数であり、wは多次元データであり得、つまりw=(wv1,wv2,...,wvN)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jはN未満の自然数である。
本願のこの実施形態では、第1の融合結果は、路側感知機器が融合式を使用して1つ又は複数の車両感知機器により送信された車両感知データと路側感知機器の路側感知データとを融合することによって取得することができる。これは、特に制限されない。
簡潔にするために、本願のこの実施形態では、路側感知データと車両感知データとの融合については、再び詳細に説明しない。詳細については、明細書の冒頭の路側感知データと車両感知データとの融合に関する説明を参照されたい。
S307. 路側装置は、第1の融合結果をターゲット車両装置に送信する。対応して、ターゲット車両装置は、路側装置により送信された第1の融合結果を受信する。ターゲット車両装置は、少なくとも1つの車両装置に属する。
S308. ターゲット車両装置は、第1の融合結果とターゲット車両装置の車両感知データとを融合して、第2の融合結果を取得する。
本願のこの実施形態では、ターゲット車両装置は、融合式を使用して第1の融合結果及びターゲット車両装置の車両感知データに対してデータ融合を実行して、第2の融合結果を取得することができる。第1の融合結果と車両感知データとを融合するプロセスは、路側感知データと車両感知データを融合するプロセスと同様であり、ここでは再び説明しない。
前述した解決策では、路側装置は、複数の車両感知機器により送信された車両感知データと路側装置の路側感知データとを融合して、より広い感知範囲の第1の融合結果を取得し(ここでの感知範囲は、路側感知機器の感知範囲と複数の車両感知機器の感知範囲との間のオーバーラップの結果である)、次に、第1の融合結果をターゲット車両装置に送信することができ、それによって、ターゲット車両装置が第1の融合結果と車両感知データとを融合して、車両感知機器の感知範囲を拡張する。
同じ発明概念に基づいて、本願の実施形態は融合機器を提供し、装置を、車両装置に適用してもよく、又は路側装置に適用してもよい。融合機器は、チップ、プログラム可能なコンポーネント、回路コンポーネント、装置(すなわち、融合機器は車両装置又は路側装置である)、システム等であり得、本明細書では特に限定されない。
図11に示されるように、融合機器が車両装置である例では、融合機器100は、センサシステム104、制御システム106、周辺装置108、電源110、及び計算機器111を含む。計算機器111は、プロセッサ113とメモリ114とを含み得る。計算機器111は、融合機器100のコントローラ又はコントローラの一部であってもよい。メモリ114は、プロセッサ113によって実行され得る命令115を含み得、さらに地図データ116を格納し得る。融合機器100のコンポーネントは、互いの相互接続及び/又は様々なシステムに結合された他のコンポーネントとの相互接続の方法で機能するように構成され得る。例えば、電源110は、融合機器100の全ての構成要素に電力を供給することができる。計算機器111は、センサシステム104、制御システム106、及び周辺装置108からデータを受け取り、それらを制御するように構成され得る。
他の例では、融合機器100は、より多い、より少ない、又は異なるシステムを含むことができ、各システムは、より多い、より少ない、又は異なるコンポーネントを含むことができる。さらに、示されたシステム及びコンポーネントは、任意の方法で結合又は分割してもよい。
センサシステム104は、融合機器100の感知範囲内の道路環境を感知するように構成されたいくつかのセンサを含み得る。図に示されるように、センサシステムのセンサは、GPS126、慣性測定ユニット(inertial measurement unit : IMU)128、無線検出及びレーダー測距(RADAR)ユニット130、レーザ測距(LIDAR)ユニット132、カメラ134、及びセンサの位置及び/又は向きを変更するように構成されたアクチュエータ136を含む。
GPSモジュール126は、車両の地理的位置を推定するように構成された任意のセンサであり得る。従って、GPSモジュール126は、トランシーバを含み、且つ衛星測位データに基づいて地球に対する融合機器100の位置を推定することができる。一例では、GPSモジュール126を使用し、地図データ116を参照することにより、計算機器111は、車両装置が走行可能な道路の車線端における融合機器100の位置を推定するように構成され得る。あるいはまた、GPSモジュール126は別の形態であってもよい。
IMU128は、慣性、加速度、及びこれらの任意の組合せに基づいて、車両の位置及び向きの変化を感知するように構成され得る。いくつかの例では、センサの組合せは、加速度計及びジャイロを含み得る。センサの他の組合せも可能である。
レーダー(RADAR)ユニット130は、対象物(object:物体、オブジェクト)検出システムと考えることができる。レーダーユニット130は、電波を使用して、ターゲット対象物の特徴、例えば対象物の距離、高さ、方向、又は速度を検出するように構成される。レーダーユニット130は、電波又はマイクロ波パルスを送信するように構成され得る。電波又はマイクロ波パルスは、その波の経路内の任意の対象物によって反射され得る。対象物は、その波のエネルギーの一部を受信機(例えば、ディッシュアンテナ又はアンテナ)に戻すことができ、受信機は、レーダーユニット130の一部にすることもできる。レーダーユニット130は、(対象物から反射された)受信信号に対してデジタル信号処理を実行するようにさらに構成され得、ターゲット対象物を特定するように構成され得る。
レーダー(RADAR)に類似する他のシステムは、電磁スペクトルの他の部分で既に使用されている。例はLIDAR(light detection and ranging:光の検出及び測距)であり、これは、電波の代わりにレーザからの可視光を使用し得る。
LIDARユニット132はセンサを含み、センサは、光を使用して、融合機器100の感知範囲内の道路環境内のターゲット対象物を感知又は検出する。一般に、LIDARは、光を使用してターゲットを照らし、ターゲット対象物までの距離、又はターゲット対象物の他の属性を測定し得る光リモート感知技術である。例えば、LIDARユニット132は、レーザパルスを送信するように構成されたレーザ源及び/又はレーザスキャナと、レーザパルスの反射を受け取る(受光する)ように構成された検出器とを含み得る。例えば、LIDARユニット132は、回転ミラーによる反射に基づくレーザ距離計を含み、デジタルシーンの周りを1次元又は2次元でレーザ走査して、指定された角度から指定された間隔で距離測定値を収集することができる。一例では、LIDARユニット132は、光源(例えば、レーザ)、スキャナ、光システム、光検出器、及び受信機又は電子コンポーネント、並びに位置及びナビゲーションシステム等のコンポーネントを含み得る。
一例では、LIDARユニット132は、対象物イメージングに紫外(UV)、可視光、又は赤外光を使用するように構成され得、非金属対象物を含む広範囲のターゲット対象物に適用され得る。一例では、狭い(narrow)レーザビームを使用して、対象物の物理的特徴に関するマップを高解像度で描くことができる。
一例では、約10ミクロン(赤外線)から約250ナノメートル(UV)の範囲の波長を使用することができる。光は、通常、後方散乱後に反射される。様々な種類の散乱、例えばレイリー散乱、ミー散乱、ラマン散乱、及び蛍光が、様々なLIDARアプリケーションで使用される。従って、例えば、異なるタイプの後方散乱に基づいて、LIDARは、レイリーレーザRADAR、ミーLIDAR、ラマンLIDAR、及びナトリウム/Fe/カリウム蛍光LIDARと呼ばれ得る。波長の適切な組合せにより、例えば、反射信号の強度の波長依存変化を探索することにより、対象物のリモートマップ描画が可能になる。
3次元(3D)イメージングは、走査型LIDARシステム及び非走査型LIDARシステムを使用することによって実施され得る。「3Dゲート表示レーザレーダー(3D gated viewing laser radar)」は、非走査型レーザ測距システムの例である。パルスレーザと高速ゲートカメラとが、3Dゲート表示レーザレーダーに適用される。イメージングLIDARは、一般にCMOS(Complementary Metal Oxide Semiconductor:相補型金属酸化膜半導体)及びCCD(Charge Coupled Device:電荷結合素子、 hybrid complementary metal oxide semiconductor/charge coupled device:ハイブリッドCMOS/CCS)製造技術を使用してシングルチップ上に構築された高速検出器アレイと変調感知型検出器アレイとを使用して実装することもできる。これらの機器では、各ピクセルは、高速復調又はゲーティングを介して局所的に処理することができ、それによって、アレイを処理して、カメラからの画像を表すことができる。この技術を使用して数千のピクセルを同時に取得し、LIDARユニット132によって検出された対象物又はシーンを表す3D点群を作成できる。
点群は、3D座標系における頂点のグループを含み得る。頂点は、例えば、X、Y、及びZ座標によって規定することができ、且つターゲット対象物の外面を表すことができる。LIDARユニット132は、ターゲット対象物の表面上の大量の点を測定することによって点群を作成するように構成され得、且つ出力するために点群をデータファイルとして使用し得る。LIDARユニット132を使用して対象物に対して実行された3D走査プロセスの結果として、点群は、ターゲット対象物を特定及び視覚化するために使用され得る。
一例では、点群は、ターゲット対象物を視覚化するために直接レンダリングしてもよい。別の例では、点群は、表面再構成と呼ばれ得るプロセスで、多角形又は三角形のグリッドモデルに変換され得る。点群を3D表面に変換する技術の例には、Delaunary三角形分割、アルファ形状、回転球等が含まれ得る。その技術には、点群の既存の頂点に対して三角形のネットワークを構築することが含まれる。他の例示的な技術には、点群を体積距離場に変換すること、及びマーチングキューブアルゴリズムを使用して、この方法で規定された陰関数曲面を再構築することが含まれ得る。
カメラ134は、車両が位置する道路環境の画像を取得するように構成された任意のカメラ(例えば、静止カメラ又はビデオカメラ)であり得る。従って、カメラは、可視光を検出するように構成することができ、又はスペクトルの他の部分(例えば、赤外光又は紫外)からの光を検出するように構成することができる。他のタイプのカメラも可能である。カメラ134は、2次元検出器であってもよく、又は3次元空間範囲を有してもよい。いくつかの例では、カメラ134は、例えば距離検出器であってもよく、カメラ134は、カメラ134から環境内のいくつかの点までの距離を示す2次元画像を生成するように構成される。従って、カメラ134は、1つ又は複数の距離検出技術を使用することができる。例えば、カメラ134は、構造化光技術を使用するように構成してもよい。融合機器100は、所定の光パターン、例えばグリッド又はチェス盤グリッドパターンを使用して、環境内の対象物を照明し、そして、カメラ134を使用して、対象物からの所定の光パターンの反射を検出する。反射光パターンの歪みに基づいて、融合機器100は、対象物上の点までの距離を検出するように構成され得る。所定の光パターンには、赤外光又は他の波長の光が含まれ得る。
例えば、アクチュエータ136は、センサの位置及び/又は方向を変更するように構成され得る。センサシステム104は、示されたコンポーネント以外のコンポーネントを追加的又は代替的に含み得る。
制御システム106は、融合機器100の動作及び融合機器100のコンポーネントを制御するように構成され得る。従って、制御システム106は、センサ融合アルゴリズム144、コンピュータ視覚システム146、ナビゲーション又は経路制御(pathing:経路設定)システム148、及び障害物回避システム150を含み得る。
センサ融合アルゴリズム144は、例えば、計算機器111が実行し得るアルゴリズム(又は、アルゴリズムを格納するコンピュータプログラム製品)を含み得る。センサ融合アルゴリズム144は、センサ104からのデータを入力として受け入れるように構成され得る。データは、例えば、センサシステム104のセンサによって検出された情報のデータを含み得る。センサ融合アルゴリズム144は、例えば、カルマンフィルタ、ベイジアンネットワーク、又は別のアルゴリズムを含み得る。センサ融合アルゴリズム144は、例えば、車両が位置している環境における個々の対象物及び/又は特徴に関する評価、特定の状況での評価、及び/又は特定の状況に基づいて考えられる影響に関する評価を含む、センサシステム104からのデータに基づいて、様々な評価を提供するようにさらに構成され得る。他の評価も可能である。
コンピュータ視覚システム146は、カメラ134によって取り込まれた画像を処理及び解析して、融合機器100が位置している環境内の対象物及び/又は特徴を特定するように構成された任意のシステムであり得、対象物及び/又は特徴には、例えば車線情報、信号機、及び障害物が含まれる。従って、コンピュータ視覚システム146は、対象物識別アルゴリズム、動きからの構造化(Structure from Motion : SFM)アルゴリズム、ビデオ追跡、又は別のコンピュータ視覚技術を使用することができる。いくつかの例では、コンピュータ視覚システム146は、環境マップを描画し、対象物を追跡し、対象物の速度を推定する等のためにさらに構成され得る。
ナビゲーション及び経路制御システム148は、車両の走行経路を決定するように構成された任意のシステムであってよい。ナビゲーション及び経路制御システム148は、車両が動作しているときに走行経路を動的に更新するようにさらに構成され得る。いくつかの例では、ナビゲーション及び経路制御システム148は、センサ融合アルゴリズム144、GPSモジュール126、及び1つ又は複数の所定のマップからのデータを参照して、車両の走行経路を決定するように構成され得る。
障害物回避システム150は、車両が位置している環境内の障害物を識別し、評価し、回避するか、又は別の方法で追い越すように構成された任意のシステムであり得る。
制御システム106は、示されたコンポーネント以外のコンポーネントを追加的又は代替的に含み得る。
周辺装置108は、融合機器100が外部センサ、別の車両、及び/又はユーザと相互作用するのを可能にするように構成され得る。従って、周辺装置108には、例えば、無線通信システム152、タッチスクリーン154、マイクロフォン156、及び/又はスピーカ158が含まれ得る。
無線通信システム152は、1つ又は複数の他の車両、センサ、又は別のエンティティに直接結合する又は無線方式で通信ネットワークを使用することによって結合するように構成された任意のシステムとすることができる。従って、無線通信システム152は、別の車両、センサ、又は別のエンティティと直接又はエアインターフェイスを使用することによって通信するように構成されたアンテナ及びチップセットを含み得る。チップセット又は無線通信システム152全体は、1つ又は複数の他のタイプの無線通信(例えば、プロトコル)に基づいて通信するように構成してもよく、無線通信は、例えば、Bluetooth(登録商標)、IEEE802.11(任意のIEEE802.11改訂を含む)に記載された通信プロトコル、セルラー技術(例えば、GSM、CDMA、UMTS(Universal Mobile Telecommunications System ユニバーサルモバイルテレコミュニケーションシステム))、EV−DO、WiMAX、LTE(Long Term Evolution:ロングタームエボリューション)、ZigBee、DSRC(Dedicated Short Range Communications:専用短距離通信)、RFID(Radio Frequency Identification:無線周波数識別)等である。無線通信システム152は、別の形態であってもよい。
タッチスクリーン154は、ユーザがコマンドを融合機器100に入力するために使用され得る。従って、タッチスクリーン154は、静電容量感知、抵抗感知、表面弾性波プロセス等によってユーザの指の位置及び動きの少なくとも1つを感知するように構成され得る。タッチスクリーン154は、タッチスクリーンの表面に平行な方向又はタッチスクリーンの表面と同じ面内の方向、タッチスクリーンの表面に垂直な方向、又は両方向で指の動きを感知することができ、さらにタッチスクリーンの表面に加えられた圧力のレベルを感知することができる。タッチスクリーン154は、1つ又は複数の半透明又は透明な絶縁層、及び1つ又は複数の半透明又は透明な導電層を含み得る。タッチスクリーン154はまた、別の形態であってもよい。
マイクロフォン156は、融合機器100のユーザから音声(例えば、音声コマンド又は別の音声入力)を受け取るように構成され得る。同様に、スピーカ158は、音声を融合機器100のユーザに出力するように構成され得る。
周辺装置108は、示されたコンポーネント以外のコンポーネントを追加的又は代替的に含み得る。
電源110は、融合機器100のコンポーネントの一部又は全てに電力を供給するように構成され得る。従って、電源110は、例えば、再充電可能なリチウムイオン又は鉛蓄電池を含み得る。いくつかの例では、1つ又は複数の電池グループは、電力を供給するように構成され得る。他の電力材料及び構成も可能である。いくつかの例では、電源110及びエネルギー源120は、電気自動車のように一緒に実装され得る。
計算機器111に含まれるプロセッサ113は、1つ又は複数の汎用プロセッサ及び/又は1つ又は複数の専用プロセッサ(例えば、画像プロセッサ又はデジタル信号プロセッサ)を含み得る。プロセッサ113が2つ以上のプロセッサを含む場合に、プロセッサは、独立して動作するか、又は組み合わせて動作することができる。計算機器111は、ユーザインターフェイス112を使用して受け取った入力に基づいて、車両100を制御する機能を実現することができる。
メモリ114は、1つ又は複数の揮発性記憶コンポーネント及び/又は1つ又は複数の不揮発性記憶コンポーネント、例えば光学的、磁気的及び/又は有機的記憶機器等をさらに含み得、メモリ114は、プロセッサ113と完全に又は部分的に統合され得る。メモリ114は、本明細書に記載されている機能又は方法のいずれか1つを含む様々な車両機能を実行するために、プロセッサ113によって実行される命令115(例えば、プログラムロジック)を含み得る。
融合機器100のコンポーネントは、それぞれのシステム内の他のコンポーネントとの相互接続及び/又は他の外部コンポーネントとの相互接続の方法で機能するように構成され得る。従って、融合機器100のコンポーネント及びシステムは、システムバス、ネットワーク、及び/又は別の接続機構を使用することによって通信可能に相互接続され得る。
実施形態1では、融合機器100のプロセッサ113は、以下の命令を実行する:
車両感知データを取得することであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
路側感知データを取得することであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得することと、を実行する。
実施形態2では、融合機器100のプロセッサ113は、以下の命令を実行する:
車両感知データを路側装置に送信することであって、車両感知データは、車両感知機器が車両センサを使用して感知範囲内の道路環境を感知することによって取得される、送信することと、
路側装置により送信された第1の融合結果を受信することであって、第1の融合結果は、路側装置が融合式を使用して少なくとも1つの車両装置の車両感知データと路側感知データとを融合することによって取得され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、受信することと、
車両感知データと第1の融合結果とを融合して、第2の融合結果を取得することと、を実行する。
実施形態1又は実施形態2を参照すると、融合式は次のように表される:
y=f(result,result
ここで、resultは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
特定の実施態様では、
f(result,result)=(w/(w+w))result+(w/(w+w))result
であり、
ここで、wは路側感知機器の信頼係数であり、w=(wr1,wr2,...,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wは車両感知機器の信頼係数であり、w=(wv1,wv2,...,wvN)であり、result(vehicle,vehicle,...,vehicle)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
より具体的には、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたものに基づいて決定される。
例えば、信頼係数wは、以下の式に基づいて得ることができる:
w=g(S,R,θ),ここで、w∈[0,1]
ここで、Sは感知機器パラメータであり、Rはターゲット対象物の感知距離であり、θはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
特定の実施態様では、車両結果セットは少なくとも1つの車両結果ユニットを含み、少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
より具体的には、少なくとも1つの車両結果ユニット内の1つの車両結果ユニットは、車両(pvj,vvj,svj,cvj)として表され、ここで、pvjは車両感知機器が検出したターゲット対象物jの位置を示し、vvjは車両感知機器が検出したターゲット対象物jの速度を示し、svjは車両感知機器が検出したターゲット対象物jのサイズを示し、cvjは車両感知機器が検出したターゲット対象物jの色を示し、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nである。
特定の実施態様では、路側結果セットは少なくとも1つの路側結果ユニットを含み、少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
より具体的には、少なくとも1つの路側結果ユニット内の1つの路側結果ユニットは、路側(pvi,vvi,svi,cvi)として表され、ここで、pviは路側感知機器が検出したターゲット対象物iの位置を示し、vviは路側感知機器が検出したターゲット対象物iの速度を示し、sviは路側感知機器が検出したターゲット対象物iのサイズを示し、cviは路側感知機器が検出したターゲット対象物iの色を示し、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、iは、自然数であり、且つ0<i≦Mである。
実施形態1又は実施形態2を参照すると、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得する前に、方法は、
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップと、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと、を含む。
特定の実施態様では、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係は、偏差ネットワークを使用して見出される。
より具体的には、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が、偏差ネットワークを使用して見出されることは、具体的には、以下を含む:
次式を使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される:
S=Deviation(路側,車両
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
特定の実施態様では、路側感知データを車両感知データとマッチングして、マッチング結果を得た後に、方法は、
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、を含む。
具体的には、フレーム間ループバックは、
ループバック=T+T+T+T
であり、
ここで、Tループバックはフレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
具体的には、マルチフレーム相関は、
マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックフレームであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
なお、図11の実施形態で言及していない内容については、図8〜図10に対応する実施形態を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
図12に示されるように、例えば、融合機器が路側装置である場合に、融合機器200は、RF(Radio Frequency:無線周波数)回路210、メモリ220、別の入力装置230、表示画面240、センサシステム250、I/Oサブシステム270、プロセッサ280、及び電源290等のコンポーネントを含む。当業者は、路側感知機器が図12に示される路側感知機器の構造に限定されないことを理解することができる。路側感知機器は、図に示したものより多くの又は少ない部品を含むことができ、又はいくつかの部品が組み合わされるか、又はいくつかの部品が分割されるか、又は部品の配置が異なる。当業者は、表示画面240がユーザインターフェイス(UI : User Interface)を表示するように構成され得ることを理解することができる。
次に、図12を参照して、融合機器200の各コンポーネントについて詳細に説明する。
RF回路210は、データを送信又は受信するように構成され得る。一般に、RF回路は、アンテナ、少なくとも1つの増幅器、トランシーバ、カプラ、LNA(Low Noise Amplifier:低雑音増幅器)、デュプレクサ等を含むが、これらに限定されない。さらに、RF回路210は、無線通信によってネットワーク及び他の装置とさらに通信することができる。ワイヤレス通信は、GSM(Global System of Mobile:モバイル通信のグローバルシステム)、GPRS(General Packet Radio Service:汎用パケット無線サービス)、CDMA(Code Division Multiple Access:符号分割多重アクセス)、WCDMA(Wideband Code Division Multiple Access:広帯域符号分割多重アクセス)、LTE(Long Term Evolution:ロングタームエボリューション)、電子メール、SMS(Short Messaging Service:ショートメッセージサービス)等を含むが、これらに限定されない、任意の通信規格又はプロトコルを使用することができる。
メモリ220は、高速ランダムアクセスメモリを含み得、不揮発性メモリ、例えば少なくとも1つの磁気ディスク記憶装置、フラッシュメモリ、又は別の揮発性固体記憶装置をさらに含み得る。メモリ220は、プロセッサ280によって実行され得る命令222を含み得、さらに地図データ224を格納し得る。
別の入力装置230は、入力数字又は文字情報を受け取り、融合機器200のユーザ設定及び機能制御に関連するキー信号入力を生成するように構成され得る。具体的には、別の入力装置230は、1つ又は複数の物理キーボード、ファンクションキー(ボリューム制御キー、電源オン/オフキー等)、トラックボール、マウス、ジョイスティック、光学式マウス(光学式マウスは、視覚的出力を表示しないタッチ感知面である、又はタッチスクリーンによって形成されたタッチ感知面の延長である)等を含み得るが、これらに限定されない。別の入力装置230は、I/Oサブシステム270の別の入力装置コントローラ271に接続され、別の入力装置コントローラ271がプロセッサ280との信号相互作用を実行するように制御される。
表示画面240は、表示パネル241とタッチパネル242とを含み得る。表示パネル241について、表示パネル241は、LCD(Liquid Crystal Display:液晶ディスプレイ)、OLED(Organic Light-Emitting Diode:有機発光ダイオード)等の形態で構成してもよい。タッチパネル242は、タッチスクリーン、タッチ感知スクリーン等とも呼ばれ、タッチパネル上又はその近くでのユーザのタッチ又は非タッチ操作をキャプチャすることができ(例えば、操作は、ユーザがタッチパネル242上又はタッチパネル242の近くの指又はスタイラス等の任意の適切なオブジェクト又はアクセサリを使用することによって実行される操作である、又は動き感知操作を含み得、操作の操作タイプは、単一点制御操作、又は多点制御操作等を含む)、予め設定されたプログラムに基づいて対応する接続機器を駆動する。
センサシステム250は、融合機器200の感知範囲内の道路環境を感知するように構成されたいくつかのセンサを含み得る。図に示されるように、センサシステムのセンサは、GPS251、無線検出及びレーダー測距(RADAR)ユニット255、レーザ測距(LIDAR)ユニット257、カメラ258、及びセンサの位置及び/又は向きを変更するように構成されたアクチュエータ259を含む。センサシステム250は、I/Oサブシステム270のセンサコントローラ272に接続され、且つセンサコントローラ272がプロセッサ280との相互作用を実行するように制御される。
GPSモジュール251は、車両の地理的位置を推定するように構成された任意のセンサであり得る。従って、GPSモジュール251は、トランシーバを含み、且つ衛星測位データに基づいて地球に対する融合機器200の位置を推定することができる。一例では、融合機器200は、GPSモジュール251を使用し、地図データ224を参照することにより、道路上の融合機器200の位置を推定するように構成され得る。あるいはまた、GPSモジュール126は、別の形態であってもよい。
レーダー(RADAR)ユニット255は、対象物検出システムと考えることができる。レーダーユニット255は、電波を使用して、ターゲット対象物の特徴、例えば対象物の距離、高さ、方向、又は速度を検出するように構成される。レーダーユニット255は、電波又はマイクロ波パルスを送信するように構成され得る。電波又はマイクロ波パルスは、その波の経路内の任意の対象物によって反射され得る。対象物は、その波のエネルギーの一部を受信機(例えば、ディッシュアンテナ又はアンテナ)に戻すことができ、受信機は、レーダーユニット255の一部とすることもできる。レーダーユニット255は、(対象物から反射された)受信信号に対してデジタル信号処理を実行するように構成され得、ターゲット対象物を特定するように構成され得る。
レーダー(RADAR)に類似した他のシステムは、電磁スペクトルの他の部分で既に使用されている。例はLIDAR(light detection and ranging:光の検出及び測距)であり、これは、電波の代わりにレーザからの可視光を使用し得る。
LIDARユニット257はセンサを含み、センサは、光を使用して、融合機器200の感知範囲内の道路環境内のターゲット対象物を感知又は検出する。一般に、LIDARは、光を使用してターゲットを照らし、ターゲット対象物までの距離、又はターゲット対象物の他の属性を測定し得る光リモート感知技術である。例えば、LIDARユニット257は、レーザパルスを送信するように構成されたレーザ源及び/又はレーザスキャナと、レーザパルスの反射を受け取る(受光する)ように構成された検出器とを含み得る。例えば、LIDARユニット257は、回転ミラーによる反射に基づくレーザ距離計を含み、デジタルシーンの周りを1次元又は2次元でレーザ走査して、指定された角度から指定された間隔で距離測定値を収集することができる。一例では、LIDARユニット257は、光源(例えば、レーザ)、スキャナ、光システム、光検出器、及び受信機又は電子コンポーネント、並びに位置及びナビゲーションシステム等のコンポーネントを含み得る。
一例では、LIDARユニット257は、対象物イメージングに紫外(UV)、可視光、又は赤外光を使用するように構成され得、非金属物体を含む広範囲のターゲット対象物に適用され得る。一例では、狭い(narrow)レーザビームを使用して、対象物の物理的特徴に関するマップを高解像度で描くことができる。
一例では、約10ミクロン(赤外線)から約250ナノメートル(UV)の範囲の波長を使用することができる。光は、通常、後方散乱後に反射される。様々な種類の散乱、例えばレイリー散乱、ミー散乱、ラマン散乱、及び蛍光が、様々なLIDARアプリケーションで使用される。従って、例えば、異なるタイプの後方散乱に基づいて、LIDARは、レイリーレーザRADAR、ミーLIDAR、ラマンLIDAR、及びナトリウム/Fe/カリウム蛍光LIDARと呼ばれ得る。波長の適切な組合せにより、例えば、反射信号の強度の波長依存変化を探索することにより、対象物のリモートマップ描画が可能になる。
3次元(3D)イメージングは、走査型LIDARシステム及び非走査型LIDARシステムを使用することによって実施され得る。「3Dゲート表示レーザレーダー(3D gated viewing laser radar)」は、非走査型レーザ測距システムの例である。パルスレーザと高速ゲートカメラとが、3Dゲート表示レーザレーダーに適用される。イメージングLIDARは、一般にCMOS(Complementary Metal Oxide Semiconductor:相補型金属酸化膜半導体)及びCCD(Charge Coupled Device:電荷結合素子, hybrid complementary metal oxide semiconductor/charge coupled device:ハイブリッドCMOS/CCS)製造技術を使用してシングルチップ上に構築された高速検出器アレイと変調感知型検出器アレイを使用して実装することもできる。これらの機器では、各ピクセルは、高速復調又はゲーティングを介して局所的に処理することができ、それによって、アレイを処理して、カメラからの画像を表すことができる。この技術を使用して数千のピクセルを同時に取得し、LIDARユニット257によって検出された対象物又はシーンを表す3D点群を作成できる。
点群は、3D座標系における頂点のグループを含み得る。頂点は、例えば、X、Y、及びZ座標によって規定することができ、且つターゲット対象物の外面を表すことができる。LIDARユニット257は、ターゲット対象物の表面上の大量の点を測定することによって点群を作成するように構成され得、且つ出力するために点群をデータファイルとして使用し得る。LIDARユニット257を使用して対象物に対して実行された3D走査プロセスの結果として、点群は、ターゲット対象物を特定及び視覚化するために使用され得る。
一例では、点群は、ターゲット対象物を視覚化するために直接レンダリングしてもよい。別の例では、点群は、表面再構成と呼ばれ得るプロセスで、多角形又は三角形のグリッドモデルに変換され得る。点群を3D表面に変換する技術の例には、Delaunary三角形分割、アルファ形状、回転球等が含まれ得る。その技術には、点群の既存の頂点に対して三角形のネットワークを構築することが含まれる。他の例示的な技術には、点群を体積距離場に変換すること、及びマーチングキューブアルゴリズムを使用して、この方法で規定された陰関数曲面を再構築することが含まれ得る。
カメラ258は、車両が位置する道路環境の画像を取得するように構成された任意のカメラ(例えば、静止カメラ又はビデオカメラ)であり得る。従って、カメラは、可視光を検出するように構成することができ、又はスペクトルの他の部分(例えば、赤外光又は紫外)からの光を検出するように構成することができる。他のタイプのカメラも可能である。カメラ258は、2次元検出器であってもよく、又は3次元空間範囲を有してもよい。いくつかの例では、カメラ258は、例えば距離検出器であってもよく、カメラ258は、カメラ258から環境内のいくつかの点までの距離を示す2次元画像を生成するように構成される。従って、カメラ258は、1つ又は複数の距離検出技術を使用することができる。例えば、カメラ258は、構造化光技術を使用するように構成してもよい。融合機器200は、所定の光パターン、例えばグリッド又はチェス盤グリッドパターンを使用して、環境内の対象物を照明し、そして、カメラ258を使用して、対象物からの所定の光パターンの反射を検出する。反射光パターンの歪みに基づいて、路側感知機器258は、対象物上の点までの距離を検出するように構成され得る。所定の光パターンには、赤外光又は他の波長の光が含まれ得る。
I/Oサブシステム270は、外部入力/出力装置を制御するように構成され、且つ別の入力装置コントローラ271及びセンサコントローラ272を含み得る。オプションで、1つ又は複数の他の入力制御装置コントローラ271は、別の入力装置230から信号を受信し、及び/又は別の入力装置230に信号を送信する。別の入力装置230は、物理ボタン(押しボタン、ロッカーアーム式ボタン等)、ダイヤル、スライダスイッチ、ジョイスティック、スクロールホイール、又は光学式マウス(光学式マウスは、視覚出力を表示しないタッチ感知面である、又はタッチスクリーンによって形成されたタッチ感知面の延長である)を含み得る。なお、他の入力制御装置コントローラ271は、前述した装置のいずれか1つ又は複数に接続することができる。センサコントローラ272は、1つ又は複数のセンサ250から信号を受信し、及び/又は1つ又は複数のセンサ250に信号を送信することができる。
プロセッサ280は、融合機器200の制御センターである。プロセッサ280は、様々なインターフェイス及びラインを使用して融合機器200全体の全ての部分に接続され、且つメモリ220に格納されたソフトウェアプログラム及び/又はモジュールを実行又は起動し、メモリ220に格納されたデータを呼び出すことにより融合機器200の様々な機能及びデータ処理を実行し、それにより融合機器200の全体的な監視を実行する。オプションで、プロセッサ280は1つ又は複数の処理ユニットを含み得る。好ましくは、プロセッサ280は、2つのモデムプロセッサを統合することができ、モデムプロセッサは、主に無線通信を処理する。あるいはまた、モデムプロセッサは、プロセッサ280に統合しなくてもよいことが理解され得る。
融合機器200は、コンポーネントに電力を供給するための電源290(電池等)をさらに含む。好ましくは、電源は、電力管理システムを使用してプロセッサ280に論理的に接続され得、それによって、電力管理システムを使用することによって充電、放電、及び電力消費の管理等の機能を実行する。
実施形態1では、融合機器200のプロセッサ280は、以下の命令を実行する:
車両感知データを取得することであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
路側感知データを取得することであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得することと、を実行する。
実施形態2では、融合機器200のプロセッサ280は、以下の命令を実行する:
少なくとも1つの車両装置により送信された車両感知データを受信することであって、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、受信することと、
融合式を使用して少なくとも1つの車両装置の車両感知データと路側感知データとを融合して、第1の融合結果を取得することであって、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得することと、
第1の融合結果をターゲット車両装置に送信することであって、ターゲット車両装置は、車両感知データと第1の融合結果とを融合して第2の融合結果を取得するように構成され、ターゲット車両装置は少なくとも1つの車両装置に属する、送信することと、を実行する。
実施形態1又は実施形態2を参照すると、融合式は、以下のように表される:
y=f(result,result
ここで、resultは路側結果セットであり、路側結果セットは路側感知データを示すために使用され、resultは車両結果セットであり、車両結果セットは車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、路側結果セット及び車両結果セットに基づいてマッピングすることにより、第1の融合結果を取得するために使用される。
特定の実施態様では、
f(result,result)=(w/(w+w))result+(w/(w+w))result
であり、
ここで、wは路側感知機器の信頼係数であり、w=(wr1,wr2,...,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは路側感知機器のセンサ範囲内のターゲット対象物の数量であり、wriは路側感知機器の感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wは車両感知機器の信頼係数であり、w=(wv1,wv2,...,wvN)であり、result(vehicle,vehicle,...,vehicle)であり、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、wvjは車両感知機器の感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである。
より具体的には、信頼係数は、感知機器パラメータ、ターゲット対象物の感知距離、及びターゲット対象物の感知角度をまとめたものに基づいて決定される。
例えば、信頼係数wは、以下の式に基づいて得ることができる:
w=g(S,R,θ),ここで、w∈[0,1]
ここで、Sは感知機器パラメータであり、Rはターゲット対象物の感知距離であり、θはターゲット対象物の感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである。
特定の実施形態では、車両結果セットは少なくとも1つの車両結果ユニットを含み、少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
より具体的には、少なくとも1つの車両結果ユニット内の1つの車両結果ユニットは、車両(pvj,vvj,svj,cvj)として表され、ここで、pvjは車両感知機器が検出したターゲット対象物jの位置を示し、vvjは車両感知機器が検出したターゲット対象物jの速度を示し、svjは車両感知機器が検出したターゲット対象物jのサイズを示し、cvjは車両感知機器が検出したターゲット対象物jの色を示し、Nは車両感知機器の感知範囲内のターゲット対象物の数量であり、jは、自然数であり、且つ0<j≦Nである。
特定の実施態様では、路側結果セットは少なくとも1つの路側結果ユニットを含み、少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される。
より具体的には、少なくとも1つの路側結果ユニット内の1つの路側結果ユニットは、路側(pvi,vvi,svi,cvi)として表され、ここで、pviは路側感知機器が検出したターゲット対象物iの位置を示し、vviは路側感知機器が検出したターゲット対象物iの速度を示し、sviは路側感知機器が検出したターゲット対象物iのサイズを示し、cviは路側感知機器が検出したターゲット対象物iの色を示し、Mは路側感知機器の感知範囲内のターゲット対象物の数量であり、iは、自然数であり、且つ0<i≦Mである。
実施形態1又は実施形態2を参照すると、融合式を使用して車両感知データと路側感知データとを融合して、融合結果を取得する前に、方法は、
路側感知データを車両感知データとマッチングして、マッチング結果を取得するステップと、
マッチング結果に基づいて、車両感知データと路側感知データとを融合して、第1の融合結果を取得するステップと、を含む。
特定の実施態様では、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係は、偏差ネットワークを使用して見出される。
より具体的には、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が、偏差ネットワークを使用して見出されることは、具体的には、以下を含む:
次式を使用して、路側結果セット内の路側結果ユニットと車両結果セット内の車両結果ユニットとの間のマッチング関係が見出される:
S=Deviation(路側,車両
ここで、Sはマッチング結果であり、Deviation(偏差)は偏差ネットワークであり、路側は路側感知機器の感知範囲内のターゲット対象物iに対応する路側結果ユニットであり、車両は車両感知機器の感知範囲内のターゲット対象物jに対応する車両結果ユニットであり、i及びjは共に自然数である。
特定の実施態様では、路側感知データを車両感知データとマッチングして、マッチング結果を得た後に、方法は、
フレーム間ループバック及び/又はマルチフレーム相関の方法でマッチング結果の信頼度を評価して、評価結果を取得するステップと、
評価結果に基づいて、偏差ネットワークを調整するステップと、を含む。
具体的には、フレーム間ループバックは、
ループバック=T+T+T+T
であり、
ここで、Tループバックはフレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果であり、第1のマッチング結果は、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第2のマッチング結果は、車両感知機器がi番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットと、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、第3のマッチング結果は、車両感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する車両結果ユニッと、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、第4のマッチング結果は、路側感知機器が(i+1)番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットと、路側感知機器がi番目のフレームで検出したターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果である。
具体的には、マルチフレーム相関は、
マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
として規定され、
ここで、Tマルチフレームはマルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である。
なお、図12の実施形態で言及していない内容については、図8〜図10に対応する実施形態を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
同じ発明概念に基づいて、図13は、本発明の一実施形態による融合機器の概略構造図である。図13に示されるように、融合機器300は、第1の取得モジュール301、第2の取得モジュール302、及び融合モジュール303を含み得る。
第1の取得モジュール301は、車両感知データを取得するように構成され、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される。
第2の取得モジュール302は、路側感知データを取得するように構成され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される。
融合モジュール303は、融合式を使用して車両感知データと路側感知データとを融合して、第1の融合結果を取得するように構成される。
なお、図13の実施形態で言及していない内容及び各機能ユニットの特定の実施態様については、図8及び図9に対応する実施形態を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
同じ発明概念に基づいて、図14は、本発明の一実施形態による融合機器の概略構造図である。図14に示されるように、この実施形態の融合機器400は、送信モジュール401、受信モジュール402、及び融合モジュール403を含む。
送信モジュール401は、車両感知データを路側装置に送信するように構成され、車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される。
受信モジュール402は、路側装置により送信された第1の融合結果を受信するように構成され、第1の融合結果は、路側感知機器が融合式を使用して少なくとも1つの車両装置の車両感知データと路側感知データとを融合することによって取得され、路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される。
融合モジュール403は、少なくとも1つの車両装置の車両感知データと第1の融合結果とを融合して、第2の融合結果を取得するように構成される。
なお、図14の実施形態で言及していない内容及び各機能ユニットの特定の実施態様については、図10に対応する実施形態を参照することができることに留意されたい。詳細については、ここでは再び説明しない。
前述した解決策によれば、路側感知機器が感知することによって取得した路側感知データと、車両感知機器が感知することによって取得した車両感知データとを融合して、路側感知機器の感知範囲と車両感知機器の感知範囲との間のオーバーラップを実現し、それによって、感知範囲が効果的に拡張される。
本願で提供されるいくつかの実施形態では、開示されたシステム、端末、及び方法は、他の方法で実施してもよいことを理解すべきである。例えば、記載された機器の実施形態は単なる例である。例えば、ユニット分割は単なる論理的な機能分割であり、実際の実施態様では他の分割であってもよい。例えば、複数のユニット又はコンポーネントを組み合わせたり、又は別のシステムに統合したりしてもよく、いくつかの機能を無視したり、又は実行できない場合がある。さらに、表示又は議論された相互結合又は直接結合又は通信接続は、いくつかのインターフェイス、機器又はユニッ同士の間の間接結合又は通信接続、又は電気接続、機械的接続、又は他の形態の接続によって実施してもよい。
別個の部品として記載されたユニットは、物理的に別個であってもなくてもよく、ユニットとして表示される部品は、物理ユニットであってもなくてもよく、一箇所に配置してもよく、又は複数のネットワークユニットに分散してもよい。本発明の実施形態の解決策の目的を達成するための実際の要件に従って、ユニットの一部又は全てを選択することができる。
また、本発明の実施形態における機能ユニットは、1つの処理ユニットに統合してもよく、又は各ユニットが物理的に単独で存在してもよく、又は2つ以上のユニットを1つのユニットに統合してもよい。統合されたユニットは、ハードウェアの形態で実装してもよく、又はソフトウェア機能ユニットの形態で実装してもよい。
統合ユニットがソフトウェア機能ユニットの形態で実装され、独立した製品として販売又は使用される場合に、統合ユニットは、コンピュータ可読記憶媒体に格納され得る。そのような理解に基づいて、本発明の技術的解決策は本質的に、又は先行技術に寄与する部分、又は技術的解決策の全て又は一部は、ソフトウェア製品の形態で実装することができる。コンピュータソフトウェア製品は、記憶媒体に格納され、本発明の実施形態において説明した方法のステップの全て又は一部を実行するようにコンピュータ装置(パーソナルコンピュータ、サーバ、ネットワーク装置等であり得る)に命令するためのいくつかの命令を含む。前述した記憶媒体には、USBフラッシュドライブ、リムーバブルハードディスク、読み取り専用メモリ(ROM: Read-Only Memory)、ランダムアクセスメモリ(RAM: Random Access Memory)、磁気ディスク、又は光ディスク等の、プログラムコードを格納できる任意の媒体が含まれる。
前述した説明は、本発明の特定の実施形態に過ぎず、本発明の保護範囲を限定することを意図したものではない。本発明に開示された技術的範囲内で当業者によって容易に理解されるあらゆる修正又は置換は、本発明の保護範囲内に含まれるものとする。従って、本発明の保護範囲は、特許請求の範囲の保護範囲に従うものとする。

Claims (38)

  1. データ融合方法であって、当該方法は、
    車両感知データを取得するステップであって、該車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
    路側感知データを取得するステップであって、該路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、取得するステップと、
    融合式を使用して前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得するステップと、を含む、
    方法。
  2. 前記融合式は、
    y=f(result,result
    として表され、
    ここで、resultは路側結果セットであり、該路側結果セットは前記路側感知データを示すために使用され、resultは車両結果セットであり、該車両結果セットは前記車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、前記路側結果セット及び前記車両結果セットに基づいてマッピングすることにより、前記第1の融合結果を取得するために使用される、請求項1に記載の方法。
  3. f(result,result)=(w/(w+w))result+(w/(w+w))result
    であり、
    ここで、wは前記路側感知機器の信頼係数であり、w=(wr1,wr2,...,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の数量であり、wriは前記路側感知機器の前記感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wは前記車両感知機器の信頼係数であり、w=(wv1,wv2,...,wvN)であり、result(vehicle,vehicle,...,vehicle)であり、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の数量であり、wvjは前記車両感知機器の前記感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである、請求項2に記載の方法。
  4. 前記信頼係数は、感知機器パラメータ、前記ターゲット対象物の感知距離、及び前記ターゲット対象物の感知角度をまとめたものに基づいて決定される、請求項3に記載の方法。
  5. 前記信頼係数wは、
    w=g(S,R,θ),w∈[0,1]
    の式に基づいて得ることができ、
    ここで、Sは前記感知機器パラメータであり、Rは前記ターゲット対象物の前記感知距離であり、θは前記ターゲット対象物の前記感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである、請求項4に記載の方法。
  6. 前記車両結果セットは少なくとも1つの車両結果ユニットを含み、該少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される、請求項2乃至5のいずれか一項に記載の方法。
  7. 前記少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両(pvj,vvj,svj,cvj)として表され、ここで、pvjは前記車両感知機器が検出した前記ターゲット対象物jの位置を示し、vvjは前記車両感知機器が検出した前記ターゲット対象物jの速度を示し、svjは前記車両感知機器が検出した前記ターゲット対象物jのサイズを示し、cvjは前記車両感知機器が検出した前記ターゲット対象物jの色を示し、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の前記数量であり、jは、自然数であり、且つ0<j≦Nである、請求項6に記載の方法。
  8. 前記路側結果セットは少なくとも1つの路側結果ユニットを含み、該少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される、請求項2乃至7のいずれか一項に記載の方法。
  9. 前記少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側(pvi,vvi,svi,cvi)として表され、ここで、pviは前記路側感知機器が検出した前記ターゲット対象物iの位置を示し、vviは前記路側感知機器が検出した前記ターゲット対象物iの速度を示し、sviは前記路側感知機器が検出した前記ターゲット対象物iのサイズを示し、cviは前記路側感知機器が検出した前記ターゲット対象物iの色を示し、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の前記数量であり、iは、自然数であり、且つ0<i≦Mである、請求項8に記載の方法。
  10. 融合式を使用して前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得する前に、当該方法は、
    前記路側感知データを前記車両感知データとマッチングして、マッチング結果を取得するステップをさらに含み、
    前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得するステップは、
    前記マッチング結果に基づいて、前記車両感知データと前記路側感知データとを融合して、前記第1の融合結果を取得するステップを含む、請求項2乃至5のいずれか一項に記載の方法。
  11. 前記路側感知データを前記車両感知データとマッチングして、マッチング結果を取得するステップは、
    偏差ネットワークを使用して、前記路側結果セット内の路側結果ユニットと前記車両結果セット内の車両結果ユニットとの間のマッチング関係が見出されるステップを含む、請求項10に記載の方法。
  12. 偏差ネットワークを使用して、前記路側結果セット内の路側結果ユニットと前記車両結果セット内の車両結果ユニットとの間のマッチング関係が見出されるステップは、
    次式を使用して、前記路側結果セット内の前記路側結果ユニットと前記車両結果セット内の前記車両結果ユニットとの間のマッチング関係が見出されるステップを特に含み、
    S=Deviation(路側,車両
    ここで、Sはマッチング結果であり、Deviationは前記偏差ネットワークであり、路側は前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する前記路側結果ユニットであり、車両は前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する前記車両結果ユニットであり、i及びjは共に自然数である、請求項11に記載の方法。
  13. 前記偏差ネットワーク(Deviation)は、図5に示される逆伝播(BP)ニューラルネットワークであり、
    Δpijは位置偏差であり、Δpij=fabs(pri−pvj)であり、priは前記路側感知機器が検出した前記ターゲット対象物iの前記位置であり、pvjは前記車両感知機器が検出した前記ターゲット対象物jの前記位置であり、fabsは絶対値を求めるための関数であり、
    Δvijは速度偏差であり、Δvij=fabs(vri−vvj)であり、vriは前記路側感知機器が検出した前記ターゲット対象物iの前記速度であり、vvjは前記車両感知機器が検出した前記ターゲット対象物jの前記速度であり、
    Δsijはサイズ偏差であり、Δsij=fabs(sri−svj)であり、sriは前記路側感知機器が検出した前記ターゲット対象物iの前記サイズであり、svjは前記車両感知機器が検出した前記ターゲット対象物jの前記サイズであり、
    Δcijは色偏差であり、Δcij=fabs(cri−cvj)であり、criは前記路側感知機器が検出した前記ターゲット対象物iの前記色であり、cvjは前記車両感知機器が検出した前記ターゲット対象物jの前記色であり、
    は位置偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は前記路側感知機器が検出した前記ターゲット対象物iの前記位置に対応する信頼係数であり、wvj は前記車両感知機器が検出した前記ターゲット対象物jの前記位置に対応する信頼係数であり、
    は速度偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は前記路側感知機器が検出した前記ターゲット対象物iの前記速度に対応する信頼係数であり、wvj は前記車両感知機器が検出した前記ターゲット対象物jの前記速度に対応する信頼係数であり、
    はサイズ偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は前記路側感知機器が検出した前記ターゲット対象物iの前記サイズに対応する信頼係数であり、wvj は前記車両感知機器が検出した前記ターゲット対象物jの前記サイズに対応する信頼係数であり、
    は速度偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は前記路側感知機器が検出した前記ターゲット対象物iの前記色に対応する信頼係数であり、wvj は前記車両感知機器が検出した前記ターゲット対象物jの前記色に対応する信頼係数であり、
    φ(.)は活性化関数である、請求項12に記載の方法。
  14. 前記路側感知データを前記車両感知データとマッチングして、マッチング結果を得た後に、当該方法は、
    フレーム間ループバック及び/又はマルチフレーム相関の方法で前記マッチング結果の信頼度を評価して、評価結果を取得するステップと、
    該評価結果に基づいて、前記偏差ネットワークを調整するステップと、をさらに含む、請求項11乃至13のいずれか一項に記載の方法。
  15. 前記フレーム間ループバックは、
    ループバック=T+T+T+T
    であり、
    ここで、Tループバックは前記フレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果であり、前記第1のマッチング結果は、前記路側感知機器がi番目のフレームで検出した前記ターゲット対象物jに対応する路側結果ユニットと、前記車両感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、前記第2のマッチング結果は、前記車両感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する前記車両結果ユニットと、前記車両感知機器が(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、前記第3のマッチング結果は、前記車両感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する前記車両結果ユニットと、前記路側感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、前記第4のマッチング結果は、前記路側感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する前記路側結果ユニットと、前記路側感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する前記路側結果ユニットとの間マッチング結果である、請求項14に記載の方法。
  16. 前記マルチフレーム相関は、
    マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
    として規定され、
    ここで、Tマルチフレームは前記マルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は前記第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は前記第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である、請求項15に記載の方法。
  17. 車両感知データを取得するステップは、
    少なくとも1つの車両装置により送信された前記車両感知データを受信するステップを含み、
    融合式を使用して前記車両感知データ及び前記路側感知データを融合して、第1の融合結果を得た後に、当該方法は、
    前記第1の融合結果をターゲット車両装置に送信するステップをさらに含み、
    該ターゲット車両装置は、前記ターゲット車両装置の車両感知データと前記第1の融合結果とを融合して、第2の融合結果を取得するように構成され、前記ターゲット車両装置は前記少なくとも1つの車両装置に属する、請求項1乃至16のいずれか一項に記載の方法。
  18. データ融合方法であって、当該方法は、
    車両感知データを路側装置に送信するステップであって、前記車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得される、送信するステップと、
    前記路側装置により送信された第1の融合結果を受信するステップであって、該第1の融合結果は、前記路側装置が融合式を使用して少なくとも1つの車両装置により送信された車両感知データと路側感知データとを融合することによって取得され、該路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得される、受信するステップと、
    前記車両感知データと前記第1の融合結果とを融合して、第2の融合結果を取得するステップと、を含む、
    方法。
  19. 第1の取得モジュール、第2の取得モジュール、及び融合モジュールを含む融合機器であって、
    前記第1の取得モジュールは、車両感知データを取得するように構成され、該車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得され、
    前記第2の取得モジュールは、路側感知データを取得するように構成され、該路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得され、
    前記融合モジュールは、融合式を使用して前記車両感知データと前記路側感知データとを融合して、第1の融合結果を取得するように構成される、
    融合機器。
  20. 前記融合式は、
    y=f(result,result
    として表され、
    ここで、resultは路側結果セットであり、該路側結果セットは前記路側感知データを示すために使用され、resultは車両結果セットであり、該車両結果セットは前記車両感知データを示すために使用され、yは第1の融合結果であり、関数fは、前記路側結果セット及び前記車両結果セットに基づいてマッピングすることにより、前記第1の融合結果を取得するために使用される、請求項19に記載の機器。
  21. f(result,result)=(w/(w+w))result+(w/(w+w))result
    であり、
    ここで、wは前記路側感知機器の信頼係数であり、w=(wr1,wr2,...,wrM)であり、result(roadside,roadside,...,roadside)であり、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の数量であり、wriは前記路側感知機器の前記感知範囲内のターゲット対象物iに対応する信頼係数であり、路側は前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する路側結果ユニットであり、iは、自然数であり、且つ0<i≦Mであり、wは前記車両感知機器の信頼係数であり、w=(wv1,wv2,...,wvN)であり、result(vehicle,vehicle,...,vehicle)であり、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の数量であり、wvjは前記車両感知機器の前記感知範囲内のターゲット対象物jに対応する信頼係数であり、車両は前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する車両結果ユニットであり、jは、自然数であり、且つ0<j≦Nである、請求項20に記載の機器。
  22. 前記信頼係数は、感知機器パラメータ、前記ターゲット対象物の感知距離、及び前記ターゲット対象物の感知角度をまとめたものに基づいて決定される、請求項21に記載の機器。
  23. 前記信頼係数wは、
    w=g(S,R,θ),w∈[0,1]
    の式に基づいて得ることができ、
    ここで、Sは前記感知機器パラメータであり、Rは前記ターゲット対象物の前記感知距離であり、θは前記ターゲット対象物の前記感知角度であり、gは感知機器の較正によって得られた較正パラメータテーブルである、請求項22に記載の機器。
  24. 前記車両結果セットは少なくとも1つの車両結果ユニットを含み、該少なくとも1つの車両結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの車両結果ユニット内の各車両結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される、請求項20乃至23のいずれか一項に記載の機器。
  25. 前記少なくとも1つの車両結果ユニット内の任意の車両結果ユニットは、車両(pvj,vvj,svj,cvj)として表され、ここで、pvjは前記車両感知機器が検出した前記ターゲット対象物jの位置を示し、vvjは前記車両感知機器が検出した前記ターゲット対象物jの速度を示し、svjは前記車両感知機器が検出した前記ターゲット対象物jのサイズを示し、cvjは前記車両感知機器が検出した前記ターゲット対象物jの色を示し、Nは前記車両感知機器の前記感知範囲内のターゲット対象物の前記数量であり、jは、自然数であり、且つ0<j≦Nである、請求項24に記載の機器。
  26. 前記路側結果セットは少なくとも1つの路側結果ユニットを含み、該少なくとも1つの路側結果ユニットと少なくとも1つのターゲット対象物との間に1対1の対応関係が存在し、前記少なくとも1つの路側結果ユニット内の各路側結果ユニットは、対応するターゲット対象物の特徴を多次元の角度から記述するために使用される、請求項20乃至25のいずれか一項に記載の機器。
  27. 前記少なくとも1つの路側結果ユニット内の任意の路側結果ユニットは、路側(pvi,vvi,svi,cvi)として表され、ここで、pviは前記路側感知機器が検出した前記ターゲット対象物iの位置を示し、vviは前記路側感知機器が検出した前記ターゲット対象物iの速度を示し、sviは前記路側感知機器が検出した前記ターゲット対象物iのサイズを示し、cviは前記路側感知機器が検出した前記ターゲット対象物iの色を示し、Mは前記路側感知機器の前記感知範囲内のターゲット対象物の前記数量であり、iは、自然数であり、且つ0<i≦Mである、請求項26に記載の機器。
  28. 機器は、マッチングモジュールをさらに含み、該マッチングモジュールは、前記路側感知データを前記車両感知データとマッチングして、マッチング結果を取得するように構成され、前記融合モジュールは、前記マッチング結果に基づいて、前記車両感知データと前記路側感知データとを融合して、前記第1の融合結果を取得するようにさらに構成される、請求項20乃至27のいずれか一項に記載の機器。
  29. 前記マッチングモジュールは、偏差ネットワークを使用して、前記路側結果セット内の路側結果ユニットと前記車両結果セット内の車両結果ユニットとの間のマッチング関係を見出すようにさらに構成される、請求項28に記載の機器。
  30. 前記マッチングモジュールは、以下の式を使用して、前記路側結果セット内の前記路側結果ユニットと前記車両結果セット内の前記車両結果ユニットとの間の前記マッチング関係を見出すようにさらに構成され、
    S=Deviation(路側,車両
    ここで、Sはマッチング結果であり、Deviationは前記偏差ネットワークであり、路側は前記路側感知機器の前記感知範囲内の前記ターゲット対象物iに対応する前記路側結果ユニットであり、車両は前記車両感知機器の前記感知範囲内の前記ターゲット対象物jに対応する前記車両結果ユニットであり、i及びjは共に自然数である、請求項29に記載の機器。
  31. 前記偏差ネットワーク(Deviation)は、図5に示される逆伝播(BP)ニューラルネットワークであり、
    Δpijは位置偏差であり、Δpij=fabs(pri−pvj)であり、priは前記路側感知機器が検出した前記ターゲット対象物iの前記位置であり、pvjは前記車両感知機器が検出した前記ターゲット対象物jの前記位置であり、fabsは絶対値を求めるための関数であり、
    Δvijは速度偏差であり、Δvij=fabs(vri−vvj)であり、vriは前記路側感知機器が検出した前記ターゲット対象物iの前記速度であり、vvjは前記車両感知機器が検出した前記ターゲット対象物jの前記速度であり、
    Δsijはサイズ偏差であり、Δsij=fabs(sri−svj)であり、sriは前記路側感知機器が検出した前記ターゲット対象物iの前記サイズであり、svjは前記車両感知機器が検出した前記ターゲット対象物jの前記サイズであり、
    Δcijは色偏差であり、Δcij=fabs(cri−cvj)であり、criは前記路側感知機器が検出した前記ターゲット対象物iの前記色であり、cvjは前記車両感知機器が検出した前記ターゲット対象物jの前記色であり、
    は位置偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は前記路側感知機器が検出した前記ターゲット対象物iの前記位置に対応する信頼係数であり、wvj は前記車両感知機器が検出した前記ターゲット対象物jの前記位置に対応する信頼係数であり、
    は速度偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は前記路側感知機器が検出した前記ターゲット対象物iの前記速度に対応する信頼係数であり、wvj は前記車両感知機器が検出した前記ターゲット対象物jの前記速度に対応する信頼係数であり、
    はサイズ偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は前記路側感知機器が検出した前記ターゲット対象物iの前記サイズに対応する信頼係数であり、wvj は前記車両感知機器が検出した前記ターゲット対象物jの前記サイズに対応する信頼係数であり、
    は速度偏差係数であり、P=1/(1+exp(−wri vj ))であり、wri は前記路側感知機器が検出した前記ターゲット対象物iの前記色に対応する信頼係数であり、wvj は前記車両感知機器が検出した前記ターゲット対象物jの前記色に対応する信頼係数であり、
    φ(.)は活性化関数である、請求項30に記載の機器。
  32. 当該機器は、評価モジュール及び調整モジュールをさらに含み、
    前記評価モジュールは、フレーム間ループバック及び/又はマルチフレーム相関の方法で前記マッチング結果の信頼度を評価して、評価結果を取得するように構成され、
    前記調整モジュールは、前記評価結果に基づいて、前記偏差ネットワークを調整するように構成される、請求項29乃至31のいずれか一項に記載の機器。
  33. 前記フレーム間ループバックは、
    ループバック=T+T+T+T
    であり、
    ここで、Tループバックは前記フレーム間ループバックであり、Tは第1のマッチング結果であり、Tは第2のマッチング結果であり、Tは第3のマッチング結果であり、Tは第4のマッチング結果であり、前記第1のマッチング結果は、前記路側感知機器がi番目のフレームで検出した前記ターゲット対象物jに対応する路側結果ユニットと、前記車両感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、前記第2のマッチング結果は、前記車両感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する前記車両結果ユニットと、前記車両感知機器が(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する車両結果ユニットとの間のマッチング結果であり、前記第3のマッチング結果は、前記車両感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する前記車両結果ユニットと、前記路側感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する路側結果ユニットとの間のマッチング結果であり、前記第4のマッチング結果は、前記路側感知機器が前記(i+1)番目のフレームで検出した前記ターゲット対象物jに対応する前記路側結果ユニットと、前記路側感知機器が前記i番目のフレームで検出した前記ターゲット対象物jに対応する前記路側結果ユニットとの間のマッチング結果である、請求項32に記載の機器。
  34. 前記マルチフレーム相関は、
    マルチフレーム=Tループバック12+Tループバック23+Tループバック34+・・・
    として規定され、
    ここで、Tマルチフレームは前記マルチフレーム相関であり、Tループバック12は第1のフレームと第2のフレームとの間のフレーム間ループバックであり、Tループバック23は前記第2のフレームと第3のフレームとの間のフレーム間ループバックであり、Tループバック34は前記第3のフレームと第4のフレームとの間のフレーム間ループバックであり、以下同様である、請求項32又は33に記載の機器。
  35. 当該機器は、送信モジュールをさらに含み、
    前記第1の取得モジュールは、少なくとも1つの車両装置により送信された前記車両感知データを受信するように構成され、
    前記送信モジュールは、前記第1の融合結果をターゲット車両装置に送信するように構成され、該ターゲット車両装置は、前記ターゲット車両装置の車両感知データと前記第1の融合結果とを融合して、第2の融合結果を取得するように構成され、前記ターゲット車両装置は前記少なくとも1つの車両装置に属する、請求項19乃至34のいずれか一項に記載の機器。
  36. 送信モジュール、受信モジュール、及び融合モジュールを含む融合機器であって、
    前記送信モジュールは、車両感知データを路側装置に送信するように構成され、前記車両感知データは、車両感知機器が感知範囲内の道路環境を感知することによって取得され、
    前記受信モジュールは、前記路側装置により送信された第1の融合結果を受信するように構成され、該第1の融合結果は、前記路側装置が融合式を使用して少なくとも1つの車両装置により送信された車両感知データと路側感知データとを融合することによって取得され、前記路側感知データは、路側感知機器が感知範囲内の道路環境を感知することによって取得され、
    前記融合モジュールは、前記車両感知データと前記第1の融合結果とを融合して、第2の融合結果を取得するように構成される、
    融合機器。
  37. メモリと、該メモリに結合されたプロセッサ及び通信モジュールとを含む融合機器であって、
    前記通信モジュールは、データを外部に送信する又は該外部から受信するように構成され、前記メモリは、プログラムコードを格納するように構成され、前記プロセッサは、前記メモリに格納された前記プログラムコードを呼び出して、請求項1乃至18のいずれか一項に記載の方法を実行するように構成される、
    融合機器。
  38. 命令を含むコンピュータ可読記憶媒体であって、前記命令が融合機器で実行されると、該融合機器は、請求項1乃至18のいずれか一項に記載の方法を実行することが可能になる、
    コンピュータ可読記憶媒体。
JP2020550669A 2018-03-20 2019-03-19 データ融合方法及び関連装置 Active JP7386173B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810232615.5A CN108762245B (zh) 2018-03-20 2018-03-20 数据融合方法以及相关设备
CN201810232615.5 2018-03-20
PCT/CN2019/078646 WO2019179417A1 (zh) 2018-03-20 2019-03-19 数据融合方法以及相关设备

Publications (2)

Publication Number Publication Date
JP2021516401A true JP2021516401A (ja) 2021-07-01
JP7386173B2 JP7386173B2 (ja) 2023-11-24

Family

ID=63980561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550669A Active JP7386173B2 (ja) 2018-03-20 2019-03-19 データ融合方法及び関連装置

Country Status (5)

Country Link
US (1) US20200409372A1 (ja)
EP (1) EP3754448A4 (ja)
JP (1) JP7386173B2 (ja)
CN (1) CN108762245B (ja)
WO (1) WO2019179417A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108762245B (zh) * 2018-03-20 2022-03-25 华为技术有限公司 数据融合方法以及相关设备
CN109583505A (zh) * 2018-12-05 2019-04-05 百度在线网络技术(北京)有限公司 一种多传感器的物体关联方法、装置、设备及介质
CN112183715A (zh) * 2019-07-03 2021-01-05 本田技研工业株式会社 传感器融合
CN110164157A (zh) * 2019-07-16 2019-08-23 华人运通(上海)新能源驱动技术有限公司 路侧设备、用于路侧设备的方法和车路协同系统
CN110276972A (zh) * 2019-07-16 2019-09-24 启迪云控(北京)科技有限公司 一种基于车联网的目标物感知方法及系统
US11787407B2 (en) * 2019-07-24 2023-10-17 Pony Ai Inc. System and method for sensing vehicles and street
US11867798B2 (en) * 2019-09-13 2024-01-09 Samsung Electronics Co., Ltd. Electronic device including sensor and method of determining path of electronic device
CN111079079B (zh) * 2019-11-29 2023-12-26 北京百度网讯科技有限公司 数据修正方法、装置、电子设备及计算机可读存储介质
CN111209327A (zh) * 2020-01-14 2020-05-29 南京悠淼科技有限公司 一种多传感器分布式感知互联与边缘融合处理系统及方法
CN111583690B (zh) * 2020-04-15 2021-08-20 北京踏歌智行科技有限公司 一种基于5g的矿区无人运输系统的弯道协同感知方法
US20220019225A1 (en) * 2020-07-14 2022-01-20 Argo AI, LLC Smart node for autonomous vehicle perception augmentation
US20220017115A1 (en) * 2020-07-14 2022-01-20 Argo AI, LLC Smart node network for autonomous vehicle perception augmentation
CN114200918A (zh) * 2020-08-31 2022-03-18 罗伯特·博世有限公司 实现自动驾驶的方法、介质、车载计算机及控制系统
CN112085960A (zh) * 2020-09-21 2020-12-15 北京百度网讯科技有限公司 车路协同信息处理方法、装置、设备及自动驾驶车辆
CN112349100B (zh) * 2020-11-09 2021-06-04 紫清智行科技(北京)有限公司 一种基于网联环境的多视角行车风险评估方法及装置
CN114639262B (zh) * 2020-12-15 2024-02-06 北京万集科技股份有限公司 感知设备的状态检测方法、装置、计算机设备和存储介质
CN113012429B (zh) * 2021-02-23 2022-07-15 云控智行(上海)汽车科技有限公司 一种车路多传感器数据融合方法及系统
CN112884892B (zh) * 2021-02-26 2023-05-02 武汉理工大学 基于路侧装置的无人矿车位置信息处理系统和方法
CN112671935A (zh) * 2021-03-17 2021-04-16 中智行科技有限公司 远程控制车辆的方法、路侧设备及云平台
CN113378704B (zh) * 2021-06-09 2022-11-11 武汉理工大学 一种多目标检测方法、设备及存储介质
CN113223297B (zh) * 2021-07-09 2021-10-08 杭州目炬科技有限公司 一种多维度自动车辆识别方法
CN115690119A (zh) * 2021-07-29 2023-02-03 华为技术有限公司 一种数据处理方法及装置
CN113655509B (zh) * 2021-08-13 2023-07-21 中国科学院国家天文台长春人造卫星观测站 一种高重复率卫星激光测距实时控制系统
US11845429B2 (en) * 2021-09-30 2023-12-19 GM Global Technology Operations LLC Localizing and updating a map using interpolated lane edge data
CN114152942B (zh) * 2021-12-08 2022-08-05 北京理工大学 一种毫米波雷达与视觉二阶融合多分类目标检测方法
CN114915940B (zh) * 2022-05-13 2023-07-21 山东高速建设管理集团有限公司 一种车路通信链路匹配方法、系统、设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009436A (ja) * 2008-06-30 2010-01-14 Hitachi Ltd 交通情報システムおよび交通情報処理方法
JP2013182490A (ja) * 2012-03-02 2013-09-12 Sumitomo Electric Ind Ltd 交通情報変換装置、交通情報システム、中央サーバ、サービスサーバ、及び、交通情報提供方法
JP2013214225A (ja) * 2012-04-03 2013-10-17 Sumitomo Electric Ind Ltd 交通情報システム、中央サーバ、サービスサーバ、及び、交通情報提供方法
JP2015081083A (ja) * 2013-10-22 2015-04-27 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 予測的運転者支援システムのための、妥当性規則に基づく信頼度推定
JP2015082324A (ja) * 2013-10-22 2015-04-27 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 予測的運転者支援システムのための複合信頼度推定
CN105741546A (zh) * 2016-03-18 2016-07-06 重庆邮电大学 路侧设备与车传感器融合的智能车辆目标跟踪系统及方法
CN107229690A (zh) * 2017-05-19 2017-10-03 广州中国科学院软件应用技术研究所 基于路侧传感器的高精度动态地图数据处理系统及方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445983B1 (en) * 2000-07-07 2002-09-03 Case Corporation Sensor-fusion navigator for automated guidance of off-road vehicles
JP4229358B2 (ja) * 2001-01-22 2009-02-25 株式会社小松製作所 無人車両の走行制御装置
US7065465B2 (en) * 2002-03-26 2006-06-20 Lockheed Martin Corporation Method and system for multi-sensor data fusion
KR20040091788A (ko) * 2003-04-22 2004-11-02 현대자동차주식회사 고속도로 자율주행 시스템 및 그의 제어방법
US7548184B2 (en) * 2005-06-13 2009-06-16 Raytheon Company Methods and apparatus for processing data from multiple sources
US7460951B2 (en) * 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
CN101231340A (zh) * 2007-12-29 2008-07-30 四川川大智胜软件股份有限公司 多雷达系统航迹融合处理时的误差配准方法
CN101393264B (zh) * 2008-10-12 2011-07-20 北京大学 基于多激光扫描仪的移动目标跟踪方法及系统
CN101807245B (zh) * 2010-03-02 2013-01-02 天津大学 基于人工神经网络的多源步态特征提取与身份识别方法
CN103105611B (zh) * 2013-01-16 2016-01-20 广东工业大学 一种分布式多传感器智能信息融合方法
CN103226708B (zh) * 2013-04-07 2016-06-29 华南理工大学 一种基于Kinect的多模型融合视频人手分割方法
EP3754381A1 (en) * 2013-12-10 2020-12-23 SZ DJI Technology Co., Ltd. Sensor fusion
SG11201607320TA (en) * 2014-03-07 2016-10-28 Capitalogix Llc Systems and methods for allocating capital to trading strategies for big data trading in financial markets
US9563808B2 (en) * 2015-01-14 2017-02-07 GM Global Technology Operations LLC Target grouping techniques for object fusion
CN106503723A (zh) * 2015-09-06 2017-03-15 华为技术有限公司 一种视频分类方法及装置
CN105446338B (zh) * 2015-12-21 2017-04-05 福州华鹰重工机械有限公司 云辅助自动驾驶方法及系统
CN105741545B (zh) * 2016-03-16 2018-07-20 山东大学 一种基于公交车gnss时空轨迹数据判别交通状态的装置及方法
US10571913B2 (en) * 2016-08-05 2020-02-25 Aptiv Technologies Limited Operation-security system for an automated vehicle
CN106447707B (zh) * 2016-09-08 2018-11-16 华中科技大学 一种图像实时配准方法及系统
US10317901B2 (en) * 2016-09-08 2019-06-11 Mentor Graphics Development (Deutschland) Gmbh Low-level sensor fusion
CN107063275B (zh) * 2017-03-24 2020-05-12 重庆邮电大学 基于路侧设备的智能车辆地图融合系统及方法
US10692365B2 (en) * 2017-06-20 2020-06-23 Cavh Llc Intelligent road infrastructure system (IRIS): systems and methods
CN107230113A (zh) * 2017-08-01 2017-10-03 江西理工大学 一种多模型融合的房产评估方法
CN107807633A (zh) * 2017-09-27 2018-03-16 北京图森未来科技有限公司 一种路侧设备、车载设备以及自动驾驶感知方法及系统
US10852426B2 (en) * 2018-01-12 2020-12-01 Tiejun Shan System and method of utilizing a LIDAR digital map to improve automatic driving
EP3750145A4 (en) * 2018-02-06 2022-02-16 Cavh Llc INTELLIGENT ROAD INFRASTRUCTURE SYSTEM (IRIS): SYSTEMS AND PROCEDURES
CN108762245B (zh) * 2018-03-20 2022-03-25 华为技术有限公司 数据融合方法以及相关设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009436A (ja) * 2008-06-30 2010-01-14 Hitachi Ltd 交通情報システムおよび交通情報処理方法
JP2013182490A (ja) * 2012-03-02 2013-09-12 Sumitomo Electric Ind Ltd 交通情報変換装置、交通情報システム、中央サーバ、サービスサーバ、及び、交通情報提供方法
JP2013214225A (ja) * 2012-04-03 2013-10-17 Sumitomo Electric Ind Ltd 交通情報システム、中央サーバ、サービスサーバ、及び、交通情報提供方法
JP2015081083A (ja) * 2013-10-22 2015-04-27 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 予測的運転者支援システムのための、妥当性規則に基づく信頼度推定
JP2015082324A (ja) * 2013-10-22 2015-04-27 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 予測的運転者支援システムのための複合信頼度推定
CN105741546A (zh) * 2016-03-18 2016-07-06 重庆邮电大学 路侧设备与车传感器融合的智能车辆目标跟踪系统及方法
CN107229690A (zh) * 2017-05-19 2017-10-03 广州中国科学院软件应用技术研究所 基于路侧传感器的高精度动态地图数据处理系统及方法

Also Published As

Publication number Publication date
EP3754448A1 (en) 2020-12-23
CN108762245B (zh) 2022-03-25
US20200409372A1 (en) 2020-12-31
WO2019179417A1 (zh) 2019-09-26
JP7386173B2 (ja) 2023-11-24
CN108762245A (zh) 2018-11-06
EP3754448A4 (en) 2021-04-28

Similar Documents

Publication Publication Date Title
JP7386173B2 (ja) データ融合方法及び関連装置
CN110967011B (zh) 一种定位方法、装置、设备及存储介质
US11754721B2 (en) Visualization and semantic monitoring using lidar data
US20200348408A1 (en) Vehicle Positioning Method and Vehicle Positioning Apparatus
CN108419446B (zh) 用于激光深度图取样的系统及方法
WO2020168742A1 (zh) 一种车体定位方法及装置
US11828604B2 (en) Method and apparatus for positioning vehicle, electronic device, and storage medium
EP3077847B1 (en) System and methods for data point detection and spatial modeling
US10254395B2 (en) System and methods for scanning with integrated radar detection and image capture
JP7236565B2 (ja) 位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム
CN108352056A (zh) 用于校正错误深度信息的系统和方法
US11893317B2 (en) Method and apparatus for associating digital content with wireless transmission nodes in a wireless communication area
CN207115193U (zh) 一种用于处理任务区域的任务的移动电子设备
CN108603933B (zh) 用于融合具有不同分辨率的传感器输出的系统和方法
TW202115366A (zh) 機率性多機器人slam的系統及方法
CN109696173A (zh) 一种车体导航方法和装置
JP7166446B2 (ja) ロボットの姿勢を推定するシステムおよび方法、ロボット、並びに記憶媒体
US20210271786A1 (en) Method and apparatus for construction and operation of connected infrastructure
US11561553B1 (en) System and method of providing a multi-modal localization for an object
CN111538009B (zh) 雷达点的标记方法和装置
WO2022083529A1 (zh) 一种数据处理方法及装置
CN113917875A (zh) 一种自主无人系统开放通用智能控制器、方法及存储介质
Byun et al. Data transmission for infrared images via Earphone Jack on smartphone
CN117055016A (zh) 传感器的探测精度测试方法、装置及存储介质
TW202349927A (zh) 移動物體檢測方法、裝置、電子設備及存儲介質

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7386173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150