CN117940800A - 用于解决雷达网络中的角度多义性的方法 - Google Patents
用于解决雷达网络中的角度多义性的方法 Download PDFInfo
- Publication number
- CN117940800A CN117940800A CN202280061969.2A CN202280061969A CN117940800A CN 117940800 A CN117940800 A CN 117940800A CN 202280061969 A CN202280061969 A CN 202280061969A CN 117940800 A CN117940800 A CN 117940800A
- Authority
- CN
- China
- Prior art keywords
- radar
- trajectories
- tracks
- sensor
- fused
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 230000011218 segmentation Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000001514 detection method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
- G01S13/878—Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明涉及一种用于解决空间非相干的雷达网络(2)中角度多义性的方法。按照本发明,借助于多个雷达传感器(2.1至2.n)检测环境。对于每个雷达传感器(2.1至2.n),单独地且与相应其他雷达传感器(2.1至2.n)无关地在状态空间中创建探测到的对象的轨迹(T1.1至T1.m...Tn.1至Tn.x)。将不同的雷达传感器(2.1至2.n)的轨迹(T1.1至T1.m...Tn.1至Tn.x)在这些轨迹可信地源自同一对象的条件下相互分配。将相互分配的轨迹(T1.1至T1.m...Tn.1至Tn.x)针对不同的变体进行融合以用于解决角度多义性;其中,给所述变体分别分配可信度尺度;且为了解决角度多义性选择具有最大可信度的变体。
Description
技术领域
本发明涉及一种用于解决空间非相干的雷达网络中角度多义性的方法。
背景技术
雷达传感器能实现例如在车辆的自动化、特别是高度自动化或自主行驶运行期间,通过探测静态和运动对象的反向散射来产生环境模型。角度多义性然而可能导致:无法单义地确定信号的入射方向并因此无法单义地确定检测到的对象的位置。
由文献US2019/0187268 A1已知一种用于解决雷达角度多义性的方法和装置。在此从具有多个幅度峰值的空间响应来确定目标的角度位置。在此,为了解决雷达角度多义性,选择一个频率子谱或多个频率子谱,其突出在空间响应中的幅度差或相位差且在宽视野上分析响应的不规则形式,以便确定目标的角度位置。在此,目标的角度位置具有单义的特征(Signatur),雷达系统确定并使用所述特征以用于用于解决雷达角度多义性。雷达的布置在阵列中的天线元件在此具有间距,该间距大于所反射的雷达信号的平均波长的二分之一,该反射的雷达信号用于探测目标。
发明内容
本发明基于的任务在于,提出一种用于解决空间非相干的雷达网络中角度多义性的新型方法。
该任务按照本发明通过具有在权利要求1中提出的特征的方法解决。
本发明有利的设计方案是从属权利要求的技术方案。
在用于解决空间非相干的雷达网络中角度多义性的方法中,按照本发明借助于多个雷达传感器检测环境,其中,对于每个雷达传感器,单独地且与相应其他雷达传感器无关地在状态空间中创建探测到的对象的轨迹。状态空间例如如此构成,使得在该状态空间中不必须解决角度多义性。此外,将不同的雷达传感器的轨迹在这些轨迹可信地源自同一对象的条件下相互分配。将相互分配的轨迹针对不同的变体进行融合以用于解决角度多义性,给所述变体分别分配可信度尺度。为了解决角度多义性,于是选择具有最大可信度的变体。
借助于本方法可以由雷达网络的多个雷达传感器通过可信度测试可靠地解决对象位置的角度多义性。因此可以减少由于角度多义性错误定位的对象(也称为幽灵对象(Geisterobjekte))的数量。这能实现显著改善利用雷达传感器产生的环境模型。在用于车辆的自动化行驶的系统的情景中可以由此显著改善行驶行为。例如可以避免针对实际上在一个位置上并不存在的对象进行制动操作。
相比于现有技术,本方法在此不依赖于频率子谱,从而本方法也可与如下雷达传感器一起使用,所述雷达传感器本身不掌握对角度多义性的解决。
附图说明
在以下根据附图还详细解释本发明的实施例。附图示出:
图1示意地示出用于在空间非相干的雷达网络中解决角度多义性的装置的方框图;
图2示意地示出借助于雷达传感器检测到的轨迹到多个假设导出的笛卡尔轨迹的转变以及多个传感器的假设导出的笛卡尔轨迹的视图和产生的最可信的融合的轨迹的视图;
图3示意地示出多个雷达传感器的临时的关联图;
图4示意地示出在对按照图3的关联图的细化中考虑的分割;
图5示意地示出用于从借助于多个雷达传感器检测到的轨迹产生融合的轨迹的数据结构的视图;
图6示意地示出具有低的可信度的融合的轨迹的视图;以及
图7示意地示出具有高的可信度的融合的轨迹的视图。
彼此对应的部分在所有附图中设有相同附图标记。
具体实施方式
在图1中示出用于解决空间非相干的雷达网络2中角度多义性的装置1的可能实施例的方框图,其中,所述雷达网络包括多个雷达传感器2.1至2.n。
用于车辆应用的雷达传感器2.1至2.n可能被角度多义性影响。这样的雷达传感器2.1至2.n除了正常的测量不确定性之外无法单义地确定目标信号的入射角。亦即,雷达传感器2.1至2.n仅可以判定:任意角度的信号向外到达所述雷达传感器,其中,N是多义的总数。借助于雷达传感器2.1至2.n可能的是,例如基于照明的视野或内部目标跟踪判定:哪个角度多义性是最可能的。为了进一步处理,雷达传感器2.1至2.n可以仅输出该最可能的角度或附加地也有另外的可能的角度。
在多种情况下,最可能的角度测量对应于正确的目标位置。在这样的情况下,忽略雷达测量的多义性的跟踪和融合算法提供好的结果。在雷达传感器2.1至2.n错误地解决角度多义性的情况下,这样的算法可能提供极其错误的结果。特别是这样的算法可能输出幽灵对象,亦即在根本不存在对象的位置上显示所述对象。因为导致雷达传感器2.1至2.n错误地解决角度多义性的的影响可能在长的时段中存在,所以该幽灵对象也可能是长期的。在车辆的自动化、特别是高度自动化或自主行驶运行期间,这样的幽灵对象可能极其影响行驶行为,例如无缘无故地导致紧急制动。
为了避免识别出这样的幽灵对象,可能的是,提高用于基于雷达数据创建对象的阈值。然而,由此导致在雷达传感器2.1至2.n中可靠性的降低并因此导致其可用性的降低。而且由此可能导致另外的问题,例如识别迟缓或者甚至丢失的对象。
因此,即使这些问题仅仅以相对小的频率出现,也不可以忽略跟踪和融合算法的角度多义性。特别是必须在所谓的产生阶段(Spawn-Phase)(亦即在初始化对象的跟踪时)识别和考虑角度多义性,因为一旦创建轨迹,那么另外的多义的测量更新倾向于被如此解决,使得其与角度多义性的之前的解决相一致。此外,需要跟踪的可靠的初始化,以便可以克服紧急情况、例如在行车道中出现行人,该行人较晚进入雷达传感器2.1至2.n的视野中,特别是如果具有雷达传感器2.1至2.n的车辆已经与行人距离很短。紧急情况也可能由于与车辆距离近的在行车道中的障碍物、例如丢失的装载物而产生,该障碍物由于其反向散射特性只有在短距离的情况下才可以被雷达传感器2.1至2.n或其他传感器识别。
为了解决该问题,借助于装置1执行用于解决空间非相干的雷达网络2中角度多义性的方法。
该方法在此构成为用于在产生对象的情况下在雷达测量中处理和求取角度多义性且基于对多个雷达传感器2.1至2.n的使用,这些雷达传感器在重叠和/或相邻的检测区域或视野中检测车辆的环境,这些雷达传感器设置在该车辆(在下文中称为本车辆)上。装置1的结构与如下目标设置有关,即,避免使用完整的“多假设跟踪算法”,该算法更难实现且非常运算密集。
借助于雷达传感器2.1至2.n实现环境检测,其中,借助于传感器跟踪模块2.1.1至2.n.1从借助于雷达传感器2.1至2.n检测到的数据求取探测到的对象的轨迹T1.1至T1.m...Tn.1至Tn.x且将其供给给关联模块3。在此,传感器跟踪模块2.1.1至2.n.1独立地对于每个雷达传感器2.1至2.n创建和管理轨迹T1.1至T1.m...Tn.1至Tn.x。轨迹T1.1至T1.m...Tn.1至Tn.x使用测量参量的状态空间、特别是在图2中进一步示出的探测到的和/或所跟踪的对象到雷达传感器2.1至2.n的距离r,径向速度vrad和方向余弦u。方向余弦u在此表示入射角的根据角的定义的余弦或正弦。由于使用该特殊状态空间,传感器跟踪模块2.1.1至2.n.1不必须解决角度多义性,因为涉及入射角的方向余弦u不影响到雷达传感器2.1至2.n的距离r和在预测步骤中的状态的径向速度vrad。
此外,轨迹T1.1至T1.m...Tn.1至Tn.x通过多传感器跟踪模块的分配子模块4组合为多传感器轨迹组TG1至TGz。
借助于融合模块5从这些多传感器轨迹组TG1至TGz中的每个生成融合的轨迹S1至Sy。
然而,如在图2中进一步示出那样,在将检测到的传感器轨迹T1转换为导出的假设的笛卡尔轨迹T1.1至T1.3时必须考虑角度多义性。
在此在图2的左部分中示出检测到的传感器轨迹T1,其例如按照如下转换为在图2的中间示出的多个假设的导出的笛卡尔轨迹T1.1至T1.3。
un=utr+nΔu (1)
在此utr是在传感器坐标中轨迹的方向余弦u,其中,尚未解决多义性。nΔu是在多义性的可能分辨率之间的间距,且un是第n个可能的分辨率。
每个假设(在此为三个)对应于如下可能性,即,解决角度多义性。
在图2的右部分中示出从多个雷达传感器2.1至2.n检测到的跟踪、假设的导出的笛卡尔轨迹T1.1至T1.3、T2.1至T2.3、T3.1至T3.3以及产生的最可信的融合的轨迹S1。
导出的笛卡尔轨迹T1.1至T1.3位于具有坐标x、y的笛卡尔参考系中,例如所谓的集成的行驶状态坐标系中,也称为集成驾驶状态框架(Integrated Driving StateFrame),简称IDS。导出的笛卡尔轨迹T1.1至T1.3在此仅由位置状态组成。
由于角度多义性存在多个导出的笛卡尔轨迹T1.1至T1.3,其中,该轨迹T1.1至T1.3的数量对应于在角度测量中多义性的数量。因此每个导出的笛卡尔轨迹T1.1至T1.3仅转换为多个假设中的一个假设、比如传感器轨迹T1转换为笛卡尔轨迹T1.1至T1.3。
导出的笛卡尔轨迹T1.1至T1.3的变体是所谓的时间戳调整后的导出的笛卡尔轨迹。“时间戳调整”在此涉及如下事实,即,对于这种类型的轨迹如此预定时间戳,使得该时间戳与传感器跟踪模块2.1.1至2.n.1相一致。
例如,传感器轨迹T1、T2转换为具有共同时间戳的时间戳调整后的导出的笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x,以便能实现这些轨迹T1.1至T1.m...Tn.1至Tn.x的融合。在此tp是具有索引p的轨迹T1.1至T1.m...Tn.1至Tn.x的更新时间,且tl是共同的时间轴的时间戳。随后通过如下确定在tl时轨迹T1、T2的状态:
-将轨迹T1、T2转换为笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x,状态为~xp,k且协方差矩阵为~Pp,k;
-紧接着预测在时间戳tl的状态,以便获得具有协方差矩阵Pp,l的状态xp,l。
轨迹T1.1至T1.m...Tn.1至Tn.x包含指示变量~Dp,如果在时间步骤tk已识别到所跟踪的目标对象,那么该指示变量等于1。否则等于0。对于时间戳调整后的导出的笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x,在时间戳l时将相应的变量Dp设置到发生在之前的时间戳tk的~Dp的值。因此总是示出:在之前的机会中是否已识别到所跟踪的目标对象。
融合的轨迹S1至Sy例如通过从时间戳调整后的导出的笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x的状态计算融合的状态作为加权平均值来形成。亦即,对于具有状态xp和协方差矩阵Pp的时间戳调整后的导出的笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x,融合的轨迹状态为:
在此,Pst是轨迹T1.1至T1.m...Tn.1至Tn.x的数量,其有助于融合的轨迹S1至Sy;且
是在时刻l融合的轨迹S1至Sy的协方差矩阵。
在图3中示出临时的关联图AG的示例。关联图AG的节点是轨迹T1.1至T1.m...Tn.1至Tn.x,且(加权的)连接代表临时的关联。图4示出分割(a)至(d)的示例,其在细化关联图AG时被考虑。分割(a)在此对应于来自临时的关联图AG的最初的临时的关联。在分割(b)、(c)和(d)时移除临时的关联中的一个或两个。
多传感器跟踪模块形成多传感器轨迹组TG1至TGz,其方式为所述多传感器跟踪模块分配借助于雷达传感器2.1至2.n检测到的轨迹T1.1至T1.m...Tn.1至Tn.x,所述检测到的轨迹可能表示相同的目标对象。轨迹T1.1至T1.m...Tn.1至Tn.x在此可以包括仅仅一个雷达传感器2.1至2.n的轨迹T1.1至T1.m...Tn.1至Tn.x,但是也可以包括多个雷达传感器2.1至2.n的轨迹。
分配在此在两个步骤中实现:在第一步骤中,借助于成本矩阵和所谓的Munkres算法在具有重叠的检测区域的相邻雷达传感器2.1至2.n之间分配轨迹T1.1至T1.m...Tn.1至Tn.x。成本矩阵涉及两个轨迹T1.1至T1.m...Tn.1至Tn.x源自同一目标对象的可信度。该第一步骤产生关联图AG,其中,轨迹T1.1至T1.m...Tn.1至Tn.x的节点和(加权的)连接代表临时的关联,如图3示出。
在第二步骤中,移除关联图AG的连接。在用于这样的移除的示例性情况下,轨迹“A”可信地源自与轨迹“B”相同的目标对象,轨迹“B”可信地源自与轨迹“C”相同的目标对象,但是不可信的是,轨迹“A”、“B”和“C”都共同代表同一目标对象。尽管该情况看起来违反直觉,但是该情况可能由于多义的角度测量出现。
具有多个雷达传感器2.1至2.n的轨迹T1.1至T1.m...Tn.1至Tn.x的多传感器轨迹组TG1至TGz提供关于具有多个雷达传感器2.1至2.n的融合的轨迹T1.1至T1.m...Tn.1至Tn.x的假设。由于关于将传感器轨迹T1、T2转换为导出的笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x的假设的组合存在多种假设。例如对于多传感器轨迹组TG1至TGz(其由两个传感器轨迹T1、T2组成)其中,每个传感器轨迹T1、T2包含到导出的笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x的三个假设的转换,总共有3×3=9个假设的融合的轨迹T1.1至T1.m...Tn.1至Tn.x。这在图5中进一步示出。
多传感器轨迹组模块从多个、特别是每个传感器轨迹T1、T2中一个时间戳调整后的导出的笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x形成融合的轨迹S1至Sy,其中,每个融合的轨迹S1至Sy设有标量的可信度值。从其中选择最可信的融合的轨迹Sp。
例如用于将轨迹T1.1至T1.m...Tn.1至Tn.x分配给多传感器轨迹组TG1至TGz的初始步骤促成临时分配的轨迹。在一些情况下,虽然维持临时的关联是合适的,然而在其他情况下可能有意义的是,分开所述关联。从临时关联形成多传感器轨迹组TG1至TGz的任务由启发式分割算法承担:该算法首先找到临时分配的轨迹的所有可能的分割。在此可以将临时关联的轨迹A、B和C分为:
多传感器轨迹组{A、B}和{C};
多传感器轨迹组{A},{B、C};
多传感器轨迹组{A}、{B}和{C};或者
整体的多传感器轨迹组{A、B、C}。
随后,分割算法计算每个分割的可信度,以便选择具有最高可信度的分割。对于给出的分割和该分割的索引为m的每个部段,分割算法重构融合的轨迹S1至Sy,确定其可信度Wmt、长度Lmt,m和平均可信度~Wmt,m=Wmt,m/Lmt,m。所述分割的可信度于是通过如下给出:
在此,M是在所述分割内各部段的总数。最后选择具有最高可信度的分割。
图6示意地示出具有低可信度的融合的轨迹S1的视图。两个最初导出的笛卡尔轨迹T1.1、T1.2具有非常低的一致性。因此,融合的轨迹S1与导出的笛卡尔轨迹T1.1、T1.2不一致,由此算法计算出低的可信度值。
图7中示出具有高可信度的融合的轨迹S1的视图。在此两个最初导出的笛卡尔轨迹T1.1、T1.2具有高的一致性,从而融合的轨迹S1也与导出的笛卡尔轨迹T1.1、T1.2相一致,由此算法计算出高的可信度值。
可信度取决于:每个时间戳调整后的导出的笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x多好地与产生的融合的轨迹S1至Sy相一致。此外基于融合的轨迹S1至Sy和传感器模型确定所跟踪的目标对象本应被参与的(beitragend)雷达传感器2.1至2.n检测到的概率。如果实际上识别或未识别结果很好地与识别概率相一致,那么这促成融合的轨迹S1至Sy的可信度更高。最后在多个假设的轨迹S1至Sy中选择具有最高可信度值的融合的轨迹Sp。通过计算融合的轨迹S1至Sy的不同假设及其可信度顺序来实现解决角度多义性的目标。
融合的轨迹的可信度例如在启发式方法中确定:
-如果时间戳调整后的导出的笛卡尔轨迹T1.1至T1.m...Tn.1至Tn.x在时间上不重叠,那么融合的轨迹S1至Sy具有长度0。因此在该情况下可信度设置为Wmt=0。
-否则,对于每个导出的笛卡尔轨迹p和每个时间戳l计算加权量。对于Dp=0(没有识别)的时间戳,权重wp=1-PD(xl;vp),其中,vp是雷达传感器2.1至2.n的ID,从其中已获得轨迹p,且PD(x;v)是被ID为v的雷达传感器2.1至2.n识别出状态为x的目标对象的概率。对于Dp,l=1的时间戳(识别到目标)按照如下求取权重:
其中,p(x;y,P)是具有平均值y和协方差矩阵P的高斯概率密度函数。此外κ是可配置的参数。
-如果目标对象未被雷达传感器2.1至2.n跟踪,亦即在多传感器轨迹组TG1至TGz中没有该雷达传感器2.1至2.n的轨迹T1.1至T1.m...Tn.1至Tn.x,那么将所有时间索引处理为漏识别的时间索引,且将权重设置为wp,l=1-PD(xl;vp)。在此p是错过的轨迹T1.1至T1.m...Tn.1至Tn.x的索引且vp是雷达传感器2.1至2.n的索引,该雷达传感器已错过轨迹T1.1至T1.m...Tn.1至Tn.x。利用该定义在计算融合的轨迹可信度时可以一致地处理错过的轨迹T1.1至T1.m...Tn.1至Tn.x。
-最后融合的轨迹S1至Sy的可信度为:
其中,Lmt是融合的轨迹S1至Sy的时间步骤的数量,且PSensors是雷达传感器2.1至2.n的数量。该值对应于轨迹T1.1至T1.m...Tn.1至Tn.x和缺失的轨迹T1.1至T1.m...Tn.1至Tn.x的所组合的数量。
上述算法原则上适用于连续的跟踪。然而有意的是,仅仅在短的时间间隔中跟踪数据,以便获得融合的轨迹S1至Sy,其用作用于主跟踪算法的产生候选或轨迹初始化。该使用限制能实现在可信度计算和轨迹融合方面的简化。亦即,不处理如下情况,即,传感器轨迹T1、T2在特定时间间隔内代表同一目标对象且——由于轨迹身份改变——在另一时间间隔内不代表同一目标对象。
附图标记列表
1 装置
2 雷达网络
2.1至2.n 雷达传感器
2.1.1至2.n.1 传感器跟踪模块
3 关联模块
4 分配子模块
5 融合模块
(a)至(d) 分割
AG 关联图
r 距离
S1至Sy 轨迹
Sp 轨迹
T1 传感器轨迹
T2 传感器轨迹
TG1至TGz 多传感器轨迹组
T1.1至T1.m...Tn.1至Tn.x轨迹
u 方向余弦
vrad 径向速度
x 坐标
y 坐标。
Claims (1)
1.用于解决空间非相干的雷达网络(2)中角度多义性的方法,其特征在于,
-借助于多个雷达传感器(2.1至2.n)检测环境;
-对于每个雷达传感器(2.1至2.n),单独地且与相应其他雷达传感器(2.1至2.n)无关地在状态空间中创建探测到的对象的轨迹(T1.1至T1.m...Tn.1至Tn.x);
-将不同的雷达传感器(2.1至2.n)的轨迹(T1.1至T1.m...Tn.1至Tn.x)在这些轨迹可信地源自同一对象的条件下相互分配;
-将相互分配的轨迹(T1.1至T1.m...Tn.1至Tn.x)针对不同的变体进行融合以用于解决角度多义性;
-给所述变体分别分配可信度尺度;且
-为了解决角度多义性选择具有最大可信度的变体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021210143.7 | 2021-09-14 | ||
DE102021210143.7A DE102021210143A1 (de) | 2021-09-14 | 2021-09-14 | Verfahren zur Auflösung von Winkelmehrdeutigkeiten in einem Radarnetzwerk |
PCT/EP2022/073701 WO2023041305A1 (de) | 2021-09-14 | 2022-08-25 | Verfahren zur auflösung von winkelmehrdeutigkeiten in einem radarnetzwerk |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117940800A true CN117940800A (zh) | 2024-04-26 |
Family
ID=83283108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280061969.2A Pending CN117940800A (zh) | 2021-09-14 | 2022-08-25 | 用于解决雷达网络中的角度多义性的方法 |
Country Status (4)
Country | Link |
---|---|
KR (1) | KR20240049643A (zh) |
CN (1) | CN117940800A (zh) |
DE (1) | DE102021210143A1 (zh) |
WO (1) | WO2023041305A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022205584B4 (de) | 2022-06-01 | 2024-02-29 | Mercedes-Benz Group AG | Verfahren zum Unterdrücken von auf Winkelmehrdeutigkeiten beruhenden Fehlortungen eines winkelauflösenden Radarsystems |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5835243B2 (ja) * | 2013-02-07 | 2015-12-24 | 株式会社デンソー | 物標認識装置 |
US10338216B2 (en) * | 2016-11-04 | 2019-07-02 | GM Global Technology Operations LLC | Object detection in multiple radars |
US10935651B2 (en) | 2017-12-15 | 2021-03-02 | Google Llc | Radar angular ambiguity resolution |
CN112014835B (zh) * | 2020-09-01 | 2023-05-26 | 中国电子科技集团公司信息科学研究院 | 分布式稀疏阵列雷达在栅瓣模糊下的目标跟踪方法和装置 |
-
2021
- 2021-09-14 DE DE102021210143.7A patent/DE102021210143A1/de active Pending
-
2022
- 2022-08-25 CN CN202280061969.2A patent/CN117940800A/zh active Pending
- 2022-08-25 KR KR1020247011231A patent/KR20240049643A/ko unknown
- 2022-08-25 WO PCT/EP2022/073701 patent/WO2023041305A1/de active Application Filing
Also Published As
Publication number | Publication date |
---|---|
DE102021210143A1 (de) | 2023-03-16 |
KR20240049643A (ko) | 2024-04-16 |
WO2023041305A1 (de) | 2023-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3196668B1 (en) | Object tracking system with radar/vision fusion for automated vehicles | |
CN109212521B (zh) | 一种基于前视相机与毫米波雷达融合的目标跟踪方法 | |
CN107490794B (zh) | 物体辨识处理装置、物体辨识处理方法及自动驾驶系统 | |
US11215707B2 (en) | Enhanced object detection and motion estimation for a vehicle environment detection system | |
CN112612009B (zh) | 用于车辆的雷达系统的方法和用于车辆中的系统 | |
KR102569900B1 (ko) | 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량 | |
Houenou et al. | A track-to-track association method for automotive perception systems | |
EP3671272A1 (en) | Vehicle sensor fusion based on fuzzy sets | |
EP3499265B1 (en) | Determining object motion and acceleration vector in a vehicle radar system | |
CN112009467B (zh) | 用于自动驾驶系统的冗余环境感知跟踪 | |
KR20190051601A (ko) | 차량의 센서 데이터 연계 장치 및 방법 | |
CN117940800A (zh) | 用于解决雷达网络中的角度多义性的方法 | |
CN110325876B (zh) | 用于车辆雷达系统的逆合成孔径雷达 | |
EP3467545A1 (en) | Object classification | |
CN115856872A (zh) | 一种车辆运动轨迹连续跟踪方法 | |
CN112368593B (zh) | 借助用于机动车的雷达传感器来识别静态雷达目标的方法 | |
CN116263492A (zh) | 用于识别由基于互易性的传感器欺骗产生的幽灵对象的雷达反欺骗系统 | |
CN112639811A (zh) | 用于分析处理具有扩展对象识别的传感器数据的方法 | |
Haberjahn et al. | Multi level fusion of competitive sensors for automotive environment perception | |
CN112255616B (zh) | 一种多雷达的反光柱定位方法及反光柱定位装置 | |
CN111612818A (zh) | 新型双目视觉多目标跟踪方法及系统 | |
Rykunov et al. | Multi-radar fusion for failure-tolerant vulnerable road users classification | |
CN113611112B (zh) | 一种目标关联方法、装置、设备及存储介质 | |
CN113009472A (zh) | 用于至少一个对象的位置确定和/或速度确定的方法和系统 | |
EP4220224A1 (en) | Method and device for detecting and tracking objects and driver assistance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |