CN111352413A - 全向传感器融合系统和方法及包括该融合系统的车辆 - Google Patents

全向传感器融合系统和方法及包括该融合系统的车辆 Download PDF

Info

Publication number
CN111352413A
CN111352413A CN201910682003.0A CN201910682003A CN111352413A CN 111352413 A CN111352413 A CN 111352413A CN 201910682003 A CN201910682003 A CN 201910682003A CN 111352413 A CN111352413 A CN 111352413A
Authority
CN
China
Prior art keywords
tracking
sensor
radar
lateral
sensing area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910682003.0A
Other languages
English (en)
Inventor
李勋
元祥卜
张炯琁
尹潽永
韩瑟气
元智恩
梁旭一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Motors Corp filed Critical Hyundai Motor Co
Publication of CN111352413A publication Critical patent/CN111352413A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0022Gains, weighting coefficients or weighting functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles

Abstract

本公开涉及全向传感器融合系统和方法以及包括该融合系统的车辆。全向传感器融合系统包括:传感器跟踪处理单元,被配置为从一个或多个传感器接收识别信息以产生传感器跟踪;传感器跟踪关联确定单元,被配置为基于所产生的位于一个或多个传感器的感测区域的重叠点处的传感器跟踪确定前一传感器融合跟踪与该传感器跟踪之间的关联,该传感器跟踪关联确定单元还被配置为响应于所确定的关联改变传感器跟踪信息并且输出传感器融合跟踪;传感器融合跟踪追踪单元,被配置为追踪所输出的传感器融合跟踪;以及传感器融合跟踪维护单元,被配置为维护所追踪的传感器融合跟踪。

Description

全向传感器融合系统和方法及包括该融合系统的车辆
技术领域
本公开涉及全向传感器融合系统和方法,并且更具体地,涉及能够相对于边界区域增加全向传感器融合的可靠性的全向传感器融合系统和方法以及包括该全向传感器融合系统的车辆。
背景技术
通常,近来研制的车辆是作为运输工具提高了燃料效率和性能的智能车辆并且能够使用良好发展的信息和通信技术提供进一步改善的安全性和便利。
然而,因为智能车辆配备有执行附加功能的各种装置,诸如,娱乐系统、空气净化装置和各种便利,所以驾驶员频繁操作这些附加装置以及用于驱动的装置导致疏忽驾驶并且增加交通事故。
因此,近年来,已经积极进行对用于防止或避免车辆碰撞的安全系统的研究。
发明内容
因此,本公开针对基本上避免由于相关技术的限制和缺点导致的一个或多个问题的全向传感器融合系统和方法以及包括该全向传感器融合系统的车辆。
本公开的方面提供了全向传感器融合系统和方法,其基于位于传感器的感测区域的重叠点处的传感器跟踪之间的关联产生传感器融合跟踪,从而相对于边界区域增加全向传感器融合的可靠性并且执行坚固的传感器融合逻辑,并且提供了包括该全向传感器融合系统的车辆。
本公开的额外优势和特征将在以下描述中被部分阐述,并且对于本领域中的普通技术人员来说,部分将在下述检验之后变得显而易见或者可以从本公开的实践中了解到。本公开的优势可以根据本公开的一个或多个实施方式及其权利要求以及附图的书面说明中特别指出的结构实现和达到。
根据本公开的一方面,提供了全向传感器融合系统,包括:传感器跟踪处理单元,被配置为从传感器接收多条识别信息以产生传感器跟踪;传感器跟踪关联确定单元,被配置为当产生的传感器跟踪位于传感器的感测区域的重叠点处时确定前一时间点的传感器融合跟踪与当前时间点的传感器跟踪之间的关联,该传感器跟踪关联确定单元响应于所确定的关联改变传感器跟踪信息并且输出传感器融合跟踪;传感器融合跟踪追踪单元,被配置为追踪所输出的传感器融合跟踪;以及传感器融合跟踪维护单元,被配置为维护所追踪的传感器融合跟踪。
根据本公开的一方面,提供了全向传感器融合方法,包括:从传感器接收多条识别信息;基于多条识别信息产生传感器跟踪;确定或确认所产生的传感器跟踪是否位于传感器的感测区域的重叠点处;一旦确定或确认传感器跟踪位于传感器的感测区域的重叠点处,则确定前一时间点的传感器融合跟踪与当前时间点的传感器跟踪之间的关联;响应于所确定的关联改变传感器跟踪信息以输出传感器融合跟踪;并且追踪和维护所输出的传感器融合跟踪。
根据本公开的另一方面,提供了计算机可读记录介质,其中记录了用于实现根据本公开的实施方式的全向传感器融合系统的全向传感器融合方法的程序,该计算机可读记录介质执行由全向传感器融合方法提供的过程。
根据本公开的又一方面,提供了车辆,包括:感测装置,被配置为感测附近车辆;以及全向传感器融合系统,被配置为基于从感测装置接收的多条识别信息输出传感器融合跟踪,该全向传感器融合系统包括:传感器跟踪处理单元,被配置为接收多条识别信息以产生传感器跟踪;传感器跟踪关联确定单元,被配置为当产生的传感器跟踪位于传感器的感测区域的重叠点处时确定前一时间点的传感器融合跟踪与当前时间点的传感器跟踪之间的关联,该传感器跟踪关联确定单元响应于所确定的关联改变传感器跟踪信息并且输出传感器融合跟踪;传感器融合跟踪追踪单元,被配置为追踪所输出的传感器融合跟踪;以及传感器融合跟踪维护单元,被配置为维护所追踪的传感器融合跟踪。
应当理解,本公开的上述一般性描述和以下详细描述都是示例性的和说明性的并且旨在提供对本公开的进一步说明。
附图说明
包括以提供对本公开的进一步理解并且并入本申请中且组成本申请的一部分的附图示出了本公开的实施方式并且连同说明书一起用来解释本公开的原理。在附图中:
图1是示出了根据本公开的实施方式的全向传感器融合系统的框图;
图2至图11是示出了根据本公开的实施方式的全向传感器融合方法的视图;以及
图12是示出了根据本公开的实施方式的全向传感器融合方法的流程图。
具体实施方式
在下文中,将参考附图详细描述本公开的实施方式,使得对于本领域技术人员而言,容易执行实施方式。然而,本公开可以以多种不同的形式体现并且不应被解释为局限于本文中阐述的实施方式。在附图中,为了清晰起见,将省略与本公开的描述不相关的部分。贯穿本说明书,相同的参考标号是指相同的元件。
贯穿本说明书,除非明确描述与此相反,否则词语“包括(include)”以及诸如“包括(includes)”或“包括(including)”的变形将理解为暗示包括所述元件,但并不排除任何其他元件。此外,在说明书中使用的术语“…器(-er)”、“…装置(-or)”和“模块(module)”意指用于处理至少一个功能和操作的单元并且可以通过硬件组件或软件组件及其组合实现。
贯穿本说明书,除非明确描述与此相反,否则词语“包括(include)”以及诸如“包括(includes)”或“包括(including)”的变形将理解为暗示包括所述元件,但并不排除任何其他元件。此外,贯穿本说明书使用的相同的参考标号是指相同的组成元件。
车辆防撞系统可包括自适应巡航控制系统、前向车辆碰撞警告系统、车道偏离警告系统等。这些车辆防撞系统主要用于高速驾驶以防止重大事故,并且在高速驾驶状态下主要使用感测距车辆远距离的障碍物的技术。
为了准确地识别附近车辆,车辆防撞系统通过使从诸如相机、雷达等感测装置接收的多个感测信息相关联产生传感器融合跟踪。
根据常规的传感器融合方法,使用由诸如前视雷达、前视相机和横向雷达的传感器识别到的值而不考虑这些传感器之间的重叠感测区域,导致在执行传感器融合的过程中在横向和纵向位置以及速度中出现误差。
具体地,在执行传感器融合的过程中,可能需要在没有突然变化的情况下输出通过追踪其中视野(FOV)重叠的感测区域内的对象获得的值以便指示该对象的单个ID、位置和速度。
然而,如果使用多个信息执行传感器融合而不考虑FOV重叠的感测区域,则这在融合跟踪输出位置和速度中引起较大误差,这可能不利地影响高级驾驶辅助系统(ADAS)的操作。
例如,当在相邻车道中行驶的车辆超过主车辆并且到达前视雷达的FOV的远端区域时,如果执行传感器融合,则在纵向和横向位置中可能出现较大误差,并且智能巡航控制(SCC)系统可能由于超过主车辆的车辆导致错误地使主车辆减速。
这是因为前视雷达识别对象的侧边并且横向雷达识别对象的后侧的中心。
因此,存在对开发能够相对于边界区域增加全向传感器融合的可靠性且执行坚固的传感器融合逻辑的全向传感器融合系统的开发需求。
在下文中,将参考图1至图12详细描述根据本公开的实施方式的全向传感器融合系统和方法以及包括该全向传感器融合系统的车辆。
图1是示出了根据本公开的实施方式的全向传感器融合系统的框图。
如图1所示,根据本公开的全向传感器融合系统可包括传感器跟踪处理单元110、传感器跟踪关联确定单元120、传感器融合跟踪追踪单元130和传感器融合跟踪维护单元140。
传感器跟踪处理单元110可接收通过传感器识别的多个信息并且可产生传感器跟踪。
在此,当接收通过传感器识别的多个信息时,传感器跟踪处理单元110可接收通过前视相机识别的信息。
当产生的传感器跟踪位于传感器的感测区域重叠的点处时,传感器跟踪关联确定单元120可以确定前一时间点的传感器融合跟踪与当前时间点的传感器跟踪之间的关联,可以响应于所确定的关联改变传感器跟踪信息,并且可以输出传感器融合跟踪。
根据第一实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪从横向雷达的感测区域移动至横向雷达的感测区域与前视雷达的感测区域之间的重叠点,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以通过基于横向雷达跟踪的宽度信息偏移前视雷达跟踪的横向位置信息并且融合偏移的前视雷达跟踪的横向位置信息和横向雷达跟踪的纵向位置信息来改变传感器跟踪信息。
例如,偏移的前视雷达跟踪的横向位置信息可以与横向雷达跟踪的横向位置信息相同。
横向雷达跟踪的宽度信息可以从约1m至约3m的范围,但不局限于此。
当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以确定或确认传感器跟踪信息的变化率是否等于或小于参考值。如果传感器跟踪信息的变化率等于或小于参考值,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,传感器跟踪信息的变化率可包括传感器跟踪信息的位置变化率、速度变化率或加速度变化率中的至少一个,但不局限于此。
根据第二实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪沿横向方向从第一横向雷达感测区域移动至第二横向雷达感测区域,则传感器跟踪关联确定单元120可以产生位于第一横向雷达感测区域与第二横向雷达感测区域之间的盲区点处的传感器跟踪信息。
在此,传感器跟踪关联确定单元120可以基于预存储的记忆跟踪信息产生传感器跟踪信息。
在一些情况下,在第二实施方式中,当改变传感器跟踪信息时,如果该关联使得传感器跟踪沿横向方向从第一横向雷达感测区域移动至第二横向雷达感测区域,则传感器跟踪关联确定单元120可以改变位于第一横向雷达感测区域与第二横向雷达感测区域之间的重叠点处的传感器跟踪信息。
在此,传感器跟踪关联确定单元120可以基于第一横向雷达跟踪信息改变传感器跟踪信息。
根据第三实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪从横向雷达的感测区域移动至横向雷达的感测区域与前视相机的感测区域之间的重叠点,则传感器跟踪关联确定单元120可以改变位于重叠点处的传感器跟踪信息。
在此,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以将加权值分配给前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息中的每一个,并且可以通过融合每个被分配加权值的前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
例如,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以计算前视雷达跟踪的横向位置信息与横向相机跟踪的横向位置信息之间的差值,并且可以确定或确认计算出的差值是否等于或小于参考值。如果计算出的差值等于或小于参考值,传感器跟踪关联确定单元120可以通过将加权值分配给前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息中的每一个来改变传感器跟踪信息。
在此,传感器跟踪关联确定单元120可以使用以下公式:d<a(Vx×0.05)(其中,d表示差值,a表示调整参数,Vx表示横向雷达跟踪的横向速度,并且0.05表示0.05s,其等于50ms)确定或确认计算出的差值是否等于或小于参考值。
根据第四实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪从横向雷达的感测区域与前视相机的感测区域之间的第一重叠点移动至横向雷达的感测区域、前视相机的感测区域和前视雷达的感测区域之间的第二重叠点,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以将加权值分配给前视雷达跟踪的纵向位置信息,并且可以通过融合被分配加权值的前视雷达跟踪的纵向位置信息、前视相机跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
根据第五实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪从横向雷达的感测区域与前视雷达的感测区域之间的第一重叠点移动至横向雷达的感测区域、前视雷达的感测区域和前视相机的感测区域之间的第二重叠点,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以将加权值分配给前视相机跟踪的纵向位置信息,并且可以通过融合被分配加权值的前视相机跟踪的纵向位置信息、前视雷达跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
根据第六实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪从前视雷达的感测区域移动至前视雷达的感测区域与前视相机的感测区域之间的重叠点,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以将加权值分配给前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息中的每一个,并且可以通过融合每个被分配加权值的前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息改变传感器跟踪信息。
根据第七实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪从前视雷达的感测区域移动至前视雷达的感测区域与横向雷达的感测区域之间的重叠点,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以将加权值分配给前视雷达跟踪的纵向位置信息,并且可以通过融合被分配加权值的前视雷达跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
根据第八实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪从前视雷达的感测区域与前视相机的感测区域之间的第一重叠点移动至前视雷达的感测区域、前视相机的感测区域和横向雷达的感测区域之间的第二重叠点,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以将加权值分配给前视雷达跟踪的纵向位置信息,并且可以通过融合被分配加权值的前视雷达跟踪的纵向位置信息、前视相机的纵向位置信息和横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
根据第九实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪从前视雷达的感测区域与横向雷达的感测区域之间的第一重叠点移动至前视雷达的感测区域、横向雷达的感测区域和前视相机的感测区域之间的第二重叠点,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以将加权值分配给前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息中的每一个,并且可以通过融合每个被分配加权值的前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息改变传感器跟踪信息。
根据第十实施方式,当改变传感器跟踪信息时,如果该关联使得传感器跟踪位于后侧区域中的第一横向雷达感测区域与第二横向雷达感测区域之间的重叠点处,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以通过选择第一横向雷达跟踪信息和第二横向雷达跟踪信息中的任一个改变传感器跟踪信息。
根据实施方式,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以通过以1:1的比例融合第一横向雷达跟踪信息和第二横向雷达跟踪信息改变传感器跟踪信息。
可选地,当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以通过选择与横向雷达接近的第一横向雷达跟踪信息和第二横向雷达跟踪信息中的一个来改变传感器跟踪信息。
接下来,传感器融合跟踪追踪单元130可以追踪从传感器跟踪关联确定单元120输出的传感器融合跟踪,并且传感器融合跟踪维护单元140可以维护所追踪的传感器融合跟踪。
因而,该系统可以基于位于传感器的感测区域的重叠点处的传感器跟踪的关联产生传感器融合跟踪,从而增加相对于边界区域的全向传感器融合的可靠性并且实现坚固的传感器融合逻辑。
例如,该系统可以在执行全向传感器融合的过程中通过在视野(FOV)重叠的感测区域中在战略上使用融合方法能够增加识别可靠性并且改善传感器融合的坚固性。
进一步地,该系统可具有一种算法,以便避免由于传感器的安装导致在识别边界区域(传感器重叠区域或单独的传感器区域)中识别到的车辆的位置、速度和加速度信息中的突然变化。
更进一步地,该系统可以相对于单个目标对象产生单个传感器融合跟踪,并且可以执行全向传感器融合使得产生单个ID。
图2至图11是示出了根据本公开的实施方式的全向传感器融合方法的视图。
当产生的传感器跟踪位于传感器的感测区域之间的重叠点处时,该系统可以确定前一时间点的传感器融合跟踪与当前时间点的传感器跟踪之间的关联,可以响应于所确定的关联改变传感器跟踪信息,并且可以输出传感器融合跟踪。
例如,该系统可以确定前一时间点的传感器融合跟踪与使用全向传感器融合算法最新接收到的所测量的跟踪之间的关联,并且可以改变关联图。例如,该系统可以使用无关联的所测量的跟踪产生新的关联图。
如图2所示,如果该关联使得传感器跟踪从横向雷达CR的感测区域移动至横向雷达CR的感测区域与前视雷达FR的感测区域之间的重叠点,则根据第一实施方式的全向传感器融合方法可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,该系统可以通过基于横向雷达跟踪的宽度信息偏移前视雷达跟踪的横向位置信息并且融合偏移的前视雷达跟踪的横向位置信息和横向雷达跟踪的纵向位置信息来改变传感器跟踪信息。
例如,偏移的前视雷达跟踪的横向位置信息可以与横向雷达跟踪的横向位置信息相同。
横向雷达跟踪的宽度信息可以从约1m至约3m的范围,但不限于此。
当改变传感器跟踪信息时,传感器跟踪关联确定单元120可以确定或确认传感器跟踪信息的变化率是否等于或小于参考值。如果传感器跟踪信息的变化率等于或小于参考值,则传感器跟踪关联确定单元120可以改变传感器跟踪信息。
在此,传感器跟踪信息的变化率可包括传感器跟踪信息的位置变化率、速度变化率或加速度变化率中的至少一个,但不局限于此。
例如,在第一实施方式中,如果CR→CR+FR,则当在相邻车道中行驶的车辆超过主车辆并且到达前视雷达FR的视野(FOV)的远端区域时,在执行传感器融合的过程中可能出现纵向和横向位置中的误差。
这是因为前视雷达FR识别对象的侧边并且横向雷达CR识别对象的后侧的中心。
因此,当产生FR跟踪时,利用CR跟踪的宽度信息偏移横向位置而不信赖纵向位置信息,并且可以使用横向雷达的纵向位置信息。
此时,可能需要避免在传感器重叠区域或单独的传感器区域中识别的车辆的位置、速度和加速度信息中的突然变化。
如图3所示,如果该关联使得传感器跟踪沿横向方向从第一横向雷达CR感测区域移动至第二横向雷达CR感测区域,则根据第二实施方式的全向传感器融合方法可以产生位于第一横向雷达感测区域与第二横向雷达感测区域之间的盲区点处的传感器跟踪信息。
在此,根据本公开的实施方式的系统可以基于预存储的记忆跟踪信息产生传感器跟踪信息。
在一些情况下,在第二实施方式中,如果该关联使得传感器跟踪沿横向方向从第一横向雷达感测区域移动至第二横向雷达感测区域,该系统可以改变位于第一横向雷达感测区域与第二横向雷达感测区域之间的重叠点处的传感器跟踪信息。
在此,该系统可以基于第一横向雷达跟踪信息改变传感器跟踪信息。
例如,在第二实施方式中,如果LH CR→RH CR,则通过横向雷达CR没有识别到沿横向方向移动的对象的盲区可以存在于主车辆前方约6m的距离处。
此时,因为相对横向位置接近于0,所以可能发生横向雷达跟踪不存在的情况。
因此,为了解决这个问题,该系统可以使用记忆跟踪处理该情形并且可以使用现有的横向雷达跟踪,因为现有的横向雷达跟踪在交叉部分处更可靠。
在此,卡尔曼滤波器处的记忆跟踪被称为滑行。当测量值不存在时,基于系统模型执行时间更新而不更新测量值。
如图4所示,如果该关联使得传感器跟踪从横向雷达CR的感测区域移动至横向雷达CR的感测区域与前视相机FC的感测区域之间的重叠点,则根据第三实施方式的全向传感器融合方法可以改变位于重叠点处的传感器跟踪信息。
在此,该系统可以将加权值分配给前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息中的每一个,并且可以通过融合每个被分配加权值的前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
例如,该系统可以计算前视雷达跟踪的横向位置信息与横向相机跟踪的横向位置信息之间的差值,并且可以确定或确认计算出的差值是否等于或小于参考值。如果计算出的差值等于或小于参考值,该系统可以通过将加权值分配给前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息中的每一个来改变传感器跟踪信息。
在此,该系统可以使用以下公式:d<a(Vx×0.05)(其中,d表示差值,a表示调整参数,Vx表示横向雷达跟踪的横向速度,并且0.05表示0.05s,其等于50ms)确定或确认计算出的差值是否等于或小于参考值。
例如,在第三实施方式中,如果CR→CR+FC,则横向位置在边界区域处可能不精确。
因此,因为前视相机的横向精度高于横向雷达的横向精度,所以该系统可以通过将加权值分配给横向位置FC且分配给纵向位置CR来执行传感器融合。
然而,如图4所示,如果横向雷达与前视相机之间的横向位置中的差异大,则考虑到相对速度必须调整在可用横向移动范围内改变的横向位置。
如图5所示,如果该关联使得传感器跟踪从横向雷达CR的感测区域与前视相机FC的感测区域之间的第一重叠点移动至横向雷达CR的感测区域、前视相机FC的感测区域和前视雷达FR的感测区域之间的第二重叠点,则根据第四实施方式的全向传感器融合方法可以改变传感器跟踪信息。
在此,当改变传感器跟踪信息时,该系统可以将加权值分配给前视雷达跟踪的纵向位置信息,并且可以通过融合被分配加权值的前视雷达跟踪的纵向位置信息、前视相机跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
例如,在第四实施方式中,如果CR+FC→CR+FC+FR,则横向雷达与前视雷达之间的纵向位置、速度和性能中的差异可能不大。在这种情况下,预期的是估计性能不存在大变化。
然而,当对象进入FR区域时,FR纵向位置比CR纵向位置更可靠,并且因此通过将加权值分配给前视雷达的纵向信息用于传感器融合。
如图6所示,如果该关联使得传感器跟踪从横向雷达CR的感测区域与前视雷达FR的感测区域之间的第一重叠点移动至横向雷达CR的感测区域、前视雷达FR的感测区域和前视相机FC的感测区域之间的第二重叠点,则根据第五实施方式的全向传感器融合方法可以改变传感器跟踪信息。
在此,该系统可以将加权值分配给前视相机跟踪的纵向位置信息,并且可以通过融合被分配加权值的前视相机跟踪的纵向位置信息、前视雷达跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
例如,在第五实施方式中,如果CR+FR→CR+FR+FC,则未被FC识别的对象变得被FC识别。
因此,在被前视相机识别之前,横向位置可能不精确。然而,当对象被前视相机正常识别时,该系统可以通过将加权值分配给前视相机的横向信息来执行传感器融合,从而提高精度。
如图7所示,如果该关联使得传感器跟踪从前视雷达FR的感测区域移动至前视雷达FR的感测区域与前视相机FC的感测区域之间的重叠点,则根据第六实施方式的全向传感器融合方法可以改变传感器跟踪信息。
在此,该系统可以将加权值分配给前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息中的每一个,并且可以通过融合每个被分配加权值的前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息改变传感器跟踪信息。
例如,在第六实施方式中,如果FR→FR+FC,则横向位置在边界区域处可能不精确。
因此,因为前视相机的横向位置信息的精度高,所以该系统可以通过将加权值分配给前视相机的横向位置信息并且将加权值分配给前视雷达的纵向位置信息来执行传感器融合。
如图8所示,如果该关联使得传感器跟踪从前视雷达FR的感测区域移动至前视雷达FR的感测区域与横向雷达CR的感测区域之间的重叠点,则根据第七实施方式的全向传感器融合方法可以改变传感器跟踪信息。
在此,该系统可以将加权值分配给前视雷达跟踪的纵向位置信息,并且可以通过融合被分配加权值的前视雷达跟踪的纵向位置信息、横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
例如,在第七实施方式中,如果FR→FR+CR,则对象可能不被FC识别。
因此,根据本公开的实施方式,如果横向雷达和前视雷达之间的纵向位置、速度和性能的差异不大,则期望的是估计性能不存在大变化。
然而,FR纵向位置比CR纵向位置更可靠,并且因此通过将加权值分配给前视雷达的纵向信息用于传感器融合。
如图9所示,如果该关联使得传感器跟踪从前视雷达FR的感测区域与前视相机FC的感测区域之间的第一重叠点移动至前视雷达FR的感测区域、前视相机FC的感测区域与横向雷达CR的感测区域之间的第二重叠点,则根据第八实施方式的全向传感器融合方法可以改变传感器跟踪信息。
在此,该系统可以将加权值分配给前视雷达跟踪的纵向位置信息,并且可以通过融合被分配加权值的前视雷达跟踪的纵向位置信息、前视相机跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息改变传感器跟踪信息。
例如,在第八实施方式中,如果FR+FC→FR+FC+CR,则横向雷达与前视雷达之间的纵向位置、速度和性能中的差异可能不大。在这种情况下,预期的是估计性能不存在大变化。
然而,FR纵向位置比CR纵向位置更可靠,并且因此通过将加权值分配给前视雷达的纵向信息用于传感器融合。
CR信息用于更新关联图,但是不利用其数据信息。基于前视雷达和前视相机的数据信息执行传感器融合。
如图10所示,如果该关联使得传感器跟踪从前视雷达FR的感测区域与横向雷达CR的感测区域之间的第一重叠点移动至前视雷达FR的感测区域、横向雷达CR的感测区域与前视相机FC的感测区域之间的第二重叠点,则根据第九实施方式的全向传感器融合方法可以改变传感器跟踪信息。
在此,该系统可以将加权值分配给前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息中的每一个,并且可以通过融合每个被分配加权值的前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息改变传感器跟踪信息。
例如,在第九实施方式中,如果FR+CR→FR+CR+FC,则未被FC识别的对象变得被FC识别。
因此,因为前视相机的横向位置信息的精度高于横向雷达的精度,所以该系统可以通过将加权值分配给前视相机的横向位置信息并且将加权值分配给前视雷达的纵向位置信息执行传感器融合。
进一步地,当FC被额外关联时,CR信息用于更新关联图,但是不利用其数据信息。基于前视雷达和前视相机的数据信息执行传感器融合。
如图11所示,如果该关联使得传感器跟踪位于后方区域中的第一横向雷达感测区域与第二横向雷达感测区域之间的重叠点处,则根据第十实施方式的全向传感器融合方法可以改变传感器跟踪信息。
在此,该系统可以通过选定第一横向雷达跟踪信息和第二横向雷达跟踪信息中的任一个改变传感器跟踪信息。
根据实施方式,当改变传感器跟踪信息时,该系统可以通过以1:1的比例融合第一横向雷达跟踪信息和第二横向雷达跟踪信息改变传感器跟踪信息。
可选地,当改变传感器跟踪信息时,该系统可以通过选择与横向雷达接近的第一横向雷达跟踪信息和第二横向雷达跟踪信息中的一个来改变传感器跟踪信息。
例如,在第十实施方式中,如果LH CR+RH CR,则以下方法被需要用于后方区域中的横向雷达跟踪融合。
被需要用于横向雷达跟踪融合的方法可包括选择左侧跟踪和右侧跟踪中的一个的方法、以1:1的比例执行求和运算的方法、以及当偏向左侧或右侧时单独使用对应区域中的传感器跟踪的方法。尽管在本文中一个或多个操作、技术和过程被描述为由一些实施方式中的系统执行,但是一个或多个操作、技术和过程还可以诸如方法、计算机可读存储、装置等其他形式执行。进一步地,在一些实施方式中可以省去由该系统执行的在本文中描述的一个或多个此类操作、技术和过程,并且可以由给定系统执行任何各种此类操作、技术和过程。
图12是示出了根据本公开的实施方式的全向传感器融合方法的流程图。
如图12所示,根据本公开的实施方式的系统可以接收通过一个或多个传感器识别的多个信息。
在此,该系统可以接收通过前视雷达、横向雷达和前视相机识别的信息。
该系统可以基于通过一个或多个传感器识别的多个信息产生传感器跟踪。
随后,该系统可以确定或确认所产生的传感器跟踪是否位于一个或多个传感器的感测区域的重叠点处。
随后,基于位于一个或多个传感器的感测区域的重叠点处的传感器跟踪,该系统可以确定前一时间点的传感器融合跟踪与当前时间点的传感器跟踪之间的关联。
随后,该系统可以响应于所确定的关联改变传感器跟踪信息并且可以输出传感器融合跟踪。
根据第一实施方式,如果该关联使得传感器跟踪从横向雷达的感测区域移动至横向雷达的感测区域与前视雷达的感测区域之间的重叠点,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括基于横向雷达跟踪的宽度信息偏移前视雷达跟踪的横向位置信息,并且融合所偏移的前视雷达跟踪的横向位置信息和横向雷达跟踪的纵向位置信息。
在此,偏移的前视雷达跟踪的横向位置信息可以与横向雷达跟踪的横向位置信息相同。
根据第一实施方式,该系统可以确定或确认传感器跟踪信息的变化率是否等于或小于参考值。如果传感器跟踪信息的变化率等于或小于参考值,则可以改变传感器跟踪信息并且可以输出传感器融合跟踪。
在此,传感器跟踪信息的变化率可包括传感器跟踪信息的位置变化率、速度变化率或加速度变化率中的至少一个。
根据第二实施方式,如果该关联使得传感器跟踪沿横向方向从第一横向雷达感测区域移动至第二横向雷达感测区域,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括产生位于第一横向雷达感测区域与第二横向雷达感测区域之间的盲区点处的传感器跟踪信息。
在此,可以基于预存储记忆跟踪信息执行产生传感器跟踪信息的步骤。
根据第三实施方式,如果该关联使得传感器跟踪沿横向位置从第一横向雷达感测区域移动至第二横向雷达感测区域,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括基于第一横向雷达跟踪信息改变位于第一横向雷达感测区域与第二横向雷达感测区域的重叠点处的传感器跟踪信息。
根据第四实施方式,如果该关联使得传感器跟踪从横向雷达的感测区域移动至横向雷达的感测区域与前视相机的感测区域之间的重叠点,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括将加权值分配给前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息中的每一个,并且融合每个被分配加权值的前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息。
在此,改变传感器跟踪信息的步骤可包括计算前视雷达跟踪的横向位置信息与横向相机跟踪的横向位置信息之间的差值,并且确定或确认计算出的差值是否等于或小于参考值。如果计算出的差值等于或小于参考值,则改变传感器跟踪信息的步骤还可以包括将加权值分配给前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息中的每一个。
此时,可以使用以下公式:d<a(Vx×0.05)(其中,d表示差值,a表示调整参数,Vx表示横向雷达跟踪的横向速度,以及0.05表示0.05s,其等于50ms)执行确定或确认计算出的差值是否等于或小于参考值的步骤。
根据第五实施方式,如果该关联使得传感器跟踪从横向雷达的感测区域与前视相机的感测区域之间的第一重叠点移动至横向雷达的感测区域、前视相机的感测区域与前视雷达的感测区域之间的第二重叠点,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括将加权值分配给前视雷达跟踪的纵向位置信息,并且融合被分配加权值的前视雷达跟踪的纵向位置信息、前视相机跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息。
根据第六实施方式,如果该关联使得传感器跟踪从横向雷达的感测区域与前视雷达的感测区域之间的第一重叠点移动至横向雷达的感测区域、前视雷达的感测区域与前视相机的感测区域之间的第二重叠点,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括将加权值分配给前视相机跟踪的纵向位置信息,并且融合被分配加权值的前视相机跟踪的纵向位置信息、前视雷达跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息。
根据第七实施方式,如果该关联使得传感器跟踪从前视雷达的感测区域移动至前视雷达的感测区域与前视相机的感测区域之间的重叠点,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括将加权值分配给前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息中的每一个,并且融合每个被分配加权值的前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息。
根据第八实施方式,如果该关联使得传感器跟踪从前视雷达的感测区域移动至前视雷达的感测区域与横向雷达的感测区域之间的重叠点,则改变传感器跟踪信息并输出传感器融合跟踪的步骤可包括将加权值分配给前视雷达跟踪的纵向位置信息,并且融合被分配加权值的前视雷达跟踪的纵向位置信息以及横向雷达跟踪的纵向位置信息。
根据第九实施方式,如果该关联使得传感器跟踪从前视雷达的感测区域与前视相机的感测区域之间的第一重叠点移动至前视雷达的感测区域、前视相机的感测区域与横向雷达的感测区域之间的第二重叠点,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括将加权值分配给前视雷达跟踪的纵向位置信息,并且融合被分配加权值的前视雷达跟踪的纵向位置信息、前视相机跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息。
根据第十实施方式,如果该关联使得传感器跟踪从前视雷达的感测区域与横向雷达的感测区域之间的第一重叠点移动至前视雷达的感测区域、横向雷达的感测区域与前视相机的感测区域之间的第二重叠点,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括将加权值分配给前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息中的每一个,并且融合每个被分配加权值的前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息。
在此,如果该关联使得传感器跟踪位于后方区域中的第一横向雷达感测区域与第二横向雷达感测区域之间的重叠点处,则改变传感器跟踪信息和输出传感器融合跟踪的步骤可包括选择第一横向雷达跟踪信息和第二横向雷达跟踪信息中的任一个的第一过程、以1:1的比例融合第一横向雷达跟踪信息和第二横向雷达跟踪信息的第二过程、以及选择接近横向雷达的第一横向雷达跟踪信息和第二横向雷达跟踪信息中的一个的第三过程中的任一个。
在最后一个步骤中,该系统可以追踪和维护输出的传感器融合跟踪。
如从以上描述清晰可见的是,根据如上所述构造的本公开的至少一个实施方式相关的全向传感器融合系统和方法以及包括该全向传感器融合系统的车辆,基于位于传感器的感测区域的重叠点处的传感器跟踪的关联产生传感器融合跟踪,从而相对于边界区域增加全向传感器融合的可靠性并且实现坚固的传感器融合逻辑。
例如,该系统可以在执行全向传感器融合的过程中通过在视野(FOV)重叠的感测区域中在战略上使用融合方法能够增加识别可靠性并且改善传感器融合的坚固性。
进一步地,该系统可具有一种算法,以便避免由于传感器的安装导致在识别边界区域(传感器重叠区域或单独的传感器区域)中识别到的车辆的位置、速度和加速度信息中的突然变化。
更进一步地,该系统可以相对于单个目标对象产生单个传感器融合跟踪,并且可以执行全向传感器融合使得产生单个ID。
此外,提供了计算机可读记录介质,其中,记录用于实现根据本公开的全向传感器融合系统的传感器融合方法的程序,并且计算机可读记录介质可以执行由根据本公开的传感器融合方法提供的过程。
根据本公开的实施方式的车辆可包括用于感测附近车辆的感测装置以及基于从感测装置接收的多条识别信息输出传感器融合跟踪的全向传感器融合系统。全向传感器融合系统可包括:传感器跟踪处理单元,被配置为接收多条识别信息以产生传感器跟踪;传感器跟踪关联确定单元,被配置为当产生的传感器跟踪位于传感器的感测区域的重叠点处时确定上一时间点的传感器融合跟踪与当前时间点的传感器跟踪之间的关联,该传感器跟踪关联确定单元响应于所确定的关联改变传感器跟踪信息并输出传感器融合跟踪;传感器融合跟踪追踪单元,被配置为追踪输出的传感器融合跟踪;以及传感器融合跟踪维护单元,被配置为维护追踪的传感器融合跟踪。
以上描述的本公开的一个或多个实施方式可以实现为其中记录程序的计算机可读介质的计算机可读代码。计算机可读介质包括各种记录装置,其中,存储可以通过计算机系统读取的数据。计算机可读介质的示例可包括硬盘驱动器(HDD)、固态盘(SSD)、硅磁盘驱动器(SDD)、ROM、RAM、CD-ROM、磁带、软盘以及光数据存储装置。此外,计算机可读记录介质包括载波(例如,通过互联网的数据传输)。
本领域技术人员应理解,通过本公开能够实现的效果并不限于上文中具体描述的内容,并且从上述详细描述中可以更清晰地理解本公开的其他效果。
因此,以上详细说明不旨在被解释为在各个方面限制本公开,而是被视为示例的方式。在不偏离应该包括在所附权利要求中的本公开的情况下,应该通过所附权利要求以及做出的所有相等修改的合理解释来确定本公开的范围。

Claims (20)

1.一种全向传感器融合系统,包括:
传感器跟踪处理单元,被配置为从一个或多个传感器接收多条识别信息以产生传感器跟踪;
传感器跟踪关联确定单元,被配置为基于所产生的位于所述一个或多个传感器的感测区域的重叠点处的传感器跟踪来确定前一时间点的前一传感器融合跟踪与当前时间点的所述传感器跟踪之间的关联,所述传感器跟踪关联确定单元还被配置为响应于所确定的关联改变传感器跟踪信息并且输出传感器融合跟踪;
传感器融合跟踪追踪单元,被配置为追踪所输出的传感器融合跟踪;以及
传感器融合跟踪维护单元,被配置为维护所追踪的传感器融合跟踪。
2.根据权利要求1所述的全向传感器融合系统,其中,所述传感器跟踪处理单元还被配置为从前视雷达、横向雷达和前视相机接收所述识别信息。
3.根据权利要求2所述的全向传感器融合系统,其中,所述传感器跟踪关联确定单元还被配置为基于所述关联使得所述传感器跟踪从所述横向雷达的感测区域移动至所述横向雷达的所述感测区域与所述前视雷达的感测区域之间的重叠点,基于横向雷达跟踪的宽度信息偏移前视雷达跟踪的横向位置信息,并且将所述前视雷达跟踪的所偏移的横向位置信息和所述横向雷达跟踪的纵向位置信息融合以改变所述传感器跟踪信息。
4.根据权利要求1所述的全向传感器融合系统,其中,所述传感器跟踪关联确定单元还被配置为基于所述关联使得所述传感器跟踪沿横向方向从第一横向雷达感测区域移动至第二横向雷达感测区域,基于预存储的记忆跟踪信息产生位于所述第一横向雷达感测区域和所述第二横向雷达感测区域之间的盲区点处的传感器跟踪信息。
5.根据权利要求1所述的全向传感器融合系统,其中,所述传感器跟踪关联确定单元还被配置为基于所述关联使得所述传感器跟踪沿横向方向从第一横向雷达感测区域移动至第二横向雷达感测区域,基于第一横向雷达跟踪信息改变位于所述第一横向雷达感测区域和所述第二横向雷达感测区域之间的重叠点处的传感器跟踪信息。
6.根据权利要求1所述的全向传感器融合系统,其中,所述传感器跟踪关联确定单元还被配置为基于所述关联使得所述传感器跟踪从横向雷达的感测区域移动至所述横向雷达的所述感测区域与前视相机的感测区域之间的重叠点,将加权值分配给前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息中的每一个,并且将每个被分配所述加权值的所述前视相机跟踪的所述横向位置信息和所述横向雷达跟踪的所述纵向位置信息融合,以改变所述传感器跟踪信息。
7.根据权利要求1所述的全向传感器融合系统,其中,所述传感器跟踪关联确定单元还被配置为基于所述关联使得所述传感器跟踪从横向雷达的感测区域与前视相机的感测区域之间的第一重叠点移动至所述横向雷达的所述感测区域、所述前视相机的所述感测区域与前视雷达的感测区域之间的第二重叠点,将加权值分配给前视雷达跟踪的纵向位置信息,并且融合被分配所述加权值的所述前视雷达跟踪的所述纵向位置信息、前视相机跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息以改变所述传感器跟踪信息。
8.根据权利要求1所述的全向传感器融合系统,其中,所述传感器跟踪关联确定单元还被配置为基于所述关联使得所述传感器跟踪从横向雷达的感测区域与前视雷达的感测区域之间的第一重叠点移动至所述横向雷达的所述感测区域、所述前视雷达的所述感测区域与前视相机的感测区域之间的第二重叠点,将加权值分配给前视相机跟踪的纵向位置信息,并且融合被分配所述加权值的所述前视相机跟踪的所述纵向位置信息、前视雷达跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息以改变所述传感器跟踪信息。
9.根据权利要求1所述的全向传感器融合系统,其中,所述传感器跟踪关联确定单元还被配置为基于所述关联使得所述传感器跟踪从前视雷达的感测区域移动至所述前视雷达的所述感测区域与前视相机的感测区域之间的重叠点,将加权值分配给前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息中的每一个,并且融合每个被分配所述加权值的所述前视相机跟踪的所述横向位置信息和所述前视雷达跟踪的所述纵向位置信息,以改变所述传感器跟踪信息。
10.根据权利要求1所述的全向传感器融合系统,其中,所述传感器跟踪关联确定单元还被配置为基于所述关联使得所述传感器跟踪从前视雷达的感测区域移动至所述前视雷达的所述感测区域与横向雷达的感测区域之间的重叠点,将加权值分配给前视雷达跟踪的纵向位置信息,并且融合被分配所述加权值的所述前视雷达跟踪的所述纵向位置信息以及横向雷达跟踪的纵向位置信息以改变所述传感器跟踪信息。
11.一种全向传感器融合方法,包括:
从一个或多个传感器接收多条识别信息;
基于多条所述识别信息产生传感器跟踪;
确定所产生的传感器跟踪是否位于所述一个或多个传感器的感测区域的重叠点处;
一旦确定所述传感器跟踪位于所述一个或多个传感器的所述感测区域的所述重叠点处,则确定前一时间点的前一传感器融合跟踪与当前时间点的所述传感器跟踪之间的关联;
响应于所确定的关联改变传感器跟踪信息以输出传感器融合跟踪;并且
追踪和维护所输出的传感器融合跟踪。
12.根据权利要求11所述的全向传感器融合方法,其中,接收多条所述识别信息包括从前视雷达、横向雷达和前视相机接收所述识别信息。
13.根据权利要求12所述的全向传感器融合方法,其中,所述关联使得所述传感器跟踪从所述横向雷达的感测区域移动至所述横向雷达的所述感测区域与所述前视雷达的感测区域之间的重叠点,并且
改变所述传感器跟踪信息以输出传感器融合跟踪包括基于横向雷达跟踪的宽度信息偏移前视雷达跟踪的横向位置信息,并且融合所偏移的所述前视雷达跟踪的横向位置信息和所述横向雷达跟踪的纵向位置信息以改变所述传感器跟踪信息。
14.根据权利要求11所述的全向传感器融合方法,其中,所述关联使得所述传感器跟踪沿横向方向从第一横向雷达感测区域移动至第二横向雷达感测区域,并且
改变所述传感器跟踪信息以输出传感器融合跟踪包括基于预存储的记忆跟踪信息产生位于所述第一横向雷达感测区域与所述第二横向雷达感测区域之间的盲区点处的传感器跟踪信息。
15.根据权利要求11所述的全向传感器融合方法,其中,所述关联使得所述传感器跟踪沿横向方向从第一横向雷达感测区域移动至第二横向雷达感测区域,并且
改变所述传感器跟踪信息以输出传感器融合跟踪包括基于第一横向雷达跟踪信息改变位于所述第一横向雷达感测区域与所述第二横向雷达感测区域之间的重叠点处的传感器跟踪信息。
16.根据权利要求11所述的全向传感器融合方法,其中,所述关联使得所述传感器跟踪从横向雷达的感测区域移动至所述横向雷达的所述感测区域与前视相机的感测区域之间的重叠点,并且
改变所述传感器跟踪信息以输出传感器融合跟踪包括将加权值分配给前视相机跟踪的横向位置信息和横向雷达跟踪的纵向位置信息中的每一个,并且融合每个被分配所述加权值的所述前视相机跟踪的所述横向位置信息和所述横向雷达跟踪的所述纵向位置信息,以改变所述传感器跟踪信息。
17.根据权利要求11所述的全向传感器融合方法,其中,所述关联使得所述传感器跟踪从横向雷达的感测区域与前视相机的感测区域之间的第一重叠点移动至所述横向雷达的所述感测区域、所述前视相机的所述感测区域与前视雷达的感测区域之间的第二重叠点,并且
改变所述传感器跟踪信息以输出传感器融合跟踪包括将加权值分配给前视雷达跟踪的纵向位置信息,并且融合被分配所述加权值的所述前视雷达跟踪的所述纵向位置信息、前视相机跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息以改变所述传感器跟踪信息。
18.根据权利要求11所述的全向传感器融合方法,其中,所述关联使得所述传感器跟踪从横向雷达的感测区域与前视雷达的感测区域之间的第一重叠点移动至所述横向雷达的所述感测区域、所述前视雷达的所述感测区域与前视相机的感测区域之间的第二重叠点,并且
改变所述传感器跟踪信息以输出传感器融合跟踪包括将加权值分配给前视相机跟踪的纵向位置信息,并且融合被分配所述加权值的所述前视相机跟踪的所述纵向位置信息、前视雷达跟踪的纵向位置信息和横向雷达跟踪的纵向位置信息以改变所述传感器跟踪信息。
19.根据权利要求11所述的全向传感器融合方法,其中,所述关联使得所述传感器跟踪从前视雷达的感测区域移动至所述前视雷达的所述感测区域与前视相机的感测区域之间的重叠点,并且
改变所述传感器跟踪信息以输出传感器融合跟踪包括将加权值分配给前视相机跟踪的横向位置信息和前视雷达跟踪的纵向位置信息中的每一个,并且融合每个被分配所述加权值的所述前视相机跟踪的所述横向位置信息和所述前视雷达跟踪的所述纵向位置信息,以改变所述传感器跟踪信息。
20.根据权利要求11所述的全向传感器融合方法,其中,所述关联使得所述传感器跟踪从前视雷达的感测区域移动至所述前视雷达的所述感测区域与横向雷达的感测区域之间的重叠点,并且
改变所述传感器跟踪信息以输出传感器融合跟踪包括将加权值分配给前视雷达跟踪的纵向位置信息,并且融合被分配所述加权值的所述前视雷达跟踪的所述纵向位置信息以及横向雷达跟踪的纵向位置信息以改变所述传感器跟踪信息。
CN201910682003.0A 2018-12-04 2019-07-26 全向传感器融合系统和方法及包括该融合系统的车辆 Pending CN111352413A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0154449 2018-12-04
KR1020180154449A KR102569900B1 (ko) 2018-12-04 2018-12-04 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량

Publications (1)

Publication Number Publication Date
CN111352413A true CN111352413A (zh) 2020-06-30

Family

ID=70849038

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910682003.0A Pending CN111352413A (zh) 2018-12-04 2019-07-26 全向传感器融合系统和方法及包括该融合系统的车辆

Country Status (3)

Country Link
US (1) US11789141B2 (zh)
KR (1) KR102569900B1 (zh)
CN (1) CN111352413A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113276846A (zh) * 2021-05-25 2021-08-20 华域汽车系统股份有限公司 一种后方十字交通报警系统及方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11307301B2 (en) * 2019-02-01 2022-04-19 Richwave Technology Corp. Location detection system
US11435439B2 (en) * 2019-08-19 2022-09-06 Waymo Llc Multibounce target mitigation
KR20220000073A (ko) * 2020-06-25 2022-01-03 현대모비스 주식회사 거리센서를 이용한 장애물 검출 시스템 및 방법
WO2023025777A1 (en) * 2021-08-24 2023-03-02 Provizio Limited Automotive sensor fusion of radar, lidar, camera systems with improved safety by use of machine learning

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020067287A1 (en) * 2000-08-16 2002-06-06 Delcheccolo Michael Joseph Near object detection system
US20050021201A1 (en) * 2001-07-17 2005-01-27 Albrecht Klotz Method and device for data exchange and processing
US20110187536A1 (en) * 2010-02-02 2011-08-04 Michael Blair Hopper Tracking Method and System
US20120083974A1 (en) * 2008-11-07 2012-04-05 Volvo Lastvagnar Ab Method and system for combining sensor data
US20120305747A1 (en) * 2011-06-02 2012-12-06 Atomic Energy Council-Institute Of Nuclear Engergy Research Omnidirectional Sun Position Sensing Device
CN203217375U (zh) * 2013-05-03 2013-09-25 丽水职业技术学院 一种多传感器信息融合的航迹推算定位系统
KR20140054755A (ko) * 2012-10-29 2014-05-09 한국전자통신연구원 환경 정보를 반영하는 센서 융합 시스템 및 그 방법
US20150198711A1 (en) * 2014-01-16 2015-07-16 GM Global Technology Operations LLC Object fusion system of multiple radar imaging sensors
KR20160013736A (ko) * 2014-07-28 2016-02-05 현대모비스 주식회사 자동차의 통합센서 시스템
CN106919896A (zh) * 2015-12-24 2017-07-04 现代自动车株式会社 道路边界检测系统和方法以及使用其的车辆
KR20180010487A (ko) * 2016-07-21 2018-01-31 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7719461B1 (en) * 2008-08-05 2010-05-18 Lockheed Martin Corporation Track fusion by optimal reduced state estimation in multi-sensor environment with limited-bandwidth communication path
KR20170020666A (ko) * 2015-08-13 2017-02-23 (주)캠시스 Avm 시스템 및 사각지대 영상 합성 방법
JP6304272B2 (ja) * 2016-02-04 2018-04-04 トヨタ自動車株式会社 車両用注意喚起装置
US10571562B2 (en) * 2016-03-25 2020-02-25 Magna Electronics Inc. Vehicle short range sensing system using RF sensors
JP6302519B2 (ja) * 2016-09-06 2018-03-28 株式会社Subaru 車両の運転支援装置
JP6743732B2 (ja) * 2017-03-14 2020-08-19 トヨタ自動車株式会社 画像記録システム、画像記録方法、画像記録プログラム
US11067993B2 (en) * 2017-08-25 2021-07-20 Magna Electronics Inc. Vehicle and trailer maneuver assist system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020067287A1 (en) * 2000-08-16 2002-06-06 Delcheccolo Michael Joseph Near object detection system
US20050021201A1 (en) * 2001-07-17 2005-01-27 Albrecht Klotz Method and device for data exchange and processing
US20120083974A1 (en) * 2008-11-07 2012-04-05 Volvo Lastvagnar Ab Method and system for combining sensor data
US20110187536A1 (en) * 2010-02-02 2011-08-04 Michael Blair Hopper Tracking Method and System
US20120305747A1 (en) * 2011-06-02 2012-12-06 Atomic Energy Council-Institute Of Nuclear Engergy Research Omnidirectional Sun Position Sensing Device
KR20140054755A (ko) * 2012-10-29 2014-05-09 한국전자통신연구원 환경 정보를 반영하는 센서 융합 시스템 및 그 방법
CN203217375U (zh) * 2013-05-03 2013-09-25 丽水职业技术学院 一种多传感器信息融合的航迹推算定位系统
US20150198711A1 (en) * 2014-01-16 2015-07-16 GM Global Technology Operations LLC Object fusion system of multiple radar imaging sensors
KR20160013736A (ko) * 2014-07-28 2016-02-05 현대모비스 주식회사 자동차의 통합센서 시스템
CN106919896A (zh) * 2015-12-24 2017-07-04 现代自动车株式会社 道路边界检测系统和方法以及使用其的车辆
KR20180010487A (ko) * 2016-07-21 2018-01-31 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113276846A (zh) * 2021-05-25 2021-08-20 华域汽车系统股份有限公司 一种后方十字交通报警系统及方法

Also Published As

Publication number Publication date
KR20200067506A (ko) 2020-06-12
KR102569900B1 (ko) 2023-08-23
US20200174113A1 (en) 2020-06-04
US11789141B2 (en) 2023-10-17

Similar Documents

Publication Publication Date Title
CN111352413A (zh) 全向传感器融合系统和方法及包括该融合系统的车辆
CN107490794B (zh) 物体辨识处理装置、物体辨识处理方法及自动驾驶系统
JP4343536B2 (ja) 車用の感知装置
EP3086990B1 (en) Method and system for driver assistance for a vehicle
JP4933962B2 (ja) 分岐路進入判定装置
US8401782B2 (en) System and method for assessing vehicle paths in a road environment
US10647316B2 (en) Apparatus and method for deciding a maneuver of a nearby vehicle
US11287524B2 (en) System and method for fusing surrounding V2V signal and sensing signal of ego vehicle
US10493987B2 (en) Target-lane relationship recognition apparatus
KR102569904B1 (ko) 표적 차량 추적 장치 및 그의 표적 차량 추적 방법과 그를 포함하는 차량
US11351997B2 (en) Collision prediction apparatus and collision prediction method
JP6451857B2 (ja) 走行制御装置の制御方法および走行制御装置
US11433897B2 (en) Method and apparatus for determination of optimal cruising lane in an assisted driving system
JP2017146724A (ja) 地図情報出力装置
US7974778B2 (en) Vehicular control object determination system and vehicular travel locus estimation system
KR102592830B1 (ko) 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량
KR20170019794A (ko) 차량 및 그 충돌 회피 방법
US11307292B2 (en) ODM information reliability determination system and method and vehicle using the same
JP6699728B2 (ja) 車間距離推定方法及び車間距離推定装置
CN111959482A (zh) 自主驾驶装置及方法
KR20200133122A (ko) 차량 충돌 방지 장치 및 방법
Polychronopoulos et al. Extended path prediction using camera and map data for lane keeping support
JP5682302B2 (ja) 走行道路推定装置、方法およびプログラム
US20230221432A1 (en) Sensor recognition integration device
CN115195773A (zh) 用于控制车辆驾驶的装置和方法及记录介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination