CN113189581A - 一种毫米波雷达与视觉融合透雾目标识别算法处理方法 - Google Patents

一种毫米波雷达与视觉融合透雾目标识别算法处理方法 Download PDF

Info

Publication number
CN113189581A
CN113189581A CN202110384066.5A CN202110384066A CN113189581A CN 113189581 A CN113189581 A CN 113189581A CN 202110384066 A CN202110384066 A CN 202110384066A CN 113189581 A CN113189581 A CN 113189581A
Authority
CN
China
Prior art keywords
millimeter wave
wave radar
target
fusion
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110384066.5A
Other languages
English (en)
Inventor
毕欣
许志秋
熊璐
杨士超
张博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202110384066.5A priority Critical patent/CN113189581A/zh
Publication of CN113189581A publication Critical patent/CN113189581A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种毫米波雷达与视觉融合透雾目标识别算法处理方法,属于汽车自动化控制技术领域,其算法包括雷达识别层、视觉识别层和信息融合决策层,它们在执行算法处理时,包括权利要求一所述全部步骤;本发明,通过将雨雾天气下能见度低的图片进行图像去雾预处理,并根据毫米波雷达的关键特征信息进行有效目标筛选,其后在运用联合标定方法原理下,使用时间配准与坐标变换实现毫米波雷达与相机的时空信息融合,以获取相应的ROI区域,并通过改进YOLO网络对ROI区域的目标进行结果识别,以提高结果识别的置信度,最终在加权信息决策的算法辅助下,目标识别的准确率和可靠性大大提高。

Description

一种毫米波雷达与视觉融合透雾目标识别算法处理方法
技术领域
本发明属于汽车自动化控制技术领域,具体涉及一种毫米波雷达与视觉融合透雾目标识别算法处理方法。
背景技术
随着国家大力推进人工智能的发展和智能交通行业的快速形成,智能停车、车联网、自动驾驶等领域的快速发展。目标检测技术成为了重要的研究方向。目标检测是自动驾驶领域最重要和基础的研究领域。车辆的自动驾驶离不开对周围障碍物的精确快速检测。在目标检测中车辆依靠传感器获取车辆周围的信息,包括激光雷达,毫米波雷达,超声波雷达,视觉相机等。激光雷达抗干扰能力较强、分辨率高,测距精确度高,但是在雨雾天气下适用性较差,且数据以点云格式输出,计算量较大;毫米波雷达测距精度较低,但是穿透性强,具有全天候、全天时的特点,适用于相对恶劣环境,且数据量小。为了保证车辆安全,精确实现环境感知,需采用多传感器融合技术进行数据冗余处理。
现有的毫米波雷达和视觉融合的目标检测与识别在研究中存在以下问题:1、融合算法不能充分利用毫米波雷达信息。如果仅使用目标的位置信息来定义ROI,则结果可能会覆盖多余的区域;2、目前的融合算法的目标分类器仍采用传统的机器学习算法,识别精度低,识别类型不够全面,无法覆盖各种重要的交通要素;3、融合算法没有充分利用MMW雷达在雨雾天气中的环境适应性,如雨,雾等常见天气条件下的检测和识别算法准确性较为低下。
发明内容
本发明的目的在于提供一种毫米波雷达与视觉融合透雾目标识别算法处理方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种毫米波雷达与视觉融合透雾目标识别算法处理方法,算法包括雷达识别层、视觉识别层和信息融合决策层,它们在执行算法处理时,包括以下步骤:
S1、获取原始输入的视觉图像和毫米波雷达数据;
S2、计算输入视觉图像的平均透射率,对雨雾天气下能见度低的图片进行图像去雾预处理;
S3、雷达识别层根据毫米波雷达的关键特征信息进行有效目标筛选,并将筛选结果送入融合层;
S4、融合层进行坐标变换、时间配准将目标映射至对应图像,得到相应的ROI区域,并送入视觉识别层;
S5、视觉识别层通过改进YOLO网络对ROI区域目标进行识别,将计算得到的目标类别置信度与位置包围框识别结果送入融合层;
S6、融合层考虑亳米波雷达和视觉识别结果进行加权信息决策,得到最终的识别结果。
进一步地,所述S2中对雨雾天气下能见度低的图片的图像去雾预处理采用暗通道先验去雾算法。
进一步地,所述S4中融合层进行坐标变换、时间配准将目标映射至对应图像,得到相应的ROI区域,包括:
利用有效目标在雷达坐标系中的位置信息,通过时间配准和式可以将雷毫米波雷达坐标变换至对应图像中的一点,由于该点与毫米波雷达所测得的目标相对应,该图像点通常落在目标的图像轮廓内部;
以该点为中心选定适当大小的矩形区域作为目标图像ROI区域。
进一步地,所述融合层进行坐标变换、时间配准分别为建立统一的坐标系和时间戳可以让毫米波雷达与视觉信息产生关联,以实现传感器的时空信息融合。
进一步地,所述建立统一的坐标系,包括:
建立毫米波雷达坐标系、相机坐标系和车辆坐标系;
以车辆坐标系作为纽带,将毫米波雷达坐标系下的坐标转换到以相机为中心的世界坐标系中;
将世界坐标系的坐标转换到相机坐标系;
将相机坐标系的坐标转换到视觉图像坐标系。
进一步地,所述目标类别为车辆、非机动车和行人。
进一步地,所述毫米波雷达的关键特征信息包括目标存在概率、位置和速度信息。
进一步地,所述改进YOLO网络对雨雾天气下能见度低图片的去雾前后的网络识别结果选取平均透射率为0.35。
与现有技术相比,本发明的有益效果是:
本发明,通过将雨雾天气下能见度低的图片进行图像去雾预处理,并根据毫米波雷达的关键特征信息进行有效目标筛选,其后在运用联合标定方法原理下,使用时间配准与坐标变换实现毫米波雷达与相机的时空信息融合,以获取相应的ROI区域,并通过改进YOLO网络对ROI区域的目标进行结果识别,以提高结果识别的置信度,最终在加权信息决策的算法辅助下,目标识别的准确率和可靠性大大提高。
附图说明
图1为本发明的算法流程示意图。
图2为本发明的算法结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1-2所示,一种毫米波雷达与视觉融合透雾目标识别算法处理方法,算法包括雷达识别层、视觉识别层和信息融合决策层,它们在执行算法处理时,包括以下步骤:
S1、获取原始输入的视觉图像和毫米波雷达数据;
S2、计算输入视觉图像的平均透射率,对雨雾天气下能见度低的图片进行图像去雾预处理;
在实际应用中,图像受雨雾等常见天气因素干扰识别能力会大幅下降,然而毫米波雷达有很好的雨雾天气环境适应特性;尝试通过结合毫米波雷达天气适应特性和图像去雾预处理的方法解决雨雾天气下道路交通环境目标检测与识别问题;为了不在图像预处理环节引入过大的复杂程度,选取计算效率和处理效果均良好的暗通道先验知识去雾算法。暗通道去雾算法利用绝大多数非天空的局部区域内,总有一些像素在至少一个颜色通道内的值很低这一先验知识,根据大气散射模型对图像进行去雾预处理。
S3、雷达识别层根据毫米波雷达的关键特征信息进行有效目标筛选,并将筛选结果送入融合层;
S4、融合层进行坐标变换、时间配准将目标映射至对应图像,得到相应的ROI区域,并送入视觉识别层;
S5、视觉识别层通过改进YOLO网络对ROI区域目标进行识别,将计算得到的目标类别置信度与位置包围框识别结果送入融合层;
S6、融合层考虑亳米波雷达和视觉识别结果进行加权信息决策,得到最终的识别结果。
其中,所述S2中对雨雾天气下能见度低的图片的图像去雾预处理采用暗通道先验去雾算法。
其中,所述S4中融合层进行坐标变换、时间配准将目标映射至对应图像,得到相应的ROI区域,包括:
利用有效目标在雷达坐标系中的位置信息,通过时间配准和式可以将雷毫米波雷达坐标变换至对应图像中的一点,由于该点与毫米波雷达所测得的目标相对应,该图像点通常落在目标的图像轮廓内部;
以该点为中心选定适当大小的矩形区域作为目标图像ROI区域。
考虑所关注的物体拥有不同的几何特征,且由于透视关系,当目标距离车辆越远时在图像中的尺寸越小。因此赋予所有图像目标统一大小的矩形区域容易造成兴趣区域的信息缺失或冗余。根据目标的截面反射强度和目标宽度区间大致估计目标类别,然后根据目标估计类别定义矩形宽高比为:a=w/h;如当目标估计为汽车时取1、当目标估计为非机动车和行人时取0.25。根据目标与车辆距离xr确定矩形兴趣区域的宽度为:w=p(xr-3)+W3,其中ρ与W3为标定参数,可根据标定物分别距车辆3m和80m时对应像素宽计算得出。坐标变换关系为g,则毫米波雷达所筛选的有效目标A(Xr,Yr)在对应图像的兴趣区域中心为g(xr,Yr),宽高尺寸为(W,W/a)像素。
其中,所述融合层进行坐标变换、时间配准分别为建立统一的坐标系和时间戳可以让毫米波雷达与视觉信息产生关联,以实现传感器的时空信息融合。
例如,毫米波雷达扫描的是安装高度H所在的平面,因此车辆坐标系中一点Pw(Xw,Yw,Zw)与毫米波雷达所测得的相应数据Pr(Xr,Yr)之间的关系可由式子表示:
Figure BDA0003014138180000051
Figure BDA0003014138180000052
只需要知道相机的内外参以及毫米波雷达的外参,即可通过上式将毫米波雷达测得的目标与图像目标相关联,以此实现毫米波雷达与视觉数据的空间融合。
其中,所述建立统一的坐标系,包括:
建立毫米波雷达坐标系、相机坐标系和车辆坐标系;
以车辆坐标系作为纽带,将毫米波雷达坐标系下的坐标转换到以相机为中心的世界坐标系中;
将世界坐标系的坐标转换到相机坐标系;
将相机坐标系的坐标转换到视觉图像坐标系。
其中,所述目标类别为车辆、非机动车和行人。
其中,所述毫米波雷达的关键特征信息包括目标存在概率、位置和速度信息。
其中,所述改进YOLO网络对雨雾天气下能见度低图片的去雾前后的网络识别结果选取平均透射率为0.35。
在实际应用中,图像去雾预处理后要送入改进网络进行分类,图像去雾预处理的性能应通过去雾前后网络的识别能力来评价;通过对不同雾霾浓度图片去雾前后网络识别的结果选取平均透射率为0.35。当雾浓度较低,图像平均透射率t大于0.35时,图像无论去雾与否,识别结果几乎一致;当雾浓度较高,图像平均透射率t小于0.35时,图像去雾后网络识别目标的召回率和准确率明显增加。浓雾条件下对图像去雾处理后,道路中央的摩托车和图像边缘的两辆汽车被检测出来,整体目标包围框也变得更加准确。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (8)

1.一种毫米波雷达与视觉融合透雾目标识别算法处理方法,其特征在于,算法包括雷达识别层、视觉识别层和信息融合决策层,它们在执行算法处理时,包括以下步骤:
S1、获取原始输入的视觉图像和毫米波雷达数据;
S2、计算输入视觉图像的平均透射率,对雨雾天气下能见度低的图片进行图像去雾预处理;
S3、雷达识别层根据毫米波雷达的关键特征信息进行有效目标筛选,并将筛选结果送入融合层;
S4、融合层进行坐标变换、时间配准将目标映射至对应图像,得到相应的ROI区域,并送入视觉识别层;
S5、视觉识别层通过改进YOLO网络对ROI区域目标进行识别,将计算得到的目标类别置信度与位置包围框识别结果送入融合层;
S6、融合层考虑亳米波雷达和视觉识别结果进行加权信息决策,得到最终的识别结果。
2.根据权利要求1所述的一种毫米波雷达与视觉融合透雾目标识别算法处理方法,其特征在于,所述S2中对雨雾天气下能见度低的图片的图像去雾预处理采用暗通道先验去雾算法。
3.根据权利要求1或2所述的一种毫米波雷达与视觉融合透雾目标识别算法处理方法,其特征在于,所述S4中融合层进行坐标变换、时间配准将目标映射至对应图像,得到相应的ROI区域,包括:
利用有效目标在雷达坐标系中的位置信息,通过时间配准和式可以将雷毫米波雷达坐标变换至对应图像中的一点,由于该点与毫米波雷达所测得的目标相对应,该图像点通常落在目标的图像轮廓内部;
以该点为中心选定适当大小的矩形区域作为目标图像ROI区域。
4.根据权利要求1或3所述的一种毫米波雷达与视觉融合透雾目标识别算法处理方法,其特征在于:所述融合层进行坐标变换、时间配准分别为建立统一的坐标系和时间戳可以让毫米波雷达与视觉信息产生关联,以实现传感器的时空信息融合。
5.根据权利要求4所述的一种毫米波雷达与视觉融合透雾目标识别算法处理方法,其特征在于:所述建立统一的坐标系,包括:
建立毫米波雷达坐标系、相机坐标系和车辆坐标系;
以车辆坐标系作为纽带,将毫米波雷达坐标系下的坐标转换到以相机为中心的世界坐标系中;
将世界坐标系的坐标转换到相机坐标系;
将相机坐标系的坐标转换到视觉图像坐标系。
6.根据权利要求1所述的一种毫米波雷达与视觉融合透雾目标识别算法处理方法,其特征在于:所述目标类别为车辆、非机动车和行人。
7.根据权利要求1所述的一种毫米波雷达与视觉融合透雾目标识别算法处理方法,其特征在于:所述毫米波雷达的关键特征信息包括目标存在概率、位置和速度信息。
8.根据权利要求1所述的一种毫米波雷达与视觉融合透雾目标识别算法处理方法,其特征在于:所述改进YOLO网络对雨雾天气下能见度低图片的去雾前后的网络识别结果选取平均透射率为0.35。
CN202110384066.5A 2021-04-09 2021-04-09 一种毫米波雷达与视觉融合透雾目标识别算法处理方法 Pending CN113189581A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110384066.5A CN113189581A (zh) 2021-04-09 2021-04-09 一种毫米波雷达与视觉融合透雾目标识别算法处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110384066.5A CN113189581A (zh) 2021-04-09 2021-04-09 一种毫米波雷达与视觉融合透雾目标识别算法处理方法

Publications (1)

Publication Number Publication Date
CN113189581A true CN113189581A (zh) 2021-07-30

Family

ID=76975490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110384066.5A Pending CN113189581A (zh) 2021-04-09 2021-04-09 一种毫米波雷达与视觉融合透雾目标识别算法处理方法

Country Status (1)

Country Link
CN (1) CN113189581A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113504525A (zh) * 2021-08-16 2021-10-15 中国气象局气象探测中心 一种雾区能见度反演方法及系统
CN114373098A (zh) * 2021-12-31 2022-04-19 腾讯科技(深圳)有限公司 一种图像分类方法、装置、计算机设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8350749B1 (en) * 2009-04-29 2013-01-08 The United States Of America As Represented By The Secretary Of The Air Force Radar signature database validation for automatic target recognition
CN109298415A (zh) * 2018-11-20 2019-02-01 中车株洲电力机车有限公司 一种轨道和道路障碍物检测方法
US20190120955A1 (en) * 2017-10-20 2019-04-25 Texas Instruments Incorporated System and method for camera radar fusion
CN111461088A (zh) * 2020-06-17 2020-07-28 长沙超创电子科技有限公司 一种基于图像处理与目标识别的轨道交通避障系统
CN112215306A (zh) * 2020-11-18 2021-01-12 同济大学 一种基于单目视觉与毫米波雷达融合的目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8350749B1 (en) * 2009-04-29 2013-01-08 The United States Of America As Represented By The Secretary Of The Air Force Radar signature database validation for automatic target recognition
US20190120955A1 (en) * 2017-10-20 2019-04-25 Texas Instruments Incorporated System and method for camera radar fusion
CN109298415A (zh) * 2018-11-20 2019-02-01 中车株洲电力机车有限公司 一种轨道和道路障碍物检测方法
CN111461088A (zh) * 2020-06-17 2020-07-28 长沙超创电子科技有限公司 一种基于图像处理与目标识别的轨道交通避障系统
CN112215306A (zh) * 2020-11-18 2021-01-12 同济大学 一种基于单目视觉与毫米波雷达融合的目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Q. JIANG, L. ZHANG AND D. MENG: "《Target Detection Algorithm Based on MMW Radar and Camera Fusion》", 《2019 IEEE INTELLIGENT TRANSPORTATION SYSTEMS CONFERENCE (ITSC)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113504525A (zh) * 2021-08-16 2021-10-15 中国气象局气象探测中心 一种雾区能见度反演方法及系统
CN113504525B (zh) * 2021-08-16 2024-05-14 中国气象局气象探测中心 一种雾区能见度反演方法及系统
CN114373098A (zh) * 2021-12-31 2022-04-19 腾讯科技(深圳)有限公司 一种图像分类方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN111352112B (zh) 基于视觉、激光雷达和毫米波雷达的目标检测方法
CN108983219B (zh) 一种交通场景的图像信息和雷达信息的融合方法及系统
CN112215306B (zh) 一种基于单目视觉与毫米波雷达融合的目标检测方法
CN111368706B (zh) 基于毫米波雷达和机器视觉的数据融合动态车辆检测方法
CN111369541B (zh) 一种智能汽车恶劣天气条件下车辆检测方法
Hautière et al. Towards fog-free in-vehicle vision systems through contrast restoration
Hautière et al. Mitigation of visibility loss for advanced camera-based driver assistance
CN110738121A (zh) 一种前方车辆检测方法及检测系统
CN111694010A (zh) 一种基于视觉与激光雷达融合的路侧车辆识别方法
CN105512623A (zh) 基于多传感器雾天行车视觉增强与能见度预警系统及方法
CN111461088B (zh) 一种基于图像处理与目标识别的轨道交通避障系统
CN112329623A (zh) 雾天能见度检测与能见度安全等级划分预警方法
CN113189581A (zh) 一种毫米波雷达与视觉融合透雾目标识别算法处理方法
Jiang et al. Target detection algorithm based on MMW radar and camera fusion
CN111179220B (zh) 车道标识线质量检测方法、系统及存储介质
CN114415171A (zh) 一种基于4d毫米波雷达的汽车可行驶区域检测方法
CN115876198A (zh) 基于数据融合的目标检测及预警方法、设备、系统和介质
CN112101316B (zh) 一种目标检测方法及系统
Bi et al. A new method of target detection based on autonomous radar and camera data fusion
CN117452410A (zh) 一种基于毫米波雷达的车辆检测系统
Joy et al. Real time road lane detection using computer vision techniques in python
CN117111055A (zh) 一种基于雷视融合的车辆状态感知方法
CN116486359A (zh) 一种面向全天候的智能车环境感知网络自适应选择方法
CN116413725A (zh) 一种基于摄像头与毫米波雷达数据融合的障碍物检测方法
Hautière et al. Detection of visibility conditions through use of onboard cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210730