CN115272810A - 一种基于雷视融合的目标检测方法及系统、设备及介质 - Google Patents

一种基于雷视融合的目标检测方法及系统、设备及介质 Download PDF

Info

Publication number
CN115272810A
CN115272810A CN202210782225.1A CN202210782225A CN115272810A CN 115272810 A CN115272810 A CN 115272810A CN 202210782225 A CN202210782225 A CN 202210782225A CN 115272810 A CN115272810 A CN 115272810A
Authority
CN
China
Prior art keywords
data
radar
target
fusion
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210782225.1A
Other languages
English (en)
Inventor
王建东
毛克靖
赵双睿
张元玉
薛天琳
孙恒
胡涵睿
马志宇
蒋文婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Institute Of Computing Technology Xi'an University Of Electronic Science And Technology
Original Assignee
Qingdao Institute Of Computing Technology Xi'an University Of Electronic Science And Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Institute Of Computing Technology Xi'an University Of Electronic Science And Technology filed Critical Qingdao Institute Of Computing Technology Xi'an University Of Electronic Science And Technology
Priority to CN202210782225.1A priority Critical patent/CN115272810A/zh
Publication of CN115272810A publication Critical patent/CN115272810A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明属于智能识别技术领域,公开了一种基于雷视融合的目标检测方法及系统、设备及介质,所述基于雷视融合的目标检测方法包括结合毫米波雷达与摄像头对边界划定范围进行全天候、全天时的探测入侵目标,并将得到的两类传感器数据根据传输协议上传服务器,依据设计的融合方案对入侵目标进行探测。本发明中融合毫米波雷达与摄像头数据,降低了周界安防检测时对入侵目标的漏检率以及提高了检测时的可靠性,同时提高了在雨天、雪天等特殊环境下的识别能力。本发明通过构建两阶段的融合检测方案,实现了两种数据融合检测周界入侵目标,实时获悉入侵目标速度、距离、类别等信息,有效提升了对目标检测的可靠性。

Description

一种基于雷视融合的目标检测方法及系统、设备及介质
技术领域
本发明属于智能识别技术领域,尤其涉及一种基于雷视融合的目标检测方法及系统、设备及介质。
背景技术
目前,周界安防是技术防范系统的重要组成部分,旨在防止非法的入侵和各种破坏活动,保障防范区域的安全性。传统周界安防采用红外入侵报警技术,其主要采用红外线来探测移动目标,但红外光源存在易扩散、不集中的问题。因此将该传感器作为探测媒介,不论如何改善,都存在着低检测、高误报的问题。如何提高周界安防识别入侵目标准确度、降低漏报以及减少人工成本,成为亟待解决的问题。随着物联网技术的发展,传感器融合技术为周界安防带来了全新视野。传感器融合技术是将多类传感器融合,通过对获得的信息进行优化、整合,进而提高数据的可靠性、冗余性和有效性。通过结合雷达与摄像头两者优势,有效弥补单一传感器存在的不足,能极大程度地提高对入侵目标的检测范围、检测精度以及检测可靠性,为周界安防智能化提供助力。
通过上述分析,现有技术存在的问题及缺陷为:采用单一传感器作为探测媒介,存在着低检测、高误报的问题。
发明内容
针对现有技术存在的问题,本发明提供了一种基于雷视融合的目标检测方法及系统、设备及介质。
本发明是这样实现的,一种基于雷视融合的目标检测方法,所述基于雷视融合的目标检测方法包括:
结合毫米波雷达与摄像头对边界划定范围进行全天候、全天时的探测入侵目标,并将得到的两类传感器数据根据传输协议上传服务器,依据设计的融合方案对入侵目标进行探测。
进一步,所述基于雷视融合的目标检测方法具体过程为:
步骤一,获取雷达、摄像头数据,并进行数据预处理,剔除雷达数据中存在的空目标、虚假目标数据,提高雷达数据的可靠性;
步骤二,时空配准,对提取到两类传感器数据在时间、空间上校准,使得两类检测数据与同一目标关联,以便于后续对雷视觉数据进行融合;
步骤三,数据融合,对经过时空校准后的雷视数据建立各自感兴趣区域,并通过构建融合关联策略对雷视数据进行融合,进而获得更为可靠的融合数据源。
步骤四,细化检测区域,通过构建多滑动窗口方式对已获取的融合感兴趣区域提取运动特征,进一步细化移动目标检测区域,降低对警戒目标的漏检、误检次数。
进一步,所述步骤一中,获取雷达、摄像头数据具体过程为:
将毫米波雷达与摄像头进行联动,在摄像头和雷达监控范围内捕获异常入侵目标,通过锚框的形式跟踪目标,并将入侵目标信息实时传输至前台显示;
当光线较好时,依靠毫米波雷达与摄像头共同捕获移动目标,判定是否入侵特定区域;
当光线较暗、摄像头无法提供可靠信息时,依靠毫米波雷达对移动目标进行检测,并辅以视频截图,将合成的雷视数据上传服务器,完成对入侵目标的检测任务。
进一步,所述步骤一中,数据预处理具体过程为:
雷达目标筛选,依据雷达检测目标特性,将无效数据分为:空目标、静止目标、虚警目标,对无效数据通过阈值设定进行初步雷达数据过滤;
图像数据去噪,通过结合运动视频背景建模与形态学方法,对视频中图像进行去噪,使得对移动入侵目标检测更为准确。
进一步,所述步骤二中,时空配准具体过程为:
雷视时间配准,采用多线程方式对雷达与摄像机数据分别处理,以雷达采样频率为准,触发摄像机采集数据线程,完成雷达与摄像机两类传感器数据的空间配准任务;
雷视空间配准,对两者实际安装位置建立统一坐标系,构建两类数据的转换关系,通过构建两类传感器各自坐标系与世界坐标系之间的关联,完成雷视空间配准任务。
进一步,所述步骤三中,数据融合具体过程为:雷视融合策略,根据毫米波雷达与摄像头生成的感兴趣区域计算两者重叠程度,当重叠程度大于阈值,则生成融合感兴趣区域;当小于阈值,则抛弃数据;
粗颗粒度融合,将得到的雷达数据依据空间配准得到的转换关系转换到图像中,与图像背景进行比对,减少雷达虚警数据,提高雷达数据可靠性。
进一步,所述步骤四中,细化检测区域具体过程为:
构建滑动窗口,将由粗粒度融合得到的检测列表,构建缩放比例0.3、0.5、1以及重合度0.75的滑动窗口;
特征提取,依据构建的滑动窗口提取HOG特征,得到细化检测位置列表;
移动目标检测,将得到的检测位置列表,送入SVM分类器中,经NMS算法消除多余锚框,完成移动目标检测任务。
本发明的另一目的在于提供一种实施所述基于雷视融合的目标检测方法的基于雷视融合的目标检测系统,所述基于雷视融合的目标检测系统包括:
数据采集层,通过毫米波雷达与摄像头进行联动,在摄像头和雷达监控范围内捕获异常入侵目标,通过锚框的形式跟踪目标;
传输协议层,通过HTTP、UDP和TCP进行数据的传输;
业务服务层,对视频和雷达数据进行处理,并进行时空标定和数据融合处理;
展示层,通过显示设备对雷视融合的目标检测数据进行展示。
本发明的另一目的在于提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
步骤一,获取雷达、摄像头数据,并进行数据预处理,剔除空目标、虚假目标数据;
步骤二,时空配准,对提取到两类传感器数据在时间、空间上校准,使得两类检测数据与同一目标关联;
步骤三,数据融合,对经过时空校准后的雷视数据构建融合策略进行关联,并建立各自感兴趣区域完成对雷视数据的融合;
步骤四,细化检测区域,通过构建多滑动窗口方式对已获取的融合感兴趣区域提取运动特征,进一步细化移动目标检测区域,降低对移动目标的漏检。
本发明的另一目的在于提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
步骤一,获取雷达、摄像头数据,并进行数据预处理,剔除空目标、虚假目标数据;
步骤二,时空配准,对提取到两类传感器数据在时间、空间上校准,使得两类检测数据与同一目标关联;
步骤三,数据融合,对经过时空校准后的雷视数据构建融合策略进行关联,并建立各自感兴趣区域完成对雷视数据的融合;
步骤四,细化检测区域,通过构建多滑动窗口方式对已获取的融合感兴趣区域提取运动特征,进一步细化移动目标检测区域,降低对移动目标的漏检。
结合上述的技术方案和解决的技术问题,请从以下几方面分析本发明所要保护的技术方案所具备的优点及积极效果为:
第一、针对上述现有技术存在的技术问题以及解决该问题的难度,紧密结合本发明的所要保护的技术方案以及研发过程中结果和数据等,详细、深刻地分析本发明技术方案如何解决的技术问题,解决问题之后带来的一些具备创造性的技术效果。具体描述如下:
本发明中融合毫米波雷达与摄像头数据,降低了周界安防检测时对入侵目标的漏检率以及提高了检测时的可靠性,同时提高了在雨天、雪天等特殊环境下的识别能力。本发明通过构建两阶段的融合检测方案,实现了两种数据融合检测周界入侵目标,实时获悉入侵目标速度、距离、类别等信息,有效提升了对目标检测的可靠性。本发明通过对入侵目标数据的进一步解析,能够在构建的BIM场景模型及视频画面同步显示,能够让用户更加直观看到入侵目标,大大提升了周界安防的智能性。
第二,把技术方案看做一个整体或者从产品的角度,本发明所要保护的技术方案具备的技术效果和优点,具体描述如下:
本发明结合毫米波雷达与摄像头,能有效解决当前智能安防系统中漏检率高以及鲁棒性差的问题。基于本发明构建的智能安防系统具有低漏检率、可靠性高以及环境适应度优、部署成本低的优点,能够全天时、全天候、低漏检、高可靠地检测道路中运动目标,并且触发报警时能够更为实时、全面地展示警情信息。
第三,作为本发明的权利要求的创造性辅助证据,还体现在以下几个重要方面:
本发明的技术方案填补了国内外业内技术空白:
目前周界安防常用技术主要包括:视频智能分析、雷达技术、热成像技术、振动光纤以及红外对射等,不同的安防技术手段存在各自的优缺点。视频智能分析技术能够检测人体、误报率低,但易受天气、光照等环境因素影响大;雷达技术能够探测运动的物体,相比摄像头能够在较为恶劣的天气下进行运作,但存在高误报问题;热成像技术误报率低、可检测人体,但成本高,无法大规模部署;振动光纤,虽成本低,但与雷达一样具有高误报问题;而红外对射与振动光纤、雷达一样,都具备高误报、低成本的特性。因此针对不同传感器在复杂环境下存在误报、漏报问题,利用传感器技术优势互补成为解决该问题的一大方向。
现有也有将雷达与摄像头结合起来的雷视融合检测技术的设备与应用,如公开号为CN109164443A的专利。CN109164443A的专利公开了一种基于雷达及图像分析的铁路线路异物检测方法,其旨在先利用雷达进行探测目标,进而将处理后的信息送入摄像机处理模块对移动目标进一步处理,但存在着如下问题:1)没有对雷达与视觉数据真正有效融合并利用;2)存在只单方面依靠摄像头进行复核,没有有效的融合策略支撑的前提下,在如雨、雪、雾天等情况下会致使漏报率提升。本发明充分结合雷达与摄像头数据,通过构建雷达与摄像头融合策略,对标定后的雷达与摄像头数据进行有效融合,并对融合数据进步采用滑动窗口与SVM结合的方式构建细颗粒度的分割,降低在复杂环境下的漏检、误检率。
附图说明
图1是本发明实施例提供的基于雷视融合的目标检测方法流程图;
图2是本发明实施例提供的基于雷视融合的目标检测系统结构示意图;
图3是本发明实施例提供的基于雷视融合的目标检测过程示意图;
图4是本发明实施例提供的对雷达数据的预处理流程图;
图5是本发明实施例提供的对视频数据的预处理流程图;
图中:1、数据采集层;2、传输协议层;3、业务服务层;4、展示层。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
一、解释说明实施例。为了使本领域技术人员充分了解本发明如何具体实现,该部分是对权利要求技术方案进行展开说明的解释说明实施例。
如图1所示,本发明实施例提供的基于雷视融合的目标检测方法包括:
S101:获取雷达、摄像头数据,并进行数据预处理,剔除空目标、虚假目标等数据。
S102:时空配准,对提取到两类传感器数据在时间、空间上校准,使得两类检测数据与同一目标关联。
S103:数据融合,对经过时空校准后的雷视数据构建融合策略进行关联,并建立各自感兴趣区域完成对雷视数据的融合。
S104:细化检测区域,通过构建多滑动窗口方式对已获取的融合感兴趣区域提取运动特征,进一步细化移动目标检测区域,降低对移动目标的漏检。
本发明实施例提供的S101中,获取雷达、摄像头数据具体过程为:
将毫米波雷达与摄像头进行联动,在摄像头和雷达监控范围内捕获异常入侵目标,通过锚框的形式跟踪目标,并将入侵目标信息实时传输至前台显示。
当光线较好时,依靠毫米波雷达与摄像头共同捕获移动目标,判定是否入侵特定区域。
当光线较暗、摄像头无法提供可靠信息时,依靠毫米波雷达对移动目标进行检测,并辅以视频截图,将合成的雷视数据上传服务器,完成对入侵目标的检测任务。
本发明实施例提供的S101中,数据预处理具体过程为:
雷达目标筛选,依据雷达检测目标特性,将无效数据分为:空目标、静止目标、虚警目标,对无效数据通过阈值设定进行初步雷达数据过滤。
图像数据去噪,通过结合运动视频背景建模与形态学方法,对视频中图像进行去噪,使得对移动入侵目标检测更为准确。
本发明实施例提供的S102中,时空配准具体过程为:
雷视时间配准,由于毫米波雷达与摄像机两类传感器采样频率不一致,因此采用多线程方式对雷达与摄像机数据分别处理,以雷达采样频率为准,触发摄像机采集数据线程,完成雷达与摄像机两类传感器数据的空间配准任务。
雷视空间配准,由于雷达与摄像机在安装时存在安装位置的不一致,因此需要对两者实际安装位置建立统一坐标系,构建两类数据的转换关系,通过构建两类传感器各自坐标系与世界坐标系之间的关联,完成雷视空间配准任务。
本发明实施例提供的S103中,数据融合具体过程为:
雷视融合策略,根据毫米波雷达与摄像头生成的感兴趣区域计算两者重叠程度,当重叠程度大于阈值,则生成融合感兴趣区域;当小于阈值,则抛弃数据。
粗颗粒度融合,将得到的雷达数据依据空间配准得到的转换关系转换到图像中,与图像背景进行比对,减少雷达虚警数据,提高雷达数据可靠性。
本发明实施例提供的S104中,细化检测区域具体过程为:
构建滑动窗口,将由粗粒度融合得到的检测列表,构建缩放比例0.3、0.5、1以及重合度0.75的滑动窗口。
特征提取,依据构建的滑动窗口提取HOG特征,得到细化检测位置列表。
移动目标检测,将得到的检测位置列表,送入SVM分类器中,经NMS算法消除多余锚框,由此完成移动目标检测任务。
如图2所示,本发明实施例提供的基于雷视融合的目标检测系统包括:
数据采集层1,通过毫米波雷达与摄像头进行联动,在摄像头和雷达监控范围内捕获异常入侵目标,通过锚框的形式跟踪目标。
传输协议层2,通过HTTP、UDP和TCP进行数据的传输。
业务服务层3,对视频和雷达数据进行处理,并进行时空标定和数据融合处理。
展示层4,通过显示设备对雷视融合的目标检测数据进行展示。
下面结合具体实施例对本发明的技术方案作详细的描述。
如图3所示,本发明实施例提供的基于雷视融合的目标检测方法,具体过程为:结合毫米波雷达与摄像头对周界道路实时监控是否有入侵目标,将毫米波雷达与摄像头进行联动检测,对监控范围内采集到的两类数据进行预处理,经过时空对准、融合策略后对探测到移动入侵目标锁定。在光线视野较好的白天,毫米波雷达与摄像头结合共同检测,并将得到的数据进行融合,得到更为准确、更为丰富的检测信息,记录源自两类传感器共同检测信息;在光线视野较差的夜晚,摄像头检测数据可信度降低时,依靠毫米波雷达对周界道路探测是否存在入侵目标,并拍摄该时间点探测到的图像,作为补充数据,同时记录该信息源自毫米波雷达探测获取得到的目标信息。本发明采用的系统架构如图2所示。
将视频数据以及毫米波雷达实时传输至边缘服务器,依据检测算法融合检测入侵目标,算法的具体流程为:
1)数据预处理:对获取到的雷达、摄像头数据进行预处理,剔除空目标、虚假目标等数据。针对雷达数据,首先依据雷达数据解析协议对雷达数据进行解析,得到原始雷达数据后依据设定的空目标、虚警信息以及静止目标阈值过滤部分无效雷达数据;进一步地,将得到的雷达数据映射至图像中,对虚警数据进一步剔除,由此得到预处理后的雷达点云数据。针对视频数据,对视觉数据进行背景建模,判定当前运动背景阈值,将超出阈值的部分位置记录并组合传输。
2)时空配准:对提取到两类传感器数据在时间、空间上校准,使得两类检测数据与同一目标关联。空间配准上,依据雷达与摄像头的安装位置,构建雷达、摄像头与世界之间坐标系关系,完成雷达与摄像头之间的相互转换任务;时间配准上,以雷达采样周期为融合周期,采用多线程技术,以雷达采样驱动视觉数据采样的方式,完成时间配准任务。
3)数据融合:对经过时空校准后的雷视数据构建融合策略进行关联,并建立各自感兴趣区域完成对雷视数据的融合。对采集的雷视数据根据交并比阈值,融合得到更为丰富的入侵目标融合检测数据,融合数据包括目标运动速度、横向距离、纵向距离、目标类型等。通过构建兼顾不同情况的融合策略,完成对数据融合任务,降低漏检率。
4)细化检测区域:通过构建多滑动窗口方式对已获取的融合感兴趣区域提取HOG运动特征,进一步细化移动目标检测区域,提高对移动目标检测精度。
二、应用实施例。为了证明本发明的技术方案的创造性和技术价值,该部分是对权利要求技术方案进行具体产品上或相关技术上的应用实施例。
本发明还提供了一种雷达与摄像头融合的道路监控系统,包括:存储器、处理器以及存储在存储器上运行的计算机程序,处理器器执行计算机程序时实现如上所述的雷视融合的目标检测方法。
本法还提供了一种雷达与摄像头融合的智慧哨兵系统,包括雷视融合模块、报警管理模块、录像/拍照模块、数据处理模块、设备管理模块、人员跟踪模块等。
三、实施例相关效果的证据。本发明实施例在研发或者使用过程中取得了一些积极效果,和现有技术相比的确具备很大的优势,下面内容结合试验过程的数据、图表等进行描述。
本发明在Prescan中构建仿真环境进行验证,在十字路口场景下构建两类道路环境:1)存在大车遮挡;2)只存在轿车。在两类道路环境中各统计500帧数据。在第一类道路环境中,将本发明提出的方法应用到道路环境检测中,检测结果分数为88.01%;在第二类道路环境中,将本发明提出的方法应用到道路环境检测中,总共统计500帧,检测结果分数为86.70%;
应当注意,本发明的实施方式可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的设备和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的设备及其模块可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种基于雷视融合的目标检测方法,其特征在于,所述基于雷视融合的目标检测方法包括:
结合毫米波雷达与摄像头对边界划定范围进行全天候、全天时的探测入侵目标,并将得到的两类传感器数据根据传输协议上传服务器,依据设计的融合方案对入侵目标进行探测。
2.如权利要求1所述基于雷视融合的目标检测方法,其特征在于,所述基于雷视融合的目标检测方法具体过程为:
步骤一,获取雷达、摄像头数据,并进行数据预处理,剔除空目标、虚假目标数据;
步骤二,时空配准,对提取到两类传感器数据在时间、空间上校准,使得两类检测数据与同一目标关联;
步骤三,数据融合,对经过时空校准后的雷视数据构建融合策略进行关联,并建立各自感兴趣区域完成对雷视数据的融合;
步骤四,细化检测区域,通过构建多滑动窗口方式对已获取的融合感兴趣区域提取运动特征,进一步细化移动目标检测区域,降低对移动目标的漏检。
3.如权利要求2所述基于雷视融合的目标检测方法,其特征在于,所述步骤一中,获取雷达、摄像头数据具体过程为:
将毫米波雷达与摄像头进行联动,在摄像头和雷达监控范围内捕获异常入侵目标,通过锚框的形式跟踪目标,并将入侵目标信息实时传输至前台显示;
当光线较好时,依靠毫米波雷达与摄像头共同捕获移动目标,判定是否入侵特定区域;
当光线较暗、摄像头无法提供可靠信息时,依靠毫米波雷达对移动目标进行检测,并辅以视频截图,将合成的雷视数据上传服务器,完成对入侵目标的检测任务。
4.如权利要求2所述基于雷视融合的目标检测方法,其特征在于,所述步骤一中,数据预处理具体过程为:
雷达目标筛选,依据雷达检测目标特性,将无效数据分为:空目标、静止目标、虚警目标,对无效数据通过阈值设定进行初步雷达数据过滤;
图像数据去噪,通过结合运动视频背景建模与形态学方法,对视频中图像进行去噪,使得对移动入侵目标检测更为准确。
5.如权利要求2所述基于雷视融合的目标检测方法,其特征在于,所述步骤二中,时空配准具体过程为:
雷视时间配准,采用多线程方式对雷达与摄像机数据分别处理,以雷达采样频率为准,触发摄像机采集数据线程,完成雷达与摄像机两类传感器数据的空间配准任务;
雷视空间配准,对两者实际安装位置建立统一坐标系,构建两类数据的转换关系,通过构建两类传感器各自坐标系与世界坐标系之间的关联,完成雷视空间配准任务。
6.如权利要求2所述基于雷视融合的目标检测方法,其特征在于,所述步骤三中,数据融合具体过程为:
雷视融合策略,根据毫米波雷达与摄像头生成的感兴趣区域计算两者重叠程度,当重叠程度大于阈值,则生成融合感兴趣区域;当小于阈值,则抛弃数据;
粗颗粒度融合,将得到的雷达数据依据空间配准得到的转换关系转换到图像中,与图像背景进行比对,减少雷达虚警数据,提高雷达数据可靠性。
7.如权利要求2所述基于雷视融合的目标检测方法,其特征在于,所述步骤四中,细化检测区域具体过程为:
构建滑动窗口,将由粗粒度融合得到的检测列表,构建缩放比例0.3、0.5、1以及重合度0.75的滑动窗口;
特征提取,依据构建的滑动窗口提取HOG特征,得到细化检测位置列表;
移动目标检测,将得到的检测位置列表,送入SVM分类器中,经NMS算法消除多余锚框,完成移动目标检测任务。
8.一种实施如权利要求1~7任意一项所述基于雷视融合的目标检测方法的基于雷视融合的目标检测系统,其特征在于,所述基于雷视融合的目标检测系统包括:
数据采集层,通过毫米波雷达与摄像头进行联动,在摄像头和雷达监控范围内捕获异常入侵目标,通过锚框的形式跟踪目标;
传输协议层,通过HTTP、UDP和TCP进行数据的传输;
业务服务层,对视频和雷达数据进行处理,并进行时空标定和数据融合处理;
展示层,通过显示设备对雷视融合的目标检测数据进行展示。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
步骤一,获取雷达、摄像头数据,并进行数据预处理,剔除空目标、虚假目标数据;
步骤二,时空配准,对提取到两类传感器数据在时间、空间上校准,使得两类检测数据与同一目标关联;
步骤三,数据融合,对经过时空校准后的雷视数据构建融合策略进行关联,并建立各自感兴趣区域完成对雷视数据的融合;
步骤四,细化检测区域,通过构建多滑动窗口方式对已获取的融合感兴趣区域提取运动特征,进一步细化移动目标检测区域,降低对移动目标的漏检。
10.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
步骤一,获取雷达、摄像头数据,并进行数据预处理,剔除空目标、虚假目标数据;
步骤二,时空配准,对提取到两类传感器数据在时间、空间上校准,使得两类检测数据与同一目标关联;
步骤三,数据融合,对经过时空校准后的雷视数据构建融合策略进行关联,并建立各自感兴趣区域完成对雷视数据的融合;
步骤四,细化检测区域,通过构建多滑动窗口方式对已获取的融合感兴趣区域提取运动特征,进一步细化移动目标检测区域,降低对移动目标的漏检。
CN202210782225.1A 2022-07-05 2022-07-05 一种基于雷视融合的目标检测方法及系统、设备及介质 Pending CN115272810A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210782225.1A CN115272810A (zh) 2022-07-05 2022-07-05 一种基于雷视融合的目标检测方法及系统、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210782225.1A CN115272810A (zh) 2022-07-05 2022-07-05 一种基于雷视融合的目标检测方法及系统、设备及介质

Publications (1)

Publication Number Publication Date
CN115272810A true CN115272810A (zh) 2022-11-01

Family

ID=83762463

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210782225.1A Pending CN115272810A (zh) 2022-07-05 2022-07-05 一种基于雷视融合的目标检测方法及系统、设备及介质

Country Status (1)

Country Link
CN (1) CN115272810A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116106895A (zh) * 2023-02-21 2023-05-12 郑州大学 基于视觉与无线感知融合的多点微动智能监测系统与方法
CN116755081A (zh) * 2023-05-25 2023-09-15 东风柳州汽车有限公司 视觉与雷达融合的目标检测技术
CN117310691A (zh) * 2023-11-30 2023-12-29 浙江宇视科技有限公司 多模态雷达目标定位方法、装置、电子设备以及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116106895A (zh) * 2023-02-21 2023-05-12 郑州大学 基于视觉与无线感知融合的多点微动智能监测系统与方法
CN116106895B (zh) * 2023-02-21 2024-01-26 郑州大学 基于视觉与无线感知融合的多点微动智能监测系统与方法
CN116755081A (zh) * 2023-05-25 2023-09-15 东风柳州汽车有限公司 视觉与雷达融合的目标检测技术
CN117310691A (zh) * 2023-11-30 2023-12-29 浙江宇视科技有限公司 多模态雷达目标定位方法、装置、电子设备以及存储介质
CN117310691B (zh) * 2023-11-30 2024-02-13 浙江宇视科技有限公司 多模态雷达目标定位方法、装置、电子设备以及存储介质

Similar Documents

Publication Publication Date Title
CN115272810A (zh) 一种基于雷视融合的目标检测方法及系统、设备及介质
US10210397B2 (en) System and method for detecting, tracking, and classifiying objects
CN112800860B (zh) 一种事件相机和视觉相机协同的高速抛撒物检测方法和系统
WO2018006659A1 (zh) 一种航道监控目标获取方法及装置
CN112084892B (zh) 一种道路异常事件检测管理装置及其方法
Sharma Human detection and tracking using background subtraction in visual surveillance
Qu et al. Improving maritime traffic surveillance in inland waterways using the robust fusion of AIS and visual data
CN115083088A (zh) 铁路周界入侵预警方法
CN111967396A (zh) 障碍物检测的处理方法、装置、设备及存储介质
Davies et al. A progress review of intelligent CCTV surveillance systems
Pucher et al. Multimodal highway monitoring for robust incident detection
CN114332732A (zh) 一种基于雷视融合的铁路危情监测方法
JP4025007B2 (ja) 踏切障害物検知装置
Iszaidy et al. Video size comparison for embedded vehicle speed detection & travel time estimation system by using Raspberry Pi
KR102434154B1 (ko) 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법
CN116630866B (zh) 音视频雷达融合的异常事件监控方法、装置、设备及介质
CN116935551A (zh) 周界入侵检测方法、系统、设备及存储介质
US11288519B2 (en) Object counting and classification for image processing
Ao et al. Detecting tiny moving vehicles in satellite videos
Alhuthali et al. A simplified traffic flow monitoring system using computer vision techniques
CN114219825A (zh) 一种多个光电分布式部署下目标接力跟踪方法及系统
Glasl et al. Video based traffic congestion prediction on an embedded system
CN115620244A (zh) 基于车路协同的图像检测方法、装置、设备及存储介质
CN116461571B (zh) 基于视觉、射频定位、多线激光相融合的障碍物感知系统
Alkhawaji et al. Video analysis for yellow box junction violation: Requirements, challenges and solutions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination