CN117690079A - 一种基于图像融合的安防警戒系统及目标检测方法 - Google Patents
一种基于图像融合的安防警戒系统及目标检测方法 Download PDFInfo
- Publication number
- CN117690079A CN117690079A CN202311656472.8A CN202311656472A CN117690079A CN 117690079 A CN117690079 A CN 117690079A CN 202311656472 A CN202311656472 A CN 202311656472A CN 117690079 A CN117690079 A CN 117690079A
- Authority
- CN
- China
- Prior art keywords
- image
- human body
- fusion
- target
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 67
- 238000001514 detection method Methods 0.000 title claims abstract description 39
- 230000000007 visual effect Effects 0.000 claims abstract description 27
- 238000007499 fusion processing Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000009432 framing Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 abstract description 14
- 230000000694 effects Effects 0.000 abstract description 4
- 230000007547 defect Effects 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
Abstract
本发明涉及安防领域,具体涉及一种基于图像融合的安防警戒系统及目标检测方法,捕获模块,采集目标区域的RGB图像和三维点云图像,对RGB图像和三维点云图像进行图像融合处理,得到彩色融合图像,并对彩色融合图像进行目标检测,输出彩色融合图像边界框、点云及人体中心点位置;服务器,对应多个捕获模块,多个捕获模块的采集图像同时传入服务器,服务器利用Re‑ID行人重识别算法实现多个捕获模块之间运动人体的连续追踪功能,进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息;本发明提供的技术方案能够有效克服现有技术所存在的针对特定敏感区域或复杂区域监控效果较差的缺陷。
Description
技术领域
本发明涉及安防领域,具体涉及一种基于图像融合的安防警戒系统及目标检测方法。
背景技术
目前,在国家反间谍的大力打击,以及企业对机密区域越来越重视的背景下,安防领域对于摄像机的检测要求越来越高。
一般的监控摄像头通过图像识别技术对实时图片中的目标进行检测,由于目标检测需要对目标抓取更多的细节,往往会通过布设多个位置且不同角度的多组摄像头来获取大量图像信息。然而,当目标背对或者被环境背景所遮挡,以及当目标与环境背景的色彩或形状相似时,摄像头容易因无法精准识别目标而导致目标检测失败。
申请公布号为CN114373158A的发明专利申请中公开了一种基于深度信息的消防通道占用检测方法及系统,通过融合深度信息获得潜在目标,有效避免出现因二维透视变换导致的误报警问题,且基于多标签分类对潜在目标进行分类,按照分类结果进行预警,能够大幅降低误报和漏报概率。此外,申请公布号为CN115841656A的发明专利申请中公开了基于相机的汽车监控视频测速方法及装置,对TOF相机获取的深度信息图像与彩色图像进行配准,基于配准的深度信息图像与彩色图像,确定彩色图像中每个像素点对应实际道路平面的二维坐标,获取坐标标定矩阵,完成标定,采用Yolov4目标识别网络对彩色图像中的目标进行识别和追踪。
现有的安防监控技术方案中应用的大部分是深度相机,在上述两种技术方案中,均采用了深度信息图像与彩色图像进行融合的技术手段。但是,深度相机往往存在具有较大范围死角盲区的问题,并且针对特定敏感区域或复杂区域(如军事警戒区)而言覆盖距离较近,同时深度相机在上述场景中容易受到白天强光影响而导致无法进行全天候监控。
发明内容
(一)解决的技术问题
针对现有技术所存在的上述缺点,本发明提供了一种基于图像融合的安防警戒系统及目标检测方法,能够有效克服现有技术所存在的针对特定敏感区域或复杂区域监控效果较差的缺陷。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:
一种基于图像融合的安防警戒系统,包括捕获模块和服务器;
捕获模块,采集目标区域的RGB图像和三维点云图像,对RGB图像和三维点云图像进行图像融合处理,得到彩色融合图像,并对彩色融合图像进行目标检测,输出彩色融合图像边界框、点云及人体中心点位置;
服务器,对应多个捕获模块,多个捕获模块的采集图像同时传入服务器,服务器利用Re-ID行人重识别算法实现多个捕获模块之间运动人体的连续追踪功能,进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息。
优选地,所述捕获模块包括彩色相机、激光雷达和AI边缘计算机;
彩色相机,对目标区域进行RGB图像的采集,实现二维场景环境的搭建呈现;
激光雷达,对目标区域进行深度信息的采集,形成三维点云图像;
AI边缘计算机,运行的基于卷积神经网络的目标检测算法对彩色融合图像进行框定处理,输出彩色融合图像边界框、点云及人体中心点位置。
优选地,所述服务器进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息,包括:
在服务器中利用Re-ID行人重识别算法进行人体特征标定区分,并将提取的人体特征存储至数据表中,最终回传至前端可视化界面来呈现目标信息。
优选地,所述前端可视化界面基于目标区域的实际场景情况,输出RGB图像和/或三维点云图像和/或彩色融合图像来呈现目标信息;
其中,目标信息包括人体ID与定位信息。
一种基于图像融合的目标检测方法,包括以下步骤:
S1、采集目标区域的RGB图像和三维点云图像;
S2、对RGB图像和三维点云图像进行图像融合处理,得到彩色融合图像;
S3、对彩色融合图像进行目标检测,输出彩色融合图像边界框、点云及人体中心点位置;
S4、进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息。
优选地,S1中采集目标区域的RGB图像和三维点云图像,包括:
利用彩色相机对目标区域进行RGB图像的采集,实现二维场景环境的搭建呈现;
同时,利用激光雷达对目标区域进行深度信息的采集,形成三维点云图像。
优选地,S3中对彩色融合图像进行目标检测,输出彩色融合图像边界框、点云及人体中心点位置,包括:
利用AI边缘计算机中运行的基于卷积神经网络的目标检测算法对彩色融合图像进行框定处理,输出彩色融合图像边界框、点云及人体中心点位置。
优选地,S4中进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息,包括:
在服务器中利用Re-ID行人重识别算法进行人体特征标定区分,并将提取的人体特征存储至数据表中,最终回传至前端可视化界面来呈现目标信息。
优选地,所述在服务器中利用Re-ID行人重识别算法进行人体特征标定区分,包括:
通过Re-ID行人重识别算法对目标进行检测跟踪,对彩色融合图像中的各目标进行人体特征标定,得到特征标定框,并在人体中心点位置汇聚成一个中心点,便于在三维点云图像中进行观察。
优选地,所述回传至前端可视化界面来呈现目标信息,包括:
基于目标区域的实际场景情况,前端可视化界面输出RGB图像和/或三维点云图像和/或彩色融合图像来呈现目标信息;
其中,目标信息包括人体ID与定位信息。
(三)有益效果
与现有技术相比,本发明所提供的一种基于图像融合的安防警戒系统及目标检测方法,具有以下有益效果:
1)具备针对特定敏感区域、复杂区域,以及在干扰繁多的特定场景中具有良好监控能力的优点,由于激光雷达可以快速获取目标的三维空间信息,因此完全可以取代深度相机,同时激光雷达具有宽视角的特点,能够在包括军事警戒区在内的复杂场景中实现对目标的全覆盖,并且能够在无人值守或者戒备人员较少的情况下进行全天候监控;
2)针对特定敏感区域因注重隐私问题但又必须提供目标区域监控图像的情况,本申请技术方案能够根据需求的不同对输出的监控图像进行剥离拆分实现隐私保护,同时由于激光雷达不会受到信号的干扰,能够稳定运行,因此本申请技术方案针对特定敏感区域或复杂区域能够取得较好的监控效果,特别适用于特定区域的警戒管控。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的系统示意图;
图2为本发明的流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于图像融合的安防警戒系统,如图1所示,包括捕获模块和服务器;
捕获模块,采集目标区域的RGB图像和三维点云图像,对RGB图像和三维点云图像进行图像融合处理,得到彩色融合图像,并对彩色融合图像进行目标检测,输出彩色融合图像边界框、点云及人体中心点位置;
服务器,对应多个捕获模块,多个捕获模块的采集图像同时传入服务器,服务器利用Re-ID行人重识别算法实现多个捕获模块之间运动人体的连续追踪功能,进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息。
①捕获模块包括彩色相机、激光雷达和AI边缘计算机;
彩色相机,对目标区域进行RGB图像的采集,实现二维场景环境的搭建呈现;
激光雷达,对目标区域进行深度信息的采集,形成三维点云图像;
AI边缘计算机,运行的基于卷积神经网络的目标检测算法(YOLO目标检测算法)对彩色融合图像进行框定处理,输出彩色融合图像边界框、点云及人体中心点位置。
②服务器进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息,包括:
在服务器中利用Re-ID行人重识别算法进行人体特征标定区分,并将提取的人体特征存储至数据表中,最终回传至前端可视化界面来呈现目标信息。
本申请技术方案中,前端可视化界面基于目标区域的实际场景情况,输出RGB图像和/或三维点云图像和/或彩色融合图像来呈现目标信息;
其中,目标信息包括人体ID与定位信息。
上述技术方案,具备针对特定敏感区域、复杂区域,以及在干扰繁多的特定场景中具有良好监控能力的优点,由于激光雷达可以快速获取目标的三维空间信息,因此完全可以取代深度相机,同时激光雷达具有宽视角的特点,能够在包括军事警戒区在内的复杂场景中实现对目标的全覆盖,并且能够在无人值守或者戒备人员较少的情况下进行全天候监控。
针对特定敏感区域因注重隐私问题但又必须提供目标区域监控图像的情况,本申请技术方案能够根据需求的不同对输出的监控图像进行剥离拆分实现隐私保护,同时由于激光雷达不会受到信号的干扰,能够稳定运行,因此本申请技术方案针对特定敏感区域或复杂区域能够取得较好的监控效果,特别适用于特定区域的警戒管控。
本申请技术方案中,还公开了一种基于图像融合的目标检测方法,如图2所示,①采集目标区域的RGB图像和三维点云图像,具体包括:
利用彩色相机对目标区域进行RGB图像的采集,实现二维场景环境的搭建呈现;
同时,利用激光雷达对目标区域进行深度信息的采集,形成三维点云图像。
②对RGB图像和三维点云图像进行图像融合处理,得到彩色融合图像。
③对彩色融合图像进行目标检测,输出彩色融合图像边界框、点云及人体中心点位置,具体包括:
利用AI边缘计算机中运行的基于卷积神经网络的目标检测算法(YOLO目标检测算法)对彩色融合图像进行框定处理,输出彩色融合图像边界框、点云及人体中心点位置。
④进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息,具体包括:
在服务器中利用Re-ID行人重识别算法进行人体特征标定区分,并将提取的人体特征存储至数据表中,最终回传至前端可视化界面来呈现目标信息。
1)在服务器中利用Re-ID行人重识别算法进行人体特征标定区分,包括:
通过Re-ID行人重识别算法对目标进行检测跟踪,对彩色融合图像中的各目标进行人体特征标定,得到特征标定框,并在人体中心点位置汇聚成一个中心点,便于在三维点云图像中进行观察。
2)回传至前端可视化界面来呈现目标信息,包括:
基于目标区域的实际场景情况,前端可视化界面输出RGB图像和/或三维点云图像和/或彩色融合图像来呈现目标信息;
其中,目标信息包括人体ID与定位信息。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不会使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于图像融合的安防警戒系统,其特征在于:包括捕获模块和服务器;
捕获模块,采集目标区域的RGB图像和三维点云图像,对RGB图像和三维点云图像进行图像融合处理,得到彩色融合图像,并对彩色融合图像进行目标检测,输出彩色融合图像边界框、点云及人体中心点位置;
服务器,对应多个捕获模块,多个捕获模块的采集图像同时传入服务器,服务器利用Re-ID行人重识别算法实现多个捕获模块之间运动人体的连续追踪功能,进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息。
2.根据权利要求1所述的基于图像融合的安防警戒系统,其特征在于:所述捕获模块包括彩色相机、激光雷达和AI边缘计算机;
彩色相机,对目标区域进行RGB图像的采集,实现二维场景环境的搭建呈现;
激光雷达,对目标区域进行深度信息的采集,形成三维点云图像;
AI边缘计算机,运行的基于卷积神经网络的目标检测算法对彩色融合图像进行框定处理,输出彩色融合图像边界框、点云及人体中心点位置。
3.根据权利要求2所述的基于图像融合的安防警戒系统,其特征在于:所述服务器进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息,包括:
在服务器中利用Re-ID行人重识别算法进行人体特征标定区分,并将提取的人体特征存储至数据表中,最终回传至前端可视化界面来呈现目标信息。
4.根据权利要求3所述的基于图像融合的安防警戒系统,其特征在于:所述前端可视化界面基于目标区域的实际场景情况,输出RGB图像和/或三维点云图像和/或彩色融合图像来呈现目标信息;
其中,目标信息包括人体ID与定位信息。
5.一种基于权利要求4所述的基于图像融合的安防警戒系统的目标检测方法,其特征在于:包括以下步骤:
S1、采集目标区域的RGB图像和三维点云图像;
S2、对RGB图像和三维点云图像进行图像融合处理,得到彩色融合图像;
S3、对彩色融合图像进行目标检测,输出彩色融合图像边界框、点云及人体中心点位置;
S4、进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息。
6.根据权利要求5所述的基于图像融合的目标检测方法,其特征在于:S1中采集目标区域的RGB图像和三维点云图像,包括:
利用彩色相机对目标区域进行RGB图像的采集,实现二维场景环境的搭建呈现;
同时,利用激光雷达对目标区域进行深度信息的采集,形成三维点云图像。
7.根据权利要求6所述的基于图像融合的目标检测方法,其特征在于:S3中对彩色融合图像进行目标检测,输出彩色融合图像边界框、点云及人体中心点位置,包括:
利用AI边缘计算机中运行的基于卷积神经网络的目标检测算法对彩色融合图像进行框定处理,输出彩色融合图像边界框、点云及人体中心点位置。
8.根据权利要求7所述的基于图像融合的目标检测方法,其特征在于:S4中进行人体特征标定区分,输出人体特征值至前端可视化界面,呈现目标信息,包括:
在服务器中利用Re-ID行人重识别算法进行人体特征标定区分,并将提取的人体特征存储至数据表中,最终回传至前端可视化界面来呈现目标信息。
9.根据权利要求8所述的基于图像融合的目标检测方法,其特征在于:所述在服务器中利用Re-ID行人重识别算法进行人体特征标定区分,包括:
通过Re-ID行人重识别算法对目标进行检测跟踪,对彩色融合图像中的各目标进行人体特征标定,得到特征标定框,并在人体中心点位置汇聚成一个中心点,便于在三维点云图像中进行观察。
10.根据权利要求9所述的基于图像融合的目标检测方法,其特征在于:所述回传至前端可视化界面来呈现目标信息,包括:
基于目标区域的实际场景情况,前端可视化界面输出RGB图像和/或三维点云图像和/或彩色融合图像来呈现目标信息;
其中,目标信息包括人体ID与定位信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311656472.8A CN117690079A (zh) | 2023-12-05 | 2023-12-05 | 一种基于图像融合的安防警戒系统及目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311656472.8A CN117690079A (zh) | 2023-12-05 | 2023-12-05 | 一种基于图像融合的安防警戒系统及目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117690079A true CN117690079A (zh) | 2024-03-12 |
Family
ID=90127705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311656472.8A Pending CN117690079A (zh) | 2023-12-05 | 2023-12-05 | 一种基于图像融合的安防警戒系统及目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117690079A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929692A (zh) * | 2019-12-11 | 2020-03-27 | 中国科学院长春光学精密机械与物理研究所 | 一种基于多传感器信息融合的三维目标检测方法及装置 |
CN115641670A (zh) * | 2022-11-02 | 2023-01-24 | 中船重工(武汉)凌久高科有限公司 | 一种基于摄像机与激光雷达融合的门禁控制方法 |
CN115797397A (zh) * | 2022-09-09 | 2023-03-14 | 北京科技大学 | 一种机器人全天候自主跟随目标人员的方法及系统 |
CN115937819A (zh) * | 2022-11-24 | 2023-04-07 | 安徽工程大学 | 基于多模态融合的三维目标检测方法及系统 |
CN116310673A (zh) * | 2023-01-18 | 2023-06-23 | 郑州大学 | 一种基于点云与图像特征融合的三维目标检测方法 |
US20230213643A1 (en) * | 2022-01-05 | 2023-07-06 | Waymo Llc | Camera-radar sensor fusion using local attention mechanism |
CN117011378A (zh) * | 2023-07-20 | 2023-11-07 | 中国电子科技集团有限公司电子科学研究院 | 一种移动机器人目标定位、跟踪方法及相关设备 |
-
2023
- 2023-12-05 CN CN202311656472.8A patent/CN117690079A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929692A (zh) * | 2019-12-11 | 2020-03-27 | 中国科学院长春光学精密机械与物理研究所 | 一种基于多传感器信息融合的三维目标检测方法及装置 |
US20230213643A1 (en) * | 2022-01-05 | 2023-07-06 | Waymo Llc | Camera-radar sensor fusion using local attention mechanism |
CN115797397A (zh) * | 2022-09-09 | 2023-03-14 | 北京科技大学 | 一种机器人全天候自主跟随目标人员的方法及系统 |
CN115641670A (zh) * | 2022-11-02 | 2023-01-24 | 中船重工(武汉)凌久高科有限公司 | 一种基于摄像机与激光雷达融合的门禁控制方法 |
CN115937819A (zh) * | 2022-11-24 | 2023-04-07 | 安徽工程大学 | 基于多模态融合的三维目标检测方法及系统 |
CN116310673A (zh) * | 2023-01-18 | 2023-06-23 | 郑州大学 | 一种基于点云与图像特征融合的三维目标检测方法 |
CN117011378A (zh) * | 2023-07-20 | 2023-11-07 | 中国电子科技集团有限公司电子科学研究院 | 一种移动机器人目标定位、跟踪方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113671480B (zh) | 雷达与视频融合交通目标跟踪方法、系统、设备、终端 | |
CN110660186B (zh) | 基于雷达信号在视频图像中识别目标对象的方法及装置 | |
CN106650708B (zh) | 一种自动驾驶障碍物视觉检测方法与系统 | |
US9052329B2 (en) | Tire detection for accurate vehicle speed estimation | |
JP5297078B2 (ja) | 車両の死角における移動物体を検知するための方法、および死角検知装置 | |
KR101647370B1 (ko) | 카메라 및 레이더를 이용한 교통정보 관리시스템 | |
CN111753609B (zh) | 一种目标识别的方法、装置及摄像机 | |
JP5551595B2 (ja) | 滑走路監視システムおよび方法 | |
CN109842787B (zh) | 一种监测高空抛物的方法及系统 | |
CN111045000A (zh) | 监测系统和方法 | |
CN102792314A (zh) | 交叉通行碰撞警报系统 | |
CN112068111A (zh) | 一种基于多传感器信息融合的无人机目标侦测方法 | |
CN105306892B (zh) | 一种证据链形式的船舶视频的生成及显示方法 | |
CN103929592A (zh) | 全方位智能监控设备及方法 | |
WO2020105527A1 (ja) | 画像解析装置、画像解析システム、および制御プログラム | |
Jiang et al. | Target detection algorithm based on MMW radar and camera fusion | |
CN111913177A (zh) | 对目标物探测方法、装置以及存储介质 | |
CN107886544A (zh) | 用于车辆标定的图像采集控制方法和装置 | |
CN109708659B (zh) | 一种分布式智能光电低空防护系统 | |
Krotosky et al. | Multimodal stereo image registration for pedestrian detection | |
CN116935551A (zh) | 周界入侵检测方法、系统、设备及存储介质 | |
CN112802058A (zh) | 一种非法运动目标的跟踪方法及装置 | |
CN115150591B (zh) | 一种基于智能算法的区域视频监控方法 | |
CN117690079A (zh) | 一种基于图像融合的安防警戒系统及目标检测方法 | |
Chen et al. | Significant obstacle location with ultra-wide FOV LWIR stereo vision system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |