CN115979250B - 基于uwb模块、语义地图与视觉信息的定位方法 - Google Patents
基于uwb模块、语义地图与视觉信息的定位方法 Download PDFInfo
- Publication number
- CN115979250B CN115979250B CN202310266028.9A CN202310266028A CN115979250B CN 115979250 B CN115979250 B CN 115979250B CN 202310266028 A CN202310266028 A CN 202310266028A CN 115979250 B CN115979250 B CN 115979250B
- Authority
- CN
- China
- Prior art keywords
- personnel
- visible light
- uwb
- swimming pool
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000000007 visual effect Effects 0.000 title claims abstract description 14
- 230000009182 swimming Effects 0.000 claims abstract description 44
- 230000009466 transformation Effects 0.000 claims abstract description 10
- 238000001228 spectrum Methods 0.000 claims abstract description 9
- 238000001931 thermography Methods 0.000 claims abstract description 6
- 206010013647 Drowning Diseases 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 6
- 239000002131 composite material Substances 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 239000013598 vector Substances 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 3
- 101100166829 Mus musculus Cenpk gene Proteins 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 238000004458 analytical method Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 230000006854 communication Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000372128 Mesoveliidae Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于图像处理领域,具体公开了一种基于UWB模块、语义地图与视觉信息的定位方法。包括以下步骤:步骤1,在游泳池场景安装布置UWB基站标签、双光谱摄像头;步骤2,通过UWB定位获得游泳池内人员的位置;步骤3,对可见光视频中人员进行检测,经过透视变换,获得游泳池内人员的位置;步骤4,将UWB定位数据、可见光视频中人员位置、热成像视频中人员位置绑定,进行人员配对;步骤5,构建语义地图,每个人在2种模态下的位置在地图上实时显示。本发明通过对游泳池人员在UWB、可见光视频中的位置配对,准确获得人员位置,并在语义地图中实时显示,该方法利用人员位置的多模态信息,能够准确、高效地获得游泳池中人员位置。
Description
技术领域
本发明属于图像处理领域,涉及一种基于UWB模块、语义地图与视觉信息的定位方法。
背景技术
近年来,面向需求越来越迫切的室内位置服务,室内定位技术发展迅速,是移动互联时代的研究热点,逐步在各行各业发挥作用,给人们的日常生活带来了一定的影响。人体检测有着广泛的应用前景和市场需求。
目标检测与识别的研究方法主要由两大类:基于传统的目标检测与识别方法和基于深度学习的目标检测与识别方法。
基于传统的目标检测与识别方法主要可以表示为:目标特征提取,目标识别,目标定位。所用到的特征都是人为设计的,例如SIFT , HOG, SURF等,通过这些特征对目标进行识别,然后再结合相应的策略对目标进行定位,但对多个行人之间的情况,仍旧没有很合适的办法解决行人之间的遮挡问题。目前国内外研究者们提出了蓝牙、红外线、RFD,WLAN、超宽带、超声波等室内定位技术及应用系统,但是不同的室内定位技术根据其定位性能有一定的应用局限,还没有一种普适化技术能满足当前所有的室内定位服务需求。
基于深度学习的目标检测与识别方法主要可以表示为:图像的深度特征提取,基于深度神经网络的目标识别与定位。但对小尺寸目标、遮挡目标的检测精度仍然不够;训练时正负样本不够均衡,对算法性能会产生负面影响;部分领域训练样本获取难度较高,而训练集样本数量较少会导致算法模型的效果不佳。
发明内容
本发明提供了一种基于UWB模块、语义地图与视觉信息的定位方法包括以下步骤:
步骤1,在游泳池场景安装布置UWB基站标签、双光谱摄像头;
步骤2,通过UWB定位获得游泳池内人员的位置;
步骤3,对可见光视频中人员进行检测,经过透视变换,获得游泳池内人员的位置;
步骤4,将UWB定位数据、可见光视频中人员位置、热成像视频中人员位置绑定,进行人员配对;
步骤5,构建语义地图,人员在三种模态下的位置在地图上实时显示。
在步骤1中,在游泳池场景安装布置UWB基站标签、双光谱摄像头的具体步骤如下:
第一步:UWB模块包括基站与标签两类设备,用来对溺水目标进行实时定位与溺水判断;4个基站分别安置在游泳池2个长边的正上方,每侧各2个;
第二步:可见光与远红外摄像头绑定在一起,数量为4个,分别安装在游泳池4个角的正上方。
在步骤3中,通过UWB定位获得游泳池内人员的位置的具体步骤如下:
第一步:以游泳池水平面为基准,选取其中一角为坐标原点,建立直角坐标系;
第二步:计算4个基站相对坐标原点的位置(x b1 ,y b1 ,z b1 ),(x b2 ,y b2 ,z b2 ),(x b3 ,y b3 , z b3 ),(x b4 ,y b4 ,z b4 ),获得人员定位位置(x u ,y u ,z u );
第三步:测试UWB定位的准确性、延时性,计算UWB定位的误差范围。
在步骤3中,对可见光视频中人员进行检测,经过透视变换,获得游泳池内人员的位置的具体步骤如下:
第一步:双光谱摄像机固定之后,自采集游泳池内可见光视频,并对可见光视频切成图像;
第二步:利用labelimg软件对图像中游泳人员采用标注全身的方式标注;
第三步:利用YOLOv5对标注的图像训练,获得权值文件,应用于目标检测中;
第四步:利用YOLOv5对可见光实时视频中人员检测,利用deep sort对人员跟踪,获得目标检测矩形框;
第五步:计算目标矩形框的中心点;
第六步:标注图像中游泳池的位置,计算透视变换矩阵;
第七步:将目标矩形框的中心点做透视变换,获得人员在可见光视频下的位置。
在步骤4中,将UWB定位数据、可见光视频中人员位置中人员位置绑定,进行人员配对的具体步骤如下:
第一步:设置定时器,每隔1秒提取UWB定位信息、可见光视频中人的位置信息;
第二步:分别计算UWB定位与可见光视频下人的角度、速度:设UWB中人员a与可见光视频中人员a’前1秒与当前时刻位置分别为(x u1 ,y u1 ),(x u2 ,y u2 ),(x p1 ,y p1 ),(x p2 ,y p2 ),则可见光视频中人员a’每秒角度与速度/>为
在步骤6中,构建语义地图,人员在三种模态下的位置在地图上实时显示的具体步骤如下:
第一步:利用Qt软件设计游泳池地图界面;
第二步:传入人员在三种模态下的位置信息并在地图上实时显示。
本申请的有益效果为:
以基于UWB模块的定位技术为基础,通过引入UWB误差分析、粒子滤波优化算法,并结合表示环境结构特征的语义地图,建立基于UWB模块与语义地图的溺水目标联合定位模型,克服传统UWB定位方案易受噪声干扰的局限,为后续任务提供准确的位置度量。
通过深度学习将可见光、远红外等多模态信息引入到视觉检测模型中,进而提出基于多模态视觉信息融合的多任务学习框架,克服单模态模型对游泳场景视频学习能力不足及多源异构特征无法有效融合的缺陷。
结合UWB模块的定位优势和视觉信息的特征表示能力,将多维度特征融合到整个溺水报警系统中,结合游泳者状态的评估规则和多状态整合机制,建立基于多维度特征融合的溺水决策分析系统,突破传统决策分析系统只能使用单一特征且未有效利用多样信息的瓶颈,进一步减少了系统针对溺水事件的误报率。
在UWB基站标签布置充分的基础上,可以实现游泳者位置的精准度量,并基于多模态视觉信息融合的多任务学习实现高精度、高可靠、高安全的游泳场景理解,最后建立基于多维度特征融合的溺水决策分析系统,系统会根据警报内容自动控制视频分析模块与UWB定位模块,并及时通知救援人员展开救援工作,实现全流程闭环控制与决策。
附图说明
图1是本发明的算法流程图;
图2是基于UWB模块与语义地图的联合定位方法流程图;
图3是基于多模态视觉信息融合的多任务学习方法流程图;
图4基于多维度特征融合的溺水决策分析系统图;
图5是图4中有限状态结构的详细分析图。
具体实施方式
参照图1至图4。
本申请的原理如下: 在UWB基站标签布置充分的基础上,根据UWB粗测量节点分布拟合出UWB定位误差与梯度分布,并据此计算多组UWB节点的定位误差矩阵,由粒子滤波算法对误差矩阵进行优化得出UWB节点的精确定位结果,实现游泳者位置的精准度量。
在本申请中,为降低UWB定位系统部署的复杂性,采用双向测距方法(Two-WayRanging,TWR)来获得两个UWB节点之间的粗略测距结果。其中,任意两个UWB节点的通讯过程中,信号收、发的时间戳均被记录下来,并添加到其传输的数据帧。通过该时间戳信息,单向的信号飞行时间(Time of Fight,TOF)可以通过节点间的通信时间差计算。然后,在上述布置的少量测量节点上采集粗粒度的定位误差数据,并通过数据拟合得到大致的定位误差分布图,基于该定位误差分布图及其梯度地图,可以建立非均匀的定位误差数据采集网格,进而计算出UWB定位误差矩阵/>。最后,基于/>得到UWB定位误差概率密度函数/>, 并在此基础上归一化每个粒子的权值/>,通过粒子滤波算法的迭代计算估计出优化后的节点位置估计/>,可以表述为:/>其中,k表示测量节点的位置;i表示测量节点序号。
游泳环境语义地图构造:游泳馆语义地图模型实例化的过程中,需要解决的问题就是如何从当前的游泳池环境中准确高效的提取到类别的实例化以及对应的数据属性,因此,本申请首先结合UWB模块自身所采集的数据,然后需要进一步结合结构场景数据以及领域内的专家知识对上述语义地图本体模型中的内容进行扩充,最终实现UWB模块与语义地图的联合定位效果。
与单模态学习方法相比,多模态学习技术利用多种模态信息联合表示某个游泳目标,具有更强的学习与适应能力。本申请拟将多模态学习引入到溺水检测任务中,结合目标检测与跟踪、姿态估计等预训练模型所学的度量及迁移特征,开展基于多模态视觉信息融合的多任务学习框架研究,并将其最终应用到溺水报警等实际任务中,实现高精度、高可靠、高安全的游泳场景理解。
可见光图像特征提取子网络:本申请拟利用YOLOV4、RMPE和Deepsort作为可见光图像的预训练模型,获取游泳者所在的局部区域、游泳路线以及基于人体关键点的姿态动作;在训练阶段根据预测和监督信号之间的差异(loss)修正模型的参数,让其尽可能可能符合数据的分布;最终,通过构建多任务学习框架将多个基本训练流程集成在一起,提高基于可见光的溺水判别方法的泛化性能。
远红外图像特征提取子网络:本申请拟利用红外热成像摄像头采集游泳馆内物体表面的温度场信息,通过基于Yolov4的深度学习方法,提取远红外目标存在的多种特征分布,根据远红外本身无法穿透水面的特性,为后续的决策分析模块提供判定支持。
多模态图像特征叠加子网络:为了增强游泳者特征信息的有效性, 减少对图像场景理解的偏差,本申请拟通过特征叠加模块将可见光、远红外图像特征子网络各自输出的特征图相加, 获得多模态叠加特征。然后, 将叠加特征输入卷积-池化组合操作进行复合特征提取, 并在叠加特征提取模块中向其全连接层传递. 最后, 获取多模态叠加特征描述向量。因此,模型的第层全连接层的多模态特征向量可表示为:/>其中,/>是权值矩阵,/>是偏置向量。
本项目将在上述两项研究内容(即视频分析部分和UWB定位部分)的基础上,引入溺水事件推论与决策分析模块,深入开展基于溺水事件推论与决策分析模块研究,克服单一特征判别能力不足的缺陷,建立基于多维度特征融合的溺水决策分析系统。
评估游泳者状态的规则:为了及时预测到溺水事件的发生,本项目拟制定的溺水评估规则如下:
a)UWB定位部分,信号消失情况维持在一定的阈值范围;
b)视频分析部分,红外图像中检测且无法跟踪到游泳者信息;水下摄像头拍摄到的游泳者姿态运动出现如运动慢、水中接近于垂直、呈现出非正常、可能很快的肢体运动。
溺水事件推论与决策分析模块:为了区分不同的游泳者条件,本项目拟设计一种状态转换机制,如图5所示。例如,假设初始状态是“正常”,规则1和2用来区分正常游泳者与溺水者或踩水者。只有游泳者被检测到运动慢,同时又在水中接近垂直,系统才会把游泳者状态变为“可能溺水或踩水”,此时再用规则3进行判断,只有当三条规则同时满足条件时,才会被标识为溺水状态, 一旦此状态保持超过项目预定的时间时,就触发警报。最后,系统会根据警报内容自动控制视频分析模块与UWB定位模块,并及时通知救援人员展开救援工作,实现全流程闭环控制与决策。
本发明的一种基于UWB模块、语义地图与视觉信息的定位方法,
具体实施方式包括以下步骤:
步骤1,在游泳池场景安装布置UWB基站标签、双光谱摄像头,本步骤包括以下几步:
第一步:UWB模块包括基站与标签两类设备,用来对溺水目标进行实时定位与溺水判断;4个基站分别安置在游泳池2个长边的正上方,每侧各2个;
第二步:可见光与远红外摄像头绑定在一起,数量为4个,分别安装在游泳池4个角的正上方。
步骤2,通过UWB定位获得游泳池内人员的位置,本步骤包括以下几步:
第一步:以游泳池水平面为基准,选取其中一角为坐标原点,建立直角坐标系;
第二步:计算4个基站相对坐标原点的位置(x b1 ,y b1 ,z b1 ),(x b2 ,y b2 ,z b2 ),(x b3 ,y b3 , z b3 ),(x b4 ,y b4 ,z b4 ),获得人员定位位置(x u ,y u ,z u );
第三步:测试UWB定位的准确性、延时性,计算UWB定位的误差范围;
步骤3,对可见光视频中人员进行检测,经过透视变换,获得游泳池内人员的位置,本步骤包括以下几步:
第一步:双光谱摄像机固定之后,自采集游泳池内可见光视频,并对可见光视频切成图像;
第二步:利用labelimg软件对图像中游泳人员采用标注全身的方式标注;
第三步:利用YOLOv5对标注的图像训练,获得权值文件,应用于目标检测中;
第四步:利用YOLOv5对可见光实时视频中人员检测,利用deep sort对人员跟踪,
获得目标检测矩形框;
步骤4,将UWB定位数据、可见光视频中人员位置、热成像视频中人员位置绑定,进行人员配对,本步骤包括以下几步:
第一步:设置定时器,每隔1秒提取UWB定位信息、可见光视频中人的位置信息;
第二步:分别计算UWB定位与可见光视频下人的角度、速度:设UWB中人员a与可见光视频中人员a’前1秒与当前时刻位置分别为(x u1 ,y u1 ),(x u2 ,y u2 ),(x p1 ,y p1 ),(x p2 ,y p2 ),则可见光视频中人员a’每秒角度与速度/>为/> 其中,/>为人体移动的时间间隔。同理,UWB定位人员a每秒角度为/>速度为/>。
步骤5,构建语义地图,人员在三种模态下的位置在地图上实时显示,本步骤包括以下几步:
第一步:利用Qt软件设计游泳池地图界面;
第二步:传入人员在三种模态下的位置信息并在地图上实时显示。
Claims (2)
1.一种基于UWB模块、语义地图与视觉信息的联合定位方法,其特征在于,包括以下步骤:
步骤1,在游泳池场景安装布置UWB基站标签、双光谱摄像头;
步骤2,通过UWB定位获得游泳池内人员的位置;
步骤3,对可见光视频中人员进行检测,经过透视变换,获得游泳池内人员的位置;
步骤4,将UWB定位数据、可见光视频中人员位置、热成像视频中人员位置绑定,进行人员配对;通过特征叠加模块将可见光、远红外图像特征子网络各自输出的特征图相加, 获得多模态叠加特征;将叠加特征输入卷积-池化组合操作进行复合特征提取, 并在叠加特征提取模块中向其全连接层传递,获取多模态叠加特征描述向量;
步骤5,建立基于UWB模块与语义地图的溺水目标联合定位模型,将所述多模态叠加特征描述向量引入溺水目标联合定位模型,人员在三种模态下的位置在地图上实时显示;
在步骤1中,在游泳池场景安装布置UWB基站标签、双光谱摄像头的具体步骤如下:
第一步:UWB模块包括基站与标签两类设备,用来对溺水目标进行实时定位与溺水判断;4个基站分别安置在游泳池2个长边的正上方,每侧各2个;
第二步:可见光与远红外摄像头绑定在一起,数量为4个,分别安装在游泳池4个角的正上方;
在步骤2中,通过UWB定位获得游泳池内人员的位置的具体步骤如下:
第一步:以游泳池水平面为基准,选取其中一角为坐标原点,建立直角坐标系;
第二步:计算4个基站相对坐标原点的位置(x b1 ,y b1 ,z b1 ),(x b2 ,y b2 ,z b2 ),(x b3 ,y b3 ,z b3 ),(x b4 ,y b4 ,z b4 ),获得人员定位位置(x u ,y u ,z u );
第三步:测试UWB定位的准确性、延时性,计算UWB定位的误差范围;
在步骤4中,将UWB定位数据、可见光视频中人员位置、热成像视频中人员位置绑定,进行人员配对的具体步骤如下:
第一步:设置定时器,每隔1秒提取UWB定位信息、可见光视频中人的位置信息;
第二步:分别计算UWB定位与可见光视频下人的角度、速度:设UWB中人员a与可见光视频中人员a’前1秒与当前时刻位置分别为(x u1 ,y u1 ),(x u2 ,y u2 ),(x p1 ,y p1 ),(x p2 ,y p2 ),则可见光视频中人员a’每秒角度与速度/>为
在步骤3中,对可见光视频中人员进行检测,经过透视变换,获得游泳池内人员的位置的具体步骤如下:
第一步:双光谱摄像机固定之后,自采集游泳池内可见光视频,并对可见光视频切成图像;
第二步:利用labelimg软件对图像中游泳人员采用标注全身的方式标注;
第三步:利用YOLOv5对标注的图像训练,获得权值文件,应用于目标检测中;
第四步:利用YOLOv5对可见光实时视频中人员检测,利用deep sort对人员跟踪,获得目标检测矩形框;
第五步:计算目标矩形框的中心点;
第六步:标注图像中游泳池的位置,计算透视变换矩阵;
第七步:将目标矩形框的中心点做透视变换,获得人员在可见光视频下的位置。
2.根据权利要求1所述的一种基于UWB模块、语义地图与视觉信息的联合定位方法,其特征在于,在步骤5中,构建语义地图,人员在三种模态下的位置在地图上实时显示的具体步骤如下:
第一步:利用Qt软件设计游泳池地图界面;
第二步:传入人员在三种模态下的位置信息并在地图上实时显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310266028.9A CN115979250B (zh) | 2023-03-20 | 2023-03-20 | 基于uwb模块、语义地图与视觉信息的定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310266028.9A CN115979250B (zh) | 2023-03-20 | 2023-03-20 | 基于uwb模块、语义地图与视觉信息的定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115979250A CN115979250A (zh) | 2023-04-18 |
CN115979250B true CN115979250B (zh) | 2023-06-09 |
Family
ID=85972537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310266028.9A Active CN115979250B (zh) | 2023-03-20 | 2023-03-20 | 基于uwb模块、语义地图与视觉信息的定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115979250B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116193581B (zh) * | 2023-05-04 | 2023-08-04 | 广东工业大学 | 一种基于集员滤波的室内无人机混合定位方法及系统 |
CN118196909A (zh) * | 2024-05-16 | 2024-06-14 | 杭州巨岩欣成科技有限公司 | 泳池挣扎行为识别方法、装置、计算机设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022230A (zh) * | 2016-05-11 | 2016-10-12 | 太原理工大学 | 一种基于视频的游泳池溺水事件检测方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG95652A1 (en) * | 2001-05-25 | 2003-04-23 | Univ Nanyang | Drowning early warning system |
CN109102678A (zh) * | 2018-08-30 | 2018-12-28 | 青岛联合创智科技有限公司 | 一种融合uwb室内定位与视频目标检测与跟踪技术的溺水行为检测方法 |
CN109584509B (zh) * | 2018-12-27 | 2020-08-11 | 太仓市小车东汽车服务有限公司 | 一种基于红外线与可见光组合的游泳池溺水监测方法 |
CN110210323B (zh) * | 2019-05-09 | 2021-06-15 | 浙江大学 | 一种基于机器视觉的溺水行为在线识别方法 |
CN110569772B (zh) * | 2019-08-30 | 2022-03-08 | 北京科技大学 | 一种泳池内人员状态检测方法 |
CN111462200B (zh) * | 2020-04-03 | 2023-09-19 | 中国科学院深圳先进技术研究院 | 一种跨视频行人定位追踪方法、系统及设备 |
CN112489371B (zh) * | 2020-11-26 | 2022-09-13 | 上海天健体育科技发展有限公司 | 一种基于计算机视觉的泳池防溺水预警系统 |
CN114783147B (zh) * | 2022-04-19 | 2023-10-27 | 珠海市杰理科技股份有限公司 | 智能监控方法、装置、可穿戴设备和可读存储介质 |
CN115810140A (zh) * | 2022-12-26 | 2023-03-17 | 青岛农业大学 | 一种斑石鲷行为智能检测与跟踪方法及模型搭建方法 |
-
2023
- 2023-03-20 CN CN202310266028.9A patent/CN115979250B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022230A (zh) * | 2016-05-11 | 2016-10-12 | 太原理工大学 | 一种基于视频的游泳池溺水事件检测方法 |
Non-Patent Citations (1)
Title |
---|
基于SLAM算法和深度神经网络的语义地图构建研究;白云汉;;计算机应用与软件(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115979250A (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115979250B (zh) | 基于uwb模块、语义地图与视觉信息的定位方法 | |
CN107818571B (zh) | 基于深度学习网络和均值漂移的船只自动跟踪方法及系统 | |
CN103679674B (zh) | 一种无人飞行器实时图像拼接方法及系统 | |
CN109034018A (zh) | 一种基于双目视觉的低空小型无人机障碍物感知方法 | |
CN106485245A (zh) | 一种基于可见光和红外图像的全天候目标实时跟踪方法 | |
CN110765906A (zh) | 一种基于关键点的行人检测算法 | |
CN111402632B (zh) | 一种交叉口行人运动轨迹的风险预测方法 | |
CN114267082B (zh) | 基于深度理解的桥侧坠落行为识别方法 | |
CN102254394A (zh) | 一种基于视频差异分析的输电线路杆塔防盗监控方法 | |
CN109086803A (zh) | 一种基于深度学习与个性化因子的雾霾能见度检测系统及方法 | |
CN112613668A (zh) | 基于人工智能的景区危险区域管控方法 | |
CN112261719B (zh) | 一种slam技术结合深度学习的区域定位方法 | |
CN113177439A (zh) | 一种行人翻越马路护栏检测方法 | |
CN117826795A (zh) | 地下管廊巡检机器人的自主巡检方法及系统 | |
CN116189052A (zh) | 基于视频流分析的安防方法、系统、智能终端及存储介质 | |
CN110276379B (zh) | 一种基于视频图像分析的灾情信息快速提取方法 | |
Liu et al. | Multi-scale personnel deep feature detection algorithm based on Extended-YOLOv3 | |
Ma et al. | Deconvolution Feature Fusion for traffic signs detection in 5G driven unmanned vehicle | |
Javaid et al. | A machine learning based method for object detection and localization using a monocular rgb camera equipped drone | |
CN112069997B (zh) | 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置 | |
Ghintab et al. | CNN-based visual localization for autonomous vehicles under different weather conditions | |
CN118107822A (zh) | 一种基于无人机的复杂环境搜救方法 | |
CN112785564A (zh) | 一种基于机械臂的行人检测跟踪系统与方法 | |
CN113033470A (zh) | 一种轻量型目标检测方法 | |
Yao et al. | Using machine learning approach to construct the people flow tracking system for smart cities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A localization method based on UWB module, semantic map, and visual information Granted publication date: 20230609 Pledgee: Ji'nan rural commercial bank Limited by Share Ltd. high tech branch Pledgor: Shandong Shangshui Environmental Technology Group Co.,Ltd. Registration number: Y2024980006821 |
|
PE01 | Entry into force of the registration of the contract for pledge of patent right |