CN111582280A - 一种面向多光谱救援机器人的数据深层融合图像分割方法 - Google Patents
一种面向多光谱救援机器人的数据深层融合图像分割方法 Download PDFInfo
- Publication number
- CN111582280A CN111582280A CN202010392001.0A CN202010392001A CN111582280A CN 111582280 A CN111582280 A CN 111582280A CN 202010392001 A CN202010392001 A CN 202010392001A CN 111582280 A CN111582280 A CN 111582280A
- Authority
- CN
- China
- Prior art keywords
- image
- multispectral
- fusion
- rescue robot
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明提出一种面向多光谱救援机器人的数据深层融合图像分割方法,目的是进一步提高救援机器人图像语义分割的精度,提高救援机器人在灾难现场排查和分析的准确性,并能脱离人为指挥和控制,进行自主探测工作。方法包括以下步骤:生成目标分割训练数据集;构建识别单光谱单目标图像分割的U型网络;建立针对图像语义分割的证据理论‑贝叶斯二阶段决策融合模型;训练获得多光谱数据融合的语义分割模型。本发明利用针对图像语义分割的证据理论‑贝叶斯二阶段决策融合模型在精确率、召回率、准确率等方面都有明显提升,机器人可以在复杂的救灾环境中自主检查灾难现场,提高检测准确性和效率,降低人工成本,缩短救灾时间,减少伤亡。
Description
技术领域
本发明涉及一种图像分割方法,特别涉及一种面向多光谱救援机器人的数据深层融合图像分割方法。
背景技术
当今世界各地地震、泥石流、海啸等自然灾害频繁发生,灾难现场建筑结构坍塌,导致地形环境发生巨大变化,空间狭小不稳定,严重威胁着人类安全,许多遇难者因得不到及时的救援而失去宝贵的生命,因此救援人员如何快速高效的开展救援工作关系着被困人员的生命安全。随着科学技术在不断进步,开始使用救援机器人进入一些危险复杂的灾难现场实施救援,解决了传统救援搜救时间紧张、灾害现场幸存者和救援人员生命安全不能保障等问题。救援机器人是可以自主移动的智能机器人,能代替人员对危险复杂的灾难现场进行勘察、检测、处理突发事件等活动,提高了救援效率,减少了人员伤亡。在救援时救援机器人会把现场实际信息反馈给指挥中心,使其以最快速度了解灾难现场具体情况,进行合理判断,并更好的实施救援安排,降低损失。
但传统的救援机器人通常需要技术人员在指挥中心操作机器的运转和现场破坏程度的检查,这些情况会导致救援行动充满不确定性,或者造成二次伤亡等。此外,由于救灾现场的复杂性,普通相机很难获得清晰的图像,而红外摄像头可以提供与可见光强度无关的稳定多光谱图像。所以,多光谱救灾机器人有很强的研究价值。
救援机器人进行工作时,要进入火灾、地震等救援现场,环境具有不确定和复杂性。为了使机器人能够更好的理解周围的场景,对环境的语义感知至关重要。利用图像语义分割技术,可以提高救援机器人在复杂场景中对物体的辨识和定位能力。由于传统语义分割方法在非结构化、目标多样化、形状不规则化以及光照变化、物体遮挡等复杂环境下的场景理解能力差,工作效率低,在火灾、爆炸、地震等高危救灾现场,为了精准高效的进行现场排查,减轻救援人员的工作压力,图像语义分割的精度仍有待进一步提升。
发明内容
与单一图像分割模型相比,运用数据深层融合图像分割方法在解决探测、跟踪和目标识别等问题方面,能够增强系统生存能力,提高整个系统的可靠性和鲁棒性,增强数据的可信度,并提高精度。为了进一步提高救援机器人图像语义分割的精度,提高救援机器人在灾难现场排查和分析的准确性,并能脱离人为指挥和控制,进行自主探测工作,本发明提出一种面向多光谱救援机器人的数据深层融合图像分割方法,包括以下步骤:
步骤一、生成目标分割训练数据集:
(1)信息采集:救援机器人主要利用自身所携带的摄像头对于外界环境数据信息进行收集,对于收集到的地理位置以及环境状态信息,转换成多光谱图像数据进行保存;
(2)人工标注数据集:为了进行神经网络的训练,在进行数据采集后,对多光谱图像逐像素点手动标注标签,每个标签表示当前像素点所属的物体类别;
步骤二、构建识别单光谱单目标图像分割的U型网络:
为了获取多光谱图像数据中特定目标的信息,采用U型网络进行单光谱单目标图像分割,其中U型网络的数目为k*m,其中k表示多光谱图像光谱的数目,m表示需要识别的特定目标数;
由于U型网络包含很多层,训练过程中会出现学习速度慢、学习效果过分依赖于初始数据分布以及梯度消失问题;为此,采用批量归一化来控制和提高U型网络训练过程中的学习速度和学习效果,其公式为:
步骤三、建立针对图像语义分割的证据理论-贝叶斯二阶段决策融合模型:
第一阶段融合,步骤二针对一个特定目标来训练模型i,该模型为单独的模型;采用传统证据理论方法输入所有k个光谱O1,O2,…,Ok的像素标签预测值,输出模型i融合预测值Fi:
Fi=DSFusion(O1,O2,…,Ok)
针对多光谱数据,每个光谱是一个独立的数据源,单独进行语义分割,对多光谱输出采用证据理论方法进行融合;由于传统证据理论只能进行二路融合,k路需要做k-1次获得结果;
第二阶段融合,对多个模型输出结果进行融合;设共有m个模型,则第一阶段输出的m个结果,采用朴素贝叶斯网络进行融合,获得最终输出标签X:
X=BayFusion(F1,F2,…,Fm)
贝叶斯网络结构和权重为预设值;
步骤四、训练获得多光谱数据融合的语义分割模型:
在整个网络架构好之后,对第一步得到的数据集进行训练;通过救援机器人的摄像头获取多光谱图像作为输入,图像像素级分类作为输出,进行端到端的训练。
本发明的有益效果:
本发明侧重点在针对于救援机器人的多光谱图像,通过基于深度学习的单光谱图像分割与决策融合模型方法有机融合在一起,输出多光谱救援机器人的语义分割结果。其优势在于:
1、深度神经网络能依据视频信号有效分辨机器人所处场景,利用深度学习方法进行场景识别有以下优势:首先,CNN可以从输入图像中自动提取包含更多语义和结构信息的特征,且经过网络结构中的非线性变换后变得更具有判别力;其次,深度层次结构能更好解释场景中的空间分布。
2、对小规模数据集进行预测时,使用传统单一图像分割模型检测效果不能达到预期准确率,且无法兼顾多项评价指标;相对于单一模型,利用针对图像语义分割的证据理论-贝叶斯二阶段决策融合模型在精确率、召回率、准确率等方面都有明显提升。
3、整体上能实现端到端,在标注数据充足的环境下,不需要人工干预,也能学到满意效果;机器人可以在复杂的救灾环境中自主检查灾难现场,提高检测准确性和效率,降低人工成本,缩短救灾时间,减少伤亡。
附图说明
图1为本发明面向多光谱救援机器人的数据深层融合图像分割示意图。
具体实施方式
本发明提出的一种面向多光谱救援机器人的数据深层融合图像分割方法,包括以下步骤:
步骤一、生成目标分割训练数据集:
(1)信息采集:救援机器人主要利用自身所携带的摄像头对于外界环境数据信息进行收集,对于收集到的地理位置以及环境状态信息,转换成多光谱图像数据进行保存;
(2)人工标注数据集:为了进行神经网络的训练,在进行数据采集后,对多光谱图像逐像素点手动标注标签,每个标签表示当前像素点所属的物体类别;所述的物体类别包括站立人体、躺卧人体、常见易燃品、常见易爆品、放射性装置、构筑物、落石或灾害现场常见物体。
步骤二、构建识别单光谱单目标图像分割的U型网络:
为了获取多光谱图像数据中特定目标的信息,采用U型网络进行单光谱单目标图像分割,其中U型网络的数目为k*m,其中k表示多光谱图像光谱的数目,m表示需要识别的特定目标数;
所述的U型网络是一种轻量级的全卷积神经网络,其结构简单,参数量小,适用于小数据集和二分类的使用场景。U型网络由编码器和解码器两部分组成,每个阶段都通过编码器和解码器之间的跳跃连接,将各阶段编码器与解码器生成的特征图在对应位置进行叠加,并利用卷积操作融合图像的浅层特征与深层特征。U型网络共包括23个卷积层、4个最大池化层即下采样和4个反卷积层即上采样。其中,编码器遵循典型的卷积网络结构,在每两个3×3的卷积层后,放置一个2×2最大池化层,其步长为2;使用ReLU作为激活函数,每经过一次下采样操作,特征通道数量加倍,所述的ReLU公式为:
f(x)=max(0,x)
解码器利用2×2的卷积核对特征图谱进行上采样,使特征通道数减半,将上采样后的特征图谱与来自收缩路径的特征图谱相结合,然后利用2次3×3的卷积进行卷积运算,并同样使用ReLU作为激活函数;最后,利用1×1的卷积核将每一个64维的特征向量映射到网络的输出层,并利用sigmoid函数对输出层进行处理最终转化为类别数量为2的结果,分别为“目标”和“背景”;
此外,由于U型网络包含很多层,训练过程中会出现学习速度慢、学习效果过分依赖于初始数据分布以及梯度消失问题;为此,采用批量归一化来控制和提高U型网络训练过程中的学习速度和学习效果,其公式为:
步骤三、建立针对图像语义分割的证据理论-贝叶斯二阶段决策融合模型:
传统的决策融合可以理解为一阶段融合,这里提出二阶段决策融合方法,用于图像语义分割。
第一阶段融合,步骤二针对一个特定目标来训练模型i,比如专门识别人体的模型、专门识别氧气瓶的模型、专门识别煤气罐的模型、专门识别构筑物的模型、专门识别树木的模型等,这些都是某一物体类别单独的模型。采用传统证据理论方法输入所有k个光谱O1,O2,…,Ok的像素标签预测值,输出模型i融合预测值Fi:
Fi=DSFusion(O1,O2,…,Ok)
针对多光谱数据,每个光谱是一个独立的数据源,单独进行语义分割,对多光谱输出采用证据理论方法进行融合;由于传统证据理论只能进行二路融合,k路需要做k-1次获得结果;
第二阶段融合,对多个模型输出结果进行融合;设共有m个模型,则第一阶段输出的m个结果,采用朴素贝叶斯网络进行融合,获得最终输出标签X:
X=BayFusion(F1,F2,…,Fm)
贝叶斯网络结构和权重为预设值;该预设值可以是经验值,体现领域专家知识;也可以在数据充分的情况下,用机器学习方法构建贝叶斯网络。
步骤四、训练获得多光谱数据融合的语义分割模型:
在整个网络架构好之后,对第一步得到的数据集进行训练;通过救援机器人的摄像头获取多光谱图像作为输入,图像像素级分类作为输出,进行端到端的训练,最后得到高精度的图像分割方法;当前的结构模型用子网络实现信息的分化与融合,不仅对神经网络的结构设计有一定意义,而且从理论到实例说明了该方法确能改善图像分割网络的精度。
Claims (4)
1.一种面向多光谱救援机器人的数据深层融合图像分割方法,其特征在于:包括以下步骤:
步骤一、生成目标分割训练数据集:
(1)信息采集:救援机器人对于外界环境数据信息进行收集,收集到的信息转换成多光谱图像数据进行保存;
(2)人工标注数据集:为了进行神经网络的训练,在进行信息采集后,对多光谱图像逐像素点手动标注标签,每个标签表示当前像素点所属的物体类别;
步骤二、构建识别单光谱单目标图像分割的U型网络:
为了获取多光谱图像数据中特定目标的信息,采用U型网络进行单光谱单目标图像分割,其中U型网络的数目为k*m,其中k表示多光谱图像光谱的数目,m表示需要识别的特定目标数;
步骤三、建立针对图像语义分割的证据理论-贝叶斯二阶段决策融合模型:
所述的二阶段决策融合包括:
第一阶段融合,步骤二针对一个特定目标来训练模型i,该模型为单独的模型;采用传统证据理论方法输入所有k个光谱O1,O2,...,Ok的像素标签预测值,输出模型i融合预测值Fi:
Fi=DSFusion(O1,O2,...,Ok)
第二阶段融合,对多个模型输出结果进行融合;设共有m个模型,则第一阶段输出的m个结果,采用朴素贝叶斯网络进行融合,获得最终输出标签X:
X=BayFusion(F1,F2,...,Fm)
贝叶斯网络结构和权重为预设值;
步骤四、训练获得多光谱数据融合的语义分割模型:
在整个网络架构好之后,对步骤一得到的数据集进行训练;通过救援机器人的摄像头获取多光谱图像作为输入,图像像素级分类作为输出,进行端到端的训练,最后得到高精度的图像分割方法。
2.根据权利要求1所述的一种面向多光谱救援机器人的数据深层融合图像分割方法,其特征在于:步骤一所述的信息采集是利用救援机器人自身所携带的摄像头来完成,收集的环境数据信息包括地理位置信息、环境状态信息;所述的物体类别包括站立人体、躺卧人体、常见易燃品、常见易爆品、放射性装置、构筑物、落石或灾害现场常见物体。
3.根据权利要求1所述的一种面向多光谱救援机器人的数据深层融合图像分割方法,其特征在于:步骤二所述的U型网络是一种轻量级的全卷积神经网络,由编码器和解码器两部分组成,每个阶段都通过编码器和解码器之间的跳跃连接,将各阶段编码器与解码器生成的特征图在对应位置进行叠加,并利用卷积操作融合图像的浅层特征与深层特征;U型网络共包括23个卷积层、4个最大池化层即下采样和4个反卷积层即上采样,其中,编码器遵循典型的卷积网络结构,在每两个3×3的卷积层后,放置一个2×2最大池化层,其步长为2;使用ReLU作为激活函数,每经过一次下采样操作,特征通道数量加倍,所述的ReLU公式为:
f(x)=max(0,x)
解码器利用2×2的卷积核对特征图谱进行上采样,使特征通道数减半,将上采样后的特征图谱与来自收缩路径的特征图谱相结合,然后利用2次3×3的卷积进行卷积运算,并同样使用ReLU作为激活函数;最后,利用1×1的卷积核将每一个64维的特征向量映射到网络的输出层,并利用sigmoid函数对输出层进行处理最终转化为类别数量为2的结果,分别为“目标”和“背景”。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010392001.0A CN111582280B (zh) | 2020-05-11 | 2020-05-11 | 一种面向多光谱救援机器人的数据深层融合图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010392001.0A CN111582280B (zh) | 2020-05-11 | 2020-05-11 | 一种面向多光谱救援机器人的数据深层融合图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111582280A true CN111582280A (zh) | 2020-08-25 |
CN111582280B CN111582280B (zh) | 2023-10-17 |
Family
ID=72120834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010392001.0A Active CN111582280B (zh) | 2020-05-11 | 2020-05-11 | 一种面向多光谱救援机器人的数据深层融合图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111582280B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016478A (zh) * | 2020-08-31 | 2020-12-01 | 中国电子科技集团公司第三研究所 | 一种基于多光谱图像融合的复杂场景识别方法及系统 |
CN113159038A (zh) * | 2020-12-30 | 2021-07-23 | 太原理工大学 | 一种基于多模态融合的煤岩分割方法 |
CN113240697A (zh) * | 2021-05-13 | 2021-08-10 | 安徽大学 | 一种生菜多光谱图像前景分割方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140006334A1 (en) * | 2012-06-28 | 2014-01-02 | Raytheon Company | System and method for scaled multinomial-dirichlet bayesian evidence fusion |
CN103714339A (zh) * | 2013-12-30 | 2014-04-09 | 武汉大学 | 基于矢量数据的sar影像道路损毁信息提取方法 |
CN105160299A (zh) * | 2015-07-31 | 2015-12-16 | 华南理工大学 | 基于贝叶斯融合稀疏表示分类器的人脸情感识别方法 |
CN105976809A (zh) * | 2016-05-25 | 2016-09-28 | 中国地质大学(武汉) | 基于语音和面部表情的双模态情感融合的识别方法及系统 |
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
CN108038498A (zh) * | 2017-12-05 | 2018-05-15 | 北京工业大学 | 一种基于子图匹配的室内场景对象语义标注方法 |
CN108898069A (zh) * | 2018-06-05 | 2018-11-27 | 辽宁石油化工大学 | 基于多分类器融合的视频火焰检测方法 |
CN110188606A (zh) * | 2019-04-23 | 2019-08-30 | 合刃科技(深圳)有限公司 | 基于高光谱成像的车道识别方法、装置及电子设备 |
CN110378344A (zh) * | 2019-05-05 | 2019-10-25 | 北京交通大学 | 基于谱维转换网络的卷积神经网络多光谱图像分割方法 |
US20200410674A1 (en) * | 2018-03-02 | 2020-12-31 | The Medical College Of Wisconsin, Inc. | Neural Network Classification of Osteolysis and Synovitis Near Metal Implants |
-
2020
- 2020-05-11 CN CN202010392001.0A patent/CN111582280B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140006334A1 (en) * | 2012-06-28 | 2014-01-02 | Raytheon Company | System and method for scaled multinomial-dirichlet bayesian evidence fusion |
CN103714339A (zh) * | 2013-12-30 | 2014-04-09 | 武汉大学 | 基于矢量数据的sar影像道路损毁信息提取方法 |
CN105160299A (zh) * | 2015-07-31 | 2015-12-16 | 华南理工大学 | 基于贝叶斯融合稀疏表示分类器的人脸情感识别方法 |
CN105976809A (zh) * | 2016-05-25 | 2016-09-28 | 中国地质大学(武汉) | 基于语音和面部表情的双模态情感融合的识别方法及系统 |
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
CN108038498A (zh) * | 2017-12-05 | 2018-05-15 | 北京工业大学 | 一种基于子图匹配的室内场景对象语义标注方法 |
US20200410674A1 (en) * | 2018-03-02 | 2020-12-31 | The Medical College Of Wisconsin, Inc. | Neural Network Classification of Osteolysis and Synovitis Near Metal Implants |
CN108898069A (zh) * | 2018-06-05 | 2018-11-27 | 辽宁石油化工大学 | 基于多分类器融合的视频火焰检测方法 |
CN110188606A (zh) * | 2019-04-23 | 2019-08-30 | 合刃科技(深圳)有限公司 | 基于高光谱成像的车道识别方法、装置及电子设备 |
CN110378344A (zh) * | 2019-05-05 | 2019-10-25 | 北京交通大学 | 基于谱维转换网络的卷积神经网络多光谱图像分割方法 |
Non-Patent Citations (3)
Title |
---|
孙晓敏: "基于U-Net的"高分五号"卫星高光谱图像土地类型分类", 《航天返回与遥感》, pages 101 * |
苏健民: "基于U-Net的高分辨率遥感图像语义分割方法", 《计算机工程与应用》, pages 207 - 213 * |
陈博: "遥感图像融合及应用研究", 《中国优秀硕士学位论文全文数据库》, pages 41 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016478A (zh) * | 2020-08-31 | 2020-12-01 | 中国电子科技集团公司第三研究所 | 一种基于多光谱图像融合的复杂场景识别方法及系统 |
CN112016478B (zh) * | 2020-08-31 | 2024-04-16 | 中国电子科技集团公司第三研究所 | 一种基于多光谱图像融合的复杂场景识别方法及系统 |
CN113159038A (zh) * | 2020-12-30 | 2021-07-23 | 太原理工大学 | 一种基于多模态融合的煤岩分割方法 |
CN113240697A (zh) * | 2021-05-13 | 2021-08-10 | 安徽大学 | 一种生菜多光谱图像前景分割方法 |
CN113240697B (zh) * | 2021-05-13 | 2022-10-18 | 安徽大学 | 一种生菜多光谱图像前景分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111582280B (zh) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111582280B (zh) | 一种面向多光谱救援机器人的数据深层融合图像分割方法 | |
Dong et al. | UAV-based real-time survivor detection system in post-disaster search and rescue operations | |
US20220036562A1 (en) | Vision-based working area boundary detection system and method, and machine equipment | |
CN111626116B (zh) | 基于融合多注意力机制和Graph的视频语义分析方法 | |
CN109000655B (zh) | 机器人仿生室内定位导航方法 | |
Dong et al. | Real-time survivor detection in UAV thermal imagery based on deep learning | |
Shahid et al. | Fire detection using transformer network | |
CN115731579A (zh) | 基于交叉注意力Transformer网络的陆生动物个体识别方法 | |
Chakravarthy et al. | Dronesegnet: Robust aerial semantic segmentation for uav-based iot applications | |
Matsumura et al. | Deep-learning-based stair detection using 3d point cloud data for preventing walking accidents of the visually impaired | |
Mmereki et al. | YOLOv3-based human activity recognition as viewed from a moving high-altitude aerial camera | |
Afridi et al. | Flood rescue operations using artificially intelligent UAVs | |
CN112560763A (zh) | 一种融合红外和可见光图像的目标检测方法 | |
Baudoin et al. | View-finder: robotics assistance to fire-fighting services and crisis management | |
CN112785564A (zh) | 一种基于机械臂的行人检测跟踪系统与方法 | |
CN117423157A (zh) | 一种结合迁移学习、区域入侵的矿井下异常视频动作理解方法 | |
US20230306742A1 (en) | Computer Vision Systems and Methods for Hazard Detection from Digital Images and Videos | |
Tabor et al. | People in the weeds: Pedestrian detection goes off-road | |
Ruan et al. | A taxonomy of semantic information in robot-assisted disaster response | |
Zhang et al. | Semantic segmentation of point clouds of field obstacle-crossing terrain for multi-legged rescue equipment based on random forest | |
Mohan et al. | Hybrid Transfer Learning Approach using Multiple Pre-trained Models for Classification of Outdoor Images into AQI Classes | |
Srivastava | Similarity-Based Neural Network Model for FBIR System ofOptical Satellite Image Quality Assessment | |
Miyazato et al. | Development of a free viewpoint pedestrian recognition system using deep learning for multipurpose flying drone | |
Khan et al. | Flood-ResNet50: Optimized Deep Learning Model for Efficient Flood Detection on Edge Device | |
Rai et al. | Auto Neural Architecture Generator for UAV-Based Geospatial Surveillance for Aerial Crisis Mapping in Dark |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |