CN114677604B - 一种基于机器视觉的窗户状态检测方法 - Google Patents

一种基于机器视觉的窗户状态检测方法 Download PDF

Info

Publication number
CN114677604B
CN114677604B CN202210419549.9A CN202210419549A CN114677604B CN 114677604 B CN114677604 B CN 114677604B CN 202210419549 A CN202210419549 A CN 202210419549A CN 114677604 B CN114677604 B CN 114677604B
Authority
CN
China
Prior art keywords
window
detection
image
network
windowing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210419549.9A
Other languages
English (en)
Other versions
CN114677604A (zh
Inventor
刘霖
吴宏程
郭权浩
张静
刘娟秀
杜晓辉
刘永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210419549.9A priority Critical patent/CN114677604B/zh
Publication of CN114677604A publication Critical patent/CN114677604A/zh
Application granted granted Critical
Publication of CN114677604B publication Critical patent/CN114677604B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于机器视觉的窗户状态检测方法,其特点是,首先对窗户图像数据进行Yolov5深度学习算法下的目标检测以及基于迁移学习的再训练,得到窗户检测及开窗区域检测的准确模型,然后用Trans2seg深度学习算法对窗户中的玻璃进行自动分割,将检测出的开窗区域作为感兴趣区域,计算此区域中Trans2seg网络分割处的玻璃的面积占比,面积占比低于10%的条件作为开窗区域检测的二次确认。该方法能够提高窗户中可通行区域(开窗区域)检测的可行度,提高飞行进入的安全性。

Description

一种基于机器视觉的窗户状态检测方法
技术领域
本发明涉及数字图像处理和机器学习、深度学习技术领域,具体讲是一种基于机器视觉的无人机自主穿越窗户的方法,可将无人机摄像头所拍摄到的图像实时地进行目标检测和图像分割两个模型的推理,在复杂的环境下实现对开窗区域的可靠检测,确保无人机能安全地从窗户穿入。
背景技术
在城市消防过程中,无人机侦察在高楼失火的场景下能够发挥巨大作用。目前无人机城市低空飞行主要依赖于人为操控,入窗操作对无人机操作手的熟练程度要求极高。且操作手所处位置受目视范围的限制,对于一些高楼入窗侦察任务,手动操控可能会有一定的危险性。具体来说危险性来自于窗户中的玻璃部分,无人机飞到高楼的窗外时,在室内光线较强的情况下,摄像头传回的图像中的玻璃区域会出现难以分辨的情况,而操作手的误判很容易导致坠机。另外,高空中的气流对无人机的平稳飞行是一大考验,采用全自动的方法在一定程度上能够避免由人为操作的因素导致的无人机碰撞事故。一方面现有的入窗方法大部分依靠人为操控,飞行安全性很依赖于操作手的熟练程度。另一方面说,现有门窗检测方法大部分都只基于传统的目标检测算法,容易受到环境等因素的影响,并且对于开窗区域的检测效果较差,无法满足实际需求。
发明内容
本发明针对目前无人机入窗技术存在的问题:由于传统自动识别检测等算法不够成熟可靠,需要人为操控所带来的不便利性,设计了一种基于深度学习模型的窗户及开窗区域自动识别算法,以此实现快速、可靠、低成本高自动化的识别开窗区域的目的,确保无人机能够平稳安全地从窗户中进入。
针对窗户及开窗区域的自动识别问题,实现是针对窗户和开窗区域标注成目标检测和图像分割两种标签格式的数据,构建两个分支的神经网络,第一个分支使用YOLOV5网络对图像中窗户及开窗区域的形状、颜色等特征进行学习,使得能够有效地检出窗户和开窗区域两类。另一个分支,使用Trans2seg网络,对图像中的玻璃区域的颜色空间、梯度值等特征进行学习,实现对玻璃区域的语义分割。最后将两个分支的处理结果融合起来,判断检测出的开窗区域内部是否有分割出的玻璃区域,如果分割出的玻璃区域占比低于10%,输出此检测框为最终的开窗区域。
本发明技术方案是一种基于机器视觉的窗户状态检测方法,该方法包括以下步骤:
步骤1:采集无人机视角窗户图像数据;
步骤2:对步骤1采集到的样本图像,使用仿射变换、灰度值调整为每张图像进行数据增强,模拟不同环境下的入窗视野;
步骤3:对步骤2处理后的图像,为每张图像创建目标检测标签,以矩形框标记图像中的窗户和开窗区域两类目标,构建窗户及开窗区域检测数据集dataset_1;
步骤4:构建目标检测识别网络,并放入窗户检测数据集dataset_1进行目标检测识别网络训练,识别出窗户及开窗区域两类目标,并剔除检测出不在窗户内部的开窗区域检测框;
步骤5:对步骤2处理后的图像,为每张图像创建图像分割标签,逐像素标记图像中窗户上的玻璃区域,构建玻璃分割数据集dataset_2;
步骤6:构建图像分割网络,并放入窗户玻璃分割数据集dataset_2进行图像分割网络训练,分割出窗户上的玻璃;
步骤7:对步骤4检测所得的窗户及开窗区域检测框与步骤6所得到的玻璃分割结果做对照,将检测到含有分割出玻璃的开窗区域检测框作为误检而去掉,得到最终检测结果。
其中,所述步骤4具体为:首先对输入图像进行尺寸归一化操作;然后采用yolov5s模型作为目标检测识别网络,yolov5s模型使用了马赛克数据增强模块、自适应锚框计算模块、自适应图片缩放模块;在骨干网络第一层处添加focus结构,并使用CSP结构以降低运算量;网络检测头有三个预测分支,这三个预测分支上的目标置信度损失需要进行加权再相加,得到总的目标置信度损失,权重分别为[4.0,1.0,0.4];所述目标检测识别网络的更新梯度损失为坐标损失、目标置信度损失和分类损失相加后再乘以每批处理的样本的个数;所述目标置信度损失和分类损失采用带log的二值交叉熵损失,坐标损失采用CioU损失;
目标检测识别网络输出窗户区域和开窗区域后,采用加权的非极大值抑制算法对目标检测识别网络输出的检测框和交并比大于等于非极大值抑制阈值的相邻检测框进行加权平均;最后对输出的表示窗户和开窗区域的检测框进行坐标判断,剔除检测出在窗户检测框之外的开窗区域检测框。
进一步的,所述步骤5,对图像中的玻璃区域进行标注,标注生成包含凸多边形顶点坐标,提取该文件中的坐标信息,建立一张和原始图像尺寸相同的二值图像,背景区域置0,目标玻璃区域置1,并作伪彩色处理,最终得到标签图。
进一步的,所述步骤6,构建带有hybrid CNN-Transformer的Trans2seg透明物体分割网络,该网络采用变压器解码器结构,提供了一个全局的接受域,在掩膜预测中具有更强的动态性,具有很好的优越性;具体流程如下:首先,将图像输入到CNN,提取特征;其次对于Transformer解码器,将特征和位置嵌入平滑后馈送给Transformer进行自我注意,并从Transformer解码器输出特征Fe;然后,针对Transformer解码器,定义一组可学习类原型嵌入Ecls作为查询,Fe作为键,并利用Ecls和Fe计算注意图;每个类的原型嵌入对应一个最终预测的类别。
进一步的,所述步骤7,计算每个开窗区域检测框中玻璃区域的面积占比,如果高于20%则认为是误检,对其进行剔除。
本发明是一种基于机器视觉的无人机自主穿越窗户的方法,该方法首先是对摄像头采集到图像的进行YOLOv5的目标检测推理,识别出建筑物外墙上的窗户和开窗区域两类目标。与此同时进行Trans2seg玻璃分割推理,分割出建筑物外墙上的玻璃。然后再结合两个网络的推理结果,判断开窗区域检测框中是否含有玻璃,剔除含有玻璃分割的Mask面积占比超过20%的检测框,以降低误检的概率,提高无人机入窗的安全性。本发明与需要专业无人机操作手的入窗手段相比,具有大众实用性强、可靠性高、低成本高度自动化的特点,与基于传统图像特征的检测方法相比,使用基于卷积神经网络的特征提取技术具有更好的鲁棒性。
附图说明
图1为hybrid CNN-Transformer的Trans2seg透明物体分割网络示意图。
图2为基于机器视觉的无人机自主穿越窗户的方法流程图。
图3为本发明实现可入窗区域检测的一次实验结果。
具体实施方式
下面结合附图和实例对本发明做进一步的详细说明,但是本发明的实施方式并不局限于此。
本发明为克服在无人机入窗过程中,由人为操控飞行带来的不安全性问题。不安全性在于操作手不熟练、目视范围受阻、或者无人机回传画面中的玻璃区域被误判成可通行的开窗区域。采用无人机全自动入窗的方法在一定程度上能够避免由人为操作所带来的潜在危险。目前,常见的开窗区域检测算法普遍容易受到环境的影响,可靠程度和鲁棒性都远远达不到应用的要求。对此,本发明提出了一个基于深度学习的解决方案,通过摄像头等设备采集无人机的实时画面,时刻对画面中的窗户及开窗区域进行检测,实现快速高效锁定入窗区域的功能。
本发明算法流程图如图2所示,一种基于机器视觉的窗户状态检测方法,具体来说,包括以下步骤:
步骤1:采集无人机视角窗户图像数据;
步骤2:对步骤1采集到的样本图像,使用仿射变换、灰度值调整为每张图像进行数据增强,模拟不同环境下的入窗视野;
步骤3:对步骤2处理后的图像,为每张图像创建目标检测标签,以矩形框标记图像中的窗户和开窗区域两类目标,构建窗户及开窗区域检测数据集dataset_1;
步骤4:构建目标检测识别网络,并放入步骤1的窗户检测数据集dataset_1进行目标检测识别网络训练,识别出窗户及开窗区域两类目标,并剔除检测出不在窗户内部的开窗区域检测框;
步骤5:对步骤2处理后的图像,为每张图像创建图像分割标签,逐像素标记图像中窗户上的玻璃区域,构建玻璃分割数据集dataset_2;
步骤6:构建图像分割网络,并放入步骤1的窗户玻璃分割数据集dataset_2进行图像分割网络训练,分割出窗户上的玻璃;
步骤7:对步骤4检测所得的窗户及开窗区域检测框与步骤6所得到的玻璃分割结果做对照,将检测到含有分割出玻璃的开窗区域检测框作为误检而去掉,从而提高无人机入窗的安全性;
其中,所述步骤4具体为:搭建YOLOV5网络,选择yolov5s预训练模型,对原始的三通道图像进行随机裁剪成640×640像素尺寸,作为模型的输入,经过网络的马赛克数据增强、自适应锚框计算、自适应图片缩放等操作解决小目标检测的问题。此外,在骨干网络使用Focus结构使图片在下采样的过程中不带来信息丢失的情况下将W、H的信息集中到通道上。以及在骨干网络上使用CSP结构以降低运算量。损失函数选用坐标损失、目标置信度损失和分类损失三部分。其中目标置信度损失和分类损失采用BCEWithLogitsLoss(带log的二值交叉熵损失),坐标损失采用CIoU损失。网络中3个预测分支上的目标置信度损失需要进行加权再相加,得到总的目标置信度损失,权重分别为[4.0,1.0,0.4],其中4.0是用在大特征图(预测小目标)上。最后将分类损失、坐标损失、置信度损失直接相加得到一个总损失,再乘以批处理样本个数大小,得到用于更新梯度的损失。推理阶段,使用加权的非极大值抑制算法,加权平均的对象包括锚框本身和交并比大于等于非极大值抑制阈值的相邻框,以获得更高的精度和召回率。对于输出的窗户和开窗区域检测框进行坐标判断,剔除检测出在窗户检测框之外的开窗区域检测框。
其中,对于步骤5,使用Labelme工具对图像中的玻璃区域进行标注,标注生成包含凸多边形顶点坐标的Json文件。提取该文件中的坐标信息,建立一张和原始图像尺寸相同的二值图像,背景区域置0,目标玻璃区域置1,并作伪彩色处理,最终得到标签图。
其中,对于步骤6,构建带有hybrid CNN-Transformer的Trans2seg透明物体分割网络,该网络采用编码器解码器结构,提供了一个全局的接受域,在掩膜预测中具有更强的动态性,具有很好的优越性。具体流程如下:首先,将图像输入到CNN,提取特征。其次对于Transformer解码器,将特征和位置嵌入平滑后馈送给Transformer进行自我注意,并从Transformer解码器输出特征(Fe)。第三,针对Transformer解码器,定义一组可学习类原型嵌入(Ecls)作为查询,Fe作为键,并利用Ecls和Fe计算注意图。每个类的原型嵌入对应一个最终预测的类别。
其中,对于步骤7,整合YOLOv5窗户及开窗区域检测网络和Trans2seg玻璃分割网络的推理步骤于一体,具体实现是采用多进程处理,设推理YOLOv5网络所需时间为model1_time_cost,推理Trans2seg网络所需时间为model2_time_cost,则总体推理耗时约max(model1_time_cost,model2_time_cost)。将步骤4输出的检测框和步骤7输出的掩膜绘制于同一副图像中,计算每个开窗区域检测框中玻璃分割掩膜的面积占比,如果高于20%则认为是误检,对其进行剔除。

Claims (4)

1.一种基于机器视觉的窗户状态检测方法,该方法包括以下步骤:
步骤1:采集无人机视角窗户图像数据;
步骤2:对步骤1采集到的样本图像,使用仿射变换、灰度值调整为每张图像进行数据增强,模拟不同环境下的入窗视野;
步骤3:对步骤2处理后的图像,为每张图像创建目标检测标签,以矩形框标记图像中的窗户和开窗区域两类目标,构建窗户及开窗区域检测数据集dataset_1;
步骤4:构建目标检测识别网络,并放入窗户检测数据集dataset_1进行目标检测识别网络训练,识别出窗户及开窗区域两类目标,并剔除检测出不在窗户内部的开窗区域检测框;
步骤5:对步骤2处理后的图像,为每张图像创建图像分割标签,逐像素标记图像中窗户上的玻璃区域,构建玻璃分割数据集dataset_2;
步骤6:构建图像分割网络,并放入窗户玻璃分割数据集dataset_2进行图像分割网络训练,分割出窗户上的玻璃;
步骤7:对步骤4检测所得的窗户及开窗区域检测框与步骤6所得到的玻璃分割结果做对照,将检测到含有分割出玻璃的开窗区域检测框作为误检而去掉,得到最终检测结果;
其中,所述步骤4具体为:首先对输入图像进行尺寸归一化操作;然后采用yolov5s模型作为目标检测识别网络,yolov5s模型使用了马赛克数据增强模块、自适应锚框计算模块、自适应图片缩放模块;在骨干网络第一层处添加focus结构,并使用CSP结构以降低运算量;网络检测头有三个预测分支,这三个预测分支上的目标置信度损失需要进行加权再相加,得到总的目标置信度损失,权重分别为[4.0,1.0,0.4];所述目标检测识别网络的更新梯度损失为坐标损失、目标置信度损失和分类损失相加后再乘以每批处理的样本的个数;所述目标置信度损失和分类损失采用带log的二值交叉熵损失,坐标损失采用CioU损失;
目标检测识别网络输出窗户区域和开窗区域后,采用加权的非极大值抑制算法对目标检测识别网络输出的检测框和交并比大于等于非极大值抑制阈值的相邻检测框进行加权平均;最后对输出的表示窗户和开窗区域的检测框进行坐标判断,剔除检测出在窗户检测框之外的开窗区域检测框。
2.如权利要求1所述的一种基于机器视觉的窗户状态检测方法,其特征在于,所述步骤5,对图像中的玻璃区域进行标注,标注生成包含凸多边形顶点坐标,提取坐标信息,建立一张和原始图像尺寸相同的二值图像,背景区域置0,目标玻璃区域置1,并作伪彩色处理,最终得到标签图。
3.如权利要求1所述的一种基于机器视觉的窗户状态检测方法,其特征在于,所述步骤6,构建带有hybrid CNN-Transformer的Trans2seg透明物体分割网络,该网络采用变压器解码器结构,提供了一个全局的接受域,在掩膜预测中具有更强的动态性,具有很好的优越性;具体流程如下:首先,将图像输入到CNN,提取特征;其次对于Transformer解码器,将特征和位置嵌入平滑后馈送给Transformer进行自我注意,并从Transformer解码器输出特征Fe;然后,针对Transformer解码器,定义一组可学习类原型嵌入Ecls作为查询,Fe作为键,并利用Ecls和Fe计算注意图;每个类的原型嵌入对应一个最终预测的类别。
4.如权利要求1所述的一种基于机器视觉的窗户状态检测方法,其特征在于,所述步骤7,计算每个开窗区域检测框中玻璃区域的面积占比,如果高于20%则认为是误检,对其进行剔除。
CN202210419549.9A 2022-04-20 2022-04-20 一种基于机器视觉的窗户状态检测方法 Active CN114677604B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210419549.9A CN114677604B (zh) 2022-04-20 2022-04-20 一种基于机器视觉的窗户状态检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210419549.9A CN114677604B (zh) 2022-04-20 2022-04-20 一种基于机器视觉的窗户状态检测方法

Publications (2)

Publication Number Publication Date
CN114677604A CN114677604A (zh) 2022-06-28
CN114677604B true CN114677604B (zh) 2023-04-07

Family

ID=82077618

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210419549.9A Active CN114677604B (zh) 2022-04-20 2022-04-20 一种基于机器视觉的窗户状态检测方法

Country Status (1)

Country Link
CN (1) CN114677604B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106968552A (zh) * 2017-05-23 2017-07-21 孙霞 基于图像处理的安全窗户控制方法
CN107093205A (zh) * 2017-03-15 2017-08-25 北京航空航天大学 一种基于无人机图像的三维空间建筑物窗户检测重建方法
JP2018185759A (ja) * 2017-04-27 2018-11-22 シスメックス株式会社 画像解析方法、装置、プログラムおよび深層学習アルゴリズムの製造方法
CN111339917A (zh) * 2020-02-24 2020-06-26 大连理工大学 一种真实场景下玻璃检测的方法
CN111369539A (zh) * 2020-03-06 2020-07-03 浙江大学 一种基于多特征图融合的建筑立面窗户检测系统
CN111985518A (zh) * 2020-02-18 2020-11-24 广东三维家信息科技有限公司 门窗检测方法及其模型训练的方法、装置
CN113139470A (zh) * 2021-04-25 2021-07-20 安徽工业大学 一种基于Transformer的玻璃识别方法
CN113570615A (zh) * 2021-02-04 2021-10-29 腾讯科技(深圳)有限公司 一种基于深度学习的图像处理方法、电子设备及存储介质
CN113902712A (zh) * 2021-10-12 2022-01-07 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、装置、设备及介质
CN114241325A (zh) * 2022-02-07 2022-03-25 中国科学院地理科学与资源研究所 基于街景图片的空调挂机空间分布自动识别方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107093205A (zh) * 2017-03-15 2017-08-25 北京航空航天大学 一种基于无人机图像的三维空间建筑物窗户检测重建方法
JP2018185759A (ja) * 2017-04-27 2018-11-22 シスメックス株式会社 画像解析方法、装置、プログラムおよび深層学習アルゴリズムの製造方法
CN106968552A (zh) * 2017-05-23 2017-07-21 孙霞 基于图像处理的安全窗户控制方法
CN111985518A (zh) * 2020-02-18 2020-11-24 广东三维家信息科技有限公司 门窗检测方法及其模型训练的方法、装置
CN111339917A (zh) * 2020-02-24 2020-06-26 大连理工大学 一种真实场景下玻璃检测的方法
CN111369539A (zh) * 2020-03-06 2020-07-03 浙江大学 一种基于多特征图融合的建筑立面窗户检测系统
CN113570615A (zh) * 2021-02-04 2021-10-29 腾讯科技(深圳)有限公司 一种基于深度学习的图像处理方法、电子设备及存储介质
CN113139470A (zh) * 2021-04-25 2021-07-20 安徽工业大学 一种基于Transformer的玻璃识别方法
CN113902712A (zh) * 2021-10-12 2022-01-07 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、装置、设备及介质
CN114241325A (zh) * 2022-02-07 2022-03-25 中国科学院地理科学与资源研究所 基于街景图片的空调挂机空间分布自动识别方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Guangmin Sun等.Study on Improved YOLO_v3-based Algorithm for Identifying Open Windows on Building Facades.《5th International Conference on Computer Science and Information Engineering (ICCSIE 2020) 》.2020,1-10. *
Luqman Ali等.Bibliometric Analysis and Review of Deep Learning-Based Crack Detection Literature Published between 2010 and 2022.《Buildings》.2022,第12卷1-35. *
陈佳舟等.三维城市场景中的小物体检测.《计算机科学》.2022,第49卷238-244. *
高天禹等.基于激光测距与单目视觉的微型无人机室内目标人物搜索方法研究.《中国科学:技术科学》.2020,第50卷971-982. *

Also Published As

Publication number Publication date
CN114677604A (zh) 2022-06-28

Similar Documents

Publication Publication Date Title
CN109977918B (zh) 一种基于无监督域适应的目标检测定位优化方法
CN109858555B (zh) 基于图像的数据处理方法、装置、设备及可读存储介质
CN109255317B (zh) 一种基于双网络的航拍图像差异检测方法
Foedisch et al. Adaptive real-time road detection using neural networks
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN111784747B (zh) 一种基于关键点检测和校正的车辆多目标跟踪系统及方法
CN112801018A (zh) 一种跨场景目标自动识别与追踪方法及应用
CN109145756A (zh) 基于机器视觉和深度学习的目标检测方法
CN112464911A (zh) 基于改进YOLOv3-tiny的交通标志检测与识别方法
CN113378676A (zh) 基于多特征融合的图像中人物交互检测方法
CN112580657B (zh) 一种自学习字符识别方法
CN112906678B (zh) 基于监控视频的非法遛狗事件检测方法、装置
CN112712052A (zh) 一种机场全景视频中微弱目标的检测识别方法
CN114821014A (zh) 基于多模态与对抗学习的多任务目标检测识别方法及装置
CN113128481A (zh) 一种人脸活体检测方法、装置、设备及存储介质
CN104778699A (zh) 一种自适应对象特征的跟踪方法
CN111767831A (zh) 用于处理图像的方法、装置、设备及存储介质
CN113128476A (zh) 一种基于计算机视觉目标检测的低功耗实时头盔检测方法
CN117437647B (zh) 基于深度学习和计算机视觉的甲骨文字检测方法
Varun et al. A road traffic signal recognition system based on template matching employing tree classifier
CN106650814B (zh) 一种基于车载单目视觉室外道路自适应分类器生成方法
CN111898608B (zh) 一种基于边界预测的自然场景多语言文字检测方法
CN113537017A (zh) 基于级联型回归修正的光学遥感图像飞机检测方法和装置
CN114677604B (zh) 一种基于机器视觉的窗户状态检测方法
CN117115655A (zh) 一种自然环境下番茄果实的检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant