CN111310592B - 一种基于场景分析和深度学习的检测方法 - Google Patents
一种基于场景分析和深度学习的检测方法 Download PDFInfo
- Publication number
- CN111310592B CN111310592B CN202010064922.4A CN202010064922A CN111310592B CN 111310592 B CN111310592 B CN 111310592B CN 202010064922 A CN202010064922 A CN 202010064922A CN 111310592 B CN111310592 B CN 111310592B
- Authority
- CN
- China
- Prior art keywords
- matrix
- classifier
- data set
- scene
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于场景分析和深度学习的检测方法,属于计算机视觉技术领域,包括构建第一数据集,训练目标检测网络器;将第一数据集输入训练好的目标检测网络器,得到人体目标矩阵和头部目标矩阵;提取安全帽佩戴矩阵;构建第二数据集,训练识别天气场景分类器、识别逆光和暗光分类器和识别模糊图像分类器;将第一数据集输入到分类器中得到相应的矩阵;将相应矩阵连通安全帽佩戴矩阵、实际标签矩阵合并成训练样本矩阵;将训练样本矩阵输入神经网络分类器中进行训练;将待检测图像输入训练好的神经网络分类器中确定检测结果。本发明能够克服施工工地的复杂场景干扰,极大提高算法准确率。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于场景分析和深度学习的检测方法。
背景技术
随着城市化进程的不断推进,基础建设的需求不断增加,工地施工环境作为基础建设的一个基本设施,直接影响施工工人的人身安全。施工工人佩戴安全帽能够降低施工工人的安全威胁,因此,安全帽的佩戴检查成为了安全检查的重点。
传统的检查安全帽佩戴的方法是人为观看现场监控视频或者现场查看施工工人是否佩戴安全帽,这种方法会花费大量的人力、效率低下,且无法做到实时监控。随着人工智能的普及,人工智能替代人力去检查安全帽佩戴的规范,已成为近几年的趋势。目前,主要是采用计算机视觉领域中的目标检测技术来完成这一任务。目标检测技术主要采用基于深度学习模型的方法,但也存在无法充分利用场景信息的问题,容易导致一些有效信息的缺失。而现实的场景往往较为复杂,且具有天气、采光、遮挡等干扰因素,这些给目标检测技术的应用带来了很大挑战,因此对目标检测技术进行更深层次的研究具有重大意义。
发明内容
本发明的目的在于提供一种基于场景分析和深度学习的检测方法,它不仅保留了计算机视觉算法准确、快速的优点,而且克服了施工工地的复杂场景干扰,能够极大提高算法准确率,得到更好的用户体验。
为实现上述目的,本发明提供如下技术方案:
一种基于场景分析和深度学习的检测方法,包括以下步骤:
S1:采集施工工地的监控图像构建第一数据集,利用施工工地数据集训练构建用于检测人体和头部的目标检测网络器;
S2:将第一数据集分别输入训练好的目标检测网络器,得到人体目标矩阵和头部目标矩阵;
S3:对人体目标矩阵中的人体置信度和头部目标矩阵的佩戴安全帽置信度进行加权求和生成安全帽佩戴矩阵;
S4:采集不同场景的图片构建第二数据集,利用第二数据集分别训练识别天气场景分类器、识别逆光和暗光分类器和识别模糊图像分类器;
S5:将第一数据集分别输入识别天气场景分类器、识别逆光和暗光分类器和识别模糊图像分类器中得到相应的矩阵;
S6:将S5得到的矩阵连通安全帽佩戴矩阵、实际标签矩阵合并成训练样本矩阵;
S7:将训练样本矩阵输入神经网络分类器中进行训练;
S8:将待检测图像输入训练好的神经网络分类器中确定检测结果。
进一步的,所述施工工地数据集通过实际场景的现场监控进行采集。
进一步的,所述目标检测网络器是基于yoloV3模型。
进一步的,所述第二数据集涵盖全天24小时、气候、天气、清晰度、距离、光照角度以及遮挡因素。
进一步的,所述模糊图像分类器的构建方法为:对第二数据集进行拉普拉斯变换并计算出均值和方差,将方差的值作为训练数据,训练构建的模糊图像分类器,所述模糊图像分类器为基于逻辑回归的模糊图像分类器。
进一步的,所述样本实际标签矩阵由监控图像中的人体目标佩戴安全帽的合规性样本组成。
与现有技术相比,本发明的有益效果是:本发明通过将场景分析与深度学习模型相结合,提出了一种基于场景分析和深度学习联合决策的安全帽佩戴检测算法,既保留了计算机视觉算法准确,快速的优点,又克服了施工工地的复杂场景干扰,能够极大提高算法准确率,得到更好的用户体验。
附图说明
图1为本发明的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提供一种基于场景分析和深度学习的检测方法,包括以下步骤:
S1:采集施工工地的监控图像构建第一数据集,利用施工工地数据集训练构建用于检测人体和头部的目标检测网络器。在本实施例中,该施工工地数据集涵盖了楼房、地铁、隧道、道路等多种施工场景,可以为目标检测网络器的训练提供很好的支持。除此之外,本实施例中的目标检测网络器是基于yoloV3模型构建的,主要用于检测图像中的人体目标和头部目标。
S2:将第一数据集分别输入训练好的目标检测网络器,得到人体目标矩阵和头部目标矩阵。在本实施例中,具体方式是通过将第一数据集分别输入到目标检测网络器中检测图像中人体目标和头部目标,得到图像目标信息矩阵Md,图像目标信息矩阵Md具体如下:
Md={Mdi|Mdi=(clsi,confi,xi,yi,wi,hi),i=1、2、3…}
其中,clsi表示目标的标签ID,confi表示该目标的置信度,xi表示坐标框左上点的横坐标,yi表示坐标框左上点的纵坐标,wi表示目标坐标框的宽度,hi表示目标坐标框的高度,xi、yi、wi以及hi共同表示目标的坐标框。
然后遍历图像目标信息矩阵Md的人体目标和头部目标,分别生成用于存储人体目标的人体目标矩阵Mp和用于存储头部目标的头部目标矩阵Mh,然后将人体目标矩阵Mp和头部目标矩阵Mh进行匹配,得到人体匹配头部信息矩阵Mp-h,所述人体匹配头部信息矩阵Mp-h具体如下:
Mp-h={Mp-hi|Mp-hi=(confpi,confhi,xpi,ypi,wpi,hpi),i=1、2、3…}
其中,confpi表示人体置信度,confhi表示佩戴安全帽置信度,xpi表示人体目标的坐标框左上点的横坐标,ypi表示人体目标的坐标框左上点的纵坐标,wpi表示人体目标的坐标框的宽度,hpi表示人体目标的坐标框的高度,xpi,ypi,wpi以及hpi共同表示人体目标的坐标框。
S3:对人体目标矩阵中的人体置信度和头部目标矩阵的佩戴安全帽置信度进行加权求和生成安全帽佩戴矩阵。具体方式是通过将人体置信度和佩戴安全帽置信度进行加权平均,得到人体佩戴安全帽的置信度confH,即
confH=(α*confp+β*confh)*0.5
其中,α的数值为0.34,β的数值为0.66。
最后可以生成安全帽佩戴信息矩阵MH:
MH={MHi|MHi=(confHi,xpi,ypi,wpi,hpi),i=1、2、3…}
S4:采集不同场景的图片构建第二数据集,利用第二数据集分别训练识别天气场景分类器、识别逆光和暗光分类器和识别模糊图像分类器。
S5:将第一数据集分别输入识别天气场景分类器、识别逆光和暗光分类器和识别模糊图像分类器中得到相应的矩阵。
在该实施例中,所述第二数据集涵盖全天24小时,雨天,雾天,晴天,阴天,春夏秋冬,模糊,逆光,远景,遮挡,暗光等因素。
首先,利用第二数据集训练识别天气场景的级联结构的第一分类器,将第一数据集输入到训练好的第一分类器中,提取天气场景置信度信息矩阵Mw,所述天气场景置信度信息矩阵Mw具体如下:
Mw={Mwi|Mwi=(ri,fi,si,ci),i=1、2、3…}
其中,ri表示雨天的置信度,fi表示雾天的置信度,si表示晴天的置信度,表示ci阴天的置信度。
然后,采用第二数据集中的直方图信息训练识别逆光和暗光的级联结构的第二分类器,将第一数据集输入到训练好的第二分类器中,提取逆光和暗光置信度信息矩阵ML,所述逆光和暗光置信度信息矩阵ML具体如下:
ML={MLi|MLi=(bi,di,ni),i=1、2、3…}
其中,bi表示逆光的置信度,di表示暗光的置信度,ni表示光线正常。
之后,利用第二数据集训练一个模糊图像分类器,对图像进行拉普拉斯变换并计算出均值和方差,并将方差的值作为训练数据,采用训练数据训练一个基于逻辑回归的模糊图像分类器,将第一数据集输入到训练好的模糊图像分类器中,得到模糊的置信度blur。
最后,将天气场景置信度信息矩阵,逆光和暗光置信度信息矩阵以及模糊置信度进行合并得到场景信息矩阵Ms,所述场景信息矩阵Ms具体如下:
Ms={Msi|Msi=(ri,fi,si,ci,bi,di,ni,bluri),i=1、2、3…}
S6:将场景信息矩阵连通安全帽佩戴矩阵、实际标签矩阵合并成训练样本矩阵。
在该实施例中,实际标签矩阵Mt是由第一数据集中监控图像的人体目标佩戴安全帽的合规性样本组成。所述实际标签矩阵Mt具体如下:
实际标签矩阵Mt={Mti|Mti=(ti),i=1、2、3…},其中ti为人体目标佩戴安全帽的合规性。
所以,训练样本矩阵MT具体如下:
MT={MTi|MTi=(confHi,ri,fi,si,ci,bi,di,ni,bluri,ti),i=1、2、3…}
S7:将训练样本矩阵输入神经网络分类器中进行训练;
S8:将待检测图像输入训练好的神经网络分类器中确定检测结果。如果检测结果为合规,则人体目标佩戴安全帽;如果检测结果为不合规,则人体目标未佩戴安全帽。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (6)
1.一种基于场景分析和深度学习的检测方法,其特征在于:包括以下步骤:
S1:采集施工工地的监控图像构建第一数据集,利用施工工地数据集训练构建用于检测人体和头部的目标检测网络器;
S2:将第一数据集分别输入训练好的目标检测网络器,得到人体目标矩阵和头部目标矩阵,对人体目标矩阵和头部目标矩阵进行匹配;
S3:对相互匹配的人体目标矩阵中的人体置信度和头部目标矩阵的佩戴安全帽置信度进行加权求和生成安全帽佩戴矩阵;具体方法如下:通过将人体置信度和佩戴安全帽置信度进行加权平均,得到人体佩戴安全帽的置信度;人体佩戴安全帽的置信度连同人体目标的坐标框左上点的横坐标、纵坐标、坐标框的宽度、坐标框的高度生成安全帽佩戴矩阵;所述人体置信度和佩戴安全帽置信度由所述目标检测网络器检测得到;
S4:采集不同场景的图片构建第二数据集,利用第二数据集分别训练识别天气场景分类器、识别逆光和暗光分类器和识别模糊图像分类器;
S5:将第一数据集分别输入识别天气场景分类器、识别逆光和暗光分类器和识别模糊图像分类器中得到相应的矩阵;
S6:将S5得到的矩阵连同安全帽佩戴矩阵、实际标签矩阵合并成训练样本矩阵;
S7:将训练样本矩阵输入神经网络分类器中进行训练;
S8:将待检测图像输入训练好的神经网络分类器中确定检测结果。
2.如权利要求1所述的一种基于场景分析和深度学习的检测方法,其特征在于:所述施工工地数据集通过实际场景的现场监控进行采集。
3.如权利要求1所述的一种基于场景分析和深度学习的检测方法,其特征在于:所述目标检测网络器是基于yoloV3模型构建的。
4.如权利要求1所述的一种基于场景分析和深度学习的检测方法,其特征在于:所述第二数据集涵盖全天24小时、气候、天气、清晰度、距离、光照角度以及遮挡因素。
5.如权利要求1所述的一种基于场景分析和深度学习的检测方法,其特征在于:所述模糊图像分类器的构建方法为:对第二数据集进行拉普拉斯变换并计算出均值和方差,将方差的值作为训练数据,训练构建的模糊图像分类器,所述模糊图像分类器为基于逻辑回归的模糊图像分类器。
6.如权利要求1所述的一种基于场景分析和深度学习的检测方法,其特征在于:所述实际标签矩阵由监控图像中的人体目标佩戴安全帽的合规性样本组成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010064922.4A CN111310592B (zh) | 2020-01-20 | 2020-01-20 | 一种基于场景分析和深度学习的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010064922.4A CN111310592B (zh) | 2020-01-20 | 2020-01-20 | 一种基于场景分析和深度学习的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111310592A CN111310592A (zh) | 2020-06-19 |
CN111310592B true CN111310592B (zh) | 2023-06-16 |
Family
ID=71158424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010064922.4A Active CN111310592B (zh) | 2020-01-20 | 2020-01-20 | 一种基于场景分析和深度学习的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111310592B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112232307B (zh) * | 2020-11-20 | 2022-07-05 | 四川轻化工大学 | 夜视环境下的安全帽佩戴检测方法 |
CN112528855B (zh) * | 2020-12-11 | 2021-09-03 | 南方电网电力科技股份有限公司 | 一种电力作业着装规范识别方法和装置 |
CN112969032A (zh) * | 2021-04-13 | 2021-06-15 | 深圳市海雀科技有限公司 | 光照模式识别方法、装置、计算机设备及存储介质 |
CN113743481B (zh) * | 2021-08-20 | 2024-04-16 | 北京电信规划设计院有限公司 | 类人化图像识别方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868745A (zh) * | 2016-06-20 | 2016-08-17 | 重庆大学 | 基于动态场景感知的天气识别方法 |
JP2019028839A (ja) * | 2017-08-01 | 2019-02-21 | 国立研究開発法人情報通信研究機構 | 分類器、分類器の学習方法、分類器における分類方法 |
CN109766769A (zh) * | 2018-12-18 | 2019-05-17 | 四川大学 | 一种基于单目视觉与深度学习的道路目标检测识别方法 |
CN110175611A (zh) * | 2019-05-24 | 2019-08-27 | 浙江工业大学 | 面向车牌识别系统黑盒物理攻击模型的防御方法及装置 |
WO2019176235A1 (ja) * | 2018-03-12 | 2019-09-19 | 株式会社日立産業制御ソリューションズ | 画像生成方法、画像生成装置及び画像生成システム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104392228B (zh) * | 2014-12-19 | 2018-01-26 | 中国人民解放军国防科学技术大学 | 基于条件随机场模型的无人机图像目标类检测方法 |
US10318889B2 (en) * | 2017-06-26 | 2019-06-11 | Konica Minolta Laboratory U.S.A., Inc. | Targeted data augmentation using neural style transfer |
US10984286B2 (en) * | 2018-02-02 | 2021-04-20 | Nvidia Corporation | Domain stylization using a neural network model |
CN109255298A (zh) * | 2018-08-07 | 2019-01-22 | 南京工业大学 | 一种动态背景中的安全帽检测方法与系统 |
CN110046557A (zh) * | 2019-03-27 | 2019-07-23 | 北京好运达智创科技有限公司 | 基于深度神经网络判别的安全帽、安全带检测方法 |
CN110070033B (zh) * | 2019-04-19 | 2020-04-24 | 山东大学 | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 |
CN110263665A (zh) * | 2019-05-29 | 2019-09-20 | 朗坤智慧科技股份有限公司 | 基于深度学习的安全帽识别方法和系统 |
CN110502965B (zh) * | 2019-06-26 | 2022-05-17 | 哈尔滨工业大学 | 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法 |
CN110472586B (zh) * | 2019-08-17 | 2022-10-14 | 四创科技有限公司 | 一种基于迁移学习的安全帽检测的方法 |
-
2020
- 2020-01-20 CN CN202010064922.4A patent/CN111310592B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868745A (zh) * | 2016-06-20 | 2016-08-17 | 重庆大学 | 基于动态场景感知的天气识别方法 |
JP2019028839A (ja) * | 2017-08-01 | 2019-02-21 | 国立研究開発法人情報通信研究機構 | 分類器、分類器の学習方法、分類器における分類方法 |
WO2019176235A1 (ja) * | 2018-03-12 | 2019-09-19 | 株式会社日立産業制御ソリューションズ | 画像生成方法、画像生成装置及び画像生成システム |
CN109766769A (zh) * | 2018-12-18 | 2019-05-17 | 四川大学 | 一种基于单目视觉与深度学习的道路目标检测识别方法 |
CN110175611A (zh) * | 2019-05-24 | 2019-08-27 | 浙江工业大学 | 面向车牌识别系统黑盒物理攻击模型的防御方法及装置 |
Non-Patent Citations (1)
Title |
---|
基于YOLOv3的施工场景安全帽佩戴的图像描述;徐守坤;倪楚涵;吉晨晨;李宁;;《计算机科学》;第47卷(第8期);第233-240页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111310592A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310592B (zh) | 一种基于场景分析和深度学习的检测方法 | |
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
US11983919B2 (en) | Video anomaly detection method based on human-machine cooperation | |
CN111209810A (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
Jianya et al. | A review of multi-temporal remote sensing data change detection algorithms | |
CN114693615A (zh) | 一种基于域适应的深度学习混凝土桥梁裂缝实时检测方法 | |
CN109871875B (zh) | 一种基于深度学习的建筑物变化检测方法 | |
CN105426875A (zh) | 一种基于深度卷积神经网络的人脸识别方法和考勤系统 | |
CN109359563B (zh) | 一种基于数字图像处理的占道现象实时检测方法 | |
CN113516076A (zh) | 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法 | |
CN109086803B (zh) | 一种基于深度学习与个性化因子的雾霾能见度检测系统及方法 | |
CN106709903B (zh) | 基于图像质量的pm2.5浓度预测方法 | |
CN113158943A (zh) | 一种跨域红外目标检测方法 | |
CN109492700A (zh) | 一种基于多维信息融合的复杂背景目标识别方法 | |
CN115497006B (zh) | 基于动态混合策略的城区遥感图像变化深度监测方法及系统 | |
CN116977909B (zh) | 一种基于多模态数据的深度学习火灾强度识别方法及系统 | |
CN112164010A (zh) | 一种多尺度融合卷积神经网络图像去雾方法 | |
CN115937138A (zh) | 一种基于无人机的桥梁裂缝识别检测系统及方法 | |
CN116597270A (zh) | 基于注意力机制集成学习网络的道路损毁目标检测方法 | |
Chen et al. | An image restoration and detection method for picking robot based on convolutional auto-encoder | |
CN118097709A (zh) | 一种猪只姿态估计方法及装置 | |
CN113781388A (zh) | 基于图像增强的输电线路通道隐患图像识别方法及装置 | |
CN112529003A (zh) | 一种基于Faster-RCNN的仪表盘数字识别方法 | |
CN117423157A (zh) | 一种结合迁移学习、区域入侵的矿井下异常视频动作理解方法 | |
CN114565597B (zh) | 一种基于YOLO v3-tiny-DB和迁移学习的夜间道路行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |