CN115223114A - 一种基于双向融合特征金字塔的端到端车辆姿态估计方法 - Google Patents
一种基于双向融合特征金字塔的端到端车辆姿态估计方法 Download PDFInfo
- Publication number
- CN115223114A CN115223114A CN202211125206.8A CN202211125206A CN115223114A CN 115223114 A CN115223114 A CN 115223114A CN 202211125206 A CN202211125206 A CN 202211125206A CN 115223114 A CN115223114 A CN 115223114A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- feature
- module
- convolution
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000002457 bidirectional effect Effects 0.000 title claims abstract description 27
- 230000004927 fusion Effects 0.000 title claims abstract description 22
- 238000001514 detection method Methods 0.000 claims description 29
- 238000010586 diagram Methods 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 6
- 238000012805 post-processing Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明属于车辆姿态估计技术领域,涉及一种基于双向融合特征金字塔的端到端车辆姿态估计方法,通过双向跨尺度连接和加权特征融合实现高效的特征提取,再设计一种特征校对模块,在很大程度上克服了卷积特征与预测关键点不一致的问题,显著提高了方法的性能,最后以车辆关键点的最小外接矩形为边界框进行训练,将目标检测的思路应用到车辆姿态估计中,在缩短检测时间的同时提高了检测精度。
Description
技术领域
本发明属于车辆姿态估计技术领域,涉及一种基于双向融合特征金字塔的端到端车辆姿态估计方法。
背景技术
车辆姿态估计旨在从图像或视频中定位出车辆的关键点,该任务可作为其他有关车辆的计算机视觉任务的基础,近年来,姿态估计受到了越来越多的关注,并被应用到各种现实场景,现有的基于深度学习的姿态估计方法克服了手工提取特征的弊端,具有强大的特征学习能力,但是如遮挡、训练数据不足等仍制约着方法检测精度的提升,且复杂的网络结构会导致检测速度过慢。
车辆姿态估计方法分为自上而下和自下而上两种,其中自上而下的车辆姿态估计方法使用车辆目标检测器从输入数据中获取一组边界框(每个框对应一个车辆实例),然后对每个车辆的框应用单车辆姿态估计方法以获取多车辆姿态;与自伤而下的方法不同,自下而上的方法先定位所有的车辆关键点,然后进行分组后处理。
目前,无锚框目标检测方法的发展为车辆姿态估计任务提供了一个新的思路,将车辆中的关键点视为目标,利用目标检测的方法实现车辆姿态估计,即车辆关键点检测,无锚框检测方法性能优于以往基于锚框的检测方法,该方法直接回归目标边界框的两个角关键点,而不使用预定义的锚框,沿着无锚框目标检测方法的思路,车辆姿态估计任务可将关键点视为一个具有多个角的特殊边界框,因此在目标检测网络中增加相关模块可以实现该方案。无锚框目标检测方法可以实现端到端的车辆姿态估计,即直接将原始输入图像映射到图像中车辆的关键点,而且可以避免自上而下和自下而上方法的缺点,既不需要复杂的分组后处理,也不需要提取感兴趣区域操作,该方法将目标检测与关键点检测任务相统一,即可以用相同的方法来解决两个问题。
利用目标检测实现车辆姿态估计的方法看似简单,实现却十分复杂,对于常规的目标检测任务,从单一的特征向量可以回归到边界框的两个对角处的关键点,但是车辆姿态估计方法需要从单个特征向量来回归车辆中所有的关键点,且需要单个向量来精确地保存关键点所有的信息,比如关键点的精确坐标位置,这给该方法设计带来挑战,而且现有姿态估计方法的检测时间较长,检测时间与检测精度之间难以取得平衡,因此,针对现实驾驶场景,需要一种高效的车辆姿态估计方法。
发明内容
本发明的目的在于克服现有技术存在的缺点,设计提供一种基于双向融合特征金字塔的端到端车辆姿态估计方法,用于实际车辆姿态估计任务中,高效地检测车辆姿态。
为实现上述目的,本发明建立了一个双向融合特征金字塔网络,通过双向跨尺度连接和加权特征融合实现高效的特征提取,再设计一种特征校对模块,在很大程度上克服了卷积特征与预测关键点不一致的问题,显著提高了方法的性能,最后以车辆关键点的最小外接矩形为边界框进行训练,将目标检测的思路应用到车辆姿态估计中,具体包括如下步骤:
(1)数据集构建:选取开源数据集中的车辆图像,并收集交通监控、停车场现实场景中含有多种车辆的图像,构建车辆数据集,并将车辆数据集划分为训练集、验证集和测试集,其中每个车辆上定义78个关键点,并标注车辆的边界框与类别,即车辆最小外接矩形;
(2)主干网络特征提取:先对图像的尺寸和数值范围行初始化处理,再将处理后的图像输入到ResNet-50主干网络中进行卷积特征提取得到特征图;
(3)双向融合特征金字塔网络特征提取: ResNet-50主干网络后添加双向融合特征金字塔网络,将步骤(2)得到的特征图输入双向融合特征金字塔网络进一步提取特征,得到多尺度车辆卷积特征图集合;
(4)生成车辆候选框:根据步骤(3)得到的多尺度车辆卷积特征图集合,使用车辆目标检测框分支完成目标框类别分类和位置回归的任务生成车辆候选框,其中分类为是否是车辆,位置信息为车牌的四个顶点坐标;
(5)关键点检测:将步骤(3)得到的多尺度车辆卷积特征图输入特征校对模块,使用特征校对模块使卷积特征与预测关键点进行校对,输出关键点;
(6)输出结果:对图像中的每一个车辆,输出其在图像中的坐标,通过后处理操作,将步骤(5)得到的关键点标注在原始图像中。
作为本发明的进一步技术方案,步骤(3)所述双向融合特征金字塔网络先将所有卷积层的特征图被对齐到同一维度,双向融合特征金字塔中的特征图P3、P4、P5以主干网络的输出特征图为输入,P6和P7由P5依次通过一个卷积层后生成,最终融合的特征图为:
作为本发明的进一步技术方案,步骤(5)所述特征校对模块由对齐模块 和预测
模块组成,设输入的特征图,其中H为图像高度,W为图像宽度,特征校对模块
对特征图F进行处理,其中对齐模块包括进行特征定位的定位器和进行特征采样的采样器,
表示为:
其中,由定位器产生,用于预测车辆第i个关键点的特征向量的采样位置;是采样的特征向量,设F上的一个关键点的位置为(a,b),则该位置被编码为相对于
(a,b)的坐标;然后预测模块将对齐模块的输出作为输入,预测关键点的最终坐标,预
测模块包含K个卷积层 ,K为一个车辆实例的关键点数量,每个卷积层预测第i个关键点相
对于采样位置的坐标,即,最后,第i个的坐标为两组坐标之和,为,表示为:,
最终的坐标根据特征图的下采样比例调整,得到关键点。
与现有技术相比,本发明避免了自下而上方法中复杂的分组后处理或自上而下方法中边界框检测和提取感兴趣区域操作,先以无锚框检测方法为基准,设计了一个双向融合特征金字塔网络,实现了高效的特征提取,采用的特征校对模块在很大程度上克服了卷积特征与预测关键点不一致的问题,显著提高了方法的性能,平衡了检测时间与检测精度,在缩短检测时间的同时提高了检测精度。
附图说明
图1为本发明所述基于双向融合特征金字塔的端到端车辆姿态估计网络结构框架示意图。
图2为本发明所述双向融合特征金字塔网络示意图。
图3为本发明所述特征校对模块示意图。
图4为本发明所述车辆姿态估计的工作流程框图。
图5为本发明所述车辆关键点检测结果示例。
具体实施方式
下面结合附图,通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
实施例:
本实施例通过双向跨尺度连接和加权特征融合,实现了高效的特征提取,以车辆关键点的最小外接矩形为边界框进行训练,将目标检测的思路应用到车辆姿态估计中,能够实现高效的车辆关键点检测,采用如图1所示的基于双向融合特征金字塔的端到端车辆姿态估计网络以及如图4所示的工作流程框图,具体实施包括如下步骤:
(1)数据集构建:
选取开源数据集中的车辆图像,并收集交通监控、停车场等现实场景的含有多种车辆的图像,构建车辆数据集,在每个车辆上定义78个关键点,主要定义具有很强局部纹理特征信息的点,如多选择车辆上的角点定义(车灯的4个角点、前后挡风玻璃的4个角点等)。并标注车辆的边界框,即车辆最小外接矩形,最后将数据集划分为训练集、验证集和测试集;
(2)主干网络特征提取:
先对图片的尺寸和数值范围行初始化处理,再将处理后的图像输入到ResNet-50主干网络中进行卷积特征提取得到特征图;
(3)双向融合特征金字塔网络特征提取:
为检测较小的关键点目标,需要将高低层特征高效融合,于是在主干网络ResNet-50之后添加如图2所示的双向融合特征金字塔网络,实现双向跨尺度连接,先将所有卷积层的特征图被对齐到同一维度,特征图在双向融合特征金字塔中通过图2所示的路径进行融合,图2中的双向融合特征金字塔中的特征图P3、P4、P5以主干网络的输出特征图为输入,P6和P7由P5依次通过一个卷积层后生成,最终融合的特征图为:
其他特征图与M6、N6原理相同,其中,表示卷积操作,用于将特征图调
整到相同分辨率的操作,本实施例在网络中使用深度可分离卷积进行特征融合,使用批量
归一化和激活函数,提升计算效率,该步骤将步骤(2)得到的特征图输入双向融合特征金字
塔网络,得到多尺度车辆卷积特征图集合,跨尺度连接减少了单边输入节点,同一层次的节
点增加一条边,保证计算成本基本维持不变的同时进行更多的特征融合,并能进行自上而
下连接和自下而上连接;
(4)生成车辆候选框:
根据步骤(3)得到的多尺度车辆卷积特征图集合,使用车辆目标检测框分支完成目标框类别分类和位置回归的任务,这一步将输入特征图上的像素视为训练样本,类似于语义分割,正确标注框中的像素被视为正样本,将其中的四个偏移量回归到正确标注边界框的四个边界;否则,像素被视为负样本,其中分类为是否是车辆,位置信息为车牌的四个顶点坐标;
(5)关键点检测:
将步骤(3)得到的多尺度车辆卷积特征图输入如图3所示的特征校对模块,使用一
个特征校对模块使卷积特征与预测关键点进行校对得到关键点,特征校对模块由对齐模块 和预测模块组成,设输入的特征图,其中H为图像高度,W为图像宽度,特征
校对模块对特征图F进行处理,其中对齐模块包括进行特征定位的定位器和进行特征采样
的采样器,表示为:
其中,由定位器产生,用于预测车辆第i个关键点的特征向量的采样位置;是采样的特征向量,设F上的一个关键点的位置为(a,b),则该位置被编码为相对于
(a,b)的坐标;然后预测模块将对齐模块的输出作为输入,预测关键点的最终坐标,预
测模块包含K个卷积层 ,K为一个车辆实例的关键点数量,每个卷积层预测第i个关键点相
对于采样位置的坐标,即,最后,第i个的坐标为两组坐标之和,为,表示为:,
最终的坐标根据特征图的下采样比例调整,得到关键点;
其中定位器和采样器需要相同级别的特征图作为输入,而定位器和预测模块需要不同级别的特征图,定位器预测了车辆所有关键点的模糊位置,因此需要低分辨率的高水平特征,而预测器需要针对局部区域作出精准的预测,因此需要高分辨率的低水平特征和较小的感受野;
(6)输出结果:
对于图像中的每一个车辆,输出其在图像中的坐标,通过后处理操作,将关键点标注在原始图像中,如图5所示。
本文中未详细说明的网络结构和算法均为本领域通用技术。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施示例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。
Claims (2)
1.一种基于双向融合特征金字塔的端到端车辆姿态估计方法,其特征在于,具体包括如下步骤:
(1)数据集构建:选取开源数据集中的车辆图像,并收集交通监控、停车场现实场景中含有多种车辆的图像,构建车辆数据集,并将车辆数据集划分为训练集、验证集和测试集,其中每个车辆上定义78个关键点,并标注车辆的边界框与类别,即车辆最小外接矩形;
(2)主干网络特征提取:先对图像的尺寸和数值范围行初始化处理,再将处理后的图像输入到ResNet-50主干网络中进行卷积特征提取得到特征图;
(3)双向融合特征金字塔网络特征提取: ResNet-50主干网络后添加双向融合特征金字塔网络,将步骤(2)得到的特征图输入双向融合特征金字塔网络进一步提取特征,得到多尺度车辆卷积特征图集合;
(4)生成车辆候选框:根据步骤(3)得到的多尺度车辆卷积特征图集合,使用车辆目标检测框分支完成目标框类别分类和位置回归的任务生成车辆候选框,其中分类为是否是车辆,位置信息为车牌的四个顶点坐标;
(5)关键点检测:将步骤(3)得到的多尺度车辆卷积特征图输入特征校对模块,使用特征校对模块使卷积特征与预测关键点进行校对,输出关键点;
(6)输出结果:对图像中的每一个车辆,输出其在图像中的坐标,通过后处理操作,将步骤(5)得到的关键点标注在原始图像中。
2.根据权利要求1所述基于双向融合特征金字塔的端到端车辆姿态估计方法,其特征
在于,步骤(5)所述特征校对模块由对齐模块和预测模块组成,设输入的特征图,其中H为图像高度,W为图像宽度,特征校对模块对特征图F进行处理,其中对齐
模块包括进行特征定位的定位器和进行特征采样的采样器,表示为:
其中,由定位器产生,用于预测车辆第i个关键点的特征向量的采样位置;是采样的特征向量,设F上的一个关键点的位置为(a,b),则该位置被编码为相对于
(a,b)的坐标;然后预测模块将对齐模块的输出作为输入,预测关键点的最终坐标,预
测模块包含K个卷积层 ,K为一个车辆实例的关键点数量,每个卷积层预测第i个关键点相
对于采样位置的坐标,即,最后,第i个的坐标为两组坐标之和,为,表示为:,
最终的坐标根据特征图的下采样比例调整,得到关键点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211125206.8A CN115223114A (zh) | 2022-09-16 | 2022-09-16 | 一种基于双向融合特征金字塔的端到端车辆姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211125206.8A CN115223114A (zh) | 2022-09-16 | 2022-09-16 | 一种基于双向融合特征金字塔的端到端车辆姿态估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115223114A true CN115223114A (zh) | 2022-10-21 |
Family
ID=83617213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211125206.8A Pending CN115223114A (zh) | 2022-09-16 | 2022-09-16 | 一种基于双向融合特征金字塔的端到端车辆姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115223114A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116912884A (zh) * | 2023-07-21 | 2023-10-20 | 北京优创新港科技股份有限公司 | 一种人体关键点检测方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868769A (zh) * | 2015-01-23 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 图像中的人脸关键点定位方法及装置 |
CN109376684A (zh) * | 2018-11-13 | 2019-02-22 | 广州市百果园信息技术有限公司 | 一种人脸关键点检测方法、装置、计算机设备和存储介质 |
CN112966592A (zh) * | 2021-03-03 | 2021-06-15 | 北京百度网讯科技有限公司 | 手部关键点检测方法、装置、设备和介质 |
CN114067282A (zh) * | 2021-11-04 | 2022-02-18 | 北京智芯原动科技有限公司 | 一种端到端的车辆位姿检测方法及装置 |
CN114267030A (zh) * | 2021-11-30 | 2022-04-01 | 武汉兴图新科电子股份有限公司 | 基于端到端的车牌检测与关键点检测方法及装置 |
CN114973372A (zh) * | 2022-05-27 | 2022-08-30 | 图灵视讯(深圳)有限公司 | 婴儿表情分类检测方法 |
-
2022
- 2022-09-16 CN CN202211125206.8A patent/CN115223114A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868769A (zh) * | 2015-01-23 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 图像中的人脸关键点定位方法及装置 |
CN109376684A (zh) * | 2018-11-13 | 2019-02-22 | 广州市百果园信息技术有限公司 | 一种人脸关键点检测方法、装置、计算机设备和存储介质 |
CN112966592A (zh) * | 2021-03-03 | 2021-06-15 | 北京百度网讯科技有限公司 | 手部关键点检测方法、装置、设备和介质 |
CN114067282A (zh) * | 2021-11-04 | 2022-02-18 | 北京智芯原动科技有限公司 | 一种端到端的车辆位姿检测方法及装置 |
CN114267030A (zh) * | 2021-11-30 | 2022-04-01 | 武汉兴图新科电子股份有限公司 | 基于端到端的车牌检测与关键点检测方法及装置 |
CN114973372A (zh) * | 2022-05-27 | 2022-08-30 | 图灵视讯(深圳)有限公司 | 婴儿表情分类检测方法 |
Non-Patent Citations (1)
Title |
---|
董洪义: "《深度学习之pytorch物体检测实战》", 31 March 2020 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116912884A (zh) * | 2023-07-21 | 2023-10-20 | 北京优创新港科技股份有限公司 | 一种人体关键点检测方法及系统 |
CN116912884B (zh) * | 2023-07-21 | 2024-03-19 | 北京优创新港科技股份有限公司 | 一种人体关键点检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106875381B (zh) | 一种基于深度学习的手机外壳缺陷检测方法 | |
CN112464910A (zh) | 一种基于YOLO v4-tiny的交通标志识别方法 | |
CN111368687A (zh) | 一种基于目标检测和语义分割的人行道车辆违停检测方法 | |
CN110956196B (zh) | 一种城市建筑物窗墙比自动识别方法 | |
CN113723377A (zh) | 一种基于ld-ssd网络的交通标志检测方法 | |
CN110688902B (zh) | 一种检测停车位内车辆区域的方法及装置 | |
CN112766136A (zh) | 一种基于深度学习的空间车位检测方法 | |
CN113762209A (zh) | 一种基于yolo的多尺度并行特征融合路标检测方法 | |
CN111553945B (zh) | 一种车辆定位方法 | |
Aeschliman et al. | Tracking vehicles through shadows and occlusions in wide-area aerial video | |
NL2030315B1 (en) | Computer-implemented ai method for detecting surface defects of electroluminescent semiconductor panel | |
CN111986164A (zh) | 一种基于多源Unet+Attention网络迁移的道路裂缝检测方法 | |
CN114820679B (zh) | 图像标注方法、装置、电子设备和存储介质 | |
Bu et al. | A UAV photography–based detection method for defective road marking | |
CN110659601A (zh) | 基于中心点的深度全卷积网络遥感图像密集车辆检测方法 | |
CN114913498A (zh) | 一种基于关键点估计的并行多尺度特征聚合车道线检测方法 | |
CN113361467A (zh) | 基于领域适应的车牌识别方法 | |
CN116071747A (zh) | 一种基于3d点云数据和2d图像数据融合匹配语义分割方法 | |
CN115223114A (zh) | 一种基于双向融合特征金字塔的端到端车辆姿态估计方法 | |
CN117152513A (zh) | 一种面向夜间场景的车辆边界定位方法 | |
CN115147644A (zh) | 图像描述模型的训练和描述方法、系统、设备及存储介质 | |
CN112785610B (zh) | 一种融合低层特征的车道线语义分割方法 | |
CN111881914B (zh) | 一种基于自学习阈值的车牌字符分割方法及系统 | |
CN113361528A (zh) | 一种多尺度目标检测方法及系统 | |
Zhang et al. | Key point localization and recurrent neural network based water meter reading recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20221021 |
|
RJ01 | Rejection of invention patent application after publication |