CN115019136B - 抗边界点漂移的目标关键点检测模型训练方法及检测方法 - Google Patents
抗边界点漂移的目标关键点检测模型训练方法及检测方法 Download PDFInfo
- Publication number
- CN115019136B CN115019136B CN202210935118.8A CN202210935118A CN115019136B CN 115019136 B CN115019136 B CN 115019136B CN 202210935118 A CN202210935118 A CN 202210935118A CN 115019136 B CN115019136 B CN 115019136B
- Authority
- CN
- China
- Prior art keywords
- key point
- boundary
- detection model
- key
- training set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种抗边界点漂移的目标关键点检测模型训练方法及检测方法,属于图像处理技术领域,抗边界点漂移的目标关键点检测模型训练方法为构建包括关键点坐标信息和概率值信息的训练集图像;构建抗边界关键点漂移检测模型,在特征提取网络最后一个全连接层后并联设置n个坐标信息输出层和1个概率值信息输出层,每一坐标信息输出层输出一个关键点的坐标信息,概率输出层输出n个关键点的概率值信息,基于关键点的坐标信息和概率值信息构建损失函数;对模型进行训练,基于关键点的概率值信息调整损失函数中比例参数,进而增加对边界上关键点的训练比重,使得边界关键点不漂移。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种抗边界点漂移的目标关键点检测模型训练方法及检测方法。
背景技术
在图像处理领域,一般首先需要定位关键点,然后基于关键点进行ROI截取,以便于后续的特征提取,因此关键点的准确检测至关重要。现有的关键点检测一般是通过传统图像处理算法,但其鲁棒性低,容易受到图像质量的影响;近年来,随着计算机技术的不断发展,基于神经网络的关键点检测基于其高效、准确的优势越来越受到重视。
比如,授权公布号为CN113065535B公开的一种关键点检测及检测网络训练的方法、电子设备和存储介质。该方法中,获取预设的关键点模板、训练样本图像和所述训练样本图像对应的样本关键点,所述关键点模板为预先构建的初始关键点检测网络输出结果的形状标准;通过所述初始关键点检测网络,结合所述训练样本图像和所述关键点模板获得训练检测关键点;根据所述训练检测关键点和所述样本关键点对所述初始关键点检测网络进行迭代训练,并将满足预设迭代条件的所述初始关键点检测网络作为训练完成的关键点检测网络。
然而,现有的目标关键点检测算法中在实际应用中存在图像边界目标关键点漂移的问题,会导致目标关键点检测准确率降低,最终导致误识率偏高。
发明内容
本发明提供了一种抗边界点漂移的目标关键点检测模型训练方法及检测方法,解决现有目标关键点检测方法中存在的关键点漂移的问题。
为了解决上述技术问题,本发明提供的技术方案为:
本发明涉及一种抗边界点漂移的目标关键点检测模型训练方法,其包括以下步骤:
S1.采集训练集图像:采集目标的多张不同姿态的图像作为训练集图像;
S2.对训练集图像进行标注:标注各训练集图像的关键点,每张训练集图像均有n个关键点,对于任意训练集图像的每个关键点,标注其坐标信息和概率值信息,概率值信息依据所述关键点在对应训练集图像中的位置进行设置;
S3.构建抗边界关键点漂移检测模型:选择特征提取网络,在特征提取网络最后一个全连接层后并联设置n个坐标信息输出层和1个概率值信息输出层,其中,每一坐标信息输出层输出一个关键点的坐标信息,概率输出层输出n个关键点的概率值信息,基于关键点的坐标信息和概率值信息构建坐标损失函数和概率回归损失函数;
S4.调整损失函数的比例:将标注后的训练集图像输入到抗边界关键点漂移检测模型中进行训练,基于关键点的概率值信息,调整坐标损失函数中各关键点的坐标损失比例参数。
优选地,所述步骤S2中概率值信息的判定方式为:
若关键点位于对应训练集图像的边界之内,则该关键点的概率值信息为1;
若关键点位于对应训练集图像的边界之上,则该关键点的概率值信息为0.5;
除上述两种情况之外,则认为该关键点的概率值信息为0。
优选地,若关键点的八邻域像素点完整,则认为关键点位于对应训练集图像的边界之内;若关键点的八邻域像素点不完整,则认为关键点位于对应训练集图像的边界之上。
优选地,所述步骤S3选择损失函数smooth L1 loss作为关键点的坐标损失函数,选择交叉熵损失函数作为关键点的概率值信息的概率回归损失函数,抗边界关键点漂移检测模型的总损失函数的表达式为:
公式中,表示抗边界关键点漂移检测模型的损失和,~分别表示关键点P 1 ~P n 的坐标损失,a 1 ~a n 分别表示关键点P 1 ~ P n 的坐标损失的比例系数;表示概率回归损失,表示概率回归损失的比例系数。
所述S4中调整坐标损失函数中各关键点的坐标损失比例参数的具体步骤为:
S4.1.将标注后的训练集图像平均分成若干份,每份包括m张标注后的训练集图像;
S4.2.将其中一份标注后的训练集图像输入到抗边界关键点漂移检测模型中;
S4.3.计算关键点P1的概率为0和0.5的比例之和,若比例之和大于等于1/m,则增加关键点P1的坐标损失的比例系数a 1,反之,关键点P1的位置信息损失的比例系数a 1不变;
S4.4.按照步骤S4.3相同的方式依次调整关键点P2~Pn的坐标损失的比例系数a 2~ a n;
S4.5.将另一份标注后的训练集图像输入抗边界关键点漂移检测模型中,重复步骤S4.3~S4.4,直至所有训练集图像均输入至抗边界关键点漂移检测模型。
优选地,所述步骤S4.3和S4.4中各关键点的坐标损失的比例系数的增幅S为:
优选地,所述步骤S3选择特征提取网络为ShuffleNetV2、 ThunderNet、GhostNet、MobileNetV2中的一种。
优选地,所述步骤S2中标注的坐标信息包括列坐标和行坐标。
本发明还涉及一种基于上述训练方法训练所得的抗边界点漂移的目标关键点检测模型的关键点检测方法,其包括以下步骤:采集目标的图像,将目标的图像输入抗边界点漂移的目标关键点检测模型中,检测目标图像中的关键点。
优选地,若任一关键点的概率值信息为0,则该关键点对应的输出层输出的该关键点的坐标信息无效。
采用本发明提供的技术方案,与现有技术相比,具有如下有益效果:
1. 本发明涉及的抗边界点漂移的目标关键点检测模型训练方法在构建抗边界关键点漂移检测模型时,设置了n+1个并联的输出层,分别用于预测n个关键点的坐标信息和概率值信息;并联结构使得多个关键点坐标是都是单独回归的,互相依赖程度较低,不容易出现整体漂移的现象;训练时,可以根据输入的训练集图像内关键点的概率分布情况,调整对应关键点的坐标损失比例系数,从而增加网络对边界上关键点情况的训练比重,使得边界关键点不漂移。
2.本发明涉及的抗边界点漂移的目标关键点检测模型检测方法不仅可以输出关键点的位置信息,还可以输出每个关键点的概率值信息,通过概率值信息可动态输出关键点个数,根据关键点的个数可以判断采集的图像是否完整,便于后续判断是否需要重新采集用户的图像。
附图说明
图1为抗边界点漂移的目标关键点检测模型训练方法的流程图;
图2为标注4个关键点的红外手掌图像;
图3为将第一张红外手掌静脉图像输入普通关键点检测模型进行关键点检测后输出的关键点;
图4为将第二张红外手掌静脉图像输入普通关键点检测模型进行关键点检测后输出的关键点;
图5为将第一张红外手掌静脉图像输入抗边界点漂移的目标关键点检测模型进行关键点检测后输出的关键点;
图6为将第二张红外手掌静脉图像输入抗边界点漂移的目标关键点检测模型进行关键点检测后输出的关键点。
具体实施方式
为进一步了解本发明的内容,结合实施例对本发明作详细描述,以下实施例用于说明本发明,但不用来限制本发明的范围。
实施例1:本实施例以红外手掌图像作为待检测目标图像,对本发明涉及的抗边界点漂移的目标关键点检测模型训练方法进行详细说明。参照附图1所示,本发明涉及一种抗边界点漂移的目标关键点检测模型训练方法,其包括以下步骤:
S1.采集训练集图像:采用红外设备采集多张手掌的不同姿态的红外手掌图像作为训练集图像,所述的不同姿态的红外手掌图像是指:对比度、噪声、手掌形状尺寸、灰度、平面旋转角度不同的红外手掌图像;
S2. 对训练集图像进行标注:标注各训练集图像的关键点,每张训练集图像均有4个关键点,对于任意训练集图像的每个关键点,标注其坐标信息和概率值信息,概率值信息依据所述关键点在对应训练集图像中的位置进行设置,标注坐标信息和概率值信息时采用的标注格式为VOC数据格式;所述的坐标信息包括列坐标和行坐标;所述的概率值信息的范围为0~1,其判定方式为:
若关键点位于对应训练集图像的边界之内,则该关键点的概率值信息为1;
若关键点位于对应训练集图像的边界之上,但其部分周围像素丢失(可容忍像素误差内),则该关键点的概率值信息为0.5;
除上述两种情况之外,则认为该关键点的概率值信息为0;此种情况下可以认为该训练集图像存在缺失,没有该关键点;
判断关键点与对应训练集图像的位置关系的方法是:若关键点的八邻域像素点完整,则认为关键点位于对应训练集图像的边界之内;若关键点的八邻域像素点不完整,则认为关键点位于对应训练集图像的边界之上;
S3.构建抗边界关键点漂移检测模型:选择mobileNetV2网络作为特征提取网络,将mobileNetV2网络的最后一个全连接层输出维度设置为128,再并联n+1个输出层,分别是输出层1到输出层n的输出维度设置为2*1,输出层n+1的输出维度设置为n*1,输出层1~n为坐标信息输出层,每一坐标信息输出层输出一个关键点的坐标信息,输出层n+1为概率值信息输出层,用于输出n个关键点的概率值信息,基于关键点的坐标信息和概率值信息构建坐标损失函数和概率回归损失函数,本实施例中,选择损失函数smooth L1 loss作为关键点的坐标损失函数,选择交叉熵损失函数作为关键点的概率值信息的概率回归损失函数,由于红外手掌图像包含4个关键点,即n=4,因此,本实施例中的抗边界关键点漂移检测模型的总损失函数的表达式为:
公式中,表示抗边界关键点漂移检测模型的损失和,~分别表示关键点P 1 ~P 4 的坐标损失,a 1 ~a 4 分别表示关键点P 1 ~ P 4 的坐标损失的比例系数;表示概率回归损失,表示概率回归损失的比例系数;
输出层的个数取决于关键点的个数,输出层的个数等于关键点的个数加1,每个输出层可以单独预测1个关键点的坐标信息,还有一个输出层可以预测所有关键点的坐标信息,且各输出层并联设置,从而使得多个关键点坐标是都是单独回归的,互相依赖程度较低,不容易出现整体漂移的现象;训练时,可以根据输入的训练集图像内关键点的概率分布情况,调整对应关键点的坐标损失比例系数,从而增加网络对边界上关键点情况的训练比重,使得边界关键点不漂移。
S4.调整损失函数的比例:将标注后的训练集图像输入到抗边界关键点漂移检测模型中进行训练,基于关键点的概率值信息,调整坐标损失函数中各关键点的坐标损失比例参数,其具体步骤为:
S4.1.将标注后的训练集图像平均分成若干份,每份包括m张标注后的训练集图像;
S4.2.将其中一份标注后的训练集图像输入到抗边界关键点漂移检测模型中;
S4.3.计算关键点P1的概率为0和0.5的比例之和,若比例之和大于等于1/m,则增加关键点P1的位置信息损失的比例系数a 1,反之,关键点P1的位置信息损失的比例系数a 1不变,比例系数a 1的增加幅度S为;
S4.4.按照步骤S4.3相同的方式依次调整关键点P2~P4的坐标损失的比例系数a 2~ a 4;
S4.5.将另一份标注后的训练集图像输入抗边界关键点漂移检测模型中,重复步骤S4.3~S4.4,直至所有训练集图像均输入至抗边界关键点漂移检测模型;
通过上述方式完成各关键点坐标损失的比例系数的迭代。
实施例2:本实施例以红外手掌图像作为待检测目标图像,对采用上述检测模型训练方法训练所得的抗边界点漂移的目标关键点检测模型对手掌红外图像进行关键点检测的方法,其包括以下步骤:
采集红外图像,将红外手掌静脉图像输入实施例1中的抗边界点漂移的目标关键点检测模型中,检测红外图像中的关键点。检测模型可以输出关键点的坐标信息和概率值信息,若任一关键点的概率值信息为0,则该关键点对应的输出层输出的该关键点的坐标信息无效。通过概率值信息可动态输出关键点个数,根据关键点的个数可以判断采集的图像是否完整,便于后续判断是否需要重新采集用户的图像。通过坐标信息可以定位该关键点,便于后续的ROI截取。
实验例:本实验例采集6000张红外手掌静脉图像作为测试集,分别输入两个关键点检测模型中,其中一个关键点检测模型为普通关键点坐标回归网络,另一个关键点检测模型为抗边界点漂移的目标关键点检测模型,比较关键点输出情况。
参照图3~6所示,图3是将第一张红外手掌静脉图像输入普通关键点检测模型进行关键点检测后输出的关键点;图4是将第二张红外手掌静脉图像输入普通关键点检测模型进行关键点检测后输出的关键点;图5是将第一张红外手掌静脉图像输入抗边界点漂移的目标关键点检测模型进行关键点检测后输出的关键点;图6是将第二张红外手掌静脉图像输入抗边界点漂移的目标关键点检测模型进行关键点检测后输出的关键点。
比较图3~图6可知,普通关键点坐标回归网络测出的边界手掌关键点,定位不准,存在明显的整体漂移问题,输出关键点个数都是4;抗边界点漂移的目标关键点检测模型检测出的边界手掌关键点,定位准确,不漂移,且输出点的数量根据实际情况动态变化分别是4个和3个。
以上结合实施例对本发明进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍属于本发明的专利涵盖范围之内。
Claims (9)
1.一种抗边界点漂移的目标关键点检测模型训练方法,其特征在于:其包括以下步骤:
S1.采集训练集图像:采集目标的多张不同姿态的图像作为训练集图像;
S2.对训练集图像进行标注:标注各训练集图像的关键点,每张训练集图像均有n个关键点,对于任意训练集图像的每个关键点,标注其坐标信息和概率值信息,概率值信息依据所述关键点在对应训练集图像中的位置进行设置;
S3.构建抗边界关键点漂移检测模型:选择特征提取网络,在特征提取网络最后一个全连接层后并联设置n个坐标信息输出层和1个概率值信息输出层,其中,每一坐标信息输出层输出一个关键点的坐标信息,概率输出层输出n个关键点的概率值信息,基于关键点的坐标信息和概率值信息构建坐标损失函数和概率回归损失函数;
所述步骤S3选择损失函数smooth L1 loss作为关键点的坐标损失函数,选择交叉熵损失函数作为关键点的概率值信息的概率回归损失函数,抗边界关键点漂移检测模型的总损失函数的表达式为:
公式中,表示抗边界关键点漂移检测模型的损失和,~分别表示关键点P 1 ~P n 的坐标损失,a 1 ~a n 分别表示关键点P 1 ~ P n 的坐标损失的比例系数;表示概率回归损失,表示概率回归损失的比例系数;
S4.调整损失函数的比例:将标注后的训练集图像输入到抗边界关键点漂移检测模型中进行训练,基于关键点的概率值信息,调整坐标损失函数中各关键点的坐标损失比例参数;
所述S4中调整坐标损失函数中各关键点的坐标损失比例参数的具体步骤为:
S4.1.将标注后的训练集图像平均分成若干份,每份包括m张标注后的训练集图像;
S4.2.将其中一份标注后的训练集图像输入到抗边界关键点漂移检测模型中;
S4.3.计算关键点P1的概率为0和0.5的比例之和,若比例之和大于等于1/m,则增加关键点P1的坐标损失的比例系数a 1,反之,关键点P1的位置信息损失的比例系数a 1不变;
S4.4.按照步骤S4.3相同的方式依次调整关键点P2~Pn的坐标损失的比例系数a 2~ a n;
S4.5.将另一份标注后的训练集图像输入抗边界关键点漂移检测模型中,重复步骤S4.3~S4.4,直至所有训练集图像均输入至抗边界关键点漂移检测模型。
2.根据权利要求1所述的抗边界点漂移的目标关键点检测模型训练方法,其特征在于:所述步骤S2中概率值信息的判定方式为:
若关键点位于对应训练集图像的边界之内,则该关键点的概率值信息为1;
若关键点位于对应训练集图像的边界之上,则该关键点的概率值信息为0.5;
除上述两种情况之外,则认为该关键点的概率值信息为0。
3.根据权利要求2所述的抗边界点漂移的目标关键点检测模型训练方法,其特征在于:若关键点的八邻域像素点完整,则认为关键点位于对应训练集图像的边界之内;若关键点的八邻域像素点不完整,则认为关键点位于对应训练集图像的边界之上。
6.根据权利要求1所述的抗边界点漂移的目标关键点检测模型训练方法,其特征在于:所述步骤S3选择特征提取网络为ShuffleNetV2、 ThunderNet、GhostNet、MobileNetV2中的一种。
7.根据权利要求1所述的抗边界点漂移的目标关键点检测模型训练方法,其特征在于:所述步骤S2中标注的坐标信息包括列坐标和行坐标。
8.一种基于权利要求1涉及的训练方法训练所得的抗边界点漂移的目标关键点检测模型的关键点检测方法,其特征在于:包括以下步骤:采集目标的图像,将目标的图像输入抗边界点漂移的目标关键点检测模型中,检测目标图像中的关键点。
9.根据权利要求8所述的基于抗边界点漂移的目标关键点检测模型的关键点检测方法,其特征在于:若任一关键点的概率值信息为0,则该关键点对应的输出层输出的该关键点的坐标信息无效。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210935118.8A CN115019136B (zh) | 2022-08-05 | 2022-08-05 | 抗边界点漂移的目标关键点检测模型训练方法及检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210935118.8A CN115019136B (zh) | 2022-08-05 | 2022-08-05 | 抗边界点漂移的目标关键点检测模型训练方法及检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115019136A CN115019136A (zh) | 2022-09-06 |
CN115019136B true CN115019136B (zh) | 2022-11-25 |
Family
ID=83066291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210935118.8A Active CN115019136B (zh) | 2022-08-05 | 2022-08-05 | 抗边界点漂移的目标关键点检测模型训练方法及检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115019136B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322510A (zh) * | 2019-06-27 | 2019-10-11 | 电子科技大学 | 一种利用轮廓信息的6d位姿估计方法 |
CN113591967A (zh) * | 2021-07-27 | 2021-11-02 | 南京旭锐软件科技有限公司 | 一种图像处理方法、装置、设备及计算机存储介质 |
CN114723984A (zh) * | 2022-03-11 | 2022-07-08 | 浙江工业大学 | 一种全自动的人像数据匿名化方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353325A (zh) * | 2018-12-20 | 2020-06-30 | 北京京东尚科信息技术有限公司 | 关键点检测模型训练方法及装置 |
CN111428645B (zh) * | 2020-03-25 | 2023-07-18 | Oppo广东移动通信有限公司 | 人体关键点的检测方法、装置、电子设备及存储介质 |
CN111898642B (zh) * | 2020-06-30 | 2021-08-13 | 北京市商汤科技开发有限公司 | 关键点检测方法、装置、电子设备及存储介质 |
CN112307940A (zh) * | 2020-10-28 | 2021-02-02 | 有半岛(北京)信息科技有限公司 | 模型训练方法、人体姿态检测方法、装置、设备及介质 |
CN113298052B (zh) * | 2021-07-26 | 2021-10-15 | 浙江霖研精密科技有限公司 | 一种基于高斯注意力的人脸检测装置、方法和存储介质 |
CN114332956B (zh) * | 2022-03-15 | 2023-04-07 | 华中农业大学 | 一种基于卷积神经网络的牛脸检测和牛脸关键点定位方法 |
-
2022
- 2022-08-05 CN CN202210935118.8A patent/CN115019136B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322510A (zh) * | 2019-06-27 | 2019-10-11 | 电子科技大学 | 一种利用轮廓信息的6d位姿估计方法 |
CN113591967A (zh) * | 2021-07-27 | 2021-11-02 | 南京旭锐软件科技有限公司 | 一种图像处理方法、装置、设备及计算机存储介质 |
CN114723984A (zh) * | 2022-03-11 | 2022-07-08 | 浙江工业大学 | 一种全自动的人像数据匿名化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115019136A (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764048B (zh) | 人脸关键点检测方法及装置 | |
CN111325203B (zh) | 一种基于图像校正的美式车牌识别方法及系统 | |
CN106599830B (zh) | 人脸关键点定位方法及装置 | |
CN108182433B (zh) | 一种表计读数识别方法及系统 | |
CN113361542B (zh) | 一种基于深度学习的局部特征提取方法 | |
CN110543906B (zh) | 基于Mask R-CNN模型的肤质自动识别方法 | |
CN109859256B (zh) | 一种基于自动对应点匹配的三维点云配准方法 | |
CN110347857B (zh) | 基于强化学习的遥感影像的语义标注方法 | |
CN116434266B (zh) | 一种医疗检验单的数据信息自动提取分析方法 | |
CN110909738A (zh) | 一种基于关键点检测的指针仪表自动读数方法 | |
CN114091606A (zh) | 一种隧道爆破炮孔半眼痕识别和损伤平整度评价分类方法 | |
CN116030352B (zh) | 融合多尺度分割和超像素分割的长时序土地利用分类方法 | |
CN110659637A (zh) | 一种结合深度神经网络和sift特征的电能表示数与标签自动识别方法 | |
CN113837151A (zh) | 表格图像处理方法、装置、计算机设备及可读存储介质 | |
CN115496893A (zh) | 一种指针式水表读数识别方法 | |
CN110223331B (zh) | 一种大脑mr医学图像配准方法 | |
CN112364974A (zh) | 一种基于激活函数改进的YOLOv3算法 | |
CN111754501A (zh) | 基于fcm算法的自适应土壤图像阴影检测方法 | |
CN107610120B (zh) | 一种多尺度建筑物面实体匹配方法及系统 | |
CN115019136B (zh) | 抗边界点漂移的目标关键点检测模型训练方法及检测方法 | |
CN115849202B (zh) | 基于数字孪生技术的智能起重机操作目标识别方法 | |
Liu et al. | Indoor Visual Positioning Method Based on Image Features. | |
WO2024021321A1 (zh) | 模型生成的方法、装置、电子设备和存储介质 | |
WO2024000989A1 (zh) | 对抗样本的检测方法、系统、设备及非易失性可读存储介质 | |
CN113111850B (zh) | 基于感兴趣区域变换的人体关键点检测方法、装置与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230329 Address after: Room 2309, 23rd Floor, Qidi Building, No. 99, South Tiancheng Road, High Speed Rail New Town, Xiangcheng District, Suzhou City, Jiangsu Province, 215000 - Work Station A029 (cluster registration) Patentee after: Jiangsu Shengdian Century Technology Co.,Ltd. Address before: Room 1602, Qianshan building, building D2, Qingdao International Innovation Park, No. 169, Songling Road, Laoshan District, Qingdao, Shandong 266100 Patentee before: Shandong ShengDian Century Technology Co.,Ltd. |