CN113379718A - 一种目标检测方法、装置、电子设备以及可读存储介质 - Google Patents
一种目标检测方法、装置、电子设备以及可读存储介质 Download PDFInfo
- Publication number
- CN113379718A CN113379718A CN202110719026.1A CN202110719026A CN113379718A CN 113379718 A CN113379718 A CN 113379718A CN 202110719026 A CN202110719026 A CN 202110719026A CN 113379718 A CN113379718 A CN 113379718A
- Authority
- CN
- China
- Prior art keywords
- image
- candidate
- detection model
- target detection
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 204
- 238000003860 storage Methods 0.000 title claims description 16
- 230000006870 function Effects 0.000 claims abstract description 93
- 238000012549 training Methods 0.000 claims abstract description 74
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000004590 computer program Methods 0.000 claims description 13
- 238000002372 labelling Methods 0.000 claims description 11
- 239000000126 substance Substances 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 241000282472 Canis lupus familiaris Species 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 238000009776 industrial production Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 241000272525 Anas platyrhynchos Species 0.000 description 1
- 241000699800 Cricetinae Species 0.000 description 1
- 241000282898 Sus scrofa Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000004753 textile Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30124—Fabrics; Textile; Paper
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及人工智能领域,具体涉及计算机视觉和深度学习技术,具体可用于智慧城市和智能交通场景。具体实现方案为:获取第一目标检测模型,所述第一目标检测模型为预先利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的模型;所述目标对比损失函数用于表示所述样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度;将待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像的检测结果。本公开的方案,能够使第一目标检测模型对小样本图像的检测能力以及整体的检测能力得到提升,在使用该第一目标检测模型对待检测图像检测时,可以提升针对待检测图像的检测结果的准确度。
Description
技术领域
本公开涉及人工智能领域,具体涉及计算机视觉和图像处理技术,具体可用于智慧城市和智能交通场景。
背景技术
目标检测模型作为一种用于对图像中的目标对象进行分类和/或定位的网络模型,在计算视觉领域中起到了至关重要的作用。在使用目标检测模型对图像进行目标检测的过程中,往往需要先利用样本图像来进行模型训练以获得目标检测模型。
在利用样本图像来进行模型训练以获得目标检测模型的过程中,由于图像采集困难等原因,样本图像中往往会存在某些类别的小样本图像,所谓小样本图像为仅具有较少数量的图像。由于小样本图像的数量较少,会导致通过模型训练获得的目标检测模型,对小样本图像的检测能力以及整体的检测能力较差,从而降低了针对待检测图像的检测结果的准确度。
发明内容
本公开提供了提供一种目标检测方法、一种目标检测装置、一种电子设备、一种可读存储介质以及一种计算机程序产品,以提升针对待检测图像的检测结果的准确度。
根据本公开的一方面,提供了一种目标检测方法,该方法可以包括以下步骤:
获取第一目标检测模型,所述第一目标检测模型为预先利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的模型;所述目标对比损失函数用于表示所述样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度;
将待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像的检测结果。
根据本公开的另一方面,提供了一种目标检测装置,该装置可以包括:
模型获得模块,用于获取第一目标检测模型,所述第一目标检测模型为预先利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的模型;所述目标对比损失函数用于表示所述样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度;
检测结果获得模块,用于将待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像的检测结果。
根据本公开的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
根据本公开的技术,目标对比损失函数用于表示所述样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度,利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的第一目标检测模型,能够使相同对象类别的不同候选框区域的图像特征靠的更为紧密,不同对象类别的不同候选框区域的图像特征靠的更为疏离,进而使第一目标检测模型对小样本图像的检测能力以及整体的检测能力得到提升。因此,在使用该第一目标检测模型对待检测图像检测时,可以提升针对待检测图像的检测结果的准确度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开的实施例提供一种目标检测方法的流程图;
图2为本公开的实施例中提供的一种模型获得方法的流程图;
图3为本公开的实施例中提供的一种目标检测模型训练的示意图;
图4为本公开的实施例中提供的一种模型获取方法的流程图;
图5为本公开的实施例中提供的一种检测结果获得方法的流程图;
图6为本公开的实施例中提供的一种目标检测的示意图;
图7为本公开的实施例中提供的一种目标检测装置的示意图;
图8为本公开的实施例中提供的一种电子设备的示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开提供一种目标检测方法,具体请参照图1,其为本公开的实施例提供一种目标检测方法的流程图。该方法可以包括以下步骤:
S101:获取第一目标检测模型,第一目标检测模型为预先利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的模型;目标对比损失函数用于表示样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度。
S102:将待检测图像输入到第一目标检测模型,获得针对待检测图像的检测结果。
本公开的实施例中提供的目标检测方法,其执行主体可以为电子设备,该电子设备为安装有能够执行本公开的实施例中提供的目标检测方法的软件或者应用的设备,或者为该电子设备提供数据处理、存储等服务的服务端。
所谓电子设备包括但不限于手机、平板电脑、笔记本电脑以及台式电脑。
所谓软件或者应用包括但不限于应用程序、电脑应用、计算机程序以及网页应用或者软件。
所谓服务端的具体实现方式一般为服务器或者服务器集群。
本公开的实施例中,所谓第二目标检测模型,可以是基于开源图像集预先训练好的基础目标检测模型。
所谓第一目标检测模型,可以是指针对第二目标检测模型进一步进行模型训练而获得的目标检测模型。针对第二目标检测模型进一步进行模型训练的方式为:利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练。
本公开的实施例中,所谓样本图像可以为纺织业、瓷砖制造业等工业的工业生产场景对应的场景图像,例如:针对工业生产实际生产线采集的产品生产的场景图,此时,对象包括不同的瓷砖或者纺布等。
所谓样本图像还可以为包含有不同种类宠物的宠物图像,例如:包含猫、狗或者仓鼠等的宠物图像,此时,对象包括不同的宠物。
所谓样本图像还可以为城市道路场景图像,例如:行车道的场景图像,此时,对象包括但不限于车辆、路障以及行车线。
本公开的实施例中,针对待检测图像的检测结果,包括针对待检测图像中的目标对象的分类结果,和/或针对待检测图像中的目标对象的定位结果。
本公开的实施例中提供的目标检测方法,还可以进一步基于分类结果和/或定位结果,来实现智慧城市和智能交通场景中的图像分割、人体关键点提取、人脸识别、目标追踪以及自动导航等工作。
本公开的实施例提供的目标检测方法,目标对比损失函数用于表示样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度,利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的第一目标检测模型,能够使相同对象类别的不同候选框区域的图像特征靠的更为紧密,不同对象类别的不同候选框区域的图像特征靠的更为疏离,进而使第一目标检测模型对小样本图像的检测能力以及整体的检测能力得到提升。因此,在使用该第一目标检测模型对待检测图像检测时,可以提升针对待检测图像的检测结果的准确度。
由于第一目标检测模型为预先利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的模型,在获得第一目标检测模型之前,需要先利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练,得到第一目标检测模型。具体结合图2所示,其为本公开的实施例中提供的一种模型获得方法的流程图。
在一种实施方式中,步骤S101中涉及的第一目标检测模型,可以采用如下步骤获得:
S201:获得样本图像中的多个候选框区域对应的对象类别标注数据。
S202:将样本图像输入到第二目标检测模型,获得多个候选框区域各自对应的图像特征,以及多个候选框区域各自对应的对象预测类别。
S203:根据多个候选框区域各自对应的图像特征、多个候选框区域各自对应的对象预测类别以及多个候选框区域的对象类别标注数据,确定目标对比学习损失函数的函数值。
S204:根据目标对比学习损失函数的函数值,调整第二目标检测模型的模型参数,以对第二目标检测模型进行训练。
S205:在达到预定的训练结束条件的情况下,得到第一目标检测模型。
所谓多个候选框区域可以为样本图像中的所有候选框区域,也可以为在所有候选框区域中选定的多个候选框区域。
所谓对象类别标注数据为针对多个候选框区域,对多个候选框区域中的对象类型进行类型标注后获得标注数据。例如:某一候选框区域中的对象类型为狗,则对象类别标注数据为:该候选框区域中的对象类型为狗。
本公开的实施例中,获得多个候选框区域各自对应的图像特征的过程请参照图3,为本公开的实施例中提供的一种目标检测模型训练的示意图。
首先,将样本图像输入到第二目标检测模型,通过第二目标检测模型中的深度神经网络对样本图像进行特征提取,获得样本图像对应的图像特征。
然后,针对样本图像对应的图像特征,基于RPN(Region Proposal Network,区域生成网络),获得样本图像中的多个候选框区域;通过ROI Pooling(Regions Of InterestPooling,候选框区域池化层)对样本图像对应的图像特征进行池化,获得多个候选框区域各自对应的图像特征。
所谓多个候选框区域各自对应的对象预测类别,是指第二目标检测模型针对多个候选框区域对应的对象的最大概率的预测概率。
本公开的实施例中,确定目标对比学习损失函数的函数值的具体实现方式为:
采用如下公式获得目标对比学习损失函数的函数值:
其中,L用于表示目标对比学习损失函数的函数值,N用于表示多个候选框区域的数目,i用于表示多个候选框区域中的第i个候选框区域,Li用于表示第i个候选框与对应相同对象预测类别的不同候选框区域之间图像特征的差异程度,f(ui)用于表示Li的权重
其中,L用于表示目标对比学习损失函数的函数值,N用于表示多个候选框区域的数目,i用于表示多个候选框区域中的第i个候选框区域,Li用于表示第i个候选框与对应相同对象预测类别的不同候选框区域之间图像特征的差异程度,f(ui)用于表示Li的权重。
本公开的实施例中,f(ui)采用如下公式的一种获得:
f(ui)=ui^2;
f(ui)=ui;
其中,ui用于表示第i个候选框区域对应的对象预测类别与第i个对象对应的对象类别标注数据之间的交并比。
此外,还可以设置具有上述两种公式之外的其他公式,来获得Li的权重。
本公开的实施例中,采用多种公式来获得Li的权重,增加了对比文损失函数的灵活性。
本公开的实施例中,Li采用如下公式获得:
其中,yi用于表示第i个候选框区域对应的对象预测类别,用于表示在不同对象中对象预测类别与第i个候选框区域对应的对象预测类别相同的候选框的数目,用于表示第i个候选框区域对应的图像特征的归一化图像特征,j用于表示多个候选框区域中除第i个候选框区域之外的第j个候选框区域,用于表示第j个候选框区域对应的图像特征的归一化图像特征,τ为预先设定的超参数,用于表示与之间的特征相似性,k用于表示不同对象中除第j个候选框区域之外的第k个候选框区域,用于表示第k个候选框区域对应的图像特征的归一化图像特征,用于表示与之间的特征相似性。
例如,N个候选框区域对应的对象预测类别有:猫、狗、猪、鸭,第i个候选框区域对应的对象预测类别为狗,那么,Li用于表示第i个候选框与对象预测类别为狗的不同候选框区域之间图像特征的差异程度。
所谓预设的训练结束条件包括但不限于预定的训练次数、迭代步长达到预定的步长。
本公开的实施例中,在达到预设的训练结束条件,获得第一目标检测模型,从而为第二目标检测模型的模型训练制定了结束标准,明确了第一目标检测模型获得的标准。
通过对第二目标检测模型进行对比学习训练来获得的第一目标检测模型,使相同对象类别的不同候选框区域的图像特征靠的更为紧密,不同对象类别的不同候选框区域的图像特征靠的更为疏离,进而使第一目标检测模型对小样本图像的检测能力以及整体的检测能力得到提升。
结合图4所示,在一种实施方式中,步骤S101中涉及的获取第一目标检测模型,可以采用如下步骤获得。图4为本公开的实施例中提供的一种模型获取方法的流程图。
S401:利用对第二目标检测模型进行分类训练的分类损失函数,对第二目标检测模型进行定位训练的定位损失函数,以及目标对比学习损失函数,对第二目标检测模型进行训练。
S402:在达到预定的训练结束条件的情况下,得到第一目标检测模型。
也就是说,本公开的实施例中提供的目标检测方法,在获得第一目标检测模型时,还可以对第二目标检测模型同步进行定位训练、分类训练以及对比训练。
请再参照图3,图3中所谓分类训练分支是指,利用用于对第二目标检测模型进行分类训练的分类损失函数,对第二目标检测模型进行分类训练;所谓定位训练分支是指,利用对第二目标检测模型进行定位训练的定位损失函数,对第二目标检测模型进行定位训练;所谓对比训练分支是指,利用目标对比损失函数,对第二目标检测模型进行对比学习训练。
对第二目标检测模型同步进行定位训练、分类训练以及对比训练的具体步骤为:第一,将样本图像输入到第二目标检测模型,通过第二目标检测模型中的深度神经网络对样本图像进行特征提取,获得样本图像对应的图像特征。
第二,针对样本图像对应的图像特征,基于区域生成网络,获得样本图像中的多个候选框区域;通过ROI Pooling对样本图像对应的图像特征进行池化,获得多个候选框区域各自对应的图像特征。
第三,根据多个候选框区域各自对应的图像特征,对第二目标检测模型同步进行定位训练、分类训练以及对比训练。
本公开的实施例中,对第二目标检测模型同步进行定位训练、分类训练以及对比训练,能够进一步提高第一目标检测模型的对象定位能力以及对象分类能力。
利用定位损失函数对第二目标检测模型定位训练的方式如下:
第一,获得样本图像中的多个候选框区域对应的候选区域标注数据。
第二,将样本图像中的多个候选框区域对应的对象位置标注数据以及样本图像输入到第二目标检测模型中,确定定位损失函数的函数值。
第三,根据定位损失函数的函数值,调整第二目标检测模型的模型参数,直至达到预设的训练结束条件,获得第一目标检测模型。
所谓定位损失函数为用于表示多个候选框区域对应的候选区域标注数据,与多个候选框区域对应的对象预测位置之间的差异程度的损失函数。
本公开的实施例中,对第二目标检测模型同步进行定位训练、分类训练以及对比训练,能够进一步提高第一目标检测模型的对象定位能力以及对象分类能力。
结合图5所示,在一种实施方式中,步骤S102中涉及的获得针对待检测图像的检测结果,可以采用如下步骤获得。图5为本公开的实施例中提供的一种检测结果获得方法的流程图
步骤S501:将待检测图像输入到第一目标检测模型,获得针对待检测图像中的目标对象的分类结果,和/或获得针对待检测图像中的目标对象的定位结果。
步骤S502:将分类结果和/或定位结果作为针对待检测图像的检测结果。
本公开的实施例中,获得的第一目标检测模型可以灵活的用于对待检测图像中的目标对象进行分类和/或定位,提升了第一目标检测模型的适用范围。
也就是说,针对待检测图像的检测结果,包括针对待检测图像中的目标对象的分类结果,和/或针对待检测图像中的目标对象的定位结果。
本公开的实施例中,获得分类结果和/或定位结果的具体实现过程请参照图6,其为本公开的实施例中提供的一种目标检测的示意图。
第一,将待检测图像输入到第一目标检测模型,通过第一目标检测模型中的深度神经网络对待检测图像进行特征提取,获得待检测图像对应的图像特征。
第二,针对待检测图像对应的图像特征,基于RPN,确定待检测图像中的所有候选框区域。
第三,通过ROI Pooling对待检测图像对应的图像特征进行池化,获得所有候选框区域各自对应的图像特征。
第四,根据所有候选框区域各自对应的图像特征,获得针对待检测图像中的目标对象的分类结果,和/或获得针对待检测图像中的目标对象的定位结果。
本公开的实施例提供的目标检测方法,目标对比损失函数用于表示样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度,利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的第一目标检测模型,能够使相同对象类别的不同候选框区域的图像特征靠的更为紧密,不同对象类别的不同候选框区域的图像特征靠的更为疏离,进而使第一目标检测模型对小样本图像的检测能力以及整体的检测能力得到提升。因此,在使用该第一目标检测模型对待检测图像检测时,可以提升针对待检测图像的检测结果的准确度。
如图7所示,本公开提供一种目标检测装置,该装置可以包括:
模型获得模块701,用于获取第一目标检测模型,所述第一目标检测模型为预先利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的模型;所述目标对比损失函数用于表示所述样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度;
检测结果获得模块702,用于将待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像的检测结果。
在一种实施方式中,模型获得模块701可以进一步包括:
标注数据获得子模块,用于获得所述样本图像中的多个候选框区域对应的对象类别标注数据;
图像特征获得子模块,用于将所述样本图像输入到所述第二目标检测模型,获得所述多个候选框区域各自对应的图像特征,以及所述多个候选框区域各自对应的对象预测类别;
函数值确定子模块,用于根据所述多个候选框区域各自对应的图像特征、所述多个候选框区域各自对应的对象预测类别以及所述多个候选框区域的对象类别标注数据,确定所述目标对比学习损失函数的函数值;
第一模型训练子模块,用于根据所述目标对比学习损失函数的函数值,调整所述第二目标检测模型的模型参数,以对第二目标检测模型进行训练;
第一目标检测模型获得子模块,用于在达到预定的训练结束条件的情况下,得到所述第一目标检测模型。
在一种实施方式中,模型获得模块701可以进一步包括:
第一模型训练子模块,用于利用对所述第二目标检测模型进行分类训练的分类损失函数,对所述第二目标检测模型进行定位训练的定位损失函数,以及所述目标对比学习损失函数,对所述第二目标检测模型进行训练;
第一目标检测模型获得子模块,用于在达到预定的训练结束条件的情况下,得到所述第一目标检测模型。
在一种实施方式中,函数值确定子模块具体用于采用如下公式获得所述目标对比学习损失函数的函数值:
其中,所述L用于表示所述目标对比学习损失函数的函数值,所述N用于表示所述多个候选框区域的数目,所述i用于表示所述多个候选框区域中的第i个候选框区域,所述Li用于表示所述第i个候选框与对应相同对象预测类别的不同候选框区域之间图像特征的差异程度,所述f(ui)用于表示所述Li的权重。
在一种实施方式中,所述f(ui)采用如下公式的一种获得:
f(ui)=ui^2;
f(ui)=ui;
其中,ui用于表示所述第i个候选框区域对应的对象预测类别与所述第i个对象对应的对象类别标注数据之间的交并比。
在一种实施方式中,所述Li采用如下公式获得:
其中,所述yi用于表示所述第i个候选框区域对应的对象预测类别,所述用于表示在所述不同对象中所述对象预测类别与所述第i个候选框区域对应的对象预测类别相同的候选框的数目,所述用于表示所述第i个候选框区域对应的图像特征的归一化图像特征,所述j用于表示所述多个候选框区域中除所述第i个候选框区域之外的第j个候选框区域,所述用于表示所述第j个候选框区域对应的图像特征的归一化图像特征,所述τ为预先设定的超参数,所述用于表示所述与所述之间的特征相似性,所述k用于表示所述不同对象中除所述第j个候选框区域之外的第k个候选框区域,所述用于表示所述第k个候选框区域对应的图像特征的归一化图像特征,所述用于表示所述与所述之间的特征相似性。
在一种实施方式中,所述检测结果获得模块702可以具体用于:
将所述待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像中的目标对象的分类结果,和/或获得针对所述待检测图像中的目标对象的定位结果;将所述分类结果和/或所述定位结果作为所述针对所述待检测图像的检测结果。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本公开的实施例的电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图8所示,电子设备800包括计算单元810,其可以根据存储在只读存储器(ROM)820中的计算机程序或者从存储单元880加载到随机访问存储器(RAM)830中的计算机程序来执行各种适当的动作和处理。在RAM 830中,还可存储设备800操作所需的各种程序和数据。计算单元810、ROM 820以及RAM 830通过总线840彼此相连。输入输出(I/O)接口850也连接至总线840。
电子设备800中的多个部件连接至I/O接口850,包括:输入单元860,例如键盘、鼠标等;输出单元870,例如各种类型的显示器、扬声器等;存储单元870,例如磁盘、光盘等;以及通信单元890,例如网卡、调制解调器、无线通信收发机等。通信单元890允许电子设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元810可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元810的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元810执行上文所描述的各个方法和处理,例如目标检测方法。例如,在一些实施例中,目标检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元880。在一些实施例中,计算机程序的部分或者全部可以经由ROM 820和/或通信单元890而被载入和/或安装到电子设备800上。当计算机程序加载到RAM 830并由计算单元810执行时,可以执行上文描述的目标检测方法的一个或多个步骤。备选地,在其他实施例中,计算单元810可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行目标检测方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (17)
1.一种目标检测方法,其特征在于,包括:
获取第一目标检测模型,所述第一目标检测模型为预先利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的模型;所述目标对比损失函数用于表示所述样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度;
将待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像的检测结果。
2.根据权利要求1所述的方法,其特征在于,所述第一目标检测模型采用如下方式获得:
获得所述样本图像中的多个候选框区域对应的对象类别标注数据;
将所述样本图像输入到所述第二目标检测模型,获得所述多个候选框区域各自对应的图像特征,以及所述多个候选框区域各自对应的对象预测类别;
根据所述多个候选框区域各自对应的图像特征、所述多个候选框区域各自对应的对象预测类别以及所述多个候选框区域的对象类别标注数据,确定所述目标对比学习损失函数的函数值;
根据所述目标对比学习损失函数的函数值,调整所述第二目标检测模型的模型参数,以对第二目标检测模型进行训练;
在达到预定的训练结束条件的情况下,得到所述第一目标检测模型。
3.根据权利要求1或2所述的方法,其特征在于,所述获取第一目标检测模型,包括:
利用对所述第二目标检测模型进行分类训练的分类损失函数,对所述第二目标检测模型进行定位训练的定位损失函数,以及所述目标对比学习损失函数,对所述第二目标检测模型进行训练;
在达到预定的训练结束条件的情况下,得到所述第一目标检测模型。
5.根据权利要求4所述的方法,其特征在于,所述f(ui)采用如下公式的一种获得:
f(ui)=ui^2;
f(ui)=ui;
其中,ui用于表示所述第i个候选框区域对应的对象预测类别与所述第i个对象对应的对象类别标注数据之间的交并比。
6.根据权利要求5所述的方法,其特征在于,所述Li采用如下公式获得:
其中,所述yi用于表示所述第i个候选框区域对应的对象预测类别,所述Nyi用于表示在所述不同对象中所述对象预测类别与所述第i个候选框区域对应的对象预测类别相同的候选框的数目,所述用于表示所述第i个候选框区域对应的图像特征的归一化图像特征,所述j用于表示所述多个候选框区域中除所述第i个候选框区域之外的第j个候选框区域,所述用于表示所述第j个候选框区域对应的图像特征的归一化图像特征,所述τ为预先设定的超参数,所述用于表示所述与所述之间的特征相似性,所述k用于表示所述不同对象中除所述第j个候选框区域之外的第k个候选框区域,所述用于表示所述第k个候选框区域对应的图像特征的归一化图像特征,所述用于表示所述与所述之间的特征相似性。
7.根据权利要求1所述的方法,其特征在于,所述将待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像的检测结果,包括:
将所述待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像中的目标对象的分类结果,和/或获得针对所述待检测图像中的目标对象的定位结果;
将所述分类结果和/或所述定位结果作为所述针对所述待检测图像的检测结果。
8.一种目标检测装置,其特征在于,包括:
模型获得模块,用于获取第一目标检测模型,所述第一目标检测模型为预先利用目标对比损失函数和样本图像,对第二目标检测模型进行对比学习训练获得的模型;所述目标对比损失函数用于表示所述样本图像中对应相同对象预测类别的不同候选框区域之间图像特征的差异程度;
检测结果获得模块,用于将待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像的检测结果。
9.根据权利要求8所述的装置,其特征在于,所述模型获得模块,包括:
标注数据获得子模块,用于获得所述样本图像中的多个候选框区域对应的对象类别标注数据;
图像特征获得子模块,用于将所述样本图像输入到所述第二目标检测模型,获得所述多个候选框区域各自对应的图像特征,以及所述多个候选框区域各自对应的对象预测类别;
函数值确定子模块,用于根据所述多个候选框区域各自对应的图像特征、所述多个候选框区域各自对应的对象预测类别以及所述多个候选框区域的对象类别标注数据,确定所述目标对比学习损失函数的函数值;
第一模型训练子模块,用于根据所述目标对比学习损失函数的函数值,调整所述第二目标检测模型的模型参数,以对第二目标检测模型进行训练;
第一目标检测模型获得子模块,用于在达到预定的训练结束条件的情况下,得到所述第一目标检测模型。
10.根据权利要求8或9所述的装置,其特征在于,所述模型获得模块,包括:
第一模型训练子模块,用于利用对所述第二目标检测模型进行分类训练的分类损失函数,对所述第二目标检测模型进行定位训练的定位损失函数,以及所述目标对比学习损失函数,对所述第二目标检测模型进行训练;
第一目标检测模型获得子模块,用于在达到预定的训练结束条件的情况下,得到所述第一目标检测模型。
12.根据权利要求11所述的装置,其特征在于,所述f(ui)采用如下公式的一种获得:
f(ui)=ui^2;
f(ui)=ui;
其中,ui用于表示所述第i个候选框区域对应的对象预测类别与所述第i个对象对应的对象类别标注数据之间的交并比。
13.根据权利要求12所述的装置,其特征在于,所述Li采用如下公式获得:
其中,所述yi用于表示所述第i个候选框区域对应的对象预测类别,所述Nyi用于表示在所述不同对象中所述对象预测类别与所述第i个候选框区域对应的对象预测类别相同的候选框的数目,所述用于表示所述第i个候选框区域对应的图像特征的归一化图像特征,所述j用于表示所述多个候选框区域中除所述第i个候选框区域之外的第j个候选框区域,所述用于表示所述第j个候选框区域对应的图像特征的归一化图像特征,所述τ为预先设定的超参数,所述用于表示所述与所述之间的特征相似性,所述k用于表示所述不同对象中除所述第j个候选框区域之外的第k个候选框区域,所述用于表示所述第k个候选框区域对应的图像特征的归一化图像特征,所述用于表示所述与所述之间的特征相似性。
14.根据权利要求1所述的装置,其特征在于,所述检测结果获得模块具体用于:
将所述待检测图像输入到所述第一目标检测模型,获得针对所述待检测图像中的目标对象的分类结果,和/或获得针对所述待检测图像中的目标对象的定位结果;将所述分类结果和/或所述定位结果作为所述针对所述待检测图像的检测结果。
15.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至7中任意一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1至7中任意一项所述的方法。
17.一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现权利要求1至7中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110719026.1A CN113379718B (zh) | 2021-06-28 | 2021-06-28 | 一种目标检测方法、装置、电子设备以及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110719026.1A CN113379718B (zh) | 2021-06-28 | 2021-06-28 | 一种目标检测方法、装置、电子设备以及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113379718A true CN113379718A (zh) | 2021-09-10 |
CN113379718B CN113379718B (zh) | 2024-02-02 |
Family
ID=77579411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110719026.1A Active CN113379718B (zh) | 2021-06-28 | 2021-06-28 | 一种目标检测方法、装置、电子设备以及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113379718B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113822368A (zh) * | 2021-09-29 | 2021-12-21 | 成都信息工程大学 | 一种基于无锚的增量式目标检测方法 |
CN113902898A (zh) * | 2021-09-29 | 2022-01-07 | 北京百度网讯科技有限公司 | 目标检测模型的训练、目标检测方法、装置、设备和介质 |
CN114445811A (zh) * | 2022-01-30 | 2022-05-06 | 北京百度网讯科技有限公司 | 一种图像处理方法、装置及电子设备 |
CN114529768A (zh) * | 2022-02-18 | 2022-05-24 | 阿波罗智联(北京)科技有限公司 | 确定对象类别的方法、装置、电子设备和存储介质 |
CN114612651A (zh) * | 2022-03-11 | 2022-06-10 | 北京百度网讯科技有限公司 | Roi检测模型训练方法、检测方法、装置、设备和介质 |
CN114648803A (zh) * | 2022-05-20 | 2022-06-21 | 中国科学技术大学 | 自然场景下人脸表情识别方法、系统、设备及存储介质 |
CN114841257A (zh) * | 2022-04-21 | 2022-08-02 | 北京交通大学 | 一种基于自监督对比约束下的小样本目标检测方法 |
CN115358392A (zh) * | 2022-10-21 | 2022-11-18 | 北京百度网讯科技有限公司 | 深度学习网络的训练方法、文本检测方法及装置 |
CN117746191A (zh) * | 2024-02-07 | 2024-03-22 | 浙江啄云智能科技有限公司 | 以图搜图模型训练方法和以图搜图方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018137357A1 (zh) * | 2017-01-24 | 2018-08-02 | 北京大学 | 一种目标检测性能优化的方法 |
US20190228658A1 (en) * | 2018-01-24 | 2019-07-25 | National Chung Cheng University | Method for establishing a parking space detection model and method of detecting parking spaces for a parking lot |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN112784749A (zh) * | 2021-01-22 | 2021-05-11 | 北京百度网讯科技有限公司 | 目标模型的训练方法、目标对象的识别方法、装置及介质 |
CN113012176A (zh) * | 2021-03-17 | 2021-06-22 | 北京百度网讯科技有限公司 | 样本图像的处理方法、装置、电子设备及存储介质 |
-
2021
- 2021-06-28 CN CN202110719026.1A patent/CN113379718B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018137357A1 (zh) * | 2017-01-24 | 2018-08-02 | 北京大学 | 一种目标检测性能优化的方法 |
US20190228658A1 (en) * | 2018-01-24 | 2019-07-25 | National Chung Cheng University | Method for establishing a parking space detection model and method of detecting parking spaces for a parking lot |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN112784749A (zh) * | 2021-01-22 | 2021-05-11 | 北京百度网讯科技有限公司 | 目标模型的训练方法、目标对象的识别方法、装置及介质 |
CN113012176A (zh) * | 2021-03-17 | 2021-06-22 | 北京百度网讯科技有限公司 | 样本图像的处理方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
陶攀;付忠良;朱锴;王莉莉;: "基于深度学习的医学计算机辅助检测方法研究", 生物医学工程学杂志, no. 03 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113822368A (zh) * | 2021-09-29 | 2021-12-21 | 成都信息工程大学 | 一种基于无锚的增量式目标检测方法 |
CN113902898A (zh) * | 2021-09-29 | 2022-01-07 | 北京百度网讯科技有限公司 | 目标检测模型的训练、目标检测方法、装置、设备和介质 |
CN114445811A (zh) * | 2022-01-30 | 2022-05-06 | 北京百度网讯科技有限公司 | 一种图像处理方法、装置及电子设备 |
CN114529768A (zh) * | 2022-02-18 | 2022-05-24 | 阿波罗智联(北京)科技有限公司 | 确定对象类别的方法、装置、电子设备和存储介质 |
CN114612651A (zh) * | 2022-03-11 | 2022-06-10 | 北京百度网讯科技有限公司 | Roi检测模型训练方法、检测方法、装置、设备和介质 |
CN114841257A (zh) * | 2022-04-21 | 2022-08-02 | 北京交通大学 | 一种基于自监督对比约束下的小样本目标检测方法 |
CN114841257B (zh) * | 2022-04-21 | 2023-09-22 | 北京交通大学 | 一种基于自监督对比约束下的小样本目标检测方法 |
CN114648803A (zh) * | 2022-05-20 | 2022-06-21 | 中国科学技术大学 | 自然场景下人脸表情识别方法、系统、设备及存储介质 |
CN114648803B (zh) * | 2022-05-20 | 2022-09-06 | 中国科学技术大学 | 自然场景下人脸表情识别方法、系统、设备及存储介质 |
CN115358392A (zh) * | 2022-10-21 | 2022-11-18 | 北京百度网讯科技有限公司 | 深度学习网络的训练方法、文本检测方法及装置 |
CN117746191A (zh) * | 2024-02-07 | 2024-03-22 | 浙江啄云智能科技有限公司 | 以图搜图模型训练方法和以图搜图方法 |
CN117746191B (zh) * | 2024-02-07 | 2024-05-10 | 浙江啄云智能科技有限公司 | 以图搜图模型训练方法和以图搜图方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113379718B (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113379718B (zh) | 一种目标检测方法、装置、电子设备以及可读存储介质 | |
CN113920307A (zh) | 模型的训练方法、装置、设备、存储介质及图像检测方法 | |
CN114648676A (zh) | 点云处理模型的训练和点云实例分割方法及装置 | |
CN113378712A (zh) | 物体检测模型的训练方法、图像检测方法及其装置 | |
CN112966744A (zh) | 模型训练方法、图像处理方法、装置和电子设备 | |
CN113642583A (zh) | 用于文本检测的深度学习模型训练方法及文本检测方法 | |
CN113361710A (zh) | 学生模型训练方法、图片处理方法、装置及电子设备 | |
CN113947188A (zh) | 目标检测网络的训练方法和车辆检测方法 | |
US20230072632A1 (en) | Obstacle detection method, electronic device and storage medium | |
CN114881129A (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
CN113792742A (zh) | 遥感图像的语义分割方法和语义分割模型的训练方法 | |
CN113705716B (zh) | 图像识别模型训练方法、设备、云控平台及自动驾驶车辆 | |
CN113537192B (zh) | 图像检测方法、装置、电子设备及存储介质 | |
CN112966140B (zh) | 字段识别方法、装置、电子设备、存储介质和程序产品 | |
CN112699237B (zh) | 标签确定方法、设备和存储介质 | |
CN117372928A (zh) | 一种视频目标检测方法、装置及相关设备 | |
CN115482436B (zh) | 图像筛选模型的训练方法、装置以及图像筛选方法 | |
CN115861809A (zh) | 杆状物检测及其模型的训练方法、装置、电子设备、介质 | |
CN115761698A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN113344121B (zh) | 训练招牌分类模型和招牌分类的方法 | |
CN114596442A (zh) | 一种图像识别方法、装置、设备及存储介质 | |
CN114549961A (zh) | 目标对象的检测方法、装置、设备以及存储介质 | |
CN113887394A (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN114724090B (zh) | 行人再识别模型的训练方法、行人再识别方法及装置 | |
CN113361524B (zh) | 图像处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |