CN113569639A - 一种基于样本中心损失函数的跨模态行人重识别方法 - Google Patents
一种基于样本中心损失函数的跨模态行人重识别方法 Download PDFInfo
- Publication number
- CN113569639A CN113569639A CN202110709230.5A CN202110709230A CN113569639A CN 113569639 A CN113569639 A CN 113569639A CN 202110709230 A CN202110709230 A CN 202110709230A CN 113569639 A CN113569639 A CN 113569639A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- sample
- modal
- cross
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于样本中心损失函数的跨模态行人重识别方法,具体步骤包括:对跨模态行人重识别数据集进行数据增强和批采样;构建具有模态特异结构的深度特征提取模型;在深度特征提取模型后设置全局平均池化层,得到第一阶段特征用于计算样本中心损失;对第一阶段特征进行归一化,得到第二阶段特征用于计算身份分类损失;使用样本中心损失和身份分类损失联合监督跨模态行人重识别网络的训练;使用训练好的网络进行跨模态行人重识别。本发明提出的样本中心损失函数旨在缓解不同模态行人特征之间的显著差异,提高同类行人特征的一致性和异类行人特征的区分性,实现更好的跨模态行人重识别效果。
Description
技术领域
本发明属于图像处理、模式识别技术领域,特别地涉及一种基于样本中心损失函数的跨模态行人重识别方法。
背景技术
行人重识别技术能够在不同相机所采集的行人图像中查找和匹配目标行人。随着视频监控的广泛普及,行人重识别技术在安防、交通、医疗以及智能生活等领域发挥着日益重要的作用。现有的关于行人重识别的技术主要集中在可见光的行人重识别,但可见光相机在黑暗的环境中无法正常使用,因此许多新型摄像头能够根据环境变化切换为红外模式,进行24小时不间断的监控。在这种情况下,跨模态行人重识别技术被提出,旨在将可见光(RGB)行人图像与只有灰度信息的红外(IR)行人图像进行匹配,实现跨模态的行人检索。跨模态行人重识别技术弥补了传统的可见光行人重识别的在夜间监视场景中的局限,从而提高行人重识别技术的适用性。
行人重识别任务受到光照变化、行人姿态变化、不同拍摄视角和外界遮挡等诸多因素的影响,导致同一个行人在不同摄像机下可能存在较大的外观差异。此外,由于可见光和红外相机的成像原理不同,捕获的RGB、IR行人图像存在严重的跨模态差异。这些问题使得跨模态行人重识别任务极具挑战性。
针对跨模态行人重识别任务,现有的方法往往采用结构优化的卷积神经网络(CNN),如深度补零(zero-padding)网络和双路(two-stream)网络,它们具有模态特异的网络结构,有利于处理行人图像的模态差异。更多方法通过优化训练网络的损失函数,为跨模态的行人图像提取到具有判别性的行人特征。如Ye等人提出的双向双约束高阶损失(BDTR),Hao等人提出的相互排序损失(Reciprocal ranking loss)和Liu等人提出的双模态三元组损失(Dual-modality triplet loss)。它们均采用一种改进的跨模态(Cross-modality)双向三元组损失,使得不同模态同类行人图像的特征相互靠近,不同模态异类行人图像的特征相互远离。此外,它们采用一种额外的模态内(Intra-modality)度量损失,对相同模态行人特征之间的距离进行约束。然而,这些损失函数并没有直接约束跨模态行人特征之间的差异,导致不同模态行人特征之间的距离鸿沟直接影响到跨模态行人重识别的性能。
发明内容
本发明为了解决现有跨模态行人重识别技术的不足,提出了一种基于样本中心损失函数的跨模态行人重识别方法,旨在通过直接约束跨模态行人特征之间的差异,同时提高同类行人特征的一致性与异类行人特征的区分性,进一步提升跨模态行人重识别的性能。
为了实现上述目的,本发明提出了一种基于样本中心损失函数的跨模态行人重识别方法包含以下步骤:
步骤S1,对跨模态行人重识别的训练数据集进行数据增强;
步骤S2,对训练数据集进行批采样,构建多个批次的训练数据;
步骤S3,构建具有模态特异结构的深度特征提取模型;
步骤S4,在所述深度特征提取模型后设置全局平均池化层,输出得到第一阶段特征;
步骤S5,设置样本中心损失函数,对第一阶段特征计算样本中心损失;
步骤S6,在所述全局平均池化层后设置批归一化层,对第一阶段特征进行归一化操作,得到第二阶段特征;
步骤S7,在所述批归一化层后设置全连接层作为行人身份分类器,对第二阶段特征进行身份分类。并使用交叉熵损失作为身份分类的损失函数,为分类结果计算身份分类损失;
步骤S8,结合所述样本中心损失函数和身份分类损失函数构建整体损失函数,对所述深度特征提取模型、全局平均池化层、批归一化层和全连接层组成的跨模态行人重识别网络进行优化训练;
步骤S9,使用训练好的跨模态行人重识别网络,对可见光(红外)目标行人图像和图像库中的红外(可见光)行人图像进行特征提取,对提取的特征进行距离度量与排序,得到跨模态的匹配行人图像。
进一步的,所述步骤S2中,对训练数据集进行批采样的方法为:
从训练数据集的行人中随机采样P个人,然后对每个人随机采样K张可见光图像和K张红外图像,生成训练批次的批量大小为N=2*P*K。
进一步的,所述步骤S3中,构建具有模态特异结构的深度特征提取模型的方法为:
使用深度模型ResNet-50作为基础结构。该模型主要包含5个卷积块,为构建模态特异结构,将前n(n∈[1,5])个卷积块设置为双路的,分别接收可见光和红外模态的图像样本。
进一步的,所述步骤S5中,样本中心损失函数包含两个基于中心特征的损失项,分别为样本中心距离损失和样本中心三元组损失,具体包含以下计算步骤:
步骤S51,为当前批次的训练样本中的每个行人类别y计算中心特征cy,其计算公式如下:
其中,2K是当前批次中第y类行人的可见光和红外样本的总量;vj和tj分别表示第y类行人的第j张可见光样本和第j张红外样本的第一阶段特征。
步骤S52,基于中心特征计算样本中心距离损失,其表达式如下:
步骤S53,基于中心特征计算样本中心三元组损失,其表达式如下:
进一步的,所述步骤S6中,身份分类损失函数的表达式为:
其中yi为当前批次中第i张图像样本的真实类别标签,p(yi)为对当前批次中第i张图像的第二阶段特征进行身份分类的概率结果。
进一步的,所述步骤S8中,结合样本中心损失函数和身份分类损失函数构建整体损失函数表达式如下:
L=λ1LID+λ2LSCD+λ3LSCT
其中,λ1,λ2和λ3为权重参数,用于调节不同的损失项在整体损失中的重要性程度。
本发明有益效果表现为:
1、本发明对训练数据集进行批采样,保证了训练数据的模态均衡和类别均衡。其中,模态均衡使得网络能够充分且平等地训练不同模态的图像样本;类别均衡有利于三元组损失的计算。
2、本发明构建具有模态特异结构的深度特征提取模型,模态特异结构有助于处理不同模态图像的特有信息,帮助缓解图像层面的模态差异,提取模态共享的区分性特征。
3、本发明的样本中心损失包含样本中心距离损失LSCD和样本中心三元组损失LSCT。其中,样本中心距离损失通过直接约束样本特征到同类中心特征之间的距离,能够有效地拉近不同模态同类行人特征的距离,从而极大地了缓解跨模态特征的显著差异,同时保证了同类行人特征的高度一致性;其次,样本中心三元组损失通过促使样本特征到同类中心特征的距离尽可能小于到其最近的异类中心特征的距离,保证了异类行人特征的区分性。
4、本发明结合身份分类损失LID监督网络训练,充分利用了全局的行人身份信息,保证了行人特征在全局范围内而不仅仅是在各个批次内的身份判别性。
附图说明
图1为基于样本中心损失函数的跨模态行人重识别方法的流程图。
图2为本发明实施例中跨模态行人重识别网络的示意图。
具体实施方式
为了使本发明的技术目的、技术细节和技术优势更加清晰,下面将结合实施例及其附图对本发明做进一步的描述,但本发明的实施方式不限于下述实施例。
图1所示为一种基于样本中心损失函数的跨模态行人重识别方法的流程图,下面依照流程图步骤说明本发明的具体实现流程。
步骤S1,对跨模态行人重识别的训练数据集进行数据增强;
本实施例中,对RegDB数据集的训练数据集进行数据增强。具体为:调整每一张行人图像的大小为288×144像素;将图像上下左右各进行10像素的填充;对填充的图像进行288×144像素的随机裁剪;对图像进行随机水平翻转。
步骤S2,对训练数据集进行批采样,构建多个批次的训练数据;
本实施例中,对RegDB数据集的训练数据集进行训练批次采样。具体为:从训练数据集的行人中随机采样8个人,然后对每个人随机采样4张可见光图像和4张红外图像,生成训练批次的批量大小为N=2*8*4=64。
步骤S3,构建具有模态特异结构的深度特征提取模型;
本实施例中,构建具有模态特异结构的深度特征提取模型的方法为:使用经过预训练的深度模型ResNet-50作为基础结构,该模型主要包含5个卷积块(conv1~conv5);为构建模态特异结构来适应不同模态行人图像的显著差异,设置双路的不共享权重的conv1卷积块。双路conv1分别接收不同模态的图像数据,处理不同模态的信息;此外,取消conv5卷积块中的下采样层,以获得更细粒度的特征张量。构建得到的深度特征提取模型如图2虚线框内所示。
步骤S4,在所述深度特征提取模型后设置全局平均池化层,输出得到第一阶段特征;
步骤S5,设置样本中心损失函数,对第一阶段特征计算样本中心损失;
本实施例中,对第一阶段特征计算样本中心损失包含以下步骤:
步骤S51,为当前批次的训练样本中的每个行人类别y计算中心特征cy,其计算公式如下:
其中,2K=8是当前批次中第y类行人的可见光和红外图像样本的总量,vj和tj分别表示第y类行人的第j张可见光图像样本和第j张红外图像样本的第一阶段特征。本实施例中,每批次包含8个行人类别,相应可得到8个中心特征。因此,批次中任意样本特征将对应1个类别相同的同类中心特征和7个类别不同的异类中心特征,用于样本中心损失的计算。
步骤S52,基于中心特征计算样本中心距离损失,其表达式如下:
其中,N为批量大小64;xi为当前批次中第i个样本的第一阶段特征,其行人类别为yi;为第yi类行人的中心特征,即当前xi的同类中心特征。D(·)采用欧式距离函数,用于度量样本特征xi到其同类中心特征之间的距离。由此可见,样本中心距离损失LSCD的目的是,促使行人类别为yi所有的样本特征xi尽可能地靠近其同类中心特征在此过程中,不同模态的同类行人特征之间的距离不断减小,从而极大地缓解了跨模态特征的显著差异,同时保证了同类行人特征的高度一致性。
步骤S53,基于中心特征计算样本中心三元组损失,其表达式如下:
其中,N为批量大小64,xi为当前批次中第i个样本的第一阶段特征,其行人类别为yi;为第yi类行人的中心特征,即当前xi的同类中心特征;为第yk(yi≠yk)类行人的中心特征,即当前xi的异类中心特征;D(·)采用欧式距离函数,用于度量样本特征xi到其同类中心特征和异类中心特征之间的距离。为了简化计算并保证网络正常收敛,LSCT中采用了难样本挖掘机制,使用距离样本特征xi最近的异类中心特征参与三元组距离度量。此外,本发明采用平滑的log(1+exp(·))函数形成软边界三元组损失。由此可见,样本中心三元组损失LSCT的目的是,促使样本特征到同类中心特征的距离尽可能小于到其最近的异类中心特征的距离,从而保证了异类行人特征的区分性。
步骤S6,在所述全局平均池化层后设置批归一化层,对第一阶段特征进行归一化操作,得到第二阶段特征;
步骤S7,在所述批归一化层后设置全连接层作为行人身份分类器,对第二阶段特征进行身份分类。并使用交叉熵损失作为身份分类的损失函数,为分类结果计算身份分类损失;
本实施例中,身份分类损失函数的表达式如下:
其中yi为当前批次中第i张图像样本的真实类别标签,p(yi)为对当前批次中第i张图像的第二阶段特征进行身份分类的概率结果。
步骤S8,结合所述样本中心损失函数和身份分类损失函数构建整体损失函数,对所述深度特征提取模型、全局平均池化层、批归一化层和全连接层组成的跨模态行人重识别网络进行优化训练;
本实施例中,整体损失函数的表达式如下:
L=λ1LID+λ2LSCD+λ3LSCT
其中,整体损失函数的权重参数λ1、λ2和λ3分别设置为1、1和5时,训练得到的跨模态行人重识别网络在RegDB测试数据集上具有较优检索性能。
本实施例中,跨模态行人重识别网络的整体结构示意图如图2所示。
步骤S9,使用训练好的跨模态行人重识别网络,对可见光(红外)目标行人图像和图像库中的红外(可见光)行人图像进行特征提取,对提取的特征进行距离度量与排序,得到跨模态的匹配行人图像。
本实施例中,使用RegDB测试数据集对所提出的跨模态行人重识别网络进行测试。首先,在标准测试模式下,使用训练好的跨模态行人重识别网络对可见光目标行人图像和图像库中的红外行人图像进行特征提取,得到维度为2048的第一阶段特征。然后,根据第一阶段特征,计算目标行人图像和图像库行人图像之间的欧氏距离。最后,距离目标行人图像最近的前k张图像库行人图像即为该目标行人图像的rank-k识别结果。
本实施例在RegDB测试数据集上的识别率达到88.02%(rank-1),85.50%(mAP)和80.69%(mINP),实现了跨模态行人重识别任务上的先进识别性能。由此可见,本发明所提出的样本中心损失函数,通过直接约束跨模态行人特征之间的差异,提高同类行人特征的一致性与异类行人特征的区分性,有效地提升了跨模态行人重识别的性能。
上述实施例仅为本发明的较佳实施方式,不对本发明的具体实施方法构成限制。因此,在不背离本发明的精神实质与原理的情况下所作的任何修改、替换、组合、简化等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于样本中心损失函数的跨模态行人重识别方法,其特征在于,具体步骤包括:
步骤S1,对跨模态行人重识别的训练数据集进行数据增强;
步骤S2,对训练数据集进行批采样,构建多个批次的训练数据;
步骤S3,构建具有模态特异结构的深度特征提取模型;
步骤S4,在所述深度特征提取模型后设置全局平均池化层,输出得到第一阶段特征;
步骤S5,设置样本中心损失函数,对第一阶段特征计算样本中心损失;
步骤S6,在所述全局平均池化层后设置批归一化层,对第一阶段特征进行归一化操作,得到第二阶段特征;
步骤S7,在所述批归一化层后设置全连接层作为行人身份分类器,对第二阶段特征进行身份分类。并使用交叉熵损失作为身份分类的损失函数,为分类结果计算身份分类损失;
步骤S8,结合所述样本中心损失函数和身份分类损失函数构建整体损失函数,对所述深度特征提取模型、全局平均池化层、批归一化层和全连接层组成的跨模态行人重识别网络进行优化训练;
步骤S9,使用训练好的跨模态行人重识别网络,对可见光(红外)目标行人图像和图像库中的红外(可见光)行人图像进行特征提取,对提取的特征进行距离度量与排序,得到跨模态的匹配行人图像。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2中对训练数据集进行批采样的方法为:
从训练数据集的行人中随机采样P个人,然后对每个人随机采样K张可见光图像和K张红外图像,生成训练批次的批量大小为N=2*P*K。
3.根据权利要求1所述的方法,其特征在于,所述步骤S3中,构建具有模态特异结构的深度特征提取模型的方法为:
使用深度模型ResNet-50作为基础结构。该模型主要包含5个卷积块,为构建模态特异结构,将前n(n∈[1,5])个卷积块设置为双路的,分别接收可见光和红外模态的图像样本。
4.根据权利要求1所述的方法,其特征在于,所述步骤S5中对第一阶段特征计算样本中心损失,具体包含以下三个步骤:
步骤S51,为当前批次训练样本中的每个行人类别y计算中心特征cy;
步骤S52,基于中心特征计算样本中心距离损失LSCD;
步骤S53,基于中心特征计算样本中心三元组损失LSCT。
9.根据权利要求1所述的方法,其特征在于,所述步骤S8中整体损失函数的表达式为:
L=λ1LID+λ2LSCD+λ3LSCT
其中,λ1、λ2和λ3为可调节的权重参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110709230.5A CN113569639B (zh) | 2021-06-25 | 2021-06-25 | 一种基于样本中心损失函数的跨模态行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110709230.5A CN113569639B (zh) | 2021-06-25 | 2021-06-25 | 一种基于样本中心损失函数的跨模态行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113569639A true CN113569639A (zh) | 2021-10-29 |
CN113569639B CN113569639B (zh) | 2023-07-25 |
Family
ID=78162692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110709230.5A Active CN113569639B (zh) | 2021-06-25 | 2021-06-25 | 一种基于样本中心损失函数的跨模态行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113569639B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114495281A (zh) * | 2022-02-10 | 2022-05-13 | 南京邮电大学 | 一种基于整体和部分约束的跨模态行人重识别方法 |
CN117542084A (zh) * | 2023-12-06 | 2024-02-09 | 湖南大学 | 一种语义感知的跨模态行人重识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112115805A (zh) * | 2020-08-27 | 2020-12-22 | 山东师范大学 | 带双模态难挖掘三元-中心损失的行人重识别方法及系统 |
US20210133479A1 (en) * | 2019-11-05 | 2021-05-06 | Beijing University Of Posts And Telecommunications | Fine-grained image recognition method, electronic device and storage medium |
CN112926451A (zh) * | 2021-02-25 | 2021-06-08 | 厦门大学 | 基于自模仿互蒸馏的跨模态行人重识别方法 |
-
2021
- 2021-06-25 CN CN202110709230.5A patent/CN113569639B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210133479A1 (en) * | 2019-11-05 | 2021-05-06 | Beijing University Of Posts And Telecommunications | Fine-grained image recognition method, electronic device and storage medium |
CN112115805A (zh) * | 2020-08-27 | 2020-12-22 | 山东师范大学 | 带双模态难挖掘三元-中心损失的行人重识别方法及系统 |
CN112926451A (zh) * | 2021-02-25 | 2021-06-08 | 厦门大学 | 基于自模仿互蒸馏的跨模态行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
李灏;唐敏;林建武;赵云波;: "基于改进困难三元组损失的跨模态行人重识别框架", 计算机科学, no. 10 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114495281A (zh) * | 2022-02-10 | 2022-05-13 | 南京邮电大学 | 一种基于整体和部分约束的跨模态行人重识别方法 |
CN117542084A (zh) * | 2023-12-06 | 2024-02-09 | 湖南大学 | 一种语义感知的跨模态行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113569639B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934176B (zh) | 行人识别系统、识别方法及计算机可读存储介质 | |
WO2021043168A1 (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN110675328B (zh) | 基于条件生成对抗网络的低照度图像增强方法及装置 | |
WO2021143101A1 (zh) | 人脸识别方法和人脸识别装置 | |
WO2019227479A1 (zh) | 人脸旋转图像的生成方法及装置 | |
WO2021013095A1 (zh) | 图像分类方法、图像分类模型的训练方法及其装置 | |
CN113569639A (zh) | 一种基于样本中心损失函数的跨模态行人重识别方法 | |
KR20160136391A (ko) | 정보처리장치 및 정보처리방법 | |
CN114241517B (zh) | 基于图像生成和共享学习网络的跨模态行人重识别方法 | |
CN113283444B (zh) | 一种基于生成对抗网络的异源图像迁移方法 | |
CN115423734B (zh) | 一种基于多尺度注意机制的红外与可见光图像融合方法 | |
CN113516005B (zh) | 一种基于深度学习和姿态估计的舞蹈动作评价系统 | |
CN112084952B (zh) | 一种基于自监督训练的视频点位跟踪方法 | |
CN114360067A (zh) | 一种基于深度学习的动态手势识别方法 | |
CN116681742A (zh) | 基于图神经网络的可见光与红外热成像图像配准方法 | |
CN114882537B (zh) | 一种基于神经辐射场的手指新视角图像生成方法 | |
Xing et al. | Multi-level adaptive perception guidance based infrared and visible image fusion | |
Fu et al. | Human fall detection based on posture estimation and infrared thermography | |
Zhou et al. | Multitask deep neural network with knowledge-guided attention for blind image quality assessment | |
CN113762166A (zh) | 一种基于可穿戴式装备的小目标检测改善方法及系统 | |
CN115690669A (zh) | 一种基于特征分离与因果比较损失的跨模态重识别方法 | |
WO2021189321A1 (zh) | 一种图像处理方法和装置 | |
Yue et al. | Improved Ada Boost classifier for sports scene detection in videos: From data extraction to image understanding | |
CN113792673A (zh) | 一种基于注意力机制的场景分类方法及装置 | |
Geng et al. | A rapid, low-cost wheat spike grain segmentation and counting system based on deep learning and image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |