CN113269139B - 一种针对复杂场景的自学习大规模警员图像分类模型 - Google Patents
一种针对复杂场景的自学习大规模警员图像分类模型 Download PDFInfo
- Publication number
- CN113269139B CN113269139B CN202110677796.4A CN202110677796A CN113269139B CN 113269139 B CN113269139 B CN 113269139B CN 202110677796 A CN202110677796 A CN 202110677796A CN 113269139 B CN113269139 B CN 113269139B
- Authority
- CN
- China
- Prior art keywords
- image
- police
- model
- image classification
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种针对复杂场景的自学习大规模警员图像分类模型,通过优化警员图像数据集构建和模型训练过程,对大规模警员图像数据集进行筛选,结合图像主体区域检测模型减少数据中的噪声,增强了对复杂场景的识别,同时利用迁移学习方法降低了模型训练的难度,迭代训练了一个警员图像分类模型,进一步将模型运用在原始大规模警员图片数据集中,实现了警员图像分类模型自学习过程。相对于传统的直接在原始数据集上进行训练的图像分类模型,本方法解决了训练大规模警员图像分类模型缺少标注数据的问题,并针对警员图像数据场景复杂的特征进行了数据筛选与语义增强,从而能够更准确的实现对警员图像的分类与识别。
Description
技术领域
本发明涉及一种针对复杂场景的自学习大规模警员图像分类模型,属于计算机视觉技术领域。
背景技术
警员分类技术广泛应用于各类监狱视频监控场景中,合理的对警员进行分类处理不仅能快速识别视频目标,也能节省人力物力,产生巨大的经济效益,但各式各样的场景与需求使得人们合理的进行分类变得十分困难。因此,如何通过自动化的方法快速的对警员进行分析,识别其所属类别,成为了一个迫切的需求,警员图像分类技术是其中一个可行有效的解决方案。
传统的警员图像分类技术通过建立图像分类模型,在大量的标注数据上进行训练,得到警员图像分类模型,然而算法需要大量的人工标注数据,在人力、财力和时间方面消耗较大,并且主观的标注和警员图像中的噪声也会对模型的分类效果产生巨大影响。同时传统方法也不具备自动学习更新能力,一旦变更分类标准或者产生新的种类警员,模型都需要重新进行训练。本发明提出了一种针对复杂场景的自学习大规模警员图像分类模型,通过构建迭代训练机制以及采用主体区域检测消除警员图像数据噪声的方法,有效的解决了警员图像数据标注、噪声影响以及模型更新的问题。
发明内容
为解决上述技术问题,本发明提供了一种针对复杂场景的自学习大规模警员图像分类模型,该针对复杂场景的自学习大规模警员图像分类模型通过优化警员图像数据集构建和模型训练过程,对大规模警员图像数据集进行筛选,结合图像主体区域检测模型减少数据中的噪声,增强了对复杂场景的识别,同时利用迁移学习方法降低了模型训练的难度,迭代训练了一个警员图像分类模型,进一步将模型运用在原始大规模警员图片数据集中,实现了警员图像分类模型自学习过程。
本发明通过以下技术方案得以实现。
本发明提供的一种针对复杂场景的自学习大规模警员图像分类模型,其特征在于:首先利用权威分类指标体系对原始警员图片数据集的数据进行人工筛选,获取标注数据集;其次,通过主体区域检测注意力模型去除图片中的噪声数据,生成精确数据集;然后利用迁移学习图像分类模型,结合基于DenseNet的图像分类算法,在精确数据集上进行训练,获取警员图像分类算法模型;最后将警员图像分类算法模型运用到原始警员图片数据集中进行自动分类,并不断迭代上述流程,获取自学习警员图像分类算法模型。
本发明包括以下步骤:
①人工筛选数据集:从原始警员图片数据集中,利用权威分类指标体系,人工筛选数据,获取标注数据集;
②主体区域检测:对标注数据集采用主体区域检测注意力模型进行主体区域检测,获取警员图片中的主体内容,再去除图片中的噪声,获取图像分类数据集;
③基于DenseNet的警员图像分类算法:利用迁移学习图像分类模型,在原始警员图片数据集上进行预训练得到图像分类模型;结合DenseNet图像分类算法和图像分类模型,在图像分类数据集上进行再训练,获取警员图像分类算法模型;
④自学习警员图像分类算法模型:利用步骤③中的警员图像分类算法模型,对原始警员图片数据集中的数据进行自动分类,获取预警员图像分类算法模型,再运用步骤②中获取的图像分类数据集,进一步训练预警员图像分类算法模型,然后不断进行迭代训练,直至原始警员图片数据集中的所有数据训练完成,得到自学习警员图像分类算法模型。
所述步骤①中,权威分类指标体系是指国家发布的警员分类体系所定义的分类标准,通过人工对每类警员筛选50张警员图像,形成标注数据集。
所述步骤②中,主体区域检测采用VGG net模型提取图像特征,并采用特征金字塔注意力模型进行图像语义分割,识别图像中的主体区域,提取主体区域形成精确警员图像,去除原始图像中的噪声。
所述步骤③中,利用densenet121模型在原始警员图片数据集上预训练得到的图像分类模型,提取其网络特征作为DenseNet图像分类算法模型的输入。
所述步骤④中,每次自学习训练过程只采用原始警员图片数据集中的部分数据,第一次训练过后,每次在之前得到的警员图像分类算法模型上再进行训练,不断迭代。
所述步骤①分为以下步骤:
(1.1)确定采用的分类指标体系标准;
(1.2)根据分类标准人工筛选警员图片,并分为两组同时进行交叉验证。
所述步骤②分为以下步骤:
(2.1)将输入的警员图像缩放为(256,256,3)的尺寸大小,并进行图像预处理,然后输入到用于主体区域检测的特征金字塔注意力模型中;
(2.2)特征金字塔注意力模型首先通过预训练的VGG net网络模型进行特征提取,获取输入图像的低层特征与高层特征;
(2.3)对(2.2)中获取到的低层特征与高层特征,通过上下文感知的特征金字塔提取模块以及注意力机制进行特征融合,获得完整的上下文特征;
(2.4)将融合特征进行单通道卷积,并在最后使用任意一种边缘损失函数来指导模型在主体区域提取中学习完整的信息,对图像中的警员主体区域进行分割输出,获取图像分类数据集。
所述步骤③分为以下步骤:
(3.1)在原始警员图片数据集上利用DenseNet121模型进行预训练,得到图像分类模型;
(3.2)提取预训练模型的参数网络作为基于DenseNet的警员图像分类算法的模型参数,并将警员图像缩放为(224,224,3)的尺寸大小输入到DenseNet121模型中;
(3.3)DenseNet模型的网络采用密集连接方式,对输入图像进行逐层特征提取,并通过特征并联来实现短路连接,利用特征重用、图像的高层特征与底层特征,进行不断迭代训练以及相应的模型推理,获取警员图像分类算法模型。
所述步骤④分为以下步骤:
(4.1)采用步骤③中得到的警员图像分类算法模型对原始警员图片数据集中的数据进行分类;
(4.2)对分类后的警员图片数据进行主体区域检测,并提取出主体区域图像,形成图像分类数据集;
(4.3)在步骤③得到的警员图像分类算法模型基础上,应用图像分类数据集进行再次训练,获取新一轮迭代训练的警员图像分类算法模型;
(4.4)循环进行步骤(4.1)~(4.3)中的操作,直到原始警员图片数据集训练完成,获取自学习警员图像分类算法模型。
本发明的有益效果在于:通过优化警员图像数据集构建和模型训练过程,对大规模警员图像数据集进行筛选,结合图像主体区域检测模型减少数据中的噪声,增强了对复杂场景的识别,同时利用迁移学习方法降低了模型训练的难度,迭代训练了一个警员图像分类模型,进一步将模型运用在原始大规模警员图片数据集中,实现了警员图像分类模型自学习过程。相对于传统的直接在原始数据集上进行训练的图像分类模型,本方法解决了训练大规模警员图像分类模型缺少标注数据的问题,并针对警员图像数据场景复杂的特征进行了数据筛选与语义增强,从而能够更准确的实现对警员图像的分类与识别。
附图说明
图1是本发明的流程图;
图2是本发明实施例用于主体区域检测的特征金字塔注意力模型;
图3是本发明实施例DenseNet121具体网络结构图。
具体实施方式
下面进一步描述本发明的技术方案,但要求保护的范围并不局限于所述。
实施例1
如图1所示,一种针对复杂场景的自学习大规模警员图像分类模型,首先对原始大规模警员图片数据集的部分数据利用权威分类指标体系进行人工筛选,得到小量标注数据集,通过主体区域检测注意力模型去除图片中的噪声数据,生成精确小量数据集,然后利用迁移学习图像分类模型,结合基于DenseNet的图像分类算法,在精确小量数据集上进行训练,得到警员图像分类算法模型,最后将模型运用到原始大规模警员图片数据集中进行自动分类,并不断迭代上述流程,获取大规模警员图像分类算法模型。
本发明具体包括以下步骤:
①人工筛选小量数据集:从原始大规模警员图片数据集中,利用权威分类指标体系,人工筛选部分数据,得到标注数据集;
②主体区域检测:对标注数据集采用主体区域检测注意力模型进行主体区域检测,获取警员图片中的主体内容,去除图片中的噪声,生成精确警员图片数据集;
③基于DenseNet的警员图像分类算法:利用迁移学习思想,在大规模图像分类数据集上进行预训练得到图像分类模型,结合DenseNet图像分类算法进行再训练,可降低模型训练的资源消耗及难度,提升分类模型精度;
④警员图像分类算法模型:将精确警员图片数据集在图像分类模型上进行训练,得到警员图像分类算法模型;
⑤自学习大规模警员图像分类算法模型:利用步骤④中得到的警员图像分类算法模型,对原始警员图片数据集中的数据进行自动分类,再运用步骤②中的主体区域检测,得到精确小量数据集,进一步训练步骤④中的模型,得到更精确的警员图像分类算法模型,然后不断进行迭代训练,直至原始警员图片数据集中所有数据训练完成,得到大规模警员图像分类算法模型;
所述步骤①中,权威分类指标体系是指国家发布的警员分类体系所定义的分类标准,通过人工对每类警员筛选50张警员图像,形成小量数据集。
所述步骤②中,主体区域检测采用VGG net模型提取图像特征,并采用特征金字塔注意力模型进行图像语义分割,识别图像中的主体区域,并提取主体区域形成精确警员图像,去除原始图像中的噪声,如图2所示。
所述步骤③中,利用densenet121模型在ImageNet大规模图像数据集上预训练得到的分类模型,提取其网络特征作为DenseNet图像分类算法模型的输入,如图3所示。
所述步骤⑤中,每次自学习训练过程只采用原始大规模警员图片数据集中的部分数据,第一次训练过后,每次在之前得到的模型上再进行训练,不断迭代。
所述步骤①分为以下步骤:
(1.1)确定采用的分类指标体系标准;
(1.2)根据分类标准人工筛选警员图片,并分为两组同时进行,交叉验证,减少人为分类的主观因素影响。
所述步骤②分为以下步骤:
(2.1)将输入的警员图像缩放为(256,256,3)的尺寸大小,并进行图像预处理,然后输入到用于主体区域检测的特征金字塔注意力模型中;
(2.2)该模型首先通过预训练的VGG net网络模型进行特征提取,从而获取输入图像的低层特征与高层特征;
(2.3)对(2.2)中获取到的低层特征与高层特征,通过上下文感知的特征金字塔提取模块以及注意力机制进行特征融合,获得丰富的上下文特征;
(2.4)将融合特征进行单通道卷积,并在最后使用任意一种边缘损失函数来指导模型在主体区域提取中学习更详细的信息,对图像中的警员主体区域进行分割输出。
所述步骤③分为以下步骤:
(3.1)在ImageNet大规模图像数据集上利用DenseNet121模型进行预训练,得到图像分类模型;
(3.2)提取预训练模型的参数网络作为基于DenseNet的警员图像分类算法的模型参数,并将警员图像缩放为(224,224,3)的尺寸大小输入到DenseNet121模型中;
(3.3)DenseNet模型的网络采用密集连接方式,对输入图像进行逐层特征提取,并通过特征并联来实现短路连接,实现了特征重用,结合了图像的高层特征与底层特征,进行不断的迭代训练以及相应的模型推理。
所述步骤⑤分为以下步骤:
(5.1)采用步骤④中得到的警员图像分类模型对原始大规模警员图片数据集中的部分数据进行分类;
(5.2)对分类后的警员图片数据进行主体区域检测,并提取出主体区域图像,形成精确小量数据集;
(5.3)在步骤④得到的模型基础上,应用精确小量数据集进行再次训练,得到新一轮迭代训练的警员图像分类模型;
(5.4)循环进行步骤(5.1)~(5.3)中的操作,直到原始大规模警员图片数据集训练完成;
(5.5)得到自学习大规模警员图像分类算法模型。
进一步的,本发明首先对原始警员图片数据集利用权威分类指标体系进行人工筛选分类,并进行主体区域检测提取去除噪声数据,再利用迁移学习模型,结合基于DenseNet的图像分类算法训练得到警员图像分类模型,最后将模型运用到原始大规模警员图片数据集中进行自动分类,并不断迭代上述流程,获取大规模警员图像分类算法模型。
具体的,本发明针对基于深度学习的警员图像分类方法需要大量人工标注数据而造成的人力、财力和时间消耗问题以及噪声数据对分类精度的影响问题,通过迭代训练自学习机制进行大规模警员图像分类模型训练,辅以主体区域检测去除数据噪声的方法,得到一种针对复杂场景的自学习大规模警员图像分类模型。
综上所述,本发明通过训练一种针对复杂场景的自学习大规模警员图像分类模型,能实现自动对警员图像进行识别分类,同时能避免复杂场景的噪声影响分类精度的问题;在实际应用中,可以快速的识别警员图像中的内容,并进行精确分类,达到在监狱视频监控场景中对警员进行分类处理的目的,有效解决了基于深度学习的警员图像分类模型缺少标注数据训练的问题,同时又避免了复杂场景的噪声造成的模型识别不准确、精度低的问题。
Claims (2)
1.一种针对复杂场景的自学习大规模警员图像分类模型,其特征在于:首先利用权威分类指标体系对原始警员图像数据集的数据进行人工筛选,获取标注数据集;其次,通过主体区域检测注意力模型去除图像中的噪声数据,生成图像分类数据集;然后利用迁移学习图像分类模型,结合基于DenseNet的图像分类算法,在图像分类数据集上进行训练,获取警员图像分类算法模型;最后将警员图像分类算法模型运用到原始警员图像数据集中进行自动分类,并不断迭代上述流程,获取自学习大规模警员图像分类模型;
包括以下步骤:
①人工筛选数据集:从原始警员图像数据集中,利用权威分类指标体系,人工筛选数据,获取标注数据集;
②主体区域检测:对标注数据集采用主体区域检测注意力模型进行主体区域检测,获取警员图像中的主体内容,再去除图像中的噪声,获取图像分类数据集;
③基于DenseNet的警员图像分类算法:利用迁移学习图像分类模型,在原始警员图像数据集上进行预训练得到图像分类模型;结合DenseNet图像分类算法和图像分类模型,在图像分类数据集上进行再训练,获取警员图像分类算法模型;
④自学习大规模警员图像分类模型:利用步骤③中的警员图像分类算法模型,对原始警员图像数据集中的数据进行自动分类,获取预警员图像分类算法模型,再运用获取的图像分类数据集,进一步训练预警员图像分类算法模型,然后不断进行迭代训练,直至原始警员图像数据集中的所有数据训练完成,得到自学习大规模警员图像分类模型;
所述步骤④中,每次自学习训练过程只采用原始警员图像数据集中的部分数据,第一次训练过后,每次在之前得到的警员图像分类算法模型上再进行训练,不断迭代;
所述步骤②分为以下步骤:
(2.1)将输入的警员图像缩放为(256,256,3)的尺寸大小,并进行图像预处理;
(2.2)将图像预处理后的警员图像输入预训练的VGG net网络模型进行特征提取,获取输入图像的低层特征与高层特征;
(2.3)对(2.2)中获取到的低层特征与高层特征,通过上下文感知的特征金字塔提取模块以及注意力机制进行特征融合,获得完整的上下文特征,上下文特征为融合特征;
(2.4)将融合特征进行单通道卷积,并在最后使用任意一种边缘损失函数来指导模型在主体区域提取中学习完整的信息,对图像中的警员主体区域进行分割输出,获取图像分类数据集;
所述步骤③分为以下步骤:
(3.1)在原始警员图像数据集上利用DenseNet121模型进行预训练,得到图像分类模型;
(3.2)提取图像分类模型的网络参数作为基于DenseNet的警员图像分类算法的模型参数,并将警员图像缩放为(224,224,3)的尺寸大小输入到DenseNet的警员图像分类算法的DenseNet模型中;
(3.3)DenseNet模型的网络采用密集连接方式,对输入图像进行逐层特征提取,并通过特征并联来实现短路连接,利用特征重用、图像的高层特征与底层特征,进行不断迭代训练以及相应的模型推理,获取警员图像分类算法模型;
所述步骤④分为以下步骤:
(4.1)采用步骤③中得到的警员图像分类算法模型对原始警员图像数据集中的数据进行分类;
(4.2)对分类后的警员图像数据进行主体区域检测,并提取出主体区域图像,形成图像分类数据集;
(4.3)在步骤③得到的警员图像分类算法模型基础上,应用步骤(4.2)中的图像分类数据集进行再次训练,获取新一轮迭代训练的警员图像分类算法模型;
(4.4)循环进行步骤(4.1)~(4.3)中的操作,直到原始警员图像数据集训练完成,获取自学习大规模警员图像分类模型。
2.如权利要求1所述的针对复杂场景的自学习大规模警员图像分类模型,其特征在于:所述步骤②中,主体区域检测采用VGG net模型提取图像特征,并采用特征金字塔注意力模型进行图像语义分割,识别图像中的主体区域,提取主体区域形成精确警员图像,去除原始图像中的噪声。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110677796.4A CN113269139B (zh) | 2021-06-18 | 2021-06-18 | 一种针对复杂场景的自学习大规模警员图像分类模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110677796.4A CN113269139B (zh) | 2021-06-18 | 2021-06-18 | 一种针对复杂场景的自学习大规模警员图像分类模型 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113269139A CN113269139A (zh) | 2021-08-17 |
CN113269139B true CN113269139B (zh) | 2023-09-26 |
Family
ID=77235312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110677796.4A Active CN113269139B (zh) | 2021-06-18 | 2021-06-18 | 一种针对复杂场景的自学习大规模警员图像分类模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113269139B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358257A (zh) * | 2017-07-07 | 2017-11-17 | 华南理工大学 | 一种大数据场景下可增量学习的图像分类训练方法 |
CN108764372A (zh) * | 2018-06-08 | 2018-11-06 | Oppo广东移动通信有限公司 | 数据集的构建方法和装置、移动终端、可读存储介质 |
CN109190712A (zh) * | 2018-09-21 | 2019-01-11 | 福州大学 | 一种基于深度学习的航拍巡线影像自动分类系统 |
JP2019028839A (ja) * | 2017-08-01 | 2019-02-21 | 国立研究開発法人情報通信研究機構 | 分類器、分類器の学習方法、分類器における分類方法 |
CN110472530A (zh) * | 2019-07-29 | 2019-11-19 | 中山大学 | 基于小波变换和迁移学习的视网膜oct图像分类方法 |
CN111325726A (zh) * | 2020-02-19 | 2020-06-23 | 腾讯医疗健康(深圳)有限公司 | 模型训练方法、图像处理方法、装置、设备及存储介质 |
CN111862140A (zh) * | 2020-06-11 | 2020-10-30 | 中山大学 | 一种基于协同模块级搜索的全景分割网络及方法 |
CN112232349A (zh) * | 2020-09-23 | 2021-01-15 | 成都佳华物链云科技有限公司 | 模型训练方法、图像分割方法及装置 |
CN112308129A (zh) * | 2020-10-28 | 2021-02-02 | 中国科学院宁波材料技术与工程研究所 | 一种基于深度学习的植物线虫数据自动标注和分类识别方法 |
CN112651973A (zh) * | 2020-12-14 | 2021-04-13 | 南京理工大学 | 基于特征金字塔注意力和混合注意力级联的语义分割方法 |
CN112837330A (zh) * | 2021-03-02 | 2021-05-25 | 中国农业大学 | 基于多尺度双注意力机制和全卷积神经网络的叶分割方法 |
CN112861994A (zh) * | 2021-03-12 | 2021-05-28 | 中国科学院自动化研究所 | 基于Unet迁移学习的胃印戒细胞癌图像智能分类系统 |
CN112926688A (zh) * | 2021-03-30 | 2021-06-08 | 太原理工大学 | 一种基于DenseNet进行激光芯片缺陷分类的方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9785866B2 (en) * | 2015-01-22 | 2017-10-10 | Microsoft Technology Licensing, Llc | Optimizing multi-class multimedia data classification using negative data |
US20190228268A1 (en) * | 2016-09-14 | 2019-07-25 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for cell image segmentation using multi-stage convolutional neural networks |
WO2021079436A1 (ja) * | 2019-10-23 | 2021-04-29 | 富士通株式会社 | 検出方法、検出プログラム及び情報処理装置 |
-
2021
- 2021-06-18 CN CN202110677796.4A patent/CN113269139B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358257A (zh) * | 2017-07-07 | 2017-11-17 | 华南理工大学 | 一种大数据场景下可增量学习的图像分类训练方法 |
JP2019028839A (ja) * | 2017-08-01 | 2019-02-21 | 国立研究開発法人情報通信研究機構 | 分類器、分類器の学習方法、分類器における分類方法 |
CN108764372A (zh) * | 2018-06-08 | 2018-11-06 | Oppo广东移动通信有限公司 | 数据集的构建方法和装置、移动终端、可读存储介质 |
CN109190712A (zh) * | 2018-09-21 | 2019-01-11 | 福州大学 | 一种基于深度学习的航拍巡线影像自动分类系统 |
CN110472530A (zh) * | 2019-07-29 | 2019-11-19 | 中山大学 | 基于小波变换和迁移学习的视网膜oct图像分类方法 |
CN111325726A (zh) * | 2020-02-19 | 2020-06-23 | 腾讯医疗健康(深圳)有限公司 | 模型训练方法、图像处理方法、装置、设备及存储介质 |
CN111862140A (zh) * | 2020-06-11 | 2020-10-30 | 中山大学 | 一种基于协同模块级搜索的全景分割网络及方法 |
CN112232349A (zh) * | 2020-09-23 | 2021-01-15 | 成都佳华物链云科技有限公司 | 模型训练方法、图像分割方法及装置 |
CN112308129A (zh) * | 2020-10-28 | 2021-02-02 | 中国科学院宁波材料技术与工程研究所 | 一种基于深度学习的植物线虫数据自动标注和分类识别方法 |
CN112651973A (zh) * | 2020-12-14 | 2021-04-13 | 南京理工大学 | 基于特征金字塔注意力和混合注意力级联的语义分割方法 |
CN112837330A (zh) * | 2021-03-02 | 2021-05-25 | 中国农业大学 | 基于多尺度双注意力机制和全卷积神经网络的叶分割方法 |
CN112861994A (zh) * | 2021-03-12 | 2021-05-28 | 中国科学院自动化研究所 | 基于Unet迁移学习的胃印戒细胞癌图像智能分类系统 |
CN112926688A (zh) * | 2021-03-30 | 2021-06-08 | 太原理工大学 | 一种基于DenseNet进行激光芯片缺陷分类的方法 |
Non-Patent Citations (3)
Title |
---|
fully convolutional networks for semantic segmentation;Long Jonathan 等;《Arxiv.org》;第1-10页 * |
基于注意力金字塔网络的航空影像建筑物变化检测;田青林 等;《光学学报》;第47-56页 * |
基于迁移学习的暴恐图像自动识别;陈猛夫;;北京航空航天大学学报(第09期);第56-60页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113269139A (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229338B (zh) | 一种基于深度卷积特征的视频行为识别方法 | |
CN109190752B (zh) | 基于深度学习的全局特征和局部特征的图像语义分割方法 | |
CN104050471B (zh) | 一种自然场景文字检测方法及系统 | |
Dehghan et al. | View independent vehicle make, model and color recognition using convolutional neural network | |
CN108520212A (zh) | 基于改进的卷积神经网络的交通标志检测方法 | |
CN112990282B (zh) | 一种细粒度小样本图像的分类方法及装置 | |
CN112528058B (zh) | 基于图像属性主动学习的细粒度图像分类方法 | |
CN112613428B (zh) | 基于平衡损失的Resnet-3D卷积牛视频目标检测方法 | |
CN110991439A (zh) | 一种基于像素级多特征联合分类的手写体字符的提取方法 | |
CN114998815A (zh) | 一种基于视频分析的交通车辆识别追踪方法及系统 | |
Latha et al. | Image understanding: semantic segmentation of graphics and text using faster-RCNN | |
CN116597270A (zh) | 基于注意力机制集成学习网络的道路损毁目标检测方法 | |
Shanthakumari et al. | Mask RCNN and Tesseract OCR for vehicle plate character recognition | |
CN108764287B (zh) | 基于深度学习和分组卷积的目标检测方法及系统 | |
CN111612803B (zh) | 一种基于图像清晰度的车辆图像语义分割方法 | |
CN113269139B (zh) | 一种针对复杂场景的自学习大规模警员图像分类模型 | |
Li et al. | An improved PCB defect detector based on feature pyramid networks | |
CN115761453B (zh) | 基于特征匹配的轻量化单样本目标检测方法 | |
CN109829887B (zh) | 一种基于深度神经网络的图像质量评估方法 | |
CN116580232A (zh) | 一种图像自动标注方法、系统及电子设备 | |
CN110688880A (zh) | 一种基于精简ResNet残差网络的车牌识别方法 | |
CN114529894A (zh) | 一种融合空洞卷积的快速场景文本检测方法 | |
CN113723230A (zh) | 业务流程抽取领域过程性视频的过程模型抽取方法 | |
CN113409327A (zh) | 一种基于排序与语义一致性约束的实例分割改进方法 | |
Das et al. | Object Detection on Scene Images: A Novel Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |