CN111062307A - 一种基于Tiny-Darknet的场景识别分类方法 - Google Patents
一种基于Tiny-Darknet的场景识别分类方法 Download PDFInfo
- Publication number
- CN111062307A CN111062307A CN201911275640.2A CN201911275640A CN111062307A CN 111062307 A CN111062307 A CN 111062307A CN 201911275640 A CN201911275640 A CN 201911275640A CN 111062307 A CN111062307 A CN 111062307A
- Authority
- CN
- China
- Prior art keywords
- scene
- tiny
- classification
- training
- darknet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 54
- 238000012544 monitoring process Methods 0.000 claims abstract description 29
- 238000013145 classification model Methods 0.000 claims abstract description 22
- 230000008859 change Effects 0.000 claims abstract description 10
- 238000013135 deep learning Methods 0.000 claims abstract description 10
- 238000012806 monitoring device Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241001464837 Viridiplantae Species 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于Tiny‑Darknet的场景识别分类方法,包括以下步骤,构建分类模型的训练样本集;搭建基于Tiny‑darknet网络的的深度学习框架;配置训练参数,训练分类模型;获取设备监控图像信息;分类场景图像;判断场景变化;完成场景识别参数配置。该发明的有益效果是:通过场景识别自动切换参数配置,场景识别检测精准,普适性强,对于任何场景的监控设备均适用,保证了监控设备监控画面的质量,提高了设备的使用性能,满足实际需求。
Description
技术领域
本发明涉及视频检测技术领域,尤其是涉及一种基于Tiny-Darknet的场景识别分类方法。
背景技术
近年来,安防监控行业的发展迅速,从原先的模拟制式监控转变成数字网络高清监控,清晰度上得到很大的提升。但是不同的场景环境下,需要应用不同监控设备参数,场景状态发生改变,也需要重新配置设备参数;但是不了解设备参数的使用者往往得不到最优质的视频监控画面。
传统的视频监控设备参数配置都是技术人员在现场安装时,根据安装的场景选择。这种方法比较简单,在正常情况下也没有问题,但是一旦设备的监控环境因为外力原因发生改变,如室外环境下出现大雾天气、强光照射等,之前的配置已不再适用变化的场景,从监控效果方面来看,会产生效果漏洞。随着视频监控技术的发展和广泛应用,根据监控设备获取的视频画面进行场景识别,可以快速、高效、可靠、实时的对设备的参数配置进行自适应调整,保证获取最优的监控效果。常用的方法主要是根据传统的图像处理算法提取图像特征进行场景分类。这种方法一方面只能适用于静态场景,即在同一场景下监控画面每一帧图像之间无明显差别,这明显不适用流动性强的场景;另一方面,这种方法在应用于监控设备中,占用内存较大,无法满足实时性或者低端监控设备的要求。为了解决这两类问题,也有学者从优化图像特征提取算法的角度去提升效果,但是只是在特定的场景下效果明显,普适性不强。
发明内容
有鉴于此,本发明旨在提出一种基于Tiny-Darknet的场景识别分类方法,通过场景分类识别技术,预先为用户配置好各个场景下的设备参数,设备根据监控的场景切换使用相应的配置,大大提高设备的使用性能。
为达到上述目的,本发明的技术方案是这样实现的:
一种基于Tiny-Darknet的场景识别分类方法,包括以下步骤,
S1.构建分类模型的训练样本集;
S2.搭建基于Tiny-darknet网络的的深度学习框架;
S3.配置训练参数,训练分类模型;
S4.获取设备监控图像信息;
S5.分类场景图像;
S6.判断场景变化;
S7.完成场景识别参数配置。
进一步的,步骤S1中构建分类模型的训练样本集时,从监控设备实际应用的各个场景,网上公开的数据集获取多个不同的场景的图像,并对这些图像旋转多个角度、调整对比度和锐化处理得到新的图像,原图像和新图像共同组成分类模型的训练样本集。
进一步的,步骤S1中,将训练样本集随机分为训练集和测试集。
进一步的,步骤S2中搭建基于Tiny-darknet网络的深度学习框架时,对Tiny-Darknet网络进行裁剪,将神经网络生成的特征图以Blob结构的形式进行前向传播和反向传播。
进一步的,所述Tiny-Darknet网络中,包含15个卷积层,6个池化层,1个全连接层,裁剪后全连接层输出8种结果,每种结果代表一种场景。
进一步的,步骤S3中配置训练参数,训练分类模型时,先设置训练网络模型的超参数,设置初始学习率,进行迭代训练,每隔固定的迭代次数,将学习率降低,直至最终输出loss值下降至预设临界值以下,训练完成后,获取分类场景图像的模型。
进一步的,步骤S4中获取设备监控图像信息时,直接从待监测场景的监控设备中,获取监控视频画面的图像帧。
进一步的,步骤S5中,将步骤S4中获取的图像信息送至预先训练好的分类模型进行处理,得到分类结果。
进一步的,所述分类结果包括图像所属类别和置信度。
进一步的,根据分类结果的置信值,设置一个阈值,置信度低于阈值,忽略分类结果。
进一步的,步骤S6中,根据分类结果与之前配置参数的场景类别对比,判断场景是否发生变化,若变化,则根据变化的类别标签自动切换到所属类别的参数配置;若无变化,则结束,进行下一帧对比。
进一步的,步骤S7中,综合分析连续的多个场景监控设备的视频帧图像,确定所属的场景类别,根据连续多帧的分类,判断场景属性有无发生改变,完成场景识别参数配置。
相对于现有技术,本发明所述的一种基于Tiny-Darknet的场景识别分类方法具有以下优势:
本发明一种基于Tiny-Darknet的场景识别分类方法普适性强、深度学习,检测精准,设备安装的位置无任何限制,只需要保证模型的训练集中包含所属设备的图像信息即可;以Tiny-Darknet卷积神经网络,为基础,进一步优化网络结构,占用内存小,实时性高,同时分类精准,满足实际应用需求。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例所述的一种基于Tiny-Darknet的场景识别分类方法流程示意图。
具体实施方式
下面将参考附图并结合实施例来详细说明本发明。
如图1所示,一种基于Tiny-Darknet的场景识别分类方法,包括以下步骤:
S1.构建分类模型的训练样本集;
S2.搭建基于Tiny-darknet网络的的深度学习框架;
S3.配置训练参数,训练分类模型;
S4.获取设备监控图像信息;
S5.分类场景图像;
S6.判断场景变化;
S7.完成场景识别参数配置。
步骤S1中构建分类模型的训练样本集时,从监控设备实际应用的各个场景,网上公开的数据集获取大量的不同的场景的图像,并对这些图像旋转多个角度、调整对比度和锐化处理得到新的图像,原图像和新图像共同组成分类模型的训练样本集。
步骤S1中,将训练样本集按比例随机分为训练集和测试集。
步骤S2中搭建基于Tiny-darknet网络的深度学习框架时,对Tiny-Darknet网络进行裁剪,将神经网络生成的特征图以Blob结构的形式进行前向传播和反向传播。
所述Tiny-Darknet网络中,包含15个卷积层,6个池化层,1个全连接层,裁剪后全连接层输出8种结果,每种结果代表一种场景。
步骤S3中配置训练参数,训练分类模型时,先设置训练网络模型的超参数,设置初始学习率,进行迭代训练,每隔固定的迭代次数,将学习率降低,直至最终输出loss值下降至预设临界值以下,训练完成后,获取分类场景图像的模型。
步骤S4中获取设备监控图像信息时,直接从待监测场景的监控设备中,获取监控视频画面的图像帧。
步骤S5中,将步骤S4中获取的图像信息送至预先训练好的分类模型进行处理,得到分类结果。
所述分类结果包括图像所属类别和置信度。
根据分类结果的置信值,设置一个阈值,置信度低于阈值,忽略分类结果。
步骤S6中,根据分类结果与之前配置参数的场景类别对比,判断场景是否发生变化,若变化,则根据变化的类别标签自动切换到所属类别的参数配置;若无变化,则结束,进行下一帧对比。
步骤S7中,综合分析连续的多个场景监控设备的视频帧图像,确定所属的场景类别,根据连续多帧的分类,判断场景属性有无发生改变,完成场景识别参数配置。
本实施例的工作过程如下:
S1.构建分类模型的训练样本集。从监控设备实际应用的各个场景,网上公开的数据集获取大量的不同的场景的图像,并对这些图像以顺时针、逆时针各旋转15度,对比度0.8,锐化0.8进行数据增强,从而得到大量的训练样本数据集,并将训练样本集以随机10:1的方式分为训练集及测试集,以Caffe作为深度学习框架,并将训练集和测试集转换成Caffe能识别的lmdb格式;
S2.搭建基于Tiny-darknet网络的的深度学习框架。为满足不同性能的监控设备的使用,需要保证网络模型占用的内存足够小,进一步裁剪Tiny-Darknet网络,网络中包含了15个卷积层,6个池化层,1个全连接层,将神经网络生成的特征图以Blob结构的形式进行前向传播和反向传播,全连接层输出8类结果,这8类结果代表的场景包括backlight,difficult,fog,indoor,traffic,vegetation,shelter,multiTemperature;
S3.配置训练参数,训练分类模型。设置训练网络模型的超参数,设置初始学习率为0.01,并且每隔固定的迭代次数,将学习率降为原来的1/10,总共降3次,训练的总迭代次数一般设置为总样本数量的10倍。模型训练根据BP(反向传播)算法,利用SGD(随机梯度下降)算法进行迭代训练,使网络训练最终输出的loss值下降至预设临界值0.06以下。训练完成后,获取分类场景图像的模型;
S4.获取设备监控图像信息。从待监测场景的监控设备中,直接获取监控视频画面的图像帧;
S5.分类场景图像。将步骤S4中获取的图像信息送入步骤S3中预先训练好的模型进行处理,并输出分类结果。模型输出的分类结果包括图像所属的类别和置信度;
S6.判断场景变化。根据步骤S5中得到的分类结果与之前配置参数的场景类别是否发生变化,若变化,则根据变化的类别标签自动切换到所属类型的参数配置;若无变化,则结束,进行下一帧;根据分类结果的置信值,设置一个阈值,置信度低于阈值,忽略分类结果;
S7.综合分析连续的各个场景监控设备的视频帧图像,确定所属的场景识别结果。根据连续多帧的分类结果,判断场景属性有无发生改变,完成场景识别参数配置。
所述步骤S3中loss值的计算方法如下公式所示。训练网络的loss为分类损失,主要计算预测分类的概率的对数值。
其中yj是一个1*T的向量,里面含有T个值,而且只有一个值是1,其它T-1个值都是0,真实标签对应的那个值是1,f(zj)为范围在(0,1)区间的一组映射实数,反映的预测分类的概率值:
在反向传播时:
反向传播时对输入的zj进行求导得:
本发明已经实际应用于以下场景,并实际测试统计准确率可以达到98%以上:
室内场景。窗户会对阳光的紫外线会有一定的阻碍作用,所有室内颜色和室外不尽相同,同时对比度等也有所不同。
交通场景。交通场景对车运动拖影有比较高的要求,需要调节快门速度。
遮挡场景。对于有遮挡的场景,红外/白光反光会造成内同步失准。
雾气场景。雾气场景会造成整体画面偏白、不通透,需要开启透雾。
植被场景。对于绿色场景需要保证绿色植物的色彩。
宽动态场景。人脸设备在宽动态场景下需要提升比较多的亮度才能满足对内部人脸的识别需求,监控设备在宽动态场景下需要开启宽动态满足监控更宽范围的需求。
混合色温场景。混合色温对于整体白平衡的调节有很大的影响。
复杂细节动态场景。泳池、天空等细节特别多,对码流影响特别大,需要加大码流或者降低清晰度
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于Tiny-Darknet的场景识别分类方法,其特征在于,包括以下步骤:
S1.构建分类模型的训练样本集;
S2.搭建基于Tiny-darknet网络的深度学习框架;
S3.配置训练参数,训练分类模型;
S4.获取设备监控图像信息;
S5.分类场景图像;
S6.判断场景变化;
S7.完成场景识别参数配置。
2.根据权利要求1所述的一种基于Tiny-Darknet的场景识别分类方法,其特征在于:步骤S1中构建分类模型的训练样本集时,从监控设备实际应用的各个场景,网上公开的数据集获取多个不同的场景的图像,并对这些图像旋转多个角度、调整对比度和锐化处理得到新的图像,原图像和新图像共同组成分类模型的训练样本集。
3.根据权利要求1所述的一种基于Tiny-Darknet的场景识别分类方法,其特征在于:步骤S1中,将训练样本集随机分为训练集和测试集。
4.根据权利要求1所述的一种基于Tiny-Darknet的场景识别分类方法,其特征在于:步骤S2中搭建基于Tiny-darknet网络的深度学习框架时,对Tiny-Darknet网络进行裁剪,将神经网络生成的特征图以Blob结构的形式进行前向传播和反向传播。
5.根据权利要求1所述的一种基于Tiny-Darknet的场景识别分类方法,其特征在于:所述Tiny-Darknet网络中,包含15个卷积层,6个池化层,1个全连接层,裁剪后全连接层输出8种结果,每种结果代表一种场景。
6.根据权利要求1所述的一种基于Tiny-Darknet的场景识别分类方法,其特征在于:步骤S3中配置训练参数,训练分类模型时,先设置训练网络模型的超参数,设置初始学习率,进行迭代训练,每隔固定的迭代次数,将学习率降低,直至最终输出loss值下降至预设临界值以下,训练完成后,获取分类场景图像的模型。
7.根据权利要求1所述的一种基于Tiny-Darknet的场景识别分类方法,其特征在于:步骤S4中获取设备监控图像信息时,直接从待监测场景的监控设备中,获取监控视频画面的图像帧。
8.根据权利要求1所述的一种基于Tiny-Darknet的场景识别分类方法,其特征在于:步骤S5中,将步骤S4中获取的图像信息送至预先训练好的分类模型进行处理,得到分类结果。
9.根据权利要求1所述的一种基于Tiny-Darknet的场景识别分类方法,其特征在于:步骤S6中,根据分类结果与之前配置参数的场景类别对比,判断场景是否发生变化,若变化,则根据变化的类别标签自动切换到所属类别的参数配置;若无变化,则结束,进行下一帧对比。
10.根据权利要求1所述的一种基于Tiny-Darknet的场景识别分类方法,其特征在于:步骤S7中,综合分析连续的多个场景监控设备的视频帧图像,确定所属的场景类别,根据连续多帧的分类,判断场景属性有无发生改变,完成场景识别参数配置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911275640.2A CN111062307A (zh) | 2019-12-12 | 2019-12-12 | 一种基于Tiny-Darknet的场景识别分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911275640.2A CN111062307A (zh) | 2019-12-12 | 2019-12-12 | 一种基于Tiny-Darknet的场景识别分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111062307A true CN111062307A (zh) | 2020-04-24 |
Family
ID=70300696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911275640.2A Pending CN111062307A (zh) | 2019-12-12 | 2019-12-12 | 一种基于Tiny-Darknet的场景识别分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111062307A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183442A (zh) * | 2020-10-14 | 2021-01-05 | 上海宝钿科技产业发展有限公司 | 一种多模态场景特定情景的识别方法 |
CN112257643A (zh) * | 2020-10-30 | 2021-01-22 | 天津天地伟业智能安全防范科技有限公司 | 一种基于视频流的抽烟行为和打电话行为识别方法 |
CN112288019A (zh) * | 2020-10-30 | 2021-01-29 | 天津天地伟业智能安全防范科技有限公司 | 一种基于关键点定位的厨师帽检测方法 |
CN112348566A (zh) * | 2020-10-15 | 2021-02-09 | 北京捷通华声科技股份有限公司 | 推荐广告的确定方法、装置及存储介质 |
CN114020922A (zh) * | 2022-01-06 | 2022-02-08 | 智者四海(北京)技术有限公司 | 文本分类方法、装置及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
CN107820020A (zh) * | 2017-12-06 | 2018-03-20 | 广东欧珀移动通信有限公司 | 拍摄参数的调整方法、装置、存储介质及移动终端 |
CN108632551A (zh) * | 2017-03-16 | 2018-10-09 | 南昌黑鲨科技有限公司 | 基于深度学习的视频录摄方法、装置及终端 |
CN108681752A (zh) * | 2018-05-28 | 2018-10-19 | 电子科技大学 | 一种基于深度学习的图像场景标注方法 |
CN108710847A (zh) * | 2018-05-15 | 2018-10-26 | 北京旷视科技有限公司 | 场景识别方法、装置及电子设备 |
CN109218619A (zh) * | 2018-10-12 | 2019-01-15 | 北京旷视科技有限公司 | 图像获取方法、装置和系统 |
CN110084198A (zh) * | 2019-04-28 | 2019-08-02 | 哈尔滨工程大学 | 基于Fisher特征分析的CNN机场室内场景识别方法 |
CN110222604A (zh) * | 2019-05-23 | 2019-09-10 | 复钧智能科技(苏州)有限公司 | 基于共享卷积神经网络的目标识别方法和装置 |
-
2019
- 2019-12-12 CN CN201911275640.2A patent/CN111062307A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108632551A (zh) * | 2017-03-16 | 2018-10-09 | 南昌黑鲨科技有限公司 | 基于深度学习的视频录摄方法、装置及终端 |
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
CN107820020A (zh) * | 2017-12-06 | 2018-03-20 | 广东欧珀移动通信有限公司 | 拍摄参数的调整方法、装置、存储介质及移动终端 |
WO2019109801A1 (zh) * | 2017-12-06 | 2019-06-13 | Oppo广东移动通信有限公司 | 拍摄参数的调整方法、装置、存储介质及移动终端 |
CN108710847A (zh) * | 2018-05-15 | 2018-10-26 | 北京旷视科技有限公司 | 场景识别方法、装置及电子设备 |
CN108681752A (zh) * | 2018-05-28 | 2018-10-19 | 电子科技大学 | 一种基于深度学习的图像场景标注方法 |
CN109218619A (zh) * | 2018-10-12 | 2019-01-15 | 北京旷视科技有限公司 | 图像获取方法、装置和系统 |
CN110084198A (zh) * | 2019-04-28 | 2019-08-02 | 哈尔滨工程大学 | 基于Fisher特征分析的CNN机场室内场景识别方法 |
CN110222604A (zh) * | 2019-05-23 | 2019-09-10 | 复钧智能科技(苏州)有限公司 | 基于共享卷积神经网络的目标识别方法和装置 |
Non-Patent Citations (2)
Title |
---|
史璐璐;张索非;吴晓富;: "基于Tiny Darknet全卷积孪生网络的目标跟踪" * |
杨扬;蓝章礼;陈巍;: "基于统计分析的卷积神经网络模型压缩方法" * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183442A (zh) * | 2020-10-14 | 2021-01-05 | 上海宝钿科技产业发展有限公司 | 一种多模态场景特定情景的识别方法 |
CN112348566A (zh) * | 2020-10-15 | 2021-02-09 | 北京捷通华声科技股份有限公司 | 推荐广告的确定方法、装置及存储介质 |
CN112257643A (zh) * | 2020-10-30 | 2021-01-22 | 天津天地伟业智能安全防范科技有限公司 | 一种基于视频流的抽烟行为和打电话行为识别方法 |
CN112288019A (zh) * | 2020-10-30 | 2021-01-29 | 天津天地伟业智能安全防范科技有限公司 | 一种基于关键点定位的厨师帽检测方法 |
CN112288019B (zh) * | 2020-10-30 | 2023-07-14 | 天津天地伟业信息系统集成有限公司 | 一种基于关键点定位的厨师帽检测方法 |
CN114020922A (zh) * | 2022-01-06 | 2022-02-08 | 智者四海(北京)技术有限公司 | 文本分类方法、装置及存储介质 |
CN114020922B (zh) * | 2022-01-06 | 2022-03-22 | 智者四海(北京)技术有限公司 | 文本分类方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111062307A (zh) | 一种基于Tiny-Darknet的场景识别分类方法 | |
US11263434B2 (en) | Fast side-face interference resistant face detection method | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN107330453B (zh) | 基于分步识别和融合关键部位检测的色情图像识别方法 | |
CN111126325B (zh) | 一种基于视频的智能人员安防识别统计方法 | |
CN110956094A (zh) | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 | |
CN111414887A (zh) | 基于yolov3算法的二次检测口罩人脸识别方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN109767422A (zh) | 基于深度学习的管道检测识别方法、存储介质及机器人 | |
CN109801297B (zh) | 一种基于卷积实现的图像全景分割预测优化方法 | |
CN104217404A (zh) | 雾霾天视频图像清晰化处理方法及其装置 | |
CN108710893B (zh) | 一种基于特征融合的数字图像相机源模型分类方法 | |
CN109919073B (zh) | 一种具有光照鲁棒性的行人再识别方法 | |
CN111611889B (zh) | 基于改进卷积神经网络的农田微型虫害识别装置 | |
CN109389569B (zh) | 基于改进DehazeNet的监控视频实时去雾方法 | |
CN111540203B (zh) | 基于Faster-RCNN调节绿灯通行时间的方法 | |
CN114648714A (zh) | 一种基于yolo的车间规范行为的监测方法 | |
CN106296618A (zh) | 一种基于高斯函数加权直方图规定化的彩色图像去雾方法 | |
CN107636724A (zh) | 影像的波长自适应去雾装置及方法 | |
CN110287876A (zh) | 一种基于视频图像的内容识别方法 | |
CN111797920A (zh) | 门控特征融合的深度网络不透水面遥感提取方法及系统 | |
CN112380985A (zh) | 变电站入侵异物实时检测方法 | |
CN111027542A (zh) | 一种基于Faster RCNN算法改进的目标检测方法 | |
CN113627302B (zh) | 一种登高施工合规性检测方法及系统 | |
CN104915933A (zh) | 一种基于apso-bp耦合算法的雾天图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200424 |
|
WD01 | Invention patent application deemed withdrawn after publication |