CN111797762A - 一种场景识别方法和系统 - Google Patents
一种场景识别方法和系统 Download PDFInfo
- Publication number
- CN111797762A CN111797762A CN202010633894.3A CN202010633894A CN111797762A CN 111797762 A CN111797762 A CN 111797762A CN 202010633894 A CN202010633894 A CN 202010633894A CN 111797762 A CN111797762 A CN 111797762A
- Authority
- CN
- China
- Prior art keywords
- scene
- network
- training
- data
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims description 25
- 239000010410 layer Substances 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 239000002356 single layer Substances 0.000 claims description 2
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请提出一种场景识别方法和系统,该方法包括:提取待识别场景数据的特征;将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果。本申请提出的一种场景识别方法和系统,将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果,例如,每个场景网络会输出场景数据是否为对应的场景;相对于现有技术仅可以得到场景数据与各场景的相似度,本申请的方案识别结果精确度更高。
Description
技术领域
本申请涉及识别技术领域,具体涉及一种场景识别方法和系统。
背景技术
神经网络是指一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。可以预先训练神经网络,将训练好的神经网络用于对场景进行识别。通过场景A的样本训练神经网络,将场景数据输入训练好的神经网络,可以得到场景数据与场景A的相似度结果,例如,场景数据与场景A的相似度为50%;如果希望可以识别场景A或者场景B,那么,重新通过场景A、场景B的样本训练神经网络,将场景数据输入训练好的神经网络,可以得到场景数据与场景A、场景B的相似度结果,例如,场景数据与场景A的相似度为30%,与场景B的相似度为60%。这样的方式,只可以得到场景数据与各场景的相似度结果,精确度和灵活性差。
发明内容
本申请提供一种场景识别方法和系统,实现对各种场景的精确识别。
为实现上述目的,本申请实施例提供一种场景识别方法,包括:提取待识别场景数据的特征;将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果。
为实现上述目的,本申请实施例提供一种场景识别系统,包括:骨干网络,设置为提取待识别场景数据的特征;多头网络装置,包括不同场景网络,提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果。
本申请提出的一种场景识别方法和系统,将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果,例如,每个场景网络会输出场景数据是否为对应的场景;相对于现有技术仅可以得到场景数据与各场景的相似度,本申请的方案识别结果精确度更高。
附图说明
图1是本申请实施例提供的场景识别系统的结构示意图;
图2是本申请实施例提供的场景识别系统的结构示意图;
图3是本申请实施例提供的场景识别系统的结构示意图;
图4是本申请实施例提供的场景识别方法的流程示意图;
图5是本申请实施例提供的场景识别方法的流程示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。
下面结合附图,对本申请实施例作进一步阐述。
如图1所示,图1是本申请实施例提供的场景识别系统的结构示意图。该系统包括但不限于骨干网络110和多头网络装置120。
骨干网络110,设置为提取待识别场景数据的特征。
骨干网络负责场景数据的特征抽取。所述场景数据至少包括场景视频数据、场景图片数据和场景文本数据之一。场景数据为场景文本数据的情况下,骨干网络为采用文本预训练的深度神经网络,场景数据通过骨干网得到代表文本特征的向量。场景数据为场景视频数据或场景图片数据的情况下,骨干网络为采用图像网络(ImageNet)预训练的深度神经网络,场景数据通过骨干网得到代表图片特征的向量。可选的,骨干网络为多层深度神经网络去除最后几层全连接层的前部网络部分。
在本实施例中,可选的,通过摄像头或者麦克风等采集设备采集场景数据,所采集的场景数据存储到内存中。
多头网络装置120,包括不同场景网络,提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果。
每个场景网络可以设置为单层全连接或多层感知器(Multi-Layer Perceptron,MLP),每个场景网络称为头。可以有并行存在而互不影响的多个头,也可以增加新的头。每个头输出一个二分类,即场景数据是否为本场景网络对应的场景。
采用现有技术的方案,对于场景数据N而言,神经网络输出的场景识别结果为与各场景的近似度,而不是具体是否为哪个场景的准确结果,例如与场景A的近似度为40%,与场景B的近似度为30%,与场景C的近似度为30%,识别精确度差。.采用本实施例的方案,将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果,例如,对于场景数据N而言,场景网络A输出识别结果1,表示近似,场景网络B输出识别结果0,表示不近似,场景网络C输出识别结果0,表示不近似,从而明确场景数据N为场景网络A对应的场景数据,识别结果精确度更高。
如图2所示,图2是本申请实施例提供的场景识别系统的结构示意图。该系统包括但不限于正样本装置210、骨干网络220和多头网络装置230。
正样本装置210,设置为向所述骨干网络输出待识别场景数据。
正样本装置采集当前场景的数据,得到文本数据、图像数据或视频数据等待识别场景数据。
骨干网络220,设置为提取待识别场景数据的特征。
多头网络装置230,提取的特征并行通过多头网络装置中的不同场景网络,分别得到各场景网络对应的场景识别结果。
采用本实施例的方案,将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果,识别结果精确度更高。
如图3所示,图3是本申请实施例提供的场景识别系统的结构示意图。该系统包括但不限于正样本装置310、负样本产生器320、场景标识装置330、骨干网络340和多头网络装置350。
正样本装置310,设置为向骨干网络输出训练正样本。
负样本产生器320,设置为向所述骨干网络输出训练负样本。
其中训练正样本是选定场景文件,训练负样本是除选定场景外的其他场景文件。场景文件与场景数据的区别在于:场景数据是指直接存储在存储空间(例如内存)中的采集到的场景的数据,场景文件是场景数据的有序集合。举例说明,读取内存上0~127这128个扇区的数据,或者读取内存中X目录下的tellme.txt文件的前128字节。
场景标识装置330,设置为获取场景标识,并将所述场景标识输出给所述骨干网络。场景标识设置为标识选定场景。
骨干网络340,设置为根据所述场景标识提取训练正样本和训练负样本的训练特征。
多头网络装置350,包括不同场景网络和新的场景网络,场景标识与新的场景网络对应;训练正样本和训练负样本的训练特征通过所述新的场景网络,得到所述新场景网络对应的训练识别结果;根据所述新场景网络对应的训练识别结果、所述训练正样本的标签和所述训练负样本的标签,确定所述新场景网络的权重,得到训练后的场景网络。
或者,多头网络装置350,包括不同场景网络,场景标识与所述多头网络装置中的已有场景网络对应;将所述训练特征通过所述已有场景网络,得到所述已有场景网络对应的训练识别结果;根据所述已有场景网络对应的训练识别结果、所述训练正样本的标签和所述训练负样本的标签,更新所述已有场景网络的权重,得到更新后的场景网络。
可选的,可以通过按钮触发、按键触发或者发送指令等方式指示多头网络装置识别场景数据、训练新场景网络或者更新已有场景网络。
现有技术中,需要增加新场景识别功能的情况下,根据原有场景识别功能对应的样本以及新场景识别功能对应的样本重新训练神经网络,例如,原神经网络可以识别场景A,而无法识别场景B,需要增加识别场景B的情况下,则根据场景A和场景B的样本重新训练神经网络,从而可以识别场景数据与场景A以及场景B的相似度,例如,场景数据与场景A的相似度为30%,与场景B的相似度为60%。采用本实施例的方案,多头网络装置需要增加新场景识别功能的情况下,无需对整个多头网络装置重新训练,仅对新场景网络进行训练即可,训练方便快捷,识别灵活准确。
现有技术中,需要更新场景识别功能的情况下,根据需要更新的场景识别功能对应的样本以及其他无需更新的场景识别功能对应的样本重新训练神经网络,例如,原神经网络可以识别场景A和场景B,需要更新识别场景B的能力的情况下,则根据场景A和更新后的场景B的样本重新训练神经网络。采用本实施例的方案,多头网络装置需要更新场景识别功能的情况下,无需对整个多头网络装置重新训练,仅对需要更新的场景网络重新进行训练即可,更新方便快捷。
如图4所示,图4是本申请实施例提供的场景识别方法的流程示意图。该方法包括但不限于步骤S410和步骤S420。
步骤S410、提取待识别场景数据的特征。
场景数据至少包括场景视频数据、场景图片数据和场景文本数据之一。可选的,待识别场景数据的大小可以为64*64*3,相比于大小为32*32*3的场景数据,大小为64*64*3的场景数据分辨率更高,降维处理后更清楚。
步骤S420、将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果。
采用现有技术的方案,对于场景数据N而言,神经网络输出的场景识别结果为与各场景的近似度,而不是具体是否为哪个场景的准确结果,例如与场景A的近似度为40%,与场景B的近似度为30%,与场景C的近似度为30%,识别精确度差。.采用本实施例的方案,将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果,例如,对于场景数据N而言,场景网络A输出识别结果1,表示近似,场景网络B输出识别结果0,表示不近似,场景网络C输出识别结果0,表示不近似,从而明确场景数据N为场景网络A对应的场景数据,识别结果精确度更高。
如图5所示,图5是本申请实施例提供的场景识别方法的流程示意图。该方法包括但不限于步骤510、步骤520、步骤530、步骤S540和步骤S550。
步骤510、根据场景标识提取训练正样本和训练负样本的训练特征。
其中训练正样本是选定场景文件,训练负样本是除选定场景外的其他场景文件。
步骤520、将所述训练特征通过所述场景标识对应的待训练网络,得到所述待训练网络对应的训练识别结果。
待训练网络为已有场景网络或者新场景网络。
步骤530、根据所述训练识别结果、所述训练正样本的标签和所述训练负样本的标签,确定所述待训练网络的权重,得到训练后的场景网络。
待训练网络的训练机制如下,其中:
Ypr为得到的输出,Ygt为正确的输出,W为权重,X为输入,σ为激活函数(sigmoid),η为常量。
Ypr=σ(WX),where WX≡Z
权重更新量为(W=W+ΔW):
步骤S540、提取待识别场景数据的特征。
步骤S550、将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果。
现有技术中,需要增加新场景识别功能的情况下,根据原有场景识别功能对应的样本以及新场景识别功能对应的样本重新训练神经网络,例如,原神经网络可以识别场景A,而无法识别场景B,需要增加识别场景B的情况下,则根据场景A和场景B的样本重新训练神经网络,从而可以识别场景数据与场景A以及场景B的相似度,例如,场景数据与场景A的相似度为30%,与场景B的相似度为60%。采用本实施例的方案,需要增加新场景识别功能的情况下,仅对新场景网络进行训练即可,训练方便快捷,识别灵活准确。
现有技术中,需要更新场景识别功能的情况下,根据需要更新的场景识别功能对应的样本以及其他无需更新的场景识别功能对应的样本重新训练神经网络,例如,原神经网络可以识别场景A和场景B,需要更新识别场景B的能力的情况下,则根据场景A和更新后的场景B的样本重新训练神经网络。采用本实施例的方案,需要更新场景识别功能的情况下,仅对需要更新的场景网络(已有场景网络)重新进行训练即可,更新方便快捷。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本申请可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
以上所述,仅为本申请的示例性实施例而已,并非用于限定本申请的保护范围。
一般来说,本申请的多种实施例可以在硬件或专用电路、软件、逻辑或其任何组合中实现。例如,一些方面可以被实现在硬件中,而其它方面可以被实现在可以被控制器、微处理器或其它计算装置执行的固件或软件中,尽管本申请不限于此。
本申请的实施例可以通过移动装置的数据处理器执行计算机程序指令来实现,例如在处理器实体中,或者通过硬件,或者通过软件和硬件的组合。计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码。
本申请附图中的任何逻辑流程的框图可以表示程序步骤,或者可以表示相互连接的逻辑电路、模块和功能,或者可以表示程序步骤与逻辑电路、模块和功能的组合。计算机程序可以存储在存储器上。存储器可以具有任何适合于本地技术环境的类型并且可以使用任何适合的数据存储技术实现,例如但不限于只读存储器(ROM)、随机访问存储器(RAM)、光存储器装置和系统(数码多功能光碟DVD或CD光盘)等。计算机可读介质可以包括非瞬时性存储介质。数据处理器可以是任何适合于本地技术环境的类型,例如但不限于通用计算机、专用计算机、微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、可编程逻辑器件(FPGA)以及基于多核处理器架构的处理器。
通过示范性和非限制性的示例,上文已提供了对本申请的示范实施例的详细描述。但结合附图和权利要求来考虑,对以上实施例的多种修改和调整对本领域技术人员来说是显而易见的,但不偏离本发明的范围。因此,本发明的恰当范围将根据权利要求确定。
Claims (10)
1.一种场景识别方法,其特征在于:包括:
提取待识别场景数据的特征;
将提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果。
2.根据权利要求1所述的方法,其特征在于,在提取待识别场景数据的特征之前,还包括:
根据场景标识提取训练正样本和训练负样本的训练特征;
将所述训练特征通过所述场景标识对应的待训练网络,得到所述待训练网络对应的训练识别结果;
根据所述训练识别结果、所述训练正样本的标签和所述训练负样本的标签,确定所述待训练网络的权重,得到训练后的场景网络。
3.根据权利要求2所述的方法,其特征在于,所述待训练网络为已有场景网络或者新场景网络。
4.根据权利要求2所述的方法,其特征在于,所述训练正样本为场景文件,所述训练负样本为非场景文件。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述场景数据至少包括场景视频数据、场景图片数据和场景文本数据之一。
6.一种场景识别系统,其特征在于,包括:
骨干网络,设置为提取待识别场景数据的特征;
多头网络装置,包括不同场景网络,提取的特征并行通过不同场景网络,分别得到各场景网络对应的场景识别结果。
7.根据权利要求6所述的系统,其特征在于,还包括:
正样本装置,设置为向所述骨干网络输出待识别场景数据。
8.根据权利要求7所述的系统,其特征在于,还包括:场景标识装置,设置为获取场景标识,并将所述场景标识输出给所述骨干网络;负样本产生器,设置为向所述骨干网络输出训练负样本;所述正样本装置,还设置为向所述骨干网络输出训练正样本;所述多头网络装置还包括新的场景网络;
所述骨干网络根据所述场景标识提取训练正样本和训练负样本的训练特征,所述场景标识与所述新的场景网络对应;将所述训练特征通过所述新的场景网络,得到所述新场景网络对应的训练识别结果;根据所述新场景网络对应的训练识别结果、所述训练正样本的标签和所述训练负样本的标签,确定所述新场景网络的权重,得到训练后的场景网络。
9.根据权利要求7所述的系统,其特征在于,还包括:场景标识装置,设置为获取场景标识,并将所述场景标识输出给所述骨干网络;负样本产生器,设置为向所述骨干网络输出训练负样本;所述正样本装置,还设置为向所述骨干网络输出训练正样本;
所述骨干网络根据所述场景标识提取训练正样本和训练负样本的训练特征,所述场景标识与所述多头网络装置中的已有场景网络对应;将所述训练特征通过所述已有场景网络,得到所述已有场景网络对应的训练识别结果;根据所述已有场景网络对应的训练识别结果、所述训练正样本的标签和所述训练负样本的标签,更新所述已有场景网络的权重,得到更新后的场景网络。
10.根据权利要求6至9任一项所述的系统,其特征在于,所述骨干网络设置为深度神经网络,所述场景网络设置为单层全连接或多层感知器。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010633894.3A CN111797762A (zh) | 2020-07-02 | 2020-07-02 | 一种场景识别方法和系统 |
PCT/CN2021/104224 WO2022002242A1 (zh) | 2020-07-02 | 2021-07-02 | 一种场景识别方法和系统、电子设备、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010633894.3A CN111797762A (zh) | 2020-07-02 | 2020-07-02 | 一种场景识别方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111797762A true CN111797762A (zh) | 2020-10-20 |
Family
ID=72811116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010633894.3A Pending CN111797762A (zh) | 2020-07-02 | 2020-07-02 | 一种场景识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111797762A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112860676A (zh) * | 2021-02-06 | 2021-05-28 | 高云 | 应用于大数据挖掘和业务分析的数据清洗方法及云服务器 |
CN113239901A (zh) * | 2021-06-17 | 2021-08-10 | 北京三快在线科技有限公司 | 场景识别方法、装置、设备及存储介质 |
WO2022002242A1 (zh) * | 2020-07-02 | 2022-01-06 | 北京灵汐科技有限公司 | 一种场景识别方法和系统、电子设备、介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100241601A1 (en) * | 2009-03-20 | 2010-09-23 | Irvine Sensors Corporation | Apparatus comprising artificial neuronal assembly |
CN107545241A (zh) * | 2017-07-19 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 神经网络模型训练及活体检测方法、装置及存储介质 |
CN108710847A (zh) * | 2018-05-15 | 2018-10-26 | 北京旷视科技有限公司 | 场景识别方法、装置及电子设备 |
CN109586950A (zh) * | 2018-10-18 | 2019-04-05 | 锐捷网络股份有限公司 | 网络场景识别方法、网络管理设备、系统及存储介质 |
-
2020
- 2020-07-02 CN CN202010633894.3A patent/CN111797762A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100241601A1 (en) * | 2009-03-20 | 2010-09-23 | Irvine Sensors Corporation | Apparatus comprising artificial neuronal assembly |
CN107545241A (zh) * | 2017-07-19 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 神经网络模型训练及活体检测方法、装置及存储介质 |
CN108710847A (zh) * | 2018-05-15 | 2018-10-26 | 北京旷视科技有限公司 | 场景识别方法、装置及电子设备 |
CN109586950A (zh) * | 2018-10-18 | 2019-04-05 | 锐捷网络股份有限公司 | 网络场景识别方法、网络管理设备、系统及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022002242A1 (zh) * | 2020-07-02 | 2022-01-06 | 北京灵汐科技有限公司 | 一种场景识别方法和系统、电子设备、介质 |
CN112860676A (zh) * | 2021-02-06 | 2021-05-28 | 高云 | 应用于大数据挖掘和业务分析的数据清洗方法及云服务器 |
CN113239901A (zh) * | 2021-06-17 | 2021-08-10 | 北京三快在线科技有限公司 | 场景识别方法、装置、设备及存储介质 |
CN113239901B (zh) * | 2021-06-17 | 2022-09-27 | 北京三快在线科技有限公司 | 场景识别方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109117777B (zh) | 生成信息的方法和装置 | |
CN109977262B (zh) | 从视频中获取候选片段的方法、装置及处理设备 | |
US11188789B2 (en) | Detecting poisoning attacks on neural networks by activation clustering | |
US9652694B2 (en) | Object detection method, object detection device, and image pickup device | |
CN111797762A (zh) | 一种场景识别方法和系统 | |
US9773322B2 (en) | Image processing apparatus and image processing method which learn dictionary | |
CN110717470B (zh) | 一种场景识别方法、装置、计算机设备和存储介质 | |
WO2020164278A1 (zh) | 一种图像处理方法、装置、电子设备和可读存储介质 | |
WO2022002242A1 (zh) | 一种场景识别方法和系统、电子设备、介质 | |
CN109145766A (zh) | 模型训练方法、装置、识别方法、电子设备及存储介质 | |
CN111881741B (zh) | 车牌识别方法、装置、计算机设备和计算机可读存储介质 | |
CN111046971A (zh) | 图像识别方法、装置、设备及计算机可读存储介质 | |
CN111291887A (zh) | 神经网络的训练方法、图像识别方法、装置及电子设备 | |
JP7287511B2 (ja) | 情報処理装置、容疑者情報生成方法及びプログラム | |
WO2023123923A1 (zh) | 人体重识别方法、人体重识别装置、计算机设备及介质 | |
CN113255557A (zh) | 一种基于深度学习的视频人群情绪分析方法及系统 | |
CN112733666A (zh) | 一种难例图像的搜集、及模型训练方法、设备及存储介质 | |
KR20170082025A (ko) | 기계 학습 기반 얼굴 인식을 이용한 저작권을 가진 동영상 식별 장치 및 방법 | |
KR20220122455A (ko) | 영상 데이터에 포함된 객체 분할 방법 및 이를 수행하는 장치 | |
US11380133B2 (en) | Domain adaptation-based object recognition apparatus and method | |
US11423262B2 (en) | Automatically filtering out objects based on user preferences | |
CN111797763A (zh) | 一种场景识别方法和系统 | |
Zhao et al. | DetectGAN: GAN-based text detector for camera-captured document images | |
CN112241470B (zh) | 一种视频分类方法及系统 | |
CN114332716B (zh) | 视频中场景的聚类方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |