CN111797763A - 一种场景识别方法和系统 - Google Patents
一种场景识别方法和系统 Download PDFInfo
- Publication number
- CN111797763A CN111797763A CN202010633911.3A CN202010633911A CN111797763A CN 111797763 A CN111797763 A CN 111797763A CN 202010633911 A CN202010633911 A CN 202010633911A CN 111797763 A CN111797763 A CN 111797763A
- Authority
- CN
- China
- Prior art keywords
- scene
- training
- data
- network
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000013528 artificial neural network Methods 0.000 claims description 28
- 230000000694 effects Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 2
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请提出一种场景识别方法和系统,该方法包括:提取待识别场景数据的特征;根据提取的特征遍历注意力网络的场景标识,得到各场景标识对应的场景识别结果。本申请提出的一种场景识别方法和系统,将提取的特征遍历注意力网络的场景标识,得到各场景标识对应的场景识别结果,例如,会输出场景数据是否为注意力网络中每个场景标识对应的场景;相对于现有技术仅可以得到场景数据与各场景的相似度,本申请的方案识别结果精确度更高。
Description
技术领域
本申请涉及识别技术领域,具体涉及一种场景识别方法和系统。
背景技术
神经网络是指一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。可以预先训练神经网络,将训练好的神经网络用于对场景进行识别。通过场景A的样本训练神经网络,将场景数据输入训练好的神经网络,可以得到场景数据与场景A的相似度结果,例如,场景数据与场景A的相似度为50%;如果希望可以识别场景A或者场景B,那么,重新通过场景A、场景B的样本训练神经网络,将场景数据输入训练好的神经网络,可以得到场景数据与场景A、场景B的相似度结果,例如,场景数据与场景A的相似度为30%,与场景B的相似度为60%。这样的方式,只可以得到场景数据与各场景的相似度结果,精确度和灵活性差。
发明内容
本申请提供一种场景识别方法和系统,实现对各种场景的精确识别。
为实现上述目的,本申请实施例提供一种场景识别方法,包括:提取待识别场景数据的特征;根据提取的特征遍历注意力网络的场景标识,得到各场景标识对应的场景识别结果。
为实现上述目的,本申请实施例提供一种场景识别系统,包括:骨干网络,设置为提取待识别场景数据的特征;注意力网络,包括不同场景标识对应的子网,提取的特征通过不同场景标识对应的子网,分别得到各场景标识对应的场景识别结果。
本申请提出的一种场景识别方法和系统,将提取的特征遍历注意力网络的场景标识,得到各场景标识对应的场景识别结果,例如,会输出场景数据是否为注意力网络中每个场景标识对应的场景;相对于现有技术仅可以得到场景数据与各场景的相似度,本申请的方案识别结果精确度更高。
附图说明
图1是本申请实施例提供的场景识别系统的结构示意图;
图2是本申请实施例提供的场景识别系统的结构示意图;
图3是本申请实施例提供的场景识别系统的结构示意图;
图4是本申请实施例提供的场景识别方法的流程示意图;
图5是本申请实施例提供的场景识别方法的流程示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。
下面结合附图,对本申请实施例作进一步阐述。
如图1所示,图1是本申请实施例提供的场景识别系统的结构示意图。该系统包括但不限于骨干网络110和注意力网络120。
骨干网络110,设置为提取待识别场景数据的特征。
骨干网络负责场景数据的特征抽取。所述场景数据至少包括场景视频、场景图片和场景文本之一。场景数据为场景文本数据的情况下,骨干网络为采用文本预训练的深度神经网络,场景数据通过骨干网得到代表文本特征的向量。场景数据为场景视频数据或场景图片数据的情况下,骨干网络为采用图像网络(ImageNet)预训练的深度神经网络,场景数据通过骨干网得到代表图片特征的向量。可选的,骨干网络为多层深度神经网络去除最后几层全连接层的前部网络部分。
在本实施例中,可选的,通过摄像头或者麦克风等采集设备采集场景数据,所采集的场景数据存储到内存中。
注意力网络120,包括不同场景标识对应的子网,提取的特征通过不同场景标识对应的子网,分别得到各场景标识对应的场景识别结果。
注意力网络属于门控网络的一种,对于每一个注意力输入(在本实施例中为场景标识),部分神经网络节点连接,连接的神经网络节点形成子网。注意力输入的形式可以采用独热编码或者活跃度数值等。例如,注意力输入的形式为独热编码,场景A的场景标识为[1,0],对应图中的门控支路A开启(子网A工作),门控支路B关闭,此时注意力网络中门控支路A控制的神经元处于工作状态,门控支路B控制的神经元被抑制(无论输入情况如何都不产生输出)。场景B的场景标识为[0,1],对应图中的门控支路B开启(子网B工作),门控支路A关闭,此时注意力网络中门控支路B控制的神经元处于工作状态,门控支路A控制的神经元被抑制(无论输入情况如何都不产生输出)。或者,门控输入为一组数值,每个数值用于一路门控支路的激活活跃度,例如门控支路A的活跃度为0.2,门控支路B的活跃度为0.8,门控输入为[0.2,0.8],则对应门控支路B开启(子网B工作),门控支路A关闭。
采用现有技术的方案,对于场景数据N而言,神经网络输出的场景识别结果为与场景A的近似度为40%,与场景B的近似度为30%,与场景C的近似度为30%,识别精确度差。.采用本实施例的方案,将通过不同场景标识对应的子网,分别得到各场景标识对应的场景识别结果,例如,对于场景数据N而言,子网A输出识别结果1,表示与场景A近似,子网B输出识别结果0,表示与场景B不近似,子网C输出识别结果0,表示与场景C不近似,识别结果精确度更高。
采用现有技术的方案,对于场景数据N而言,神经网络输出的场景识别结果为与各场景的近似度,而不是具体是否为哪个场景的准确结果,例如与场景A的近似度为40%,与场景B的近似度为30%,与场景C的近似度为30%,识别精确度差。采用本实施例的方案,将通过不同场景标识对应的子网,分别得到各场景标识对应的场景识别结果,例如,对于场景数据N而言,子网A输出识别结果1,表示与场景A近似,子网B输出识别结果0,表示与场景B不近似,子网C输出识别结果0,表示与场景C不近似,识别结果精确度更高。从而明确场景数据N为子网A对应的场景数据,识别结果精确度更高。
如图2所示,图2是本申请实施例提供的场景识别系统的结构示意图。该系统包括但不限于正样本装置210、骨干网络220和注意力网络230。
正样本装置210,设置为向所述骨干网络输出待识别场景数据。
正样本装置采集当前场景的数据,得到文本数据、图像数据或视频数据等待识别场景数据。
骨干网络220,设置为提取待识别场景数据的特征。
注意力网络230,包括不同场景标识对应的子网,提取的特征通过不同场景标识对应的子网,分别得到各场景标识对应的场景识别结果。
采用本实施例的方案,将提取的特征遍历注意力网络的场景标识,得到各场景标识对应的场景识别结果,识别结果精确度更高。
如图3所示,图3是本申请实施例提供的场景识别系统的结构示意图。该系统包括但不限于正样本装置310、负样本产生器320、场景标识装置330、骨干网络340和注意力网络350。
正样本装置310,设置为向骨干网络输出训练正样本。
负样本产生器320,设置为向所述骨干网络输出训练负样本。
其中训练正样本是选定场景文件,训练负样本是除选定场景外的其他场景文件。场景文件与场景数据的区别在于:场景数据是指直接存储在存储空间(例如内存)中的采集到的场景的数据,场景文件是场景数据的有序集合。举例说明,读取内存上0~127这128个扇区的数据,或者读取内存中X目录下的tellme.txt文件的前128字节。
场景标识装置330,设置为获取场景标识,并将所述场景标识输出给所述骨干网络。场景标识设置为标识选定场景。
骨干网络340,设置为根据所述场景标识提取训练正样本和训练负样本的训练特征。
注意力网络350,包括不同场景标识对应的子网和场景标识装置获取的场景标识对应的子网。所述骨干网络根据场景标识提取训练正样本和训练负样本的训练特征;将所述训练特征和所述场景标识输入待训练注意力网络,得到所述场景标识对应的待训练注意力网络的训练识别结果;根据所述训练识别结果、所述训练正样本的标签和所述训练负样本的标签,确定所述场景标识对应的待训练注意力网络的权重,得到所述场景标识对应的训练后的注意力网络。
其中,场景标识装置获取的场景标识对应的子网可以是新子网,即该训练过程为新子网(新场景)的训练过程;场景标识装置获取的场景标识对应的子网可以是已有的子网,即该训练过程为已有子网(已有场景)的更新过程。
可选的,可以通过按钮触发、按键触发或者发送指令等方式指示注意力网络识别场景数据、训练新场景网络或者更新已有场景网络。
现有技术中,需要增加新场景识别功能的情况下,根据原有场景识别功能对应的样本以及新场景识别功能对应的样本重新训练神经网络,例如,原神经网络可以识别场景A,而无法识别场景B,需要增加识别场景B的情况下,则根据场景A和场景B的样本重新训练神经网络,从而可以识别场景数据与场景A以及场景B的相似度,例如,场景数据与场景A的相似度为30%,与场景B的相似度为60%。采用本实施例的方案,注意力网络需要增加新场景识别功能的情况下,无需对整个注意力网络重新训练,仅对新场景对应的子网进行训练即可,训练方便快捷,识别灵活准确。
现有技术中,需要更新场景识别功能的情况下,根据需要更新的场景识别功能对应的样本以及其他无需更新的场景识别功能对应的样本重新训练神经网络,例如,原神经网络可以识别场景A和场景B,需要更新识别场景B的能力的情况下,则根据场景A和更新后的场景B的样本重新训练神经网络。采用本实施例的方案,注意力网络需要更新场景识别功能的情况下,无需对整个注意力网络重新训练,仅对需要更新的场景子网重新进行训练即可,更新方便快捷。
如图4所示,图4是本申请实施例提供的场景识别方法的流程示意图。该方法包括但不限于步骤S410和步骤S420。
步骤S410、提取待识别场景数据的特征。
场景数据至少包括场景视频数据、场景图片数据和场景文本数据之一。可选的,待识别场景数据的大小可以为64*64*3,相比于大小为32*32*3的场景数据,大小为64*64*3的场景数据分辨率更高,降维处理后更清楚。
步骤S420、根据提取的特征遍历注意力网络的场景标识,得到各场景标识对应的场景识别结果。
采用现有技术的方案,对于场景数据N而言,神经网络输出的场景识别结果为与各场景的近似度,而不是具体是否为哪个场景的准确结果,例如与场景A的近似度为40%,与场景B的近似度为30%,与场景C的近似度为30%,识别精确度差。采用本实施例的方案,将通过不同场景标识对应的子网,分别得到各场景标识对应的场景识别结果,例如,对于场景数据N而言,子网A输出识别结果1,表示与场景A近似,子网B输出识别结果0,表示与场景B不近似,子网C输出识别结果0,表示与场景C不近似,识别结果精确度更高。从而明确场景数据N为子网A对应的场景数据,识别结果精确度更高。
如图5所示,图5是本申请实施例提供的场景识别方法的流程示意图。该方法包括但不限于步骤510、步骤520、步骤530、步骤S540和步骤S550。
步骤510、根据场景标识提取训练正样本和训练负样本的训练特征。
其中训练正样本是选定场景文件,训练负样本是除选定场景外的其他场景文件。
步骤520、将所述训练特征和所述场景标识输入待训练注意力网络,得到所述场景标识对应的待训练注意力网络的训练识别结果。
场景标识对应待训练网络中已有子网或者新子网。
步骤530、根据所述训练识别结果、所述训练正样本的标签和所述训练负样本的标签,确定所述场景标识对应的待训练注意力网络的权重,得到所述场景标识对应的训练后的注意力网络。
步骤S540、提取待识别场景数据的特征。
步骤S550、根据提取的特征遍历注意力网络的场景标识,得到各场景标识对应的场景识别结果。
现有技术中,需要增加新场景识别功能的情况下,根据原有场景识别功能对应的样本以及新场景识别功能对应的样本重新训练神经网络,例如,原神经网络可以识别场景A,而无法识别场景B,需要增加识别场景B的情况下,则根据场景A和场景B的样本重新训练神经网络,从而可以识别场景数据与场景A以及场景B的相似度,例如,场景数据与场景A的相似度为30%,与场景B的相似度为60%。采用本实施例的方案,注意力网络需要增加新场景识别功能的情况下,无需对整个注意力网络重新训练,仅对新场景对应的子网进行训练即可,训练方便快捷,识别灵活准确。
现有技术中,需要更新场景识别功能的情况下,根据需要更新的场景识别功能对应的样本以及其他无需更新的场景识别功能对应的样本重新训练神经网络,例如,原神经网络可以识别场景A和场景B,需要更新识别场景B的能力的情况下,则根据场景A和更新后的场景B的样本重新训练神经网络。采用本实施例的方案,注意力网络需要更新场景识别功能的情况下,无需对整个注意力网络重新训练,仅对需要更新的场景子网重新进行训练即可,更新方便快捷。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本申请可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
以上所述,仅为本申请的示例性实施例而已,并非用于限定本申请的保护范围。
一般来说,本申请的多种实施例可以在硬件或专用电路、软件、逻辑或其任何组合中实现。例如,一些方面可以被实现在硬件中,而其它方面可以被实现在可以被控制器、微处理器或其它计算装置执行的固件或软件中,尽管本申请不限于此。
本申请的实施例可以通过移动装置的数据处理器执行计算机程序指令来实现,例如在处理器实体中,或者通过硬件,或者通过软件和硬件的组合。计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码。
本申请附图中的任何逻辑流程的框图可以表示程序步骤,或者可以表示相互连接的逻辑电路、模块和功能,或者可以表示程序步骤与逻辑电路、模块和功能的组合。计算机程序可以存储在存储器上。存储器可以具有任何适合于本地技术环境的类型并且可以使用任何适合的数据存储技术实现,例如但不限于只读存储器(ROM)、随机访问存储器(RAM)、光存储器装置和系统(数码多功能光碟DVD或CD光盘)等。计算机可读介质可以包括非瞬时性存储介质。数据处理器可以是任何适合于本地技术环境的类型,例如但不限于通用计算机、专用计算机、微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、可编程逻辑器件(FPGA)以及基于多核处理器架构的处理器。
通过示范性和非限制性的示例,上文已提供了对本申请的示范实施例的详细描述。但结合附图和权利要求来考虑,对以上实施例的多种修改和调整对本领域技术人员来说是显而易见的,但不偏离本发明的范围。因此,本发明的恰当范围将根据权利要求确定。
Claims (10)
1.一种场景识别方法,其特征在于:包括:
提取待识别场景数据的特征;
根据提取的特征遍历注意力网络的场景标识,得到各场景标识对应的场景识别结果。
2.根据权利要求1所述的方法,其特征在于,所述场景标识为所述注意力网络中子网对应的编码或者活跃度数值。
3.根据权利要求1所述的方法,其特征在于,在提取待识别场景数据的特征之前,还包括:
根据场景标识提取训练正样本和训练负样本的训练特征;
将所述训练特征和所述场景标识输入待训练注意力网络,得到所述场景标识对应的待训练注意力网络的训练识别结果;
根据所述训练识别结果、所述训练正样本的标签和所述训练负样本的标签,确定所述场景标识对应的待训练注意力网络的权重,得到所述场景标识对应的训练后的注意力网络。
4.根据权利要求3所述的方法,其特征在于,所述训练正样本为场景文件,所述训练负样本为非场景文件。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述场景数据至少包括场景视频数据、场景图片数据和场景文本数据之一。
6.一种场景识别系统,其特征在于,包括:
骨干网络,设置为提取待识别场景数据的特征;
注意力网络,包括不同场景标识对应的子网,提取的特征通过不同场景标识对应的子网,分别得到各场景标识对应的场景识别结果。
7.根据权利要求6所述的系统,其特征在于,还包括:
正样本装置,设置为向所述骨干网络输出待识别场景数据。
8.根据权利要求7所述的系统,其特征在于,还包括:场景标识装置,设置为获取场景标识,并将所述场景标识输出给所述骨干网络;负样本产生器,设置为向所述骨干网络输出训练负样本;所述正样本装置,还设置为向所述骨干网络输出训练正样本;
所述骨干网络根据场景标识提取训练正样本和训练负样本的训练特征;将所述训练特征和所述场景标识输入待训练注意力网络,得到所述场景标识对应的待训练注意力网络的训练识别结果;根据所述训练识别结果、所述训练正样本的标签和所述训练负样本的标签,确定所述场景标识对应的待训练注意力网络的权重,得到所述场景标识对应的训练后的注意力网络。
9.根据权利要求6至8任一项所述的系统,其特征在于,所述场景标识为所述注意力网络中子网对应的编码或者活跃度数值。
10.根据权利要求6至8任一项所述的系统,其特征在于,所述骨干网络设置为深度神经网络。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010633911.3A CN111797763A (zh) | 2020-07-02 | 2020-07-02 | 一种场景识别方法和系统 |
PCT/CN2021/104224 WO2022002242A1 (zh) | 2020-07-02 | 2021-07-02 | 一种场景识别方法和系统、电子设备、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010633911.3A CN111797763A (zh) | 2020-07-02 | 2020-07-02 | 一种场景识别方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111797763A true CN111797763A (zh) | 2020-10-20 |
Family
ID=72810124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010633911.3A Pending CN111797763A (zh) | 2020-07-02 | 2020-07-02 | 一种场景识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111797763A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926512A (zh) * | 2021-03-25 | 2021-06-08 | 深圳市无限动力发展有限公司 | 环境类型的识别方法、装置和计算机设备 |
WO2022002242A1 (zh) * | 2020-07-02 | 2022-01-06 | 北京灵汐科技有限公司 | 一种场景识别方法和系统、电子设备、介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108710847A (zh) * | 2018-05-15 | 2018-10-26 | 北京旷视科技有限公司 | 场景识别方法、装置及电子设备 |
CN108921013A (zh) * | 2018-05-16 | 2018-11-30 | 浙江零跑科技有限公司 | 一种基于深度神经网络的视觉场景识别系统及方法 |
CN109376717A (zh) * | 2018-12-14 | 2019-02-22 | 中科软科技股份有限公司 | 人脸对比的身份识别方法、装置、电子设备及存储介质 |
CN109754015A (zh) * | 2019-01-02 | 2019-05-14 | 京东方科技集团股份有限公司 | 用于画作多标签识别的神经网络及相关方法、介质和设备 |
US20200160124A1 (en) * | 2017-07-19 | 2020-05-21 | Microsoft Technology Licensing, Llc | Fine-grained image recognition |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
-
2020
- 2020-07-02 CN CN202010633911.3A patent/CN111797763A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200160124A1 (en) * | 2017-07-19 | 2020-05-21 | Microsoft Technology Licensing, Llc | Fine-grained image recognition |
CN108710847A (zh) * | 2018-05-15 | 2018-10-26 | 北京旷视科技有限公司 | 场景识别方法、装置及电子设备 |
CN108921013A (zh) * | 2018-05-16 | 2018-11-30 | 浙江零跑科技有限公司 | 一种基于深度神经网络的视觉场景识别系统及方法 |
CN109376717A (zh) * | 2018-12-14 | 2019-02-22 | 中科软科技股份有限公司 | 人脸对比的身份识别方法、装置、电子设备及存储介质 |
CN109754015A (zh) * | 2019-01-02 | 2019-05-14 | 京东方科技集团股份有限公司 | 用于画作多标签识别的神经网络及相关方法、介质和设备 |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
Non-Patent Citations (1)
Title |
---|
单巍;崔少华;周正;: "一种基于场景规则与深度卷积神经网络的行人检测方法", 河北师范大学学报(自然科学版), no. 02, 10 March 2020 (2020-03-10) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022002242A1 (zh) * | 2020-07-02 | 2022-01-06 | 北京灵汐科技有限公司 | 一种场景识别方法和系统、电子设备、介质 |
CN112926512A (zh) * | 2021-03-25 | 2021-06-08 | 深圳市无限动力发展有限公司 | 环境类型的识别方法、装置和计算机设备 |
CN112926512B (zh) * | 2021-03-25 | 2024-03-15 | 深圳市无限动力发展有限公司 | 环境类型的识别方法、装置和计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109753928B (zh) | 违章建筑物识别方法和装置 | |
CN110795595B (zh) | 基于边缘计算的视频结构化存储方法、装置、设备及介质 | |
WO2022002242A1 (zh) | 一种场景识别方法和系统、电子设备、介质 | |
CN110781711A (zh) | 目标对象识别方法、装置、电子设备及存储介质 | |
CN111797762A (zh) | 一种场景识别方法和系统 | |
CN111046971A (zh) | 图像识别方法、装置、设备及计算机可读存储介质 | |
CN112016531A (zh) | 模型训练方法、对象识别方法、装置、设备及存储介质 | |
CN110874878B (zh) | 行人分析方法、装置、终端及存储介质 | |
CN112381104A (zh) | 一种图像识别方法、装置、计算机设备及存储介质 | |
CN106850338B (zh) | 一种基于语义分析的r+1类应用层协议识别方法与装置 | |
CN111797763A (zh) | 一种场景识别方法和系统 | |
CN111931548B (zh) | 人脸识别系统、建立人脸识别数据的方法及人脸识别方法 | |
CN111680753A (zh) | 一种数据标注方法、装置、电子设备及存储介质 | |
JP7287511B2 (ja) | 情報処理装置、容疑者情報生成方法及びプログラム | |
WO2014193220A2 (en) | System and method for multiple license plates identification | |
CN112733666A (zh) | 一种难例图像的搜集、及模型训练方法、设备及存储介质 | |
CN111652145B (zh) | 一种公式检测的方法、装置、电子设备和存储介质 | |
KR20220122455A (ko) | 영상 데이터에 포함된 객체 분할 방법 및 이를 수행하는 장치 | |
KR20170082025A (ko) | 기계 학습 기반 얼굴 인식을 이용한 저작권을 가진 동영상 식별 장치 및 방법 | |
CN113705650B (zh) | 一种人脸图片集的处理方法、装置、介质和计算设备 | |
CN112241470B (zh) | 一种视频分类方法及系统 | |
CN110659631A (zh) | 车牌识别方法和终端设备 | |
CN110210425B (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN104268504A (zh) | 图片识别方法和装置 | |
CN111401360A (zh) | 优化车牌检测模型的方法及系统、车牌检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |