CN108549857A - 事件检测模型训练方法、装置及事件检测方法 - Google Patents
事件检测模型训练方法、装置及事件检测方法 Download PDFInfo
- Publication number
- CN108549857A CN108549857A CN201810286637.XA CN201810286637A CN108549857A CN 108549857 A CN108549857 A CN 108549857A CN 201810286637 A CN201810286637 A CN 201810286637A CN 108549857 A CN108549857 A CN 108549857A
- Authority
- CN
- China
- Prior art keywords
- training
- image frame
- training image
- video
- frame set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种事件检测模型训练方法、装置及事件检测方法,事件检测模型训练方法包括:获取多个带有标签的训练视频中的训练图像帧;使用目标神经网络模型为每个训练视频中的训练图像帧提取特征向量;以训练视频为单位,对每个训练视频的训练图像帧的特征向量进行分布匹配,使每个训练视频对应至少一个训练图像帧集合;针对每个训练视频,按照该训练图像帧对应的至少一个训练图像帧集合中训练图像帧训练难度由大到小的顺序,对至少一个训练图像帧集合排序;并按排序依次使用每个训练图像帧集合对目标神经网络模型进行训练,获得事件检测模型。本申请实施例能够实现为训练视频进行更准确的分类。
Description
技术领域
本发明涉及深度学习技术领域,具体而言,涉及一种事件检测模型训练方法、装置及事件检测方法。
背景技术
随着神经网络在图像、视频、语音、文本等领域的迅猛发展,推动了一系列智能产品的落地,用户对基于神经网络的各种模型的精度要求也越来越高。在基于神经网络构建事件检测模型的时候,为了让神经网络充分学习视频中图像的特征,以提升事件检测模型的分类,需要将大量的训练视频输入到神经网络中,对神经网络进行训练。
但是在实际中,在使用大量的训练视频对神经网络进行训练的过程中,由于视频与视频之间存在个体差异,导致神经网络对不同的视频进行学习的难度通常是不一样的。对于画面较为复杂的视频,神经网络往往无法学习到其中区别于其他视频的一些特征,进而导致最终生成的事件检测模型对视频进行动作检测时的精度低,分类结果的准确率差。
发明内容
有鉴于此,本发明实施例的目的在于提供一种事件检测模型训练方法、装置及事件检测方法,能够提高事件检测模型的精度,提升分类结果的准确率。
第一方面,本发明实施例提供了一种事件检测模型训练方法,该方法包括:
获取多个带有标签的训练视频中的训练图像帧;
使用目标神经网络模型为每个所述训练视频中的所述训练图像帧提取特征向量;
以训练视频为单位,对每个训练视频的所述训练图像帧的特征向量进行分布匹配,使每个训练视频对应至少一个训练图像帧集合;
针对每个训练视频,按照该训练图像帧对应的至少一个训练图像帧集合中训练图像帧训练难度由大到小的顺序,对所述至少一个训练图像帧集合排序;并
按排序依次使用每个训练图像帧集合对所述目标神经网络模型进行训练,获得事件检测模型。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中:所述获取多个带有标签的训练视频中的训练图像帧,具体包括:
获取多个带有标签的训练视频;
按照预设采样频率,对所述训练视频进行采样;
将对每个训练视频采样得到的图像作为该训练视频中的训练图像帧。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中所述对每个训练视频的所述训练图像帧的特征向量进行分布匹配,具体包括:
分别对每个训练视频包括的训练图像帧的特征向量进行聚类,获得每个训练视频的第一聚类结果。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中:采用如下方式确定每个训练图像帧集合的训练难度:
从训练图像帧集合中确定基准特征向量;
确定该训练图像帧集合中其他特征向量与所述基准特征向量的距离;
将该训练图像帧集合中与所述基准特征向量之间距离最大的特征向量,与所述基准特征向量之间的距离作为对该训练图像帧集合训练难度的度量,且距离越大表征训练难度越大。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,其中:采用如下方式确定每个训练图像帧集合的训练难度:
针对每个训练图像帧集合,确定使用所述目标神经网络模型为该训练图像帧集合中各个训练图像帧进行分类的正确率;
根据每个训练图像帧集合对应的正确率,确定该训练图像帧集合的训练难度,且正确率越高,训练难度越小。
结合第一方面,本发明实施例提供了第一方面的第五种可能的实施方式,其中:针对每个训练图像帧集合,确定使用所述目标神经网络模型为该集合各个训练图像帧进行分类的正确率,包括:
针对每个训练图像帧集合中的每个训练图像帧,确定使用所述目标神经网络模型为该训练图像帧第一次分类正确对应的轮数;
将预先设置的轮数对应的权值,确定该训练图像帧的权值;其中,轮数越早,对应的权值越大;
针对每个训练图像帧集合,根据该集合各个训练图像帧对应的权值确定该训练图像帧集合对应的分类正确率。
结合第一方面,本发明实施例提供了第一方面的第六种可能的实施方式,其中:所述目标神经网络模型包括:目标神经网络以及分类器;
所述使用每个训练图像帧集合对所述目标神经网络模型进行训练,具体包括:
将每个训练图像帧集合中的训练图像帧输入至所述目标神经网络,获取每一张训练图像帧的分类结果;
执行下述比对操作,直至每个训练图像帧集合中所有训练图像帧的分类结果完全一致,且该分类结果与所述训练视频对应的标签一致;
所述比对操作包括:
将属于同一训练图像帧集合中所有训练图像帧的当前分类结果分别与该训练视频的标签进行比对;
当属于训练图像帧集合中的所有训练图像帧的分类结果并不完全一致,和/或,当属于训练图像帧集合中训练图像帧的分类结果与所述训练视频对应的标签不一致时,调整所述分类器以及所述目标神经网络模型的参数;
使用进行了参数调整的目标神经网络模型和所述分类器,获取该属于同一训练图像帧集合中的所有训练图像帧的新的分类结果,并再次执行所述比对操作。
结合第一方面,本发明实施例提供了第一方面的第七种可能的实施方式,其中:
所述使用目标神经网络模型为所述训练图像帧提取特征向量之前,还包括:
将所述训练视频中的所述训练图像帧输入待训练的目标神经网络模型,对所述待训练的目标神经网络模型进行训练,得到所述目标神经网络模型。
第二方面,本发明实施例还提供一种事件检测方法,该方法包括:
获取待分类视频;
将所述待分类视频输入至通过上述第一方面任意一项的事件检测模型训练方法得到的事件检测模型中,得到所述待分类视频的分类结果;
所述事件检测模型包括:目标神经网络以及目标分类器。
第三方面,本发明实施例还提供一种事件检测模型训练装置,该装置包括:
获取模块,用于获取多个带有标签的训练视频中的训练图像帧;
提取模块,用于使用目标神经网络模型为每个所述训练视频中的所述训练图像帧提取特征向量;
分布匹配模块,用于以训练视频为单位,对每个训练视频的所述训练图像帧的特征向量进行分布匹配,使每个训练视频对应至少一个训练图像帧集合;
排序模块,用于针对每个训练视频,按照该训练图像帧对应的至少一个训练图像帧集合中训练图像帧训练难度由大到小的顺序,对所述至少一个训练图像帧集合排序;
训练模块,用于按排序依次使用每个训练图像帧集合对所述目标神经网络模型进行训练,获得事件检测模型。
本申请实施例在使用训练视频对事件检测模型进行训练的之前,先按照训练难度对训练视频中的训练图像帧进行排序,在对事件检测模型进行训练的时候,先使用训练难度较小的训练图像帧进行训练,然后使用训练难度较大的训练图像帧进行训练,从而能够在学习到训练难度较小的训练视频帧特征的基础上,学习训练难度较大的训练图像帧与其他训练难度较小的训练图像帧之间的差异性特征,采用这种事件检测模型训练方法得到的事件检测模型,能够为训练视频进行更准确的分类。为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例一所提供的一种事件检测模型训练方法的流程图;
图2示出了本申请实施例三提供的一种确定每个训练图像帧集合的训练难度的具体方法的流程图;
图3示出了本申请实施例四提供的另外一种确定每个训练图像帧集合的训练难度的方法的流程图;
图4示出了本申请实施例五提供的一种针对每个训练图像帧集合,确定使用目标神经网络模型为该集合各个训练图像帧进行分类的正确率的方法的流程图;
图5示出了本申请实施例六还提供的一种使用每个训练图像帧集合对目标神经网络模型进行训练的方法的流程图;
图6示出了本申请实施例六还提供的一种比对操作的方法的流程图;
图7示出了本申请实施例七提供的事件检测模型训练装置的结构示意图;
图8示出了本申请实施例八提供的一种事件检测方法的流程图;
图9示出了本申请实施例九提供的一种计算机设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前在使用训练视频对事件检测模型进行训练的时候,是直接将训练视频输入至神经网络和分类器,对神经网络和分类器进行训练的,这种训练方式导致了如果将训练难度比较大的训练视频先输入至目标神经网络模型,神经网络很难学习到这些训练难度比较大的训练视频中的特异特征,导致最终得到的事件检测模型对这类视频分类结果不准确,基于此,本申请提供的事件检测模型训练方法、装置及事件检测方法,可以提高事件检测模型的精度,提升分类结果的准确率。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种事件检测模型训练方法进行详细介绍,使用该方法得到的事件检测模型,能够有效利用样本中大部分信息,避免在训练过程中对训练难度较大的样本的选择性丢失,提高模型的精度。
参见图1所示,本申请实施例一提供的事件检测模型训练方法包括:
S101:获取多个带有标签的训练视频中的训练图像帧。
在具体实现的时候,训练视频通常是一段比较长的视频,其一般包括至少一个场景;当训练视频中包括多个场景时,一般会将某个场景作为主要场景,并基于该主要场景对训练视频进行标签的标注。
例如在一段游泳比赛的视频中,除了游泳比赛这个场景外,还可能会涉及到观众席场景以及运动员跟拍场景,但游泳比赛会在整个视频中占据较大的比重,因此将游泳比赛作为主要场景,该视频的标签为游泳比赛。
使用整个的训练视频对分类模型进行训练,通常都会存在由于输入的数据量较大而造成模型收敛速度降低,训练过程需要耗费的时间长,资源多等问题。因此,为了加快模型收敛,减少模型训练过程中需要耗费的时间和资源,需要从整个的训练视频中获得训练图像帧;训练图像帧为整个训练视频所包括的所有图像的部分。一般地,可以采用按照预设的采样频率,分别对多个训练视频进行采样,将对每个训练视频采样得到的图像作为该训练视频中的训练图像帧,然后基于得到的每个训练视频的训练图像帧对事件检测模型进行训练。
S102:使用目标神经网络模型为每个训练视频中的训练图像帧提取特征向量。
在具体实现的时候,目标神经网络模型可以采用卷积目标神经网络模型(Convolutional Neural Network,CNN)对训练视频中的多张训练图像帧进行特征提取,获取与每张训练图像帧对应的特征向量。
此处,为了加快事件检测模型训练过程中的收敛,所使用的目标网络模型可以是将训练视频中的训练图像帧输入待训练的目标神经网络模型,对待训练的目标神经网络模型进行训练而得到的。
此时,所得到的目标神经网络在对训练视频进行分类时,就已经有了一定的精度,但并不能达到精度使用需求。因为其训练过程使得其并不能学习到训练难度较大的训练图像帧与其他训练难度较小的训练图像帧之间的差异性特征,而是会对训练难度较大的训练图像帧区别于训练难度较小的训练图像帧的差异性特征选择性丢失,此时就要对目标神经网络进行再训练,提高其精度。
S103:以训练视频为单位,对每个训练视频的所述训练图像帧的特征向量进行分布匹配,使每个训练视频对应至少一个训练图像帧集合。
在具体实现的时候,为每个训练图像帧提取的特征向量实际上可以看做映射到高维空间中的点,点与点之间的距离越小,则说明对应的特征向量的相似度越高,也即,特征向量表征的训练图像帧越相似。对于训练难度类似的训练图像帧,相似度通常也是类似的。因此可以通过这一原理,对每个训练是视频中的训练图像帧的特征向量进行分布匹配,将每个训练视频所包括的训练图像帧按照相互之间的相似度,划分到训练图像帧集合中,且每个训练视频对应有还少一个训练图像帧集合。若两张训练图像帧位于同一个训练图像帧集合中,则说明两张训练图像帧的相似度在一定范围之内,训练难度也接近。
具体地,本申请实施例二提供一种对多个训练视频的训练图像帧的特征向量进行分布匹配的具体方法,包括:
分别对每个训练视频包括的训练图像帧的特征向量进行聚类,获得每个训练视频的第一聚类结果。
在具体实现的时候,在上述实施例二,可以将为训练图像帧提取的特征向量看作是映射到高维空间中的点,根据点与点之间的距离,分别对这些点进行聚类。将距离在预设阈值以内的点划分到同一个簇中。
具体地,在上述实施例二中,在对训练视频帧的特征向量进行聚类时,是以训练视频为单位的,即将每个训练视频包括的训练图像帧的特征向量进行聚类,获得每个训练视频的聚类结果,将每个训练视频的所包括的特征向量分别划归到不同的簇中,该簇即为本申请中的训练图像帧集合。
此处,由于每个训练视频中会包括多个场景,且并非是所有训练视频中包括的场景是一样的。因此采用此种分别对每个训练视频包括的训练图像帧的特征向量进行聚类的方法,能够聚类的时候,清晰的将每个训练视频的不同场景划分开来。
例如在训练视频A中,包括的场景有游泳比赛,游泳比赛观众席,游泳运动员特写;那么对训练视频A中包括的训练视频帧进行聚类,所得到的与训练视频A对应的训练图像帧集合分别为:游泳比赛,游泳比赛观众席,游泳运动员特写。在训练视频B中,包括的场景有马术比赛,马术比赛观众席,马术运动员特写;那么对训练视频B中包括的训练视频帧进行聚类,所得到的与训练视频B对应的训练图像帧集合分别为:游马术比赛,马术比赛观众席,马术运动员特写。
S104:针对每个训练视频,按照该训练图像帧对应的至少一个训练图像帧集合中训练图像帧训练难度由大到小的顺序,对所述至少一个训练图像帧集合排序。
在具体实现的时候,针对每个训练视频,在每个训练图像帧集合中所包括的训练图像帧的数据分布本身是比较接近的,因此神经网络对于属于同一个训练图像帧集合中的训练图像帧的训练难度通常都是类似的;而对于不同的训练图像帧集合中的训练图像帧的训练难度通常都有大小区别。因此为了能够在充分学习到训练难度较小的训练图像帧的特征基础上,学习训练难度较大的训练图像帧的特征,需要分别对每个训练视频对应的至少一个训练图像帧集合中训练图像帧训练难度由大到小的顺序。
具体地,参见图2所示,本申请实施例三提供一种确定每个训练图像帧集合的训练难度的具体方法,包括:
S201:从训练图像帧集合中确定基准特征向量;
此处,将训练图像帧集合中所包括的所有训练图像帧的特征向量映射到高维空间中,基准特征向量可以取位于与中心位置最近的点对应的特征向量。另外,还可以采用其他方式确定基准特征向量,如随机从训练图像帧集合中抽取任意一个训练图像帧对应的特征向量,或者将训练图像帧集合中离中心位置最远的点对应的特征向量作为基准特征向量。
S202:确定该训练图像帧集合中其他特征向量与基准特征向量的距离。
在具体实现的时候,训练图像帧集合中其他特征向量与基准特征向量的距离可以是欧式距离、曼哈顿距离、切比雪夫距离、闵可夫斯基距离、标准化欧式距离、马氏距离、夹角余弦、汉明距离、杰卡德距离、相关距离以及信息熵中任意一种。
S203:将该训练图像帧集合中与基准特征向量之间距离最大的特征向量,与基准特征向量之间的距离作为对该训练图像帧集合训练难度的度量,且距离越大表征训练难度越大。
具体地,当每一个训练图像帧集合中所包括的所有训练图像帧的特征向量映射为高维空间中的点后,这些点的聚合度越大,则说明训练图像帧的相似度越大,则他们所包括的相同或者相似特征也就越多,差异性特征也就越小,训练难度也就越小。训练图像帧集合中与基准特征向量之间距离实际上可以用于衡量这些点的聚合度;距离越大,则聚合度越小,训练难度也越大;距离越小,则聚合度越大,训练难度也越小。因此,将每一个训练图像帧集合中与该训练图像帧集合中的基准特征向量之间距离最大的特征向量,与基准特征向量之间的距离作为对该训练图像帧集合训练难度的度量。
另外,参见图3所示,本申请实施例四还提供另外一种确定每个训练图像帧集合的训练难度的方法,包括:
S301:针对每个训练图像帧集合,确定使用目标神经网络模型为该训练图像帧集合中各个训练图像帧进行分类的正确率。
S302:根据每个训练图像帧集合对应的正确率,确定该训练图像帧集合的训练难度,且正确率越高,训练难度越小。
在具体实现的时候,若目标神经网络模型为某个训练图像帧集合进行分类的正确率高,则说明其很好的学习到了该训练图像帧集合中的训练图像帧的普遍特征,以及各训练图像帧之间的差异特征,说明该训练图像帧集合中的训练图像帧的训练难度较小。
若目标神经网络模型为某个训练图像帧集合进行分类的正确率低,则说明其并未学习到该训练图像帧集合中的训练图像帧的普遍特征,和/或并未学习到各训练图像帧的差异特征,说明该训练图像帧集合中的训练图像帧的训练难度较大。因此,能够根据每个训练图像帧集合对应的正确率,确定各个训练图像帧集合的训练难度,且正确率越高的训练图像帧集合,对应的训练难度越小。
参见图4所示,本申请实施例五提供一种针对每个训练图像帧集合,确定使用目标神经网络模型为该集合各个训练图像帧进行分类的正确率的方法,包括:
S401:针对每个训练图像帧集合中的每个训练图像帧,确定使用目标神经网络模型为该训练图像帧第一次分类正确对应的轮数;
S402:将预先设置的轮数对应的权值,确定该训练图像帧的权值;其中,轮数越早,对应的权值越大;
S403:针对每个训练图像帧集合,根据该集合各个训练图像帧对应的权值确定该训练图像帧集合对应的分类正确率。
在具体实现的时候,在使用训练图像帧对目标神经网络模型训练的过程中,对于每张训练图像帧,训练难度越小,目标神经网络模型越快学习到该训练图像帧的特征,越能够更早的实现对该训练图像帧的正确分类;反之,训练难度越大,目标神经网络模型越慢月息到该训练图像帧的特征,越晚实现对该训练图像帧的正确分类。因此,能够根据目标神经网络模型对每个训练图像帧集合中的训练图像帧分类正确的早晚,来确定每个训练图像帧集合中训练图像帧的训练难度。
在根据目标神经网络模型对每个训练图像帧集合中的训练图像帧分类正确的早晚,来确定每个训练图像帧集合中训练图像帧的训练难度的时候,可以通过按照目标神经网络模型对每个训练图像帧集合中的训练图像帧分类正确的早晚对该训练图像帧加权的方式实现。这里,采用目标神经网络模型为该训练图像帧第一次分类正确对应的轮数来标识目标神经网络为该训练图像帧正确分类的早晚。目标神经网络模型为该训练图像帧第一次分类正确对应的轮数越晚,则说明目标神经网络模型花费更多的实现学习到该训练图像帧的特征,该训练图像帧对应的训练难度越大;目标神经网络模型为该训练图像帧第一次分类正确对应的轮数越早,则说明目标神经网络模型花费更少的实现学习到该训练图像帧的特征,该训练图像帧对应的训练难度越小。与每个轮数对应有一个预先设置的权值,轮数越早,则对应的权值越大。预设轮数的数量,当完成对目标神经网络的预设数量轮数的训练后,基于此时目标神经网络对各个集合中各个训练图像帧对应的权值,确定该训练图像帧集合对应的分类正确率。
此处,当完成对目标神经网络的预设数量轮数训练后,被分类正确的训练图像帧都对应有一个权值;可以采用将每一个训练图像帧集合中,所有分类正确的训练图像帧对应的权值相加的方式,计算该训练图像帧集合对应的分类正确率。在得到所有训练图像帧集合对应的分类正确率后,将分类正确率最大的训练图像帧集合中的训练图像帧训练难度最小,分类正确率最小的训练图像帧集合中的训练图像帧训练难度最大,基于该原理实现按照多个训练图像帧集合中训练图像帧训练难度由小到大的顺序,对多个训练图像帧集合排序。
S105:按排序依次使用每个训练图像帧集合对目标神经网络模型进行训练,获得事件检测模型。
在具体实现的时候,目标神经网络模型包括:目标神经网络以及目标分类器。
对目标神经网络模型的训练过程,也即使用目标神经网络模型对训练图像帧集合中目标图像帧进行分类之后,根据分类结果的正确性,调整目标神经网络和目标分类器的参数,使得目标神经网络模型对目标图像帧进行分类的分类结果的正确率越来越高的过程。
具体地,参见图5所示,本申请实施例六还提供一种使用每个训练图像帧集合对目标神经网络模型进行训练的方法,包括:
S501:将每个训练图像帧集合中的训练图像帧输入至目标神经网络,获取每一张训练图像帧的分类结果。
S502:执行比对操作,直至每个训练图像帧集合中所有训练图像帧的分类结果完全一致,且该分类结果与所述训练视频对应的标签一致。
在具体实现的时候,在将每个训练图像帧集合中的训练图像帧输入至目标神经网络后,由于在对训练视频的训练图像帧的特征向量进行分布匹配,得到与每个训练视频对应的训练图像帧集合的时候,在理论上是分别将每个训练视频中属于同一场景的训练视频帧划分至一个训练图像帧集合中,因此,就某个训练图像帧集合而言,其实际上应当包括了某个训练视频中某个场景对应的全部的训练图像帧。而训练视频中对应与同一个场景的图像帧是会随着时间有一定的变化,因此将每个训练图像帧集合中的训练图像帧输入至目标神经网络,不仅使得目标神经网络能够学习到每一张训练图像帧的特征,还能够学习到训练图像帧之间的内在联系。
在获取属于同一训练图像帧中的每一张训练图像帧的分类结果后,将每一张训练图像帧的分类结果与训练视频的标签进行比对,若每一张训练图像帧的分类结果与训练视频的标签进行比对结果都一样,那么目标神经网络模型就已经学习到该训练视频中属于该训练图像帧集合中每一张训练图像帧的特征。
此处,需要注意的是,训练视频的标签可以是一个,也可以是多个;通常的,当训练视频所对应的训练图像帧集合的数量,通常不小于训练视频的标签数量。
若有部分训练图像帧的分类结果与训练视频的标签进行比对结果不一样,则说明当前目标神经网络模型并未学习到该训练视频中属于该训练图像帧集合中每一张训练图像帧的特征,需要对目标神经网络模型的参数进行调整,基于调整后的参数,继续对目标神经网络模型继续进行训练。
参见图6所示,在本实施例六中,比对操作包括:
S601:比对属于同一训练图像帧集合中所有训练图像帧的当前分类结果分别与该训练视频的标签是否完全一致;如果是,则跳转至S702;如果否,则跳转至S703;
S602:完成对目标神经网络模型的本轮训练;本流程结束。
S603:调整目标分类器以及目标神经网络模型的参数;
S604:使用进行了参数调整的目标神经网络模型和分类器,获取该属于同一训练视频的所有训练图像帧的新的分类结果,并再次执行S601。
具体地,要保证目标神经网络模型的精度越来越高,就是要使得目标神经网络模型对所有训练图像帧的分类是正确的,因此,在属于同一训练图像帧集合的所有训练图像帧的当前分类结果分别与该训练视频的标签并非完全一致的时候,调整目标神经网络和目标分类器的参数,使得调整了参数后的目标神经网络模型对训练图像帧的分类结果的正确率,要高于参数调整之前目标神经网络模型对训练图像帧的分类结果的正确率。
本申请实施例在使用训练视频对事件检测模型进行训练的之前,先按照训练难度对各个训练视频中的训练图像帧进行排序,在对事件检测模型进行训练的时候,先使用训练难度较小的训练图像帧进行训练,然后使用训练难度较大的训练图像帧进行训练,从而能够在学习到每个训练视频中训练难度较小的训练视频帧特征的基础上,学习训练难度较大的训练图像帧与其他训练难度较小的训练图像帧之间的差异性特征,采用这种事件检测模型训练方法得到的事件检测模型,能够为训练视频进行更准确的分类。
基于同一发明构思,本发明实施例中还提供了与事件检测模型训练方法对应的事件检测模型训练装置,由于本发明实施例中的装置解决问题的原理与本发明实施例上述事件检测模型训练方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参见图7所示,本申请实施例七提供的事件检测模型训练装置包括:
获取模块71,用于获取多个带有标签的训练视频中的训练图像帧;
提取模块72,用于使用目标神经网络模型为每个所述训练视频中的所述训练图像帧提取特征向量;
分布匹配模块73,用于以训练视频为单位,对每个训练视频的所述训练图像帧的特征向量进行分布匹配,使每个训练视频对应至少一个训练图像帧集合;
排序模块74,用于针对每个训练视频,按照该训练图像帧对应的至少一个训练图像帧集合中训练图像帧训练难度由大到小的顺序,对所述至少一个训练图像帧集合排序;
训练模块75,用于按排序依次使用每个训练图像帧集合对所述目标神经网络模型进行训练,获得事件检测模型。
本申请实施例在使用训练视频对事件检测模型进行训练的之前,先按照训练难度对各个训练视频中的训练图像帧进行排序,在对事件检测模型进行训练的时候,先使用训练难度较小的训练图像帧进行训练,然后使用训练难度较大的训练图像帧进行训练,从而能够在学习到每个训练视频中训练难度较小的训练视频帧特征的基础上,学习训练难度较大的训练图像帧与其他训练难度较小的训练图像帧之间的差异性特征,采用这种事件检测模型训练方法得到的事件检测模型,能够为训练视频进行更准确的分类。
可选地,获取模块71,具体用于:获取多个带有标签的训练视频;
按照预设采样频率,对训练视频进行采样;
将对每个训练视频采样得到的图像作为该训练视频中的训练图像帧。
可选地,分布匹配模块73,具体用于:分别对每个训练视频包括的训练图像帧的特征向量进行聚类,获得每个训练视频的第一聚类结果。
可选地,排序模块74具体用于根据下述步骤确定每个训练图像帧集合的训练难度:
从训练图像帧集合中确定基准特征向量;
确定该训练图像帧集合中其他特征向量与所述基准特征向量的距离;
将该训练图像帧集合中与所述基准特征向量之间距离最大的特征向量,与所述基准特征向量之间的距离作为对该训练图像帧集合训练难度的度量,且距离越大表征训练难度越大。
可选地,排序模块74具体用于根据下述步骤确定每个训练图像帧集合的训练难度:
针对每个训练图像帧集合,确定使用所述目标神经网络模型为该训练图像帧集合中各个训练图像帧进行分类的正确率;
根据每个训练图像帧集合对应的正确率,确定该训练图像帧集合的训练难度,且正确率越高,训练难度越小。
可选地,排序模块74具体用于根据下述步骤针对每个训练图像帧集合,确定使用目标神经网络模型为该集合各个训练图像帧进行分类的正确率:
针对每个训练图像帧集合中的每个训练图像帧,确定使用目标神经网络模型为该训练图像帧第一次分类正确对应的轮数;
将预先设置的轮数对应的权值,确定该训练图像帧的权值;其中,轮数越早,对应的权值越大;
针对每个训练图像帧集合,根据该集合各个训练图像帧对应的权值确定该训练图像帧集合对应的分类正确率。
可选地,目标神经网络模型包括:目标神经网络以及分类器;
训练模块75,具体用于根据下述步骤使用每个训练图像帧集合对目标神经网络模型进行训练:
将每个训练图像帧集合中的训练图像帧输入至所述目标神经网络,获取每一张训练图像帧的分类结果;
执行下述比对操作,直至每个训练图像帧集合中所有训练图像帧的分类结果完全一致,且该分类结果与所述训练视频对应的标签一致;
所述比对操作包括:
将属于同一训练图像帧集合中所有训练图像帧的当前分类结果分别与该训练视频的标签进行比对;
当属于训练图像帧集合中的所有训练图像帧的分类结果并不完全一致,和/或,当属于训练图像帧集合中训练图像帧的分类结果与所述训练视频对应的标签不一致时,调整所述分类器以及所述目标神经网络模型的参数;
使用进行了参数调整的目标神经网络模型和所述分类器,获取该属于同一训练图像帧集合中的所有训练图像帧的新的分类结果,并再次执行所述比对操作。
可选地,还包括:目标神经网络模型训练模块76,用于使用目标神经网络模型为训练图像帧提取特征向量之前,将训练视频中的训练图像帧输入待训练的目标神经网络模型,对待训练的目标神经网络模型进行训练,得到目标神经网络模型。
参见图8所示,本申请实施例八还提供一种事件检测方法,其特征在于,该方法包括:
S801:获取待分类视频;
S802将待分类视频输入至通过本申请任一实施例提供的事件检测模型训练方法得到的事件检测模型中,得到待分类视频的分类结果;
事件检测模型包括:目标神经网络以及目标分类器。
本申请实施例九还提供一种事件检测装置,其特征在于,该装置包括:
待分类视频获取模块,用于获取待分类视频;
分类模块,用于将待分类视频输入至通过本申请任一实施例提供的事件检测模型训练方法得到的事件检测模型中,得到待分类视频的分类结果;
事件检测模型包括:目标神经网络以及目标分类器。
对应于图1中的事件检测模型训练方法,本发明实施例九还提供了一种计算机设备,如图9所示,该设备包括存储器1000、处理器2000及存储在该存储器1000上并可在该处理器2000上运行的计算机程序,其中,上述处理器2000执行上述计算机程序时实现上述事件检测模型训练方法的步骤。
具体地,上述存储器1000和处理器2000能够为通用的存储器和处理器,这里不做具体限定,当处理器2000运行存储器1000存储的计算机程序时,能够执行上述事件检测模型训练方法,从而解决现有神经网络无法学习训练难度较大的图像中区别于训练难度较小的图像中的差异性特征造成的事件检测模型的精度低,分类准确率差的问题,进而达到提高事件检测模型的精度,提升分类结果的准确率的效果。
对应于图1中的事件检测模型训练方法,本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述事件检测模型训练方法的步骤。
具体地,该存储介质能够为通用的存储介质,如移动磁盘、硬盘等,该存储介质上的计算机程序被运行时,能够执行上述事件检测模型训练方法,从而解决现有神经网络无法学习训练难度较大的图像中区别于训练难度较小的图像中的差异性特征造成的事件检测模型的精度低,分类准确率差的问题,进而达到提高事件检测模型的精度,提升分类结果的准确率的效果。
本发明实施例所提供的事件检测模型训练方法、装置及事件检测方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种事件检测模型训练方法,其特征在于,该方法包括:
获取多个带有标签的训练视频中的训练图像帧;
使用目标神经网络模型为每个所述训练视频中的所述训练图像帧提取特征向量;
以训练视频为单位,对每个训练视频的所述训练图像帧的特征向量进行分布匹配,使每个训练视频对应至少一个训练图像帧集合;
针对每个训练视频,按照该训练图像帧对应的至少一个训练图像帧集合中训练图像帧训练难度由大到小的顺序,对所述至少一个训练图像帧集合排序;并
按排序依次使用每个训练图像帧集合对所述目标神经网络模型进行训练,获得事件检测模型。
2.根据权利要求1所述的方法,其特征在于,所述获取多个带有标签的训练视频中的训练图像帧,具体包括:
获取多个带有标签的训练视频;
按照预设采样频率,对所述训练视频进行采样;
将对每个训练视频采样得到的图像作为该训练视频中的训练图像帧。
3.根据权利要求1所述的方法,其特征在于,所述对每个训练视频的所述训练图像帧的特征向量进行分布匹配,具体包括:
分别对每个训练视频包括的训练图像帧的特征向量进行聚类,获得每个训练视频的第一聚类结果。
4.根据权利要求1所述的方法,其特征在于,采用如下方式确定每个训练图像帧集合的训练难度:
从训练图像帧集合中确定基准特征向量;
确定该训练图像帧集合中其他特征向量与所述基准特征向量的距离;
将该训练图像帧集合中与所述基准特征向量之间距离最大的特征向量,与所述基准特征向量之间的距离作为对该训练图像帧集合训练难度的度量,且距离越大表征训练难度越大。
5.根据权利要求1所述的方法,其特征在于,采用如下方式确定每个训练图像帧集合的训练难度:
针对每个训练图像帧集合,确定使用所述目标神经网络模型为该训练图像帧集合中各个训练图像帧进行分类的正确率;
根据每个训练图像帧集合对应的正确率,确定该训练图像帧集合的训练难度,且正确率越高,训练难度越小。
6.根据权利要求5所述的方法,其特征在于,针对每个训练图像帧集合,确定使用所述目标神经网络模型为该训练图像帧集合各个训练图像帧进行分类的正确率,包括:
针对每个训练图像帧集合中的每个训练图像帧,确定使用所述目标神经网络模型为该训练图像帧第一次分类正确对应的轮数;
将预先设置的轮数对应的权值,确定该训练图像帧的权值;其中,轮数越早,对应的权值越大;
针对每个训练图像帧集合,根据该集合各个训练图像帧对应的权值确定该训练图像帧集合对应的分类正确率。
7.根据权利要求1所述的方法,其特征在于,所述目标神经网络模型包括:目标神经网络以及分类器;
所述使用每个训练图像帧集合对所述目标神经网络模型进行训练,具体包括:
将每个训练图像帧集合中的训练图像帧输入至所述目标神经网络,获取每一张训练图像帧的分类结果;
执行下述比对操作,直至每个训练图像帧集合中所有训练图像帧的分类结果完全一致,且该分类结果与所述训练视频对应的标签一致;
所述比对操作包括:
将属于同一训练图像帧集合中所有训练图像帧的当前分类结果分别与该训练视频的标签进行比对;
当属于训练图像帧集合中的所有训练图像帧的分类结果并不完全一致,和/或,当属于训练图像帧集合中训练图像帧的分类结果与所述训练视频对应的标签不一致时,调整所述分类器以及所述目标神经网络模型的参数;
使用进行了参数调整的目标神经网络模型和所述分类器,获取该属于同一训练图像帧集合中的所有训练图像帧的新的分类结果,并再次执行所述比对操作。
8.根据权利要求1-5任意一项所述的方法,其特征在于,所述使用目标神经网络模型为所述训练图像帧提取特征向量之前,还包括:
将所述训练视频中的所述训练图像帧输入待训练的目标神经网络模型,对所述待训练的目标神经网络模型进行训练,得到所述目标神经网络模型。
9.一种事件检测方法,其特征在于,该方法包括:
获取待分类视频;
将所述待分类视频输入至通过权利要求1-8任意一项的事件检测模型训练方法得到的事件检测模型中,得到所述待分类视频的分类结果;
所述事件检测模型包括:目标神经网络以及目标分类器。
10.一种事件检测模型训练装置,其特征在于,该装置包括:
获取模块,用于获取多个带有标签的训练视频中的训练图像帧;
提取模块,用于使用目标神经网络模型为每个所述训练视频中的所述训练图像帧提取特征向量;
分布匹配模块,用于以训练视频为单位,对每个训练视频的所述训练图像帧的特征向量进行分布匹配,使每个训练视频对应至少一个训练图像帧集合;
排序模块,用于针对每个训练视频,按照该训练图像帧对应的至少一个训练图像帧集合中训练图像帧训练难度由大到小的顺序,对所述至少一个训练图像帧集合排序;
训练模块,用于按排序依次使用每个训练图像帧集合对所述目标神经网络模型进行训练,获得事件检测模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810286637.XA CN108549857B (zh) | 2018-03-30 | 2018-03-30 | 事件检测模型训练方法、装置及事件检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810286637.XA CN108549857B (zh) | 2018-03-30 | 2018-03-30 | 事件检测模型训练方法、装置及事件检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108549857A true CN108549857A (zh) | 2018-09-18 |
CN108549857B CN108549857B (zh) | 2021-04-23 |
Family
ID=63513853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810286637.XA Active CN108549857B (zh) | 2018-03-30 | 2018-03-30 | 事件检测模型训练方法、装置及事件检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108549857B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111506760A (zh) * | 2020-03-30 | 2020-08-07 | 杭州电子科技大学 | 一种基于困难感知的深度集成度量图像检索方法 |
CN111597979A (zh) * | 2018-12-17 | 2020-08-28 | 北京嘀嘀无限科技发展有限公司 | 一种目标对象聚类方法及装置 |
CN111967302A (zh) * | 2020-06-30 | 2020-11-20 | 北京百度网讯科技有限公司 | 视频标签的生成方法、装置及电子设备 |
CN113255531A (zh) * | 2021-05-31 | 2021-08-13 | 腾讯科技(深圳)有限公司 | 活体检测模型的处理方法、装置、计算机设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826166A (zh) * | 2010-04-27 | 2010-09-08 | 青岛大学 | 一种新的神经网络模式识别方法 |
US20160098632A1 (en) * | 2014-10-07 | 2016-04-07 | Google Inc. | Training neural networks on partitioned training data |
CN105550713A (zh) * | 2015-12-21 | 2016-05-04 | 中国石油大学(华东) | 一种持续学习的视频事件检测方法 |
CN106384092A (zh) * | 2016-09-11 | 2017-02-08 | 杭州电子科技大学 | 面向监控场景的在线低秩异常视频事件检测方法 |
US20170249515A1 (en) * | 2016-02-29 | 2017-08-31 | Nec Laboratories America, Inc. | Video camera device and system using recursive neural networks for future event prediction |
CN107622056A (zh) * | 2016-07-13 | 2018-01-23 | 百度在线网络技术(北京)有限公司 | 训练样本的生成方法和装置 |
CN107665351A (zh) * | 2017-05-06 | 2018-02-06 | 北京航空航天大学 | 基于难样本挖掘的机场检测方法 |
US20180089586A1 (en) * | 2016-09-29 | 2018-03-29 | Stmicroelectronics S.R.L. | Artificial neural networks for human activity recognition |
-
2018
- 2018-03-30 CN CN201810286637.XA patent/CN108549857B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826166A (zh) * | 2010-04-27 | 2010-09-08 | 青岛大学 | 一种新的神经网络模式识别方法 |
US20160098632A1 (en) * | 2014-10-07 | 2016-04-07 | Google Inc. | Training neural networks on partitioned training data |
CN105550713A (zh) * | 2015-12-21 | 2016-05-04 | 中国石油大学(华东) | 一种持续学习的视频事件检测方法 |
US20170249515A1 (en) * | 2016-02-29 | 2017-08-31 | Nec Laboratories America, Inc. | Video camera device and system using recursive neural networks for future event prediction |
CN107622056A (zh) * | 2016-07-13 | 2018-01-23 | 百度在线网络技术(北京)有限公司 | 训练样本的生成方法和装置 |
CN106384092A (zh) * | 2016-09-11 | 2017-02-08 | 杭州电子科技大学 | 面向监控场景的在线低秩异常视频事件检测方法 |
US20180089586A1 (en) * | 2016-09-29 | 2018-03-29 | Stmicroelectronics S.R.L. | Artificial neural networks for human activity recognition |
CN107665351A (zh) * | 2017-05-06 | 2018-02-06 | 北京航空航天大学 | 基于难样本挖掘的机场检测方法 |
Non-Patent Citations (2)
Title |
---|
HAOHAO J.等: "Automatic Soccer Video Event Detection Based on a Deep Neural Network Combined CNN and RNN", 《2016 IEEE 28TH INTERNATIONAL CONFERENCE ON TOOLS WITH ARTIFICIAL INTELLIGENCE (ICTAI)》 * |
王梦来 等: "基于CNN的监控视频事件检测", 《自动化学报》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111597979A (zh) * | 2018-12-17 | 2020-08-28 | 北京嘀嘀无限科技发展有限公司 | 一种目标对象聚类方法及装置 |
CN111597979B (zh) * | 2018-12-17 | 2023-05-12 | 北京嘀嘀无限科技发展有限公司 | 一种目标对象聚类方法及装置 |
CN111506760A (zh) * | 2020-03-30 | 2020-08-07 | 杭州电子科技大学 | 一种基于困难感知的深度集成度量图像检索方法 |
CN111967302A (zh) * | 2020-06-30 | 2020-11-20 | 北京百度网讯科技有限公司 | 视频标签的生成方法、装置及电子设备 |
CN111967302B (zh) * | 2020-06-30 | 2023-07-25 | 北京百度网讯科技有限公司 | 视频标签的生成方法、装置及电子设备 |
CN113255531A (zh) * | 2021-05-31 | 2021-08-13 | 腾讯科技(深圳)有限公司 | 活体检测模型的处理方法、装置、计算机设备和存储介质 |
CN113255531B (zh) * | 2021-05-31 | 2021-11-09 | 腾讯科技(深圳)有限公司 | 活体检测模型的处理方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108549857B (zh) | 2021-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109978893B (zh) | 图像语义分割网络的训练方法、装置、设备及存储介质 | |
CN108647571A (zh) | 视频动作分类模型训练方法、装置及视频动作分类方法 | |
Zhao et al. | Pyramid feature attention network for saliency detection | |
Endres et al. | Category-independent object proposals with diverse ranking | |
US10013636B2 (en) | Image object category recognition method and device | |
CN108549857A (zh) | 事件检测模型训练方法、装置及事件检测方法 | |
CN108304876A (zh) | 分类模型训练方法、装置及分类方法及装置 | |
CN108399431A (zh) | 分类模型训练方法以及分类方法 | |
CN104112143A (zh) | 基于加权超球支持向量机算法的图像分类方法 | |
Tavakoli et al. | Saliency revisited: Analysis of mouse movements versus fixations | |
CN110765882B (zh) | 一种视频标签确定方法、装置、服务器及存储介质 | |
JP2007537542A5 (zh) | ||
CN113764034B (zh) | 基因组序列中潜在bgc的预测方法、装置、设备及介质 | |
CN111783753B (zh) | 基于语义一致水平条和前景修正的行人重识别方法 | |
CN106295666A (zh) | 分类器生成、更新与对象检测方法和装置及图像处理设备 | |
CN109919252A (zh) | 利用少数标注图像生成分类器的方法 | |
CN109598307A (zh) | 数据筛选方法、装置、服务器及存储介质 | |
CN109993021A (zh) | 人脸正脸检测方法、装置及电子设备 | |
US20230053911A1 (en) | Detecting an object in an image using multiband and multidirectional filtering | |
CN111814832B (zh) | 一种目标检测方法、装置及存储介质 | |
CN112001428A (zh) | 一种基于特征匹配优化的无锚框目标检测网络训练方法 | |
CN115187772A (zh) | 目标检测网络的训练及目标检测方法、装置及设备 | |
WO2019123451A1 (en) | System and method for use in training machine learning utilities | |
CN109902662A (zh) | 一种行人重识别方法、系统、装置和存储介质 | |
WO2023280229A1 (zh) | 图像处理方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 101-8, 1st floor, building 31, area 1, 188 South Fourth Ring Road West, Fengtai District, Beijing Applicant after: Guoxin Youyi Data Co., Ltd Address before: 100070, No. 188, building 31, headquarters square, South Fourth Ring Road West, Fengtai District, Beijing Applicant before: SIC YOUE DATA Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |