CN112861981A - 数据集标注方法、电子设备和介质 - Google Patents
数据集标注方法、电子设备和介质 Download PDFInfo
- Publication number
- CN112861981A CN112861981A CN202110197945.7A CN202110197945A CN112861981A CN 112861981 A CN112861981 A CN 112861981A CN 202110197945 A CN202110197945 A CN 202110197945A CN 112861981 A CN112861981 A CN 112861981A
- Authority
- CN
- China
- Prior art keywords
- reid
- video segment
- preset time
- time period
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种数据集标注方法、电子设备和介质,方法包括S1、获取预设地理围栏内多个摄像头在预设时间段内的所有视频段;S2、从每一视频段中抽取对应的第一待处理图像;S3、将第一待处理图像输入RE I D行人识别模型中,获取RE I D特征向量,组成RE I D特征向量集;S4、将待匹配RE I D特征向量目标相似度大于预设的RE I D特征相似度阈值的所有RE I D特征向量以及待匹配RE I D特征向量对应的视频段均标注为相同的唯一I D;S5、删除标注唯一I D的RE I D特征向量,判断当前RE I D特征向量集是否为空集或者任意两个RE I D特征向量的相似度均小于所述RE I D特征相似度阈值,若是,则结束流程,否则,返回S4。本发明能够准确高效地标注数据集。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种数据集标注方法、电子设备和介质。
背景技术
步态的分析和研究是对人类运动功能的综合研究,包括对人类运动特征的测量、描述和数量的评估。通过对步态的分析和研究,可以识别出步态周期,计算出步态运动学和动力学参数等。近年来,步态的研究在身份识别等方面都起到了非常重要的作用和应用,在身份识别中,不同的人在步态风格的微小变化可以被用作生物标识符来识别个体的人。若要进行步态的分析和研究,就需要大量的步态数据。
现有技术中,通常通过人工识别摄像头采集的视频数据,来标注数据集,从而将同一人对应的视频数据标注为同一id,然后基于同一id对应的视频数据集合进行步态数据的提取。但是,由于视频数据量大,涉及的人员量大,因此,仅通过人工标注数据集的方式需要花费大量的时间,标注效率很低。由此可知,如何提供一种准确高效的步态数据集标注技术成为亟待解决的技术问题。
发明内容
本发明目的在于,提供一种数据集标注方法、电子设备和介质,能够准确高效地标注数据集。
根据本发明第一方面,提供了一种数据集标注方法,包括:
步骤S1、获取预设地理围栏内多个摄像头在预设时间段内的所有视频段,每一视频段中仅包括同一摄像头所连续采集的同一人物信息,所述连续采集为采集时间间隔小于预设的时间间隔阈值;
步骤S2、从每一视频段中抽取一个视频帧图片,作为对应的第一待处理图像;
步骤S3、将每一第一待处理图像分别输入预先训练好的REID行人识别模型中,获取对应的REID特征向量,所有的REID特征向量组成REID特征向量集;
步骤S4、从当前的REID特征向量集中随机获取一个REID特征向量作为待匹配REID特征向量,获取所述REID特征向量集中除所述待匹配REID特征向量以外的其他REID特征向量基于与所述待匹配REID特征向量的目标相似度排序,将目标相似度排序中与待匹配REID特征向量目标相似度大于预设的REID特征相似度阈值的所有REID特征向量以及待匹配REID特征向量对应的视频段均标注为相同的唯一ID;
步骤S5、将当前被标注为相同的唯一ID的所有视频段对应的REID特征向量从所述REID特征向量集中删除,并判断当前REID特征向量集是否为空集或者当前REID特征向量集中任意两个REID特征向量的相似度均小于所述REID特征相似度阈值,若是,则结束流程,否则,返回步骤S4。
根据本发明第二方面,提供一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被设置为用于执行本发明第一方面所述的方法。
根据本发明第三方面,提供一种计算机可读存储介质,所述计算机指令用于执行本发明第一方面所述的方法。
本发明与现有技术相比具有明显的优点和有益效果。借由上述技术方案,本发明提供的一种数据集标注方法、电子设备和介质可达到相当的技术进步性及实用性,并具有产业上的广泛利用价值,其至少具有下列优点:
本发明能够减少了人工标注数据集的工作量,准确高效地标注数据集。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本发明实施例提供的数据集标注方法流程图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种数据集标注方法、电子设备和介质的具体实施方式及其功效,详细说明如后。
本发明实施例提供了一种数据集标注方法,如图1所示,包括以下步骤:
步骤S1、获取预设地理围栏内多个摄像头在预设时间段内的所有视频段,每一视频段中仅包括同一摄像头所连续采集的同一人物信息,所述连续采集为采集时间间隔小于预设的时间间隔阈值;
其中,预设地理围栏可以为一个居住小区、一个园区等,优选的,预设地理围栏内在预设时间段内的所有视频段的数量级在上百或上千级别范围内,会有较高的识别准确度。所述时间间隔阈值可以设置为人走过摄像头所能采集到图像的大范围内,所走过的最远距离所需的时间。预设的时间段可以为24小时。
步骤S2、从每一视频段中抽取一个视频帧图片,作为对应的第一待处理图像;
步骤S3、将每一第一待处理图像分别输入预先训练好的REID(PersonRe-identification,行人重识别)行人识别模型中,获取对应的REID特征向量,所有的REID特征向量组成REID特征向量集;
步骤S4、从当前的REID特征向量集中随机获取一个REID特征向量作为待匹配REID特征向量,获取所述REID特征向量集中除所述待匹配REID特征向量以外的其他REID特征向量基于与所述待匹配REID特征向量的目标相似度排序,将目标相似度排序中与待匹配REID特征向量目标相似度大于预设的REID特征相似度阈值的所有REID特征向量以及待匹配REID特征向量对应的视频段均标注为相同的唯一ID;
可以理解的是,将目标相似度排序中与待匹配REID特征向量目标相似度大于预设的REID特征相似度阈值的所有REID特征向量以及待匹配REID特征向量对应的视频段均标注为相同的唯一ID指的是,每执行一次步骤S4,则确定一个与之前所设置的ID均不重复的ID,并将所确定的目标相似度排序中与待匹配REID特征向量目标相似度大于预设的REID特征相似度阈值的所有REID特征向量以及待匹配REID特征向量对应的视频段均标注为该ID,这样即可把预设地理围栏内多个摄像头在预设时间段内的所有视频段,属于同一人的视频段,标注为同样的唯一ID。REID特征相似度阈值可根据相同人的REID特征相似度分布以及不同人的REID特征相似度分布结合确定。
步骤S5、将当前被标注为相同的唯一ID的所有视频段对应的REID特征向量从所述REID特征向量集中删除,并判断当前REID特征向量集是否为空集或者当前REID特征向量集中任意两个REID特征向量的相似度均小于所述REID特征相似度阈值,若是,则结束流程,否则,返回步骤S4。
本发明实施例能够减少了人工标注数据集的工作量,准确高效地标注数据集,将预设时间段内属于同一人物的视频段标注同一ID,具体可用于标注步态数据集等。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
作为一种实施例,所述方法还包括步骤S10、训练得到所述REID行人识别模型,具体包括:
步骤S101、将多个已知ID的所述预设地理围栏内的摄像头采集到的视频段中的视频帧图片作为样本图片输入预设的REID行人识别模型框架中的神经网络中;
步骤S102、所述神经网络提取每一样本图片对应的轮廓特征、颜色特征和纹理特征,并基于所述样本图片对应的轮廓特征、颜色特征和纹理特征生成对应的REID特征向量,所述REID行人识别模型框架基于每一样本图片对应的REID特征向量预测每一样本图片对应的预测ID;
步骤S103、基于样本图片的已知ID和预测ID调整所述REID行人识别模型框架的模型参数,直至所述REID行人识别模型框架收敛,得到所述REID行人识别模型。
在预设时间内,在同一摄像头在较短时间内(小于等于预设时间间隔阈值)所采集的视频数据中,易关联出同一人物的视频数据,但是对于同一摄像头,采集间隔时间较长(大于预设时间间隔阈值)或者不同摄像头所采集到的视频数据中,很难准确关联出同一人物的视频数据。而本发明基于REID特征向量,能够将不同摄像头对应的同一时段内,轮廓特征、颜色特征和纹理特征相同的同一人物准确快速关联起来。
作为一种实施例,所述步骤S1包括:
步骤S11、获取预设地理围栏内每一预设摄像头在预设时间段内的视频数据;
步骤S12、采用deepsort算法从所述每一预设摄像头在预设时间段内的视频数据中获取对应的视频段。
其中,deepsort为现有的多目标跟踪算法,在此不再展开描述,通过deepsort算法可以提取出每帧视频中的仅包含单个人物信息的视频帧,再将采集时间间隔小于预设的时间间隔阈值的同一人物信息的仅包含单个人物信息的视频帧按照时间顺序组合形成所述视频段。
作为一种实施例,所述步骤S2中可以随机抽取一个视频帧图片作为视频段对应的第一待处理图像。由于抽取的第一待处理图像用于提取基于轮廓特征、颜色特征和纹理特征,因此作为优选的实施例,所述步骤S2可包括:
步骤S21、获取每一视频段中每一视频帧图片中,人物轮廓占据视频帧图片的比例;
步骤S22、将人物轮廓占据视频帧图片的比例最大的视频帧图片作为视频段对应的第一待处理图像。
采用物轮廓占据视频帧图片的比例最大的视频帧图片作为视频段对应的第一待处理图像,可以提高获取第一待处理图像用于提取基于轮廓特征、颜色特征和纹理特征的准确度和可靠性,从而提高获取对应的REID特征向量的准确性和可靠性,进而提高数据集标注的可靠性和准确性。
作为一种实施例,所述步骤S3包括:
步骤S31、将每一第一待处理图像分别输入预先训练好的REID行人识别模型中,将REID行人识别模型中的神经网络生成的REID特征向量输出,从而获取对应的REID特征向量输出。
可以理解的是,模型训练过程中,模型输出为预测ID,中间生成样本图片对应的轮廓特征、颜色特征和纹理特征,当模型训练好以后,相应的神经网路也训练好,在本发明实施例步骤S3使用REID行人识别模型时,只需获取训练好的神经网络输出的输入图片对应的REID特征向量即可。
作为一种实施例,所述步骤S4包括:
步骤S41、从当前的REID特征向量集中随机获取一个REID特征向量作为待匹配REID特征向量;
步骤S42、获取所述REID特征向量集中除所述待匹配REID特征向量以外的其他REID特征向量基于与所述待匹配REID特征向量的余弦相似度,并按照余弦相似度从大到小的顺序得到余弦相似度排序;
其中,余弦相似度的算法为现有算法,在此不再展开描述。
步骤S43、将所述余弦相似度排序通过Reranking算法进行调整并重新排序,得到目标相似度排序;
其中,Reranking算法为现有算法,在此不再展开描述,基于Reranking算法可以改善排序效果,提高计算结果的准确度和鲁棒性。
步骤S44、将目标相似度排序中与待匹配REID特征向量目标相似度大于预设的REID特征相似度阈值的所有REID特征向量以及待匹配REID特征向量对应的视频段均标注为相同的唯一ID。
为了进一步提高准确性,在步骤S4标注完ID后,可以进一步进行人工筛选,增加标注的准确度,具体的,作为一种实施例,所述步骤S4和步骤S5之间还包括:
步骤S431、将当前标注为相同的唯一ID的视频段对应的第一待处理图像呈现在信息交互界面上;
步骤S432、接收用户对一个或多个第一待处理图像输入的删除指令,并将对应的视频段对应的当前所标注的所述相同的唯一ID删除。
当将每一预设时间段内的视频段数据并标注ID后,如需要更大的数据集,则可将不同时段内实际属于同一人的视频段数据集合并,由于每一预设时段内划分的依据是由颜色特征、纹理特征和轮廓特征生成的REID特征向量,而不同预设时段内,同一人对应的REID特征向量可能相差较大,因此可以进一步采用人脸特征对不同预设时段内相同人物的视频段进行关联,作为一种实施例,所述方法还包括:
步骤S6、将每一预设时间段内ID相同的视频段组成视频段集合;
步骤S7、获取第一预设时间段和第一预设时间段中每一视频段集合对应的人脸特征向量;
步骤S8、基于第一预设时间段的视频段集合和第二预设时间段中的视频段集合对应的人脸特征向量的相似度,将第一预设时间段的视频段集合与二预设时间段中的视频段集合对应的人脸特征向量的相似度大于预设的人脸特征相似度阈值的两个视频段集合对应的所有视频段均标注为相同的唯一ID。
由于人脸特征识别对人脸对应的图像质量较高要求,为了提高计算准确度,作为一种实施例,所述步骤S7包括:
步骤S71、逐个获取每一视频段集合中每一视频段中逐个视频帧图像的人脸识别置信度,并与预设的人脸识别置信度阈值相比较,若大于等于,则将当前的视频帧图像作为该视频段对应的第二待处理图像;
步骤S72、基于所述第二待处理图像提取人脸特征向量作为该视频段集合对应的人脸特征向量。
为了进一步提高计算效率,作为一种实施例,所述步骤S8包括:
步骤S81、从当前第一预设时间段的视频段集合中随机抽取一个待匹配视频段集合对应的人脸特征向量,逐个获取当前第二预设时间段中的视频段集合对应的人脸特征向量与所述待匹配视频段集合对应的人脸特征向量的相似度,并与所述人脸特征相似度阈值比较,若超过,则将所述待匹配视频段集合与该第二预设时间段中的视频段集合对应的所有视频段均标注为相同的唯一ID,并执行步骤S82,若当前第二预设时间段中的所有视频段集合对应的人脸特征向量与所述待匹配视频段集合对应的人脸特征向量的相似度均小于所述人脸特征相似度阈值,则执行步骤S83;
其中,人脸特征相似度阈值可根据相同人的人脸特征分布以及不同人的人脸特征相似度分布结合确定。
步骤S82、将所述待匹配视频段集合从第一预设时间段的视频段集合中删除,将该第二预设时间段中的视频段集合删除,并执行步骤S84;
步骤S83、将所述待匹配视频段集合从第一预设时间段的视频段集合中删除,并执行步骤S84;
步骤S84、判断当前第一预设时间段的视频段集合和所述第二预设时间段的视频段集合是否为空集,若当前第一预设时间段的视频段集合或所述第二预设时间段的视频段集合为空集,则结束流程,否则,返回步骤S81。
本发明实施例还提供一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被设置为用于执行本发明实施例所述的方法。
本发明实施例还提供一种计算机可读存储介质,所述计算机指令用于执行本发明实施例所述的方法。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (10)
1.一种数据集标注方法,其特征在于,包括:
步骤S1、获取预设地理围栏内多个摄像头在预设时间段内的所有视频段,每一视频段中仅包括同一摄像头所连续采集的同一人物信息,所述连续采集为采集时间间隔小于预设的时间间隔阈值;
步骤S2、从每一视频段中抽取一个视频帧图片,作为对应的第一待处理图像;
步骤S3、将每一第一待处理图像分别输入预先训练好的REID行人识别模型中,获取对应的REID特征向量,所有的REID特征向量组成REID特征向量集;
步骤S4、从当前的REID特征向量集中随机获取一个REID特征向量作为待匹配REID特征向量,获取所述REID特征向量集中除所述待匹配REID特征向量以外的其他REID特征向量基于与所述待匹配REID特征向量的目标相似度排序,将目标相似度排序中与待匹配REID特征向量目标相似度大于预设的REID特征相似度阈值的所有REID特征向量以及待匹配REID特征向量对应的视频段均标注为相同的唯一ID;
步骤S5、将当前被标注为相同的唯一ID的所有视频段对应的REID特征向量从所述REID特征向量集中删除,并判断当前REID特征向量集是否为空集或者当前REID特征向量集中任意两个REID特征向量的相似度均小于所述REID特征相似度阈值,若是,则结束流程,否则,返回步骤S4。
2.根据权利要求1所述的方法,其特征在于,
还包括步骤S10、训练得到所述REID行人识别模型,具体包括:
步骤S101、将多个已知ID的所述预设地理围栏内的摄像头采集到的视频段中的视频帧图片作为样本图片输入预设的REID行人识别模型框架中的神经网络中;
步骤S102、所述神经网络提取每一样本图片对应的轮廓特征、颜色特征和纹理特征,并基于所述样本图片对应的轮廓特征、颜色特征和纹理特征生成对应的REID特征向量,所述REID行人识别模型框架基于每一样本图片对应的REID特征向量预测每一样本图片对应的预测ID;
步骤S103、基于样本图片的已知ID和预测ID调整所述REID行人识别模型框架的模型参数,直至所述REID行人识别模型框架收敛,得到所述REID行人识别模型。
3.根据权利要求1或2所述的方法,其特征在于,
所述步骤S2包括:
步骤S21、获取每一视频段中每一视频帧图片中,人物轮廓占据视频帧图片的比例;
步骤S22、将人物轮廓占据视频帧图片的比例最大的视频帧图片作为视频段对应的第一待处理图像。
4.根据权利要求1或2所述的方法,其特征在于,
所述步骤S4包括:
步骤S41、从当前的REID特征向量集中随机获取一个REID特征向量作为待匹配REID特征向量;
步骤S42、获取所述REID特征向量集中除所述待匹配REID特征向量以外的其他REID特征向量基于与所述待匹配REID特征向量的余弦相似度,并按照余弦相似度从大到小的顺序得到余弦相似度排序;
步骤S43、将所述余弦相似度排序通过Reranking算法进行调整并重新排序,得到目标相似度排序;
步骤S44、将目标相似度排序中与待匹配REID特征向量目标相似度大于预设的REID特征相似度阈值的所有REID特征向量以及待匹配REID特征向量对应的视频段均标注为相同的唯一ID。
5.根据权利要求1-4中任意一项所述的方法,其特征在于,
所述步骤S4和步骤S5之间还包括:
步骤S431、将当前标注为相同的唯一ID的视频段对应的第一待处理图像呈现在信息交互界面上;
步骤S432、接收用户对一个或多个第一待处理图像输入的删除指令,并将对应的视频段对应的当前所标注的所述相同的唯一ID删除。
6.根据权利要求5所述的方法,其特征在于,
所述方法还包括:
步骤S6、将每一预设时间段内ID相同的视频段组成视频段集合;
步骤S7、获取第一预设时间段和第一预设时间段中每一视频段集合对应的人脸特征向量;
步骤S8、基于第一预设时间段的视频段集合和第二预设时间段中的视频段集合对应的人脸特征向量的相似度,将第一预设时间段的视频段集合与二预设时间段中的视频段集合对应的人脸特征向量的相似度大于预设的人脸特征相似度阈值的两个视频段集合对应的所有视频段均标注为相同的唯一ID。
7.根据权利要求6所述的方法,其特征在于,
步骤S7包括:
步骤S71、逐个获取每一视频段集合中每一视频段中逐个视频帧图像的人脸识别置信度,并与预设的人脸识别置信度阈值相比较,若大于等于,则将当前的视频帧图像作为该视频段对应的第二待处理图像;
步骤S72、基于所述第二待处理图像提取人脸特征向量作为该视频段集合对应的人脸特征向量。
8.根据权利要求7所述的方法,其特征在于,
步骤S8包括:
步骤S81、从当前第一预设时间段的视频段集合中随机抽取一个待匹配视频段集合对应的人脸特征向量,逐个获取当前第二预设时间段中的视频段集合对应的人脸特征向量与所述待匹配视频段集合对应的人脸特征向量的相似度,并与所述人脸特征相似度阈值比较,若超过,则将所述待匹配视频段集合与该第二预设时间段中的视频段集合对应的所有视频段均标注为相同的唯一ID,并执行步骤S82,若当前第二预设时间段中的所有视频段集合对应的人脸特征向量与所述待匹配视频段集合对应的人脸特征向量的相似度均小于所述人脸特征相似度阈值,则执行步骤S83;
步骤S82、将所述待匹配视频段集合从第一预设时间段的视频段集合中删除,将该第二预设时间段中的视频段集合删除,并执行步骤S84;
步骤S83、将所述待匹配视频段集合从第一预设时间段的视频段集合中删除,并执行步骤S84;
步骤S84、判断当前第一预设时间段的视频段集合和所述第二预设时间段的视频段集合是否为空集,若当前第一预设时间段的视频段集合或所述第二预设时间段的视频段集合为空集,则结束流程,否则,返回步骤S81。
9.一种电子设备,其特征在于,包括:
至少一个处理器;
以及,与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被设置为用于执行前述权利要求1-8任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,存储有计算机可执行指令,所述计算机可执行指令用于执行前述权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110197945.7A CN112861981B (zh) | 2021-02-22 | 2021-02-22 | 数据集标注方法、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110197945.7A CN112861981B (zh) | 2021-02-22 | 2021-02-22 | 数据集标注方法、电子设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112861981A true CN112861981A (zh) | 2021-05-28 |
CN112861981B CN112861981B (zh) | 2023-06-20 |
Family
ID=75988549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110197945.7A Active CN112861981B (zh) | 2021-02-22 | 2021-02-22 | 数据集标注方法、电子设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112861981B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110249904A1 (en) * | 2010-04-09 | 2011-10-13 | Sony Corporation | Face clustering device, face clustering method, and program |
CN109063611A (zh) * | 2018-07-19 | 2018-12-21 | 北京影谱科技股份有限公司 | 一种基于视频语义的人脸识别结果处理方法和装置 |
CN110717067A (zh) * | 2019-12-16 | 2020-01-21 | 北京海天瑞声科技股份有限公司 | 视频中音频聚类的处理方法和装置 |
CN111209897A (zh) * | 2020-03-09 | 2020-05-29 | 腾讯科技(深圳)有限公司 | 视频处理的方法、装置和存储介质 |
CN111275097A (zh) * | 2020-01-17 | 2020-06-12 | 北京世纪好未来教育科技有限公司 | 视频处理方法及系统、图片处理方法及系统、设备、介质 |
CN111738120A (zh) * | 2020-06-12 | 2020-10-02 | 北京奇艺世纪科技有限公司 | 人物识别方法、装置、电子设备及存储介质 |
CN112101154A (zh) * | 2020-09-02 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、计算机设备和存储介质 |
-
2021
- 2021-02-22 CN CN202110197945.7A patent/CN112861981B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110249904A1 (en) * | 2010-04-09 | 2011-10-13 | Sony Corporation | Face clustering device, face clustering method, and program |
CN109063611A (zh) * | 2018-07-19 | 2018-12-21 | 北京影谱科技股份有限公司 | 一种基于视频语义的人脸识别结果处理方法和装置 |
CN110717067A (zh) * | 2019-12-16 | 2020-01-21 | 北京海天瑞声科技股份有限公司 | 视频中音频聚类的处理方法和装置 |
CN111275097A (zh) * | 2020-01-17 | 2020-06-12 | 北京世纪好未来教育科技有限公司 | 视频处理方法及系统、图片处理方法及系统、设备、介质 |
CN111209897A (zh) * | 2020-03-09 | 2020-05-29 | 腾讯科技(深圳)有限公司 | 视频处理的方法、装置和存储介质 |
CN111738120A (zh) * | 2020-06-12 | 2020-10-02 | 北京奇艺世纪科技有限公司 | 人物识别方法、装置、电子设备及存储介质 |
CN112101154A (zh) * | 2020-09-02 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112861981B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109117808B (zh) | 面部识别方法、装置、电子设备及计算机可读介质 | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
CN106503691B (zh) | 一种人脸图片的身份标注方法和装置 | |
CN105184238A (zh) | 一种人脸识别方法及系统 | |
CN111160275B (zh) | 行人重识别模型训练方法、装置、计算机设备和存储介质 | |
US20130258198A1 (en) | Video search system and method | |
CN113111716B (zh) | 一种基于深度学习的遥感影像半自动标注方法和装置 | |
CN112836646A (zh) | 一种基于通道注意力机制的视频行人重识别方法及应用 | |
CN109492610B (zh) | 一种行人重识别方法、装置及可读存储介质 | |
CN111860407A (zh) | 一种视频中人物的表情识别方法、装置、设备及存储介质 | |
CN113936175A (zh) | 一种识别视频中的事件的方法及系统 | |
CN110210321B (zh) | 基于多维尺度变换网络与分块加权法的欠样本人脸识别方法 | |
CN109345427B (zh) | 一种结合人脸识别和行人识别技术的教室视频点到方法 | |
CN115862113A (zh) | 陌生人异常识别方法、装置、设备及存储介质 | |
CN104598935A (zh) | 一种基于增量子空间学习算法的人脸识别方法 | |
CN114005019A (zh) | 一种翻拍图像识别方法及其相关设备 | |
CN108875445B (zh) | 一种行人再识别方法及装置 | |
CN112861981A (zh) | 数据集标注方法、电子设备和介质 | |
CN113255615B (zh) | 一种自监督学习的行人检索方法及装置 | |
CN115909400A (zh) | 一种用于低分辨率监控场景中使用手机行为的识别方法 | |
CN115861869A (zh) | 一种基于Transformer的步态重识别方法 | |
CN113343810B (zh) | 基于时序多样性与相关性的行人重识别模型训练和识别方法与装置 | |
CN115424253A (zh) | 车牌识别方法、装置、电子设备和存储介质 | |
CN111062294B (zh) | 一种客流排队时间的检测方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |