CN109829397B - 一种基于图像聚类的视频标注方法、系统以及电子设备 - Google Patents
一种基于图像聚类的视频标注方法、系统以及电子设备 Download PDFInfo
- Publication number
- CN109829397B CN109829397B CN201910041781.1A CN201910041781A CN109829397B CN 109829397 B CN109829397 B CN 109829397B CN 201910041781 A CN201910041781 A CN 201910041781A CN 109829397 B CN109829397 B CN 109829397B
- Authority
- CN
- China
- Prior art keywords
- target
- image
- targets
- frame
- clustering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及数据采集技术领域,尤其涉及一种基于图像聚类的视频标注方法、系统及电子设备,包括步骤:S1、提供一个视频;检测模型读取视频中第一帧图像并确认所述多个需要追踪的目标;目标追踪模型读取所述视频中的每一帧图像,并识别出每一帧图像中需要追踪的多个目标以获得多张图像;利用特征提取器对每张图像中的每个目标进行特征提取以获得每个目标的聚类特征信息;通过聚类算法利用所述聚类特征信息对所述多张图像中相同类别的目标进行聚类;以及对多个目标进行标注,利用聚类算法对多帧图像中相同类别的多个目标进行聚类,在标注目标时,只需要标注相同类别的目标中的其中一个即可,不需要对每个目标分别进行标注,能很好的提高标注效率。
Description
【技术领域】
本发明涉及数据采集技术领域,尤其涉及一种基于图像聚类的视频标注方法、系统及电子设备。
【背景技术】
如今,货物运输、货物生产以及货物销售等行业都需要基于货物本身的特征信息对不同种类的货物进行分类以及检测,因此,当面对需要检测和分类的大量货物时,通常都需要采集关于每个货物多方位、不同场景下的多种特征数据信息并对其进行标注,在对视频进行标注时往往需要标注每一帧中物体的位置以及分类,其存在很多冗余的工作,耗费时间及长。
【发明内容】
为克服目前数据采集过程中标注效率低的技术问题,本发明提供一种基于图像聚类的视频标注方法、系统以及电子设备。
本发明提供一种基于图像聚类的视频标注方法,包括如下步骤:S1、提供一个包含多个目标的视频,所述目标为货物,所述视频在预设的拍摄角度、光线条件以及背景条件下获得;S2、检测模型读取视频中第一帧图像并确认需要追踪的所述多个目标,所述检测模型为目标检测网络,所述检测模型是基于与每个需要追踪的目标相匹配的特征训练而得,所述检测模型中存有用于识别需要追踪的所述多个目标的特征模板,当其读取第一帧图像时,将当前图片的特征信息与特征模板上的信息比对以确定需要追踪的所述多个目标;S3、目标追踪模型读取所述视频中的每一帧图像,并识别出每一帧图像中需要追踪的多个目标以获得多张图像;所述步骤S3具体包括如下步骤:S31、目标追踪模型读取第一帧图像,获得第一帧图像中需要追踪的多个目标的位置信息和追踪特征信息,基于第一帧图像中目标的位置信息和追踪特征信息将需要追踪的多个目标进行追踪并更新每一帧中目标的追踪特征信息和位置信息;及S32、目标追踪模型在读取后续的每一帧图像时判断追踪的目标是否有丢失,当追踪模型判断出追踪的目标丢失时,所述检测模型确认目标是否有丢失并继续对未丢失的目标进行追踪直至视频结束;所述追踪特征信息包括颜色特征、轮廓特征、纹理特征中一种或者几种;S4、利用特征提取器对每张图像中的每个目标进行特征提取以获得每个目标的聚类特征信息;S5、通过聚类算法利用所述聚类特征信息对所述多张图像中相同类别的目标进行聚类;以及S6、对所述多个目标进行标注。
优选地,所述步骤S4还包括步骤:根据所述每张图像中每个目标的聚类特征信息获得关于每个目标的特征向量以形成关于每个目标的特征向量集。
优选地,步骤S5具体包括如下步骤:S51、对所述特征向量集筛选,去除不合格的特征向量;S52、取剩余的特征向量的平均值对所述多张图像中相同类别的目标进行聚类。
优选地,上述步骤S4中,利用CNN网络对每一帧图像中的目标进行特征提取以获得关于每个目标的聚类特征信息并获得特征向量。
优选地,对所述步骤S4中获得的聚类特征信息进行二值化处理或者triplet loss损失函数处理。
优选地,所述目标追踪模型在读取第一帧之后的图像时判断目标是否丢失的同时还检测是否有新的目标出现,若检测到新的目标出现时,所述目标追踪模型获取新目标对应的追踪特征信息并在后续帧中对新目标进行追踪。
为了解决上述技术问题,还提供一种基于图像聚类的视频标注系统,其包括拍摄模块,配置用于对多个目标进行视频采集,所述目标为货物,拍摄模块在预设的拍摄角度、光线条件以及背景条件下进行视频采集;检测模型,配置用于读取视频中第一帧图像并确认需要追踪的所述多个目标所述检测模型为目标检测网络,所述检测模型是基于与每个需要追踪的目标相匹配的特征训练而得,所述检测模型中存有用于识别需要追踪的多个目标的特征模板,当其读取第一帧图像时,将当前图片的特征信息与特征模板上的信息比对以确定多个需要追踪的目标;目标追踪模型,配置用于读取所述视频中的每一帧图像,并识别出每一帧图像中需要追踪的多个目标以获得多张图像,目标追踪模型读取第一帧图像,获得第一帧图像中需要追踪的多个目标的位置信息和追踪特征信息,基于第一帧图像中目标的位置信息和追踪特征信息将需要追踪的多个目标进行追踪并更新每一帧中目标的追踪特征信息和位置信息;及目标追踪模型在读取后续的每一帧图像时判断追踪的目标是否有丢失,当追踪模型判断出追踪的目标丢失时,所述检测模型确认目标是否有丢失并继续对未丢失的目标进行追踪直至视频结束,所述追踪特征信息包括颜色特征、轮廓特征、纹理特征中一种或者几种;特征提取单元,配置用于对每一帧图像中的每个目标进行特征提取以获得每张图像中每个目标的聚类特征信息并获得与每个目标对应的特征向量;聚类单元,配置用于对所述多张图像中的相同类别的目标进行聚类。
优选地,所述检测模型和目标追踪模型之间可进行信号传递,当目标追踪模型识别到所追踪的目标丢失时,发出信号给所述检测模型,检测模型确认目标是否丢失,所述检测模型还用于判断在读取每一帧图像时是否有新的目标出现。
为了解决上述技术问题,还提供一种电子设备,其特征在于:其包括一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上所述的方法。
相对于现有技术,利用特征提取器对每一帧图像中的每个目标进行特征提取以获得每个目标的聚类特征信息,通过聚类算法利用所述聚类特征信息对所述多张图像中相同类别的目标进行聚类,在标注目标时,只需要标注相同类别的目标中的其中一个即可,不需要对每个目标分别进行标注,能很好的提高标注效率。
对获得的聚类特征信息进行二值化处理或者triplet loss损失函数处理,使得CNN提取出的聚类特征信息具有较好的聚类特性。
【附图说明】
图1是本发明第一实施例中提供的执行基于图像聚类的视频标注方法的装置;
图2是本发明第一实施例中提供的基于图像聚类的视频标注方法的流程结构示意图;
图3本发明第一实施例中提供的基于图像聚类的视频标注方法中需要采集数据的多个目标示意图;
图4是本发明第一实施例中提供的基于图像聚类的视频标注方法中步骤S3中的细节流程图;
图5是本发明第一实施例中提供的基于图像聚类的视频标注方法中步骤S32中的细节流程图;
图6是本发明第一实施例中提供的基于图像聚类的视频标注方法中步骤S32中的另一变形实施例中的细节流程图;
图7是本发明第一实施例中提供的基于图像聚类的视频标注方法中出现新目标5时的示意图;
图8是本发明第一实施例中提供的基于图像聚类的视频标注方法另一变形流程结构示意图;
图9是本发明第一实施例中提供的基于图像聚类的视频标注方法中步骤S5的细节流程图;
图10是本发明第二实施例中提供的基于图像聚类的视频标注系统的模块示意图;
图11是本发明第三实施例中提供的电子设备的模块示意图;
图12是适于用来实现本发明实施例的服务器的计算机系统的结构示意图。
【具体实施方式】
为了使本发明的目的,技术方案及优点更加清楚明白,以下结合附图及实施实例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
请参阅图1,图1示出了可以应用本申请的在视频中进行图像聚类的视频标注方法的装置的实施例的示例性系统架构100。系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持视频播放的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上播放的视频提供支持的后台处理服务器。后台处理服务器可以对接收到的目标跟踪请求等数据进行分析等处理,并将处理结果(例如,加载了待跟踪目标在每一视频帧所在区域的视频数据)反馈给终端设备。
需要说明的是,本申请实施例所提供的在视频中进行图像聚类的视频标注方法可以由服务器105执行,或者,也可以由终端设备101、102、103执行。相应地,在视频中进行图像聚类的视频标注的装置可以设置于服务器105中,或者,也可以设置于终端设备101、102、103中。
应该理解,图1中的终端设备101、102、103,网络104和服务器105的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
请参阅图2,示出了根据本申请的在视频中进行图像聚类的视频标注方法的一个实施例的流程。基于图像聚类的视频标注方法,包括以下步骤:
S1、提供一个包含多个目标的视频;
多个目标为需要进行采集图像数据以形成数据集的物品,其包括日用品、食品、文件用品等货物。该步骤中的视频是按照预设的拍摄标准对多个目标进行拍摄获得的包括多个目标在内的一个视频。预设的拍摄标准是指对多个目标进行设定的多角度、多光照、简单背景条件下的视频拍摄。选定的背景一般为与目标的颜色具有较好的区分效果的背景。对目标进行多角度,多光线条件下拍摄,能很好的获得目标在不同环境和不同场景下的图像数据,使得采集的图像数据集更全面的代表物品,在后期利用采集的数据建立模型对产品进行检测或者分类时,能识别更多不同场景下获得的图片,对目标进行识别。
请再次参阅图2,本实施例中基于图像聚类的视频标注方法还包括:
步骤S2、检测模型读取视频中第一帧图像并确认多个需要追踪的目标。
在本步骤中,检测模型为目标检测网络,具体包括Fast-RCNN网络、SSD网络或者YOLO中的任一种。所述检测模型是基于与每个需要追踪的目标相匹配的特征训练而得,其可识别需要追踪的多个目标,当其读取第一帧图像时,将当前图片的特征信息读取即可识别出多个需要追踪的目标
如,当检测模型读取视频中的第一帧图像时,检测模型根据第一帧图像的特征信息找出与多个需要追踪的目标相匹配的区域并用矩形框框出以确定需要追踪的多个目标,如图3中所示的目标1、目标2、目标3和目标4即为需要追踪的多个目标。对每个目标分别使用矩形框进行框定,能很好的避免由于目标之间的相似性以及遮挡性导致在后续帧中目标出现混淆,导致采集的数据出现偏差。可选地,对需要追踪的目标进行框定不局限于矩形框,菱形框或者其他四边形的图形都可以。甚至在其他一些实施方式中,还可以用其他多边形对目标进行框定。
请再次参阅图2,本实施例的基于图像聚类的视频标注方法还包括:
步骤S3,目标追踪模型读取所述视频中的每一帧图像,并识别出每一帧图像中需要追踪的多个目标以获得多张图像。
请参阅图4,步骤S3具体包括如下步骤:
S31、目标追踪模型读取第一帧图像,获得第一帧图像中需要追踪的多个目标的位置信息和追踪特征信息,基于第一帧图像中目标的位置信息和追踪特征信息将需要追踪的多个目标进行追踪并更新每一帧中目标的追踪特征信息和位置信息;
在本步骤中,追踪特征信息包括颜色特征、轮廓特征、纹理特征或者其他特征中任一种或者多种,与位置信息配合对不同帧中目标进行追踪。本实施例以位置信息和轮廓信息相结合进行举例说明。
请再次参阅图4,步骤S3还包括步骤:
S32、追踪模型在读取后续的每一帧图像时判断追踪的目标是否有丢失,当追踪模型判断出追踪的目标丢失时,所述检测模型确认目标是否有丢失并继续对未丢失的目标进行追踪直至视频结束。
请参阅图5,步骤S32具体包括如下步骤:
S321、目标追踪模型读取下一帧视频图像,结合上一帧目标的位置信息和追踪特征信息确定多个需要追踪的目标;
S322、追踪模型判断目标是否丢失;
若否,则执行步骤
S324、更新目标位置;
若是,则执行步骤
S325、由检测模型进一步确认目标是否丢失,根据检测模型的判定结果对追踪目标进行标注;
执行完步骤S324或步骤S325之后,执行步骤
S326、更新追踪状态。
上述步骤S321中,目标追踪模型在读取后续的每一帧图像时,识别出与上一帧的每个目标的轮廓相匹配的区域,基于前后两帧中目标追踪特征信息的渐变性,将后一帧中多个轮廓与前一帧多个目标的轮廓相匹配,并进一步结合每个目标之间位置信息的关联性确定的多个需要追踪目标。
在步骤S322中,若追踪模型未找到与需要追踪的目标相匹配的轮廓轨迹时,则认为目标已经丢失了。比如,在第二帧中若未找到于目标1相匹配的轮廓时,则认为目标1已经丢失了。
当执行完步骤S322之后,若目标没有丢失,则更新目标位置以及更新跟踪状态。也即将目标在该帧中的位置信息进行更新,以及跟踪状态对应到搜索到的相似的轮廓处。并更新该帧中目标的位置信息和追踪特征信息,使得后一帧中目标基于该帧的位置信息和追踪特征信息继续追踪采集数据。
若追踪模型判断出目标丢失,则对应执行步骤S325、由检测模型进一步确认目标是否丢失,根据检测模型的判定结果对目标进行标注。检测模型确认目标是否丢失是基于该帧中是否能找到与检测模型预存的特征模型相匹配的特征信息,若找到,则认为目标没有丢失,否则认为目标丢失。比如,若该帧中目标1的特征信息无法跟检测模型预存的特征模板相匹配,则认为目标1已经丢失了,此时若目标2、目标3和目标4未丢失,则追踪模型将目标2、目标3和目标4对应的追踪特征信息和位置信息对应到该帧中的目标2、目标3和目标4上,并在后续帧中继续对目标2、目标3和目标4进行追踪以采集数据。
可以理解的是,当目标1丢失之后,继续对目标2、目标3和目标4进行追踪,若在后续帧的图像中目标1又重新出现了,则继续对其进行追踪。
可以理解,目标2、目标3和目标4是否丢失和目标1的判定过程相同,在此不在赘述。
在上述步骤S32中,检测模型对每一帧图像进行检测确认目标是否丢失、或者间隔至少一帧图像进行检测确认目标是否丢失。可选地,设定每间隔5帧、10帧、15帧、30帧时检测模型确认目标是否丢失。
请参阅图6,在本发明另一的实施方式中,目标追踪模型在读取每一帧图像对目标进行追踪时,检测模型在检测每一帧的图像时除了判定目标是否丢失还包括步骤
S327,判断是否出现新目标;
若出现新目标则执行步骤
S3271、输入新标签:手工输入与新目标对应的标签对新目标进行标注且在后续帧中对新目标进行追踪;
执行完步骤S3271之后进一步执行步骤S324以及后续的相关步骤,直至视频采集结束。
若未出现新目标,则对应执行步骤S324以及后续的步骤,直至视频采集结束即可。
可以理解,在上述步骤S3271中,也可以在视频采集结束之后再输入标签对新目标进行标注。
请参阅图7,判断是否有新目标出现具体的操作是,若在当前帧中出现了之前帧都未出现过的图像轮廓时,并且在后续多帧中都出现该新目标时,则认为出现了新目标,比如图7中所示的目标5,目标5在之前的帧中都未出现过,那么目标5则是新目标。判定是否有新目标同样是基于追踪特征信息和位置信息去判断。
当出现了新的目标之后,除了手动输入标签对新目标进行标注之外,还可以将新目标对应的特征导入检测模型中对检测模型进行数据更新,以方便对新目标追踪的过程中确认新的目标是否丢失。
在本发明中所用到的追踪模型包括OpenCV、Keras算法中的一种。
请再次参阅图2,本实施例中基于图像聚类的视频标注方法还包括:
步骤S4、利用特征提取器对每张图像中的每个目标进行特征提取以获得每个目标的聚类特征信息。
请结合图2和图8,步骤S3还包括:
步骤S328,判断视频是否结束;
若视频未结束则返回步骤S321中,直接视频结束;
若视频已经结束,则执行步骤S4。当视频读取结束之后,则得到了关于每个目标的多张图像,此时执行步骤S4。
步骤S4中主要是利用CNN网络对每一张图像中的每个目标进行特征提取以获得每个目标的聚类特征信息并得出关于每个目标的特征向量。所述多张图像中每个目标的特征向量形成关于每个目标的特征向量集。所述聚类特征信息包括颜色特征、轮廓特征、纹理特征或者其他特征。所述特征向量代表每个目标的属性,每个特征向量包含每个目标在每张图片中的颜色特征、轮廓特征、纹理特征或者其他特征中的多种。
所述CNN网络包括输入层、卷积层、池化层和全连接层。所述输入层用于输入关于每个目标的多张图像,所述卷积层用于利用卷积核提取每张图片中每个目标的聚类特征信息,并输出关于每个目标的特征图;所述池化层用于对所述特征图进行池化处理,以获得规定大小的特征图;所述全连接层基于每个目标的特征图输出与每个目标对应的特征向量以形成特征向量集。
本发明另外的实施例中还包括步骤:对所述步骤S4中获得的聚类特征信息进行二值化处理或者triplet loss损失函数处理,使得CNN网络提取出来的聚类特征信息具有较好的聚类特性。
在该步骤中所使用的CNN网络经过事先训练获得。
请再次参阅图2,本实施例中基于图像聚类的视频标注方法还包括:
S5、通过聚类算法利用所述聚类特征信息对所述多张图像中相同类别的目标进行聚类。
在该步骤中,利用聚类算法对所采集的多张图像中相同类别的多个目标进行聚类,使得相同类别的目标匹配到一起,只需要标注相同类别的目标中的一个即可将其他物品自动标注,可以大大减少标注人员的工作量,提高标注效率。
具体地,在该步骤中,也即是将所有采集到的图像中的所有相同类别的目标聚集到一起。也即,比如视频结束之后,一共有80张图像,将这80张图像中的目标1、目标2、目标3和目标4分别匹配到一起。
请参阅图9,步骤S5具体包括如下步骤:
S51、对所述特征向量集筛选,去除不合格的特征向量;
在本步骤中,去除不合格的特征向量的意思是去除在设定的特征向量阈值范围外的特征向量。比如,当拍摄时的光照出现突变时,该帧中目标1的颜色特征可能出现了突变,导致其不在设定的颜色特征阈值范围内时,因此由于颜色特征的影响导致该帧目标1的特征向量不在设定的阈值范围内,因此将其去除。比如,关于目标1的图像一共有80张,即关于目标1就有80个特征向量,若其中的5个特征向量不合格,则将其去除,剩余75个特征向量。
S52、取剩余的特征向量的平均值对所述多张图像中相同类别的目标进行聚类。
比如剩余的75个特征向量中,每个特征向量中都包含颜色特征、轮廓特征、纹理特征。分别对这75张图像中的颜色特征、轮廓特征、纹理特征求平均值,然后将颜色特征平均值、轮廓特征平均值、纹理特征平均值作为目标1的特征向量平均值,也即作为目标1的特征。将每张图片中的每个目标的聚类特征信息与该目标的特征比对,把相同类别的目标匹配到一起。
请再次参阅图2,本实施例的基于图像聚类的视频标注方法还包括:
在步骤S6中对所述多个目标进行标注即使用目标的标签对目标进行标注,通常通过人工进行输入。标签包括的是物体的种类信息,如、可乐、饼干或者牛奶等物体。对目标进行标注的步骤可以在检测模型检测第一帧图像的目标时进行,也可以在视频读取结束之后再进行,或者在视频读取后续帧的过程中进行都可以。这样,使得整个数据的采集过程更加灵活,可以将检测和标注异步操作。利用聚类算法将相似类别的物品匹配到一起,在标注样品时,只需要标注相同类别的样品的其中一个即可,不需要全部标注,当采集数据的目标的数量较庞大时能很好的提高效率。
对视频中所有出现的目标进行标注之后,上传标注好的数据之前,还包括对采集的每一张图片进行图像增强处理。具体的图像增强处理的方式包括但不限于:噪声处理、扭曲处理中的任一种。对图像进行增强处理之后再训练模型,以使获得的模型具有较好的检测效果和分类效果,使得模型能更好的适用到不同的场景中。比如,即使图片是使用不同的拍摄设备、光照调节下拍摄出来的,模型仍然能很好的辨别,对待分类的样品进行检测或者分类。
请参阅图10,本发明第二实施例提供一种基于图像聚类的视频标注系统200,其包括
拍摄模块201,配置用于对所述多个目标进行视频采集;
检测模型202,配置用于读取视频中第一帧图像并确认所述多个需要追踪的目标;
目标追踪模型203,配置用于读取所述视频中的每一帧图像,并识别出每一帧图像中需要追踪的多个目标;
特征提取单元204,配置用于对每一帧图像中的每个目标进行特征提取以获得每张图片中每个目标的聚类特征信息并获得与每个目标对应的特征向量;
聚类单元205,配置用于对所述多张图像中的相同类别的目标进行聚类。
所述检测模型和目标追踪模型之间可进行信号传递,当目标追踪模型识别到所追踪的目标丢失时,发出信号给所述检测模型,检测模型确认目标是否丢失,所述检测模型还用于判断在读取每一帧图像时是否有新的目标出现。
请参阅图11,本发明第三实施例提供一种电子设备400,其特征在于:其包括一个或多个处理器402;
存储装置401,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器402执行,使得所述一个或多个处理器402实现如第一实施例所提供的基于图像聚类的视频标注算法。
下面参考图12,其示出了适于用来实现本申请实施例的终端设备/服务器的计算机系统800的结构示意图。图12示出的终端设备/服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图12所示,计算机系统800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(CPU)801执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是—但不限于—电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括检测模型、目标追踪模型、特征提取单元以及聚类单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,检测模型还可以被描述为“用于读取视频中第一帧图像并确认所述多个需要追踪的目标”。作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:基于待跟踪目标在视频的历史帧中的位置信息和追踪特征信息,从视频的当前帧中读取后续帧中的目标以获得多张图片,并且特征提取单元对每一帧图像中的每个目标进行特征提取以获得每张图片中每个目标的聚类特征信息并获得与每个目标对应的特征向量,聚类单元,配置用于对所述多张图像中的相同类别的目标进行聚类。
以上所述仅为本发明较佳实施例而已,并不用以限制本发明,凡在本发明原则之内所作的任何修改,等同替换和改进等均应包含本发明的保护范围之内。
Claims (9)
1.一种基于图像聚类的视频标注方法,其特征在于:包括如下步骤:
S1、提供一个包含多个目标的视频,所述目标为货物,所述视频在预设的拍摄角度、光线条件以及背景条件下获得;
S2、检测模型读取视频中第一帧图像并确认需要追踪的所述多个目标,所述检测模型为目标检测网络,所述检测模型是基于与每个需要追踪的目标相匹配的特征训练而得,所述检测模型中存有用于识别需要追踪的所述多个目标的特征模板,当其读取第一帧图像时,将当前图片的特征信息与特征模板上的信息比对以确定需要追踪的所述多个目标;
S3、目标追踪模型读取所述视频中的每一帧图像,并识别出每一帧图像中需要追踪的多个目标以获得多张图像;所述步骤S3具体包括如下步骤:
S31、目标追踪模型读取第一帧图像,获得第一帧图像中需要追踪的多个目标的位置信息和追踪特征信息,基于第一帧图像中目标的位置信息和追踪特征信息将需要追踪的多个目标进行追踪并更新每一帧中目标的追踪特征信息和位置信息;及
S32、目标追踪模型在读取后续的每一帧图像时判断追踪的目标是否有丢失,当追踪模型判断出追踪的目标丢失时,所述检测模型确认目标是否有丢失并继续对未丢失的目标进行追踪直至视频结束;
所述追踪特征信息包括颜色特征、轮廓特征、纹理特征中一种或者几种;
S4、利用特征提取器对每张图像中的每个目标进行特征提取以获得每个目标的聚类特征信息;
S5、通过聚类算法利用所述聚类特征信息对所述多张图像中相同类别的目标进行聚类;以及
S6、对所述多个目标进行标注。
2.如权利要求1所述的基于图像聚类的视频标注方法,其特征在于:所述步骤S4还包括步骤:根据所述每张图像中每个目标的聚类特征信息获得关于每个目标的特征向量以形成关于每个目标的特征向量集。
3.如权利要求2所述的基于图像聚类的视频标注方法,其特征在于:步骤S5具体包括如下步骤:
S51、对所述特征向量集筛选,去除不合格的特征向量;
S52、取剩余的特征向量的平均值对所述多张图像中相同类别的目标进行聚类。
4.如权利要求2所述的基于图像聚类的视频标注方法,其特征在于:上述步骤S4中,利用CNN网络对每一帧图像中的目标进行特征提取以获得关于每个目标的聚类特征信息并获得特征向量。
5.如权利要求1所述的基于图像聚类的视频标注方法,其特征在于:对所述步骤S4中获得的聚类特征信息进行二值化处理或者triplet loss损失函数处理。
6.如权利要求5所述的基于图像聚类的视频标注方法,其特征在于:所述目标追踪模型在读取第一帧之后的图像时判断目标是否丢失的同时还检测是否有新的目标出现,若检测到新的目标出现时,所述目标追踪模型获取新目标对应的追踪特征信息并在后续帧中对新目标进行追踪。
7.一种基于图像聚类的视频标注系统,其特征在于:其包括
拍摄模块,配置用于对多个目标进行视频采集,所述目标为货物,拍摄模块在预设的拍摄角度、光线条件以及背景条件下进行视频采集;
检测模型,配置用于读取视频中第一帧图像并确认需要追踪的所述多个目标所述检测模型为目标检测网络,所述检测模型是基于与每个需要追踪的目标相匹配的特征训练而得,所述检测模型中存有用于识别需要追踪的多个目标的特征模板,当其读取第一帧图像时,将当前图片的特征信息与特征模板上的信息比对以确定多个需要追踪的目标;
目标追踪模型,配置用于读取所述视频中的每一帧图像,并识别出每一帧图像中需要追踪的多个目标以获得多张图像,目标追踪模型读取第一帧图像,获得第一帧图像中需要追踪的多个目标的位置信息和追踪特征信息,基于第一帧图像中目标的位置信息和追踪特征信息将需要追踪的多个目标进行追踪并更新每一帧中目标的追踪特征信息和位置信息;及
目标追踪模型在读取后续的每一帧图像时判断追踪的目标是否有丢失,当追踪模型判断出追踪的目标丢失时,所述检测模型确认目标是否有丢失并继续对未丢失的目标进行追踪直至视频结束,所述追踪特征信息包括颜色特征、轮廓特征、纹理特征中一种或者几种;
特征提取单元,配置用于对每一帧图像中的每个目标进行特征提取以获得每张图像中每个目标的聚类特征信息并获得与每个目标对应的特征向量;
聚类单元,配置用于对所述多张图像中的相同类别的目标进行聚类。
8.如权利要求7所述的基于图像聚类的视频标注系统,其特征在于:所述检测模型和目标追踪模型之间可进行信号传递,当目标追踪模型识别到所追踪的目标丢失时,发出信号给所述检测模型,检测模型确认目标是否丢失,所述检测模型还用于判断在读取每一帧图像时是否有新的目标出现。
9.一种电子设备,其特征在于:其包括一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910041781.1A CN109829397B (zh) | 2019-01-16 | 2019-01-16 | 一种基于图像聚类的视频标注方法、系统以及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910041781.1A CN109829397B (zh) | 2019-01-16 | 2019-01-16 | 一种基于图像聚类的视频标注方法、系统以及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109829397A CN109829397A (zh) | 2019-05-31 |
CN109829397B true CN109829397B (zh) | 2021-04-02 |
Family
ID=66860321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910041781.1A Active CN109829397B (zh) | 2019-01-16 | 2019-01-16 | 一种基于图像聚类的视频标注方法、系统以及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109829397B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112233138B (zh) * | 2019-06-28 | 2024-07-19 | 北京京东乾石科技有限公司 | 一种目标检测方法和装置 |
CN112686925A (zh) * | 2019-10-18 | 2021-04-20 | 西安光启未来技术研究院 | 一种目标追踪方法和装置 |
CN112990625A (zh) * | 2019-12-13 | 2021-06-18 | 北京金山云网络技术有限公司 | 标注任务的分配方法、装置及服务器 |
CN111401229B (zh) * | 2020-03-13 | 2023-09-19 | 中科创达软件股份有限公司 | 视觉小目标自动标注方法、装置及电子设备 |
CN111832549B (zh) * | 2020-06-29 | 2024-04-23 | 深圳市优必选科技股份有限公司 | 数据标注方法及装置 |
EP4181013A4 (en) * | 2020-07-21 | 2023-08-16 | Huawei Technologies Co., Ltd. | METHOD AND APPARATUS FOR DETERMINING LABELING INFORMATION |
CN112907628A (zh) * | 2021-02-09 | 2021-06-04 | 北京有竹居网络技术有限公司 | 视频目标追踪方法、装置、存储介质及电子设备 |
CN113657307A (zh) * | 2021-08-20 | 2021-11-16 | 北京市商汤科技开发有限公司 | 一种数据标注方法、装置、计算机设备及存储介质 |
CN117975198A (zh) * | 2024-02-02 | 2024-05-03 | 北京视觉世界科技有限公司 | 目标检测类数据集的自动化构建方法及其相关设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6272250B1 (en) * | 1999-01-20 | 2001-08-07 | University Of Washington | Color clustering for scene change detection and object tracking in video sequences |
CN104244113A (zh) * | 2014-10-08 | 2014-12-24 | 中国科学院自动化研究所 | 一种基于深度学习技术的视频摘要生成方法 |
CN106971401A (zh) * | 2017-03-30 | 2017-07-21 | 联想(北京)有限公司 | 多目标跟踪装置和方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033922A (zh) * | 2017-06-08 | 2018-12-18 | 北京君正集成电路股份有限公司 | 一种视频中设置目标标识的方法及装置 |
CN108154118B (zh) * | 2017-12-25 | 2018-12-18 | 北京航空航天大学 | 一种基于自适应组合滤波与多级检测的目标探测系统及方法 |
-
2019
- 2019-01-16 CN CN201910041781.1A patent/CN109829397B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6272250B1 (en) * | 1999-01-20 | 2001-08-07 | University Of Washington | Color clustering for scene change detection and object tracking in video sequences |
CN104244113A (zh) * | 2014-10-08 | 2014-12-24 | 中国科学院自动化研究所 | 一种基于深度学习技术的视频摘要生成方法 |
CN106971401A (zh) * | 2017-03-30 | 2017-07-21 | 联想(北京)有限公司 | 多目标跟踪装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109829397A (zh) | 2019-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829397B (zh) | 一种基于图像聚类的视频标注方法、系统以及电子设备 | |
CN108229322B (zh) | 基于视频的人脸识别方法、装置、电子设备及存储介质 | |
US10860888B2 (en) | Detecting objects in images | |
US11392792B2 (en) | Method and apparatus for generating vehicle damage information | |
US10891465B2 (en) | Methods and apparatuses for searching for target person, devices, and media | |
WO2020062493A1 (zh) | 图像处理方法和装置 | |
US8805123B2 (en) | System and method for video recognition based on visual image matching | |
KR102002024B1 (ko) | 객체 라벨링 처리 방법 및 객체 관리 서버 | |
CN113436100B (zh) | 用于修复视频的方法、装置、设备、介质和产品 | |
CN110083740B (zh) | 视频指纹提取及视频检索方法、装置、终端及存储介质 | |
CN110211121B (zh) | 用于推送模型的方法和装置 | |
CN109583389B (zh) | 绘本识别方法及装置 | |
CN110209658B (zh) | 数据清洗方法和装置 | |
CN110334768B (zh) | 一种冰柜陈列检测方法、系统及电子设备 | |
JP2022110132A (ja) | 陳列シーン認識方法、モデルトレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN110660102A (zh) | 基于人工智能的说话人识别方法及装置、系统 | |
CN113033377B (zh) | 字符位置修正方法、装置、电子设备和存储介质 | |
CN113112497B (zh) | 一种基于零样本学习的工业外观缺陷检测方法、电子设备及存储介质 | |
CN109389096A (zh) | 检测方法和装置 | |
CN113378958A (zh) | 自动标注方法、装置、设备、存储介质及计算机程序产品 | |
CN111368657A (zh) | 牛脸识别方法和装置 | |
CN112766284A (zh) | 图像识别方法和装置、存储介质和电子设备 | |
CN112052730A (zh) | 一种3d动态人像识别监控设备及方法 | |
CN111160410A (zh) | 一种物体检测方法和装置 | |
CN108921792B (zh) | 用于处理图片的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |