CN116188804B - 一种基于transformer的孪生网络目标搜索系统 - Google Patents
一种基于transformer的孪生网络目标搜索系统 Download PDFInfo
- Publication number
- CN116188804B CN116188804B CN202310449364.7A CN202310449364A CN116188804B CN 116188804 B CN116188804 B CN 116188804B CN 202310449364 A CN202310449364 A CN 202310449364A CN 116188804 B CN116188804 B CN 116188804B
- Authority
- CN
- China
- Prior art keywords
- target
- picture
- query
- graph
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明属于计算机视觉中图像检索和目标检测领域,本发明公开了一种基于transformer的孪生网络目标搜索系统,本发明通过引入vision transformer模型加DETR目标检测头的方式,训练目标检索模型,端到端地训练当前的目标检索模型,同时完成检测和检索的任务,更好地提升了模型的准确性。
Description
技术领域
本发明属于计算机视觉中图像检索和目标检测领域,本发明公开了一种基于transformer的孪生网络目标搜索系统。
背景技术
计算机视觉就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。图像处理技术把输入图像转换成具有所希望特性的另一幅图像。在计算机视觉研究中经常利用图像处理技术进行预处理和特征抽取,让计算机具有视觉、听觉和说话等能力。
目标检测与识别在生活中多个领域中有着广泛的应用,它是将图像或者视频中的目标与不感兴趣的部分区分开,判断是否存在目标,若存在目标则确定目标的位置,识别目标是一种计算机视觉任务。目标检测与识别是计算机视觉领域中一个非常重要的研究方向,随着互联网,人工智能技术,智能硬件的迅猛发展,人类生活中存在着大量的图像和视频数据,这使得计算机视觉技术在人类生活中起到的作用越来越大,对计算机视觉的研究也越来月火热。目标检测与识别,作为计算机视觉领域的基石,也越来越受到重视。由于当前对目标检索系统的需求越来越大,且目标检索系统的技术发展较为缓慢,迫切需要一套成熟的目标检索系统,准确地解决实际的目标检索问题,故开发本系统。
发明内容
为解决上述技术问题,本发明提供了一种基于transformer的孪生网络目标检索系统,利用摄像头监测目标,结合计算机视觉中图像检索和目标检测的方法,实现了对摄像头监控区域内目标的检索与显示。
为达到上述目的,本发明的技术方案如下:
一种基于transformer的孪生网络目标搜索系统,包括以下步骤:
(1)采集图像数据,作为待搜索图;并在部分待搜索图中提取出感兴趣目标,作为查询图,设计孪生网络目标搜索训练模型;
(2)进行摄像头区域选择,选择摄像头群组确定搜索区域,输入待搜索目标图片;
(3)搜索任务启动,通过视频取帧的方式从摄像头内等时间间隔地获取场景图片,图片通过模型进行检测,检测出每一个目标,将目标与待搜索图做特征比较,计算目标匹配度,取最大值,若匹配度超过设定阈值,将搜索图片的序号i加入结果队列;
(4)若结果队列有新纪录产生,则将当前检测图片存入后台服务器设置好的静态资源目录下,并将信息存入数据库,前端界面根据需求从数据库筛选显示对应目标的搜索结果信息。
进一步的,步骤(1)具体方法如下:
(1.1)采集n张搜索图记为I1,I2,…,In,每张搜索图默认大小为224*224,n张搜索图中目标个数分别为mb,b∈(1,2,…,n)切割出查询图为I′11,I′12,…,I′1m1,…,I′n1,I′n2,…,I′nmn,将每张查询图由原尺寸放缩到大小为56*56,记为I11,I12,…,I1m1,…,In1,In2,…,Inmn,然后对每张查询图进行人工分类,把同一个目标的查询图分为一类,假设可以将查询图分为count类,记为cnt1,cn2,…,cntcount,对应count个文件夹将每张查询图放入对应类的文件夹中,然后建立一个字典dict,key值对应为每一张搜索图,记为dict[I1],dict[I2],…,dict[In],dict中的每个key值对应的value为当前搜索图中存在所有目标的类名;
(1.2)设计孪生网络目标搜索模型,模型特征提取主干分为vit1、vit2,vit1用来提取搜索图的特征;然后选择16张查询图,选择规则为:查询当前搜索图的索引index,从不是当前索引的类别文件夹中随机选择4张查询图,从索引的所有类别文件中共选择12张查询图,其中每个类别文件夹随机选取3张查询图,若可以选择出12张查询图,则将这16张56*56的查询图以随机顺序拼接为一张224*224的图片;vit2用来提取“查询拼接图”中对应一系列查询图的特征,vit1和vit2进行权值共享;
(1.3)vit1提取的特征通过DETR目标检测头获得一个obj_loss,DETR目标检测头的作用是预测搜索图中的每个目标的位置,vit1与vit2提取的特征共同获得一个sch_loss,obj_loss与sch_loss通过比例关系进行组合。
进一步的,步骤(1.2)中:若不可以选择出12张查询图,则用数据增强的方式,每次从已经选择出的查询图中随机选择一张查询图进行处理,通过翻转或旋转的方式,产生一张新的查询图,大小仍为56*56,重复数据增强操作,直到查询图的总数达到16张,则数据增强操作结束,然后这16张56*56的查询图拼接为一张与搜索图224*224的图片,这张新拼接的图片命名为“查询拼接图”,记为D1,D2,…,Dn。
进一步的,步骤(1.2)中,
(1.2.1)添加DETR目标检测头,可以从每张待搜索图中检测并框出每一个目标,并且获得每个目标的坐标;
(1.2.2)数据分为n组,每组为(Iu,Dv),u∈{1,2...,n},v∈{1,2...,n},其中Iu为第u张搜索图,Dv为第v张查询拼接图;Iu通过vit1提取特征Zu,然后通过DETR目标检测头,得到搜索图中mb个目标的特征向量Z′u1,Z′u2,...,Z′um,将m个目标的特征向量放缩到56*56*384的特征维度,对应特征向量为Zu1,Zu2,...,Zum,Dv通过vit2提取特征Zv,由于Dv是由16张56*56大小的查询图拼接而成,即可以根据固定的坐标位置提取特征得到对应的16个特征向量Zv1,Zv2,...,Zv16;
(1.2.3)对于搜索图产生的特征向量Zu1,Zu2,...,Zum,查询拼接图产生的特征向量Zv1,Zv2,...,Zv16,两两比较,二者属于同一类别时,定义为正样本,二者不属于同一类别时,定义为负样本,采用余弦距离公式定义损失函数:
dloss1=1-cos<Zuδ,Zvη}> (公式1);
dloss2=1+cos<Zuδ,Zvη}> (公式2);
dloss=dloss1+ dloss2 (公式3);
u∈{1,2,...,n},v∈{1,2,...,n},δ∈{1,2,...,m},η∈{1,2,...16};Zuδ为搜索图u的第δ目标的特征向量;Zvη为查询拼接图v的第η个特征向量;
当输入网络的为正样本时,采用公式1计算损失,需要使两个特征向量Zuδ,Zvη之间的距离越小,导致dloss1越小,当输入网络的为负样本时,采用公式2计算损失,需要使两个特征向量Zuδ,Zvη之间的距离越大,导致dloss2越小,最终使dloss越小。
进一步的,步骤(1.3)具体方法如下:
(1.3.1)设vit1中的单个目标经过DETR目标检测头输出loss为obj_loss,设检测头得到k个检测框,概率分别为p1,p2,…,pk,则结果框编号为:
(1.3.2)选择num号检测框区域记录为A,设预置anchor的区域为B,A与B保证有相交区域,且B不完全包含A,假设x代表A∩B或者A∪B的区域,则|x|代表区域x的面积;
(1.3.3)vit1与vit2的特征共同获得一个sch_loss,定义基准t∈[0,1],vit1的特征向量定义为L1,vit2的特征向量定义为L2,t=α*L1-β*L2,α和β是可学习的参数,对于所有的搜索图和对应的查询图成组输入时,让t尽可能去趋近于0,反之,不是成组输入时,让t尽可能去趋近于1,每次的sch_loss=|α-β|;
(1.3.4)确定最终损失:loss=λ1*obj_loss+λ2*sch_loss,其中λ1+λ2=1。
进一步的,步骤(2)具体方法如下:
(2.1)为当前任务建立一个新的进程,并将当前的进程ID加入到进程队列中,启动当前进程,准备执行目标搜索任务;
(2.2)程序启动时,需要在前端选择对应区域的摄像头群组,假设选择q个摄像头对应c1,c2…,cq,并检测是否已加入了目标图片nametar,满足条件即成功启动系统。
进一步的,步骤(3)具体方法如下:
(3.1)前端传入启动命令,启动目标搜索模块;
(3.2)运行视频取帧模块,针对q个摄像头中,每个摄像头取出一张待检测图片,图片名为name1,name2…,nameq,每一张图片产生特征向量分别为f1,f2…,fq,每一张图片里面的mb个目标(m≥1)对应的特征向量分别为f′11,f′12,…f′1m,…,f′q1,f′q2…,f′qm,放缩到与目标图片的特征向量ftar同样的维度尺寸,分别为f11,f12,...f1m,...,fq1,fq2…,fqm,然后与目标图片的特征向量ftar,进行特征比较计算匹配度,生成特征匹配度哈希表Map,Map[i][0]记录图片的序号i的最高匹配度,Map[i][1]记录图片的序号i中最高匹配度目标区域的位置坐标,其中每个值为:
Map[i][0]=cos< f[i][j],ftar> ,i∈[1,q],j∈[1,m] (公式6);
Map[i][1]=(centerx,centery,h,w) (公式7);
其中centex代表区域中心的横坐标,centy代表区域中心的纵坐标,h代表区域高度,w代表区域宽度;
(3.3)设定阈值为y,从Map中选择值超过y的图片的序号i,将图片的序号i加入到结果对列Result。
进一步的,步骤(3.3)具体方法如下:
(3.3.1)遍历当前Map,对每个Map[i][0],若Map[i][0]>y,则说明当前图片是含有目标图片特征的有效的场景图片,记录图片的序号i;
(3.3.2)对筛选出的图片序号做一个添加操作,在结果对列Result的末尾加入新产生图片的序号i,i∈[1,q],最后返回结果对列Result。
进一步的,步骤(4)具体方法如下:
(4.1)检测结果队列,若有新记录产生,获取当前图片的序号i,将图片的序号i存入预先设置好的服务器static文件夹下,并生成图片序号i的访问地址urli,将摄像头ci、目标匹配度Map[i][0]、目标坐标Map[i][1]、目标图片名nametar与访问地址urli写入数据库;
(4.2)前端通过设置查找条件,实时筛选显示当前目标图片nametar对应的搜索结果信息。
与现有技术相比,本发明具有以下有益效果:
(1)本发明通过采用孪生网络,引入query进行训练,使训练后的模型更加准确,具有针对性。
(2)本发明通过引入vision transformer模型+DETR目标检测头的方式,训练目标检索模型,端到端地训练当前的目标检索模型,同时完成检测和检索的任务,更好地提升了模型的准确性。
(3)本发明通过前端,在前端实时地筛选显示当前目标图片在监控区域内出现的情况,并实时更新。
附图说明
图1为本发明实施例所公开的一种基于transformer的孪生网络目标检索系统整体示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种基于transformer的孪生网络目标检索系统,如图1所示,该方法可以利用摄像头监测目标,结合计算机视觉中图像检索和目标检测的方法,实现了对摄像头监控区域内目标的检索与显示。
具体实施例如下:
一种基于transformer的孪生网络目标检索系统,包括以下步骤:
(1)数据采集与模型设计阶段:
(1.1)采集n张搜索图记为I1,I2,…,In,每张搜索图默认大小为224*224,n张搜索图中目标个数分别为mb,b∈(1,2,…,n),切割出查询图为经过Resize操作(对图片进行放缩操作),将每张查询图由原尺寸放缩到大小为56*56,记为然后对每张查询图进行人工分类,把同一个目标的查询图分为一类,假设可以将查询图分为count类,记为cnt1,cnt2,…,cntcount,对应count个文件夹将每张查询图放入对应类的文件夹中,然后建立一个字典dict,key值对应为每一张搜索图,记为dict[I1],dict[I2],…,dict[In],dict中的每个key值对应的value为当前搜索图中存在所有目标的类名(同文件夹名)。
(1.2)设计孪生网络目标搜索模型,模型特征提取主干分为vit1、vit2(vit1与vit2均基于vision transformer),vit1用来提取搜索图的特征;然后选择16张查询图,选择规则为:查询当前搜索图的索引index,从不是当前索引的类别文件夹中随机选择4张查询图,从索引的所有类别文件中共选择12张查询图,其中每个类别文件夹随机选取3张查询图,若可以选择出12张查询图,则将这16张56*56的查询图以随机顺序拼接为一张224*224的图片;若不可以选择出12张查询图,则用数据增强的方式,每次从已经选择出的查询图中随机选择一张查询图进行处理,通过翻转或旋转的方式,产生一张新的查询图,大小仍为56*56,重复数据增强操作,直到查询图的总数达到16张,则数据增强操作结束,然后将这16张56*56的查询图拼接为一张搜索图224*224的图片,这张新拼接的图片命名为“查询拼接图”,记为D1,D2,…,Dn,vit2用来提取“查询拼接图”中对应一系列查询图的特征,vit1和vit2进行权值共享进一步提高网络的准确性,具体操作为:
(1.2.1)添加DETR目标检测头,DETR目标检测头是检测图片中目标位置的一个功能模块,它可以预测当前图片中每个目标所在的位置,通过DETR目标检测头,可以从每张待搜索图中,检测并框出每一个目标,并且获得每个目标的坐标。
DETR的全称是DEtection TRansformer,是Facebook提出的基于Transformer的端到端目标检测网络.
(1.2.2)数据分为n组,每组为(Iu,Dv),u∈{1,2...,n},v∈{1,2...,n},其中Iu为第u张搜索图,Dv为第v张查询拼接图;Iu通过vit1提取特征Zu,然后通过DETR目标检测头,得到搜索图中mb个目标的特征向量Z′u1,Z′u2,...,Z′um,经过一个ROI Pooling操作将m个目标的特征向量放缩到56*56*384的特征维度,对应特征向量为Zu1,Zu2,...,Zum,Dv通过vit2提取特征Zv,由于Dv是由16张56*56大小的查询图拼接而成,即可以根据固定的坐标位置提取特征得到对应的16个特征向量Zv1,Zv2,...,Zv1。
(1.2.3)对于搜索图产生的特征向量Zu1,Zu2,...,Zum,查询拼接图产生的特征向量Zv1,Zv2,...,Zv16,两两比较,二者属于同一类别时,定义为正样本,二者不属于同一类别时,定义为负样本,采用余弦距离公式定义损失函数:
dloss1=1-cos<Zuδ,Zvη}> (公式1);
dloss2=1+cos<Zuδ,Zvη}> (公式2);
dloss=dloss1+dlo2 (公式3);
u∈{1,2,...,n},v∈{1,2,...,n},δ∈{1,2,...,m},η∈{1,2,...16};Zuρ为搜索图u的第δ目标的特征向量;Zvη为查询拼接图v的第η个特征向量;
当输入网络的为正样本时,采用公式1计算损失,需要使两个特征向量Zuδ,Zvη之间的距离越小,导致dloss1越小,当输入网络的为负样本时,采用公式2计算损失,需要使两个特征向量Zuδ,Zvη之间的距离越大,导致dloss2越小,最终使dloss越小。
(1.3)vit1提取的特征通过DETR目标检测头(DETR目标检测头的作用是预测搜索图中的每个目标的位置),获得一个obj_loss,vit1与vit2提取的特征共同获得一个sch_loss,obj_loss与sch_loss通过比例关系进行组合,具体操作为:
(1.3.1)设vit1中的单个目标经过DETR目标检测头输出loss为obj_loss,
设检测头得到k个检测框,概率分别为p1,p2,…,pk,则结果框编号为:
(1.3.2)选择num号检测框区域记录为A,设预置anchor的区域为B,A与B保证有相交区域,且B不完全包含A,假设x代表A∩B或者A∪B的区域,则|x|代表区域x的面积。
(1.3.3)vit1与vit2的特征共同获得一个sch_loss,定义基准t∈[0,1],vit1的特征向量定义为L1,vit2的特征向量定义为L2,t=α*L1-β*L2,α和β是可学习的参数,对于所有的搜索图和对应的查询图成组输入时,让t尽可能去趋近于0,反之,不是成组输入时,让t尽可能去趋近于1,每次的sch_loss=|α-β|。
(1.3.4)确定最终损失:loss=λ1*obj_loss+λ2*sch_loss,其中λ1+λ2=1,可根据需要调整。目前我们采用λ1=0.8,λ2=0.2的取值。
(2)开关设置与区域设置阶段:
(2.1)为当前任务建立一个新的进程,并将当前的进程ID加入到进程队列中,启动当前进程,准备执行目标搜索任务。
(2.2)程序启动时,需要在前端选择对应区域的摄像头群组,假设选择q个摄像头对应c1,c2…,cq,并检测是否已加入了目标图片nametar,满足条件即成功启动系统。
(3)模型检测处理阶段:
(3.1)前端传入启动命令,启动目标搜索模块;
(3.2)运行视频取帧模块,针对q个摄像头中,每个摄像头取出一张待检测图片,图片名为name1,name2…,nameq,每一张图片产生特征向量分别为f1,f2…,fq,每一张图片里面的mb个目标(m≥1)对应的特征向量分别为f′11,f′12,…f′1m,…,f′q1,f′q2…,f′qm,经过一个ROI Pooling操作(对特征向量进行放缩),放缩到与目标图片的特征向量ftar同样的维度尺寸,分别为f11,f12,...f1m,...,fq1,fq2…,fqm,然后与目标图片的特征向量ftar,进行特征比较计算匹配度,生成特征匹配度哈希表Map,Map[i][0]记录图片序号i的最高匹配度,Map[i][1]记录图片序号i中最高匹配度目标区域的位置坐标,其中每个值为:
Map[i][0]=cos< f[i][j],ftar> ,i∈[1,q],j∈[1,m] (公式6);
Map[i][1]=(centerx,centery,h,w)(公式7);
其中centerx代表区域中心的横坐标,centery代表区域中心的纵坐标,h代表区域高度,w代表区域宽度。
(3.3)设定阈值为y,从Map中选择值超过y的图片序号i,将图片的序号i加入到结果对列Result,具体操作为:
(3.3.1)遍历当前Map,对每个Map[i][0],若Map[i][0]>y,则说明当前图片是含有目标图片特征的有效的场景图片,记录图片序号i。
(3.3.2)对筛选出的图片序号做一个添加操作,在结果对列Result的末尾加入新产生的图片序号i,i∈[1,q],最后返回结果对列Result。
(4)存储与显示阶段:
(4.1)检测结果队列,若有新记录产生,获取当前图片序号i,将图片i存入预先设置好的服务器static文件夹下,并生成图片序号i的访问地址urli,将摄像头ci、目标匹配度Map[i][0]、目标坐标Map[i][1]、目标图片名nametar与访问地址uri写入数据库。
(4.2)前端通过设置查找条件,实时筛选显示当前目标图片nametar对应的搜索结果信息。
该方法可在部署了摄像头的场景下,实现对摄像头监控区域内目标的检索与显示,引入孪生网络,vision transformer模型+DETR目标检测头的方式,结果队列,区域loss计算,匹配度计算、摄像头区域选择等手段,兼容多种类型可见光摄像头的使用,具有较高的鲁棒性,在前端筛选显示当前目标图片在监控区域内出现的情况,并实时更新。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (7)
1.一种基于transformer的孪生网络目标搜索系统,其特征在于,包括以下步骤:
(1)采集图像数据,作为待搜索图;并在部分待搜索图中提取出感兴趣目标,作为查询图,设计孪生网络目标搜索训练模型;
(1.1)采集n张搜索图记为I1,I2,…,In,每张搜索图默认大小为224*224,n张搜索图中目标个数分别为mb,b∈(1,2,…,n)切割出查询图为将每张查询图由原尺寸放缩到大小为56*56,记为/>然后对每张查询图进行人工分类,把同一个目标的查询图分为一类,假设可以将查询图分为count类,记为cnt1,cnt2,…,cncount,对应count个文件夹将每张查询图放入对应类的文件夹中,然后建立一个字典dict,key值对应为每一张搜索图,记为dict[Ii],dict[I2],…,dict[In],dict中的每个key值对应的value为当前搜索图中存在所有目标的类名;
(1.2)设计孪生网络目标搜索模型,模型特征提取主干分为vit1、vit2,vit1用来提取搜索图的特征;然后选择16张查询图,选择规则为:查询当前搜索图的索引index,从不是当前索引的类别文件夹中随机选择4张查询图,从索引的所有类别文件中共选择12张查询图,其中每个类别文件夹随机选取3张查询图,若可以选择出12张查询图,则将这16张56*56的查询图以随机顺序拼接为一张224*224的图片;vit2用来提取“查询拼接图”中对应一系列查询图的特征,vit1和vit2进行权值共享;
(1.2.1)添加DETR目标检测头,可以从每张待搜索图中检测并框出每一个目标,并且获得每个目标的坐标;
(1.2.2)数据分为n组,每组为(Iu,Dv),u∈{1,2...,n},v∈{1,2...,n},其中Iu为第u张搜索图,Dv为第v张查询拼接图;Iu通过vit1提取特征Zu,然后通过DETR目标检测头,得到搜索图中mb个目标的特征向量Z′u1,Z′u2,...,Z′um,将m个目标的特征向量放缩到56*56*384的特征维度,对应特征向量为Zu1,Zu2,...,Zum,Dv通过vit2提取特征Zv,由于Dv是由16张56*56大小的查询图拼接而成,即可以根据固定的坐标位置提取特征得到对应的16个特征向量Zv1,Zv2,...,Zv16;
(1.2.3)对于搜索图产生的特征向量Zu1,Zu2,...,Zum,查询拼接图产生的特征向量Zv1,Zv2,...,Zv1,两两比较,二者属于同一类别时,定义为正样本,二者不属于同一类别时,定义为负样本,采用余弦距离公式定义损失函数:
dloss1=1-cos<Zuδ,Zvη}> (公式1);
dloss2=1+cos<Zuδ,Zvη}> (公式2);
dloss=dloss1+ dloss2 (公式3);
u∈{1,2,...,n},v∈{1,2,...,n},δ∈{1,2,...,m},η∈{1,2,...16};Zuδ为搜索图u的第δ目标的特征向量;Zvη为查询拼接图v的第η个特征向量;
当输入网络的为正样本时,采用公式1计算损失,需要使两个特征向量Zuδ,Zvη之间的距离越小,导致dloss1越小,当输入网络的为负样本时,采用公式2计算损失,需要使两个特征向量Zuδ,Zvη之间的距离越大,导致dloss2越小,最终使dloss越小;
(1.3)vit1提取的特征通过DETR目标检测头获得一个obj_loss,DETR目标检测头的作用是预测搜索图中的每个目标的位置,vit1与vit2提取的特征共同获得一个sch_loss,obj_loss与sch_loss通过比例关系进行组合;
(2)进行摄像头区域选择,选择摄像头群组确定搜索区域,输入待搜索目标图片;
(3)搜索任务启动,通过视频取帧的方式从摄像头内等时间间隔地获取场景图片,图片通过模型进行检测,检测出每一个目标,将目标与待搜索图做特征比较,计算目标匹配度,取最大值,若匹配度超过设定阈值,将搜索图片的序号i加入结果队列;
(4)若结果队列有新纪录产生,则将当前检测图片存入后台服务器设置好的静态资源目录下,并将信息存入数据库,前端界面根据需求从数据库筛选显示对应目标的搜索结果信息。
2.根据权利要求1所述的一种基于transformer的孪生网络目标搜索系统,其特征在于,步骤(1.2)中:若不可以选择出12张查询图,则用数据增强的方式,每次从已经选择出的查询图中随机选择一张查询图进行处理,通过翻转或旋转的方式,产生一张新的查询图,大小仍为56*56,重复数据增强操作,直到查询图的总数达到16张,则数据增强操作结束,然后这16张56*56的查询图拼接为一张与搜索图224*224的图片,这张新拼接的图片命名为“查询拼接图”,记为D1,D2,…,Dn。
3.根据权利要求1所述的一种基于transformer的孪生网络目标搜索系统,
其特征在于,步骤(1.3)具体方法如下:
(1.3.1)设vit1中的单个目标经过DETR目标检测头输出loss为obj_loss,
设检测头得到k个检测框,概率分别为p1,p2,…,pk,则结果框编号为:
(1.3.2)选择num号检测框区域记录为A,设预置anchor的区域为B,A与B保证有相交区域,且B不完全包含A,假设x代表A∩B或者A∪B的区域,则|x|代表区域x的面积;
(1.3.3)vit1与vit2的特征共同获得一个sch_loss,定义基准t∈[0,1],vit1的特征向量定义为L1,vit2的特征向量定义为L2,t=α*L1-β*L2,α和β是可学习的参数,对于所有的搜索图和对应的查询图成组输入时,让t尽可能去趋近于0,反之,不是成组输入时,让t尽可能去趋近于1,每次的
sch_loss=|α-β|;
(1.3.4)确定最终损失:loss=λ1*obj_loss+λ2*sch_loss,其中λ1+λ2=1。
4.根据权利要求1所述的一种基于transformer的孪生网络目标搜索系统,其特征在于,步骤(2)具体方法如下:
(2.1)为当前任务建立一个新的进程,并将当前的进程ID加入到进程队列中,启动当前进程,准备执行目标搜索任务;
(2.2)程序启动时,需要在前端选择对应区域的摄像头群组,假设选择q个摄像头对应c1,c2…,cq,并检测是否已加入了目标图片nametar,满足条件即成功启动系统。
5.根据权利要求1所述的一种基于transformer的孪生网络目标搜索系统,其特征在于,步骤(3)具体方法如下:
(3.1)前端传入启动命令,启动目标搜索模块;
(3.2)运行视频取帧模块,针对q个摄像头中,每个摄像头取出一张待检测图片,图片名为name1,name2…,nameq,每一张图片产生特征向量分别为f1,f2…,fq,每一张图片里面的mb个目标(m≥1)对应的特征向量分别为f′11,f′12,…f′1m,…,f′q1,f′q2…,f′qm,放缩到与目标图片的特征向量ftar同样的维度尺寸,分别为f11,f12,...f1m,...,fq1,fq2…,fqm,然后与目标图片的特征向量ftar,进行特征比较计算匹配度,生成特征匹配度哈希表Map,
Map[i][0]记录图片的序号i的最高匹配度,Map[i][1]记录图片的序号i中最高匹配度目标区域的位置坐标,其中每个值为:
Map[i][0]=cos< f[i][j],ftar> ,i∈[1,q],j∈[1,m] (公式6)
Map[i][1]=(centerx,ceny,h,w)(公式7)
其中centx代表区域中心的横坐标,ceny代表区域中心的纵坐标,h代表区域高度,w代表区域宽度;
(3.3)设定阈值为y,从Map中选择值超过y的图片的序号i,将图片的序号i加入到结果对列Result。
6.根据权利要求5所述的一种基于transformer的孪生网络目标搜索系统,其特征在于,步骤(3.3)具体方法如下:
(3.3.1)遍历当前Map,对每个Map[i][0],若Map[i][0]>y,则说明当前图片是含有目标图片特征的有效的场景图片,记录图片的序号i;
(3.3.2)对筛选出的图片序号做一个添加操作,在结果对列Result的末尾加入新产生图片的序号i,i∈[1,q],最后返回结果对列Result。
7.根据权利要求5所述的一种基于transformer的孪生网络目标搜索系统,其特征在于,步骤(4)具体方法如下:
(4.1)检测结果队列,若有新记录产生,获取当前图片的序号i,将图片的序号i存入预先设置好的服务器static文件夹下,并生成图片的序号i的访问地址urli,将摄像头ci、目标匹配度Map[i][0]、目标坐标Map[i][1]、目标图片名nametar与访问地址urli写入数据库;
(4.2)前端通过设置查找条件,实时筛选显示当前目标图片nametar对应的搜索结果信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310449364.7A CN116188804B (zh) | 2023-04-25 | 2023-04-25 | 一种基于transformer的孪生网络目标搜索系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310449364.7A CN116188804B (zh) | 2023-04-25 | 2023-04-25 | 一种基于transformer的孪生网络目标搜索系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116188804A CN116188804A (zh) | 2023-05-30 |
CN116188804B true CN116188804B (zh) | 2023-07-04 |
Family
ID=86449298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310449364.7A Active CN116188804B (zh) | 2023-04-25 | 2023-04-25 | 一种基于transformer的孪生网络目标搜索系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116188804B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113744311A (zh) * | 2021-09-02 | 2021-12-03 | 北京理工大学 | 基于全连接注意力模块的孪生神经网络运动目标跟踪方法 |
CN115588030A (zh) * | 2022-09-27 | 2023-01-10 | 湖北工业大学 | 基于孪生网络的视觉目标跟踪方法及设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4641414B2 (ja) * | 2004-12-07 | 2011-03-02 | キヤノン株式会社 | 文書画像検索装置、文書画像検索方法、プログラム、記憶媒体 |
US10678846B2 (en) * | 2017-03-10 | 2020-06-09 | Xerox Corporation | Instance-level image retrieval with a region proposal network |
CN111179307A (zh) * | 2019-12-16 | 2020-05-19 | 浙江工业大学 | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 |
US20220172455A1 (en) * | 2020-12-01 | 2022-06-02 | Accenture Global Solutions Limited | Systems and methods for fractal-based visual searching |
CN112883928A (zh) * | 2021-03-26 | 2021-06-01 | 南通大学 | 一种基于深度神经网络的多目标追踪算法 |
CN113240716B (zh) * | 2021-05-31 | 2023-04-18 | 西安电子科技大学 | 一种多特征融合的孪生网络目标跟踪方法及系统 |
US20230050679A1 (en) * | 2021-07-29 | 2023-02-16 | Novateur Research Solutions | System and method for rare object localization and search in overhead imagery |
CN114821390B (zh) * | 2022-03-17 | 2024-02-23 | 齐鲁工业大学 | 基于注意力和关系检测的孪生网络目标跟踪方法及系统 |
-
2023
- 2023-04-25 CN CN202310449364.7A patent/CN116188804B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113744311A (zh) * | 2021-09-02 | 2021-12-03 | 北京理工大学 | 基于全连接注意力模块的孪生神经网络运动目标跟踪方法 |
CN115588030A (zh) * | 2022-09-27 | 2023-01-10 | 湖北工业大学 | 基于孪生网络的视觉目标跟踪方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116188804A (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8107689B2 (en) | Apparatus, method and computer program for processing information | |
US20190340194A1 (en) | Associating still images and videos | |
Cong et al. | Towards scalable summarization of consumer videos via sparse dictionary selection | |
US8027541B2 (en) | Image organization based on image content | |
US20050225678A1 (en) | Object retrieval | |
US9064171B2 (en) | Detection device and method for transition area in space | |
US20120148149A1 (en) | Video key frame extraction using sparse representation | |
EP2005366A2 (en) | Forming connections between image collections | |
WO2007117615A1 (en) | Identifying unique objects in multiple image collections | |
Meng et al. | Object instance search in videos via spatio-temporal trajectory discovery | |
US20140193048A1 (en) | Retrieving Visual Media | |
CN112464775A (zh) | 一种基于多分支网络的视频目标重识别方法 | |
Wu et al. | Independent metric learning with aligned multi-part features for video-based person re-identification | |
CN116188804B (zh) | 一种基于transformer的孪生网络目标搜索系统 | |
Sunny et al. | Map-Reduce based framework for instrument detection in large-scale surgical videos | |
US10991085B2 (en) | Classifying panoramic images | |
CN112257638A (zh) | 一种图像比对方法、系统、设备及计算机可读存储介质 | |
Piramanayagam et al. | Shot boundary detection and label propagation for spatio-temporal video segmentation | |
Lv et al. | Efficient large scale near-duplicate video detection base on spark | |
Juan et al. | Content-based video retrieval system research | |
Arnold et al. | Automatic Identification and Classification of Portraits in a Corpus of Historical Photographs | |
CN102436487B (zh) | 一种基于视频检索系统的光流方法 | |
Liu et al. | Bag of local features for person re-identification on large-scale datasets | |
CN117132926B (zh) | 一种视频处理的方法、相关装置、设备以及存储介质 | |
Bhairnallykar et al. | Content based medical image retrieval with SVM classification and relevance feedback |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |