CN112381092A - 跟踪方法、装置及计算机可读存储介质 - Google Patents
跟踪方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112381092A CN112381092A CN202011324545.XA CN202011324545A CN112381092A CN 112381092 A CN112381092 A CN 112381092A CN 202011324545 A CN202011324545 A CN 202011324545A CN 112381092 A CN112381092 A CN 112381092A
- Authority
- CN
- China
- Prior art keywords
- tracking
- target
- feature vector
- image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 239000013598 vector Substances 0.000 claims abstract description 142
- 238000001514 detection method Methods 0.000 claims abstract description 118
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种跟踪方法、装置及计算机可读存储介质,所述跟踪方法包括:获取图片帧,并将所述图片帧输入目标检测模型,以生成目标对象对应的检测框和目标类别,其中,所述目标对象为一个或者多个,所述目标检测模型通过RetinaNet方法训练得到;根据所述检测框生成第一特征向量和第二特征向量;根据所述第一特征向量和所述第二特征向量生成目标特征向量;根据所述目标特征向量、所述检测框以及所述目标类别,在所述图片帧上生成所述目标对象对应的跟踪框、跟踪标识以及跟踪类别,得到所述图片帧对应的跟踪图像,并输出所述跟踪图像。本发明能够解决目标跟踪中检测精度较低的问题。
Description
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种跟踪方法、装置及计算机可读存储介质。
背景技术
目前,基于匈牙利算法的后端追踪优化方法,比如Deep SORT方法,由于Deep SORT方法的跟踪效果与使用的目标检测方法强相关,现有的跟踪方法使用的目标检测算法对目标尺度变化要求较大,参数调试的要求较高,通过目标检测算法训练得到的目标检测模型的网络结构较粗糙,导致目标跟踪中检测精度较低。
发明内容
本发明的主要目的是提供一种跟踪方法、装置及计算机可读存储介质,解决目标跟踪中检测精度较低的问题。
为实现上述目的,本发明提供一种跟踪方法、装置及计算机可读存储介质,所述方法包括:
获取图片帧,并将所述图片帧输入目标检测模型,以生成目标对象对应的检测框和目标类别,其中,所述目标对象为一个或者多个,所述目标检测模型通过RetinaNet方法训练得到;
根据所述检测框生成第一特征向量和第二特征向量;
根据所述第一特征向量和所述第二特征向量生成目标特征向量;
根据所述目标特征向量、所述检测框以及所述目标类别,在所述图片帧上生成所述目标对象对应的跟踪框、跟踪标识以及跟踪类别,得到所述图片帧对应的跟踪图像,并输出所述跟踪图像。
可选地,所述根据所述检测框生成第一特征向量和第二特征向量的步骤包括:
获取所述检测框对应的子图像;
将所述子图像的尺寸处理为预设尺寸的图像,以得到目标图像;
根据所述目标图像确定第一特征向量和第二特征向量。
可选地,所述根据所述目标图像确定第一特征向量的步骤包括:
确定梯度直方图描述符的检测窗口的参数;
根据所述参数确定梯度直方图描述符对应的目标图像的梯度;
根据所述梯度构建梯度直方图,以生成梯度直方图特征向量;
将所述梯度直方图特征向量的维度降至预设维度,以得到所述目标图像对应的第一特征向量。
可选地,所述根据所述目标图像确定第二特征向量的步骤包括:
将所述目标图像进行灰度处理,以得到灰度图像;
获取所述灰度图像对应的局部二值特征算子;
根据所述局部二值特征算子计算各个像素点对应的局部二值码的个数,以生成局部二值特征向量;
将所述局部二值特征向量的维度降至预设维度,以生成所述目标图像对应的第二特征向量。
可选地,所述输出所述跟踪图像的步骤之后,还包括:
在视频中的每个所述图片帧对应的跟踪图像中,确定相同所述跟踪标识对应的各个所述跟踪框;
关联各个所述跟踪框,以对所述跟踪标识对应的所述目标对象进行跟踪。
可选地,所述输出所述跟踪图像的步骤之后,还包括:
判断所述图片帧是否为视频的最后一帧图片;
在所述图片帧为所述视频的最后一帧图片时,执行所述在视频中的每个所述图片帧对应的跟踪图像中,确定相同所述跟踪标识对应的各个所述跟踪框的步骤。
可选地,所述获取图片帧的步骤之前,还包括:
获取图片数据集;
将所述图片数据集输入至预设网络模型,并采用RetinaNet方法训练所述预设网络模型,以得到目标检测模型。
可选地,所述第一特征向量为梯度直方图特征向量,所述第二特征向量为局部二值特征向量。
此外,为实现上述目的,本发明还提供一种跟踪装置,所述跟踪装置包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的跟踪程序,所述跟踪程序被所述处理器执行时还实现上述任一项所述的跟踪方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有跟踪程序,所述跟踪程序被处理器执行时实现上述任一项所述的跟踪方法的步骤。
本发明提出了一种跟踪方法、装置及计算机可读存储介质,通过获取图片帧,并将图片帧输入目标检测模型,以生成目标对象对应的检测框和目标类别,其中,目标对象为一个或者多个,目标检测模型通过RetinaNet方法训练得到,根据检测框生成第一特征向量和第二特征向量,根据第一特征向量和第二特征向量生成目标特征向量,根据目标特征向量、检测框以及目标类别,在图片帧上生成目标对象对应的跟踪框、跟踪标识以及跟踪类别,得到图片帧对应的跟踪图像,并输出跟踪图像。本方案采用RetinaNet方法训练得到目标检测模型,优化了目标检测模型的网络结构,从而提高了目标检测模型的检测精度,解决了目标跟踪中检测精度较低的问题。
附图说明
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
图1为本发明实施例方案涉及的跟踪装置的硬件架构示意图;
图2为本发明跟踪方法实施例一的流程示意图;
图3为本发明跟踪方法实施例二的流程示意图;
图4为本发明跟踪方法实施例三的流程示意图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的主要解决方案是:获取图片帧,并将图片帧输入目标检测模型,以生成目标对象对应的检测框和目标类别,其中,目标对象为一个或者多个,目标检测模型通过RetinaNet方法训练得到,根据检测框生成第一特征向量和第二特征向量,根据第一特征向量和第二特征向量生成目标特征向量,根据目标特征向量、检测框以及目标类别,在图片帧上生成目标对象对应的跟踪框、跟踪标识以及跟踪类别,得到图片帧对应的跟踪图像,并输出跟踪图像。本方案采用RetinaNet方法训练得到目标检测模型,优化了目标检测模型的网络结构,从而提高了目标检测模型的检测精度,解决了目标跟踪中检测精度较低的问题。
为了更好地理解上述技术方案,下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
为了更好地理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
如图1所示,图1是本发明实施例方案涉及的跟踪装置的硬件架构示意图。
如图1所示,该跟踪装置可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。网络接口1004可选的可以包括标准的有线接口、无线接口(如存储器(non-volatilememory)),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的跟踪装置的结构并不构成跟踪装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统以及跟踪程序。
在图1所示的跟踪装置中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的跟踪程序,并执行以下操作:
获取图片帧,并将所述图片帧输入目标检测模型,以生成目标对象对应的检测框和目标类别,其中,所述目标对象为一个或者多个,所述目标检测模型通过RetinaNet方法训练得到;
根据所述检测框生成第一特征向量和第二特征向量;
根据所述第一特征向量和所述第二特征向量生成目标特征向量;
根据所述目标特征向量、所述检测框以及所述目标类别,在所述图片帧上生成所述目标对象对应的跟踪框、跟踪标识以及跟踪类别,得到所述图片帧对应的跟踪图像,并输出所述跟踪图像。
进一步地,处理器1001可以调用存储器1005中存储的跟踪程序,还执行以下操作:
获取所述检测框对应的子图像;
将所述子图像的尺寸处理为预设尺寸的图像,以得到目标图像;
根据所述目标图像确定第一特征向量和第二特征向量。
进一步地,处理器1001可以调用存储器1005中存储的跟踪程序,还执行以下操作:
确定梯度直方图描述符的检测窗口的参数;
根据所述参数确定梯度直方图描述符对应的目标图像的梯度;
根据所述梯度构建梯度直方图,以生成梯度直方图特征向量;
将所述梯度直方图特征向量的维度降至预设维度,以得到所述目标图像对应的第一特征向量。
进一步地,处理器1001可以调用存储器1005中存储的跟踪程序,还执行以下操作:
将所述目标图像进行灰度处理,以得到灰度图像;
获取所述灰度图像对应的局部二值特征算子;
根据所述局部二值特征算子计算各个像素点对应的局部二值码的个数,以生成局部二值特征向量;
将所述局部二值特征向量的维度降至预设维度,以生成所述目标图像对应的第二特征向量。
进一步地,处理器1001可以调用存储器1005中存储的跟踪程序,还执行以下操作:
在视频中的每个所述图片帧对应的跟踪图像中,确定相同所述跟踪标识对应的各个所述跟踪框;
关联各个所述跟踪框,以对所述跟踪标识对应的所述目标对象进行跟踪。
进一步地,处理器1001可以调用存储器1005中存储的跟踪程序,还执行以下操作:
判断所述图片帧是否为视频的最后一帧图片;
在所述图片帧为所述视频的最后一帧图片时,执行所述在视频中的每个所述图片帧对应的跟踪图像中,确定相同所述跟踪标识对应的各个所述跟踪框的步骤。
进一步地,处理器1001可以调用存储器1005中存储的跟踪程序,还执行以下操作:
获取图片数据集;
将所述图片数据集输入至预设网络模型,并采用RetinaNet方法训练所述预设网络模型,以得到目标检测模型。
参照图2,图2为本发明目标跟踪方法实施例一的流程示意图,所述目标跟踪方法包括以下步骤:
步骤S10,获取图片帧,并将所述图片帧输入目标检测模型,以生成目标对象对应的检测框和目标类别,其中,所述目标对象为一个或者多个,所述目标检测模型通过RetinaNet方法训练得到;
在本实施例中,执行主体为跟踪装置,跟踪装置为用于目标跟踪的装置或者设备,例如,跟踪装置可选为PC、手机、便携式计算机以及智能电视等。跟踪装置设置有目标检测模型和目标跟踪模型,通过目标检测模型和目标跟踪模型对视频中的目标对象进行识别和跟踪,其中,目标检测模型用于实现目标对象的检测和识别,目标跟踪模型用于实现对识别后的目标对象的跟踪。具体地,将拍摄的视频或者实时获取的视频发送至跟踪装置,先通过目标检测模型进行目标对象的检测和识别,生成目标检测信息,再通过目标跟踪模型处理生成的目标检测信息,实现对目标对象的跟踪。
在本实施例中,跟踪装置在接收到视频后,获取视频中的图片帧,其中,视频由按时间顺序排列的图片帧组成,图片帧为跟踪装置当前获取的一帧图片,图片帧中含有目标对象,目标对象为跟踪装置需要识别和跟踪的对象,目标对象可以为一个或者多个,即本实施例中涉及的跟踪方法可以对单个目标对象进行跟踪,也可以对多个目标对象进行跟踪,例如,在交通监控领域,行人和/或车辆作为目标对象,可以对监控视频中的单个行人或单个车辆进行跟踪也可以同时对多个行人和/或多个车辆进行跟踪。
可选地,跟踪装置在获取到视频中的图片帧后,判断获取到的图片帧是否为视频的最后一帧图片,在确定当前图片帧不是视频的最后一帧图片时,将当前图片帧输入目标检测模型;在确定图片帧是视频的最后一帧图片时,表明本次跟踪完成,结束本次目标跟踪进程。通过判断跟踪装置获取到的图片帧是否为视频的最后一帧图片,可有效掌握视频的跟踪进程。
在本实施例中,跟踪装置在获取到视频中的图片帧后,将图片帧输入目标检测模型,以生成目标对象对应的检测框和目标类别,其中,目标检测模型为采用目标检测算法对图片数据集训练得到的模型,目标检测算法可选为RetinaNet方法,RetinaNet方法具有精度高,速度适中的优点,通过RetinaNet方法训练得到的目标检测模型具有更加优秀的网络结构,能有效提升目标检测模型的检测精度和效率。图片帧经过目标检测模型后,生成目标检测信息,以对图片帧中的目标对象进行检测和识别,目标检测信息包括目标检测框和目标类别,目标检测框用于表示目标对象所在的位置,目标类别为目标对象的种类,目标类别用以表明目标对象的类型。需要说明的是,对于多目标的跟踪,若图片帧中含有多个目标对象,每个目标对象对应有一个检测框和目标类别,经过目标检测模型后可生成所有目标对象对应的检测框和目标类别。
步骤S20,根据所述检测框生成第一特征向量和第二特征向量;
在本实施例中,在获取到检测框之后,根据检测框生成第一特征向量和第二特征向量,其中,第一特征向量和第二特征向量为根据检测框提取的特征向量,可以理解的是,第一特征向量和第二特征向量为根据检测框采用不同的特征提取方法提取的特征向量,在多目标跟踪中,每一个检测框对应有一个第一特征向量和一个第二特征向量。第一特征向量可选为HOG(Histogram of Oriented Gradient,方向梯度直方图)特征向量,第二特征向量可选为LBP(Local Binary Patterns,局部二值模式)特征向量,第一特征向量和第二特征向量的维度可选为128维,当然,在其他实施例中,第一特征向量和第二特征向量的维度可根据实际需要确定,在此不作限定。需要说明的是,维度越高,目标检测和跟踪过程的耗时越长,速率越低,精度越高;维度越低,目标检测和跟踪过程的耗时越短,速率越高但精度下降。
步骤S30,根据所述第一特征向量和所述第二特征向量生成目标特征向量;
在本实施例中,在生成第一特征向量和第二特征向量之后,根据第一特征向量和第二特征向量生成目标特征向量,目标特征向量为将第一特征向量和第二特征向量级联后的特征向量,目标特征向量的维度为第一特征向量的维度与第二特征向量的维度的和,例如,目标特征向量可选为128维的HOG特征向量和128维的LBP特征向量组成的256维的级联特征向量。在多目标跟踪中,每一个检测框对应生成一个目标特征向量。
步骤S40,根据所述目标特征向量、所述检测框以及所述目标类别,在所述图片帧上生成所述目标对象对应的跟踪框、跟踪标识以及跟踪类别,得到所述图片帧对应的跟踪图像,并输出所述跟踪图像。
在本实施例中,得到目标特征向量后,将目标特征向量、检测框以及目标类别输入目标跟踪模型,在图片帧上生成目标对象对应的跟踪框、跟踪标识以及跟踪类别,得到图片帧对应的跟踪图像,并输出跟踪图像。其中,目标跟踪模型可选为DeepSORT模型,目标跟踪模型中设有表观特征模块以及目标跟踪模块。跟踪框用以表示目标对象的位置,跟踪类别用于表示目标对象的类别,跟踪标识为索引号,用以区分不同的目标对象。跟踪标识可选为阿拉伯数字或希腊字母,在此不作限定。在多目标跟踪中,每一个目标对象对应一个跟踪框、跟踪标识和跟踪类别。跟踪图像为包含有跟踪目标框、跟踪标识以及跟踪类别的图片帧。
具体地,将目标特征向量输入目标跟踪模型的表观特征模块,由于目标特征向量为级联的特征向量,输入表观特征模块处理后,在不缺失精度的前提下提高了速度,摆脱了深度学习框架的约束;将检测框和目标类别输入目标跟踪模型的目标跟踪模块,生成跟踪框、跟踪标识以及跟踪类别,将跟踪框、跟踪标识以及跟踪类别映射到图片帧,得到图片帧对应的跟踪图像,输出该跟踪图像。
进一步地,输出跟踪图像后,图片帧的静态跟踪进程完成,之后在视频中的每个图片帧对应的跟踪图像中,确定相同跟踪标识对应的各个跟踪框;关联各个跟踪框,以对跟踪标识对应的目标对象进行跟踪。可选地,在视频中的每个图片帧对应的跟踪图像中,确定相同跟踪标识对应的各个跟踪框,根据图片帧的拍摄时间顺序关联各个跟踪框,以对跟踪标识对应的目标对象进行跟踪。
进一步地,输出跟踪图像后,判断图片帧是否为视频的最后一帧图片;在图片帧为视频的最后一帧图片时,执行在视频中的每个图片帧对应的跟踪图像中,确定相同跟踪标识对应的各个所述跟踪框的步骤。可以理解的是,在图片帧不为视频的最后一帧图片时,执行获取下一图片帧,对图片帧进行识别和跟踪的步骤,具体可参考上述内容,在此不再赘述。
本实施例提供的技术方案中,通过获取图片帧,并将图片帧输入目标检测模型,以生成目标对象对应的检测框和目标类别,其中,目标对象为一个或者多个,目标检测模型通过RetinaNet方法训练得到,根据检测框生成第一特征向量和第二特征向量,根据第一特征向量和第二特征向量生成目标特征向量,根据目标特征向量、检测框以及目标类别,在图片帧上生成目标对象对应的跟踪框、跟踪标识以及跟踪类别,得到图片帧对应的跟踪图像,并输出跟踪图像。本方案采用RetinaNet方法训练得到目标检测模型,优化了目标检测模型的网络结构,从而提高了目标检测模型的检测精度,解决了目标跟踪中检测精度较低的问题。
参照图3,图3为本发明跟踪方法实施例二的流程示意图,基于实施例一,上述S20的步骤包括:
步骤S21,获取所述检测框对应的子图像;
在本实施例中,子图像为检测框所在位置对应的图像,子图像的大小根据目标对象成像的大小确定,可以理解的是,目标对象越大,检测框越大,对应的子图像就越大,目标对象越小,检测框越小,对应的子图像越小,
具体地,跟踪装置自动读取到检测框所在位置对应的图像,将该图像确定为子图像。
步骤S22,将所述子图像的尺寸处理为预设尺寸的图像,以得到目标图像;
在本实施例中,获取到子图像后,将子图像的尺寸处理为预设尺寸的图像,得到目标图像,目标图像即为经过尺寸处理后的图像,本实施例中的尺寸处理为等比放大或者缩小,预设尺寸可选为(35,35)大小,预设尺寸的大小可根据实际需要确定,在此不作限定。
具体地,采用resize算法将子图像的尺寸处理为预设尺寸大小,对于大于预设尺寸的子图像,将子图像等比缩小至预设尺寸;对于小于预设尺寸的子图像,将子图像等比放大至预设尺寸。
步骤S23,根据所述目标图像确定第一特征向量和第二特征向量。
在本实施例中,获取到目标图像后,根据目标图像确定第一特征向量和第二特征向量。
具体地,根据目标图像确定第一特征向量的步骤包括:1、确定单个HOG描述符的检测窗口的参数,其中,窗口尺寸可选为(25,25)、块尺寸可选为(10,10)、块滑动步长可选为(5,5)、胞元尺寸可选为(5,5),经过计算单个HOG描述符可生成144维特征向量;2、将子图像进行色彩和伽马归一化处理;3、计算单个HOG描述符所对应图像的梯度;4、构建梯度直方图,梯度直方图数量可选为9;5、生成HOG特征向量,根据单个HOG描述符参数设置计算子图像(尺寸可选为(35,35))对应的HOG特征,窗口滑动步长可选为(20,20)、填充可选为(0,0),最终单个子图像共生成576维HOG特征;6、对HOG降维处理,将576维特征向量划分为[36,16]矩阵,采用PCA(Principal Component Analysis,主成分分析法)方法保留前8个特征值得到[8,16]矩阵,并转换为128维的HOG特征向量,并将该128维的HOG特征向量确定为第一特征向量。
具体地,根据目标图像确定第二特征向量的步骤包括:1、将目标图像进行灰度处理,得到灰度图像;2、基于灰度图像,采用圆形LBP算子,领域半径可选为3个像素点,采样点个数可选为8,统计各个像素点所对应的LBP码(范围为0~255)的个数,共256维特征向量,再归一化到[0,1]范围内;3、将256维特征向量划分为[16,16]矩阵,采用PCA方法保留前8个特征值得到[8,16]矩阵,并转换为128维的LBP特征向量,将该128维的LBP特征向量确定为第二特征向量。
需要说明的是,第一特征向量和第二特征向量的获取过程中的具体参数设置可根据实际情况进行选择,本实施例仅为一些可选的实施方式,在此不作限定。
本实施例提供的技术方案中,通过获取目标检测框对应的子图像,将子图像的尺寸处理为预设尺寸的图像,以得到目标图像;根据目标图像确定第一特征向量和第二特征向量。将子图像的尺寸处理为预设尺寸,通过预设尺寸的子图像提取HOG特征向量和LBP特征向量,保证精度的同时提高速率,同时采用HOG特征向量和LBP特征向量进行表观特征提取,有利于工程部署,提升了目标跟踪效果。
参照图4,图4为本发明目标跟踪方法实施例三的流程示意图,基于实施例一,上述S10的步骤之前,还包括:
步骤S50,获取图片数据集;
在本实施例中图片数据集为图片帧的集合,图片数据集中包括多张图片帧,图片数据集中的图片帧包含有目标对象,并标注有目标对象的位置和列别,图片数据集包括训练集、验证集和测试集,图片数据集用于训练神经网络模型,以得到目标检测模型。
具体地,通过摄像设备拍摄含有目标对象的图片或视频,若拍摄的为图片,在图片中标注目标对象的位置和类别,若拍摄的为视频,提取视频中的图片帧,再标注图片帧中目标对象的位置和类别,将标注后的图片数据集按预设比例分为训练集、验证集和测试集,其中,预设比例可选为6:2:2,在其他实施例中,预设比例可根据实际需要选择,在此不作限定。
步骤S60,将所述图片数据集输入至预设网络模型,并采用RetinaNet方法训练所述预设网络模型,以得到目标检测模型。
在本实施例中,将图片数据集输入预设网络模型,采用RetinaNet方法训练预设网络模型,以得到目标检测模型。
具体地,基于RetinaNet方法用所述训练集训练所述预设网络模型,并用验证集验证训练后的预设网络模型,以更新预设网络模型的参数;用测试集测试验证后的预设网络模型,并计算损失函数,在损失函数收敛时,将测试后的预设网络模型确定为目标检测模型,在损失函数不收敛时,返回执行基于所述RetinaNet方法用所述训练集训练所述预设网络模型的步骤。
本实施例提供的技术方案中,通过获取图片数据集,将图片数据集输入至预设网络模型,并采用RetinaNet方法训练预设网络模型,以得到目标检测模型。由于选用了精度更高的RetinaNet方法训练网络模型,优化了目标检测模型网络结构,提高了检测精度。
基于上述实施例,本发明还提供了一种跟踪装置,上述跟踪装置可以包括存储器、处理器及存储在上述存储器上并可在上述处理器上运行的跟踪程序,上述处理器执行上述跟踪程序时,实现如上述任一实施例所述的跟踪方法的步骤。
基于上述实施例,本发明还提供一种计算机可读存储介质,其上存储有跟踪程序,上述跟踪程序被处理器执行时实现如上述任一实施例所述的跟踪方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种跟踪方法,其特征在于,所述跟踪方法包括:
获取图片帧,并将所述图片帧输入目标检测模型,以生成目标对象对应的检测框和目标类别,其中,所述目标对象为一个或者多个,所述目标检测模型通过RetinaNet方法训练得到;
根据所述检测框生成第一特征向量和第二特征向量;
根据所述第一特征向量和所述第二特征向量生成目标特征向量;
根据所述目标特征向量、所述检测框以及所述目标类别,在所述图片帧上生成所述目标对象对应的跟踪框、跟踪标识以及跟踪类别,得到所述图片帧对应的跟踪图像,并输出所述跟踪图像。
2.如权利要求1所述的跟踪方法,其特征在于,所述根据所述检测框生成第一特征向量和第二特征向量的步骤包括:
获取所述检测框对应的子图像;
将所述子图像的尺寸处理为预设尺寸的图像,以得到目标图像;
根据所述目标图像确定第一特征向量和第二特征向量。
3.如权利要求2所述的跟踪方法,其特征在于,所述根据所述目标图像确定第一特征向量的步骤包括:
确定梯度直方图描述符的检测窗口的参数;
根据所述参数确定梯度直方图描述符对应的目标图像的梯度;
根据所述梯度构建梯度直方图,以生成梯度直方图特征向量;
将所述梯度直方图特征向量的维度降至预设维度,以得到所述目标图像对应的第一特征向量。
4.如权利要求2所述的跟踪方法,其特征在于,所述根据所述目标图像确定第二特征向量的步骤包括:
将所述目标图像进行灰度处理,以得到灰度图像;
获取所述灰度图像对应的局部二值特征算子;
根据所述局部二值特征算子计算各个像素点对应的局部二值码的个数,以生成局部二值特征向量;
将所述局部二值特征向量的维度降至预设维度,以生成所述目标图像对应的第二特征向量。
5.如权利要求1所述的跟踪方法,其特征在于,所述输出所述跟踪图像的步骤之后,还包括:
在视频中的每个所述图片帧对应的跟踪图像中,确定相同所述跟踪标识对应的各个所述跟踪框;
关联各个所述跟踪框,以对所述跟踪标识对应的所述目标对象进行跟踪。
6.如权利要求5所述的跟踪方法,其特征在于,所述输出所述跟踪图像的步骤之后,还包括:
判断所述图片帧是否为视频的最后一帧图片;
在所述图片帧为所述视频的最后一帧图片时,执行所述在视频中的每个所述图片帧对应的跟踪图像中,确定相同所述跟踪标识对应的各个所述跟踪框的步骤。
7.如权利要求1所述的跟踪方法,其特征在于,所述获取图片帧的步骤之前,还包括:
获取图片数据集;
将所述图片数据集输入至预设网络模型,并采用RetinaNet方法训练所述预设网络模型,以得到目标检测模型。
8.如权利要求1-7任一项所述的跟踪方法,其特征在于,所述第一特征向量为梯度直方图特征向量,所述第二特征向量为局部二值特征向量。
9.一种跟踪装置,其特征在于,所述跟踪装置包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的跟踪程序,所述跟踪程序被所述处理器执行时实现如权利要求1~8中任一项所述的跟踪方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有跟踪程序,所述跟踪程序被处理器执行时实现如权利要求1~8中任一项所述的跟踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011324545.XA CN112381092B (zh) | 2020-11-20 | 2020-11-20 | 跟踪方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011324545.XA CN112381092B (zh) | 2020-11-20 | 2020-11-20 | 跟踪方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112381092A true CN112381092A (zh) | 2021-02-19 |
CN112381092B CN112381092B (zh) | 2024-06-18 |
Family
ID=74588918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011324545.XA Active CN112381092B (zh) | 2020-11-20 | 2020-11-20 | 跟踪方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112381092B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819859A (zh) * | 2021-02-02 | 2021-05-18 | 重庆特斯联智慧科技股份有限公司 | 一种应用于智慧安防的多目标跟踪方法及装置 |
CN113139428A (zh) * | 2021-03-16 | 2021-07-20 | 西安天和防务技术股份有限公司 | 目标识别方法、边缘设备、边防监控系统及可读存储介质 |
CN113163163A (zh) * | 2021-03-16 | 2021-07-23 | 西安天和防务技术股份有限公司 | 边海防监控方法、边缘设备、系统及计算机可读存储介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0532053A2 (en) * | 1991-09-12 | 1993-03-17 | Fuji Photo Film Co., Ltd. | Method for recognizing object images and learning method for neural networks |
KR101360349B1 (ko) * | 2013-10-18 | 2014-02-24 | 브이씨에이 테크놀러지 엘티디 | 객체의 특징 정보에 기반한 객체 추적 방법 및 장치 |
US20140169663A1 (en) * | 2012-12-19 | 2014-06-19 | Futurewei Technologies, Inc. | System and Method for Video Detection and Tracking |
CN107452022A (zh) * | 2017-07-20 | 2017-12-08 | 西安电子科技大学 | 一种视频目标跟踪方法 |
CN108230353A (zh) * | 2017-03-03 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标跟踪方法、系统及电子设备 |
CN108664939A (zh) * | 2018-05-16 | 2018-10-16 | 东南大学 | 一种基于hog特征与深度学习的遥感图像飞机识别方法 |
US20180373962A1 (en) * | 2017-06-27 | 2018-12-27 | Canon Kabushiki Kaisha | method and apparatus for determining similarity of objects in images |
CN110222572A (zh) * | 2019-05-06 | 2019-09-10 | 平安科技(深圳)有限公司 | 跟踪方法、装置、电子设备及存储介质 |
CN110232350A (zh) * | 2019-06-10 | 2019-09-13 | 哈尔滨工程大学 | 一种基于在线学习的实时水面多运动目标检测跟踪方法 |
CN110428450A (zh) * | 2019-08-01 | 2019-11-08 | 中国矿业大学 | 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法 |
CN110782484A (zh) * | 2019-10-25 | 2020-02-11 | 上海浦东临港智慧城市发展中心 | 一种无人机视频人员识别追踪的方法 |
CN111126399A (zh) * | 2019-12-28 | 2020-05-08 | 苏州科达科技股份有限公司 | 一种图像检测方法、装置、设备及可读存储介质 |
CN111127509A (zh) * | 2018-10-31 | 2020-05-08 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置和计算机可读存储介质 |
CN111325279A (zh) * | 2020-02-26 | 2020-06-23 | 福州大学 | 一种融合视觉关系的行人与随身敏感物品跟踪方法 |
WO2020130309A1 (ko) * | 2018-12-20 | 2020-06-25 | 주식회사 로민 | 영상 마스킹 장치 및 영상 마스킹 방법 |
CN111754541A (zh) * | 2020-07-29 | 2020-10-09 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、设备及可读存储介质 |
-
2020
- 2020-11-20 CN CN202011324545.XA patent/CN112381092B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0532053A2 (en) * | 1991-09-12 | 1993-03-17 | Fuji Photo Film Co., Ltd. | Method for recognizing object images and learning method for neural networks |
US20140169663A1 (en) * | 2012-12-19 | 2014-06-19 | Futurewei Technologies, Inc. | System and Method for Video Detection and Tracking |
KR101360349B1 (ko) * | 2013-10-18 | 2014-02-24 | 브이씨에이 테크놀러지 엘티디 | 객체의 특징 정보에 기반한 객체 추적 방법 및 장치 |
CN108230353A (zh) * | 2017-03-03 | 2018-06-29 | 北京市商汤科技开发有限公司 | 目标跟踪方法、系统及电子设备 |
US20180373962A1 (en) * | 2017-06-27 | 2018-12-27 | Canon Kabushiki Kaisha | method and apparatus for determining similarity of objects in images |
CN107452022A (zh) * | 2017-07-20 | 2017-12-08 | 西安电子科技大学 | 一种视频目标跟踪方法 |
CN108664939A (zh) * | 2018-05-16 | 2018-10-16 | 东南大学 | 一种基于hog特征与深度学习的遥感图像飞机识别方法 |
CN111127509A (zh) * | 2018-10-31 | 2020-05-08 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置和计算机可读存储介质 |
WO2020130309A1 (ko) * | 2018-12-20 | 2020-06-25 | 주식회사 로민 | 영상 마스킹 장치 및 영상 마스킹 방법 |
CN110222572A (zh) * | 2019-05-06 | 2019-09-10 | 平安科技(深圳)有限公司 | 跟踪方法、装置、电子设备及存储介质 |
CN110232350A (zh) * | 2019-06-10 | 2019-09-13 | 哈尔滨工程大学 | 一种基于在线学习的实时水面多运动目标检测跟踪方法 |
CN110428450A (zh) * | 2019-08-01 | 2019-11-08 | 中国矿业大学 | 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法 |
CN110782484A (zh) * | 2019-10-25 | 2020-02-11 | 上海浦东临港智慧城市发展中心 | 一种无人机视频人员识别追踪的方法 |
CN111126399A (zh) * | 2019-12-28 | 2020-05-08 | 苏州科达科技股份有限公司 | 一种图像检测方法、装置、设备及可读存储介质 |
CN111325279A (zh) * | 2020-02-26 | 2020-06-23 | 福州大学 | 一种融合视觉关系的行人与随身敏感物品跟踪方法 |
CN111754541A (zh) * | 2020-07-29 | 2020-10-09 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、设备及可读存储介质 |
Non-Patent Citations (3)
Title |
---|
CHENGBIN ZENG,等: "Robust Head-shoulder Detection by PCA-Based Multilevel HOG-LBP Detector for People Counting", 《IEEE》, 7 October 2010 (2010-10-07), pages 2069 - 2072 * |
SHIVANI KAPANIA,等: "Multi Object Tracking with UAVs using Deep SORT and YOLOv3 RetinaNet Detection Framework", 《AIMS \'20: 1ST ACM WORKSHOP ON AUTONOMOUS AND INTELLIGENT MOBILE SYSTEMS》, 22 January 2020 (2020-01-22), pages 1 - 6 * |
张金慧: "基于多尺度方法的行人检测与跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 08, 15 August 2018 (2018-08-15), pages 138 - 645 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819859A (zh) * | 2021-02-02 | 2021-05-18 | 重庆特斯联智慧科技股份有限公司 | 一种应用于智慧安防的多目标跟踪方法及装置 |
CN113139428A (zh) * | 2021-03-16 | 2021-07-20 | 西安天和防务技术股份有限公司 | 目标识别方法、边缘设备、边防监控系统及可读存储介质 |
CN113163163A (zh) * | 2021-03-16 | 2021-07-23 | 西安天和防务技术股份有限公司 | 边海防监控方法、边缘设备、系统及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112381092B (zh) | 2024-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112381092A (zh) | 跟踪方法、装置及计算机可读存储介质 | |
CN108229418B (zh) | 人体关键点检测方法和装置、电子设备、存储介质和程序 | |
CN109711508B (zh) | 图像处理方法和装置 | |
CN111461101B (zh) | 工服标志的识别方法、装置、设备及存储介质 | |
CN112613553B (zh) | 图片样本集生成方法、装置、计算机设备和存储介质 | |
CN112528318A (zh) | 一种图像脱敏的方法、装置及电子设备 | |
CN112633341A (zh) | 一种界面测试方法、装置、计算机设备和存储介质 | |
CN115205547A (zh) | 一种目标图像的检测方法、装置、电子设备及存储介质 | |
CN114169419A (zh) | 一种目标对象的检测方法、装置、计算机设备及存储介质 | |
CN115567736A (zh) | 视频内容检测方法、装置、设备和存储介质 | |
CN111401465A (zh) | 训练样本优化方法、装置、设备及存储介质 | |
CN114708582B (zh) | 基于ai和rpa的电力数据智慧稽查方法及装置 | |
CN116596903A (zh) | 缺陷识别方法、装置、电子设备及可读存储介质 | |
CN114693554B (zh) | 一种大数据图像处理方法及系统 | |
CN112634382B (zh) | 一种非自然对象的图像识别、替换方法和装置 | |
CN112699809B (zh) | 痘痘类别识别方法、装置、计算机设备及存储介质 | |
US11749021B2 (en) | Retrieval device, control method, and non-transitory storage medium | |
CN113870210A (zh) | 一种图像质量评估方法、装置、设备及存储介质 | |
CN115761389A (zh) | 图像样本的增广方法、装置、电子设备及存储介质 | |
CN114913513A (zh) | 一种公章图像的相似度计算方法、装置、电子设备和介质 | |
CN112819885A (zh) | 基于深度学习的动物识别方法、装置、设备及存储介质 | |
CN113822295A (zh) | 图像识别方法、装置、电子设备和计算机可读存储介质 | |
CN112232390A (zh) | 一种高像素大图像的识别方法和系统 | |
CN112348060A (zh) | 分类向量生成方法、装置、计算机设备和存储介质 | |
CN116778534B (zh) | 图像处理方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |