CN111242973A - 目标跟踪方法、装置、电子设备及存储介质 - Google Patents
目标跟踪方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111242973A CN111242973A CN202010011243.0A CN202010011243A CN111242973A CN 111242973 A CN111242973 A CN 111242973A CN 202010011243 A CN202010011243 A CN 202010011243A CN 111242973 A CN111242973 A CN 111242973A
- Authority
- CN
- China
- Prior art keywords
- image
- tracked
- detection frame
- area
- search area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000001514 detection method Methods 0.000 claims abstract description 233
- 238000013528 artificial neural network Methods 0.000 claims abstract description 58
- 238000010586 diagram Methods 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 12
- 230000006870 function Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种目标跟踪方法、装置、电子设备及计算机可读存储介质,其中,本公开首先确定待跟踪图像中的搜索区域与参考帧中的目标图像区域之间的图像相似性特征图,之后基于图像相似性特征来预测或确定待跟踪图像中的待定位区域的定位位置信息,即确定待跟踪对象在包含搜索区域的待跟踪图像中的检测框,使得参与预测待跟踪对象的检测框的像素点的数量有效减少,不仅能够提高预测的效率和实时性,并且能够减低预测计算的复杂度,从而可以简化预测待跟踪对象的检测框的神经网络的网络架构,更加适用于对实时性和网络结构简易性要求较高的移动端。
Description
技术领域
本公开涉及计算机技术、图像处理领域,具体而言,涉及一种目标跟踪方法、装置、电子设备及计算机可读存储介质。
背景技术
视觉目标跟踪是计算机视觉中的一个重要研究方向,可以广泛的应用于各种场景,例如,机器自动跟踪、视频监控、人机交互、无人驾驶等。视觉目标跟踪任务就是在给定某视频序列中初始帧中的目标对象大小与位置的情况下,预测后续帧中该目标对象的大小与位置,从而得到整个视频序列内的目标的运动轨迹。
在实际跟踪预测的工程中,由于视角、光照、尺寸、遮挡等等不确定干扰因素的影响,跟踪过程极易产生漂移和丢失的情况。不仅如此,跟踪技术往往需要较高的简易性和实时性,以满足实际移动端部署和应用的需求。
发明内容
有鉴于此,本公开至少提供一种目标跟踪方法、装置、电子设备及计算机可读存储介质。
第一方面,本公开提供了一种目标跟踪方法,包括:
获取视频图像;
针对除所述视频图像中的参考帧图像之后的待跟踪图像,生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图;其中,所述目标图像区域内包含待跟踪对象;
根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息;
响应于在所述搜索区域中确定出所述待定位区域的定位位置信息,根据确定的待定位区域的定位位置信息确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框。
上述目标跟踪方法基于待跟踪图像中的搜索区域与参考帧中的目标图像区域之间的图像相似性特征图来预测待跟踪图像中的待定位区域的定位位置信息,即确定待跟踪对象在包含搜索区域的待跟踪图像中的检测框,使得参与预测检测框的像素点的数量有效减少,不仅能够提高预测的效率和实时性,并且能够降低预测计算的复杂度,从而可以简化用于预测待跟踪对象的检测框的神经网络的网络架构,更加适用于对实时性和网络结构简易性要求均较高的移动端。
在一种可能的实施方式中,根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息,包括:
根据所述图像相似性特征图,预测所述待定位区域的尺寸信息;
根据所述图像相似性特征图,预测所述搜索区域的特征图中的每个特征像素点的概率值,一个特征像素点的概率值表征所述搜索区域中与该特征像素点对应的像素点位于所述待定位区域内的几率;
根据所述图像相似性特征图,预测所述搜索区域中与每个所述特征像素点对应的像素点与所述待定位区域的位置关系信息;
从预测的概率值中选取最大概率值对应的特征像素点所对应的所述搜索区域中的像素点作为目标像素点;
基于选取的目标像素点、所述目标像素点与所述待定位区域的位置关系信息、以及所述待定位区域的尺寸信息,确定所述待定位区域的定位位置信息。
在得到搜索区域与目标图像区域之间的图像相似性特征图之后,基于该图像相似性特征图能够筛选出搜索区域中位于待定位区域内的概率值最大的像素点,基于对应的概率值最大的像素点与待定位区域的位置关系信息和与该像素点对应的待定位区域的尺寸信息,来确待定位区域的定位位置信息,能够提高确定的定位位置信息的准确度。
在一种可能的实施方式中,根据以下步骤从所述参考帧图像中提取所述目标图像区域:
确定所述待跟踪对象在所述参考帧图像中的检测框;
基于所述参考帧图像中的检测框的尺寸信息,确定所述参考帧图像中的检测框对应的第一延伸尺寸信息;
基于所述第一延伸尺寸信息,以所述参考帧图像中的检测框为起始位置向周围延伸,得到所述目标图像区域。
基于待跟踪对象在参考帧图像中的大小和位置,即待跟踪对象在参考帧图像中的检测框的尺寸信息,对检测框进行延伸,得到的目标图像区域不仅包括待跟踪对象,还包括待跟踪对象周边的区域,从而能够确定包括较多图像内容的图像区域。
在一种可能的实施方式中,根据以下步骤从待跟踪图像中提取搜索区域:
获取在所述视频图像中当前帧待跟踪图像的前一帧待跟踪图像中,所述待跟踪对象的检测框;
基于所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定所述前一帧待跟踪图像中的所述待跟踪对象的检测框对应的第二延伸尺寸信息;
基于所述第二延伸尺寸信息和所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定当前帧待跟踪图像中的搜索区域的尺寸信息;
以所述前一帧待跟踪图像中的所述待跟踪对象的检测框的中心点坐标为当前帧待跟踪图像中的搜索区域的中心,根据当前帧待跟踪图像中的搜索区域的尺寸信息确定所述搜索区域。
基于前一帧待跟踪图像中确定的检测框的尺寸信息,确定第二延伸尺寸信息,基于第二延伸尺寸信息能够为当前帧待跟踪图像确定一个较大的搜索区域,较大的搜索区域能够提高确定的待定位区域的定位位置信息的准确度,即能够提高对待跟踪对象进行跟踪定位的成功率。
在一种可能的实施方式中,所述生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图,包括:
将所述搜索区域缩放至第一预设尺寸,以及,将所述目标图像区域缩放至第二预设尺寸;
生成所述搜索区域中的第一图像特征图,以及所述目标图像区域中的第二图像特征图;所述第二图像特征图的尺寸小于所述第一图像特征图的尺寸;
确定所述第二图像特征图与所述第一图像特征图中的每个子图像特征图之间的相关性特征;所述子图像特征图与所述第二图像特征图的尺寸相同;
基于确定的多个相关性特征,生成所述图像相似性特征图。
将搜索区域和目标图像区域设置为对应的预设尺寸,能够控制生成图像相似度特征图中的中像素点的数量,从而能够控制计算的复杂度。进一步地,上述图像相似性特征图中像素点对应的相关性特征,即可表征第一图像特征图中每个区域(即子图像特征图)与第二图像特征图的图像相似性的程度,基于该图像相似性的程度能够准确的筛选出搜索区域中位于待定位区域内的概率最大的目标像素点,继而基于该概率值最大的目标像素点的信息能够有效提高确定的待定位区域的定位位置信息的准确度。
在一种可能的实施方式中,所述目标跟踪方法由跟踪定位神经网络执行;其中所述跟踪定位神经网络由标注有目标对象的检测框的样本图像训练得到。
上述目标跟踪方法中利用跟踪定位神经网络,确定待定位区域的定位位置信息,即确定述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框,由于简化了计算方法,因此跟踪定位神经网络的结构得到了简化,从而更易于部署在移动端上。
在一种可能的实施方式中,上述目标跟踪方法还包括训练所述跟踪定位神经网络的步骤:
获取样本图像,所述样本图像包括参考帧样本图像和待跟踪的样本图像
将所述样本图像输入待训练的跟踪定位神经网络,经过所述待训练的跟踪定位神经网络对输入的样本图像进行处理,预测所述目标对象在所述待跟踪的样本图像中的检测框;
基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数。
在一种可能的实施方式中,将所述待跟踪的样本图像中的待定位区域的定位位置信息作为所述待跟踪的样本图像中预测的检测框的位置信息,所述基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数,包括:
基于所述待跟踪的样本图像中预测的检测框的尺寸信息、所述待跟踪的样本图像中搜索区域中每个像素点位于所述待跟踪的样本图像中预测的检测框内的预测概率值、所述待跟踪的样本图像中搜索区域中每个像素点与所述待跟踪的样本图像中预测的检测框的预测位置关系信息、所述待跟踪的样本图像中标注的检测框的标准尺寸信息、所述待跟踪的样本图像中标准搜索区域中每个像素点是否位于标注的检测框中的信息、所述待跟踪的样本图像中标准搜索区域中每个像素点与所述待跟踪的样本图像中标注的检测框的标准位置关系信息,调整所述待训练的跟踪定位神经网络的网络参数。
利用预测得到的概率值、位置关系信息、预测的检测框的尺寸信息与样本图像的对应的标准值构建损失函数来训练跟踪定位神经网络,训练的目标是使构建的损失函数取值最小,从而有利于提高训练得到的跟踪定位神经网络计算的准确度。
第二方面,本公开提供了一种目标跟踪装置,包括:
图像获取模块,用于获取视频图像;
相似性特征提取模块,用于针对除所述视频图像中的参考帧图像之后的待跟踪图像,生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图;其中,所述目标图像区域内包含待跟踪对象;
定位模块,用于根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息;
跟踪模块,用于响应于在所述搜索区域中确定出所述待定位区域的定位位置信息,根据确定的待定位区域的定位位置信息确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框。
在一种可能的实施方式中,所述定位模块用于:
根据所述图像相似性特征图,预测所述待定位区域的尺寸信息;
根据所述图像相似性特征图,预测所述搜索区域的特征图中的每个特征像素点的概率值,一个特征像素点的概率值表征所述搜索区域中与该特征像素点对应的像素点位于所述待定位区域内的几率;
根据所述图像相似性特征图,预测所述搜索区域中与每个所述特征像素点对应的像素点与所述待定位区域的位置关系信息;
从预测的概率值中选取最大概率值对应的特征像素点所对应的所述搜索区域中的像素点作为目标像素点;
基于选取的目标像素点、所述目标像素点与所述待定位区域的位置关系信息、以及所述待定位区域的尺寸信息,确定所述待定位区域的定位位置信息。
在一种可能的实施方式中,所述相似性特征提取模块用于利用以下步骤从所述参考帧图像中提取所述目标图像区域:
确定所述待跟踪对象在所述参考帧图像中的检测框;
基于所述参考帧图像中的检测框的尺寸信息,确定所述参考帧图像中的检测框对应的第一延伸尺寸信息;
基于所述第一延伸尺寸信息,以所述参考帧图像中的检测框为起始位置向周围延伸,得到所述目标图像区域。
在一种可能的实施方式中,所述相似性特征提取模块用于利用以下步骤从待跟踪图像中提取搜索区域:
获取在所述视频图像中当前帧待跟踪图像的前一帧待跟踪图像中,所述待跟踪对象的检测框;
基于所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定所述前一帧待跟踪图像中的所述待跟踪对象的检测框对应的第二延伸尺寸信息;
基于所述第二延伸尺寸信息和所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定当前帧待跟踪图像中的搜索区域的尺寸信息;
以所述前一帧待跟踪图像中的所述待跟踪对象的检测框的中心点坐标为当前帧待跟踪图像中的搜索区域的中心,根据当前帧待跟踪图像中的搜索区域的尺寸信息确定所述搜索区域。
在一种可能的实施方式中,所述相似性特征提取模块用于:
将所述搜索区域缩放至第一预设尺寸,以及,将所述目标图像区域缩放至第二预设尺寸;
生成所述搜索区域中的第一图像特征图,以及所述目标图像区域中的第二图像特征图;所述第二图像特征图的尺寸小于所述第一图像特征图的尺寸;
确定所述第二图像特征图与所述第一图像特征图中的每个子图像特征图之间的相关性特征;所述子图像特征图与所述第二图像特征图的尺寸相同;
基于确定的多个相关性特征,生成所述图像相似性特征图。
在一种可能的实施方式中,所述目标跟踪装置利用跟踪定位神经网络确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框;其中所述跟踪定位神经网络由标注有目标对象的检测框的样本图像训练得到。
在一种可能的实施方式中,所述目标跟踪装置还包括模型训练模块,用于:
获取样本图像,所述样本图像包括参考帧样本图像和待跟踪的样本图像
将所述样本图像输入待训练的跟踪定位神经网络,经过所述待训练的跟踪定位神经网络对输入的样本图像进行处理,预测所述目标对象在所述待跟踪的样本图像中的检测框;
基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数。
在一种可能的实施方式中,将所述待跟踪的样本图像中的待定位区域的定位位置信息作为所述待跟踪的样本图像中预测的检测框的位置信息,所述模型训练模块在基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数时,用于:
基于所述待跟踪的样本图像中预测的检测框的尺寸信息、所述待跟踪的样本图像中搜索区域中每个像素点位于所述待跟踪的样本图像中预测的检测框内的预测概率值、所述待跟踪的样本图像中搜索区域中每个像素点与所述待跟踪的样本图像中预测的检测框的预测位置关系信息、所述待跟踪的样本图像中标注的检测框的标准尺寸信息、所述待跟踪的样本图像中标准搜索区域中每个像素点是否位于标注的检测框中的信息、所述待跟踪的样本图像中标准搜索区域中每个像素点与所述待跟踪的样本图像中标注的检测框的标准位置关系信息,调整所述待训练的跟踪定位神经网络的网络参数。
第三方面,本公开提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如上述目标跟踪方法的步骤。
第四方面,本公开还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上述目标跟踪方法的步骤。
本公开上述装置、电子设备、和计算机可读存储介质,至少包含与本公开上述方法的任一方面或任一方面的任一实施方式的技术特征实质相同或相似的技术特征,因此关于上述装置、电子设备、和计算机可读存储介质的效果描述,可以参见上述方法内容的效果描述,这里不再赘述。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例提供的一种目标跟踪方法的流程图;
图2示出了本公开实施例中的确定待定位区域的中心点的示意图;
图3示出了本公开实施例提供的另一种目标跟踪方法中提取目标图像区域的流程图;
图4示出了本公开实施例提供的再一种目标跟踪方法中提取搜索区域的流程图;
图5示出了本公开实施例提供的再一种目标跟踪方法中生成图像相似性特征图的流程图;
图6示出了本公开实施例的再一种目标跟踪方法中生成图像相似性特征图的示意图;
图7示出了本公开实施例的再一种目标跟踪方法中训练跟踪定位神经网络的流程图;
图8示出了本公开实施例提供的一种目标跟踪装置的结构示意图;
图9示出了本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,应当理解,本公开中附图仅起到说明和描述的目的,并不用于限定本公开的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本公开中使用的流程图示出了根据本公开的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本公开内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,本公开实施例中将会用到术语“包括”,用于指出其后所声明的特征的存在,但并不排除增加其它的特征。
本公开实施例针对视觉目标跟踪,提供了一种可以有效降低跟踪过程中进行预测计算的复杂度的方案,可以基于待跟踪图像中的搜索区域与参考帧图像中的目标图像区域(包含待跟踪对象)之间的图像相似性特征图来预测待跟踪对象在上述待跟踪图像中的位置信息(实际实施中预测待跟踪对象所在待定位区域的位置信息),即预测所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框。具体实施过程将在下述实施例中详述。
如图1所示,本公开实施例提供了一种目标跟踪方法,该方法应用于对待跟踪对象进行跟踪定位的终端设备上,具体的,可以包括如下步骤:
S110、获取视频图像;
这里,视频图像是需要对待跟踪对象进行定位和跟踪的图像序列。
视频图像包括参考帧图像和至少一帧待跟踪图像。参考帧图像是包括待跟踪对象的图像,可以是视频图像中的第一帧图像,当然也可以是视频图像中的其他帧图像。待跟踪图像为需要在其中搜索和定位待跟踪对象的图像。参考帧图像中待跟踪对象的位置和大小,即检测框是已经确定了的,而待跟踪图像中定位区域或检测框并没有确定,是需要计算和预测的区域,也称为待定位区域或包含所述搜索区域的待跟踪图像中的检测框。
S120、针对除所述视频图像中的参考帧图像之后的待跟踪图像,生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图;其中,所述目标图像区域内包含待跟踪对象;
在执行此步骤之前,需要从待跟踪图像中提取搜索区域,从参考帧图像中提取目标图像区域。目标图像区域中包括待跟踪对象的检测框;搜索区域中包括未完成定位的待定位区域。定位区域的位置即为待跟踪对象的位置。
在提取得到搜索区域和目标图像区域之后,需求从搜索区域中和目标图像区域中分别提取图像特征,之后基于搜索区域对应的图像特征和目标图像区域的图像特征,确定搜索区域与目标图像区域之间的图像相似性特征,即确定搜索区域与目标图像区域之间的图像相似性特征图。
S130、根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息;
这里,基于上一步骤中生成的图像相似性特征图,可以预测搜索区域的特征图中的每个特征像素点的概率值,以及搜索区域中与每个所述特征像素点对应的像素点与所述待定位区域的位置关系信息。上述一个特征像素点的概率值表征所述搜索区域中与该特征像素点对应的搜索区域中的像素点位于所述待定位区域内的几率。
上述位置关系信息可以是待跟踪图像中的搜索区域中的像素点与所述待跟踪图像中的待定位区域的中心点的偏差信息,例如,以待定位区域的中心点为坐标中心建立坐标系,则该位置关系信息包括对应的像素点在建立的坐标中的坐标信息。
这里,基于上述概率值能够确定出搜索区域中概率最大的位于待定位区域内的像素点。之后基于搜索区域中概率最大的位于待定位区域内的像素点的位置关系信息,就能够较为准确的确定搜索区域中的待定位区域的定位位置信息。
上述定位位置信息可以包括待定位区域的中心点的坐标等信息,在具体实施时,可以基于搜索区域中概率最大的位于待定位区域内的像素点的坐标信息和该像素点与待定位区域的中心点的偏差信息,来确定待定位区域的中心点的坐标信息。
应当说明的是,此步骤确定了搜索区域中的待定位区域的定位位置信息,但在实际应用中,搜索区域中可能存在待定位区域,也可能不存在待定位区域,如果搜索区域中不存在待定位区域,则无法确定待定位区域的定位位置信息,即无法确定待定位区域的中心点的坐标等信息。
S140、响应于在所述搜索区域中确定出所述待定位区域的定位位置信息,根据确定的待定位区域的定位位置信息确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框。
在搜索区域中存在待定位区域时,此步骤,根据确定的待定位区域的定位位置信息确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框。这里,可以将待跟踪图像中的待定位区域的定位位置信息作为所述待跟踪图像中预测的检测框的位置信息。
上述实施例从待跟踪图像中的提取搜索区域,从参考帧图像中提取目标图像区域,之后基于提取的两部分图像之间图像相似性特征图来预测或确定待跟踪图像中的待定位区域的定位位置信息,即确定待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框,使得参与预测检测框的像素点的数量有效减少,不仅能够提高预测的效率和实时性,并且能够减低预测计算的复杂度,从而使用于预测待跟踪对象的检测框的神经网络的网络架构得到简化,更加适用于对实时性和网络结构简易性要求均较高的移动端。
在一些实施例中,在确定所述待定位区域在所述搜索区域中的定位位置信息之前,上述目标跟踪方法还包括:预测所述待定位区域的尺寸信息的步骤。这里,可以基于上面生成的图像相似性特征图,预测搜索区域中每个像素点对应的待定位区域的尺寸信息。在具体实施时,该尺寸信息可以包括待定位区域的高度值和宽度值。
在确定了搜索区域中每个像素点对应的待定位区域的尺寸信息之后,上述根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息可以利用如下步骤实现:
步骤一、根据所述图像相似性特征图,预测所述搜索区域的特征图中的每个特征像素点的概率值,一个特征像素点的概率值表征所述搜索区域中与该特征像素点对应的像素点位于所述待定位区域内的几率。
步骤二、根据所述图像相似性特征图,预测所述搜索区域中与每个所述特征像素点对应的像素点与所述待定位区域的位置关系信息。
步骤三、从预测的概率值中选取最大概率值对应的特征像素点所对应的所述搜索区域中的像素点作为目标像素点。
步骤四、基于选取的目标像素点、所述目标像素点与所述待定位区域的位置关系信息、以及所述待定位区域的尺寸信息,确定所述待定位区域的定位位置信息。
上述步骤利用搜索区域中最有可能位于待定位区域中的像素点,即目标像素点与所述待定位区域的位置关系信息,和该像素点在搜索区域中的坐标信息,能够确定待定位区域的中心点坐标。之后,再结合最有可能位于待定位区域中的像素点对应的待定位区域的尺寸信息,能够提高确定的搜索区域中的待定位区域的准确度,即能够提高对待跟踪对象进行跟踪和定位准确度。
如图2所示,图中的极大值点即为最有可能位于待定位区域中的像素点,即概率值最大的目标像素点。基于极大值点的坐标、极大值点与所述待定位区域的位置关系信息,即偏差信息就能确定待定位区域的中心点的坐标。为极大值点与待定位区域的中心点在横轴方向上的距离,为极大值点与待定位区域的中心点在纵轴方向上的距离。
在具体定位待定位区域时,可以利用如下公式实现:
wt=wm (3)
ht=hm (4)
式中,表示待定位区域的中心点的横坐标,表示待定位区域的中心点的纵坐标,xm表示极大值点的横坐标,ym表示极大值点的纵坐标,表示极大值点与待定位区域的中心点在横轴方向上的距离,表示极大值点与待定位区域的中心点在纵轴方向上的距离,wt表示待定位区域定位完成后的宽度值,ht表示待定位区域定位完成后的高度值,wm表示预测得到待定位区域的宽度值,hm表示预测得到待定位区域的高度值,Rt表示待定位区域定位完成后的位置信息。
上述实施例,在得到搜索区域与目标图像区域之间的图像相似性特征图之后,基于该图像相似性特征图能够从搜索区域中筛选出位于待定位区域内的概率值最大的目标像素点,基于对应的概率值最大的目标像素点在搜索区域中的坐标信息、该像素点对与待定位区域的位置关系信息和该像素点对应的待定位区域的尺寸信息,来确定待定位区域的定位位置信息,能够提高确定的定位位置信息的准确度。
在一些实施例中,如图3所示,可以根据以下步骤从所述参考帧图像中提取所述目标图像区域:
S310、确定所述待跟踪对象在所述参考帧图像中的检测框;
上述检测框是已经定位完成的、包括待跟踪对象的图像区域。在具体实施时,上述检测框可以是一个矩形的图像框其中,表示检测框的位置信息,表示检测框的中心点的横坐标,表示检测框的中心点的纵坐标,表示检测框的宽度值,表示检测框的高度值。
S320、基于所述参考帧图像中的检测框的尺寸信息,确定所述参考帧图像中的检测框对应的第一延伸尺寸信息。
这里可以基于第一延伸尺寸信息对检测框进行延伸处理,具体地,可以利用如下公式计算第一延伸尺寸信息:
式中,padh表示检测框在检测框的高度上需要延伸的长度,padw表示检测框在检测框的宽度上需要延伸的长度。
在对检测框进行延伸的时候,可以在检测框的高度方向的两边分别延伸上面计算得到的数值的一半,在检测框的宽度方向的两边分别延伸上面计算得到的数值的一半。
S330、基于所述第一延伸尺寸信息,以所述参考帧图像中的检测框为起始位置向周围延伸,得到所述目标图像区域。
这里,基于第一延伸尺寸信息对检测框进行延伸,可以直接得到目标图像区域。当然,对检测框进行延伸后,还可以对延伸后的图像进行进一步地处理,以得到目标图像区域,或者并不基于第一延伸尺寸信息对检测框进行延伸,只是基于第一延伸尺寸信息确定目标图像区域的尺寸信息,之后基于确定的目标图像区域的尺寸信息对检测框进行延伸来直接得到目标图像区域。
基于待跟踪对象在参考帧图像中的大小和位置,即待跟踪对象在参考帧图像中的检测框的尺寸信息,对检测框进行延伸,得到的目标图像区域不仅包括待跟踪对象,还包括待跟踪对象周边的区域,从而能够确定包括较多图像内容的包括待跟踪对象的图像区域。
在一些实施例中,上述基于所述第一延伸尺寸信息,以所述参考帧图像中的检测框为起始位置向周围延伸,得到所述目标图像区域,具体可以利用如下步骤实现:
基于所述检测框的尺寸信息和所述第一延伸尺寸信息,确定目标图像区域的尺寸信息;基于所述检测框的中心点坐标信息和目标图像区域的尺寸信息,确定将所述检测框延伸后的所述目标图像区域。
在具体实施时,可以利用如下公式确定目标图像区域的尺寸信息:
在确定了目标图像区域的尺寸信息之后,就可以以检测框的中心点为中心点,按照确定的尺寸信息,直接对检测框进行延伸,得到目标图像区域;或以检测框的中心点为中心点,按照确定的尺寸信息,在检测框按照第一延伸尺寸信息延伸后的图像中截取目标图像区域。
上述实施例基于检测框的尺寸信息和所述第一延伸尺寸信息,在对检测框进行延伸的基础上,可以在延伸的图像上截取一个正方形的目标图像区域,从而使得到的目标图像区域不包括过多的除待跟踪对象以外的其他图像区域。
在一些实施例中,如图4所示,可以根据以下步骤从待跟踪图像中提取搜索区域:
S410、获取在所述视频图像中当前帧待跟踪图像的前一帧待跟踪图像中,所述待跟踪对象的检测框。
这里,当前帧待跟踪图像的前一帧待跟踪图像中的检测框,是已经定位完成的待跟踪对象所在的图像区域。
S420、基于所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定所述前一帧待跟踪图像中的所述待跟踪对象的检测框对应的第二延伸尺寸信息。
这里,基于检测框的尺寸信息确定第二延伸尺寸信息的算法与上述实施例中确定第一延伸尺寸信息的步骤相同。这里不再赘述。
S430、基于所述第二延伸尺寸信息和所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定当前帧待跟踪图像中的搜索区域的尺寸信息。
这里,可以具体利用如下步骤确定搜索区域的尺寸信息:
基于所述第二延伸尺寸信息和所述前一帧待跟踪图像中的检测框的尺寸信息,确定待延伸搜索区域的尺寸信息;基于所述待延伸搜索区域的尺寸信息、所述搜索区域对应的第一预设尺寸、以及所述目标图像区域对应的第二预设尺寸,确定将所述待延伸搜索区域延伸后的所述搜索区域的尺寸信息。
上述确定待延伸搜索区域的尺寸信息的计算方法与上述实施例中的基于所述检测框的尺寸信息和所述第一延伸尺寸信息,确定目标图像区域的尺寸信息的计算方法相同,这里不再赘述。
上述基于所述待延伸搜索区域的尺寸信息、所述搜索区域对应的第一预设尺寸、以及所述目标图像区域对应的第二预设尺寸,确定将所述待延伸搜索区域延伸后的所述搜索区域的尺寸信息,具体可以利用如下公式计算:
式中,表示搜索区域的尺寸信息,表示待延伸搜索区域的尺寸信息,Sizes表示搜索区域对应的第一预设尺寸,Sizet表示目标图像区域对应的第二预设尺寸。这里基于公式(7)可知,搜索区域和目标图像区域均为高度和宽度相等的正方形区域,因此这里的尺寸为对应的图像区域的高度和宽度对应的像素数量。
本步骤中,基于待延伸搜索区域的尺寸信息、所述搜索区域对应的第一预设尺寸、以及所述目标图像区域对应的第二预设尺寸,对搜索区域进行进一步的延伸,从而能够进一步增大搜索区域,较大的搜索区域能够提高对待跟踪对象进行跟踪定位成功率。
S440、以所述前一帧待跟踪图像中的所述待跟踪对象的检测框的中心点坐标为当前帧待跟踪图像中的搜索区域的中心,根据当前帧待跟踪图像中的搜索区域的尺寸信息确定所述搜索区域。
在具体实施时,可以以所述前一帧待跟踪图像中的检测框的中心点的坐标作为当前帧待跟踪图像中的初始定位区域的中心点,以前一帧待跟踪图像中的检测框的尺寸信息作为当前帧待跟踪图像中的初始定位区域的尺寸信息,确定当前帧待跟踪图像中的初始定位区域。之后,可以基于第二延伸尺寸信息对初始定位区域进行延伸处理,再按照上述待延伸搜索区域的尺寸信息从延伸后的图像中截取待延伸搜索区域。之后,基于上述待延伸搜索区域延伸后的尺寸信息,对待延伸搜索区域进行延伸后得到搜索区域。
当然,也可以以所述前一帧待跟踪图像中的检测框的中心点作为当前帧待跟踪图像中搜索区域的中心点,按照计算得到的上述搜索区域的尺寸信息,直接在当前帧待跟踪图像上截图搜索区域。
在一些实施例中,生成所述图像相似性特征图之前,上述目标跟踪方法还可以包括如下步骤:
将所述搜索区域缩放至第一预设尺寸,以及,将所述目标图像区域缩放至第二预设尺寸。
这里,将搜索区域和目标图像区域设置为对应的预设尺寸,能够控制生成图像相似度特征图中的中像素点的数量,从而能够控制计算的复杂度。
在一些实施例中,如图5所示,上述生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图,可以利用如下步骤实现:
S510、生成所述搜索区域中的第一图像特征图,以及所述目标图像区域中的第二图像特征图;所述第二图像特征图的尺寸小于所述第一图像特征图的尺寸。
这里,具体可以利用深度卷积神经网络提取搜索区域中的图像特征和目标图像区域中的图像特征,分别得到上述第一图像特征图和第二图像特征图。
如图6中,第一图像特征图61的宽度值和高度值均为8个像素点,第二图像特征图62的宽度值和高度值均为4个像素点。
S520、确定所述第二图像特征图与所述第一图像特征图中的每个子图像特征图之间的相关性特征;所述子图像特征图与所述第二图像特征图的尺寸相同。
如图6所示,可以将第二图像特征图62按照从左到右、从上到下的顺序在第一图像特征图61上移动,将第一图像特征图61中的,第二图像特征图62的各个正投影区域作为各个子图像特征图。
在具体实施时,可以利用相关(correlation)计算,确定第二图像特征图与子图像特征图之间的相关性特征。
S530、基于确定的多个相关性特征,生成所述图像相似性特征图。
如图6所示,基于第二图像特征图与各个子图像特征图之间的相关性特征生成的图像相似性特征图63的宽度值和高度值均为5个像素点。
上述图像相似性特征图中,每个像素点对应的相关性特征,即可表征第一图像特征图中一个子区域(即子图像特征图)与第二图像特征图的图像相似性的程度,基于该图像相似性的程度能够准确的筛选出搜索区域中的位于待定位区域内的概率最大的像素点,继而基于该概率值最大的像素点的信息能够有效提高确定的待定位区域的定位位置信息的准确度。
上述实施例的目标跟踪方法中,对获取的视频图像进行处理,得到每帧待跟踪图像中的待定位区域的定位位置信息,以及确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框的过程,可以利用跟踪定位神经网络来完成,所述跟踪定位神经网络由标注有目标对象的检测框的样本图像训练得到。
上述目标跟踪方法中利用了跟踪定位神经网络,确定待定位区域的定位位置信息,由于简化了计算方法,因此跟踪定位神经网络的结构得到了简化,从而更易于部署在移动端上。
本公开还提供了训练上述跟踪定位神经网络的方法,具体的,如图7所示,包括如下步骤:
S710、获取样本图像,所述样本图像包括参考帧样本图像和待跟踪的样本图像。
样本图像中包括参考帧样本图像和至少一帧待跟踪的样本图像。参考帧样本图像中包括待跟踪对象的、已经确定了定位位置信息的检测框。待跟踪的样本图像中的待定位区域的定位位置信息没有确定,需要跟踪定位神经网络来预测或确定。
S720、将所述样本图像输入待训练的跟踪定位神经网络,经过所述待训练的跟踪定位神经网络对输入的样本图像进行处理,预测所述目标对象在所述待跟踪的样本图像中的检测框。
S730、基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数。
在具体实施时,将所述待跟踪的样本图像中的待定位区域的定位位置信息作为所述待跟踪的样本图像中预测的检测框的位置信息。
上述基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数,具体可以利用如下步骤实现:
基于所述待跟踪的样本图像中预测的检测框的尺寸信息、所述待跟踪的样本图像中搜索区域中每个像素点位于所述待跟踪的样本图像中预测的检测框内的预测概率值、所述待跟踪的样本图像中搜索区域中每个像素点与所述待跟踪的样本图像中预测的检测框的预测位置关系信息、所述待跟踪的样本图像中标注的检测框的标准尺寸信息、所述待跟踪的样本图像中标准搜索区域中每个像素点是否位于标注的检测框中的信息、所述待跟踪的样本图像中标准搜索区域中每个像素点与所述待跟踪的样本图像中标注的检测框的标准位置关系信息,调整所述待训练的跟踪定位神经网络的网络参数。
其中,所述待跟踪的样本图像中标注的检测框的标准尺寸信息、所述待跟踪的样本图像中标准搜索区域中每个像素点是否位于标注的检测框中的信息、所述待跟踪的样本图像中标准搜索区域中每个像素点与所述待跟踪的样本图像中标注的检测框的标准位置关系信息,均可以根据所述待跟踪的样本图像中的标注的检测框确定。
上述预测位置关系信息为对应的像素点与预测的检测框的中心点的偏差信息,可以包括对应的像素点与预测的检测框的中心点的距离在横轴方向上的分量和对应的像素点与预测的检测框的中心点的距离在横轴方向上的分量。
上述像素点是否位于标注的检测框中的信息可以利用对象的像素点位于标注的检测框内的标准值Lp确定:
在具体实施时,可以采用交叉熵损失函数对Lp和预测概率值Y进行约束构建一个子损失函数Losscls,具体如公式(11)所示:
在具体实施时,可以采用smoothL1来确定标准位置关系信息和预测位置关系信息之间的子损失函数Lossoffset:
Lossoffset=smoothL1(Lo-Yo) (12)
式中,Yo表示预测位置关系信息,Lo表示标准位置关系信息。标准位置关系信息为像素点与标注的检测框的中心点的真实偏差信息,可以包括像素点与标注的检测框的中心点的距离在横轴方向上的分量Lox和像素点与标注的检测框的中心点的距离在横轴方向上的分量Loy。
基于上述两个子损失函数可以构建一个综合的损失函数,如下公式所示:
Lossall=Losscls+λ1*Lossofset (13)
式中,λ1为一个预设的权重。
进一步,可以结合上述预设的检测框尺寸信息,调整所述待训练的跟踪定位神经网络中的网络参数,具体可以利用上面的公式(11)、(12)建立子损失函数Losscls和子损失函数Lossofset。
可以利用如下公式建立关于预测的检测框尺寸信息的子损失函数Lossw,h:
Lossw,h=smoothL1(Lw-Yw)+smoothL1(Lh-Yh) (14)
式中,Lw表示标准尺寸信息中的宽度值,Lh表示标准尺寸信息中的高度值,Yw表示检测框的预测尺寸信息中的宽度值,Yh表示检测框的预测尺寸信息中的高度值。
基于上述3个子损失函数可以构建一个综合的损失函数Lossall,可以如下公式所示:
Lossall=Losscls+λ1*Lossofset+λ2*Lossw,h (15)
式中,λ2为一个预设的权重。
上述实施例在训练跟踪定位神经网络的时候,进一步结合预测得到的检测框的尺寸信息和待跟踪的样本图像中检测框的标准尺寸信息,来构造损失函数,利用该损失函数能够进一步提高训练得到跟踪定位神经网络的计算准确度。
对应于上述目标跟踪方法,本公开实施例还提供了一种目标跟踪装置,该装置应用于需要进行目标跟踪的终端设备上,并且该装置及其各个模块能够执行与上述目标跟踪方法的相同的方法步骤,并且能够达到相同或相似的有益效果,因此对于重复的部分不再赘述。
具体地,如图8所示,本公开实施例提供的目标跟踪装置包括:
图像获取模块810,用于获取视频图像;
相似性特征提取模块820,用于针对除所述视频图像中的参考帧图像之后的待跟踪图像,生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图;其中,所述目标图像区域内包含待跟踪对象;
定位模块830,用于根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息;
跟踪模块840,用于响应于在所述搜索区域中确定出所述待定位区域的定位位置信息,根据确定的待定位区域的定位位置信息确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框。
在一些实施例中,所述定位模块830用于:
根据所述图像相似性特征图,预测所述待定位区域的尺寸信息;
根据所述图像相似性特征图,预测所述搜索区域的特征图中的每个特征像素点的概率值,一个特征像素点的概率值表征所述搜索区域中与该特征像素点对应的像素点位于所述待定位区域内的几率;
根据所述图像相似性特征图,预测所述搜索区域中与每个所述特征像素点对应的像素点与所述待定位区域的位置关系信息;
从预测的概率值中选取最大概率值对应的特征像素点所对应的所述搜索区域中的像素点作为目标像素点;
基于选取的目标像素点、所述目标像素点与所述待定位区域的位置关系信息、以及所述待定位区域的尺寸信息,确定所述待定位区域的定位位置信息。
在一些实施例中,所述相似性特征提取模块820用于利用以下步骤从所述参考帧图像中提取所述目标图像区域:
确定所述待跟踪对象在所述参考帧图像中的检测框;
基于所述参考帧图像中的检测框的尺寸信息,确定所述参考帧图像中的检测框对应的第一延伸尺寸信息;
基于所述第一延伸尺寸信息,以所述参考帧图像中的检测框为起始位置向周围延伸,得到所述目标图像区域。
在一些实施例中,所述相似性特征提取模块820用于利用以下步骤从待跟踪图像中提取搜索区域:
获取在所述视频图像中当前帧待跟踪图像的前一帧待跟踪图像中,所述待跟踪对象的检测框;
基于所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定所述前一帧待跟踪图像中的所述待跟踪对象的检测框对应的第二延伸尺寸信息;
基于所述第二延伸尺寸信息和所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定当前帧待跟踪图像中的搜索区域的尺寸信息;
以所述前一帧待跟踪图像中的所述待跟踪对象的检测框的中心点坐标为当前帧待跟踪图像中的搜索区域的中心,根据当前帧待跟踪图像中的搜索区域的尺寸信息确定所述搜索区域。
在一些实施例中,所述相似性特征提取模块820用于:
将所述搜索区域缩放至第一预设尺寸,以及,将所述目标图像区域缩放至第二预设尺寸;
生成所述搜索区域中的第一图像特征图,以及所述目标图像区域中的第二图像特征图;所述第二图像特征图的尺寸小于所述第一图像特征图的尺寸;
确定所述第二图像特征图与所述第一图像特征图中的每个子图像特征图之间的相关性特征;所述子图像特征图与所述第二图像特征图的尺寸相同;
基于确定的多个相关性特征,生成所述图像相似性特征图。
在一些实施例中,所述目标跟踪装置利用跟踪定位神经网络确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框;其中所述跟踪定位神经网络由标注有目标对象的检测框的样本图像训练得到。
在一些实施例中,所述目标跟踪装置还包括模型训练模块850,用于:
获取样本图像,所述样本图像包括参考帧样本图像和待跟踪的样本图像
将所述样本图像输入待训练的跟踪定位神经网络,经过所述待训练的跟踪定位神经网络对输入的样本图像进行处理,预测所述目标对象在所述待跟踪的样本图像中的检测框;
基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数。
在一些实施例中,将所述待跟踪的样本图像中的待定位区域的定位位置信息作为所述待跟踪的样本图像中预测的检测框的位置信息,所述模型训练模块850在基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数时,用于:
基于所述待跟踪的样本图像中预测的检测框的尺寸信息、所述待跟踪的样本图像中搜索区域中每个像素点位于所述待跟踪的样本图像中预测的检测框内的预测概率值、所述待跟踪的样本图像中搜索区域中每个像素点与所述待跟踪的样本图像中预测的检测框的预测位置关系信息、所述待跟踪的样本图像中标注的检测框的标准尺寸信息、所述待跟踪的样本图像中标准搜索区域中每个像素点是否位于标注的检测框中的信息、所述待跟踪的样本图像中标准搜索区域中每个像素点与所述待跟踪的样本图像中标注的检测框的标准位置关系信息,调整所述待训练的跟踪定位神经网络的网络参数。
本公开上述目标跟踪装置在预测检测框时执行的具体实施方式可以参见上述目标跟踪方法的描述,具体实施过程与上述相似,这里不再赘述。
本公开实施例公开了一种电子设备,如图9所示,包括:处理器901、存储器902和总线903,所述存储器902存储有所述处理器901可执行的机器可读指令,当电子设备运行时,所述处理器901与所述存储器902之间通过总线903通信。
所述机器可读指令被所述处理器901执行时执行以下目标跟踪方法的步骤:
获取视频图像;
针对除所述视频图像中的参考帧图像之后的待跟踪图像,生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图;其中,所述目标图像区域内包含待跟踪对象;
根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息;
响应于在所述搜索区域中确定出所述待定位区域的定位位置信息,根据确定的待定位区域的定位位置信息确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框。
除此之外,机器可读指令被处理器901执行时,还可以执行上述方法部分描述的任一实施方式中的方法内容,这里不再赘述。
本公开实施例还提供的一种对应于上述方法及装置的计算机程序产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,本文不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考方法实施例中的对应过程,本公开中不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。
Claims (18)
1.一种目标跟踪方法,其特征在于,包括:
获取视频图像;
针对除所述视频图像中的参考帧图像之后的待跟踪图像,生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图;其中,所述目标图像区域内包含待跟踪对象;
根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息;
响应于在所述搜索区域中确定出所述待定位区域的定位位置信息,根据确定的待定位区域的定位位置信息确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框。
2.根据权利要求1所述的目标跟踪方法,其特征在于,根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息,包括:
根据所述图像相似性特征图,预测所述待定位区域的尺寸信息;
根据所述图像相似性特征图,预测所述搜索区域的特征图中的每个特征像素点的概率值,一个特征像素点的概率值表征所述搜索区域中与该特征像素点对应的像素点位于所述待定位区域内的几率;
根据所述图像相似性特征图,预测所述搜索区域中与每个所述特征像素点对应的像素点与所述待定位区域的位置关系信息;
从预测的概率值中选取最大概率值对应的特征像素点所对应的所述搜索区域中的像素点作为目标像素点;
基于选取的目标像素点、所述目标像素点与所述待定位区域的位置关系信息、以及所述待定位区域的尺寸信息,确定所述待定位区域的定位位置信息。
3.根据权利要求1或2所述的目标跟踪方法,其特征在于,根据以下步骤从所述参考帧图像中提取所述目标图像区域:
确定所述待跟踪对象在所述参考帧图像中的检测框;
基于所述参考帧图像中的检测框的尺寸信息,确定所述参考帧图像中的检测框对应的第一延伸尺寸信息;
基于所述第一延伸尺寸信息,以所述参考帧图像中的检测框为起始位置向周围延伸,得到所述目标图像区域。
4.根据权利要求1或2所述的目标跟踪方法,其特征在于,根据以下步骤从待跟踪图像中提取搜索区域:
获取在所述视频图像中当前帧待跟踪图像的前一帧待跟踪图像中,所述待跟踪对象的检测框;
基于所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定所述前一帧待跟踪图像中的所述待跟踪对象的检测框对应的第二延伸尺寸信息;
基于所述第二延伸尺寸信息和所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定当前帧待跟踪图像中的搜索区域的尺寸信息;
以所述前一帧待跟踪图像中的所述待跟踪对象的检测框的中心点坐标为当前帧待跟踪图像中的搜索区域的中心,根据当前帧待跟踪图像中的搜索区域的尺寸信息确定所述搜索区域。
5.根据权利要求1至4任一项所述的目标跟踪方法,其特征在于,所述生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图,包括:
将所述搜索区域缩放至第一预设尺寸,以及,将所述目标图像区域缩放至第二预设尺寸;
生成所述搜索区域中的第一图像特征图,以及所述目标图像区域中的第二图像特征图;所述第二图像特征图的尺寸小于所述第一图像特征图的尺寸;
确定所述第二图像特征图与所述第一图像特征图中的每个子图像特征图之间的相关性特征;所述子图像特征图与所述第二图像特征图的尺寸相同;
基于确定的多个相关性特征,生成所述图像相似性特征图。
6.根据权利要求1至5任一项所述的目标跟踪方法,其特征在于,
所述目标跟踪方法由跟踪定位神经网络执行;其中所述跟踪定位神经网络由标注有目标对象的检测框的样本图像训练得到。
7.根据权利要求6所述的目标跟踪方法,其特征在于,所述方法还包括训练所述跟踪定位神经网络的步骤:
获取样本图像,所述样本图像包括参考帧样本图像和待跟踪的样本图像;
将所述样本图像输入待训练的跟踪定位神经网络,经过所述待训练的跟踪定位神经网络对输入的样本图像进行处理,预测所述目标对象在所述待跟踪的样本图像中的检测框;
基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数。
8.根据权利要求7所述的目标跟踪方法,其特征在于,将所述待跟踪的样本图像中的待定位区域的定位位置信息作为所述待跟踪的样本图像中预测的检测框的位置信息,所述基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数,包括:
基于所述待跟踪的样本图像中预测的检测框的尺寸信息、所述待跟踪的样本图像中搜索区域中每个像素点位于所述待跟踪的样本图像中预测的检测框内的预测概率值、所述待跟踪的样本图像中搜索区域中每个像素点与所述待跟踪的样本图像中预测的检测框的预测位置关系信息、所述待跟踪的样本图像中标注的检测框的标准尺寸信息、所述待跟踪的样本图像中标准搜索区域中每个像素点是否位于标注的检测框中的信息、所述待跟踪的样本图像中标准搜索区域中每个像素点与所述待跟踪的样本图像中标注的检测框的标准位置关系信息,调整所述待训练的跟踪定位神经网络的网络参数。
9.一种目标跟踪装置,其特征在于,包括:
图像获取模块,用于获取视频图像;
相似性特征提取模块,用于针对除所述视频图像中的参考帧图像之后的待跟踪图像,生成所述待跟踪图像中的搜索区域与所述参考帧图像中的目标图像区域之间的图像相似性特征图;其中,所述目标图像区域内包含待跟踪对象;
定位模块,用于根据所述图像相似性特征图,确定所述搜索区域中的待定位区域的定位位置信息;
跟踪模块,用于响应于在所述搜索区域中确定出所述待定位区域的定位位置信息,根据确定的待定位区域的定位位置信息确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框。
10.根据权利要求9所述的目标跟踪装置,其特征在于,所述定位模块用于:
根据所述图像相似性特征图,预测所述待定位区域的尺寸信息;
根据所述图像相似性特征图,预测所述搜索区域的特征图中的每个特征像素点的概率值,一个特征像素点的概率值表征所述搜索区域中与该特征像素点对应的像素点位于所述待定位区域内的几率;
根据所述图像相似性特征图,预测所述搜索区域中与每个所述特征像素点对应的像素点与所述待定位区域的位置关系信息;
从预测的概率值中选取最大概率值对应的特征像素点所对应的所述搜索区域中的像素点作为目标像素点;
基于选取的目标像素点、所述目标像素点与所述待定位区域的位置关系信息、以及所述待定位区域的尺寸信息,确定所述待定位区域的定位位置信息。
11.根据权利要求9或10所述的目标跟踪装置,其特征在于,所述相似性特征提取模块用于利用以下步骤从所述参考帧图像中提取所述目标图像区域:
确定所述待跟踪对象在所述参考帧图像中的检测框;
基于所述参考帧图像中的检测框的尺寸信息,确定所述参考帧图像中的检测框对应的第一延伸尺寸信息;
基于所述第一延伸尺寸信息,以所述参考帧图像中的检测框为起始位置向周围延伸,得到所述目标图像区域。
12.根据权利要求9或10所述的目标跟踪装置,其特征在于,所述相似性特征提取模块用于利用以下步骤从待跟踪图像中提取搜索区域:
获取在所述视频图像中当前帧待跟踪图像的前一帧待跟踪图像中,所述待跟踪对象的检测框;
基于所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定所述前一帧待跟踪图像中的所述待跟踪对象的检测框对应的第二延伸尺寸信息;
基于所述第二延伸尺寸信息和所述前一帧待跟踪图像中的所述待跟踪对象的检测框的尺寸信息,确定当前帧待跟踪图像中的搜索区域的尺寸信息;
以所述前一帧待跟踪图像中的所述待跟踪对象的检测框的中心点坐标为当前帧待跟踪图像中的搜索区域的中心,根据当前帧待跟踪图像中的搜索区域的尺寸信息确定所述搜索区域。
13.根据权利要求9至12任一项所述的目标跟踪装置,其特征在于,所述相似性特征提取模块用于:
将所述搜索区域缩放至第一预设尺寸,以及,将所述目标图像区域缩放至第二预设尺寸;
生成所述搜索区域中的第一图像特征图,以及所述目标图像区域中的第二图像特征图;所述第二图像特征图的尺寸小于所述第一图像特征图的尺寸;
确定所述第二图像特征图与所述第一图像特征图中的每个子图像特征图之间的相关性特征;所述子图像特征图与所述第二图像特征图的尺寸相同;
基于确定的多个相关性特征,生成所述图像相似性特征图。
14.根据权利要求9至13任一项所述的目标跟踪装置,其特征在于,所述目标跟踪装置利用跟踪定位神经网络确定所述待跟踪对象在包含所述搜索区域的待跟踪图像中的检测框;其中所述跟踪定位神经网络由标注有目标对象的检测框的样本图像训练得到。
15.根据权利要求14所述的目标跟踪装置,其特征在于,所述目标跟踪装置还包括模型训练模块,用于:
获取样本图像,所述样本图像包括参考帧样本图像和待跟踪的样本图像
将所述样本图像输入待训练的跟踪定位神经网络,经过所述待训练的跟踪定位神经网络对输入的样本图像进行处理,预测所述目标对象在所述待跟踪的样本图像中的检测框;
基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数。
16.根据权利要求15所述的目标跟踪装置,其特征在于,将所述待跟踪的样本图像中的待定位区域的定位位置信息作为所述待跟踪的样本图像中预测的检测框的位置信息,所述模型训练模块在基于所述待跟踪的样本图像中标注的检测框和所述待跟踪的样本图像中预测的检测框,调整所述待训练的跟踪定位神经网络的网络参数时,用于:
基于所述待跟踪的样本图像中预测的检测框的尺寸信息、所述待跟踪的样本图像中搜索区域中每个像素点位于所述待跟踪的样本图像中预测的检测框内的预测概率值、所述待跟踪的样本图像中搜索区域中每个像素点与所述待跟踪的样本图像中预测的检测框的预测位置关系信息、所述待跟踪的样本图像中标注的检测框的标准尺寸信息、所述待跟踪的样本图像中标准搜索区域中每个像素点是否位于标注的检测框中的信息、所述待跟踪的样本图像中标准搜索区域中每个像素点与所述待跟踪的样本图像中标注的检测框的标准位置关系信息,调整所述待训练的跟踪定位神经网络的网络参数。
17.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1~8任一所述的目标跟踪方法。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1~8任一所述的目标跟踪方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010011243.0A CN111242973A (zh) | 2020-01-06 | 2020-01-06 | 目标跟踪方法、装置、电子设备及存储介质 |
PCT/CN2020/135971 WO2021139484A1 (zh) | 2020-01-06 | 2020-12-11 | 目标跟踪方法、装置、电子设备及存储介质 |
KR1020227023350A KR20220108165A (ko) | 2020-01-06 | 2020-12-11 | 타깃 추적 방법, 장치, 전자 기기 및 저장 매체 |
JP2022541641A JP2023509953A (ja) | 2020-01-06 | 2020-12-11 | ターゲット追跡方法、装置、電子機器及び記憶媒体 |
US17/857,239 US20220366576A1 (en) | 2020-01-06 | 2022-07-05 | Method for target tracking, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010011243.0A CN111242973A (zh) | 2020-01-06 | 2020-01-06 | 目标跟踪方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111242973A true CN111242973A (zh) | 2020-06-05 |
Family
ID=70872351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010011243.0A Pending CN111242973A (zh) | 2020-01-06 | 2020-01-06 | 目标跟踪方法、装置、电子设备及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220366576A1 (zh) |
JP (1) | JP2023509953A (zh) |
KR (1) | KR20220108165A (zh) |
CN (1) | CN111242973A (zh) |
WO (1) | WO2021139484A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111744187A (zh) * | 2020-08-10 | 2020-10-09 | 腾讯科技(深圳)有限公司 | 一种游戏数据处理方法、装置、计算机及可读存储介质 |
CN111986262A (zh) * | 2020-09-07 | 2020-11-24 | 北京凌云光技术集团有限责任公司 | 一种图像区域定位方法及装置 |
CN112464001A (zh) * | 2020-12-11 | 2021-03-09 | 厦门四信通信科技有限公司 | 一种物体移动跟踪方法、装置、设备及存储介质 |
CN112907628A (zh) * | 2021-02-09 | 2021-06-04 | 北京有竹居网络技术有限公司 | 视频目标追踪方法、装置、存储介质及电子设备 |
WO2021139484A1 (zh) * | 2020-01-06 | 2021-07-15 | 上海商汤临港智能科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113140005A (zh) * | 2021-04-29 | 2021-07-20 | 上海商汤科技开发有限公司 | 目标对象定位方法、装置、设备及存储介质 |
CN113450386A (zh) * | 2021-08-31 | 2021-09-28 | 北京美摄网络科技有限公司 | 一种人脸跟踪方法和装置 |
CN113627379A (zh) * | 2021-08-19 | 2021-11-09 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、设备以及存储介质 |
CN113793364A (zh) * | 2021-11-16 | 2021-12-14 | 深圳佑驾创新科技有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114554300B (zh) * | 2022-02-28 | 2024-05-07 | 合肥高维数据技术有限公司 | 基于特定目标的视频水印嵌入方法 |
CN115393755A (zh) * | 2022-07-11 | 2022-11-25 | 影石创新科技股份有限公司 | 视觉目标跟踪方法、装置、设备以及存储介质 |
CN116385485B (zh) * | 2023-03-13 | 2023-11-14 | 腾晖科技建筑智能(深圳)有限公司 | 一种长条形塔吊吊物的视频跟踪方法及系统 |
CN116152298B (zh) * | 2023-04-17 | 2023-08-29 | 中国科学技术大学 | 一种基于自适应局部挖掘的目标跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909885A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种基于目标候选的目标跟踪方法及装置 |
CN109493367A (zh) * | 2018-10-29 | 2019-03-19 | 浙江大华技术股份有限公司 | 一种对目标对象进行跟踪的方法和设备 |
CN109671103A (zh) * | 2018-12-12 | 2019-04-23 | 易视腾科技股份有限公司 | 目标跟踪方法及装置 |
CN109858455A (zh) * | 2019-02-18 | 2019-06-07 | 南京航空航天大学 | 一种针对圆形目标的分块检测尺度自适应跟踪方法 |
CN110363791A (zh) * | 2019-06-28 | 2019-10-22 | 南京理工大学 | 一种融合单目标跟踪结果的在线多目标跟踪算法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530894B (zh) * | 2013-10-25 | 2016-04-20 | 合肥工业大学 | 一种基于多尺度块稀疏表示的视频目标追踪方法及其系统 |
CN103714554A (zh) * | 2013-12-12 | 2014-04-09 | 华中科技大学 | 一种基于传播融合的视频跟踪方法 |
WO2016098720A1 (ja) * | 2014-12-15 | 2016-06-23 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
CN109145781B (zh) * | 2018-08-03 | 2021-05-04 | 北京字节跳动网络技术有限公司 | 用于处理图像的方法和装置 |
CN110176027B (zh) * | 2019-05-27 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法、装置、设备及存储介质 |
CN111242973A (zh) * | 2020-01-06 | 2020-06-05 | 上海商汤临港智能科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
-
2020
- 2020-01-06 CN CN202010011243.0A patent/CN111242973A/zh active Pending
- 2020-12-11 KR KR1020227023350A patent/KR20220108165A/ko active Search and Examination
- 2020-12-11 WO PCT/CN2020/135971 patent/WO2021139484A1/zh active Application Filing
- 2020-12-11 JP JP2022541641A patent/JP2023509953A/ja not_active Withdrawn
-
2022
- 2022-07-05 US US17/857,239 patent/US20220366576A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909885A (zh) * | 2017-01-19 | 2017-06-30 | 博康智能信息技术有限公司上海分公司 | 一种基于目标候选的目标跟踪方法及装置 |
CN109493367A (zh) * | 2018-10-29 | 2019-03-19 | 浙江大华技术股份有限公司 | 一种对目标对象进行跟踪的方法和设备 |
CN109671103A (zh) * | 2018-12-12 | 2019-04-23 | 易视腾科技股份有限公司 | 目标跟踪方法及装置 |
CN109858455A (zh) * | 2019-02-18 | 2019-06-07 | 南京航空航天大学 | 一种针对圆形目标的分块检测尺度自适应跟踪方法 |
CN110363791A (zh) * | 2019-06-28 | 2019-10-22 | 南京理工大学 | 一种融合单目标跟踪结果的在线多目标跟踪算法 |
Non-Patent Citations (1)
Title |
---|
焦李成等: "《人工智能、类脑计算与图像解译前沿》", 30 November 2021 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021139484A1 (zh) * | 2020-01-06 | 2021-07-15 | 上海商汤临港智能科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN111744187B (zh) * | 2020-08-10 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 一种游戏数据处理方法、装置、计算机及可读存储介质 |
CN111744187A (zh) * | 2020-08-10 | 2020-10-09 | 腾讯科技(深圳)有限公司 | 一种游戏数据处理方法、装置、计算机及可读存储介质 |
CN111986262A (zh) * | 2020-09-07 | 2020-11-24 | 北京凌云光技术集团有限责任公司 | 一种图像区域定位方法及装置 |
CN111986262B (zh) * | 2020-09-07 | 2024-04-26 | 凌云光技术股份有限公司 | 一种图像区域定位方法及装置 |
CN112464001A (zh) * | 2020-12-11 | 2021-03-09 | 厦门四信通信科技有限公司 | 一种物体移动跟踪方法、装置、设备及存储介质 |
CN112464001B (zh) * | 2020-12-11 | 2022-07-05 | 厦门四信通信科技有限公司 | 一种物体移动跟踪方法、装置、设备及存储介质 |
CN112907628A (zh) * | 2021-02-09 | 2021-06-04 | 北京有竹居网络技术有限公司 | 视频目标追踪方法、装置、存储介质及电子设备 |
WO2022171036A1 (zh) * | 2021-02-09 | 2022-08-18 | 北京有竹居网络技术有限公司 | 视频目标追踪方法、视频目标追踪装置、存储介质及电子设备 |
CN113140005B (zh) * | 2021-04-29 | 2024-04-16 | 上海商汤科技开发有限公司 | 目标对象定位方法、装置、设备及存储介质 |
CN113140005A (zh) * | 2021-04-29 | 2021-07-20 | 上海商汤科技开发有限公司 | 目标对象定位方法、装置、设备及存储介质 |
CN113627379A (zh) * | 2021-08-19 | 2021-11-09 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、设备以及存储介质 |
CN113450386A (zh) * | 2021-08-31 | 2021-09-28 | 北京美摄网络科技有限公司 | 一种人脸跟踪方法和装置 |
CN113793364A (zh) * | 2021-11-16 | 2021-12-14 | 深圳佑驾创新科技有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20220366576A1 (en) | 2022-11-17 |
JP2023509953A (ja) | 2023-03-10 |
WO2021139484A1 (zh) | 2021-07-15 |
KR20220108165A (ko) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242973A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN109544615B (zh) | 基于图像的重定位方法、装置、终端及存储介质 | |
CN108629843B (zh) | 一种实现增强现实的方法及设备 | |
CN107633526B (zh) | 一种图像跟踪点获取方法及设备、存储介质 | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN110111388B (zh) | 三维物体位姿参数估计方法及视觉设备 | |
CN108198044B (zh) | 商品信息的展示方法、装置、介质及电子设备 | |
EP2795576A1 (en) | Transformation between image and map coordinates | |
CN111784737B (zh) | 一种基于无人机平台的目标自动跟踪方法及系统 | |
CN107025661B (zh) | 一种实现增强现实的方法、服务器、终端及系统 | |
JP6362085B2 (ja) | 画像認識システム、画像認識方法およびプログラム | |
CN111275040A (zh) | 定位方法及装置、电子设备、计算机可读存储介质 | |
CN109543534B (zh) | 一种目标跟踪中目标丢失重检的方法及装置 | |
CN113362441A (zh) | 三维重建方法、装置、计算机设备和存储介质 | |
CN115063750A (zh) | 区域位置更新方法、安防系统和计算机可读存储介质 | |
CN110717593B (zh) | 神经网络训练、移动信息测量、关键帧检测的方法及装置 | |
CN110517285B (zh) | 基于运动估计me-cnn网络的大场景极小目标跟踪 | |
JP6305856B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN110930436B (zh) | 一种目标跟踪方法及设备 | |
CN116105721B (zh) | 地图构建的回环优化方法、装置、设备及存储介质 | |
WO2020217368A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
CN113853559A (zh) | 可移动平台的控制方法、装置、设备及存储介质 | |
CN110889460A (zh) | 一种基于协同注意力机制的机械臂指定物体抓取方法 | |
CN114972465A (zh) | 图像目标深度的检测方法、装置、电子设备和存储介质 | |
CN112802112A (zh) | 视觉定位方法、装置、服务器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200605 |