CN112037255A - 目标跟踪方法和装置 - Google Patents
目标跟踪方法和装置 Download PDFInfo
- Publication number
- CN112037255A CN112037255A CN202010805592.XA CN202010805592A CN112037255A CN 112037255 A CN112037255 A CN 112037255A CN 202010805592 A CN202010805592 A CN 202010805592A CN 112037255 A CN112037255 A CN 112037255A
- Authority
- CN
- China
- Prior art keywords
- target
- region
- area
- tracking
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 58
- 238000013135 deep learning Methods 0.000 claims abstract description 42
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims description 30
- 238000012216 screening Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例涉及目标追踪方法和装置。其包括:根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域;在所述图像帧中,通过预设的深度学习算法,获得若干个物体区域;在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域;根据所述目标物体区域,调整所述目标区域的位置和大小,生成优化的目标区域。该方法在原有的跟踪算法的基础上,结合深度学习的检测结果进行优化和调整,可以更好的适应和抵抗复杂环境下的干扰,有效的提升了目标跟踪的整体性能。
Description
【技术领域】
本发明涉及机器视觉技术领域,尤其涉及一种目标跟踪方法、装置、图像处理芯片以及无人机。
【背景技术】
“目标跟踪”是在给定的视频序列的初始图像帧的目标大小与位置的情况下,预测该目标物体在视频序列后续的图像帧中的大小和位置的技术。其在视频监控、人机交互和多媒体分析等多个领域都有广泛的应用。
但在实际应用过程中,被跟踪目标由于非刚体运动,形状易发生变化,受到光照变换以及背景环境干扰等的情况,经常出现跟踪失败的情况,无法完成目标跟踪的任务。
因此,如何避免视频序列中无关因素对于跟踪目标的干扰,提升目标跟踪的性能,以满足和适应复杂多变的实际应用情况是一个迫切需要解决的问题。
【发明内容】
本发明实施例旨在提供一种目标跟踪方法、装置、图像处理芯片以及无人机,能够解决现有目标跟踪方法存在的缺陷。
为解决上述技术问题,本发明实施例提供以下技术方案:一种目标跟踪方法。该方法包括:
根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域;
在所述图像帧中,通过预设的深度学习算法,获得若干个物体区域;
在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域;
根据所述目标物体区域,调整所述目标区域的位置和大小,生成优化的目标区域。
可选地,在初始图像帧中,通过所述深度学习算法,识别获得若干个可选的物体区域,每一个所述物体区域标记有对应的物体标签;
确定用户选中的物体区域作为跟踪目标。
可选地,所述在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域,具体包括:
选择与所述跟踪目标的物体标签相同的物体区域作为候选物体区域;
在候选的物体区域中,选取与上一帧图像帧的跟踪结果的重叠度最大的候选物体区域作为所述目标物体区域。
可选地,所述选取与所述目标区域重叠度最大的候选物体区域作为所述目标物体区域,具体包括:
计算所述候选物体区域与所述目标区域的交集面积和并集面积;
将所述交集面积和所述并集面积的比值作为所述候选物体区域与所述目标物体区域的重叠度。
可选地,所述表象特征包括:梯度方向直方图、局部二值模式和颜色特征。
可选地,所述根据所述目标物体区域,通过调整所述目标区域的位置和大小的方式,生成优化的目标区域,具体包括:
设置所述目标物体区域的第一权重和所述目标区域的第二权重;
根据所述第一权重和所述第二权重,对所述目标物体区域的中心点和所述目标区域的中心点进行加权求和,获得所述优化的目标区域的中心点;所述目标物体区域的位置由所述目标物体区域的中心点表示,所述目标区域的位置由所述目标区域的中心点表示,所述优化的目标区域的位置由所述优化的目标区域的中心点表示,并且
根据所述第一权重和所述第二权重,对所述目标物体区域与所述目标区域的大小进行加权求和,获得所述优化的目标区域的大小。
可选地,所述优化的目标区域的中心点通过如下算式计算获得:
center_x_opt=λ*center_x_track+(1-λ)*center_x_detect;
center_y_opt=λ*center_y_track+(1-λ)*center_y_detect;
其中,center_x_opt为优化的目标区域的中心点在图像帧的水平方向上的坐标,center_y_opt为优化的目标区域的中心点在图像帧的垂直方向上的坐标;center_x_track为目标区域的中心点在图像帧的水平方向上的坐标,center_y_track为目标区域的中心点在图像帧的垂直方向上的坐标,center_x_detect为目标物体区域的中心点在图像帧的水平方向上的坐标,center_y_detect为目标物体区域的中心点在图像帧的垂直方向上的坐标,λ为第二权重。
可选地,所述优化的目标区域的大小通过如下算式计算获得:
width_opt=λ*width_track+(1-λ)*width_detect;
height_opt=λ*height_track+(1-λ)*height_detect;
其中,width_opt为优化的目标区域的宽度,width_track为目标区域的宽度,width_detect为目标物体区域的宽度,height_opt为优化的目标区域的高度,height_track为目标区域的高度,height_detect为目标物体区域的高度,λ为第二权重。
为解决上述技术问题,本发明实施例还提供以下技术方案:一种目标跟踪装置,包括:
目标跟踪模块,用于根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域;
深度学习识别模块,用于在所述图像帧中,通过预设的深度学习算法,获得若干个物体区域;
选择模块,用于在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域;
优化模块,用于根据所述目标物体区域,调整所述目标区域的位置和大小,生成优化的目标区域。
为解决上述技术问题,本发明实施例还提供以下技术方案:一种图像处理芯片,包括:处理器以及与所述处理器通信连接的存储器;所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器调用时,以使所述处理器执行如上所述的目标跟踪方法。
为解决上述技术问题,本发明实施例还提供以下技术方案:一种无人机,包括:无人机主体,安装在所述无人机主体的云台上的图像采集设备以及图像处理芯片;
所述图像采集设备用于连续采集多帧图像;所述图像处理芯片用于接收所述图像采集设备连续采集的多帧图像,并对接收到的所述多帧图像执行如上所述的目标跟踪方法,实现对跟踪目标的跟踪。
与现有技术相比较,本发明实施例的目标跟踪方法在原有的跟踪算法的基础上,结合深度学习的检测结果进行优化和调整,可以更好的适应和抵抗复杂环境下的干扰,有效的提升了目标跟踪的整体性能。
【附图说明】
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明实施例的目标跟踪方法的应用场景的示意图;
图2为本发明实施例提供的目标跟踪装置的示意图;
图3为本发明实施例提供的目标跟踪方法的方法流程图;
图4为本发明实施例提供的目标物体区域选择方法的方法流程图;
图5为本发明实施例提供的目标跟踪方法的应用实例的示意图;
图6为本发明实施例提供的图像处理芯片的结构示意图。
【具体实施方式】
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。需要说明的是,当元件被表述“固定于”另一个元件,它可以直接在另一个元件上、或者其间可以存在一个或多个居中的元件。当一个元件被表述“连接”另一个元件,它可以是直接连接到另一个元件、或者其间可以存在一个或多个居中的元件。本说明书所使用的术语“上”、“下”、“内”、“外”、“底部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本说明书中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
此外,下面所描述的本发明不同实施例中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
在由一系列连续的图像帧组成的视频序列中,传统的目标跟踪流程包括生成候选样本,特征提取,使用观测模型为候选样本进行评分,更新观测模型适应目标的变化以及融合获得最终的决策结果等步骤。
其中,“特征提取”是指提取具有鉴别性的特征来表示目标的过程。提取获得鉴别性特征是候选样本评分的基础,是决定目标跟踪性能的关键。现有关于目标跟踪方法性能的改进大多集中在如何选取合适的特征。
而本发明实施例提供的目标跟踪方法通过结合和调整优化的方式,在不付出过多的延时或者计算量的情况下,可以克服遮挡,形变,背景杂斑以及尺度变换等的干扰,提升目标跟踪的性能。
图1为本发明实施例提供的目标跟踪方法的应用场景。如图1所示,在该应用场景中,包括搭载了航拍相机的无人机10、智能终端20以及无线网络30。
无人机10可以是以任何类型的动力驱动的无人飞行载具,包括但不限于四轴无人机、固定翼飞行器以及直升机模型等。其可以根据实际情况的需要,具备相应的体积或者动力,从而提供能够满足使用需要的载重能力、飞行速度以及飞行续航里程等。
无人机10上可以搭载有任何类型的图像采集设备,包括运动相机、高清相机或者广角相机。其作为无人机上搭载的其中一种功能模块,可以通过云台等安装固定支架,安装固定在无人机上,并受控于无人机10,执行图像采集的任务。
当然,无人机上还可以添加有一种或者多种功能模块,令无人机能够实现相应的功能,例如内置的主控芯片,作为无人机飞行和数据传输等的控制核心或者是图传装置,将采集获得的图像信息上传至与无人机建立连接的设备(如服务器或者智能终端)中。
智能终端20可以是任何类型,用以与无人机建立通信连接的智能设备,例如手机、平板电脑或者智能遥控器等。该智能终端20可以装配有一种或者多种不同的用户交互装置,用以采集用户指令或者向用户展示和反馈信息。
这些交互装置包括但不限于:按键、显示屏、触摸屏、扬声器以及遥控操作杆。例如,智能终端20可以装配有触控显示屏,通过该触控显示屏接收用户对无人机的遥控指令并通过触控显示屏向用户展示由航拍相机获得的图像信息,用户还可以通过遥控触摸屏切换显示屏当前显示的图像信息。
在一些实施例中,无人机10与智能终端20之间还可以融合现有的图像视觉处理技术,进一步的提供更智能化的服务。例如无人机10可以通过航拍相机采集图像,然后由智能终端20执行本发明实施例提供的目标跟踪方法,对视频中的特定的人脸进行目标跟踪,最终实现用户与无人机之间的人机交互。
在另一些实施例中,该目标跟踪方法还可以由无人机10或者外置的服务器来执行,直接向智能终端20提供最终的数据结果。
无线网络30可以是基于任何类型的数据传输原理,用于建立两个节点之间的数据传输信道的无线通信网络,例如位于特定信号频段的蓝牙网络、WiFi网络、无线蜂窝网络或者其结合,实现无人机10,智能终端20和/或服务器之间的数据传输。
图2为本发明实施例提供的目标跟踪装置的结构框图。该目标跟踪装置可以由任何合适类型的电子计算平台所执行,例如内置在无人机中的图像处理芯片,与无人机建立无线通信连接的服务器或者智能终端。在本实施例中,以功能模块的方式描述该目标跟踪装置的组成。
本领域技术人员可以理解的是,图2所示的功能模块可以根据实际情况的需要,选择性的通过软件、硬件或者软件和硬件相结合的方式来实现。例如,可以通过处理器调用存储器中存储的相关软件应用程序予以实现。
如图2所示,该目标跟踪装置200包括:目标跟踪模块210,深度学习识别模块220,选择模块230以及优化模块240。
其中,目标跟踪模块210用于根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域。
“表象特征”是指在传统的目标跟踪方法中使用的,一些手工设计的鉴别性特征。其具有运算速度快,时延小等的特点。具体的,所述表象特征包括梯度方向直方图、局部二值模式和颜色特征。该目标跟踪模块210是执行传统的目标跟踪方法的功能模块,具体可以选择使用任何合适类型的跟踪算法。
深度学习识别模块220用于在所述图像帧中,通过预设的深度学习算法,获得若干个物体区域。
“深度学习”是一种利用深度神经网络,通过样本数据训练而进行图像识别的方式。通过深度学习的方式,可以在图像帧中识别得到多个不同的物体区域。每个物体区域表示某个特定的物体。
选择模块230用于在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域。
“物体属性”是指用于判断物体区域是否与目标区域属于同一个物体的衡量标准。其具体可以由一种或者多种指标或者条件组成,基本上可以确定或者选择出属于同一个目标物体的物体区域。
在一些实施例中,所述选择模块230具体用于选择与所述跟踪目标的物体标签相同的物体区域作为候选物体区域;并且在候选的物体区域中,选取与上一帧图像帧的跟踪结果的重叠度最大的候选物体区域作为所述目标物体区域。
优化模块240用于根据所述目标物体区域,调整所述目标区域的位置和大小,生成优化的目标区域。
“目标物体区域”是基于深度学习方式获得的区域,对于复杂环境的干扰因素会有比较好的抵抗能力,不容易受到干扰。因此,在传统跟踪算法的基础上,引入目标物体区域作为参考,可以使得跟踪结果的效果得到优化,生成优化的目标区域。
在一些实施例中,优化模块240具体用于:设置所述目标物体区域的第一权重和所述目标区域的第二权重;
根据所述第一权重和所述第二权重,对所述目标物体区域的中心点和所述目标区域的中心点进行加权求和,获得所述优化的目标区域的中心点;并且根据所述第一权重和所述第二权重,对所述目标物体区域与所述目标区域的大小进行加权求和,获得所述优化的目标区域的大小。
其中,所述目标物体区域的位置由所述目标物体区域的中心点表示,所述目标区域的位置由所述目标区域的中心点表示,所述优化的目标区域的位置由所述优化的目标区域的中心点表示。
具体的,一方面,所述优化的目标区域的中心点可以通过如下算式计算获得:
center_x_opt=λ*center_x_track+(1-λ)*center_x_detect;
center_y_opt=λ*center_y_track+(1-λ)*center_y_detect;
其中,center_x_opt为优化的目标区域的中心点在图像帧的水平方向上的坐标,center_y_opt为优化的目标区域的中心点在图像帧的垂直方向上的坐标;center_x_track为目标区域的中心点在图像帧的水平方向上的坐标,center_y_track为目标区域的中心点在图像帧的垂直方向上的坐标,center_x_detect为目标物体区域的中心点在图像帧的水平方向上的坐标,center_y_detect为目标物体区域的中心点在图像帧的垂直方向上的坐标,λ为第二权重。
另一方面,所述优化的目标区域的大小则可以通过如下算式计算获得:
width_opt=λ*width_track+(1-λ)*width_detect;
height_opt=λ*height_track+(1-λ)*height_detect;
其中,width_opt为优化的目标区域的宽度,width_track为目标区域的宽度,width_detect为目标物体区域的宽度,height_opt为优化的目标区域的高度,height_track为目标区域的高度,height_detect为目标物体区域的高度,λ为第二权重。
虽然,图1所示的应用场景中以应用在无人机搭载的图像采集设备为例。但是,本领域技术人员可以理解的是,该目标跟踪方法还可以在其它类型的场景和设备中使用,以提高目标跟踪算法的性能。本发明实施例公开的目标跟踪方法并不限于在图1所示的无人机上应用。
在一些实施例中,如图2所示,该目标跟踪装置200还可以包括标记模块250。该标记模块250用于在初始图像帧中,通过所述深度学习算法,识别获得若干个可选的物体区域,并确定用户选中的物体区域作为跟踪目标。其中,每一个所述物体区域标记有对应的物体标签。
其中,物体标签”(label)是深度学习算法输出的,用于标记物体区域所对应的物体。物体标签的具体形式取决于使用的深度学习算法及其训练数据。
基于深度学习算法的特点,在图像帧中可能识别出多个具有相同物体标签的物体区域。因此,可以据此作为候选的物体提供给用户选择想要进行跟踪的目标物体。
图3为本发明实施例提供的目标跟踪方法的方法流程图。如图3所示,该目标跟踪方法可以包括如下步骤:
310、根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域。
其中,“图像帧”是指视频序列中,正在被处理的某一帧图像。跟踪算法是以连续的图像帧组成的视频序列为处理对象,逐帧的预测追踪目标在图像中的位置。
跟踪算法可以采用现有技术中任何类型的,以表象特征作为追踪目标的鉴别性特征的快速跟踪算法。具体的,该表象特征包括但不限于梯度方向直方图(HOG)、局部二值模式(LBP)和颜色特征等。
不同的表象特征具有其自身独有的优势和缺陷,例如,梯度方向直方图容易受到目标发生非刚体运动(如作为追踪目标的人由站立变为蹲下的运动)和遮挡等情况的干扰。而颜色特征容易受到光照环境变化的影响。
目标区域是指采用“跟踪算法”计算后输出的,在图像帧中具有特定大小的,将跟踪目标包含在内的矩形框。其具体可以通过任何类型的跟踪算法计算获得。
320、在所述图像帧中,通过预设的深度学习算法,获得若干个物体区域。
其中,“深度学习算法”可以是任何类型的,利用样本数据实现神经网络模型的图像处理方式。通过深度学习算法,可以具有较高置信度的获得在图像帧中存在的多个物体。
与目标区域的输出形式相类似的,深度学习算法输出的结果也是包含有可识别物体的矩形框。当然,深度学习算法还会输出每个物体区域对应的物体标签,用于标记物体区域所对应的目标物体(如人脸,飞机等)。
330、在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域。
其中,深度学习算法通常会在图像帧中识别出多于一个的物体区域。因此,需要采用合适的筛选方式,选择其中一个最为可靠的物体区域引入到跟踪结果中。
具体使用的筛选方式,取决于实际使用的物体属性。技术人员可以根据实际情况的需要,选择使用一种或者多种的衡量标准作为实际使用的物体属性。
在一些实施例中,具体可以采用如图4所示的步骤,从多个物体区域中选择获得作为调整和优化参考的目标物体区域:
331、选择与所述跟踪目标的物体标签相同的物体区域作为候选物体区域。
其中,“物体标签”(label)是深度学习算法输出的,用于标记物体区域所对应的物体。物体标签的具体形式取决于使用的深度学习算法及其训练数据。
332、在候选的物体区域中,选取与上一帧图像帧的跟踪结果的重叠度最大的候选物体区域作为所述目标物体区域。
其中,由于深度学习算法的特点,在图像帧中可能识别出多个具有相同物体标签的物体区域。因此,在经过了物体标签的筛选以后,仍然有可能存在不止一个的候选物体区域。
此时,可以以候选区域与上一帧图像帧的跟踪结果的重叠度作为衡量标准,进一步的选择出可以作为调整参考和标准的目标物体区域。
在本实施例中,通过物体标签和重叠度两个衡量标准用于判断物体属性,可以有把握的从深度学习算法的输出结果中找到真实的跟踪目标,并据此作为调整和优化跟踪结果的参考依据。
340、根据所述目标物体区域,调整所述目标区域的位置和大小,生成优化的目标区域。
其中,“调整”是指采用任何合适类型的函数映射方式,将目标物体区域和目标区域进行整合,通过调整位置和大小的方式,生成并输出一个优化结果,即优化的目标区域。调整的形式包括改变和优化表示目标区域的矩形框在图像帧中的位置和大小。
在实际操作中,将一系列连续的图像帧序列中各个图像帧的优化的目标区域联系起来即可实现对跟踪目标的跟踪,确定跟踪目标在图像帧序列中的位置、尺寸等的变动情况。
在本实施例中,在原有的跟踪算法的基础上,通过合理的筛选方式,结合了深度学习的检测结果进行优化和调整,可以更好的抵抗复杂环境对于跟踪结果的干扰,有效的提升了目标跟踪的整体性能。
以下结合图5所示的目标跟踪方法在视频序列中的实际应用示意图,详细描述目标跟踪的具体过程。
如图5所示,假设视频序列由n帧连续的图像帧所组成(本发明实施例提供的目标跟踪方法依次在第2帧至第n帧图像帧中执行,预测跟踪目标在各个图像帧中的位置。)跟踪结果、物体区域以及目标区域都可以采用包含目标物体的最小外接矩形框来表示。
首先,在初始图像帧中,根据用户指令,确定所述跟踪目标所在的目标区域。
其中,初始图像帧是指进行目标跟踪的起点。为陈述简便,在本实施例中,初始图像帧为视频序列中的第1帧图像帧。当然,根据用户的实际需求,也可以在视频序列中随意选择任意一帧图像帧作为初始图像帧,用以作为目标跟踪的起点。
如图5所示,在实际使用过程中,为了便于与用户交互和后续处理,可以使用深度学习算法在初始图像帧中进行识别检测,获得若干个可选的物体区域(每一个所述物体区域标记有对应的物体标签,图5中以L1至L4中表示)作为可选的追踪目标。用户可以根据自己的需要,发出相应的用户选择指令,在这些可选的物体区域中选择其中的一个作为追踪目标(如L4)。
然后,在后续的图像帧中,在通过深度学习算法检测获得多个的物体区域中,选出与跟踪目标的物体属性相同的目标物体区域。
具体的,对于检测获得的物体区域,首先选择与初始图像帧的追踪目标的物体标签相同的物体区域作为候选物体区域。然后,使用与上一帧图像帧的目标区域D的重叠度最高的物体区域作为目标物体区域。
其中,两个矩形框之间的重叠度可以通过物体区域与目标区域之间的交并比来表示。如图5所示,“交并比”(IoU)是指两个感兴趣区域的交集与并集之间的比值。其计算过程具体为:计算所述候选物体区域与所述目标区域的交集面积和并集面积,并将所述交集面积和所述并集面积的比值作为所述候选物体区域与所述目标物体区域的重叠度。
最后,将选择出的目标物体区域和跟踪算法检测获得的目标区域进行结合,即可获得在图像帧中的优化的目标区域。
只要依次在后续的图像帧中重复执行该上述步骤,即可获得在一系列连续的图像帧组成的视频序列中的目标追踪结果。总结而言,完整的目标追踪方法可以通过如下算式(1)表示:
在i=0时,表示在初始图像帧中选择的跟踪目标;i>0时,表示在后续图像帧的跟踪结果。其中,表示在第i帧图像帧的目标区域,表示第i帧图像帧的优化跟踪结果,表示目标物体区域(即与上一帧的目标区域的物体标签相同并且重叠度最大的物体区域)。
而对于追踪算法和深度学习算法的具体整合方法为:首先,设置所述目标物体区域的第一权重和所述目标区域的第二权重。然后,根据所述第一权重和所述第二权重,对所述目标物体区域的中心点和所述目标区域的中心点进行加权求和,获得所述优化的目标区域的中心点并且根据所述第一权重和所述第二权重,对所述目标物体区域与所述目标区域的大小进行加权求和,获得所述优化的目标区域的大小。
其中,所述目标物体区域的位置由所述目标物体区域的中心点表示,所述目标区域的位置由所述目标区域的中心点表示,所述优化的目标区域的位置由所述优化的目标区域的中心点表示,目标物体区域和目标区域的第一权重和第二权重可以由技术人员根据实际情况预先设置,是一个可以通过实验方式或者经验确定的常数值。在本实施例中,可以将目标区域的置信度作为跟踪算法所占的权重(第二权重)。相应地,深度学习算法所占的权重(即第一权重)为1减去目标区域的置信度。
具体而言,所述优化的目标区域的位置通过如下算式(2)和(3)计算获得:
center_x_opt=λ*center_x_track+(1-λ)*center_x_detect (2);
center_y_opt=λ*center_y_track+(1-λ)*center_y_detect (3);
其中,λ为置信度。而且,由于在本实施例中,优化的目标区域、物体区域以及目标区域都是采用矩形框来表示。因此,优化的目标区域、物体区域以及目标区域的位置可以由矩形框的中心的在图像帧中的位置坐标来表示。亦即,优化的目标区域的位置可以表示为(center_x_opt,center_y_opt),物体区域的位置可以表示为(center_x_detect,center_y_detect),目标区域的位置可以表示为(center_x_track,center_y_track)。
所述优化的目标区域的大小则可以通过如下算式(4)和(5)计算获得:
width_opt=λ*width_track+(1-λ)*width_detect(4);
height_opt=λ*height_track+(1-λ)*height_detect(5);
其中,width_opt为优化的目标区域的宽度,width_track为目标区域的宽度,width_detect为目标物体区域的宽度,height_opt为优化的目标区域的高度,height_track为目标区域的高度,height_detect为目标物体区域的高度,λ为置信度。
如上所描述的,本发明实施例提供的目标追踪方法在原有的跟踪算法的基础上,结合深度学习的检测结果进行优化和调整,可以更好的适应和抵抗复杂环境下的干扰,有效的提升了目标跟踪的整体性能。
本发明实施例还提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的目标跟踪方法。
图6示出了本发明实施例的图像处理芯片的结构示意图,本发明具体实施例并不对图像处理芯片的具体实现做限定。
如图6所示,该图像处理芯片可以包括:处理器(processor)602、通信接口(Communications Interface)604、存储器(memory)606、以及通信总线608。
其中:处理器602、通信接口604、以及存储器606通过通信总线608完成相互间的通信。通信接口604,用于与其它设备比如客户端或其它服务器等的网元通信。处理器602,用于执行程序610,具体可以执行上述目标追踪方法实施例中的相关步骤。
具体地,程序610可以包括程序代码,该程序代码包括计算机操作指令。
处理器602可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。网络切片设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器606,用于存放程序610。存储器606可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序610可以用于使得处理器602执行如下步骤:
首先,根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域。其次,在所述图像帧中,通过预设的深度学习算法,获得若干个物体区域。再次,在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域。最后,根据所述目标物体区域,通过调整所述目标区域的位置和大小的方式,生成优化的目标区域。
在一些实施例中,程序610还用于使得处理器602在执行通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域的步骤之前,执行如下步骤:首先,在初始图像帧中,通过所述深度学习算法,识别获得若干个可选的物体区域,每一个所述物体区域标记有对应的物体标签。然后,确定用户选中的物体区域作为跟踪目标。
在一些实施例中,程序610可以用于使得处理器602在执行所述在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域的步骤时,具体用于:
选择与所述跟踪目标的物体标签相同的物体区域作为候选物体区域;在候选的物体区域中,选取与上一帧图像帧的跟踪结果的重叠度最大的候选物体区域作为所述目标物体区域。
在一些实施例中,程序610可以用于使得处理器602在执行所述选取与所述目标区域重叠度最大的候选物体区域作为所述目标物体区域的步骤时,具体用于:计算所述候选物体区域与所述跟踪结果的交集面积和并集面积;将所述交集面积和所述并集面积的比值,作为所述候选物体区域与所述跟踪结果的重叠度。
在一些实施例中,程序610可以用于使得处理器602在执行所述根据所述目标物体区域,通过调整所述目标区域的位置和大小的方式,生成优化的目标区域的步骤时,具体用于:
设置所述目标物体区域的第一权重和所述目标区域的第二权重;根据所述第一权重和所述第二权重,对所述目标物体区域的中心点和所述目标区域的中心点进行加权求和,获得所述优化的目标区域的中心点;所述目标物体区域的位置由所述目标物体区域的中心点表示,所述目标区域的位置由所述目标区域的中心点表示,所述优化的目标区域的位置由所述优化的目标区域的中心点表示,并且根据所述第一权重和所述第二权重,对所述目标物体区域与所述目标区域的大小进行加权求和,获得所述优化的目标区域的大小。
具体而言,所述处理器602可以通过如下算式计算获得所述优化的目标区域的中心点:
center_x_opt=λ*center_x_track+(1-λ)*center_x_detect;
center_y_opt=λ*center_y_track+(1-λ)*center_y_detect;
其中,center_x_opt为优化的目标区域的中心点在图像帧的水平方向上的坐标,center_y_opt为优化的目标区域的中心点在图像帧的垂直方向上的坐标;center_x_track为目标区域的中心点在图像帧的水平方向上的坐标,center_y_track为目标区域的中心点在图像帧的垂直方向上的坐标,center_x_detect为目标物体区域的中心点在图像帧的水平方向上的坐标,center_y_detect为目标物体区域的中心点在图像帧的垂直方向上的坐标,λ为第二权重。
所述处理器602还可以通过如下算式计算获得所述优化的目标区域的大小:
width_opt=λ*width_track+(1-λ)*width_detect;
height_opt=λ*height_track+(1-λ)*height_detect;
其中,width_opt为优化的目标区域的宽度,width_track为目标区域的宽度,width_detect为目标物体区域的宽度,height_opt为优化的目标区域的高度,height_track为目标区域的高度,height_detect为目标物体区域的高度,λ为第二权重。
本领域技术人员应该还可以进一步意识到,结合本文中所公开的实施例描述的示例性的目标追踪方法的各个步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。
本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。所述的计算机软件可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体或随机存储记忆体等。
基于本发明实施例提供的图像处理芯片,本发明实施例还提供了一种无人机。其中,该无人机包括:无人机主体、安装在所述无人机主体的云台上的图像采集设备以及图像采集芯片。
所述图像采集设备用于连续采集多帧图像;所述图像处理芯片用于接收所述图像采集设备连续采集的多帧图像,并对接收到的所述多帧图像执行如下所述的步骤:
首先,根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域。其次,在所述图像帧中,通过预设的深度学习算法,获得若干个物体区域。再次,在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域。最后,根据所述目标物体区域,通过调整所述目标区域的位置和大小的方式,生成优化的目标区域。
无人机的基于图像采集芯片在多个连续图像帧中确定的优化的目标区域,实现无人机对跟踪目标的跟踪。
在一些实施例中,所述图像处理芯片在图像帧中确定所述跟踪目标所在的目标区域的步骤之前,还执行如下步骤:
首先,在初始图像帧中,通过所述深度学习算法,识别获得若干个可选的物体区域,每一个所述物体区域标记有对应的物体标签。然后,确定用户选中的物体区域作为跟踪目标。
在一些实施例中,所述图像处理芯片在执行所述在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域的步骤时,具体用于:
选择与所述跟踪目标的物体标签相同的物体区域作为候选物体区域;在候选的物体区域中,选取与上一帧图像帧的跟踪结果的重叠度最大的候选物体区域作为所述目标物体区域。
在一些实施例中,所述图像处理芯片在执行所述选取与所述目标区域重叠度最大的候选物体区域作为所述目标物体区域的步骤时,具体用于:计算所述候选物体区域与所述跟踪结果的交集面积和并集面积;将所述交集面积和所述并集面积的比值,作为所述候选物体区域与所述跟踪结果的重叠度。
在一些实施例中,所述图像处理芯片在执行所述根据所述目标物体区域,通过调整所述目标区域的位置和大小的方式,生成优化的目标区域的步骤时,具体用于:
设置所述目标物体区域的第一权重和所述目标区域的第二权重;根据所述第一权重和所述第二权重,对所述目标物体区域的中心点和所述目标区域的中心点进行加权求和,获得所述优化的目标区域的中心点;所述目标物体区域的位置由所述目标物体区域的中心点表示,所述目标区域的位置由所述目标区域的中心点表示,所述优化的目标区域的位置由所述优化的目标区域的中心点表示,并且根据所述第一权重和所述第二权重,对所述目标物体区域与所述目标区域的大小进行加权求和,获得所述优化的目标区域的大小。
具体而言,所述图像处理芯片可以通过如下算式计算获得所述优化的目标区域的中心点:
center_x_opt=λ*center_x_track+(1-λ)*center_x_detect;
center_y_opt=λ*center_y_track+(1-λ)*center_y_detect;
其中,center_x_opt为优化的目标区域的中心点在图像帧的水平方向上的坐标,center_y_opt为优化的目标区域的中心点在图像帧的垂直方向上的坐标;center_x_track为目标区域的中心点在图像帧的水平方向上的坐标,center_y_track为目标区域的中心点在图像帧的垂直方向上的坐标,center_x_detect为目标物体区域的中心点在图像帧的水平方向上的坐标,center_y_detect为目标物体区域的中心点在图像帧的垂直方向上的坐标,λ为第二权重。
所述图像处理芯片还可以通过如下算式计算获得所述优化的目标区域的大小:
width_opt=λ*width_track+(1-λ)*width_detect;
height_opt=λ*height_track+(1-λ)*height_detect;
其中,width_opt为优化的目标区域的宽度,width_track为目标区域的宽度,width_detect为目标物体区域的宽度,height_opt为优化的目标区域的高度,height_track为目标区域的高度,height_detect为目标物体区域的高度,λ为第二权重。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (11)
1.一种目标跟踪方法,其特征在于,包括:
根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域;
在所述图像帧中,通过预设的深度学习算法,获得若干个物体区域;
在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域;
根据所述目标物体区域,通过调整所述目标区域的位置和大小的方式,生成优化的目标区域。
2.根据权利要求1所述的方法,其特征在于,在根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域的步骤之前,所述方法还包括:
在初始图像帧中,通过所述深度学习算法,识别获得若干个可选的物体区域,每一个所述物体区域标记有对应的物体标签;
确定用户选中的物体区域作为跟踪目标。
3.根据权利要求2所述的方法,其特征在于,所述在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域,具体包括:
筛选选择与所述跟踪目标的物体标签相同的物体区域作为候选物体区域;
在候选的物体区域中,选取与上一帧图像帧的跟踪结果的重叠度最大的候选物体区域作为所述目标物体区域。
4.根据权利要求3所述的方法,其特征在于,所述选取与所述目标区域重叠度最大的候选物体区域作为所述目标物体区域,具体包括:
计算所述候选物体区域与所述跟踪结果的交集面积和并集面积;
将所述交集面积和所述并集面积的比值,作为所述候选物体区域与所述跟踪结果的重叠度。
5.根据权利要求1所述的方法,其特征在于,所述表象特征包括:梯度方向直方图、局部二值模式和颜色特征。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述根据所述目标物体区域,通过调整所述目标区域的位置和大小的方式,生成优化的目标区域,具体包括:
设置所述目标物体区域的第一权重和所述目标区域的第二权重;
根据所述第一权重和所述第二权重,对所述目标物体区域的中心点和所述目标区域的中心点进行加权求和,获得所述优化的目标区域的中心点;所述目标物体区域的位置由所述目标物体区域的中心点表示,所述目标区域的位置由所述目标区域的中心点表示,所述优化的目标区域的位置由所述优化的目标区域的中心点表示,并且
根据所述第一权重和所述第二权重,对所述目标物体区域与所述目标区域的大小进行加权求和,获得所述优化的目标区域的大小。
7.根据权利要求6所述的方法,其特征在于,所述优化的目标区域的中心点通过如下算式计算获得:
center_x_opt=λ*center_x_track+(1-λ)*center_x_detect;
center_y_opt=λ*center_y_track+(1-λ)*center_y_detect;
其中,center_x_opt为优化的目标区域的中心点在图像帧的水平方向上的坐标,center_y_opt为优化的目标区域的中心点在图像帧的垂直方向上的坐标;center_x_track为目标区域的中心点在图像帧的水平方向上的坐标,center_y_track为目标区域的中心点在图像帧的垂直方向上的坐标,center_x_detect为目标物体区域的中心点在图像帧的水平方向上的坐标,center_y_detect为目标物体区域的中心点在图像帧的垂直方向上的坐标,λ为第二权重。
8.根据权利要求6所述的方法,其特征在于,所述优化的目标区域的大小通过如下算式计算获得:
width_opt=λ*width_track+(1-λ)*width_detect;
height_opt=λ*height_track+(1-λ)*height_detect;
其中,width_opt为优化的目标区域的宽度,width_track为目标区域的宽度,width_detect为目标物体区域的宽度,height_opt为优化的目标区域的高度,height_track为目标区域的高度,height_detect为目标物体区域的高度,λ为第二权重。
9.一种目标跟踪装置,其特征在于,包括:
目标跟踪模块,用于根据跟踪目标的表象特征,通过预设的跟踪算法,在图像帧中确定所述跟踪目标所在的目标区域;
深度学习识别模块,用于在所述图像帧中,通过预设的深度学习算法,获得若干个物体区域;
选择模块,用于在所述若干个物体区域中,选择与所述目标区域的物体属性相同的物体区域作为目标物体区域;
优化模块,用于根据所述目标物体区域,调整所述目标区域的位置和大小,生成优化的目标区域。
10.一种图像处理芯片,其特征在于,包括:处理器以及与所述处理器通信连接的存储器;
所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器调用时,以使所述处理器执行如权利要求1-8任一项所述的目标跟踪方法。
11.一种无人机,其特征在于,包括:无人机主体,安装在所述无人机主体的云台上的图像采集设备以及图像处理芯片;
所述图像采集设备用于连续采集多帧图像;所述图像处理芯片用于接收所述图像采集设备连续采集的多帧图像,并对接收到的所述多帧图像执行如权利要求1-8任一项所述的目标跟踪方法,实现对跟踪目标的跟踪。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010805592.XA CN112037255A (zh) | 2020-08-12 | 2020-08-12 | 目标跟踪方法和装置 |
PCT/CN2021/108893 WO2022033306A1 (zh) | 2020-08-12 | 2021-07-28 | 目标跟踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010805592.XA CN112037255A (zh) | 2020-08-12 | 2020-08-12 | 目标跟踪方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112037255A true CN112037255A (zh) | 2020-12-04 |
Family
ID=73577165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010805592.XA Pending CN112037255A (zh) | 2020-08-12 | 2020-08-12 | 目标跟踪方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112037255A (zh) |
WO (1) | WO2022033306A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560651A (zh) * | 2020-12-09 | 2021-03-26 | 燕山大学 | 基于深度网络和目标分割结合的目标跟踪方法及装置 |
WO2022033306A1 (zh) * | 2020-08-12 | 2022-02-17 | 深圳市道通智能航空技术股份有限公司 | 目标跟踪方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2051497A1 (en) * | 2006-08-08 | 2009-04-22 | Kimoto Co., Ltd. | Screening device and method |
CN107341817A (zh) * | 2017-06-16 | 2017-11-10 | 哈尔滨工业大学(威海) | 基于在线度量学习的自适应视觉跟踪算法 |
CN109284673A (zh) * | 2018-08-07 | 2019-01-29 | 北京市商汤科技开发有限公司 | 对象跟踪方法及装置、电子设备及存储介质 |
CN109461207A (zh) * | 2018-11-05 | 2019-03-12 | 胡翰 | 一种点云数据建筑物单体化方法及装置 |
CN110189333A (zh) * | 2019-05-22 | 2019-08-30 | 湖北亿咖通科技有限公司 | 一种图片语义分割半自动标注方法及装置 |
CN110222686A (zh) * | 2019-05-27 | 2019-09-10 | 腾讯科技(深圳)有限公司 | 物体检测方法、装置、计算机设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109409283B (zh) * | 2018-10-24 | 2022-04-05 | 深圳市锦润防务科技有限公司 | 一种海面舰船跟踪和监控的方法、系统和存储介质 |
CN109785385B (zh) * | 2019-01-22 | 2021-01-29 | 中国科学院自动化研究所 | 视觉目标跟踪方法及系统 |
CN109993769B (zh) * | 2019-03-07 | 2022-09-13 | 安徽创世科技股份有限公司 | 一种深度学习ssd算法结合kcf算法的多目标跟踪系统 |
CN111098815B (zh) * | 2019-11-11 | 2021-01-12 | 武汉市众向科技有限公司 | 一种基于单目视觉融合毫米波的adas前车碰撞预警方法 |
CN112037255A (zh) * | 2020-08-12 | 2020-12-04 | 深圳市道通智能航空技术有限公司 | 目标跟踪方法和装置 |
-
2020
- 2020-08-12 CN CN202010805592.XA patent/CN112037255A/zh active Pending
-
2021
- 2021-07-28 WO PCT/CN2021/108893 patent/WO2022033306A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2051497A1 (en) * | 2006-08-08 | 2009-04-22 | Kimoto Co., Ltd. | Screening device and method |
CN107341817A (zh) * | 2017-06-16 | 2017-11-10 | 哈尔滨工业大学(威海) | 基于在线度量学习的自适应视觉跟踪算法 |
CN109284673A (zh) * | 2018-08-07 | 2019-01-29 | 北京市商汤科技开发有限公司 | 对象跟踪方法及装置、电子设备及存储介质 |
CN109461207A (zh) * | 2018-11-05 | 2019-03-12 | 胡翰 | 一种点云数据建筑物单体化方法及装置 |
CN110189333A (zh) * | 2019-05-22 | 2019-08-30 | 湖北亿咖通科技有限公司 | 一种图片语义分割半自动标注方法及装置 |
CN110222686A (zh) * | 2019-05-27 | 2019-09-10 | 腾讯科技(深圳)有限公司 | 物体检测方法、装置、计算机设备和存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022033306A1 (zh) * | 2020-08-12 | 2022-02-17 | 深圳市道通智能航空技术股份有限公司 | 目标跟踪方法和装置 |
CN112560651A (zh) * | 2020-12-09 | 2021-03-26 | 燕山大学 | 基于深度网络和目标分割结合的目标跟踪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2022033306A1 (zh) | 2022-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102189262B1 (ko) | 엣지 컴퓨팅을 이용한 교통 정보 수집 장치 및 방법 | |
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
EP3806064B1 (en) | Method and apparatus for detecting parking space usage condition, electronic device, and storage medium | |
CN109087510B (zh) | 交通监测方法及装置 | |
CN112052186B (zh) | 目标检测方法、装置、设备以及存储介质 | |
CN111079699A (zh) | 商品识别方法及装置 | |
CN107851318A (zh) | 用于对象跟踪的系统和方法 | |
CN107408303A (zh) | 用于对象跟踪的系统和方法 | |
CN108549870A (zh) | 一种对物品陈列进行鉴别的方法及装置 | |
CN104281839A (zh) | 一种人体姿势识别方法和装置 | |
CN110659391A (zh) | 一种视频侦查方法及装置 | |
CN111915583B (zh) | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 | |
CN112560698A (zh) | 图像处理方法、装置、设备和介质 | |
CN111126209B (zh) | 车道线检测方法及相关设备 | |
CN115797736B (zh) | 目标检测模型的训练和目标检测方法、装置、设备和介质 | |
CN112037255A (zh) | 目标跟踪方法和装置 | |
CN112052778A (zh) | 一种交通标志识别方法以及相关装置 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN109903308B (zh) | 用于获取信息的方法及装置 | |
JP2009123150A (ja) | 対象物検出装置及び方法、対象物検出システム、プログラム | |
CN112631333A (zh) | 无人机的目标跟踪方法、装置及图像处理芯片 | |
CN116823884A (zh) | 多目标跟踪方法、系统、计算机设备及存储介质 | |
CN116453109A (zh) | 3d目标检测方法、装置、设备及存储介质 | |
CN112651351B (zh) | 一种数据处理的方法和装置 | |
CN112036268B (zh) | 构件识别方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 518055 Guangdong city of Shenzhen province Nanshan District Xili Street Xueyuan Road No. 1001 Chi Yuen Building 9 layer B1 Applicant after: Shenzhen daotong intelligent Aviation Technology Co.,Ltd. Address before: 518055 Guangdong city of Shenzhen province Nanshan District Xili Street Xueyuan Road No. 1001 Chi Yuen Building 9 layer B1 Applicant before: AUTEL ROBOTICS Co.,Ltd. |
|
CB02 | Change of applicant information |