CN109934848B - 一种基于深度学习的运动物体精准定位的方法 - Google Patents

一种基于深度学习的运动物体精准定位的方法 Download PDF

Info

Publication number
CN109934848B
CN109934848B CN201910173592.XA CN201910173592A CN109934848B CN 109934848 B CN109934848 B CN 109934848B CN 201910173592 A CN201910173592 A CN 201910173592A CN 109934848 B CN109934848 B CN 109934848B
Authority
CN
China
Prior art keywords
moving object
identification frame
deep learning
center point
object based
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910173592.XA
Other languages
English (en)
Other versions
CN109934848A (zh
Inventor
刘宇红
何倩倩
张荣芬
林付春
马治楠
王曼曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou University
Original Assignee
Guizhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou University filed Critical Guizhou University
Priority to CN201910173592.XA priority Critical patent/CN109934848B/zh
Publication of CN109934848A publication Critical patent/CN109934848A/zh
Application granted granted Critical
Publication of CN109934848B publication Critical patent/CN109934848B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于深度学习的运动物体精准定位的方法,按下述步骤进行:a.获取待检测的视频序列及对应的深度图;b.采用darknet‑yolo‑v3对视频序列中运动目标进行检测并标识出标识框;c.与深度图中的景深信息相结合,采用Opencv的相关函数在深度图中查找轮廓,并将包围轮廓的矩形边界绘制出来,从而得到一个感兴趣区域的矩形;d.计算出标识框面积、标识框中心点及矩形面积、矩形中心点;e.将所述标识框面积、标识框中心点及矩形面积、矩形中心点进行匹配,当二者在预设阈值范围内匹配时,标识框位置为运动目标所在的位置。本发明能够避免“空洞”现象的产生,且实时性强、识别准确率高。

Description

一种基于深度学习的运动物体精准定位的方法
技术领域
本发明涉及运动物体定位方法,特别是一种基于深度学习的运动物体精准定位的方法。
背景技术
运动目标检测是指通过计算机视觉的方法减除视频中时间和空间上的冗余信息,有效地提取出发生空间位置变化的物体的过程。对此方向的研究一直都是计算机视觉领域的重要研究课题。在视频流中检测运动目标时,对运动的物体进行精准定位在计算机视觉研究领域中成为了最具挑战的研究方向,且它涉及到目前很多前沿的学科,例如:深度学习、图像处理、模式识别等,与这些学科相结合更是成为了研究热点。
在很多场景中,如在高铁站、机场、大型商场等重要的大型场所的安保监控系统中,怎么从摄像头中找到感兴趣的物体,并能准确地定位其位置是该系统中一大难点,若这个问题能够很好地解决,那么将会大大减轻人为劳动量,能够有效地提高监控系统和定位的效率和准确率。在机器人领域中,比如在乒乓球机器人陪练机中,如何检测到乒乓球的位置也是其中一个重点。在视觉导航领域,目标检测与定位是无人飞行器、视觉机器人、自主驾驶汽车等多种智能应用终端的核心关键技术服务。甚至在医学图像的处理中,运动目标物体检测、精准定位并结合跟踪的衍生技术也可以得到深入的运用,比如:在肺部CT图像序列中伴随着患者自主呼吸运动的肿瘤组织实时跟踪等。目前有研究者提出采用帧差法的思想来提取运动目标,在这种方法中,如果视频的图像序列两帧中物体的运动幅度较大时,两帧间会出现明显的差别;通过两帧图像序列做差分运算,采用一定的阈值来判断在视频序列中是否有移动的物体。这种方法易理解、速度快,但是该方法只能得到运动目标的轮廓,不能检测出运动物体的所有像素点,从而导致了“空洞”现象的产生。针对此方法的不足之处,有研究者提出利用背景建模的运动目标检测。先将“干净的”背景进行建模,再用背景减除法对运动的目标与背景进行分类。此方法较为精巧,但计算量大,从而导致实时性下降,这对于一些实时性要求高的系统就无法满足其需求。目前也有研究人员提出光流法,但大多数的光流法计算相当的复杂,且抗噪声性能差,如果没有特别的硬件装置则不能被应用于全帧的视频流实时处理。
发明内容
本发明的目的在于,提供一种基于深度学习的运动物体精准定位的方法。本发明能够避免“空洞”现象的产生,且实时性强、识别准确率高。
本发明的技术方案:一种基于深度学习的运动物体精准定位的方法,按下述步骤进行:
a.获取待检测的视频序列及对应的深度图;
b.采用darknet-yolo-v3对视频序列中运动目标进行检测并标识出标识框;
c.与深度图中的景深信息相结合,采用Opencv的相关函数在深度图中查找轮廓,并将包围轮廓的矩形边界绘制出来,从而得到一个感兴趣区域的矩形;
d.计算出标识框面积、标识框中心点及矩形面积、矩形中心点;
e.将所述标识框面积、标识框中心点及矩形面积、矩形中心点进行匹配,当二者在预设阈值范围内匹配时,标识框位置为运动目标所在的位置。
前述的基于深度学习的运动物体精准定位的方法所述步骤b中,darknet-yolo-v3对视频序列中运动目标进行检测并标识出标识框前,先收集运动目标的数据集并进行标注,使用该标注的数据集对darknet-yolo-v3进行训练。
前述的基于深度学习的运动物体精准定位的方法中,所述的数据集在对darknet-yolo-v3进行训练前,先对数据集中的图片进行增强处理并将图像大小调整一致。
前述的基于深度学习的运动物体精准定位的方法中,所述的数据集对darknet-yolo-v3的训练如下:
将输入的数据集的图像分成S*S网格;
当运动目标groundtruth的中心坐标落到S*S中的某一格子中时,该格子就检测这个运动目标;
S*S网格中的每个格子预测出B个bounding box、置信度及属于运动目标的概率;
选择B个bounding box中,与groundtruth的交并比最大的bounding box来预测运动目标;
则预测对应:
bx=σ(tx)+cx (1)
by=σ(ty)+cy (2)
Figure SMS_1
Figure SMS_2
式中,其中cx,cy是网格的坐标偏移量,pw,ph分别是边界先验框宽和高;bx,by,bw,bh是预测边框的中心坐标和宽高,tx,ty,tw,th是要学习的参数,分别用于预测边框的中心坐标bx和by、框的高bh和宽bw,σ是sigmoid函数。
前述的基于深度学习的运动物体精准定位的方法中,所述的数据集对darknet-yolo-v3的训练,采用3种尺度进行3种box预测:
尺度1,在特征提取网络后添加一些卷积层,输出张量;
尺度2,对尺度1的倒数第二层卷积层上采样*2,再与最后一个16*16分辨率的特征图逐点相加,再接上一些卷积层,输出张量,比尺度1增加2倍;
尺度3:类比尺度2,使用32*32大小的特征图。
前述的基于深度学习的运动物体精准定位的方法所述步骤a中,深度图采用小觅双目深度摄像头获取。
前述的基于深度学习的运动物体精准定位的方法中,所述的深度图的景深信息按下述公式获取:
Z=fb/d
式中,Z为深度值,d为视差,f为相机焦距,b为两个相机光圈之间的中心距。
前述的基于深度学习的运动物体精准定位的方法所述步骤c具体按下述步骤进行:
c1.采用Opencv中的findContours()函数寻找轮廓;
c2.采用Opencv的boundingRect()函数创建包围轮廓的矩形边界,得到感兴趣区域的矩形。
有益效果
与现有技术相比,本发明采用darknet-yolo-v3网络对运动目标(如人体)进行检测并标识出标识框,同时通过对每帧视频序列的深度图的实时读取,与深度图中的景深信息相结合,计算相同距离的像素点,从而得到一个感兴趣区域的矩形,从而对运动目标(如人体)位置进行精准的定位。计算矩形的面积和中心点,对比通过darknet-yolo-v3检测得到的标识框的矩形面积和其中心点判断是否匹配来定位运动目标的准确位置;通过该方法,将深度学习技术与深度摄像头获取到的景深信息分析相结合,采用YOLO-V3算法完成运动人体的检测与识别,不同于现有的帧差法对运动物体目标的检测,避免了检测的对象之间容易的出现空洞问题导致无法提取出完整的目标区域,其识别准确率达到99%。
本发明通过对每帧视频序列的深度图的实时读取,实现了运动目标的实时定位,其实时性高。
本发明基于darknet-YOLO-V3框架上实现,采用多尺度预测(3个尺度)的方式结合darknet-53特征提取网络实现在速度及准确率的提升,采用YOLO层进行特征的局部交互,将视频画面中的人体进行检测并与深度图像相结合实现精准定位。
本发明能够改善采用深度学习模型检测出来的标识框对人体目标因人体动作、体态的变化无法将人体准确框住,从而导致中心点及面积对同一目标同一体态却产生不同形式的抖动的问题。为了在准确定位的基础上采用中心点坐标或面积进行跟踪时,针对在检测同一人体目标时,采用深度学习检测出的标识框会根据人体的不同体态以及走路的步伐等问题导致中心点及标识框的抖动问题。解决这一问题的较好的方法为在视频目标范围内找到一个与深度学习检测的标识框无关的坐标点来对目标进行跟踪,这仅用深度学习的方法对目标进行定位检测是无法达到的。而本发明将深度学习检测到的标识框和深度图中的景深信息相结合,弥补了深度学习检测目标定位时的准确度的问题,同时也提升了目标检测定位的准确性。
综上,本发明能够避免“空洞”现象的产生,且实时性强、识别准确率高。
附图说明
图1是本发明目标精准定位的框图;
图2是Darknet-yolo-v3网络检测运动目标的网络框架图;
图3是本发明目标精准定位的算法流程图;
图4是双目相机模型及几何模型图;
图5是深度图像中的矩形边界的矩形面积与中心点对应图;
图6(a)是loss值变化曲线图,图6(b)是交并比的动态变化图;
图7(a)~(c)是人体目标检测效果展示图。
具体实施方式
下面结合附图和实施例对本发明作进一步的说明,但并不作为对本发明限制的依据。
实施例1。一种基于深度学习的运动物体精准定位的方法,如图1-5所示,按下述步骤进行:
a.获取待检测的视频序列及对应的深度图;
b.采用darknet-yolo-v3对视频序列中运动目标进行检测并标识出标识框;
c.与深度图中的景深信息相结合,采用Opencv的相关函数在深度图中查找轮廓,并将包围轮廓的矩形边界绘制出来,从而得到一个感兴趣区域的矩形;
d.计算出标识框面积、标识框中心点及矩形面积、矩形中心点;
e.将所述标识框面积、标识框中心点及矩形面积、矩形中心点进行匹配,当二者在预设阈值范围内匹配时,标识框位置为运动目标所在的位置。
前述的步骤b中,darknet-yolo-v3对视频序列中运动目标进行检测并标识出标识框前,先收集运动目标的数据集并进行标注,使用该标注的数据集对darknet-yolo-v3进行训练。
数据集在对darknet-yolo-v3进行训练前,先对数据集中的图片进行增强处理并将图像大小调整一致。具体地,采用VOC2007、VOC2012数据集中的运动目标(如运动的人体)及关于运动目标自制的数据集,共计31456张图片。在进行模型训练前,对这些图像进行预处理,对作为训练集的图像进行增强处理并将图像的大小调整一样,避免因训练的图像大小及图像对比不明显等原因造成检测的准确率下降。
训练时,根据运动目标的类别(如人体)对原darknet-yolo-v3的网络参数进行修改,Darknet-yolo-v3的网络框架图如图2所示,本发明在原有yolov3上将多类物体检测转换为单类物体检测;通过该检测算法能够提高检测效果和检测速度。具体地,数据集对darknet-yolo-v3的训练如下:
将输入的数据集的图像分成S*S网格;
当运动目标groundtruth的中心坐标落到S*S中的某一格子中时,该格子就检测这个运动目标;
S*S网格中的每个格子预测出B个bounding box、置信度及属于运动目标的概率;优选地,所述的B=3;
选择B个bounding box中,与groundtruth的交并比(IOU)最大的bounding box来预测运动目标;
则预测对应:
bx=σ(tx)+cx (1)
by=σ(ty)+cy (2)
Figure SMS_3
Figure SMS_4
式中,其中cx,cy是网格的坐标偏移量,pw,ph分别是边界先验框(即预测前的bounding box)宽和高;bx,by,bw,bh是预测边界框的中心坐标和宽高,tx,ty,tw,th是要学习的参数,分别用于预测边框的中心坐标bx和by、框的高bh和宽bw,σ是sigmoid函数。
bounding box信息为运动目标的中心位置相对格子位置的变化,包括偏移、宽度、高度等,都将被归一化;置信度反映的是包含人体以及运动目标为人体情况下位置的准确性。
前述的数据集对darknet-yolo-v3的训练,采用3种尺度进行3种box预测:
尺度1,在特征提取网络后添加一些卷积层,输出张量;
尺度2,对尺度1的倒数第二层卷积层上采样*2,再与最后一个16*16分辨率的特征图逐点相加,再接上一些卷积层,输出张量,比尺度1增加2倍;
尺度3:类比尺度2,使用32*32大小的特征图。
本发明采用3个尺度进行3种box预测,目的是为了获取更丰富的信息和更细粒度的特征信息。在每个尺度的预测是在获取特征图后,添加几个卷积层,最后一层卷积用于预测3-d张量,张量编码bounding box的坐标信息(tx,ty,tw,th)+物体存在置信度+类别预测值。
前述的步骤a中,深度图采用小觅双目深度摄像头获取。具体地,采用小觅双目深度摄像头来获取前端周围的景深信息。该深度摄像头使用主动双目技术,在传统双目视觉基础上,配以红外结构光辅助投影,能够获取更多的景深细节,同时对外界环境具备更灵活的适应性。
前述的深度图的景深信息按下述公式获取:Z=fb/d;式中,Z为深度值,d为视差,f为相机焦距,b为两个相机光圈之间的中心距;
具体地,双目摄像机根据人眼原理,由左眼相机和右眼相机两个水平放置的相同规格相机组成,通过同步采集左右相机的图像,计算图像间视差,来估计每一个像素的深度;如图4双目相机模型及几何模型所示,两个相机光圈之间的距离为双目相机的基线,记作b;一个空间点P,在左眼相机和右眼相机中各自成像,记为PL,PR;理想情况下由于左右相机只在x轴上有位移,因此P点的像也只在轴上有差异,记它的左侧坐标为UL,右侧坐标为UR。根据三角形PPLPR和三角形POLOR的相似关系有:
Figure SMS_5
整理可得:
Figure SMS_6
其中Z为P点的深度值,d为左右图的横坐标之差,即视差。
由此可以得到自然场景下的深度信息。另外,该深度摄像头有双目和结构光的优势,对光照可以实现自适应,对并能获取比传统的立体视觉更多的景深细节。
前述的步骤c由深度相机由深度相机可直接得到图像对应的深度图,深度图的每个像素值表示三维世界物体到相机平面的距离。通过对深度图的读取,通过Opencv中的相关函数在深度图中寻找轮廓,从而得到一个感兴趣区域的矩形。计算矩形的面积和中心点,具体按下述步骤进行:
c1.采用Opencv中的findContours()函数寻找轮廓;
findContours()函数原型如下:
findContours(InputOutputArray image,
OutputArrayOfArrays contours,OutputArray hierarchy,int mode,
int method,Point offset=Point());
该函数主要通过输入的灰度图或二值图像,通过设置检测轮廓的检索模式、轮廓的近似办法、轮廓点的偏移量,最后得到提取到的contours轮廓的数目。
本发明的轮廓的检索模式采用RETR_EXTERNAL,表示只检测外轮廓,包含在外围轮廓内的内围轮廓都忽略;轮廓的近似方法,取CV_CHAIN_APPROX_NONE,表示保留边界上所有连续的轮廓点到contours向量内,从而得到轮廓的数目;
c2.采用Opencv的boundingRect函数创建包围轮廓的矩形边界,得到感兴趣区域的矩形;
采用Opencv的boundingRect函数,该函数的作于在于计算轮廓的垂直边界最小矩形,矩形与图像的上下边界是平行的。
前述的矩形面积、矩形中心点的计算如下:
如图5所示,设矩形EFGH的E点坐标为(a,c),F点的坐标为(d,c),G点的坐标为(d,b),H点的坐标为(a,b),则
矩形面积的计算公式为:
SEFGH=(d-a)*(c-b) (7)
矩形的中心点O计算公式为:
(x,y)=((a+(d-a)/2),(b+(c-b)/2)) (8)
前述的步骤e中,标识框面积、标识框中心点及矩形面积、矩形中心点的匹配判断如下进行:
判断两个矩形面积和中心点是否在一定阈值范围内,若在一定范围内则得到运动目标(如人体目标)的准确位置。
图6(a)是整个网络训练过程的loss值可视化图,由于采用的是监督学习的方式,loss值即为预测值和实际值的偏差,这个值越接近0说明模型的预测能力越好,从曲线的走势可以看出随着训练次数的增加,loss值不断减少接近0,图6(b)是交并比值在不同尺度上的动态变化曲线图,交并比值表达了实际物体框与预测框面积的交际与并集的比值,交并比值越接近1说明预测的准确率越高。
图7为darknet-yolo-v3训练后的测试的系列结果截图,对在移动的视频中的行人进行精准的检测。

Claims (8)

1.一种基于深度学习的运动物体精准定位的方法,其特征在于,按下述步骤进行:
a.获取待检测的视频序列及对应的深度图;
b.采用darknet-yolo-v3对视频序列中运动目标进行检测并标识出标识框;
c.与深度图中的景深信息相结合,采用Opencv的相关函数在深度图中查找轮廓,并将包围轮廓的矩形边界绘制出来,从而得到一个感兴趣区域的矩形;
d.计算出标识框面积、标识框中心点及矩形面积、矩形中心点;
e.将所述标识框面积、标识框中心点及矩形面积、矩形中心点进行匹配,当二者在预设阈值范围内匹配时,标识框位置为运动目标所在的位置。
2.根据权利要求1所述的基于深度学习的运动物体精准定位的方法,其特征在于,步骤b中,darknet-yolo-v3对视频序列中运动目标进行检测并标识出标识框前,先收集运动目标的数据集并进行标注,使用该标注的数据集对darknet-yolo-v3进行训练。
3.根据权利要求2所述的基于深度学习的运动物体精准定位的方法,其特征在于,所述的数据集在对darknet-yolo-v3进行训练前,先对数据集中的图片进行增强处理并将图像大小调整一致。
4.根据权利要求2所述的基于深度学习的运动物体精准定位的方法,其特征在于,所述的数据集对darknet-yolo-v3的训练如下:
将输入的数据集的图像分成S*S网格;
当运动目标groundtruth的中心坐标落到S*S中的某一格子中时,该格子就检测这个运动目标;
S*S网格中的每个格子预测出B个bounding box、置信度及属于运动目标的概率;
选择B个bounding box中,与groundtruth的交并比最大的bounding box来预测运动目标;
则预测对应:
b x =σ(t x )+c x (1)
b y =σ(t y )+c y (2)
b w =p w e tw (3)
b h =p h e th (4)
式中,其中c x ,c y 是网格的坐标偏移量,p w ,p h 分别是边界先验框宽和高;bx,by,bw,bh是预测边框的中心坐标和宽高,tx,ty,tw,th是要学习的参数,分别用于预测边框的中心坐标bx和by、框的高bh和宽bwσ是sigmoid函数。
5.根据权利要求4所述的基于深度学习的运动物体精准定位的方法,其特征在于,所述的数据集对darknet-yolo-v3的训练,采用3种尺度进行3种box预测:
尺度1,在特征提取网络后添加一些卷积层,输出张量;
尺度2,对尺度1的倒数第二层卷积层上采样*2,再与最后一个16*16分辨率的特征图逐点相加,再接上一些卷积层,输出张量,比尺度1增加2倍;
尺度3:类比尺度2,使用32*32大小的特征图。
6.根据权利要求1所述的基于深度学习的运动物体精准定位的方法,其特征在于,步骤a中,深度图采用小觅双目深度摄像头获取。
7.根据权利要求6所述的基于深度学习的运动物体精准定位的方法,其特征在于,所述的深度图的景深信息按下述公式获取:
Z=fb/d
式中,Z为深度值,d为视差,f为相机焦距,b为两个相机光圈之间的中心距。
8.根据权利要求1所述的基于深度学习的运动物体精准定位的方法,其特征在于,步骤c具体按下述步骤进行:
c1.采用Opencv中的findContours()函数寻找轮廓;
c2.采用Opencv的boundingRect()函数创建包围轮廓的矩形边界,得到感兴趣区域的矩形。
CN201910173592.XA 2019-03-07 2019-03-07 一种基于深度学习的运动物体精准定位的方法 Active CN109934848B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910173592.XA CN109934848B (zh) 2019-03-07 2019-03-07 一种基于深度学习的运动物体精准定位的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910173592.XA CN109934848B (zh) 2019-03-07 2019-03-07 一种基于深度学习的运动物体精准定位的方法

Publications (2)

Publication Number Publication Date
CN109934848A CN109934848A (zh) 2019-06-25
CN109934848B true CN109934848B (zh) 2023-05-23

Family

ID=66986740

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910173592.XA Active CN109934848B (zh) 2019-03-07 2019-03-07 一种基于深度学习的运动物体精准定位的方法

Country Status (1)

Country Link
CN (1) CN109934848B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI729322B (zh) * 2018-11-08 2021-06-01 財團法人工業技術研究院 資訊顯示系統及資訊顯示方法
CN110706267B (zh) * 2019-09-04 2022-11-15 五邑大学 一种基于采矿过程的矿石三维坐标获取方法及其装置
CN110956616B (zh) * 2019-11-18 2023-09-26 南京和光智能制造研究院有限公司 一种基于立体视觉的目标检测方法及系统
CN111008595A (zh) * 2019-12-05 2020-04-14 武汉大学 一种面向私家车内后排婴儿/宠物趴窗判别及车内氛围识别方法
CN111292353B (zh) * 2020-01-21 2023-12-19 成都恒创新星科技有限公司 一种停车状态变化识别方法
CN111523535B (zh) * 2020-04-01 2022-03-15 南通大学 基于机器视觉与深度学习的类圆对象识别计数检测算法
CN111709301B (zh) * 2020-05-21 2023-04-28 哈尔滨工业大学 一种冰壶球运动状态估计方法
CN111693972B (zh) * 2020-05-29 2022-11-15 东南大学 一种基于双目序列图像的车辆位置与速度估计方法
CN112132869A (zh) * 2020-11-02 2020-12-25 中远海运科技股份有限公司 一种车辆目标轨迹跟踪方法和装置
CN112700499B (zh) * 2020-11-04 2022-09-13 南京理工大学 一种辐照环境下基于深度学习的视觉定位仿真方法及系统
CN112380962A (zh) * 2020-11-11 2021-02-19 成都摘果子科技有限公司 一种基于深度学习的动物图像识别方法及系统
CN112731918B (zh) * 2020-11-30 2022-02-11 北京理工大学 一种基于深度学习检测跟踪的地面无人平台自主跟随系统
CN113034551A (zh) * 2021-05-31 2021-06-25 南昌虚拟现实研究院股份有限公司 目标跟踪和标注方法、装置、可读存储介质及计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107886523A (zh) * 2017-11-01 2018-04-06 武汉大学 基于无人机多源影像的车辆目标运动速度检测方法
CN107948586A (zh) * 2017-11-14 2018-04-20 山东大学 基于视频拼接的跨区域运动目标检测方法和装置
CN108510012A (zh) * 2018-05-04 2018-09-07 四川大学 一种基于多尺度特征图的目标快速检测方法
CN109005409A (zh) * 2018-07-27 2018-12-14 浙江工业大学 一种基于目标检测与跟踪的智能视频编码方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3613208A4 (en) * 2017-06-02 2020-06-24 SZ DJI Technology Co., Ltd. SYSTEMS AND METHODS FOR TRACKING MULTIPLE OBJECTIVES AND AUTOFOCUSING BASED ON DEEP MACHINE LEARNING AND LASER RADAR
US11093793B2 (en) * 2017-08-29 2021-08-17 Vintra, Inc. Systems and methods for a tailored neural network detector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107886523A (zh) * 2017-11-01 2018-04-06 武汉大学 基于无人机多源影像的车辆目标运动速度检测方法
CN107948586A (zh) * 2017-11-14 2018-04-20 山东大学 基于视频拼接的跨区域运动目标检测方法和装置
CN108510012A (zh) * 2018-05-04 2018-09-07 四川大学 一种基于多尺度特征图的目标快速检测方法
CN109005409A (zh) * 2018-07-27 2018-12-14 浙江工业大学 一种基于目标检测与跟踪的智能视频编码方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"MonoSLAM: Real-Time Single Camera SLAM";Andrew J. Davison等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20071231;1052-1067 *
"基于深度学习的智能路牌识别系统设计";林付春等;《电子技术与应用》;20180630;68-71 *

Also Published As

Publication number Publication date
CN109934848A (zh) 2019-06-25

Similar Documents

Publication Publication Date Title
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
JP6288221B2 (ja) 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化
US10417775B2 (en) Method for implementing human skeleton tracking system based on depth data
CN107688391B (zh) 一种基于单目视觉的手势识别方法和装置
US7831087B2 (en) Method for visual-based recognition of an object
JP6295645B2 (ja) 物体検出方法及び物体検出装置
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN103020606B (zh) 一种基于时空上下文信息的行人检测方法
Damen et al. Detecting carried objects from sequences of walking pedestrians
CN104751146B (zh) 一种基于3d点云图像的室内人体检测方法
CN104794737B (zh) 一种深度信息辅助粒子滤波跟踪方法
CN103177247A (zh) 一种融合多视角信息的目标检测方法
Xu et al. Integrated approach of skin-color detection and depth information for hand and face localization
CN104517095A (zh) 一种基于深度图像的人头分割方法
Argyros et al. Binocular hand tracking and reconstruction based on 2D shape matching
CN113378649A (zh) 身份、位置和动作识别方法、系统、电子设备及存储介质
CN114612933B (zh) 单目社交距离检测追踪方法
Herghelegiu et al. Robust ground plane detection and tracking in stereo sequences using camera orientation
CN106529441A (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN113762009B (zh) 一种基于多尺度特征融合及双注意力机制的人群计数方法
US9087381B2 (en) Method and apparatus for building surface representations of 3D objects from stereo images
Lee et al. independent object detection based on two-dimensional contours and three-dimensional sizes
Lo et al. Vanishing point-based line sampling for efficient axis-based people localization
CN106023252A (zh) 一种基于oab算法的多摄像机人体跟踪方法
Lo et al. Vanishing point-based line sampling for real-time people localization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant