CN111833379A - 用单目摄像头追踪移动物体中目标位置的方法 - Google Patents
用单目摄像头追踪移动物体中目标位置的方法 Download PDFInfo
- Publication number
- CN111833379A CN111833379A CN202010686232.2A CN202010686232A CN111833379A CN 111833379 A CN111833379 A CN 111833379A CN 202010686232 A CN202010686232 A CN 202010686232A CN 111833379 A CN111833379 A CN 111833379A
- Authority
- CN
- China
- Prior art keywords
- label
- tag
- picture
- monocular camera
- vertex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开一种用单目摄像头追踪移动物体中目标位置的方法,其实现步骤包括:1、获取基准图片;2、计算标签1和标签2位置;3、确定追踪时标签1的位置;4、计算标签2的位置;5、计算标签2的角度;6、完成测量位置的追踪。本发明利用追踪前确定的物体中被跟踪的目标位置,追踪物体运动中被跟踪的目标不存在时,该物体中原来的目标位置,有效的解决了直接跟踪目标,当目标不存在时会造成跟踪失败的问题,使得本发明的方法可以更准确的追踪物体的测量位置。
Description
技术领域
本发明属于目标追踪技术领域,更进一步涉及运动目标跟踪技术领域中的一种用单目摄像头追踪移动物体中目标位置的方法。本发明可用于根据追踪前确定的物体中被跟踪的目标位置的前提下,追踪物体运动中被跟踪的目标不存在时,该物体中原来目标位置的变化。
背景技术
对物体中特定的目标,当物体移动时,需要对该特定的目标进行追踪,尤其是当该特定的目标不存在时,例如被追踪物体运动中被跟踪的目标被遮挡或者移走后,现有技术大多采用多相机利用多相机间的约束方法来得到被遮挡目标的追踪结果或者采用光流法和模糊PID控制直接跟踪目标。
曜科智能科技(上海)有限公司在其申请的专利文献“多相机目标追踪方法、系统、装置及存储介质”(申请日:2018.12.29,申请号201811637626.8,申请公开号CN 111383252A)中公开了一种多相机目标追踪的方法和装置。该专利申请公开的方法的步骤为,通过对多个相机每次同步拍摄的多个图像帧进行多个原始图像区域的选取,并对应提取的特征图且据以通过滤波器生成响应图,通过辨别包含得分最高的目标点的响应图所确定的追踪目标边界框在对应的图像帧中提取追踪结果。该方法的优点是,某些相机下追踪目标被遮挡时通过多相机间的约束方法来得到被遮挡图像帧的追踪结果,有效消除追踪遮挡,且多相机可以同时提供追踪目标在多个视角的信息,作为输入可以使得相关滤波学习到多角度的特征从而对视角变化更具有鲁棒性。但是,该方法仍然存在的不足之处是,多相机追踪时每次都需对同步拍摄的多个图像帧进行处理,实时性低。
厦门脉视数字技术有限公司在其申请的专利文献“一种运动目标跟踪方法”(申请日:2020.03.04,申请号202010141749.3,申请公开号CN 111382784 A)中公开了一种运动目标跟踪方法。该方法基于嵌入式系统中的连续多帧图像数据,采用混合高斯背景建模来提取前景运动目标,当运动目标出现,混合高斯背景模型分离出运动目标,提取运动目标的角点特征,将对运动目标的追踪换成对角点特征的特征点追踪,使用光流法跟踪特征点,当同时出现多个运动目标时,采用角点聚类分析方法提取角点特征,在追踪运动目标的过程中,使用云台追踪并使云台一直转动,采用模糊PID控制方法使运动目标始终处于图像的中心位置。该方法的优点是同时出现多个运动目标时,采用角点聚类分析方法提取角点特征,利用光流法对角点进行追踪,即使背景一直变化,仍然可以正确追踪特征点。但是,该方法仍然存在的不足之处是,直接跟踪目标,当这个目标不存在时,会造成跟踪失败。
发明内容
本发明的目的在于针对上述已有技术的不足,提出了一种用单目摄像头追踪移动物体中目标位置的方法,以解决在对移动物体中目标位置追踪的现有技术中,不能在被跟踪的目标不存在对原来的目标位置进行追踪、追踪位置的实时性和精确度低的问题。
实现本发明目的的具体思路是:追踪前,利用单目摄像头获取标签1和标签2的三维坐标,计算标签1与标签2之间的距离和角度;追踪时,遮挡标签2,任意移动被测物体,利用单目摄像头获取标签1的三维坐标,根据标签1与单目摄像头的距离、标签1的旋转角度、追踪前得到的标签1与标签2之间的距离和角度计算标签2的位置和角度,达到对移动物体中目标位置的追踪。
实现本发明目的的方法,包括如下步骤:
(1)获取基准图片:
追踪开始前,使用单目摄像头连续拍摄静止的被测物体的十帧图片,将最后一张图片作为基准图片,该基准图片中包括被测物体、标签1和标签2;
(2)计算标签1和标签2位置:
(2a)利用apriltag算法中的距离公式,分别计算基准图片中标签1与单目摄像头的距离以及基准图片中标签2与单目摄像头的距离;
(2b)按照下式,计算标签1和标签2之间的角度;
其中,β1表示在基准图片中标签1的参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,arctan表示反正切操作,centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标,By1表示在基准图片中标签1的参考顶点B处对应y轴的坐标,Bx1表示在基准图片中标签1的参考顶点B处对应x轴的坐标;
(2c)按照下式,计算标签1参考顶点A与标签2中心点的距离;
其中,R1表示在基准图片中标签1参考顶点A与标签2中心点之间的距离,centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标;
(3)确定追踪时标签1的位置:
(3a)追踪开始时,遮挡被测物体上的标签2;
(3b)利用apriltag算法中的距离公式,计算在单目摄像头拍摄范围内任意移动被测物体时每帧图片中标签1与单目摄像头的距离;
(4)计算标签2的位置:
(4a)利用距离公式,计算每帧图片中标签1移动时参考顶点A与被遮挡的标签2中心点之间的距离;
(4b)按照下式,计算标签1与被遮挡的标签2之间的角度;
β2=β1+α3
其中,β2表示每帧图片中标签1参考顶点A和被遮挡的标签2中心点之间的直线与单目摄像头水平轴的角度,β1表示在基准图片中标签1参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,α3表示每帧图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴的角度;
(4c)利用位置公式,计算被遮挡的标签2中心点位置;
(5)计算标签2的角度:
利用角度公式,计算每帧图片中被遮挡的标签2参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的角度;
(6)完成测量位置的追踪。
本发明与现有技术相比,具有如下优点:
第一,由于本发明追踪时利用每帧图片中得到标签与单目摄像头的距离,克服了现有技术中多相机追踪时每次都需对同步拍摄的多个图像帧进行处理的不足,使得本发明的方法可以更快速的追踪物体的测量位置。
第二,由于本发明利用追踪前基准图片中标签1与标签2之间的距离和角度,追踪时,遮挡标签2,利用每帧图片中标签1与单目摄像头的距离、标签1的旋转角度、追踪前基准图片中得到的标签1与标签2之间的距离和角度计算标签2的位置和角度,克服了现有技术中直接跟踪目标,当这个目标不存在时会造成跟踪失败的不足,使得本发明的方法可以更准确的追踪移动物体中的目标位置。
附图说明
图1为本发明的流程图;
图2为本发明追踪位置示意图。
具体实施方式
下面结合附图,对本发明作进一步详细描述。
参照图1,对实现本发明的具体步骤作进一步详细的描述。
步骤1,获取基准图片。
追踪开始前,使用单目摄像头连续拍摄静止的被测物体的十帧图片,将最后一张图片作为基准图片,该基准图片中包括被测物体、标签1和标签2。
步骤2,计算标签1和标签2位置。
利用apriltag算法中的距离公式,分别计算基准图片中标签1与单目摄像头的距离以及基准图片中标签2与单目摄像头的距离。
所述apriltag算法中的距离公式如下:
di=-s×h22×scale/2
其中,di表示在基准图片中标签中第i个像素点与单目摄像头的距离,s表示系数,h22表示标签坐标系中的四个顶点的齐次坐标到图像标签坐标系中的四个顶点坐标的映射矩阵中第3行第3列的元素值,scale表示标签的边长值。
按照下式,计算标签1和标签2之间的角度。
其中,β1表示在基准图片中标签1的参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,arctan表示反正切操作,centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标,By1表示在基准图片中标签1的参考顶点B处对应y轴的坐标,Bx1表示在基准图片中标签1的参考顶点B处对应x轴的坐标。
按照下式,计算标签1参考顶点A与标签2中心点的距离。
其中,R1表示在基准图片中标签1参考顶点A与标签2中心点之间的距离,表示取平方根操作,centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标。
参照图2,对标签1和标签2的位置关系做进一步详细的描述。
图2中标签1和标签2是apriltag标签,x表示图片的水平轴,y表示图片的垂直轴,A、B、C、D表示标签1的四个参考顶点,α1表示在基准图片中标签1参考顶点A和参考顶点B之间的直线与x轴之间的角度、β表示在基准图片中标签1参考顶点A和标签2中心点之间的直线与x轴的角度、β1表示在基准图片中标签1的参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度、R1表示标签1的A点与标签模块2的中心点之间的距离。
步骤3,确定追踪时标签1的位置。
追踪开始时,遮挡被测物体上的标签2。
利用apriltag算法中的距离公式,计算在单目摄像头拍摄范围内任意移动被测物体时每帧图片中标签1与单目摄像头的距离。
步骤4,计算标签2的位置。
利用距离公式,计算每帧图片中标签1移动时参考顶点A与被遮挡的标签2中心点之间的距离。
所述距离公式如下:
R2=d1×R1/d2
其中,R2表示每帧图片中标签1参考顶点A与被遮挡的标签2中心点之间的距离,d1表示在基准图片中标签1与单目摄像头的距离,R1表示在基准图片中标签1参考顶点A与标签2中心点之间的距离,d2表示每帧图片中标签1与单目摄像头的距离。
按照下式,计算标签1与被遮挡的标签2之间的角度。
β2=β1+α3
其中,β2表示每帧图片中标签1参考顶点A和被遮挡的标签2中心点之间的直线与单目摄像头水平轴的角度,β1表示在基准图片中标签1参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,α3表示每帧图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴的角度。
利用位置公式,计算被遮挡的标签2中心点位置。
所述位置公式如下:
centx2=Ax3+R2×cosβ2
centy2=Ay3+R2×sinβ2
其中,centx2表示每帧图片中被遮挡的标签2中心点的x轴坐标,Ax3表示每帧图片中标签1参考顶点A处对应x轴的坐标,R2表示每帧图片中标签1参考顶点A与被遮挡的标签2中心点之间的距离,cos表示余弦操作,β2表示每帧图片中标签1参考顶点A和被遮挡的标签2中心点之间的直线与单目摄像头水平轴之间的角度,centy2表示每帧图片中被遮挡的标签2中心点的y轴坐标,Ay3表示视频帧中标签1参考顶点A处对应y轴的坐标,sin表示正弦操作。
步骤5,计算标签2的角度。
利用角度公式,计算每帧图片中被遮挡的标签2参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的角度。
所述角度公式如下:
α4=α3-α1+α2
其中,α4表示每帧图片中被遮挡的标签2的参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的角度,α3表示每帧图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的夹角,α1表示在基准图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的夹角,α2表示在基准图片中标签2参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的夹角。
步骤6,完成测量位置的追踪。
下面结合实施例,对本发明做进一步地描述。
本发明实施例中使用一个粘贴在人体腹部肚脐附近的标签1追踪一个放在肚脐位置的传感器的位置和角度,该传感器上粘贴一个标签2,传感器用来检测腹部周围的异常穴位并反馈结果,移走传感器,病人可以在床上轻微移动,根据腹部上标签1的位置,计算传感器移走前在腹部的位置和角度,即可追踪到异常穴位的位置,为医护人员进一步的针灸治疗做准备。其具体实现步骤如下:
步骤1,获取基准图片。
追踪开始前,使用单目摄像头连续拍摄人体腹部图片,将取得传感器结果时的第一张图片作为基准图片,该基准图片中包括人体腹部、标签1、传感器和标签2。
步骤2,计算标签1和标签2位置。
利用apriltag算法中的距离公式,分别计算基准图片中标签1与单目摄像头的距离以及基准图片中标签2与单目摄像头的距离,并计算标签1和标签2之间的距离和角度。
步骤3,确定追踪时标签1的位置。
追踪开始时,移走传感器,利用apriltag算法中的距离公式,计算病人在床上移动时每帧图片中标签1与单目摄像头的距离。
步骤4,计算异常穴位的位置。
利用基准图片中标签1与水平轴之间的角度、基准图片中标签2与水平轴之间的角度、每帧图片中标签1与水平轴之间的角度、基准图片中标签1与标签2之间的距离和角度计算传感器移走前在腹部的位置和角度,即可得到异常穴位的位置。
以上描述仅是本发明的一个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基本发明思想的修正和改变仍在本发明的权利要求保护范围之内。
Claims (6)
1.一种用单目摄像头追踪移动物体中目标位置的方法,其特征在于,追踪前,利用单目摄像头获取标签1和标签2的三维坐标,追踪时,遮挡标签2,利用单目摄像头获取标签1的三维坐标,计算标签2位置,该方法的步骤包括如下:
(1)获取基准图片:
追踪开始前,使用单目摄像头连续拍摄静止的被测物体的十帧图片,将最后一张图片作为基准图片,该基准图片中包括被测物体、标签1和标签2;
(2)计算标签1和标签2位置:
(2a)利用apriltag算法中的距离公式,分别计算基准图片中标签1与单目摄像头的距离以及基准图片中标签2与单目摄像头的距离;
(2b)按照下式,计算标签1和标签2之间的角度;
其中,β1表示在基准图片中标签1的参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,arctan表示反正切操作,
centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标,By1表示在基准图片中标签1的参考顶点B处对应y轴的坐标,Bx1表示在基准图片中标签1的参考顶点B处对应x轴的坐标。
(2c)按照下式,计算标签1参考顶点A与标签2中心点的距离;
其中,R1表示在基准图片中标签1参考顶点A与标签2中心点之间的距离,表示取平方根操作,centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标;
(3)确定追踪时标签1的位置:
(3a)追踪开始时,遮挡被测物体上的标签2;
(3b)利用apriltag算法中的距离公式,计算在单目摄像头拍摄范围内任意移动被测物体时每帧图片中标签1与单目摄像头的距离;
(4)计算标签2的位置:
(4a)利用距离公式,计算每帧图片中标签1移动时参考顶点A与被遮挡的标签2中心点之间的距离;
(4b)按照下式,计算标签1与被遮挡的标签2之间的角度;
β2=β1+α3
其中,β2表示每帧图片中标签1参考顶点A和被遮挡的标签2中心点之间的直线与单目摄像头水平轴的角度,β1表示在基准图片中标签1参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,α3表示每帧图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴的角度;
(4c)利用位置公式,计算被遮挡的标签2中心点位置;
(5)计算标签2的角度:
利用角度公式,计算每帧图片中被遮挡的标签2参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的角度;
(6)完成测量位置的追踪。
2.根据权利要求1所述的用单目摄像头追踪移动物体中目标位置的方法,其特征在于,步骤(2a)、步骤(3b)中所述的apriltag算法中的距离公式如下:
di=-s×h22×scale/2
其中,di表示在基准图片中标签中第i个像素点与单目摄像头的距离,s表示系数,h22表示标签坐标系中的四个顶点的齐次坐标到图像标签坐标系中的四个顶点坐标的映射矩阵中第3行第3列的元素值,scale表示标签的边长值。
3.根据权利要求1所述的用单目摄像头追踪移动物体中目标位置的方法,其特征在于,步骤(2b)中所述的标签的参考顶点A和参考顶点B指的在标签未旋转时标签的的左上顶点和右上顶点。
4.根据权利要求1所述的用单目摄像头追踪移动物体中的目标位置方法,其特征在于,步骤(4a)中所述的距离公式如下:
R2=d1×R1/d2
其中,R2表示每帧图片中标签1参考顶点A与被遮挡的标签2中心点之间的距离,d1表示在基准图片中标签1与单目摄像头的距离,R1表示在基准图片中标签1参考顶点A与标签2中心点之间的距离,d2表示每帧图片中标签1与单目摄像头的距离。
5.根据权利要求1所述的用单目摄像头追踪移动物体中目标位置的方法,其特征在于,步骤(4c)中所述的位置公式如下:
centx2=Ax3+R2×cosβ2
centy2=Ay3+R2×sinβ2
其中,centx2表示每帧图片中被遮挡的标签2中心点的x轴坐标,Ax3表示每帧图片中标签1参考顶点A处对应x轴的坐标,R2表示每帧图片中标签1参考顶点A与被遮挡的标签2中心点之间的距离,cos表示余弦操作,β2表示每帧图片中标签1参考顶点A和被遮挡的标签2中心点之间的直线与单目摄像头水平轴之间的角度,centy2表示每帧图片中被遮挡的标签2中心点的y轴坐标,Ay3表示视频帧中标签1参考顶点A处对应y轴的坐标,sin表示正弦操作。
6.根据权利要求1所述的用单目摄像头追踪移动物体中目标位置的方法,其特征在于,步骤(5)中所述的角度公式如下:
α4=α3-α1+α2
其中,α4表示每帧图片中被遮挡的标签2的参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的角度,α3表示每帧图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的夹角,α1表示在基准图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的夹角,α2表示在基准图片中标签2参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的夹角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010686232.2A CN111833379B (zh) | 2020-07-16 | 2020-07-16 | 用单目摄像头追踪移动物体中目标位置的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010686232.2A CN111833379B (zh) | 2020-07-16 | 2020-07-16 | 用单目摄像头追踪移动物体中目标位置的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111833379A true CN111833379A (zh) | 2020-10-27 |
CN111833379B CN111833379B (zh) | 2023-07-28 |
Family
ID=72923363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010686232.2A Active CN111833379B (zh) | 2020-07-16 | 2020-07-16 | 用单目摄像头追踪移动物体中目标位置的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111833379B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113506329A (zh) * | 2021-08-02 | 2021-10-15 | 安徽理工大学 | 一种基于单目摄像头的实时位移测量方法 |
CN113808195A (zh) * | 2021-08-26 | 2021-12-17 | 领翌技术(横琴)有限公司 | 视觉定位方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018086461A1 (zh) * | 2016-11-09 | 2018-05-17 | 南京阿凡达机器人科技有限公司 | 一种基于单目手势识别的视觉跟随方法及机器人 |
CN110490911A (zh) * | 2019-08-14 | 2019-11-22 | 西安宏规电子科技有限公司 | 基于约束条件下非负矩阵分解的多摄像头多目标追踪方法 |
CN111383252A (zh) * | 2018-12-29 | 2020-07-07 | 曜科智能科技(上海)有限公司 | 多相机目标追踪方法、系统、装置及存储介质 |
CN111382784A (zh) * | 2020-03-04 | 2020-07-07 | 厦门脉视数字技术有限公司 | 一种运动目标跟踪方法 |
-
2020
- 2020-07-16 CN CN202010686232.2A patent/CN111833379B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018086461A1 (zh) * | 2016-11-09 | 2018-05-17 | 南京阿凡达机器人科技有限公司 | 一种基于单目手势识别的视觉跟随方法及机器人 |
CN111383252A (zh) * | 2018-12-29 | 2020-07-07 | 曜科智能科技(上海)有限公司 | 多相机目标追踪方法、系统、装置及存储介质 |
CN110490911A (zh) * | 2019-08-14 | 2019-11-22 | 西安宏规电子科技有限公司 | 基于约束条件下非负矩阵分解的多摄像头多目标追踪方法 |
CN111382784A (zh) * | 2020-03-04 | 2020-07-07 | 厦门脉视数字技术有限公司 | 一种运动目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
李?振;王强;曾勇;于蒙;: "基于人脸识别与光流追踪的移动机器人视觉导航方法", 自动化与仪表, no. 01 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113506329A (zh) * | 2021-08-02 | 2021-10-15 | 安徽理工大学 | 一种基于单目摄像头的实时位移测量方法 |
CN113808195A (zh) * | 2021-08-26 | 2021-12-17 | 领翌技术(横琴)有限公司 | 视觉定位方法、装置及存储介质 |
CN113808195B (zh) * | 2021-08-26 | 2024-04-12 | 领翌技术(横琴)有限公司 | 视觉定位方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111833379B (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110285793B (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
CN110555889B (zh) | 一种基于CALTag和点云信息的深度相机手眼标定方法 | |
CN106650682B (zh) | 一种人脸追踪的方法及装置 | |
WO2019105044A1 (zh) | 一种镜头畸变矫正和特征提取的方法及系统 | |
JP4245963B2 (ja) | 較正物体を用いて複数のカメラを較正するための方法およびシステム | |
US8848035B2 (en) | Device for generating three dimensional surface models of moving objects | |
EP3067861A2 (en) | Determination of a coordinate conversion parameter | |
US7688381B2 (en) | System for accurately repositioning imaging devices | |
CN103700140B (zh) | 用于单枪机‑多球机联动的空间建模方法 | |
CN109657607A (zh) | 一种基于人脸识别的人脸目标测距方法、装置及存储介质 | |
JP2010279023A (ja) | 情報処理装置およびその制御方法 | |
CN111833379B (zh) | 用单目摄像头追踪移动物体中目标位置的方法 | |
JPH07286837A (ja) | 球体の回転量測定装置及び測定方法 | |
CN112396640A (zh) | 图像配准方法、装置、电子设备及存储介质 | |
JP4242529B2 (ja) | 関連情報呈示装置及び関連情報呈示方法 | |
CN115717867A (zh) | 一种基于机载双相机和目标追踪的桥梁变形测量方法 | |
CN112637519A (zh) | 多路4k准实时拼接视频的全景拼接算法 | |
CN107990825B (zh) | 基于先验数据校正的高精度位置测量装置与方法 | |
CN113487726A (zh) | 动作捕捉系统和方法 | |
CN116958218A (zh) | 一种基于标定板角点对齐的点云与图像配准方法及设备 | |
CN115252992B (zh) | 基于结构光立体视觉的气管插管导航系统 | |
CN108573504A (zh) | 用于分析植物的表型的3d影像生成方法及其系统 | |
CN115307865A (zh) | 一种面向高温高超声速流场的模型变形测量方法 | |
CN111179347B (zh) | 基于区域性特征的定位方法、定位设备及存储介质 | |
CN111260727B (zh) | 一种基于图像处理的网格定位方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |