CN107481284A - 目标物跟踪轨迹精度测量的方法、装置、终端及系统 - Google Patents
目标物跟踪轨迹精度测量的方法、装置、终端及系统 Download PDFInfo
- Publication number
- CN107481284A CN107481284A CN201710741311.7A CN201710741311A CN107481284A CN 107481284 A CN107481284 A CN 107481284A CN 201710741311 A CN201710741311 A CN 201710741311A CN 107481284 A CN107481284 A CN 107481284A
- Authority
- CN
- China
- Prior art keywords
- position information
- tracking
- track
- deviation
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供了一种目标物跟踪轨迹精度测量方法、装置、终端及系统,包括:确定目标物的实际跟踪轨迹位置信息;将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息;根据所述偏差确定目标物的跟踪精度。本发明依据视觉技术实现了目标位位置的确定,并通过偏差和精度规则确定了目标物跟踪轨迹的精度,本发明涉及规则简单、所用的设备经济性能好,在低成本的情况下,通过简单、便捷方法确定了目标物跟踪轨迹的精度,规则简单,对设备消耗小,提高了设备的使用寿命。
Description
技术领域
本发明涉及精度测量领域,具体而言,本发明涉及一种目标物跟踪轨迹精度测量的方法、装置、终端及系统。
背景技术
现如今,人们在日常生活及工作中多方面应用到互联网,与互联网相关的各种智能产品也应运而生。特别地,机器人作为其中的一种智能产品,可以取代或者协助人类完成一些工作,常应用于各行各业。跟踪机器人,是指可以在指定范围内对特定目标进行跟踪和跟随的机器人,它可以是服务机器人,可以帮助人们搬运一些重物等,可以是娱乐机器人,与人类进行跟踪互动等。目前跟踪机器人的评价指标是跟踪精度,跟踪精度通过计算机器人实际的跟踪目标的轨迹和规划的跟踪目标的轨迹的误差获得,其中,目标轨迹可以事先进行规划指定,人们可以通过多种方法来获得目标轨迹,其中一种是放置标志物,在机器人运动过程中,间隔的放置一些标志物标识机器人的跟踪轨迹,然而在这个过程中,会受到人的主观意志的影响,使得测量误差大,另外一类的做法是在机器人上放置无线标签,在指定范围内安装无线模块,如无线局域网(WIFI)、射频标签(RFID)、蓝牙、超宽带无线电(UltraWide Band,UWB)、地磁等,然而这类方法实施成本高,目标轨迹获取以及跟踪精度确定过程复杂,导致跟踪精度误差大,综上所述,如何方便快捷的得到机器人的实际跟踪轨迹是一个难点,进而降低了跟踪精度的精确性。
发明内容
本发明的目的旨在至少解决上述技术缺陷之一,特别是由于手动测量机器人跟踪轨迹精度导致测量误差较大和测量速度慢的问题,以及采用无 线模块,增加测量成本高的问题。
本发明提供了一种目标物跟踪轨迹精度测量方法,包括:
确定目标物实际跟踪轨迹位置信息;
将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息;
根据所述偏差确定目标物的跟踪精度。
进一步地,所述确定目标物的实际跟踪轨迹位置信息的步骤中,具体包括:获取目标物在实际跟踪轨迹上的图像数据,依据所述图像数据确定目标物的实际跟踪轨迹位置信息。
进一步地,所述确定目标物的实际跟踪轨迹位置信息的步骤前,还包括:
建立世界坐标系、摄像装置坐标系及图像坐标系。
进一步地,所述获取目标物在实际跟踪轨迹上的图像数据,依据所述图像数据确定目标物的实际跟踪轨迹位置信息的步骤中,具体包括:
确定摄像装置的位置参数;
基于所述位置参数,确定目标物在世界坐标系中的所述实际跟踪轨迹位置信息。
优选地,所述摄像装置的位置参数包括内部位置参数和外部位置参数,所述内部位置参数为摄像装置的光学参数,所述外部位置参数为世界坐标系到摄像装置坐标系的变换系数。
优选地,所述光学参数为摄像装置的焦距和摄像装置的光心位置。
进一步地,所述确定摄像装置的位置参数的步骤中,具体包括:
确定目标物在图像坐标系中的位置参数,其中,所述图像为摄像装置捕捉到目标物在跟踪过程中的图像。
优选地,所述目标物实际跟踪轨迹位置信息通过如下公式得到:
其中,R为摄像装置坐标系相对世界坐标系的旋转矩阵,T为摄像装 置坐标系相对世界坐标系的平移矩阵,fx为沿摄像装置x轴的等效焦距,fy沿摄像装置y轴的等效焦距,uo、vo为摄像装置光轴与图像坐标系二维平面的交点,uo为交点在图像坐标系中x轴上的坐标,vo为交点在图像坐标系中y轴上的坐标,u为目标物在图像中的图像坐标系中X轴的坐标,v为目标物在图像中的图像坐标系中Y轴的坐标,Z为目标物高度,且为世界坐标系Z轴上的坐标,X目标物在世界坐标系中X轴上的坐标,Y为目标物在世界坐标系中Y轴上的坐标,k为目标物在摄像装置坐标系中的Z轴坐标值的倒数。
进一步地,所述根据所述偏差和精度规则确定目标物的跟踪精度的步骤中,具体包括:
对所述偏差进行标识处理,所述偏差与所述偏差的标识信息以映射关系进行存储;
对所述偏差进行均值处理,确定均值偏差;
所述均值偏差通过精度规则确定目标物的跟踪精度。
优选地,所述均值偏差通过如下均值公式处理所得,所述均值公式为
其中,error表示偏差值,N表示偏差的项数,xi’表示目标物的预设跟踪轨迹位置信息,xi表示目标物的实际跟踪轨迹位置信息;
所述精度规则为
accuracy=1-error
其中,accuracy表示精度值。
优选地,所述预设跟踪轨迹位置信息和所述实际跟踪轨迹位置信息具有同一标识。
进一步地,所述将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息的步骤中,具体包括:
将实际跟踪轨迹和预设目标轨迹上最近的点的实际跟踪轨迹位置信 息和预设目标轨迹信息位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪根轨迹位置信息的偏差。本发明还提供了一种目标物跟踪轨迹精度测量装置,包括位置信息确定模块、偏差运算模块、精度运算模块;
所述位置确定信息模块,用于确定目标物的实际跟踪轨迹位置信息;
所述偏差运算模块,用于将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息;
所述精度运算模块,用于根据所述偏差确定目标物的跟踪精度。
本发明还提供了一种目标物跟踪轨迹精度测量终端,包括处理器、存储器,所述存储器用于存储计算机程序,所述计算机程序被所述处理器执行时实现前述任一项所述目标物跟踪轨迹精度测量方法的步骤。
本发明还提供了一种目标物跟踪轨迹精度测量系统,包括摄像装置和所述的目标物跟踪轨迹精度测量终端,所述摄像装置和所述跟踪轨迹精度测量终端相互配合确定所述跟踪轨迹精度。
进一步地,所述目标物为机器人,所述机器人顶部安装有光源装置,所述光源装置用于所述摄像装置识别所述机器人。
1、本发明一种目标物跟踪轨迹精度测量方法、装置、终端及系统,主要通过摄像机拍摄机器人在跟踪过程中的图像,获取目标物在实际跟踪轨迹上的图像数据,依据所述图像数据确定目标物在世界坐标系中的实际跟踪轨迹位置信息;从图像中提取出机器人在图像坐标系中的坐标,在通过对摄像机的标定,从而求得在跟踪过程中,目标物在世界坐标系中的实际坐标,即机器人的实际位置,再通过基于所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息,通过对比规则确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息,求得偏差,根据所述偏差和精度规则确定目标物的跟踪精度,目标物实际坐标的确定方法客观、便捷。
2、本发明一种目标物跟踪轨迹精度测量方法、装置、终端及系统, 在机器人跟踪过程中便可确定机器人的实际坐标,步骤简单,涉及的参数在安装摄像装置时便可确定,涉及运算的规则简单,占用内存小,对设备消耗也较低,提高设备的使用寿命。
3、本发明一种目标物跟踪轨迹精度测量方法、装置、终端及系统,可依据自设频率采集机器人在跟踪过程中的图像,可依据路线自动调整摄像机采集的频率,可调性较强,可获得较多的机器人实际坐标,提高后续精度的精确性,参与的模块少,有效的节约了跟踪轨迹精度测量的成本。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明的其中一种实施例的目标物跟踪轨迹精度测量方法的流程图;
图2为本发明的世界坐标系、摄像机坐标系、图像坐标系转换关系的示例图;
图3为本发明的其中一种实施例的摄像机和机器人的安装位置示意图,主要示出了摄像机光轴垂直于地面并通过世界坐标系的原点;
图4为本发明的另一种实施例的目标物跟踪轨迹精度测量方法的流程图;
图5位本发明的机器人跟踪轨迹精度计算示意图;
图6为本发明的一种目标物跟踪轨迹精度测量装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
本发明提供了一种目标物跟踪轨迹精度测量方法,在其中一种实施例中,如图1所示,包括步骤S100至S300。
S100:确定目标物的实际跟踪轨迹位置信息。
进一步地,在确定目标物在世界坐标系的实际跟踪轨迹位置信息中,还需要获取目标物在实际跟踪轨迹上的图像数据,依据所述图像数据确定目标物在世界坐标系中的实际跟踪轨迹位置信息。
目标物在跟踪过程中,摄像装置依据预设的拍摄频率拍摄目标物跟踪过程中的图像,由于目标物在跟踪过程中可能会有位置的变化,若位置变化,则不同的图像,目标物在图像中的位置也会发生变化,获取图像中包含目标物的数据,依据图像中的目标物的数据、摄像装置的数据以及摄像装置坐标系与世界坐标系的关系、图像坐标系与摄像装置坐标系和/或世界坐标系的关系,通过计算图像中目标物的数据,确定目标物在图像中的跟踪轨迹,再将目标物的在图像中位置换算到实际世界中位置,便可得到目标物在跟踪过程中实际的跟踪轨迹,即为确定目标物世界坐标系中的实际跟踪轨迹位置信息。当然为了便于换算,提前建立了世界坐标系、摄像 装置坐标系、图像坐标系,如图2所示,世界坐标系的原点是水平测试地面的中心,摄像装置坐标系的原点为摄像装置光心,摄像坐标系Xc与成像平面坐标系的x’轴平行,摄像坐标系Yc轴与成像平面坐标系y’轴平行,摄像装置的光轴和成像平面坐标系形成的图像平面垂直。光轴与图像平面的交点为成像平面坐标系的原点O',由点O与Xc和Yc轴组成的直角坐标系称为摄像装置坐标系。OO'为摄像装置焦距,图像坐标系分为图像像素坐标系和图像物理坐标系两种,图像物理坐标系:其原点为透镜光轴与成像平面的交点O',且为平面直角坐标系;图像像素坐标系[计算机图像(帧存)坐标系]:固定在图像上的以像素为单位的平面直角坐标系,其原点位于摄像装置面对图像坐标系中图像的左上角,图像像素坐标系的u轴平行于图像物理坐标系的x’轴(图中未示出),图像像素坐标系的v轴平行于图像物理坐标系的y’轴(图中未示出),图中h表示物距,为世界坐标系到摄像坐标系的距离,也为目标物与地面的接触点到摄像装置的距离。
具体的,摄像装置与目标物如图3所示,世界坐标系的原点为p,摄像坐标系的xc轴与世界坐标系的x轴平行,摄像坐标系的和yc轴分别与世界坐标系的y轴平行,其中,摄像装置为摄像机,目标物为机器人,机器人在跟踪过程中被摄像机拍摄了多张图像,如前所述,机器人的位置可能发生了变化,则机器人位置发生变化的图像被摄像机拍摄后,对应图像中机器人的位置也发生了变化,将图像中机器人位置的变化通过变换得到机器人在世界坐标系中的实际位置变化,即得到机器人在世界坐标系中的实际跟踪轨迹位置信息,其具体变换运算方式如后文的预设规则,因此需要获取图像中机器人在跟踪轨迹上的图像数据,例如,位置数据、像素数据等,将获取到的数据通过摄像装置的数据以及摄像装置坐标系与世界坐标系的关系、图像坐标系与摄像装置坐标系和/或世界坐标系的关系得到机器人在世界坐标系中的实际跟踪轨迹位置信息,即为机器人在实际世界中的跟踪轨迹。
S200:将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差, 其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息。
在步骤S100中确定了目标物的实际跟踪轨迹,将实际跟踪轨迹与目标物的预设目标轨迹进行对比,确定目标物实际跟踪轨迹与目标物的预设目标轨迹的偏差,偏差可以是实时确定,也可以在实际跟踪轨迹全部完成后再通过对比确定,预设目标轨迹是目标物跟踪前规划的跟踪轨迹,也可以是目标物在跟踪一段/点后规划下一段/点目标物将要跟踪的跟踪轨迹,规划目标物下一段/点的预设目标轨迹可以以时间为节点,也可以以路程为节点,还可以以位移为节点,目标物下一段/点和/或接下来的多段/点的预设目标轨迹可以依据目标物相邻前一段/点和/或前多段/点的偏差,也可以依据目标物相邻前一段/点和/或前多段/点的精度进行规划,也可以依据相邻前一段/点和/或前多段/点的进行规划。偏差实时确定为摄像装置拍摄到一张目标物的跟踪轨迹的图像时,则获取一张图像中的数据,通过前述S100确定目标物的实际跟踪轨迹位置信息,并将实际跟踪轨迹位置信息与对应的目标轨迹中的目标物的位置信息进行对比,确定目标物的偏差;也可以在目标物的实际轨迹全部完成后,对摄像装置拍摄的目标物跟踪过程中的所有的图片获取图像数据,再通过前述S100确定目标物的实际跟踪轨迹,也是目标物的实际跟踪轨迹位置信息,并将实际跟踪轨迹位置信息与对应的目标轨迹中的目标物的位置信息进行对比,确定目标物的偏差;也可以是在目标物完成一段跟踪时,获取摄像装置拍摄的目标物该段跟踪轨迹的图像中的图像数据,通过前述S100确定目标物在该段跟踪轨迹中的实际跟踪轨迹,从而确定目标物的实际跟踪轨迹位置信息,并将实际跟踪轨迹位置信息与对应的目标轨迹中的目标物的位置信息进行对比,确定目标物该段跟踪轨迹的偏差;也可以是按照目标物跟踪的时间段获取摄像装置拍摄的目标物跟踪的图像中的图像数据,通过前述S100确定目标物在一段时间内跟踪轨迹中的实际跟踪轨迹,从而确定目标物的实际跟踪轨迹位置信息,并将实际跟踪轨迹位置信息与对应的目标轨迹中的目标物的位置信息进行对比,确定目标物该段时间内跟踪轨迹的偏差。
具体的,如前所述,目标物为机器人,摄像装置为摄像机,摄像装置拍摄了机器人在跟踪过程中的图像,在步骤S100中获取图像数据确定了 机器人的实际跟踪轨迹,从而确定了机器人的实际跟踪轨迹位置信息,将机器人的实际跟踪轨迹和预设目标轨迹进行对比,从而确定机器人在跟踪过程中的轨迹偏差,具体的对比规则将在后文详述。例如,机器人的偏差是实时确定,则摄像装置拍摄到一张机器人跟踪轨迹的图像时,获取一张图像中的数据,通过前述S100确定机器人的实际跟踪轨迹位置信息,并将机器人的实际跟踪轨迹位置信息与对应的预设目标轨迹中的机器人的位置信息进行对比,确定机器人在某一点的位置偏差;又如,机器人完成了实际跟踪轨迹后在与预设目标轨迹进行对比确定偏差,具体的预设目标轨迹如上所述,在机器人完成跟踪轨迹过程中,摄像机拍摄了多张机器人的图像,获取拍摄的图像中的图像数据,如机器人在图像坐标系中位置的数据,通过前述S100确定机器人的实际跟踪轨迹,得到机器人的实际跟踪轨迹位置信息,并将机器人的实际跟踪轨迹位置信息与对应的预设目标轨迹中的机器人的位置信息进行对比,确定机器人的跟踪轨迹的偏差;又如,机器人完成一段实际跟踪轨迹时,摄像机已拍摄了机器人在该段实际跟踪轨迹中的图像,获取拍摄的机器人该段跟踪轨迹的图像中的图像数据,通过前述S100确定机器人在该段跟踪轨迹中的实际跟踪轨迹位置信息,并将实际跟踪轨迹位置信息与对应的预设目标轨迹中的机器人的位置信息进行对比,确定机器人该段跟踪轨迹的偏差;再如,摄像机在一段时间内拍摄了机器人的实际跟踪过程中的图像,则获取这段图像中的数据,通过前述S100确定机器人在该段时间内实际跟踪轨迹位置信息,将该段时间内的实际跟踪轨迹位置信息与对应的预设目标轨迹的位置信息进行对比,确定两者的偏差;确定机器人跟踪轨迹的偏差,可以先完全确定机器人的整个实际跟踪轨迹,在通过对比确定机器人的位置偏差,也可以是确定机器人实际跟踪轨迹中一点位置信息时,则通过与预设目标轨迹中对应一点的位置信息进行对比,从而确定该点的偏差;在确定一段时间内或者机器人一段路程或者位移内机器人的实际跟踪轨迹位置信息时,也可以是确定机器人实际跟踪轨迹中该段时间内或者机器人一段路程或者位移内位置信息时,从而通过前述步骤确定段时间内或者机器人一段路程或者位移内的偏差。
S300:根据所述偏差确定目标物的跟踪精度。
如前所述,在前述的S100中确定了目标物的实际跟踪轨迹位置信息,通过S200确定了目标物跟踪轨迹的偏差,再依据精度规则便可以确定目标物跟踪精度,在确定精度前,还需要统计目标物实际跟踪轨迹与预设目标轨迹总偏差并确定总偏差的均值偏差,总偏差为所有偏差之和,均值偏差通过均值规则确定,精度表明了目标物实际跟踪轨迹和预设目标轨迹的接近程度,精度越大表明均值偏差越小,同时也说明了目标物的实际跟踪轨迹和预设目标轨迹越接近。具体的,如前文所述,目标物是机器人,摄像装置为摄像机,在前述的S100中确定了机器人的实际跟踪轨迹位置信息,通过S200确定了机器人跟踪轨迹的偏差之后,将步骤S200确定的所有的偏差进行求和,通过后续的均值偏差处理规则确定均值偏差,再通过精度规则确定机器人实际跟踪轨迹和预设目标轨迹的精度,若均值偏差为M,精度为N,若M越小,则说明机器人的均值偏差小,精度N与均值偏差则相反,均值偏差M越小,精度N就越大,则表明了机器人的实际跟踪轨迹和预设目标跟踪轨迹就越接近,从而实现低成本的情况下确定机器人的跟踪精度,说明机器人的跟踪轨迹性能较好。
进一步地,确定目标物的实际跟踪轨迹位置信息的步骤S100中,具体包括S110和S120。
S110:确定摄像装置的位置参数。
由于摄像装置的参数不会随着拍摄的目标物的变化而变化,因此在摄像装置安装完后,便可通过第一位置参数规则确定摄像装置的位置参数,第一位置参数规则为摄像装置的标定方法,摄像装置的标定包括了多种标定方法,具体的,如根据是否需要标定参照物来看,可分为传统的摄像机标定方法和摄像机自标定方法,传统的摄像机标定是在一定的摄像机模型下,基于特定的实验条件,如形状、尺寸已知的标定物,经过对其进行图像处理,利用一系列数学变换和计算方法,求取摄像机模型的内部位置参数和外部位置参数(分为最优化算法的标定方法、利用摄像机透视变换矩阵的标定方法、进一步考虑畸变补偿的两步法和采用更为合理的摄像机模型的双平面标定法);不依赖于标定参照物的摄像机标定方法,仅利用摄 像机在运动过程中周围环境的图像与图像之间的对应关系对摄像机进行的标定称为摄像机自标定方法,分为:基于自动视觉的摄像机自标定技术(基于平移运动的自标定技术和基于旋转运动的自标定技术)、利用本质矩阵和基本矩阵的自标定技术、利用多幅图像之间的直线对应关系的摄像机自标定方以及利用灭点和通过弱透视投影或平行透视投影进行摄像机标定等;从所用模型不同来分有线性和非线性,所谓摄像机的线性模型,是指经典的小孔模型,成像过程不服从小孔模型的称为摄像机的非线性模型。线性模型摄像机标定,用线性方程求解。从视觉系统所用的摄像机个数不同分为单摄像机和多摄像机在双目立体视觉中,还要确定两个摄像机之间的相对位置和方向;从求解参数的结果来分有显式和隐式,隐参数定标是以一个转换矩阵表示空间物点与二维像点的对应关系,并以转换矩阵元素作为定标参数,比较典型的是直接线性定标(DLT),DLT定标以最基本的针孔成像模型为研究对象,用一个3×4阶矩阵表示空间物点与二维像点的直接对应关系,通过精确分析摄像机成像的中间过程,构造精密的几何模型,设置具有物理意义的参数(一般包括镜头畸变参数、图像中心偏差、帧存扫描水平比例因子和有效焦距偏差),确定这些未知参数,实现摄像机的显参数定标;从解题方法来分有解析法、神经网络法和遗传算法,空间点与其图像对应点之间是一种复杂的非线性关系,解析方法是用足够多的点的世界坐标和相应的图像坐标,通过解析公式来确定摄像机的内部位置参数、外部位置参数以及畸变参数,然后根据得到的内部位置参数、外部位置参数及畸变系数,再将图像中的点通过几何关系得到空间点的世界坐标。神经网络法利用图像坐标点和相应的空间点作为输入输出样本集进行训练,使网络实现给定的输入输出映射关系,对于不是样本集中的图像坐标点也能得到合适的空间点的世界坐标。根据标定块的不同有立体和平面之分,定标通过拍摄一个事先已经确定了三维几何形状的物体来进行,也就是在一定的摄像机模型下,基于特定的实验条件如形状、尺寸已知的定标参照物(标定物),经过对其图像进行处理,利用一系列数学变换和计算方法,求取摄像机模型的内部位置参数和外部位置参数。平面模板(作为标定物),对于每个视点获得图像,提取图像上的网格角点,平 面模板与图像间的网格角点对应关系,确定了单应性矩阵(Homography),平面模板可以用硬纸板,上面张贴激光打印机打印的棋盘格。模板图案常采用矩形和二次曲线(圆和椭圆);从定标步骤来看,可以分为两步法、三步法、四步法等;从内部位置参数是否可变的角度来看,可以分为可变内部位置参数的定标和不可变内部位置参数的定标;从摄像机运动方式上看,定标可以分为非限定运动方式的摄像机定标和限定运动方式的摄像机定标,后者根据摄像机的运动形式不同又可以纯旋转的定标方式、正交平移运动的定标方式等。不管怎样分类,定标的最终目的是要从图像点中求出物体的待识别参数,即摄像机内部位置参数、外部位置参数或者投影矩阵,进一步地,所述第一位置参数规则为前述任意一种或者多种摄像装置的标定方法。
具体的,在其中一种实施例中,如上述例子中,所述第一位置参数规则为张正友的棋盘格标定算法,张正友的棋盘格标定算法通过对一定标板在不同方向多次(三次以上)完整拍照,不需要知道定标板的运动方式。直接获得相机的内部位置参数和畸变系数,该标定方法精度高于自定标法,且不需要高精度的定位仪器。张正友的棋盘格标定算法包含两个模型:一、经典针孔模型,包含四个坐标系,二、畸变模型。具体标定算法确定摄像装置的位置参数如后文所述。
S120:基于所述位置参数,确定目标物在世界坐标系中的所述实际跟踪轨迹位置信息。
在前述的基础上,确定了摄像装置的参数,便可通过目标物的预设规则确定目标物在世界坐标系中的实际跟踪轨迹位置信息,具体便可如前文例子,通过预设规则确定机器人在世界坐标系中的位置信息,即为机器人的实际坐标信息,具体确定方法将在后文详述。
优选地,所述摄像装置的位置参数包括内部位置参数和外部位置参数,所述内部位置参数为摄像装置的光学参数,所述外部位置参数为世界坐标系到摄像装置坐标系的变换系数。
如前文所述,摄像装置的位置参数可通过多种方法确定,在其中一种实施例中,主要采取了张正友棋盘格标定算法确定摄像装置的参数,摄像 装置的参数包括内部位置参数和外部位置参数,具体的内部位置参数为摄像装置的光学参数,外部位置参数为实际坐标系到摄像装置坐标系的变化系数。
摄像机外部位置参数:决定摄像机坐标与世界坐标系之间相对位置关系。其中Pw为世界坐标,Pc是摄像机坐标,他们之间关系为
Pc=RPw+T
式中,T=(Tx,Ty,Tz),是平移向量,R=R(α,β,γ)是旋转矩阵,分别是绕摄像机坐标系z轴旋转角度为γ,绕y轴旋转角度为β,绕x轴旋转角度为α。6个参数组成(α,β,γ,Tx,Ty,Tz)为摄像机外部位置参数,具体的,6个外部位置参数有分别为矩阵和向量,将其分解共有12个参数,其中,T=(Tx,Ty,Tz)平移向量分解为三个参数,R=R(α,β,γ)旋转矩阵可分解为9个参数。
摄像机外部位置参数的确定方法,将棋盘格标定板的中心位置与世界坐标系原点重合,水平放置在地面上,棋盘边与地面边平行,棋盘格上选取6个角点,分别记录这6个角点的世界坐标,摄像机获取一帧图像,并在该图像中提取6个角点的像素坐标。利用这6个坐标点对,可以计算出12个外部位置参数。为了计算精确,可以将棋盘放置在不同的位置的地面上,重复以上过程,将不同次得到的外部位置参数进行(求平均)处理,得到最终结果。
摄像机内部位置参数:确定摄像机从三维空间到二维图像的投影关系。在其中一种实施例中,摄像机参数主要包括焦距(fx,fy)和摄像机的光心位置(uo,vo),摄像机内部位置参数的确定方法,该部分可以使用前述的摄像装置的标定方法,标定计算出摄像机的焦距(fx,fy)和摄像机光心位置坐标(uo,vo)。例如使用前述张正友的棋盘格标定算法,将画有棋盘格的图像放置在摄像机前方,拍摄至少3幅不同角度和位置的图像,称为摄像机标定图像。再利用张正友标定算法对摄像机标定图形进行处理,自动计算出摄像机的内部位置参数。
优选地,所述光学参数为摄像装置的焦距和摄像装置的光心位置。
如前文所述,具体的摄像装置的焦距为(fx,fy),摄像装置的光心 位置为(uo,vo),并可通过前文所述的方法确定,如前文的张正友摄像机棋盘格标定方法。为后文确定目标物的实际跟踪轨迹位置信息做准备,如目标物为前文所述的机器人。
进一步地,所述确定摄像装置的位置参数的步骤S110中,具体包括S111:
S111:确定目标物在图像坐标系中的位置参数,其中,所述图像为摄像装置捕捉到目标物在跟踪过程中的图像。
为了能更精确的确定目标物的实际跟踪轨迹位置信息,还需要确定目标物在图像中的位置信息,其主要为目标物在图像坐标系中的位置信息(u,v),及目标物在图像坐标系中的位置参数,具体的图像为前述的摄像装置步骤到目标物在跟踪过程中的图像,所述第二位置参数规则可以为任意一种或者多种camshift、kalman、Meanshift、粒子滤波等跟踪算法,通过任意一种camshift、kalman、Meanshift、粒子滤波等跟踪算法对机器人进行跟踪,另外,所述第二位置参数规则还可以是亮度检测,即对摄像装置获取到的每帧图像进行亮度检测,确定目标物在图像中的位置,在第二位置参数规则的前提下,能确定有效的目标物在图像中的位置,在目标物上安装有光源装置,主要用于被摄像装置识别,如后文所述机器人顶部安装的LED灯。光源装置可鲁棒的实现跟踪。
具体的,所谓"鲁棒",是指控制系统在一定(结构,大小)的参数摄动下,维持其它某些性能的特性。根据对性能的不同定义,可分为稳定鲁棒性和性能鲁棒性。以闭环系统的鲁棒性作为目标设计得到的固定控制器称为鲁棒控制器。CamShift(ContinuouslyAdaptive Mean Shift)跟踪算法CamShift算法是一种基于均值漂移的算法。均值移动的理论基础是概率密度估计。均值移动的过程实际上就是在概率密度空间中寻找局部极大点。从其全称可知CamShift算法的基础实际上是MeanShift算法,均值移动的操作过程可用如下几步来表示:(a)计算以初始点x0为中心的某一核窗所对应的均值移动向量mG(x0);(b)根据mG(x0)来移动核窗的中心位置,也即把mG(x0)中的加权平均值部分赋予x0,把x0作为新的初始点,并转回步骤(a);(c)重复(a)、(b)过程,直到满足某一预定的条件。因此,均值移 动过程就是寻找数据分布最密处的过程。均值移动的实现过程可为:(1)计算目标区域的均值、移动目标区域;(2)重新计算目标区域均值,还存在移动向量,继续移动目标区域;(3)移动向量越来越小;(4)找到局部极大点,停止移动,以上过程只是一次MeanShift算法过程,在连续帧上使用MeanShift算法就是CamShift跟踪算法。CamShift同经典的均值移动跟踪算法的基本思想是相同的,所不同的它是建立在颜色概率分布图和矩的基础之上。CamShift对室内环境下的目标物跟踪具有较高的鲁棒性。卡尔曼滤波(Kalman filtering)一种利用线性系统状态方程,通过系统输入输出观测数据,对系统状态进行最优估计的算法。由于观测数据中包括系统中的噪声和干扰的影响,所以最优估计也可看作是滤波过程。数据滤波是去除噪声还原真实数据的一种数据处理技术,Kalman滤波在测量方差已知的情况下能够从一系列存在测量噪声的数据中,估计动态系统的状态。由于,它便于计算机编程实现,并能够对现场采集的数据进行实时的更新和处理。粒子滤波跟踪算法粒子滤波算法有很多变种,以Rob Hess实现的这种最基本的粒子滤波算法为例。它的核心思想是随机采样和重要性重采样。在不知道目标物在哪里的情况下,随机向场景中分散粒子,撒完粒子后,根据特征相似度计算每个粒子的重要性,然后在重要的地方多撒粒子,不重要的地方少撒粒子。所以说粒子滤波较之蒙特卡洛滤波计算量较小。这种思想虽然简单,但效果往往很好。粒子滤波实现对目标物的跟踪通常分以下四个步骤:(1)初始化阶段-提取跟踪目标物特征,该阶段要人工指定跟踪目标物,程序计算跟踪目标物的特征,比如可以采用目标物的颜色特征。在初始时给定一个颜色样本,实现程序的半自动初始化。然后计算该区域色调(Hue)空间的直方图,即为目标物的特征。直方图可以用一个向量来表示,所以目标特征就是一个N*1的向量V。(2)搜索阶段-分撒搜索粒子,获取目标特征后,在场景中分撒许多搜索粒子去搜索目标对象。粒子分撒有许多种方式:a)均匀分撒。即在整个图像平面均匀的撒粒子(uniform distribution);b)在上一帧得到的目标物附近按照高斯分布来放,靠近目标物的地方多放,远离目标物的地方少放。粒子放出去后按照初始化阶段得到的目标物特征(色调直方图,向量V)计算它所处的位置处图像的颜色特 征,得到一个色调直方图,向量Vi,计算该直方图与目标物直方图的相似性(直方图匹配)。相似性有多种度量,最简单的一种是计算sum(abs(Vi-V))。每个粒子算出相似度后再做一次归一化,使得所有的粒子得到的相似度加起来等于1。(3)决策阶段-分撒出去的每个粒子将返回其所处位置的图像信息。(4)重采样阶段-Resampling在新的一帧图像里,为了搜索到目标物的新位置,需要再分撒粒子进行搜索。根据重要性重采样(更具重要性重新放粒子)。(2)->(3)->(4)->(2)如是反复循环,即完成了目标物的动态跟踪。粒子滤波跟踪算法可用于视频监控领域,可以跟踪速度较快的跟踪目标物。若在不适用跟踪算法时,也可以对每帧获取的图像进行亮度检测,获取到目标物在图像中的位置(u,v),为了能够更精确的确定机器人的位置信息,具体的前述目标物为机器人。
优选地,所述目标物实际跟踪轨迹位置信息通过如下公式得到为:
其中,R为摄像装置坐标系相对世界坐标系的旋转矩阵,T为摄像装置坐标系相对世界坐标系的平移矩阵,fx为沿摄像装置x轴的等效焦距,fy沿摄像装置y轴的等效焦距,uo、vo为摄像装置光轴与图像坐标系二维平面的交点,uo为交点在图像坐标系中x轴上的坐标,vo为交点在图像坐标系中y轴上的坐标,u为目标物在图像中的图像坐标系中X轴的坐标,v为目标物在图像中的图像坐标系中Y轴的坐标,Z为目标物高度,且为世界坐标系Z轴上的坐标,X目标物在世界坐标系中X轴上的坐标,Y为目标物在世界坐标系中Y轴上的坐标,k为目标物在摄像装置坐标系中的Z轴坐标值的倒数。
在前文的各步骤中,在一种实施例中,如摄像装置为摄像机,目标物为机器人,通过不同的方法可确定摄像机的内部位置参数和外部位置参数,以及目标物在图像坐标系中的位置(u,v),另有Z即是机器人在世界坐标系Z轴上的坐标,也是机器人的高度,可通过简单测量便可以确定。具体的,如摄像机的内部位置参数分别为前述的fx、fy、uo、vo,外部位置参数为[R,T],R为前述的旋转矩阵,T为前述的平移矩阵,也可以是平 移向量,X、Y是机器人在实际坐标系中实际跟踪轨迹位置信息,其为未知参数,通过前述的fx、fy、uo、vo、[R,T]、Z和预设规则确定X和Y的具体数值,从而确定具体的机器人具体的位置信息,其中,uo、vo也为摄像装置的光心位置。
在另一种实施例中,如前文所述T=(Tx,Ty,Tz)平移向量分解为三个参数,R=R(α,β,γ)旋转矩阵可分解为9个参数,其中,摄像机坐标系z轴旋转角度为γ,绕y轴旋转角度为β,绕x轴旋转角度为α,其中α也称为俯仰角、β也称为偏航角、γ也称为横滚角,为了简化计算,在测试装置安装的时候,确保摄像机的俯仰角α、偏航角β、横滚角γ均为0,且摄像机光轴垂直地面,并通过世界坐标系的原点,则图像坐标系(u,v,1)与世界坐标系(x,y,z)间的转换关系如下式所示:
则机器人在世界坐标系中的坐标与图像坐标的关系是:
其中,h表示机器人的高度,与前述Z等值。
进一步地,在另一种实施例中,所述确定目标物在世界坐标系中的实际跟踪轨迹位置信息的步骤S100前,如图4所示,具体包括S010:
S010:建立世界坐标系、摄像装置坐标系及图像坐标系。
具体的,如前文所述,需要建立世界坐标系、摄像坐标系、图像坐标系,才能确定目标物在不同坐标系中的具体位置信息,并将其带入前述预设规则,从而确定目标物在实际坐标系中的位置信息。
进一步地,所述根据所述偏差和精度规则确定目标物的跟踪精度的步骤S300中,具体包括S310至S330。
S310:对所述偏差进行标识处理,所述偏差与所述偏差的标识信息以映射关系进行存储。
如前文所述,在确定了偏差之后,需要将偏差再进行后续处理,为了确定偏差所对应的目标物在世界坐标系实际跟踪轨迹和预设目标轨迹的位置信息能一一对应,将偏差进行标识处理,所述标识方法可以为将偏差与位置信息结合,也可以对偏差进行标号等。具体的,如表1所述。
表1为偏差a与标识的对应,详情如下:
标识 | y1 | y2 | y3 | y4 | …… |
偏差a | a1 | a2 | a3 | a4 | …… |
具体的,摄像装置为摄像机,目标物为机器人,如表1中并结合图5,机器人按照预先设定的轨迹进行跟踪,目标轨迹如图5中的实线所示(由直线和曲线组成),通过前述步骤可以确定机器人的实际跟踪轨迹位置信息,即机器人在世界坐标系中的实际位置坐标,并在图5中标注出来,将机器人实际的y坐标点提取出来,将y作为偏差的标识信息,以(x1,y1)为例,根据y1值得到与目标曲线的交点(x1',y1),则该点的偏差为|x1'-x1|。将在定位单元中获取的点都进行偏差计算,并将其存储在表1中,以便于用于后续处理,从表1可以知道标识为机器人在预设目标轨迹和实际跟踪轨迹的y值,偏差为同一y值下,对应x值的偏差,即|x1'-x1|的值。
S320:对所述偏差进行均值处理,确定均值偏差。
由于偏差量较大,需要对所有的偏差进行均值处理,确定均值偏差,均值偏差表明了偏差数据的集中趋势,均值偏差可依据最小二乘准则确定,也可以通过指单项偏差值之和并除以测定次数与,从而确定均值偏差,具体的举止偏差处理规则后文详述。
S330:所述均值偏差通过精度规则确定目标物的跟踪精度。
由于平均偏差反映了测定数据的集中趋势,因此偏差域与平均值之间之差也就体现了精密度的高低。精密度的高低取决于随机误差的大小,通常用偏差量度。均值偏差越小,则精度就越大,说明目标物的跟踪精度也就越好,具体精度规则后文详述。
优选地,所述均值偏差通过如下均值公式处理所得,所述均值公式为
其中,error表示偏差值,N表示偏差的项数,xi’表示目标物的预设跟踪轨迹位置信息,xi表示目标物的实际跟踪轨迹位置信息;
所述精度规则为
accuracy=1-error
其中,accuracy表示精度值。
如前文所述,为确定均值偏差的公式,均值偏差,具体说明了xi'为目标物的预设跟踪轨迹位置信息,xi为目标物的实际跟踪轨迹位置信息,在目标物为机器人时,即xi'为机器人的预设跟踪轨迹位置信息,xi为机器人的实际跟踪轨迹位置信息,xi'和xi分别为具体的某一点的机器人的位置信息,在y值相同的情况下,abs(xi'-xi)为机器人的位置偏差绝对值,将多个abs(xi'-xi)求和并除以其求和的项数值,便可得到机器人的均值偏差;精度规则accuracy=1-error,error为前述的均值偏差,如前文所述,偏差域与平均值之间之差也就体现了精密度的高低。偏差的值域小于1,则1-error体现了机器人跟踪轨迹的精度。
优选地,所述预设跟踪轨迹位置信息和所述实际跟踪轨迹位置信息具有同一标识。
如前文所述,预设跟踪轨迹位置信息和实际跟踪轨迹位置信息具有同一标识,便于通过对比规则确定两者的偏差,具体如前文所述,在y值相同时,对y值相同的x值求解偏差,y值则为预设跟踪轨迹位置信息和实际跟踪轨迹位置信息的同一标识,同理,可以x值为标识,对x值相同的y值求解偏差,则此偏差则为预设跟踪轨迹位置信息和实际跟踪轨迹位置信息的同一标识,其计算过程同y值相同时,求解x值的偏差过程相同,在实际跟踪轨迹和预设目标轨迹的全程轨迹中,在y值相同时,则以y值 为标识,在x相同时,则以x值为标识,从而共同确定偏差。
进一步地,所述将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息的步骤S200中,具体包括S210:
S210:将实际跟踪轨迹上的实际轨迹点的位置信息和预设目标轨迹上离该实际轨迹点最近的预设轨迹点的位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差。
其中,将实际跟踪轨迹上的实际轨迹点的位置信息和预设目标轨迹上离该实际轨迹点最近的预设轨迹点的位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差的步骤S210中,还包括:确定所述实际轨迹点与所述预设目标轨迹上的至少两个所述预设轨迹点的距离;将所述距离进行对比,确定与所述实际轨迹点距离最短的所述预设轨迹点;将所述实际轨迹点的位置信息与最近的所述预设轨迹点的位置信息进行对比,确定所述实际轨迹点的位置信息和最近的所述预设轨迹点的位置信息的偏差。
具体在前文的基础上,通过同一标识确定所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息的偏差,特别地,在确定不了所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息的同一标识时,则取到实际轨迹点最近的预设目标轨迹上的预设轨迹点,在确定最近的预设轨迹点之前需要确定实际轨迹点与预设目标轨迹上的多个所述预设轨迹点的距离,具体确定方法为:通过计算,在将实际轨迹点(x1,y1)与多个所述预设轨迹点(x’,y’)的距离进行对比,确定距离所述实际轨迹点最短的所述预设轨迹点,通过所述实际轨迹点的位置信息和所述预设轨迹点的位置信息确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,在同一段所述实际跟踪轨迹和预设目标轨迹中,在不同段可以取不同的标识,即其中一段以y值为标识,而另一段以x值为标识从而共同确定实际跟踪轨迹位置信息和预设跟踪轨迹位置信息的偏差。
具体的,如前文所述,具体如图5,在其中一种实施例中,以y值为 标识可确定实际跟踪轨迹位置信息和预设跟踪轨迹位置信息的偏差,同样以x为标识确定实际跟踪轨迹位置信息和预设跟踪轨迹位置信息的偏差,在图5中有一段预设目标轨迹为垂直于x轴,若实际跟踪轨迹对应预设目标轨迹垂直于x轴的一段同样垂直于x轴,且该段实际跟踪轨迹x值与对应的预设目标轨迹的一段的x值不相等,此时,以x为标识不能确定实际跟踪轨迹位置信息和预设跟踪轨迹位置信息的偏差,则取实际跟踪轨迹上的实际轨迹点的位置信息和预设目标轨迹上多个预设轨迹点的位置信息,通过公式确定实际轨迹点(x1,y1)与预设目标轨迹上多个预设轨迹点(x’,y’)的不同距离,将所述距离进行对比,距离值最小者对应的预设轨迹点到实际轨迹点的距离最短,且最短距离为实际轨迹点到预设轨迹点的偏差。在具有同一x标识的实际跟踪轨迹的实际跟踪轨迹位置信息和预设目标轨迹的预设跟踪轨迹位置信息的一段的偏差的确定方法为:取同一x标识的实际跟踪轨迹位置信息和预设跟踪轨迹位置信息的y值差的绝对值,具体的,在具有同一标识x时,也可采用前述方法确定实际跟踪轨迹位置信息与预设跟踪轨迹位置信息的偏差。
本发明还提供了一种目标物跟踪轨迹精度测量装置,如图6所示,包括位置信息确定模块10,偏差运算模块20,精度运算模块30,
所述位置信息确定模块10,用于确定目标物的实际跟踪轨迹位置信息;
所述偏差运算模块20,用于将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息;
所述精度运算模块30,用于根据所述偏差确定目标物的跟踪精度。
本发明还提供了一种目标物跟踪轨迹精度测量终端,包括处理器、存储器,所述存储器用于存储计算机程序,所述计算机程序被所述处理器执行时实现前述任一项所述目标物跟踪轨迹精度测量方法的步骤。
本发明还提供了一种目标物跟踪轨迹精度测量系统,包括摄像装置和所述的跟踪轨迹精度测量终端,所述摄像装置和所述跟踪轨迹精度测量终 端相互配合确定所述跟踪轨迹精度。
进一步地,所述目标物为机器人,所述机器人顶部安装有光源装置,所述光源装置用于所述摄像装置识别所述机器人。
本发明提供的一种目标物跟踪轨迹精度测量方法、装置、终端及系统,适用于一定范围内跟踪轨迹精度的测量,其使用于室内,也适用于室外一定范围跟踪轨迹精度的测量,系统中的终端和摄像机相互配合完成对机器人的跟踪轨迹精度的测量,摄像机拍摄机器人跟踪过程中的图像,系统终端接收摄像机拍摄的图像,提取图像中机器人的图像位置信息,在摄像机内部位置参数和外部位置参数确定的情况,即可确定机器人的实际跟踪轨迹位置信息,将实际跟踪轨迹位置信息和预设目标轨迹上的机器人的位置信息通过对比规则确定两者的偏差,并对偏差求和除以偏差项数确定机器人跟踪轨迹的均值偏差,偏差的值域最大值1减去均值偏差便得到了机器人跟踪轨迹的精度。为了能够更有效或者能够采取更多的方式确定机器人的位置信息,在机器人的顶部安装有光源装置,具体的,光源装置为LED灯,主要用于提高周围的亮度,便于被摄像装置识别,或者便于被终端的算法能够识别到图像中机器人的位置,从而能够更准确有效的确定机器人的实际跟踪轨迹位置信息。进一步的,系统中的终端和摄像装置可以处于一个实体结构内,也可以是分开的但是相互连接的两个装置。光源装置也可以为红外光源,通过红外摄像装置同样可以实现对机器人的识别。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (16)
1.一种目标物跟踪轨迹精度测量方法,其特征在于,包括:
确定目标物的实际跟踪轨迹位置信息;
将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息;
根据所述偏差确定目标物的跟踪精度。
2.根据权利要求1所述的目标物跟踪轨迹精度测量方法,其特征在于,所述确定目标物的实际跟踪轨迹位置信息的步骤中,具体包括:
获取目标物在实际跟踪轨迹上的图像数据,依据所述图像数据确定目标物的实际跟踪轨迹位置信息。
3.根据权利要求2所述的目标物跟踪轨迹精度测量方法,其特征在于,所述确定目标物的实际跟踪轨迹位置信息的步骤前,还包括:
建立世界坐标系、摄像装置坐标系及图像坐标系。
4.根据权利要求3所述的目标物跟踪轨迹精度测量方法,其特征在于,确定目标物的实际跟踪轨迹位置信息的步骤中,还具体包括:
确定摄像装置的位置参数;
基于所述位置参数,确定目标物在世界坐标系中的所述实际跟踪轨迹位置信息。
5.根据权利要求4所述的目标物跟踪轨迹精度测量方法,其特征在于,所述摄像装置的位置参数包括内部位置参数和外部位置参数,所述内部位置参数为摄像装置的光学参数,所述外部位置参数为世界坐标系到摄像装置坐标系的变换系数。
6.根据权利要求5所述的目标物跟踪轨迹精度测量方法,其特征在于,所述光学参数为摄像装置的焦距和摄像装置的光心位置。
7.根据权利要求4所述的目标物跟踪轨迹精度测量方法,其特征在于,所述确定摄像装置的位置参数的步骤中,具体包括:
确定目标物在图像坐标系中的位置参数,其中,所述图像为摄像装置捕捉到目标物在跟踪过程中的图像。
8.根据权利要求4所述的目标物跟踪轨迹精度测量方法,其特征在于,所述目标物实际跟踪轨迹位置信息通过如下公式得到:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>u</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>v</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mi>k</mi>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>f</mi>
<mi>x</mi>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>u</mi>
<mn>0</mn>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>f</mi>
<mi>y</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>v</mi>
<mn>0</mn>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>R</mi>
</mtd>
<mtd>
<mi>T</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>X</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Y</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Z</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,R为摄像装置坐标系相对世界坐标系的旋转矩阵,T为摄像装置坐标系相对世界坐标系的平移矩阵,fx为沿摄像装置x轴的等效焦距,fy沿摄像装置y轴的等效焦距,uo、vo为摄像装置光轴与图像坐标系二维平面的交点,uo为交点在图像坐标系中x轴上的坐标,vo为交点在图像坐标系中y轴上的坐标,u为目标物在图像中的图像坐标系中X轴的坐标,v为目标物在图像中的图像坐标系中Y轴的坐标,Z为目标物高度,且为世界坐标系Z轴上的坐标,X目标物在世界坐标系中X轴上的坐标,Y为目标物在世界坐标系中Y轴上的坐标,k为目标物在摄像装置坐标系中的Z轴坐标值的倒数。
9.根据权利要求1所述的目标物跟踪轨迹精度测量方法,其特征在于,所述根据所述偏差确定目标物的跟踪精度的步骤中,具体包括:
对所述偏差进行标识处理,所述偏差与所述偏差的标识信息以映射关系进行存储;
对所述偏差进行均值处理,确定均值偏差;
所述均值偏差通过精度规则确定目标物的跟踪精度。
10.根据权利要求9所述的目标物跟踪轨迹精度测量方法,其特征在于,所述均值偏差通过如下均值公式处理所得,所述均值公式为
<mrow>
<mi>e</mi>
<mi>r</mi>
<mi>r</mi>
<mi>o</mi>
<mi>r</mi>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>i</mi>
<mo><</mo>
<mi>N</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mi>a</mi>
<mi>b</mi>
<mi>s</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>xi</mi>
<mo>&prime;</mo>
</msup>
<mo>-</mo>
<mi>x</mi>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
<mi>N</mi>
</mfrac>
</mrow>
其中,error表示偏差值,N表示偏差的项数,xi’表示目标物的预设跟踪轨迹位置信息,xi表示目标物的实际跟踪轨迹位置信息;
所述精度规则为
accuracy=1-error
其中,accuracy表示精度值。
11.根据权利1所述的目标物跟踪轨迹精度测量方法,其特征在于,所述预设跟踪轨迹位置信息和所述实际跟踪轨迹位置信息具有同一标识。
12.根据权利要求1或者11所述的目标物跟踪轨迹精度测量方法,其特征在于,所述将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息的步骤中,具体包括:
将实际跟踪轨迹上的实际轨迹点的位置信息和预设目标轨迹上离该实际轨迹点最近的预设轨迹点的位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差。
13.一种目标物跟踪轨迹精度测量装置,其特征在于,包括位置信息确定模块、偏差运算模块、精度运算模块;
所述位置确定信息模块,用于确定目标物的实际跟踪轨迹位置信息;
所述偏差运算模块,用于将所述实际跟踪轨迹位置信息和预设跟踪轨迹位置信息进行对比,确定所述实际跟踪轨迹位置信息和所述预设跟踪轨迹位置信息的偏差,其中,所述预设跟踪轨迹位置信息为预设目标轨迹上的位置信息;
所述精度运算模块,用于根据所述偏差确定目标物的跟踪精度。
14.一种目标物跟踪轨迹精度测量终端,其特征在于,包括处理器、存储器,所述存储器用于存储计算机程序,所述计算机程序被所述处理器执行时实现权利要求1-12任一项所述目标物跟踪轨迹精度测量方法的步骤。
15.一种目标物跟踪轨迹精度测量系统,其特征在于,包括摄像装置和权利要求14所述的目标物跟踪轨迹精度测量终端,所述摄像装置和所述目标物跟踪轨迹精度测量终端相互配合确定所述跟踪轨迹精度。
16.根据权利要求15所述的目标物跟踪轨迹精度测量系统,其特征在于,所述目标物为机器人,所述机器人顶部安装有光源装置,所述光源装置用于所述摄像装置识别所述机器人。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710741311.7A CN107481284A (zh) | 2017-08-25 | 2017-08-25 | 目标物跟踪轨迹精度测量的方法、装置、终端及系统 |
US15/966,345 US10832445B2 (en) | 2017-08-25 | 2018-04-30 | Method, apparatus, terminal and system for measuring trajectory tracking accuracy of target |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710741311.7A CN107481284A (zh) | 2017-08-25 | 2017-08-25 | 目标物跟踪轨迹精度测量的方法、装置、终端及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107481284A true CN107481284A (zh) | 2017-12-15 |
Family
ID=60601644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710741311.7A Pending CN107481284A (zh) | 2017-08-25 | 2017-08-25 | 目标物跟踪轨迹精度测量的方法、装置、终端及系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10832445B2 (zh) |
CN (1) | CN107481284A (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108681324A (zh) * | 2018-05-14 | 2018-10-19 | 西北工业大学 | 基于全局视觉的移动机器人轨迹跟踪控制方法 |
CN110009836A (zh) * | 2019-03-29 | 2019-07-12 | 江西理工大学 | 基于高光谱摄像技术的深度学习的系统及方法 |
CN110471412A (zh) * | 2019-08-01 | 2019-11-19 | 广州小鹏汽车科技有限公司 | 一种评估路径跟踪算法性能的方法及评估系统 |
CN110517292A (zh) * | 2019-08-29 | 2019-11-29 | 京东方科技集团股份有限公司 | 目标跟踪方法、装置、系统和计算机可读存储介质 |
CN110517298A (zh) * | 2019-08-27 | 2019-11-29 | 北京百度网讯科技有限公司 | 轨迹匹配方法和装置 |
CN110796709A (zh) * | 2019-10-29 | 2020-02-14 | 上海眼控科技股份有限公司 | 车架号尺寸获取方法、装置、计算机设备和存储介质 |
CN110801366A (zh) * | 2019-11-01 | 2020-02-18 | 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 | 一种摇杆式康复机构的被动轨迹误差检测装置及方法 |
CN111080679A (zh) * | 2020-01-02 | 2020-04-28 | 东南大学 | 一种对大型场所室内人员动态跟踪定位的方法 |
CN111609858A (zh) * | 2020-05-28 | 2020-09-01 | 新石器慧通(北京)科技有限公司 | 定位误差确定方法、轨迹生成方法、装置及交通工具 |
CN111709355A (zh) * | 2020-06-12 | 2020-09-25 | 北京百度网讯科技有限公司 | 识别目标区域的方法、装置、电子设备和路侧设备 |
CN111723597A (zh) * | 2019-03-18 | 2020-09-29 | 深圳市速腾聚创科技有限公司 | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 |
CN111723826A (zh) * | 2019-03-18 | 2020-09-29 | 深圳市速腾聚创科技有限公司 | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 |
CN111752254A (zh) * | 2019-03-28 | 2020-10-09 | 深圳市商汤科技有限公司 | 轨迹跟踪控制器的测试方法、装置、介质及设备 |
CN111783597A (zh) * | 2020-06-24 | 2020-10-16 | 中国第一汽车股份有限公司 | 行车轨迹线的标定方法、装置、计算机设备和存储介质 |
CN112418137A (zh) * | 2020-12-03 | 2021-02-26 | 杭州云笔智能科技有限公司 | 一种目标对象的操作识别方法和系统 |
CN112492196A (zh) * | 2020-10-29 | 2021-03-12 | 贝壳技术有限公司 | 一种直播进行中主播跟踪方法、装置及系统 |
CN113050424A (zh) * | 2021-03-19 | 2021-06-29 | 安徽理工大学环境友好材料与职业健康研究院(芜湖) | 基于图像识别智能化自适应控制方法与系统 |
CN113074766A (zh) * | 2021-03-19 | 2021-07-06 | 广东工业大学 | 面向微纳米视觉运动追踪的抗轴向偏差性能评估方法 |
CN113379800A (zh) * | 2021-06-11 | 2021-09-10 | 山东大学 | 基于双正交视图的单条鱼三维轨迹与朝向跟踪方法及系统 |
CN113724299A (zh) * | 2021-08-30 | 2021-11-30 | 上海大学 | 一种基于电液可调焦镜头的移动机器人追踪目标三维轨迹方法 |
CN114454216A (zh) * | 2022-03-07 | 2022-05-10 | 云鲸智能(深圳)有限公司 | 机器人的精度检测方法、装置、机器人及存储介质 |
WO2022121766A1 (zh) * | 2020-12-07 | 2022-06-16 | 天津天瞳威势电子科技有限公司 | 一种可行驶区域的检测方法及装置 |
CN114769800A (zh) * | 2022-06-20 | 2022-07-22 | 中建五洲工程装备有限公司 | 一种用于焊接过程的智能运行控制系统与方法 |
CN115100293A (zh) * | 2022-06-24 | 2022-09-23 | 河南工业大学 | 一种ads-b信号补盲方法 |
CN115588040A (zh) * | 2022-09-09 | 2023-01-10 | 四川省寰宇众恒科技有限公司 | 一种基于全视图成像点坐标统计定位系统及方法 |
CN115674202A (zh) * | 2022-11-01 | 2023-02-03 | 东北大学 | 一种机器人位姿校正的方法、装置和系统 |
US11797020B1 (en) * | 2020-10-16 | 2023-10-24 | Amazon Technologies, Inc. | System for autonomous mobile device motion control using image data |
CN117400256A (zh) * | 2023-11-21 | 2024-01-16 | 扬州鹏顺智能制造有限公司 | 一种基于视觉图像的工业机器人连续轨迹控制方法 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108897777B (zh) * | 2018-06-01 | 2022-06-17 | 深圳市商汤科技有限公司 | 目标对象追踪方法及装置、电子设备和存储介质 |
CN109191369B (zh) * | 2018-08-06 | 2023-05-05 | 三星电子(中国)研发中心 | 2d图片集转3d模型的方法、存储介质和装置 |
CN113486796B (zh) * | 2018-09-07 | 2023-09-05 | 百度在线网络技术(北京)有限公司 | 无人车位置检测方法、装置、设备、存储介质及车辆 |
TWI693829B (zh) * | 2018-12-24 | 2020-05-11 | 緯創資通股份有限公司 | 電子裝置及其影像測距方法 |
CN109799073B (zh) * | 2019-02-13 | 2021-10-22 | 京东方科技集团股份有限公司 | 一种光学畸变测量装置及方法、图像处理系统、电子设备和显示设备 |
CN110046209B (zh) * | 2019-03-26 | 2022-08-09 | 太原科技大学 | 一种基于高斯模型的轨迹停止点提取方法 |
CN109884590B (zh) * | 2019-03-28 | 2024-05-24 | 湖南第一师范学院 | 一种工业机器人轨迹精度检测装置及方法 |
TWI720447B (zh) * | 2019-03-28 | 2021-03-01 | 財團法人工業技術研究院 | 影像定位方法及其系統 |
CN110458782B (zh) * | 2019-08-15 | 2022-05-03 | 深圳市瑞立视多媒体科技有限公司 | 三维轨迹平滑处理方法、装置、设备及存储介质 |
CN110827321B (zh) * | 2019-10-16 | 2023-05-30 | 天津大学 | 一种基于三维信息的多相机协同的主动目标跟踪方法 |
CN111399634B (zh) * | 2019-11-25 | 2022-09-23 | 南京邮电大学 | 一种手势引导物体识别的方法及装置 |
CN111142099B (zh) * | 2020-01-06 | 2023-09-29 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 解决球面相控阵天线跟踪过顶盲捕目标的方法 |
CN113450414A (zh) * | 2020-03-24 | 2021-09-28 | 阿里巴巴集团控股有限公司 | 一种摄像机标定方法、设备、系统及存储介质 |
WO2021199305A1 (ja) * | 2020-03-31 | 2021-10-07 | 日本電気株式会社 | 制御装置、制御システム、制御方法、および、制御プログラムが記録された記録媒体 |
CN111583344B (zh) * | 2020-05-09 | 2023-09-12 | 杭州易现先进科技有限公司 | 时空标定的方法、系统、计算机设备和存储介质 |
CN113706574B (zh) * | 2020-05-20 | 2024-01-02 | 杭州海康威视数字技术股份有限公司 | 一种移动轨迹确定方法、装置、电子设备及存储介质 |
CN113290570B (zh) * | 2020-07-20 | 2024-04-19 | 阿里巴巴集团控股有限公司 | 夹持装置、数据中心运维机器人及装配机器人 |
CN111986312B (zh) * | 2020-08-14 | 2022-04-22 | 连云港引航站 | 一种船舶轨迹绘制方法、终端设备及存储介质 |
CN112396633B (zh) * | 2020-10-19 | 2023-02-28 | 北京理工大学 | 基于单摄像机的目标跟踪及轨迹三维重现方法和装置 |
CN112435350A (zh) * | 2020-11-19 | 2021-03-02 | 深圳群宾精密工业有限公司 | 一种加工轨迹形变补偿方法及系统 |
CN112530267B (zh) * | 2020-12-17 | 2022-11-08 | 河北工业大学 | 一种基于计算机视觉的机械臂智能示教方法及应用 |
CN113157092B (zh) * | 2021-04-08 | 2023-03-24 | 海信视像科技股份有限公司 | 可视化方法、终端设备和存储介质 |
CN114066991B (zh) * | 2021-10-11 | 2024-07-26 | 北京师范大学 | 一种基于空间平面单应不动点约束的光场相机标定方法 |
CN114034290B (zh) * | 2021-11-09 | 2023-07-04 | 深圳海外装饰工程有限公司 | 放样机器人系统的放样方法 |
CN115047894B (zh) * | 2022-04-14 | 2023-09-15 | 中国民用航空总局第二研究所 | 一种无人机轨迹测算方法、电子设备及存储介质 |
CN115388911A (zh) * | 2022-08-24 | 2022-11-25 | Oppo广东移动通信有限公司 | 光学动作捕捉系统的精度测量方法、装置、电子设备 |
CN116123995B (zh) * | 2022-11-08 | 2024-05-31 | 中国科学院自动化研究所 | 目标点测量方法、装置、电子设备及存储介质 |
CN117367425B (zh) * | 2023-09-18 | 2024-05-28 | 广州里工实业有限公司 | 一种基于多相机融合的移动机器人定位方法及系统 |
CN118061204A (zh) * | 2024-04-24 | 2024-05-24 | 成都飞机工业(集团)有限责任公司 | 一种冗余自由度机器人的运动最优目标姿态求解方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102699733A (zh) * | 2012-06-12 | 2012-10-03 | 大连理工大学 | 自动换刀机械手臂运动轨迹的测量方法和装置 |
CN103279642A (zh) * | 2013-04-25 | 2013-09-04 | 上海卫星工程研究所 | 无地面控制点的目标定位精度分析方法 |
CN106127137A (zh) * | 2016-06-21 | 2016-11-16 | 长安大学 | 一种基于3d轨迹分析的目标检测识别算法 |
CN106355604A (zh) * | 2016-08-22 | 2017-01-25 | 湖南挚新科技发展有限公司 | 图像目标跟踪方法与系统 |
CN106443733A (zh) * | 2016-08-26 | 2017-02-22 | 广州极飞科技有限公司 | 一种无人机的定位系统和方法 |
CN106548475A (zh) * | 2016-11-18 | 2017-03-29 | 西北工业大学 | 一种适用于空间非合作自旋目标运动轨迹的预测方法 |
CN106950999A (zh) * | 2017-03-20 | 2017-07-14 | 浙江工业大学 | 一种采用自抗扰控制技术的移动舞台轨迹跟踪控制方法 |
CN107063304A (zh) * | 2017-04-06 | 2017-08-18 | 中国科学院光电技术研究所 | 一种光电跟踪测量设备指向误差验证方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU3549100A (en) * | 1999-04-19 | 2000-11-02 | Leica Geosystems Ag | Indirect position determination with the aid of a tracker |
US20060241788A1 (en) * | 2005-01-26 | 2006-10-26 | Lakshminarayan Srinivasan | System and method for providing a combined bioprosthetic specification of goal state and path of states to goal |
US8089518B2 (en) * | 2007-11-16 | 2012-01-03 | Samsung Electronics Co., Ltd. | System and method for automatic image capture in a handheld camera with a multiple-axis actuating mechanism |
US20100020254A1 (en) * | 2008-07-23 | 2010-01-28 | Zheng Jason Geng | Multi-panel virtual image display |
JP6144826B2 (ja) * | 2013-06-11 | 2017-06-07 | クアルコム,インコーポレイテッド | データベース作成のための対話型および自動的3dオブジェクト走査方法 |
US10349917B2 (en) * | 2014-06-11 | 2019-07-16 | The Johns Hopkins University | Synthetic aperture ultrasound system |
GB201419883D0 (en) * | 2014-11-07 | 2014-12-24 | F Robotics Acquisitions Ltd | Domestic robotic system and method |
US10607182B2 (en) * | 2015-11-09 | 2020-03-31 | Simbe Robotics, Inc. | Method for tracking stock level within a store |
CN106595634A (zh) * | 2016-11-30 | 2017-04-26 | 深圳市有光图像科技有限公司 | 通过对比图像识别移动机器人的位置的方法及移动机器人 |
US10335947B1 (en) * | 2019-01-18 | 2019-07-02 | Mujin, Inc. | Robotic system with piece-loss management mechanism |
US10456915B1 (en) * | 2019-01-25 | 2019-10-29 | Mujin, Inc. | Robotic system with enhanced scanning mechanism |
-
2017
- 2017-08-25 CN CN201710741311.7A patent/CN107481284A/zh active Pending
-
2018
- 2018-04-30 US US15/966,345 patent/US10832445B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102699733A (zh) * | 2012-06-12 | 2012-10-03 | 大连理工大学 | 自动换刀机械手臂运动轨迹的测量方法和装置 |
CN103279642A (zh) * | 2013-04-25 | 2013-09-04 | 上海卫星工程研究所 | 无地面控制点的目标定位精度分析方法 |
CN106127137A (zh) * | 2016-06-21 | 2016-11-16 | 长安大学 | 一种基于3d轨迹分析的目标检测识别算法 |
CN106355604A (zh) * | 2016-08-22 | 2017-01-25 | 湖南挚新科技发展有限公司 | 图像目标跟踪方法与系统 |
CN106443733A (zh) * | 2016-08-26 | 2017-02-22 | 广州极飞科技有限公司 | 一种无人机的定位系统和方法 |
CN106548475A (zh) * | 2016-11-18 | 2017-03-29 | 西北工业大学 | 一种适用于空间非合作自旋目标运动轨迹的预测方法 |
CN106950999A (zh) * | 2017-03-20 | 2017-07-14 | 浙江工业大学 | 一种采用自抗扰控制技术的移动舞台轨迹跟踪控制方法 |
CN107063304A (zh) * | 2017-04-06 | 2017-08-18 | 中国科学院光电技术研究所 | 一种光电跟踪测量设备指向误差验证方法 |
Non-Patent Citations (1)
Title |
---|
邱荷珍等: ""全驱动船舶轨迹跟踪初始位置影响分析"", 《海洋工程》 * |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108681324A (zh) * | 2018-05-14 | 2018-10-19 | 西北工业大学 | 基于全局视觉的移动机器人轨迹跟踪控制方法 |
CN111723597A (zh) * | 2019-03-18 | 2020-09-29 | 深圳市速腾聚创科技有限公司 | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 |
CN111723826B (zh) * | 2019-03-18 | 2023-08-29 | 深圳市速腾聚创科技有限公司 | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 |
CN111723826A (zh) * | 2019-03-18 | 2020-09-29 | 深圳市速腾聚创科技有限公司 | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 |
CN111752254A (zh) * | 2019-03-28 | 2020-10-09 | 深圳市商汤科技有限公司 | 轨迹跟踪控制器的测试方法、装置、介质及设备 |
CN110009836A (zh) * | 2019-03-29 | 2019-07-12 | 江西理工大学 | 基于高光谱摄像技术的深度学习的系统及方法 |
CN110471412A (zh) * | 2019-08-01 | 2019-11-19 | 广州小鹏汽车科技有限公司 | 一种评估路径跟踪算法性能的方法及评估系统 |
CN110517298B (zh) * | 2019-08-27 | 2022-10-21 | 北京百度网讯科技有限公司 | 轨迹匹配方法和装置 |
CN110517298A (zh) * | 2019-08-27 | 2019-11-29 | 北京百度网讯科技有限公司 | 轨迹匹配方法和装置 |
US11455735B2 (en) | 2019-08-29 | 2022-09-27 | Beijing Boe Technology Development Co., Ltd. | Target tracking method, device, system and non-transitory computer readable storage medium |
CN110517292A (zh) * | 2019-08-29 | 2019-11-29 | 京东方科技集团股份有限公司 | 目标跟踪方法、装置、系统和计算机可读存储介质 |
CN110796709A (zh) * | 2019-10-29 | 2020-02-14 | 上海眼控科技股份有限公司 | 车架号尺寸获取方法、装置、计算机设备和存储介质 |
CN110801366B (zh) * | 2019-11-01 | 2021-11-19 | 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 | 一种摇杆式康复机构的被动轨迹误差检测装置及方法 |
CN110801366A (zh) * | 2019-11-01 | 2020-02-18 | 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 | 一种摇杆式康复机构的被动轨迹误差检测装置及方法 |
CN111080679A (zh) * | 2020-01-02 | 2020-04-28 | 东南大学 | 一种对大型场所室内人员动态跟踪定位的方法 |
CN111609858A (zh) * | 2020-05-28 | 2020-09-01 | 新石器慧通(北京)科技有限公司 | 定位误差确定方法、轨迹生成方法、装置及交通工具 |
CN111609858B (zh) * | 2020-05-28 | 2021-10-22 | 新石器慧通(北京)科技有限公司 | 定位误差确定方法、轨迹生成方法、装置及交通工具 |
CN111709355B (zh) * | 2020-06-12 | 2023-08-29 | 阿波罗智联(北京)科技有限公司 | 识别目标区域的方法、装置、电子设备和路侧设备 |
CN111709355A (zh) * | 2020-06-12 | 2020-09-25 | 北京百度网讯科技有限公司 | 识别目标区域的方法、装置、电子设备和路侧设备 |
CN111783597A (zh) * | 2020-06-24 | 2020-10-16 | 中国第一汽车股份有限公司 | 行车轨迹线的标定方法、装置、计算机设备和存储介质 |
US11797020B1 (en) * | 2020-10-16 | 2023-10-24 | Amazon Technologies, Inc. | System for autonomous mobile device motion control using image data |
CN112492196A (zh) * | 2020-10-29 | 2021-03-12 | 贝壳技术有限公司 | 一种直播进行中主播跟踪方法、装置及系统 |
CN112492196B (zh) * | 2020-10-29 | 2022-01-07 | 贝壳技术有限公司 | 一种直播进行中主播跟踪方法、装置及系统 |
CN112418137A (zh) * | 2020-12-03 | 2021-02-26 | 杭州云笔智能科技有限公司 | 一种目标对象的操作识别方法和系统 |
WO2022121766A1 (zh) * | 2020-12-07 | 2022-06-16 | 天津天瞳威势电子科技有限公司 | 一种可行驶区域的检测方法及装置 |
CN113050424A (zh) * | 2021-03-19 | 2021-06-29 | 安徽理工大学环境友好材料与职业健康研究院(芜湖) | 基于图像识别智能化自适应控制方法与系统 |
CN113074766A (zh) * | 2021-03-19 | 2021-07-06 | 广东工业大学 | 面向微纳米视觉运动追踪的抗轴向偏差性能评估方法 |
CN113074766B (zh) * | 2021-03-19 | 2023-01-10 | 广东工业大学 | 一种微纳米视觉运动追踪系统 |
CN113379800B (zh) * | 2021-06-11 | 2022-07-29 | 山东大学 | 基于双正交视图的单条鱼三维轨迹与朝向跟踪方法及系统 |
CN113379800A (zh) * | 2021-06-11 | 2021-09-10 | 山东大学 | 基于双正交视图的单条鱼三维轨迹与朝向跟踪方法及系统 |
CN113724299A (zh) * | 2021-08-30 | 2021-11-30 | 上海大学 | 一种基于电液可调焦镜头的移动机器人追踪目标三维轨迹方法 |
CN113724299B (zh) * | 2021-08-30 | 2023-09-19 | 上海大学 | 一种基于电液可调焦镜头的移动机器人追踪目标三维轨迹方法 |
CN114454216B (zh) * | 2022-03-07 | 2023-10-10 | 云鲸智能(深圳)有限公司 | 机器人的精度检测方法、装置、机器人及存储介质 |
CN114454216A (zh) * | 2022-03-07 | 2022-05-10 | 云鲸智能(深圳)有限公司 | 机器人的精度检测方法、装置、机器人及存储介质 |
CN114769800B (zh) * | 2022-06-20 | 2022-09-27 | 中建五洲工程装备有限公司 | 一种用于焊接过程的智能运行控制系统与方法 |
CN114769800A (zh) * | 2022-06-20 | 2022-07-22 | 中建五洲工程装备有限公司 | 一种用于焊接过程的智能运行控制系统与方法 |
CN115100293A (zh) * | 2022-06-24 | 2022-09-23 | 河南工业大学 | 一种ads-b信号补盲方法 |
CN115588040A (zh) * | 2022-09-09 | 2023-01-10 | 四川省寰宇众恒科技有限公司 | 一种基于全视图成像点坐标统计定位系统及方法 |
CN115674202A (zh) * | 2022-11-01 | 2023-02-03 | 东北大学 | 一种机器人位姿校正的方法、装置和系统 |
CN117400256A (zh) * | 2023-11-21 | 2024-01-16 | 扬州鹏顺智能制造有限公司 | 一种基于视觉图像的工业机器人连续轨迹控制方法 |
CN117400256B (zh) * | 2023-11-21 | 2024-05-31 | 扬州鹏顺智能制造有限公司 | 一种基于视觉图像的工业机器人连续轨迹控制方法 |
Also Published As
Publication number | Publication date |
---|---|
US10832445B2 (en) | 2020-11-10 |
US20190066334A1 (en) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107481284A (zh) | 目标物跟踪轨迹精度测量的方法、装置、终端及系统 | |
CN107063228B (zh) | 基于双目视觉的目标姿态解算方法 | |
CN107705328B (zh) | 用于3d对准算法的平衡探针位置选择 | |
CN106408609B (zh) | 一种基于双目视觉的并联机构末端运动位姿检测方法 | |
Muñoz-Bañón et al. | Targetless camera-LiDAR calibration in unstructured environments | |
Semeniuta | Analysis of camera calibration with respect to measurement accuracy | |
US11676301B2 (en) | System and method for efficiently scoring probes in an image with a vision system | |
CN107977996B (zh) | 基于靶标标定定位模型的空间目标定位方法 | |
US12073582B2 (en) | Method and apparatus for determining a three-dimensional position and pose of a fiducial marker | |
CN113470090A (zh) | 基于sift-shot特征的多固态激光雷达外参标定方法 | |
CN111640158A (zh) | 基于对应掩模的端到端的摄像头与激光雷达外参标定方法 | |
CN116433737A (zh) | 一种激光雷达点云与图像配准的方法、装置及智能终端 | |
CN110146017A (zh) | 工业机器人重复定位精度测量方法 | |
CN110648362A (zh) | 一种双目立体视觉的羽毛球定位识别与姿态计算方法 | |
CN111583342A (zh) | 一种基于双目视觉的目标快速定位方法及装置 | |
Guo et al. | Binocular stereo vision calibration based on accurate ellipse detection algorithm of direct calculation and grating conversion check | |
Liu et al. | A Method for Synchronous Automated Extrinsic Calibration of LiDAR and Cameras Based on a Circular Calibration Board | |
CN109544509B (zh) | 一种基于二次模板匹配的工件定位方法、设备及存储设备 | |
CN112529960A (zh) | 目标对象的定位方法、装置、处理器和电子装置 | |
Sheng et al. | Image segmentation and object measurement based on stereo vision | |
Egorova et al. | Plug and play: Fast automatic geometry and color calibration for cameras tracking robots | |
CN117173376B (zh) | 一种医美设备的移动轨迹规划方法及系统 | |
CN110264508B (zh) | 一种基于凸四边形原则的消影点估计方法 | |
Pan et al. | 6D Pose Estimation Based on Multiple Appearance Features from Single Color Image | |
Töberg et al. | Dense structure and motion recovery from scanning electron microscope image sequences based on factorization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171215 |
|
RJ01 | Rejection of invention patent application after publication |